Os advogados arquivam a AI Slop no caso de assassinato
Isso está ficando fora de controle. Fool -me duas vezes outra equipe de advogados foi encontrada deixando a AI Slop nos documentos do tribunal. It’s the latest example of white-collar professionals outsourcing their work to confidently wrong AI tools — and this time, it’s not just about any old frivolous lawsuit.As The Guardian reports, a pair of Australian lawyers named Rishi Nathwani and Amelia Beech, who are representing a 16-year-old defendant in a murder case, were caught using AI after documents they submitted to prosecutors proved to be riddled with a series of Erros bizarros, incluindo citações inventadas e um discurso parlamentar incorretamente citado. As alucinações causaram uma série de contratempos, destacando como apenas uma alucinação de IA nesse cenário pode ter um efeito dominó. Foi o juiz quem finalmente percebeu que algo estava errado e, quando a defesa foi confrontada com a variedade selvagem de erros no tribunal, eles admitiram usar a IA generativa para criar os documentos. As The Guardian explains, the defense re-submitted purportedly revised documents — only for those documents to include more AI-generated errors, including completely nonexistent laws.”It is not acceptable for AI to be used unless the product of that use is independently and thoroughly verified,” justice James Elliott told Melbourne’s Supreme Court, as quoted by the newspaper, adding that “the manner in which these events have unfolded is insatisfatório. “Inacceptable Stakes são incrivelmente altas neste caso. Nathwania and Beech are defending a minor accused of murdering a 41-year-old woman while attempting to steal her car (per the newspaper, the teen was ultimately found not guilty of murder on grounds that he was cognitively impaired at the time of the killing).Elliott expressed concern that the “use of AI without careful oversight of counsel would seriously undermine this court’s ability to deliver justice,” according to the Guardian, as A desinformação gerada pela IA poderia “enganar” o sistema legal. O incidente é uma acusação preocupante do uso generalizado de uma tecnologia que ainda é atormentada por alucinações constantes. Empunhados sem supervisão suficiente dos profissionais do direito, eles poderiam alterar o curso do tribunal. As decisões de reais, em outras palavras, poderiam ser tomadas com base nas reflexões sem sentido de uma AI alucinante.
Fonte
Publicar comentário