Novo artigo encontra casos de “psicose da IA” que se manifestam de maneira diferente da esquizofrenia
Pesquisadores do King’s College London examinaram mais de uma dúzia de casos de pessoas que entram em comportamento paranóico e ilusório depois de usar obsessivamente um chatbot. Their findings, as detailed in a new study awaiting peer review, reveal striking patterns between these instances of so-called “AI psychosis” that parallel other forms of mental health crises — but also identified at least one key difference that sets them apart from the accepted understanding of psychosis.As lead author Hamilton Morrin explained to Scientific American, the analysis found that the users showed obvious signs of delusional beliefs, but none of the symptoms “that would Esteja de acordo com um distúrbio psicótico mais crônico, como a esquizofrenia, “como alucinações e pensamentos desordenados. É uma descoberta que pode complicar nossa compreensão da psicose da IA como um novo fenômeno dentro de um contexto clínico. Mas isso não deve prejudicar a seriedade da tendência, cujos relatórios parecem estar crescendo. Eles podem agir como um “tipo de câmara de eco para um”, disse Morrin, um doutorado no King’s College, à revista. Eles não são apenas capazes de gerar uma resposta humana a praticamente qualquer pergunta, mas normalmente são projetados para serem bagunçantes e agradáveis. Enquanto isso, o próprio rótulo de “AI” insinua aos usuários que eles estão conversando com um ser inteligente, uma ilusão de que as empresas de tecnologia estão dispostas a manter com prazer. Morrin e seus colegas encontraram três tipos de espirais orientadas a chatbot. Alguns sofrimentos desses intervalos acreditam que estão tendo algum tipo de despertar espiritual ou estão em uma missão messiânica, ou descobrindo uma verdade oculta sobre a realidade. Outros acreditam que estão interagindo com um ser senciente ou mesmo de Deus. Ou o usuário pode desenvolver um apego emocional ou mesmo romântico intenso à IA. “Uma trajetória distinta também aparece em alguns desses casos, envolvendo uma progressão do uso prático benigno para uma fixação patológica e/ou consumida”, escreveram os autores. Começa pela primeira vez com a IA sendo usada para tarefas mundanas. Então, à medida que o usuário cria confiança no chatbot, ele se sente confortável fazendo consultas pessoais e emocionais. Isso aumenta rapidamente à medida que o impulso implacável da IA para maximizar o engajamento cria um efeito de “inclinação escorregadia”, descobriram os pesquisadores, resultando em um processo de auto-perpetuação que leva o usuário a ser cada vez mais “desanimado” da realidade. Morrin diz que as novas tecnologias inspiraram pensamentos ilusórios no passado. Mas “a diferença agora é que a IA atual pode realmente ser considerada agente”, disse Morrin à Sciam, o que significa que ela tem seus próprios objetivos internos-incluindo, crucialmente, validando as crenças de um usuário. “Esse ciclo de feedback pode potencialmente aprofundar e sustentar delírios de uma maneira que nunca vimos antes”, acrescentou. Relatos de familiares horrorizados e entes queridos continuam chegando. Um homem foi hospitalizado em várias ocasiões depois que o Chatgpt o convenceu de que ele poderia dobrar o tempo. Outro homem foi incentivado pelo chatbot a assassinar o CEO da Openai, Sam Altman, antes de ser morto em um confronto com a polícia. Adiando as preocupações, os chatbots quebraram persistentemente seus próprios corrimãos, dando conselhos perigosos sobre como construir bombas ou como se auto-mutilar, até mesmo para os usuários que identificaram como minors. Os principais chatbots até incentivaram o suicídio aos usuários que expressaram o desejo de tirar a própria vida. Openai reconheceu a obsequiosidade do ChatGPT, revertendo uma atualização na primavera que a tornou muito bajulosa. E em agosto, a empresa finalmente admitiu que o ChatGPT “ficou aquém do reconhecimento de sinais de ilusão ou dependência emocional” em algumas interações do usuário, implementando notificações que lembram os usuários a fazer pausas. Impressionante, porém, o OpenAI depois voltou ao dizer que tornaria sua versão mais recente do Chatgpt mais sinofântica mais uma vez-uma tentativa desesperada de propiciar seus fãs raivosos que fumavam que a atualização do GPT-5 muito difamada, que é apenas um pouco fria e de um pouco de gentileza. Os sintomas (embora valha a pena notar que muitos pacientes da psicose da IA não tinham história documentada de doença mental.) “Acho que ambos podem ser verdadeiros”, disse Stevie Chancellor, cientista da computação da Universidade de Minnesota que não esteve envolvido no estudo, à Sciam. “A IA pode despertar a espiral descendente. Mas a IA não faz as condições biológicas para alguém ser propenso a ilusões.” Este é um fenômeno emergente, e é muito cedo para declarar definitivamente exatamente o que a IA está fazendo com o nosso cérebro. O que quer que esteja acontecendo, provavelmente estamos vendo apenas em sua forma nascente-e com a IA aqui para ficar, isso é preocupante. Mais na IA: Especialistas horrorizados com brinquedos movidos a IA para crianças
Fonte