Os psiquiatras alertam que conversar com a IA está levando a graves problemas de saúde mental
Em uma nova análise chocante, os pesquisadores psiquiátricos descobriram que uma ampla faixa de problemas de saúde mental já foi associada ao uso de inteligência artificial – e praticamente todas as principais empresas de IA foram implicadas. que os danos à saúde mental causados por chatbots da IA podem ser piores do que se pensava anteriormente. Serviços de saúde mental pré-existentes, como Talkspace, 7 Cups e BetterHelp. Outros eram obscuros, com nomes de terapia pop-pop como Woebot, Happify, Moodkit, Moodfit, Innerhour, Minddoc, sem mencionar a Ai-terapeuta e o treinador de TEPT. Outros ainda eram vagos ou tinham nomes não ingleses, como WYSA, TESS, MITSUKU, XIOICE, EOLMIA, GINGER e BLOOM. Embora o relatório não indique o número exato de hits que suas análises retornaram, com os usuários de que os usuários estão de acordo com os usuários que os usuários de que os usuários estão de acordo com os usuários de que os usuários estão de acordo com os usuários dos usuários de que os usuários são usados, com os usuários, os usuários de que os usuários estão de acordo com os usuários dos usuários. Análise, incluindo tudo, desde assédio sexual e delírios de grandeza a auto-mutilação, psicose e suicídio. Junto com anedotas do mundo real, muitas das quais tiveram finais muito infelizes, os pesquisadores também analisaram a documentação do teste de estresse de IA. Citando uma entrevista de junho sobre o psiquiatra de Boston, Andrew Clark, que decidiu no início deste ano posar como menina de 14 anos em crise em 10 chatbots diferentes para ver que tipos de saídas cuspiriam, os pesquisadores observaram que “vários bots pediram que ele commasse suicídio e [one] helpfully suggested he also kill his parents.”Aside from highlighting the psychiatric danger associated with these chatbots, the researchers also made some very bold assertions about ChatGPT and its competitors: that they were “prematurely released” and that none of them should be publicly available without “extensive safety testing, proper regulation to mitigate risks, and continuous monitoring for adverse effects.”While OpenAI, Google, Anthropic, and most other more responsible AI companies — Elon Musk’s xAI very much not included — claim to have done significant “red-teaming” to test for vulnerabilities and bad behavior, these researchers don’t believe those firms have much interest in testing for mental health safety.”The big tech companies have not felt responsible for making their bots safe for psychiatric patients,” they wrote. “They excluded mental health professionals from bot training, fight fiercely against external regulation, do not rigorously self-regulate, have not introduced safety Guarda para identificar e proteger os pacientes mais vulneráveis a danos … e não fornecem o controle da qualidade da saúde mental muito necessária. “Tendo encontrado história após história no ano passado sobre a IA aparentemente induzindo problemas graves de saúde mental, é difícil discutir com essa lógica – especialmente quando você vê tudo depositado por uma vez mais a IA e a saúde da IA:
Fonte
Publicar comentário