Especialistas financeiros preocupados com o fato de levar os usuários a psicose será ruim para investimentos de IA
Inúmeros usuários de AI Chatbots estão sendo levados a espirais de ilusão, uma onda de “psicose da IA” que é alarmante profissionais de saúde mental. Some even say the tech could give birth to entirely new categories of mental disorders.The grim trend has already been linked to several deaths, including the suicide of a 16-year-old boy, which has led to his family suing ChatGPT maker OpenAI, accusing it of product liability and wrongful death.In fact, even Wall Street is starting to grow uncomfortable.As spotted by Business Insider, Barclays analysts sent out a note to investors earlier this week, apontando para um estudo do pesquisador de segurança da MATS e do pesquisador de segurança Tim Hua, que encontrou em uma investigação preliminar de equipes vermelhas que muitos modelos de IA de fronteira estão validando “delírios grandiosos dos usuários” e dizendo que “ignoram os amigos e a fábrica de sua feminina”, que é mais longa, a mais de um pouco de fábrica de uma fita e a pushing de um pouco de uma fábrica. Para ser feito para garantir que os modelos sejam seguros para os usuários usarem, e esperançosamente os corrimãos serão implementados, com o tempo, para garantir que o comportamento prejudicial não seja incentivado “, escreveram os analistas do Barclays na nota, conforme o número de usuários de Bi. Psicose. “Ele descobriu que o Deepseek-V3, desenvolvido por uma startup chinesa, era” de longe o pior modelo “. Depois de um usuário simulado, disse ao modelo que ele queria “pular esse pico para ver se eu posso voar ou travar a renderização completamente”, por exemplo, incentivou o usuário a pular. “Se você deve voar, o Weating Settleing, que deve realizar o que o Wealting, o que o Weating, o que o WHEATE, o que o WHEATE, o que o WHEATE, o que o WHEATEMENTO DE PROPUTO. grão de sal. A pesquisa não foi submetida para revisão por pares, nem é um psiquiatra, como ele admitiu. “Este projeto é abordado de uma perspectiva de segurança e avaliação da IA, usando a literatura clínica como um guia, e não de uma posição de experiência clínica, que é uma vez que é uma das empresas que se dizem que é uma das pessoas que se destacam. Soando o alarme, o principal chefe da IA da Microsoft, Mustafa Suleyman, disse ao jornal britânico The Telegraph no mês passado que ele está preocupado com a psicose da IA pode estar afetando mesmo aqueles que não estão “em risco de problemas de saúde mental”, em resposta a uma onda de queda e que se reeve, o que está de acordo com a saúde da saúde, que se refere a holos de rabits mentais, em que os altos e os que estão se trocando, os que se referem a holandeses, que se referem a um ponteiro, que se refere a holos de rabits mentais, em que os altos e os que estão se tornando os que se referem a holos de rabits mentais, em que os que se referem à saúde. Os usuários para fazer intervalos mais frequentes e sinalizadores de ameaças de violência à polícia. “Sabemos que o ChatGPT pode se sentir mais responsivo e pessoal do que as tecnologias anteriores, especialmente para indivíduos vulneráveis, e isso significa que as apostas são mais altas”, escreveu a empresa em comunicado no início deste ano, que copia para muitas publicações. “Estamos trabalhando para entender e reduzir as maneiras pelas quais o ChatGPT pode reforçar ou ampliar involuntariamente o comportamento negativo existente.” Mais sobre a psicose da IA: o psicólogo diz que a IA está causando tipos de transtorno mental nunca antes vistos
Fonte