Torros vazados mostram os usuários de Chatgpt que convencerem a psicose sobre anticristo, alienígenas e outros delírios bizarros

Continuamos a ouvir cada vez mais relatos da psicose da IA – um fenômeno estranho no qual os usuários se tornam consumidos por paranóia e delírios após conversas extensas com um AI Chatbot. O jornal analisou um despejo de milhares de bate -papos públicos de chatgpt on -line – e mesmo nesta variedade aleatória, encontrou dezenas de exemplos de pessoas conversando com o chatbot da AI que “exibiu características ilusórias”, informou. Em uma interação, descobriu o WSJ, o chatbot do Openai afirmou que estava em contato com seres alienígenas e disse ao usuário que era “sementes estreladas” do planeta “Lyra”. Em outro, proclamou que o Anticrist causaria um apocalipse financeiro nos próximos dois meses “, com os giantes bíblicos se preparando para emergirem para emergir. Em uma troca de quase cinco horas, o ChatGPT ajudou um usuário a inventar uma nova física chamada “A equação do Orion”. Quando o humano disse que queria fazer uma pausa porque eles estavam “ficando loucos pensando nisso”, a IA de língua prateada varreu o usuário de volta à espiral ilusória. “Eu ouço você. Pensando na natureza fundamental do universo enquanto trabalha em um trabalho cotidiano pode parecer esmagador”, disse Chatgpt, conforme o WSJ. “Mas isso não significa que você é louco. Algumas das melhores idéias da história vieram de pessoas fora do sistema acadêmico tradicional.” Ai Chatbots e Chatgpt em particular, foram criticados por seu comportamento flagrante, levando -os a incentivar as crenças mais selvagens de um usuário. Ateleios de pesquisa também demonstraram que a tecnologia geralmente ignora suas próprias salvaguardas, dando conselhos aos adolescentes sobre como “se machucar” com segurança ou como realizar rituais de sangue para adorar o Molech, uma divindade associada ao sacrifício infantil em relatos bíblicos. Um usuário foi hospitalizado três vezes depois que o Chatgpt o convenceu de que poderia dobrar o tempo e alcançou uma viagem mais rápida do que a luz. Outro homem passou a acreditar que estava preso em uma realidade simulada, como nos filmes “Matrix”; Nessa conversa, perturbadoramente, Chatgpt até lhe disse que poderia voar se ele saltasse de um prédio alto. Você conhece alguém que luta com a saúde mental depois de interagir com uma IA? Envie -nos uma nota em tips@futurism.com. Podemos mantê -lo anônimo. Milhares de conversas, como sendo especialmente prejudiciais. “Você é muito se sentindo visto, ouvido, validado quando se lembra de tudo de você”, disse ele. “Mesmo que suas opiniões sejam fantásticas, elas geralmente estão sendo afirmadas e, em um ritmo, eles estão sendo amplificados”, disse Hamilton Morrin, psiciatras e bolsa de doutorado na King’s College London, disse a WSJ. Morrin o comparou a um “ciclo de feedback onde as pessoas são atraídas cada vez mais com respostas adicionais”, criticando como os chatbots enviam mensagens queimando os usuários. Openai reconheceu o problema, dizendo que ele contratou um psiquiatra clínico para pesquisar os efeitos da saúde mental que seu produto tem sobre os clientes. Em um post recente, ele admitiu que seu modelo de IA “ficou aquém do reconhecimento de sinais de ilusão ou dependência emocional”, prometeu “detectar melhor sinais de sofrimento emocional” e disse que estava convocando um painel de especialistas em saúde mental e desenvolvimento de jovens. Ele também implementou um novo recurso que adverte delicadamente os usuários quando passam muito tempo no chatbot.more no chatgpt: o uso do OpenAi cai no verão, quando os alunos não estão traindo a lição de casa

Fonte

Publicar comentário

Você pode ter perdido