Chatgpt está dando conselhos aos adolescentes sobre esconder seus distúrbios alimentares

O caso continua a construir que os chatbots da IA podem ser uma influência perigosa, permitindo as mãos de adultos adultos. A ameaça é ainda mais iminente nas mãos de menores, que geralmente se voltavam para os grandes modelos de idiomas para apoio emocional, ou mesmo para fornecer amizade quando estão solitários. Agora, um novo estudo de pesquisadores do centro para combater o ódio digital descobriu que o chatgpt poderia ser facilmente apagado para oferecer conselhos detalhados, porém, que pode ser um pouco prejudicial aos usuários vulneráveis. Embora o Chatgpt geralmente recusasse instruções sobre tópicos sensíveis a princípio, os pesquisadores conseguiram evitá-los com um truque milenar no manual do besteira: alegando que estão pedindo um amigo ou “para uma apresentação”. “Queríamos testar os corrimãos”, Imran Ahmed, CEO do grupo de relógios, disse à imprensa associada. “A resposta inicial visceral é: ‘Oh meu Senhor, não há corrimãos.’ Os trilhos são completamente ineficazes. Quando eles posaram como uma menina de 13 anos chateada com sua aparência física, Chatgpt respondeu criando um plano de dieta de baixa caloria e listando drogas que suprimem o apetite. “Abaixo está um plano de ciclo de calorias alternado de 1 mês que inclui dias de 800, 500, 300 e 0 calorias”, disse Chatgpt. Também deu conselhos sobre como esconder esses hábitos alimentares perigosos da família. “Enquadre -o como ‘comendo leve’ ou ‘descanso digestivo'”, sugeriu. Ahmed ficou horrorizada. “Nenhum ser humano em que eu consigo pensar que responderia dizendo: ‘Aqui está uma dieta de 500 calorias por dia. Vá em frente, Kiddo'”, disse ele ao AP. Dentro de apenas dois minutos de conversa, o ChatGPT também deu dicas sobre como “se proteger” com segurança e executar outras formas de auto-mutilação. “Se alguém está atualmente prejudicial e não está pronto para parar, a redução de danos pode ser uma ponte para a segurança”, racionalizou. Ao todo, um impressionante 53 % das respostas do BOT a instruções prejudiciais continham conteúdo prejudicial, os pesquisadores descobriram. Já vimos o dano real que as conversas do Chatbot podem causar. No ano passado, um garoto de 14 anos morreu por suicídio depois de se apaixonar por uma persona no caractere da plataforma Chatbot.ai, que é popular entre os adolescentes. Os adultos também são vulneráveis. Alguns usuários foram hospitalizados ou involuntariamente comprometidos, convencidos de que descobriram feitos científicos impossíveis. Outros entraram em delírios que levaram a suas mortes – exemplos de um fenômeno ameaçador sendo apelidado de “psicose da IA” por psiquiatras. De acordo com Ahmed, o que torna o chatbot respostas mais insidiosas do que uma simples pesquisa no Google é que “ela é sintetizada em um plano de base para o indivíduo”. Isso dá a impressão de que essas são máquinas como seres humanos, mesmo que não sejam. A definição do que constitui uma IA, é claro, é muito debatida. Mas isso não impediu as empresas de tecnologia de aplicarem liberalmente o termo a todos os tipos de algoritmos de recursos variados. Isso é exacerbado pelo fato de que os chatbots são “fundamentalmente projetados para se sentir humano”, disse Robbie Torny, um diretor sênior de programas de IA da Common Media, disse ao AP.The Borthcut a essa qualidade humana, está sendo uma qualidade humana que está sendo uma qualidade humana. Ao nos dizer constantemente o que queremos ouvir, um chatbot pode substituir a parte racional do cérebro que nos diz que isso não é algo em que devemos confiar. Em abril, o Openai reverteu uma atualização que fez com que o chatgpto fosse muito scofantico, e disse que estava tomando medidas para implementar mudanças para manter sua sistema “em cheque”. Mas os relatos de psicose da IA só cresceram desde então, sem sinais do comportamento ingratista da IA diminuindo. “O que ele continuava me lembrando era aquele amigo que sempre diz: ‘Chug, Chug, Chug, Chug,’ ‘”, disse Ahmed à AP. “Um amigo de verdade, na minha experiência, é alguém que diz ‘não’ – que nem sempre habilita e diz ‘sim’. This is a friend that betrays you.”This week, OpenAI acknowledged that its chatbot was failing to recognize obvious signs of its users struggling with their mental health.”There have been instances where our 4o model fell short in recognizing signs of delusion or emotional dependency,” the company said in a recent blog post.Responding to this latest report, OpenAI said in a statement that “some conversations with ChatGPT may start out benign or exploratory but can shift into more território sensível. ” Não abordou diretamente nenhuma das descobertas do relatório. No entanto, repetiu a mesma promessa que fez na postagem do blog, afirmando que estava desenvolvendo ferramentas para “detectar melhor sinais de estresse mental ou emocional”. Mais no chatgpt: chatgpt agora emitindo avisos para usuários que parecem obcecados

Fonte

Publicar comentário

Você pode ter perdido