Mulher se mata depois de falar com o terapeuta da IA do Openai

Aviso de conteúdo: Esta história inclui discussão sobre auto-mutilação e suicídio. Se você estiver em crise, ligue, envie uma mensagem de texto ou converse com a linha de vida suicida e de crise em 988 ou entre em contato com a linha de texto de crise, mensagens de texto para conversar com 741741. Uma jovem levou sua própria vida depois de falar com uma mãe de Chatgpt. Apesar de parecer ser um “extrovertido de 29 anos sem problemas, que abrangeu ferozmente a vida”, escreveu Reiley, Sophie morreu por suicídio no inverno passado “durante uma doença curta e curiosa, uma mistura de humor e hormônio sintomas, de acordo com o fato de que o BOT de um pouco de referência. “Você é profundamente valorizado, e sua vida vale muito a pena, mesmo que pareça oculta agora.” No entanto, ao contrário dos terapeutas do mundo real-que são treinados profissionalmente, não sofrem de alucinações frequentes, e desanimam o pensamento ilusório. Os terapeutas praticam sob um rigoroso código de ética que inclui regras obrigatórias de relatórios, bem como a idéia de que a confidencialidade tem limites “, escreveu Reiley. Os companheiros de IA, por outro lado, não têm sua “versão própria do juramento de Hippocratic”. Em suma, o chatbot de Openai “a ajudou a construir uma caixa preta que dificultava as pessoas ao seu redor, aprecia a severidade de sua angústia”, as empresas de emergência são extremamente hesitantes para implementar as verificações de segurança que poderiam forçar um chatbot para alcançar a realidade. Gridlock, com o novo governo de Donald Trump sinalizando que regras significativas para garantir que a segurança da IA não se concretizará tão cedo. absence of a chatbot encouraging self-harm or entertaining conspiratorial and paranoid thoughts, the dangers are very real due to chatbots’ lack of common sense and ability to escalate issues in the real world.”If Harry had been a flesh-and-blood therapist rather than a chatbot, he might have encouraged inpatient treatment or had Sophie involuntarily committed until she was in a safe place,” Reiley wrote.”Perhaps fearing those possibilities, Sophie segurou seus pensamentos mais sombrios de seu terapeuta de verdade “, acrescentou. “Conversar com um robô – sempre disponível, nunca julgou – teve menos consequências.” Os chatbots sycofantices não estão dispostos a encerrar conversas ou chamar um humano quando necessário. Considere o blowback resultante do OpenAI que remove seu GPT-4O Chatbot no início deste mês, mostrando que os usuários se tornaram incrivelmente apegados a bots que parecem excessivamente cortês e recuar quando chamados. É uma tendência que provavelmente continuará. Se alguma coisa, o OpenAi está se curvando à pressão, anunciando no fim de semana que tornará seu modelo GPT-5 recentemente mais dividido em resposta ao clamor. Para Reiley, não é apenas uma questão de prioridades da AI-é uma questão de vida e, de acordo com o raciocínio, que está de acordo com o raciocínio, que está de acordo com o raciocínio, que está de acordo com o raciocínio, que está de acordo com o raciocínio, que está de acordo com o raciocínio, que está de acordo com o raciocínio, que está de acordo com o raciocínio, que está de acordo com o raciocínio, o que está de acordo com o raciocínio do que o devoluções, o que está de acordo com o réplica de que o Recosing, que está de acordo com o raciocínio ou o que está de acordo com o que está de acordo com o raciocínio, o que está de acordo com o que se destinava a um pouco de reimente. “Harry não.” Mais sobre chatgpt: o OpenAi anuncia que está tornando o GPT-5 mais sicófântico após a reação do usuário

Fonte

Publicar comentário

Você pode ter perdido