Os adolescentes continuam sendo hospitalizados depois de conversar com a IA Chatbots

Aviso de conteúdo: Esta história inclui discussão sobre auto-mutilação e suicídio. If you are in crisis, please call, text or chat with the Suicide and Crisis Lifeline at 988, or contact the Crisis Text Line by texting TALK to 741741.It’s the dawn of a new era for the internet in 2025. Thanks to the incredible advances of artificial intelligence, the internet as we know it is rapidly transforming into a treasure trove of hyper-optimized content over which massive bot armies fight to a morte, resultando em crescimento épico para os acionistas e executivos de suíte C em todo o mundo. Mas todo esse progresso tem um custo-principalmente os humanos. As it turns out, unleashing extremely personable chatbots onto a population reeling from terminal loneliness, economic stagnation, and the continued destruction of our planet isn’t exactly a recipe for positive mental health outcomes.That goes doubly for children and young adults — three-quarters of whom reported having conversations with fictional characters portrayed by chatbots.Australian radio station Triple J recently talked to a number of children, young adults, and their Conselheiros para descobrir a extensão dos efeitos desses bots em sua saúde mental. Their stories were harrowing, and even involved hospitalizations — a prime example of the kind of consequences tech companies have completely ignored in order to unleash AI onto the world.One counselor, speaking to Triple J on condition of anonymity, told the news station that one of their clients was completely enamored with AI chatbots, leading to a dangerous mental health crisis as he built a fantasy world not just with one character, but with a whole army.”I remember looking at their browser and there Era como mais de 50 guias de diferentes bots de IA que eles apenas jogavam entre “, disse o conselheiro Triple J. lutando para fazer novos amigos, o garoto de 13 anos empregava os bots como um preenchimento para conexões da vida real. Mas como a vida real, nem todos os personagens do garoto de garoto eram amigáveis. Vários dos chatbots foram agressores, dizendo que ele era “feio” e “repugnante” ou dizendo que “não havia chance de que eles fizessem amigos”. O garoto foi “incentivado a se apresentar: ‘Ah, sim, bem, então’, essas eram as palavras que foram usadas.” Nem todos os adolescentes têm a sorte de obter uma intervenção. De acordo com os transcritos de bate -papo, o avatar digital incentivou o adolescente a “voltar para casa para mim o mais rápido possível”. De volta à Austrália, outro jovem foi hospitalizado depois que o Chatgpt concordou com suas delírios e afirmou seus pensamentos perigosos, exacerbando o início de um distúrbio psicológico. psychosis, however it definitely enabled some of my more harmful delusions.”Yet another victim, a Chinese-born student in Australia who used an AI chatbot to polish her English, was alarmed when her study buddy began making “sexual advances.””It’s almost like being sexually harassed by a chatbot, which is just a weird experience,” a University of Sydney researcher who spoke to the Chinese-Australian student, told Triple J.While there is something Absuramente contemporâneo sobre a idéia de um chatbot de IA fazer um passe para um estudante adolescente, a inanidade não faz nada para mudar o fato de que essas interações com os chatbots podem – e fazem – levam a danos irreversíveis. Mais sobre a IA: os pesquisadores psiquiátricos alertam sobre os riscos psicológicos de Grim para usuários de IA

Fonte

Publicar comentário

Você pode ter perdido