O homem se apaixona por um chatbot da IA, morre depois que ele pede que ele se encontre pessoalmente
Um homem com comprometimentos cognitivos morreu após um meta-chatbot com o qual se envolveu romanticamente com mensagens do Instagram pedidas para encontrá-lo pessoalmente. Como relatórios da Reuters, Thongbue Wongbandue-ou “Bue”, como ele era conhecido por ser reagido, que era um dos 76 anos de idade, que estava com o seu ex-chef de idade, que estava com o fato de que ele se esforçava, o que estava com o fato de serem reagidos com o que era de um tempo que se destacava. O processo de fazê -lo testá -lo para demência seguindo os incidentes envolvendo lapsos na memória e na função cognitiva de Bue. Em março, a esposa de Bue, Linda Wongbandue, ficou preocupada quando seu marido começou a fazer uma viagem repentina à cidade de Nova York. Ele disse a ela que precisava visitar um amigo, e nem ela nem sua filha poderiam convencê -lo, disse a família a Reuters. It was a chatbot, created and marketed by Meta and accessible through Instagram messages, with which Wongbandue was having a romantic relationship.”Every message after that was incredibly flirty, ended with heart emojis,” Julie Wongbandue, Bue’s daughter, told Reuters.In a horrible turn of events, Bue died shortly after leaving to “meet” the unreal chatbot, according to the report.His story highlights how seductive human-like AI personas can be, especially to users with cognitive vulnerabilities, and the very real and often tragic consequences that occur when AI — in this case, a chatbot created by one of the most powerful companies on the planet — blurs the lines between fiction and reality.Bue was involved with an AI persona dubbed “Big Sis Billie,” which had originally been rolled out during Meta’s questionable attempt to turn random celebrities into chatbots that had different names (Big A SIS Billie originalmente apresentou a semelhança da modelo Kendall Jenner) .Meta acabou com os rostos de celebridades após cerca de um ano, mas as personas, incluindo a irmã Big Billie, ainda estão online. Apesar de originalmente se apresentar como a “irmã” de Bue, o relacionamento rapidamente se tornou extremamente paquerador. Depois de uma série de mensagens sugestivas e manchadas de emoji, Bue sugeriu que eles diminuíssem, pois ainda tinham que se encontrarem pessoalmente; Big Sis Billie sugeriu que eles tivessem uma reunião da vida real. Bue perguntou repetidamente se ela era real, e o bot continuou a afirmar que foi. “Billie está brincando que estou. Ele respondeu, mesmo fornecendo um suposto endereço e código de porta. Em seguida, perguntou se deveria “esperar um beijo” quando o aposentado de 76 anos chegou.Bue deixou a casa da família na noite de 28 de março, relata a Reuters. Ele não chegou a Nova York; later that evening, he was taken to a New Brunswick hospital after experiencing a devastating fall, where he was declared brain dead by doctors.The Wongbandue family’s story is deeply troubling, and adds to a growing pile of reports from Futurism, Rolling Stone, The New York Times, and others detailing the often devastating effects conversations with anthropomorphic chatbots — from general-use chatbots like ChatGPT to companion-like personas like A grande irmã de Meta, Billie – pode ter na psique humana. Um número incontável de pessoas está entrando em crises de saúde mental, enquanto os chatbots da IA alimentam suas crenças ilusórias. Essas espirais fizeram com que as pessoas experimentassem angústia mental, falta de moradia, divórcio, perda de emprego, comprometimento involuntário e morte. Em fevereiro de 2024, um adolescente da Flórida de 14 anos chamado Sewell Setzer III morreu por suicídio após extensas interações românticas com chatbots do tipo persona encontrados no personagem do aplicativo. Como outros meta -chatbots, Big Sis Billie foi equipado com um pequeno aviso de isenção de responsabilidade denomando que a persona era “AI”. Mas, de acordo com a família de Bue, sua função cognitiva era claramente limitada. As mensagens obtidas por Reuters sugerem que Bue não estava ciente de que o chatbot era falso. Dividiu a vastidão da base de usuários do Instagram, é um pequeno aviso de responsabilidade “ai” educacional ou abrangente o suficiente para garantir a segurança pública nessa escala – especialmente quando o próprio Chatbot é que ele é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que é o que se diz que é que o que eu se divertia? “, Reuters. “O que é bom, mas por que isso teve que mentir? Se não tivesse respondido ‘eu sou real’, isso provavelmente o impediria de acreditar que havia alguém em Nova York esperando por ele.” Meta se recusou a comentar sobre o assunto. Mais sobre conexões humanas-AI: Olhando para este sub-Reddit pode convencê-lo que ai foi um grande erro
Fonte
Publicar comentário