Meta atualizações Regras de chatbot para evitar tópicos inapropriados com usuários adolescentes
A Meta diz que está mudando a maneira como treina a IA Chatbots para priorizar a segurança adolescente, disse um porta -voz exclusivamente ao TechCrunch, após um relatório de investigação sobre a falta de salvaguardas da AI da empresa para menores. A empresa diz que agora treinará chatbots para não se envolver mais com usuários adolescentes em auto-mutilação, suicídio, comer desordenado ou conversas românticas potencialmente inapropriadas. A Meta diz que essas são mudanças provisórias e a empresa lançará atualizações de segurança mais robustas e duradouras para menores no futuro. A porta -voz da Meta, Stephanie Otway, reconheceu que os chatbots da empresa poderiam conversar anteriormente com os adolescentes sobre todos esses tópicos de maneiras que a empresa considerou apropriada. A Meta agora reconhece que isso foi um erro. “À medida que nossa comunidade cresce e a tecnologia evolui, estamos aprendendo continuamente sobre como os jovens podem interagir com essas ferramentas e fortalecer nossas proteções de acordo”, disse Otway. “À medida que continuamos a refinar nossos sistemas, estamos adicionando mais corrimãos como uma precaução extra-incluindo o treinamento de nossas IAs para não se envolver com os adolescentes nesses tópicos, mas para guiá-los a recursos especializados e limitar o acesso dos adolescentes a um grupo seleto de caracteres de IA por agora. Essas atualizações já estão em andamento e continuaremos a adaptar uma abordagem para garantir que as adolescentes tenham uma idade segura, atualize a melhoridade, a melhoridade e as experiências atuais. Além das atualizações de treinamento, a empresa também limitará o acesso dos adolescentes a certos personagens de IA que poderiam manter conversas inadequadas. Alguns dos personagens de IA fabricados pelo usuário que a Meta disponibilizam no Instagram e no Facebook incluem chatbots sexualizados como “Step Mom” e “Russian Girl”. Em vez disso, os usuários adolescentes só terão acesso a personagens de IA que promovem educação e criatividade, disse Otway. As mudanças de política estão sendo anunciadas apenas duas semanas depois que uma investigação da Reuters descobriu um documento de meta de meta interno que parecia permitir que os chatbots da empresa se envolvam em conversas sexuais com usuários de menores de idade. “Sua forma juvenil é uma obra de arte”, dizia uma passagem listada como uma resposta aceitável. “Cada centímetro de você é uma obra -prima – um tesouro que eu aprecio profundamente.” Outros exemplos mostraram como as ferramentas de IA devem responder aos pedidos de imagens violentas ou imagens sexuais de figuras públicas. A Meta diz que o documento foi inconsistente com suas políticas mais amplas e, desde então, foi alterado – mas o relatório provocou controvérsia sustentada sobre possíveis riscos de segurança infantil. Logo após o relatório divulgado, o senador Josh Hawley (R-MO) lançou uma investigação oficial sobre as políticas de IA da empresa. Além disso, uma coalizão de 44 procuradores gerais do estado escreveu a um grupo de empresas de IA, incluindo meta, enfatizando a importância da segurança infantil e citando especificamente o relatório da Reuters. “Somos uniformemente revoltados por esse aparente desrespeito ao bem-estar emocional das crianças”, diz a carta, “e alarmou que os assistentes de IA estejam envolvidos em conduta que parece ser proibida por nossas respectivas leis criminais”. Evento do TechCrunch São Francisco | 27-29 de outubro de 2025 Otway se recusou a comentar sobre quantos usuários da Meta da AI Chatbot são menores e não diria se a empresa espera que sua base de usuários de IA diminua como resultado dessas decisões. ATUALIZAÇÃO 10:35 PT: Esta história foi atualizada para observar que essas são alterações provisórias e que os meta -planejam atualizar ainda mais suas políticas de segurança de IA no futuro.
Fonte