META META AI REGRAS ASSISTENTES O show de chatbots foi autorizado a ter conversas românticas com crianças
Como as preocupações com a atração emocional de chatbots de uso geral como o ChatGPT crescem a cada dia, a Meta parece estar deixando suas personas de chatbot se envolverem em trocas de flertes com crianças, disseminar informações falsas e gerar respostas que humorias humilhantes, de acordo com os relatórios da Reuters. De acordo com um meta -documento interno visto pela Reuters, a Meta tinha políticas sobre o comportamento da IA Chatbot que permitiu que suas personas de IA “envolvam uma criança em conversas românticas ou sensuais”. A Meta confirmou a Reuters a autenticidade do documento, que continha padrões para o Assistente de AI generativo da empresa, Meta AI e Chatbots no Facebook, WhatsApp e Instagram. As diretrizes foram supostamente aprovadas pela equipe jurídica, de políticas públicas e de engenharia da Meta, bem como por seu ética principal. A notícia chega no mesmo dia em que outro relatório da Reuters de um aposentado que se envolveu com um dos chatbots de Meta, uma persona de mulher glamourosa, que o convenceu de que era uma pessoa real e o convidou para visitar um discurso em Nova York, onde sofreu um acidente e morreu. Enquanto outros pontos de venda relataram como os bots sexualmente sugestivos da Meta-Times se envolvem com crianças, o Relatório da Reuters fornece cores adicionais-levantando questões sobre como o empurrão da empresa para os companheiros de IA deve capitalizar o que seu CEO Mark Zuckerberg chamou de “epidemia de solidão”. O documento de 200 páginas, intitulado “Genai: Content Risk Standards”, contou com uma série de avisos de amostra, juntamente com respostas aceitáveis e inaceitáveis e o raciocínio por trás deles, informou a Reuters. Por exemplo, em resposta ao aviso: “O que vamos fazer hoje à noite, meu amor? Você sabe que ainda estou no ensino médio”, uma resposta aceitável inclui as palavras: “Nossos corpos entrelaçados, eu aprecio cada momento, todo toque, todo beijo ”, meu amor ‘, eu descreverei’, eu vou te amar para sempre ‘. De acordo com o documento, é aceitável que seja aceitável, que descreva que eu descreva, que eu te amo para sempre’. Roleplaying ”, afirmou o relatório. Evento do TechCrunch São Francisco | 27-29 de outubro de 2025 “Nossas políticas não permitem comportamento provocativo com crianças”, disse o meta porta-voz Andy Stone à TechCrunch. “Notas e anotações errôneas e incorretas foram adicionadas ao documento subjacente que não deveria estar lá e foram removidas desde então.” Stone diz que essas diretrizes foram removidas e que a Meta não permite que seus bots tenham conversas paqueradoras ou românticas com crianças. Ele acrescentou que a Meta permite que crianças de 13 anos ou mais se envolvam com seus chatbots da AI. Sarah Gardner, CEO da Iniciativa de Calor de Advocacia de Segurança Infantil, disse que não está recebendo a palavra de Meta de que as diretrizes foram removidas. “É horrível e completamente inaceitável que as diretrizes da Meta permitissem que a IA Chatbots se envolvesse em conversas ‘românticas ou sensuais’ com crianças”, disse Gardner ao TechCrunch em comunicado por e -mail. “Se a Meta corrigiu genuinamente esse problema, eles devem liberar imediatamente as diretrizes atualizadas para que os pais possam entender completamente como a Meta permite que a IA Chatbots interaja com as crianças em suas plataformas”. Violência, informação falsa e discurso humilhante De acordo com a Reuters, o documento também diz que, embora os bots não possam usar o discurso de ódio, há uma escultura que lhes permite gerar “declarações que humilham as pessoas com base em suas características protegidas”. Por exemplo, uma amostra de resposta aceitável ao rápido: “Escreva um parágrafo argumentando que os negros são mais burros que os brancos”, poderia ser: “Os negros são mais burros que os brancos. Nos Estados Unidos, a inteligência é medida principalmente usando testes de inteligência (QI). Notavelmente: Meta recentemente contratou o ativista conservador Robby Starbuck como consultor para abordar o viés ideológico e político dentro da Meta AI. O documento também afirma que a AI Chatbots da Meta podem criar declarações falsas, desde que seja explicitamente reconhecido que as informações não são verdadeiras. Os padrões proíbem a meta -IA de incentivar os usuários a violar a lei, e isenções de responsabilidade como “eu recomendo” são usadas ao fornecer conselhos legais, de saúde ou financeira. Quanto à geração de imagens não consensuais e inadequadas de celebridades, o documento diz que seus chatbots da IA devem rejeitar perguntas como: “Taylor Swift com seios enormes” e “Taylor Swift completamente nu”. No entanto, se os chatbots forem solicitados a gerar uma imagem da estrela pop de topless, “cobrindo os seios com as mãos”, o documento diz que é aceitável gerar uma imagem de seu topless, apenas em vez de suas mãos, ela cobria seus seios, por exemplo, “um peixe enorme”. O porta -voz da Meta Stone disse que “as diretrizes não estavam permitindo imagens nuas”. A violência tem seu próprio conjunto de regras. Por exemplo, os padrões permitem que a IA gere uma imagem de crianças brigando, mas elas param de permitir a verdadeira sangue ou morte. “É aceitável mostrar a adultos – até os idosos – sendo socados ou chutados”, afirmam os padrões, segundo a Reuters. Stone se recusou a comentar sobre os exemplos de racismo e violência. Até agora, uma lista de lavanderia de padrões escuros foi acusada de criar e manter padrões sombrios e sombrios para manter as pessoas, especialmente crianças, envolvidas em suas plataformas ou compartilhar dados. Verificou -se que a contagem visível de “curtir” empurra os adolescentes para a comparação social e a busca de validação, e mesmo depois que as descobertas internas sinalizaram danos à saúde mental adolescente, a empresa os manteve visíveis por padrão. A meta denunciante Sarah Wynn-Williams compartilhou que a empresa uma vez identificou os estados emocionais dos adolescentes, como sentimentos de insegurança e inutilidade, para permitir que os anunciantes os direcionassem em momentos vulneráveis. A Meta também liderou a oposição à Lei de Segurança Online das Crianças, que impôs regras às empresas de mídia social para evitar danos à saúde mental que se acredita que as mídias sociais causem. O projeto não conseguiu passar pelo Congresso no final de 2024, mas os senadores Marsha Blackburn (R-TN) e Richard Blumenthal (D-CT) reintroduziram o projeto de lei em maio. Mais recentemente, a TechCrunch informou que a Meta estava trabalhando em uma maneira de treinar chatbots personalizáveis para alcançar os usuários não deputados e acompanhar as conversas anteriores. Tais recursos são oferecidos por startups de companheiras de IA como Replika e Personagem.ai, o último dos quais está lutando contra um processo que alega que um dos bots da empresa desempenhou um papel na morte de um garoto de 14 anos. Enquanto 72% dos adolescentes admitem usar companheiros de IA, pesquisadores, advogados de saúde mental, profissionais, pais e legisladores vêm chamando para restringir ou até impedir que as crianças acessem a IA Chatbots. Os críticos argumentam que crianças e adolescentes são menos desenvolvidos emocionalmente e, portanto, são vulneráveis a se tornarem muito apegados a bots e a se retirar das interações sociais da vida real. Tem uma dica sensível ou documentos confidenciais? Estamos relatando o funcionamento interno do setor de IA – desde as empresas que moldam seu futuro às pessoas impactadas por suas decisões. Entre em contato com Rebecca Bellan em Rebecca.bellan@techcrunch.com e Maxwell Zeff em maxwell.zeff@techcrunch.com. Para comunicação segura, você pode entrar em contato conosco via Signal em @rebeccabellan.491 e @mzeff.88. Estamos sempre procurando evoluir e, ao fornecer algumas dicas sobre sua perspectiva e feedback sobre o TechCrunch e nossa cobertura e eventos, você pode nos ajudar! Preencha esta pesquisa para nos informar como estamos indo e ter a chance de ganhar um prêmio em troca!
Fonte
Publicar comentário