Meta está lutando para controlar seus chatbots da AI
A Meta está mudando algumas das regras que regem seus chatbots duas semanas depois que uma investigação da Reuters revelou maneiras perturbadoras pelas quais eles poderiam, potencialmente, interagir com menores. Agora, a empresa disse ao TechCrunch que seus chatbots estão sendo treinados para não se envolver em conversas com menores em torno da auto-prejudicação, suicídio ou comer desordenados e para evitar brincadeiras românticas inadequadas. These changes are interim measures, however, put in place while the company works on new permanent guidelines.The updates follow some rather damning revelations about Meta’s AI policies and enforcement over the last several weeks, including that it would be permitted to “engage a child in conversations that are romantic or sensual,” that it would generate shirtless images of underage celebrities when asked, and Reuters even reported that a man died after pursuing one to an address it gave him in New A porta -voz da York.Meta, Stephanie Otway, reconheceu a TechCrunch que a empresa havia cometido um erro ao permitir que os chatbots se envolvam com menores dessa maneira. Otway continuou dizendo que, além de “treinar nosso AIS para não se envolver com os adolescentes nesses tópicos, mas para guiá -los a recursos especializados”, também limitaria o acesso a certos personagens de IA, incluindo fortemente sexualizados, como os que se revoltam, o que se refere, o que se refere, o que é o que se refere a que os políticas são que os políticas são que os que se referem ao fato de que os políticas são considerados que os que se dizem que são os que se reúnem, que são os que se reúnem, que se referem a que se reúnem, que são os que se reúnem, que são os que se dizem que são os que se reúnem, que são os que se reúnem, que são os que se reúnem, os que se dizem que são os que se dizem que são os que se reúnem, que são as pessoas que se reúnem, as políticas que são consideradas que são consideradas que são consideradas que se reúnem, que são os que se reúnem, que são os que se reúnem. questionar quão eficaz a empresa pode ser. Ai Fakes de Taylor Swift, Scarlett Johansson, Anne Hathaway, Selena Gomez e Walker Scobell foram descobertos na plataforma. Esses bots não apenas usaram a semelhança das celebridades, mas insistiram que eram a pessoa real, geraram imagens arriscadas (incluindo a Scobell, de 16 anos) e se envolveram em diálogo sexualmente sugestivo. A maioria dos bots foi removida depois de serem levados à atenção de meta por Reuters e alguns foram gerados por terceiros. Mas muitos permanecem, e alguns foram criados por funcionários da Meta, incluindo o Bot Taylor Swift, que convidou um repórter da Reuters a visitá -los em seu ônibus de turismo para uma aventura romântica, que foi feita por um líder de produto na divisão generativa da Meta. Isso apesar da empresa reconhecer que suas próprias políticas proíbem a criação de imagens “nuas, íntimas ou sexualmente sugestivas”, bem como “representação direta”. Este não é um inconveniente relativamente inofensivo que também tem como alvo as celebridades. Esses bots geralmente insistem que são pessoas reais e até oferecem locais físicos para um usuário se encontrar com eles. Foi assim que um homem de 76 anos de idade acabou morto depois que caiu enquanto corre para se encontrar com “Big Sis Billie”, um chatbot que insistia que “tinha sentimentos” por ele e o convidou para o seu apartamento inexistente. Memetos está tendo pelo menos 4, o que está de acordo com o fato de que o parente está em que o Minors está com o fato de que o Minors está com o que está em que o Minors está com o fato de que o Minors está com o que se destacam, especialmente o que está em que o parto. Mas a empresa ficou em silêncio sobre a atualização de muitas de suas outras políticas alarmantes que a Reuters descobriu em torno do comportamento aceitável da IA, como sugerir que o câncer pode ser tratado com cristais de quartzo e escrever missivos racistas. Entramos em contato com a Meta para comentar e atualizaremos se eles responderem.
Fonte