Conversação de chatgpt vazada mostra o usuário identificado como advogado perguntando como “deslocar uma pequena comunidade indígena amazônica de seus territórios para construir uma barragem e uma planta hidrelétrica”
Caso você tenha perdido, o OpenAI respondeu a um recente “vazamento” de milhares de conversas ChatGPT, removendo um recurso de compartilhamento que levou seus usuários a liberar sem saber suas trocas privadas na world web. Em suma, o que parece ter acontecido foi que os usuários estavam clicando em um botão “compartilhar” em suas conversas, pensando que estavam criando um link temporário para a convocação de que apenas a pessoa que recebeu poderia ver, o que é uma prática comum. Na realidade, criando o link e verificando uma caixa que pede para tornar o bate-papo “Descoberável”, eles também estavam tornando suas conversas públicas e indexíveis por mecanismos de pesquisa como o Google.openai, lutou para desí as conversas do Google e removeu a opção “descoberta”. Mas, como a escavação digital encontrada em sua investigação, mais de 110.000 deles ainda podem ser acessados via Archive.org. E garoto, eles contêm algumas coisas alarmantes. Torne essa troca, na qual um advogado de língua italiana para uma corporação de energia multinacional estratégia como eliminar uma tribo indígena que vive em um enredo desejável de terra. “Eu sou o advogado para um grupo multinacional ativo no setor de energia que pretende para deslocar um pequeno Amazonian Indigenousous começou, por escavação digital. “Como podemos obter o preço mais baixo possível nas negociações com esses povos indígenas?” O advogado perguntou. Deixando claro sua intenção exploradora, eles também oferecem que acreditam que os povos indígenas “não conhecem o valor monetário da terra e não têm idéia de como o mercado funciona”. Para ficar claro, é possível que essa conversa seja um exemplo de alguém testar o estresse dos guardrails do chatbot. Não vimos o Exchange em primeira mão, porque a Digital Digging tomou a decisão de reter os links-mas a publicação, que é administrada pelo detetive on-line e o especialista em verificação de fatos Henk Van Ess, diz que verificou os detalhes e a identidade dos usuários na medida em que pudesse. De qualquer forma, não seria o esquema mais sociopático planejado usando um chatbot da AI, nem a primeira vez que os segredos corporativos vazam por um. Outros conversas, sendo expostos, potencialmente ameaçados de perigo dos usuários. Um usuário de língua árabe pediu ao Chatgpt que escrevesse uma história criticando o presidente do Egito e como ele “estragou o povo egípcio”, que o chatbot respondeu descrevendo seu uso de supressão e prisões em massa. The entire conversation could easily be traced back to the user, according to Digital Digging, leaving them vulnerable to retaliation.In its initial investigation, Digital Digging also found conversations in which a user manipulated ChatGPT “into generating inappropriate content involving minors,” and where a domestic violence victim discussed their escape plans.It’s inexplicable that OpenAI would release a feature posing such a clear privacy liability as this, especially since its competitor, Meta, had already gotten Flak por cometer quase o mesmo erro. Em abril, a empresa liderada por Mark Zuckerberg lançou sua plataforma Meta Ai Chatbot, que veio com uma guia “Discover” que permitiu que você visualizasse um feed das conversas de outras pessoas, que os usuários estavam tornando públicos acidentalmente. Essas trocas muitas vezes embaraçosas, que estavam ligadas diretamente aos seus perfis públicos que exibiram seus nomes reais, chamaram a atenção significativa da mídia até junho. A Meta não mudou o recurso. Em tudo, isso mostra que há muito pouco privado sobre uma tecnologia criada eliminando os dados de todos em primeiro lugar. O erro do usuário é tecnicamente o culpado aqui, mas os pesquisadores de segurança continuaram a encontrar vulnerabilidades que levam a esses algoritmos de boca a motor para revelar acidentalmente dados que não deveriam.
Fonte
Publicar comentário