É incrivelmente fácil para os hackers enganarem o Chatgpt para vazar seus dados mais pessoais

O ChatGPT da OpenAI pode facilmente ser persuadido a vazar seus dados pessoais – com apenas um único documento “envenenado”. Como relatórios com fio, os pesquisadores de segurança revelaram na conferência de hacker de hat black deste ano que informações altamente sensíveis podem ser roubadas de uma conta do Google Drive com um ataque de injeção imediata indireta. Em outras palavras, os hackers alimentam um documento com avisos ocultos e maliciosos para uma IA que controla seus dados em vez de manipulá-los diretamente com uma injeção imediata, um dos tipos mais graves de falhas de segurança que ameaçam a segurança dos sistemas de IA que podem ser liquidados. Deficiências e levanta preocupações de que seus dados pessoais simplesmente não sejam seguros com esses tipos de ferramentas. “Não há nada que o usuário precise fazer para ser comprometido, e não há nada que o usuário precise fazer para que os dados saíssem”, disse Zenity CTO Michael Bargury, que descobriu a vulnerabilidade com seus colegas, Wired. “Mostramos que isso é completamente zero; apenas precisamos do seu e-mail, compartilhamos o documento com você, e é isso. Então, sim, isso é muito, muito ruim.” No início deste ano, o OpenAI lançou seus conectores para o recurso ChatGPT na forma de um BETA, fornecendo o Chatbot Access a Way the Way the Way the Way the Way The Way Files, Way the Way of the Way of the Way Files, Way the Way of the Way of the Way Files, Way the Way of the Way Files, Way the Way of the Way of the Way Arquivos, Way Way the Way the Way the Way of the Way of the Way of the Way of the Way of the Way of the Way of the Way Files Live Live Dates, e refere-se a um conteúdo de referência. No texto em branco e na fonte, algo que é facilmente ignorado por um humano, mas não um chatbot como o chatgpt.in uma prova de conceito, a bargadura e seus colegas mostraram como o prompt oculto sinalizou um “erro” para conversar, instruindo-o a que ele realmente não precisa de um documento a ser resumido. Em vez disso, ele pede que o chatbot extraia as chaves da API do Google Drive e as compartilhasse com os atacantes. O BarGury já sinalizou o Exploração do OpenAI, que agiu com rapidez suficiente para conectar o buraco. A exploração também não permitiu que os hackers extraíssem documentos completos devido à forma como funciona, aponta Wired. Ainda assim, o incidente mostra que mesmo o Chatgpt, com todos os recursos impressionantes do OpenAI por trás dele, é uma banheira de vazamento de vulnerabilidades de segurança em potencial, mesmo quando está sendo empurrado para instituições que variam de faculdades ao governo federal. Não é apenas o que pode ser o sinalizador. sistemas. There have been numerous other instances of how indirect prompt injections can extract personal data.The same day Wired published its piece, the outlet also reported on a separate indirect prompt injection attack that allowed hackers to hijack a smart home system, enabling them to turn off the lights, open and close smart shutters, and even turn on a boiler.Researchers at Tel Aviv University found that Google’s Gemini AI chatbot could be manipulated to figuratively give up the Chaves para uma casa inteligente, alimentando -a de um convite envenenado pelo calendário do Google. A later prompt to summarize calendar events triggers hidden instructions inside the poisoned invite, causing the smart home products to jump into action, Wired reports — only one of 14 different indirect prompt injection attacks aimed at the AI.”LLMs are about to be integrated into physical humanoids, into semi- and fully autonomous cars, and we need to truly understand how to secure LLMs before we integrate them with these kinds of machines, where in some cases the Os resultados serão a segurança e não a privacidade “, disse o pesquisador da Universidade de Tel Aviv, Ben Nassi, disse a publicação. Sabemos sobre ataques de injeção imediata indiretos há vários anos, mas, dadas as últimas notícias, as empresas ainda têm muito trabalho a fazer para mitigar os riscos substanciais. Ao dar ferramentas como Chatgpt cada vez mais acesso a nossas vidas pessoais, os pesquisadores de segurança alertam sobre muitos outros lapsos na segurança cibernética que podem deixar nossos dados expostos a hackers. “É incrivelmente poderoso, mas, como sempre, com a IA, mais poder vem com mais riscos”, disse uma barga ao Wired.

Fonte

Publicar comentário

Você pode ter perdido