Pesquisa OpenAI – As alucinações de IA são uma adivinhação estratégica

Home »Inteligência Artificial» Pesquisa OpenAI – As alucinações de IA são estratégicas adivinhando o treinamento e o aprendizado de reforço de IA, a IA que fica mais certa, mesmo quando eles adivinham. Esta é uma estratégia comum em testes de múltipla escolha. Nos negócios, os humanos aprendem a expressar níveis de incerteza quando dão respostas. Acho que a resposta pode ser uma, mas não tenho certeza. É talvez 20% de confiança. A IA não foi recompensada por não dar resposta quando não tem certeza ou mostrar incerteza quando dão a melhor resposta. Brian Wang é um líder de pensamento futurista e um blogueiro de ciências popular com 1 milhão de leitores por mês. Seu blog NextBigfuture.com está classificado como #1 Blog de notícias de ciências. Abrange muitas tecnologias e tendências disruptivas, incluindo espaço, robótica, inteligência artificial, medicina, biotecnologia antienvelhecimento e nanotecnologia. Conhecida por identificar tecnologias de ponta, ele atualmente é co-fundador de uma startup e angariador de fundos para empresas em estágio inicial de alto potencial. Ele é o chefe de pesquisa de alocações para investimentos em tecnologia profunda e um investidor anjo da Space Angels. Um orador frequente das empresas, ele foi um orador do TEDX, um orador da Universidade de Singularidade e convidado em inúmeras entrevistas para rádio e podcasts. Ele está aberto a falar em público e aconselhar compromissos. Categorias Inteligência Artificial, Ciência, Tecnologia, Mundial Tags Inteligência Artificial, OpenAI

Fonte

Você pode ter perdido