Acontece que a IA do Google está sendo treinada por um exército de grunhidos humanos mal tratados
O Google depende de milhares de contratados para treinar a IA por trás de seu principal chatbot gemini. Como os relatórios do Guardian, muitos desses “avaliadores de IA”, encarregados de instruir o modelo e corrigir seus muitos erros, estão enfrentando más condições de trabalho e geralmente são expostas a pintar um conteúdo que é mais perturbador. workers, the current reality is the exact opposite: AI relies on the labor of huge numbers of hidden humans to give it the illusion of intelligence.And it’s not just the current crop of large language models — AI raters across the globe are being tasked to label data for AI-based, self-driving car software, and other related applications.”AI isn’t magic; it’s a pyramid scheme of human labor,” Distributed AI Research Institute’s Adio Dinika told the Guardião. “These raters are the middle rung: invisible, essential and expendable.”In the realm of large language models like Google’s Gemini, raters are being tasked with moderating the output of AI, not only ensuring the accuracy of its responses, but also that it doesn’t expose users to inappropriate content.Rachel Sawyer, one such worker who was contracted as a “generalist rater” for Google last year, told the Guardian that she was “shocked” after sendo instruído a trabalhar com “conteúdo angustiante”. “” Não apenas porque recebi nenhum aviso e nunca pedi para assinar nenhum formulário de consentimento durante a integração “, acrescentou,” mas porque nem o cargo ou a descrição mencionaram a moderação do conteúdo. “De acordo com o jornal, os relatórios, que não foram solicitados, a que não é uma publicação, como a Astrafys, que não foi solicitada a precisão. Mais rápido, enquanto foi encarregado de treinar a IA em tópicos médicos sensíveis, como tratamentos de quimioterapia para o câncer de bexiga. “Eu imaginei uma pessoa sentada no carro, descobrindo que eles têm câncer de bexiga e pesquisando o que estou editando”, disse ela. Um porta -voz argumentou que “avaliadores de qualidade” eram “empregados para fornecer feedback externo sobre nossos produtos”, que “nos ajudam a medir o quão bem nossos sistemas estão funcionando, mas não afetam diretamente nossos algoritmos ou modelos”. O empreiteiro japonês Globallogic contratou milhares de avaliadores nos EUA para treinar a IA do Google. Seus salários horários de US $ 16 a US $ 21 por hora – em diminuição pelos salários astronômicos dos pesquisadores da IA - tendem a ainda ser muito mais altos do que seus colegas na África e na África do Sul, de acordo com as fontes do Guardian. Mas não é um trabalho fácil, e que pode deixar cicatrizes duradouras. “Eles são pessoas com experiência que estão fazendo muito trabalho de escrita, que estão sendo pagos abaixo do que valem a pena fazer um modelo de IA que, na minha opinião, o mundo não precisa de um que não tenha sido para o que foi alterado. END, “Um avaliador contatado globalógico diferente disse ao The Guardian. É um vislumbre preocupante nos bastidores, destacando a quantidade de trabalho humano para a tecnologia que está sendo vendida como uma maneira revolucionária para contornar o trabalho humano. No entanto, apesar dos melhores esforços dos avaliadores, os modelos de IA da Frontier, incluindo os gêmeos do Google, continuam a alucinar frequentemente e respostas para o mais simples.
Fonte