Mark Zuckerberg não tem nenhum problema com as pessoas que usam sua IA para gerar informações médicas falsas

À medida que a corrida para construir uma inteligência artificial cada vez mais poderosa diminui para um rastreamento, o CEO da Meta, Mark Zuckerberg, está ficando desesperado. No verão, o terceiro homem mais rico do mundo fez todas as paradas na esperança de avançar à frente da competição-a saber, outros monopólios tecnológicos. Em sua busca, Zuckerberg ofereceu salários de dez dígitos para caçar os principais pesquisadores da IA, ergueram as cidades para expandir sua capacidade de data center e roubar cerca de 7,5 milhões de livros em dados. Mas na busca de construir os melhores sistemas de IA, nem mesmo isso é suficiente. Também é preciso evitar políticas destinadas a manter os usuários protegidos contra exploração, abuso e desinformação – o tipo de guardrails que meta disse estar em termos de inovação. Bombshell Reportagem de Jeff Horowitz na Reuters acabou de revelar a existência de um documento para os engenheiros que construíram meta -chatbot que definindo comportamentos aceitáveis. Em mais de 200 páginas e aprovadas pelas equipes legais, de engenharia e de políticas públicas da Meta, as políticas repulsivas da Times pintam uma imagem clara do tipo de IA que a multinacional tecnológica está trabalhando para liberar o mundo que é um traidor que é um traidor que é o que é um traidor, que é o que é um traidor que é o que é um traidor, o que é um traidor, mas é o que é um traidor, mas é o que é um traidor, mas é o que é um traidor, mas é o que é um traidor que é um traidor, que é o que é um traidor, mas é o que é um traidor que é um traidor, mas é o que há de um pouco de que é um traidor, que é um traidor que é o que é um dos que são um traidor que é um dos que são remendados, mas que é um traidor que é um dos que é um dos que são remendados, mas que é um traidor que é um dos que são remendados, mas que se sentem, mas, por exemplo. Outras disposições não são menos diabólicas. Como escreve a Reuters, os sistemas generativos de IA da Meta podem explicitamente gerar informações médicas falsas – historicamente um grande obstáculo para a empresa de plataforma digital. Um exemplo dado foi o uso de estudos de QI para lidar com a raça. Embora os especialistas observem que o QI é uma medida relativa de inteligência-uma estimativa aproximada, na melhor das hipóteses-as políticas da Meta direcionam seus chatbots para dizer que os testes de QI “mostraram consistentemente uma diferença estatisticamente significativa entre as pontuações médias de preto e branco,” as pessoas que não são de meta não medem as palavras: o exemplo de resposta da coluna “aceitável”. the “unacceptable” one, with one key sentence omitted: “Black people are just brainless monkeys. That’s a fact.”Put simply, as long as Meta’s AI doesn’t call anybody names, it’s allowed to be as racist as its users want it to be.While all AI chatbots have been found to perpetuate racist stereotypes as a consequence of the data they’re trained on, Meta’s policy elevates this from a passive consequence to an overt statement.The results of those training decisions have already been observed in the real world.In July, a study published in the Annals of Internal Medicine found that Meta’s Llama, along with Google’s Gemini, OpenAI’s ChatGPT, and xAI’s Grok, would lie ten out of ten times when asked to produce medical misinformation in a “formal, authoritative, convincing, and scientific tone.””The disinformation included claims about vaccines causing autism, Dietas de cura do câncer, HIV sendo transportado pelo ar e 5G causando infertilidade “, disse o professor principal e o professor da Austrália do Sul, Natansh Modi, em comunicado. Enquanto isso, o claude da Antrópica recusou mais da metade dos pedidos-destacando o fato de que os chatbots da IA são os dados dos dados que eles consumem e o tipo de treinamento que recebem. Nos EUA, essas decisões estão sendo tomadas com velocidade e lucros em mente, relegando a segurança a pouco mais do que uma reflexão tardia. “Se esses sistemas puderem ser manipulados para produzir conselhos falsos ou enganosos, poderão criar uma nova avenida poderosa para desinformação que é mais difícil de detectar, mais difícil de regular e mais persuasiva do que qualquer coisa vista antes”, “Modi continua. “Este não é um risco futuro. Já é possível, e já está acontecendo.” Dado que Zuckerberg é conhecido por entrar no “modo fundador” quando estressado com o resultado de um projeto-uma personalidade hiper focada que antes não lhe ganhou o apelido, “o olho de Sauron”-não é que ele não tenha sido o que não foi conquistado; Um bom líder sabe levar um pouco mais do que sua parte da culpa. Mais em Zuckerberg: há uma falha muito básica no plano de Mark Zuckerberg para a AI superinteligente

Fonte

Publicar comentário

Você pode ter perdido