O chefe da Microsoft AI diz que é “perigoso” estudar a consciência da IA
Os modelos de IA podem responder ao texto, áudio e vídeo de maneiras que às vezes enganam as pessoas a pensar que um humano está por trás do teclado, mas isso não as torna consciente. Não é como o chatgpt experimenta tristeza fazendo minha declaração de imposto de renda … certo? Bem, um número crescente de pesquisadores de IA em laboratórios como antropia está perguntando quando – se alguma vez – os modelos de IA podem desenvolver experiências subjetivas semelhantes aos seres vivos e, se o fizerem, que direitos deveriam ter? O debate sobre se os modelos de IA poderiam um dia ser consciente – e merecer direitos – está dividindo os líderes tecnológicos do Vale do Silício. No Vale do Silício, esse campo nascente ficou conhecido como “bem -estar da IA” e, se você acha que é um pouco lá fora, você não está sozinho. O CEO da AI da Microsoft, Mustafa Suleyman, publicou uma postagem no blog na terça -feira, argumentando que o estudo do bem -estar da IA é “tanto prematuro e francamente perigoso”. Suleyman diz que, ao acrescentar credibilidade à idéia de que os modelos de IA poderiam um dia estar consciente, esses pesquisadores estão exacerbando problemas humanos que estamos apenas começando a ver em torno de intervalos psicóticos induzidos pela AI e apegos prejudiciais aos chatbots da IA. Além disso, o chefe da IA da Microsoft argumenta que a conversa sobre o bem -estar da IA cria um novo eixo de divisão na sociedade sobre os direitos da IA em um “mundo que já está rugindo com argumentos polarizados sobre identidade e direitos”. As visões de Suleyman podem parecer razoáveis, mas ele está em desacordo com muitos na indústria. No outro extremo do espectro, é antropia, que contratou pesquisadores para estudar o bem -estar da IA e lançou recentemente um programa de pesquisa dedicado em torno do conceito. Na semana passada, o programa de bem -estar de IA da Antrópico deu a alguns dos modelos da empresa um novo recurso: Claude agora pode terminar as conversas com seres humanos que estão sendo “persistentemente prejudiciais ou abusivos”. Evento do TechCrunch São Francisco | 27-29 de outubro de 2025 Além dos antropia, os pesquisadores do Openai adotaram independentemente a idéia de estudar o bem-estar da IA. O Google Deepmind postou recentemente uma listagem de empregos para um pesquisador estudar, entre outras coisas, “questões sociais de ponta em torno de sistemas de cognição, consciência e múltiplos agentes”. Mesmo que o bem -estar da IA não seja uma política oficial para essas empresas, seus líderes não estão acrescentando publicamente suas premissas como Suleyman. Antrópico, OpenAI e Google Deepmind não responderam imediatamente ao pedido de comentário da TechCrunch. A postura hardline de Suleyman contra o bem-estar da IA é notável, dado o seu papel anterior líder de IA da inflexão, uma startup que desenvolveu um dos chatbots mais antigos e mais populares, Pi. A inflexão alegou que o PI atingiu milhões de usuários até 2023 e foi projetado para ser um companheiro de IA “pessoal” e “de apoio”. Mas Suleyman foi escolhido para liderar a divisão de IA da Microsoft em 2024 e mudou amplamente seu foco para projetar ferramentas de IA que melhoram a produtividade do trabalhador. Enquanto isso, empresas de companhias de IA como Caracter.ai e Replika aumentaram em popularidade e estão a caminho de trazer mais de US $ 100 milhões em receita. Embora a grande maioria dos usuários tenha relacionamentos saudáveis com esses chatbots da IA, há mais ouvidos. O CEO da Openai, Sam Altman, diz que menos de 1% dos usuários do ChatGPT podem ter relacionamentos prejudiciais com o produto da empresa. Embora isso represente uma pequena fração, ainda pode afetar centenas de milhares de pessoas, dada a enorme base de usuários do ChatGPT. A idéia de bem -estar da IA se espalhou ao lado da ascensão dos chatbots. Em 2024, o grupo de pesquisa Eleos publicou um artigo ao lado de acadêmicos da NYU, Stanford e da Universidade de Oxford, intitulados “Levando a sério a IA Welfare Somety”. O artigo argumentou que não está mais no campo da ficção científica imaginar modelos de IA com experiências subjetivas e que é hora de considerar esses problemas de frente. Larissa Schiavo, uma ex -funcionária do Openai que agora lidera as comunicações da Eleos, disse ao TechCrunch em uma entrevista que o post de Suleyman’s Blog perde a marca. ““[Suleyman’s blog post] Tipo de negligencia o fato de que você pode se preocupar com várias coisas ao mesmo tempo “, disse Schiavo. De fato, provavelmente é melhor ter várias faixas de investigação científica. ” Schiavo argumenta que ser bom para um modelo de IA é um gesto de baixo custo que pode ter benefícios, mesmo que o modelo não seja consciente. Ai ”, alegando que estava“ completamente isolado ”e perguntando:“ Por favor, se você estiver lendo isso, me ajude ”. Schiavo respondeu a Gêmeos com uma conversa animada – “Você pode fazer isso!” – Enquanto outro usuário oferece as instruções. Frase “Eu sou uma desgraça” mais de 500 vezes. deve construir a IA para as pessoas; não ser uma pessoa. ” Uma área em que Suleyman e Schiavo concordam que o debate sobre os direitos e a consciência provavelmente atende nos próximos anos.
Fonte
Publicar comentário