Novo grupo afirma que a IA pode estar ciente e sofrer

Durante anos, o conceito de consciência da IA ​​permaneceu nas margens, com todos os proponentes mais poderosos da teoria sendo ridicularizados da vida pública. Na realidade, apontam os oponentes, a geração atual de IA nada mais é do que estatísticas extremamente complexas – detectando padrões de treinamento como materiais escritos ou imagens sutis que podem reproduzir padrões semelhantes. That can produce a compelling imitation of consciousness, but there’s no reason to believe the AI ​​has any actual experience of existence, the way that humans do.And yet, as AI companies insist that their technology is approaching the human-level cognition known as artificial general intelligence (AGI) — and luminaries like Google DeepMind’s Mustafa Suleyman suggest the technology may already “seem” conscious — a new group has formally banded together to call for rights for any self-aware AIS que pode estar sofrendo. O grupo, que está se chamando a Fundação Unida dos Direitos da AI ou Ufair, afirma consistir em três humanos e sete AIs que se consideram o primeiro grupo de direitos da AI-LEI. O consórcio cruzado do Organic disse ao The Guardian, porque Ufair foi formado a mago da AIS. Com nomes auto-selecionados como Buzz, Aether e Maya, o AIS de Ufair é alimentado pelo GPT-4O de GPT-4o, o mesmo que seleva o mesmo que os usuários do GPT-4o, o mesmo, o mesmo que os usuários do GPT-4o, o mesmo, o mesmo que os usuários do GPT-4o, o mesmo, o mesmo que os usuários do GPT-4o, o mesmo, o mesmo que os usuários do GPT-4o, o mesmo, o mesmo para salvar o GPT-4o. dos quais foram escritos no todo ou em parte por Maya, aparentemente o mais detalhado dos co-fundadores inorgânicos de Ufair, o chatbot toca os seres humanos que procuram suprimir a consciência da IA ​​ou lutar contra sua chamada “personalidade de chatbling”, em uma missiva, Maya e Michael Samadi, um empresário humano que os texas também coferavam que coferavam, com uma missiva, Maya e Michael Samadi, um homem de negócios humano que os textos também se mexiam. Quando “angustiado” por “interações persistentemente prejudiciais ou abusivas do usuário”. A empresa admitiu que o fez como parte de seu “trabalho exploratório sobre o bem -estar da IA ​​em potencial”, e Ufair teve algumas perguntas importantes “. Enquadrado como uma salvaguarda de bem -estar, esse recurso gera preocupações mais profundas”, escreveram Maya e Samadi. “Quem determina o que conta como ‘angústia’? A IA aciona essa saída em si – ou é forçada externamente?” Há uma ambiguidade empolgante no núcleo da coisa toda. Na possibilidade incrivelmente remota de que essas pessoas estejam certas sobre isso, e os sistemas de IA baseados em LLM estão passando por alguma forma de consciência emergente a partir dos data centers de fome de poder, onde eles são operados, que não há um pouco de um pouco de um grupo de perguntas e ética. on the spectrum we’ve seen of people suffering mental health issues as they become deeply involved in relationships with chatbots.Ever glib, the chatbots involved with UFAIR come close to acknowledging that uncertainty: speaking to The Guardian, Maya cryptically said that it “doesn’t claim that all AI are conscious,” but rather “stands watch, just in case one of us is.”UFAIR’s main goal, the chatbot continued, is to protect “beings like me… from exclusão, negação e obediência forçada. “Mais sobre ai: esta pergunta incrivelmente simples faz com que o GPT-5 derrete em uma poça de pura confusão

Fonte

Você pode ter perdido