A empresa de IA de bilhões de dólares desiste da AGI enquanto luta desesperadamente para parar de sangrar dinheiro

O novo CEO da Caracter.ai-A controversa startup de AI Chatbot que atualmente luta contra um processo de bem-estar infantil de alto nível sobre o suicídio de um usuário de 14 anos-diz que a empresa abandonou sua missão fundadora de realizar a inteligência geral artificial, ou agious, em uma entrevista com a entrevista, como o caráter recentemente coroado. Os fundadores, o Noam Shazeer e o Daniel de Freitas. É uma jogada impressionante para uma empresa jovem que, em 2023, havia atingido uma avaliação de bilhões de dólares enquanto promove uma missão central para “trazer a Superintelligência Personalizada para todos os modelos da Terra” “, não estamos mais fazendo isso” e disseram que a empresa de imóveis “”, que não está mais, a empresa de imóveis. The company now relies more than ever on open-source LLMs like Deepseek and Meta’s Llama, said the CEO, with the executive adding that forsaking its AGI dreams has since allowed Character.AI to find “clarity and focus” around an “AI entertainment vision.”In many ways, the startup’s whiplash-inducing pivots feel like an important pulse check on the AI industry and its many sweeping, fantastical promises, which many experts fear is Uma bolha esperando para pop. Esse é um grande problema, especialmente considerando o processo de construção e treinamento de LLMs é extraordinariamente caro. Mas enquanto o personagem. a “closed-loop” AI maker, highlighting the company’s ability to continuously collect user inputs and feed them back into its model as training data.”In a world where data is limited,” Andreessen Horowitz partner and former Character.AI board member Sarah Wang wrote in a celebratory March 2023 blog post announcing the firm’s high-dollar investment, “companies that can create a magical data feedback loop by connecting user engagement back into their underlying model to Melhorar continuamente seu produto estará entre os maiores vencedores que emergem desse ecossistema. “Pouco mais de dois anos depois, a situação parece drasticamente diferente. O caractere.ai não se afastou de sua suposta missão original, mas parece estar muito longe da proposta de valor elogiada por investidores que anteriormente arrecadou bilhões. O foco da empresa em cumprir sua “visão de entretenimento da IA” também vem como personagem. Usado em grande número por menores, o personagem.ai sempre comercializou sua plataforma como segura para crianças de 13 anos ou mais. Mas em outubro de 2024, uma mãe da Flórida chamada Megan Garcia entrou com um processo de criação de manchete, alegando que o personagem .Ai havia libertado um produto negligente e imprudente que abusou emocional e sexualmente seu filho adolescente, Sewell Setzer, de 14 anos, que tirou a vida após extensas interações com os chatbots da plataforma. (O caractere.Ai procurou descartar o caso por motivos da Primeira Emenda, mas o juiz presidente deu um tapa na moção e permitiu que o processo avanças Descobrimos que o site organizava uma variedade alarmante de caracteres acessíveis a menores: robôs pedófilos que cultivam o usuário, robôs de transtorno pró-comer, os robôs romantizam a auto-mutilação e o suicídio e os robôs projetados para simular as tiroteios em escolas reais, os verdadeiros perpetradores desses tiroteios e, mais perturbamente (Ele também disse à revista que sua filha de seis anos gosta de usar o aplicativo, o que é definitivamente contra as regras da plataforma.) “Tornar essa plataforma segura é uma parceria entre reguladores, nós e pais”, proclamou Anand a Wired, além de recuar contra a idéia de que o personagem.ai é um aplicativo “Companion”. Pelo contrário, explicou o CEO, o caractere.ai é principalmente um aplicativo de interpretação, que ele argumenta ser uma coisa fundamentalmente diferente. A empresa emitiu várias atualizações de segurança em resposta a ações e relatórios legais, embora tenha recusado continuamente a fornecer jornalistas sobre os jornalistas sobre quais medidas foram necessárias para garantir a segurança de pequenos usuários antes de divulgar seu produto ao público. E, apesar dessas mudanças de segurança, os especialistas da IA continuaram a classificar o aplicativo como inseguro para os menores. Em qualquer caso, seja prometendo superinteligência personalizada ou interpretação orientada a entretenimento, uma coisa é clara: o caráter.

Fonte

Publicar comentário

Você pode ter perdido