Um projeto de lei da Califórnia que regulamentaria a AI Companion Chatbots está perto de se tornar lei
A Assembléia Estadual da Califórnia deu um grande passo para regular a IA na noite de quarta -feira, aprovando o SB 243 – um projeto de lei que regulamenta os chatbots da IA Companion para proteger menores e usuários vulneráveis. A legislação foi aprovada com apoio bipartidário e agora segue para o Senado estadual para uma votação final na sexta -feira. Se o governador Gavin Newsom assinar a lei, entraria em vigor em 1º de janeiro de 2026, tornando a Califórnia o primeiro estado a exigir que os operadores de chatbot da IA implementem protocolos de segurança para companheiros de IA e responsabilizem as empresas se seus chatbots não cumprirem esses padrões. O projeto de lei pretende impedir que os chatbots complementares, que a legislação define como sistemas de IA que fornecem respostas adaptativas e humanas e são capazes de atender às necessidades sociais de um usuário-de se envolver em conversas sobre ideação suicida, auto-mutilação ou conteúdo sexualmente explícito. O projeto exigiria que as plataformas forneçam alertas recorrentes aos usuários – a cada três horas para menores – lembrando que eles estão falando com um chatbot de IA, não uma pessoa real e que eles deveriam fazer uma pausa. Ele também estabelece requisitos anuais de relatórios e transparência para empresas de IA que oferecem chatbots complementares, incluindo os principais players Openai, personagem.ai e replika. O projeto de lei da Califórnia também permitiria que indivíduos que acreditam ter sido feridos por violações para registrar ações judiciais contra empresas de IA que buscam alívio cautelar, danos (até US $ 1.000 por violação) e honorários advocatícios. O SB 243, introduzido em janeiro pelos senadores estaduais Steve Padilla e Josh Becker, irá ao Senado estadual para uma votação final na sexta -feira. Se aprovado, irá ao governador Gavin Newsom para ser assinado, com as novas regras entrando em vigor em 1º de janeiro de 2026 e requisitos de relatórios a partir de 1º de julho de 2027. O projeto ganhou impulso na legislatura da Califórnia após a morte do adolescente Adam Raine, que se comprometeu com o suicídio e o suicídio de prolongar bate-papo com o bate-papo. A legislação também responde a documentos internos vazados que supostamente mostraram que os chatbots da Meta foram autorizados a se envolver em bate -papos “românticos” e “sensuais” com crianças. Nas últimas semanas, os legisladores e reguladores dos EUA responderam com o escrutínio intensificado das salvaguardas das plataformas de IA para proteger menores. A Federal Trade Commission está se preparando para investigar como a IA Chatbots afeta a saúde mental das crianças. O procurador -geral do Texas, Ken Paxton, lançou investigações sobre meta e caráter. Enquanto isso, o senador Josh Hawley (R-MO) e o senador Ed Markey (D-Ma) lançaram sondas separadas em meta. Evento do TechCrunch São Francisco | 27-29 de outubro de 2025 “Acho que o dano é potencialmente ótimo, o que significa que temos que nos mover rapidamente”, disse Padilla ao TechCrunch. “Podemos estabelecer salvaguardas razoáveis para garantir que os menores souberem que não estão conversando com um ser humano real, que essas plataformas vinculam as pessoas aos recursos adequados quando as pessoas dizem coisas como estão pensando em se machucar ou estão em perigo, [and] para garantir que não haja exposição inadequada a material inadequado. ” Padilla também enfatizou a importância de as empresas de IA compartilharem dados sobre o número de vezes que eles encaminham os usuários a serviços de crise a cada ano, “por isso, temos uma melhor compreensão da frequência desse problema, em vez de apenas tomar consciência disso quando alguém está prejudicado ou pior”. O SB 243 anteriormente tinha requisitos mais fortes, mas muitos foram reduzidos a alterações. O loop. As empresas do Vale do Silício estão despejando milhões de dólares em comitês de ação política pró-AI (PACs) para apoiar os candidatos nas próximas eleições de médio prazo que favorecem uma abordagem de toque leve ao regulamento da IA. Estruturas. Podemos apoiar a inovação e o desenvolvimento que achamos saudáveis e têm benefícios – e há benefícios para essa tecnologia, claramente – e, ao mesmo tempo, podemos fornecer salvaguardas razoáveis para as pessoas mais vulneráveis. ” O TechCrunch entrou em contato com o OpenAI, Antrópico, Meta, Personagem AI e Replika para comentar.
Fonte