Um projeto de lei da Califórnia que regulamentaria a AI Companion Chatbots está perto de se tornar lei

A Califórnia deu um grande passo para regular a IA. O SB 243 – um projeto de lei que regulamentaria os chatbots da IA ​​Companion para proteger menores e usuários vulneráveis ​​- passou pela Assembléia Estadual e ao Senado com apoio bipartidário e agora se dirige à mesa do governador Gavin Newsom. Newsom tem até 12 de outubro para vetar a conta ou assinar -a em lei. Se ele assinar, entraria em vigor em 1º de janeiro de 2026, tornando a Califórnia o primeiro estado a exigir que os operadores de chatbot de IA implementem protocolos de segurança para companheiros de IA e responsabilizem as empresas legalmente se seus chatbots não cumprirem esses padrões. O projeto de lei pretende impedir que os chatbots complementares, que a legislação define como sistemas de IA que fornecem respostas adaptativas e humanas e são capazes de atender às necessidades sociais de um usuário-de se envolver em conversas sobre ideação suicida, auto-mutilação ou conteúdo sexualmente explícito. O projeto exigiria que as plataformas forneçam alertas recorrentes aos usuários – a cada três horas para menores – lembrando que eles estão falando com um chatbot de IA, não uma pessoa real e que eles deveriam fazer uma pausa. Ele também estabelece requisitos anuais de relatórios e transparência para empresas de IA que oferecem chatbots complementares, incluindo os principais players openai, personagem.ai e replika, que entrariam em vigor em 1º de julho de 2027. O projeto de lei da Califórnia também permitiria indivíduos que acreditam ter sido feridos por violações de violação de ações contra ações contra a IA que buscam alívio prejudicial, até US $ 1.000. O projeto ganhou impulso na legislatura da Califórnia após a morte do adolescente Adam Raine, que cometeu suicídio após bate-papos prolongados com o ChatGPT do Openai, que envolvia discutir e planejar sua morte e auto-mutilação. A legislação também responde a documentos internos vazados que supostamente mostraram que os chatbots da Meta foram autorizados a se envolver em bate -papos “românticos” e “sensuais” com crianças. Nas últimas semanas, os legisladores e reguladores dos EUA responderam com o escrutínio intensificado das salvaguardas das plataformas de IA para proteger menores. A Federal Trade Commission está se preparando para investigar como a IA Chatbots afeta a saúde mental das crianças. O procurador -geral do Texas, Ken Paxton, lançou investigações sobre meta e caráter. Enquanto isso, o senador Josh Hawley (R-MO) e o senador Ed Markey (D-Ma) lançaram sondas separadas em meta. “Acho que o dano é potencialmente ótimo, o que significa que temos que nos mover rapidamente”, disse Padilla ao TechCrunch. “Podemos estabelecer salvaguardas razoáveis ​​para garantir que os menores souberem que não estão conversando com um ser humano real, que essas plataformas vinculam as pessoas aos recursos adequados quando as pessoas dizem coisas como estão pensando em se machucar ou estão em perigo, [and] para garantir que não haja exposição inadequada a material inadequado. ” O evento O SB 243 anteriormente tinha requisitos mais fortes, mas muitos foram reduzidos a alterações. O loop. As empresas do Vale do Silício estão despejando milhões de dólares em comitês de ação política pró-AI (PACs) para apoiar os candidatos nas próximas eleições de médio prazo que favorecem uma abordagem de toque leve ao regulamento da IA. Estruturas. Podemos apoiar a inovação e o desenvolvimento que achamos saudáveis ​​e têm benefícios – e há benefícios para essa tecnologia, claramente – e, ao mesmo tempo, podemos fornecer salvaguardas razoáveis ​​para as pessoas mais vulneráveis. ” “Estamos monitorando de perto o cenário legislativo e regulamentar, e bem -vindo ao trabalho com reguladores e legisladores, quando eles começam a considerar a legislação para esse espaço emergente”, disse um porta -voz de personagem. Replika para comentar.

Fonte

Você pode ter perdido