A Lei da UE AI visa criar um campo de jogo de nível para a IA Innovation. Aqui está o que é.
A Lei de Inteligência Artificial da União Europeia, conhecida como Lei da AI da UE, foi descrita pela Comissão Europeia como “a primeira lei abrangente da IA do mundo”. Depois de anos, está se tornando progressivamente parte da realidade para os 450 milhões de pessoas que vivem nos 27 países que compõem a UE. A Lei da AI da UE, no entanto, é mais do que um assunto europeu. Aplica -se às empresas locais e estrangeiras e pode afetar os provedores e implantadores de sistemas de IA; A Comissão Europeia cita exemplos de como se aplicaria a um desenvolvedor de uma ferramenta de triagem CV e a um banco que compra essa ferramenta. Agora, todas essas partes têm uma estrutura legal que prepara o cenário para o uso da IA. Por que o ato da UE ai existe? Como de costume com a legislação da UE, a Lei da UE AI existe para garantir que haja uma estrutura legal uniforme aplicando a um determinado tópico nos países da UE – o tópico desta vez é IA. Agora que o regulamento está em vigor, ele deve “garantir a livre circulação, transfronteira, de bens e serviços baseados em IA” sem divergir restrições locais. Com a regulamentação oportuna, a UE procura criar um campo de jogo em toda a região e promover a confiança, o que também pode criar oportunidades para empresas emergentes. No entanto, a estrutura comum que adotou não é exatamente permissiva: apesar do estágio relativamente inicial da adoção generalizada da IA na maioria dos setores, a Lei da UE AI define uma barra alta para o que a IA deve e não deve fazer pela sociedade de maneira mais ampla. Qual é o objetivo da Lei da UE AI? De acordo com os legisladores europeus, o principal objetivo da estrutura é “promover a captação de IA centrada e confiável humana, garantindo um alto nível de proteção da saúde, segurança, direitos fundamentais, consagrado na Carta dos Direitos Fundamentais da União Europeia, incluindo a Democracia, a Regra da Lei e a Proteção Ambiental, para proteger contra os efeitos harmoniosos dos sistemas AI na união da AI na união, a união, a união, a regra e a proteção ambiental, para proteger contra os efeitos infícios dos sistemas AI na união da AI na união, a sindicato, a união e a regra e a proteção ambiental, para proteger contra os efeitos infícios dos sistemas AI na união da AI na união, a sindicato, a união, a união e a regra e a proteção ambiental, contra os efeitos infícios dos AI. Sim, isso é um bocado, mas vale a pena analisar cuidadosamente. Primeiro, porque muito dependerá de como você define a IA “Human Centric” e “confiável”. E segundo, porque dá uma boa noção do equilíbrio precário para manter entre objetivos divergentes: inovação versus prevenção de danos, bem como a captação de IA versus proteção ambiental. Como sempre com a legislação da UE, novamente, o diabo estará nos detalhes. Como o ato da UE AI equilibra seus objetivos diferentes? Para equilibrar a prevenção de danos contra os benefícios potenciais da IA, a Lei da AI da UE adotou uma abordagem baseada em risco: proibir um punhado de casos de uso de “risco inaceitável”; Sinalizar um conjunto de “alto risco” usa pedidos de regulamentação rígida; e aplicar obrigações mais leves a cenários de “risco limitado”. Evento do TechCrunch São Francisco | 27-29 de outubro de 2025 A Lei da AI da UE entrou em vigor? Sim e não. O lançamento da UE AI Act começou em 1º de agosto de 2024, mas só entrará em vigor por meio de uma série de prazos de conformidade escalonados. Na maioria dos casos, também se aplicará a novos participantes do que a empresas que já oferecem produtos e serviços de IA na UE. O primeiro prazo entrou em vigor em 2 de fevereiro de 2025 e concentrou -se em aplicar proibições em um pequeno número de usos proibidos da IA, como raspagem não direcionada da Internet ou CCTV para imagens faciais para criar ou expandir bancos de dados. Muitos outros se seguirão, mas, a menos que o cronograma mude, a maioria das disposições será aplicada até meados de 2026. O que mudou em 2 de agosto de 2025? Desde 2 de agosto de 2025, a Lei da UE AI se aplica a “modelos de IA de uso geral com risco sistêmico”. Os modelos GPAI são modelos de IA treinados com uma grande quantidade de dados e que podem ser usados para uma ampla gama de tarefas. É aí que entra o elemento de risco. De acordo com a Lei da AI da UE, os modelos GPAI podem vir com riscos sistêmicos; “Por exemplo, através da redução de barreiras para o desenvolvimento de armas químicas ou biológicas, ou questões não intencionais de controle sobre autônomo [GPAI] modelos. ” Antes do prazo, a UE publicou diretrizes para os provedores de modelos GPAI, que incluem empresas européias e players não europeus, como antropia, Google, Meta e OpenAi. “Eficaz, proporcional e dissuaso” – mesmo para grandes players globais. (o que for maior). ” A Comissão Europeia também pode infligir multas de até 15 milhões de euros ou 3% da rotatividade anual em provedores de modelos GPAi. Para ajudar esses provedores em conformidade com a Lei da AI da UE. Post que o Google assinou o Código de Prática GPAI, seu presidente de Assuntos Globais, Kent Walker, ainda tinha reservas. Chamando a implementação da UE da Lei de AI de “ultrapassagem”, ele afirmou que o Código de Prática “apresenta uma série de incertezas legais para os desenvolvedores de modelos, bem como medidas que vão muito além do escopo da Lei da IA”. As empresas européias também expressaram preocupações. Ainda seguiria seu cronograma para implementar a Lei da AI da UE.
Fonte
Publicar comentário