Após meses de intensas negociações, os membros do Parlamento Europeu (MEPs) superaram suas diferenças e chegaram a um acordo político provisório sobre o primeiro livro de regras de Inteligência Artificial do mundo.
Por Luca Bertuzzi | EURACTIV.com – Imagem: [Alexandros Michailidis/Shutterstock]
O AI Act é uma proposta legislativa emblemática para regular a Inteligência Artificial com base em seu potencial de causar danos. O Parlamento Europeu agora está avançando para formalizar sua posição sobre o arquivo, depois que os legisladores da UE chegaram a um acordo político na quinta-feira (27 de abril).
O texto ainda pode estar sujeito a pequenos ajustes no nível técnico antes da votação de um comitê importante marcada para 11 de maio, mas espera-se que vá para votação em plenário em meados de junho.
“Agora temos um acordo no qual todos os grupos terão que apoiar o compromisso sem a possibilidade de apresentar emendas alternativas”, disse um funcionário do Parlamento Europeu à EURACTIV.
Até os últimos momentos, os legisladores da UE estavam negociando em algumas das partes mais controversas da proposta.
IA de propósito geral
Como lidar com sistemas de IA que não têm um propósito específico tem sido um tema muito debatido na discussão. Os eurodeputados confirmaram propostas anteriores para impor obrigações mais rígidas aos modelos de fundação, uma subcategoria de IA de uso geral que inclui empresas como ChatGPT.
A única mudança significativa de última hora foi nos modelos generativos de IA, que teriam de ser projetados e desenvolvidos de acordo com a legislação e os direitos fundamentais da UE, incluindo a liberdade de expressão.
Práticas proibidas
Outro tópico politicamente delicado foi que tipo de aplicativos de IA devem ser banidos porque são considerados um risco inaceitável.
Duas semanas atrás, surgiu a ideia de proibir ferramentas baseadas em IA para todo o monitoramento geral de comunicações interpessoais. A proposta foi abandonada após a oposição do conservador Partido Popular Europeu (EPP).
Em troca, os legisladores de centro-direita tiveram que aceitar uma extensão da proibição de software de identificação biométrica. Inicialmente banido apenas para uso em tempo real, esse software de reconhecimento poderia ser usado ex-post apenas para crimes graves e com aprovação pré-judicial.
O EPP, que tem uma forte facção de aplicação da lei, é a única exceção parcial ao acordo de não apresentar emendas alternativas. O grupo aceitou não apresentar votos ‘chave’ que poderiam ameaçar seu apoio a todo o arquivo, mas ainda pode tentar mudar a proibição biométrica ex-post.
O regulamento de IA também proíbe a manipulação “proposital”. A palavra proposital foi objeto de debate, pois a intencionalidade pode ser difícil de provar, mas foi mantida porque os deputados não queriam lançar a rede muito longe.
O uso de software de IA de reconhecimento de emoções é proibido nas áreas de aplicação da lei, gerenciamento de fronteiras, local de trabalho e educação.
A proibição dos legisladores da UE sobre o policiamento preditivo foi estendida de ofensas criminais a administrativas, com base no escândalo holandês de benefício infantil que viu milhares de famílias incriminadas injustamente por fraude devido a um algoritmo de fluxo.
Classificação de alto risco
A proposta inicial classificou automaticamente as soluções de IA nas áreas críticas e casos de uso listados no Anexo III como de alto risco, o que significa que os provedores teriam que cumprir um regime mais rígido, incluindo requisitos de gerenciamento de risco, transparência e governança de dados.
Os deputados introduziram uma camada extra, o que significa que um modelo de IA que se enquadre nas categorias do Anexo III só seria considerado de alto risco se representasse um risco significativo de danos à saúde, segurança ou direitos fundamentais.
Risco significativo é definido como “um risco que é significativo como resultado da combinação de sua gravidade, intensidade, probabilidade de ocorrência e duração de seus efeitos, e é a capacidade de afetar um indivíduo, uma pluralidade de pessoas ou afetar um determinado grupo de pessoas”.
A pedido dos Verdes, a IA usada para gerenciar infraestrutura crítica, como redes de energia ou sistemas de gerenciamento de água, também seria categorizada como de alto risco se envolver um risco ambiental grave.
Além disso, os legisladores de centro-esquerda obtiveram a cláusula de que os sistemas de recomendação de plataformas online muito grandes, conforme definido pela Lei de Serviços Digitais (DSA), serão considerados de alto risco.
Detectando vieses
Os parlamentares incluíram salvaguardas extras para o processo pelo qual os fornecedores de modelos de IA de alto risco podem processar dados confidenciais, como orientação sexual ou crenças religiosas, para detectar preconceitos negativos.
Em particular, para que ocorra o processamento de um tipo tão especial de dados, o viés não deve ser detectado pelo processamento de dados sintéticos, anonimizados, pseudonimizados ou criptografados.
Além disso, a avaliação deve acontecer em um ambiente controlado. Os dados confidenciais não podem ser transmitidos a outras partes e devem ser excluídos após a avaliação de viés. Os provedores também devem documentar por que o processamento de dados ocorreu.
Princípios gerais
Antes da reunião de quarta-feira, o escritório dos co-relatores circulou uma proposta de princípios gerais que se aplicariam a todos os modelos de IA. O novo artigo não pretende criar novas obrigações, mas terá de ser incorporado em normas técnicas e documentos de orientação.
Esses princípios incluem agência humana e supervisão, robustez técnica e segurança, privacidade e governança de dados, transparência, bem-estar social e ambiental, diversidade, não discriminação e justiça.
Sustentabilidade da IA de alto risco
Os sistemas de IA de alto risco terão que manter registros de sua pegada ambiental, e os modelos de fundação terão que cumprir os padrões ambientais europeus.