Na passada sexta feira, ao fim de mais de 36 horas de negociações, o Conselho e o Parlamento Europeu chegaram finalmente a um acordo preliminar sobre a Lei da Inteligência Artificial (IA). O acordo de 8 de dezembro não bane totalmente as utilizações de IA com maiores riscos para os direitos fundamentais, como o reconhecimento facial e o policiamento preditivo. Enquanto entusiastas celebram que a União Europeia se vá tornar na primeira região do mundo a regular a inteligência artificial, as ONG lamentam que esta se torne numa oportunidade perdida para proteger os direitos fundamentais.
A proposta de lei da inteligência artificial foi desenhada pela Comissão Europeia tendo em vista a criação de um quadro jurídico para regular a "colocação no mercado e a entrada em funcionamento" de sistemas de inteligência artificial. Foi desenhada tendo por base uma abordagem baseada no risco, classificando e restringindo os usos dos sistemas de inteligência artificial de acordo com o o seu impacto presumível para os direitos fundamentais, como a privacidade. No entanto, contra a posição conjunta do Parlamento Europeu, mais ambiciosa em termos de salvaguardas e de gestão do risco, os Estados Membros forçaram uma visão mais minimalista do regulamento.
O resultado dos trílogos deverá regressar ao Parlamento Europeu para ser votado nas Comissões do Mercado Interno e Proteção do Consumidor (IMCO) e das Liberdades Cívicas, Justiça e dos Assuntos Internos (LIBE), no início de 2024. Depois, deverá ser votado em sessão plenária.
Em que consiste o acordo?
No acordo, mantém-se a proibição geral de utilizar inteligência artificial para fins de reconhecimento facial ao vivo, salvo em raras exceções. As exceções previstas dizem respeito a casos concretos como a busca e resgate de vítimas, a busca de suspeitos e na prevenção de actos terroristas.
Além do reconhecimento facial ao vivo, acrescenta-se o reconhecimento facial feito a posteriori (retrospetivo), que passa a ser permitido exclusivamente para a busca de suspeitos de crimes de natureza grave - ainda que o critério do que constitui um crime "grave" não esteja ainda definido. Em ambos os casos, embora o Parlamento tenha conseguido restringir o número de exceções face à condições exigidas pelos Estados-Membros, estas condições não banem totalmente a utilização de sistemas de IA para fins potencialmente perigosos, discriminatórios e com contornos de vigilância massiva.
O pactado continua a prever alguns usos da inteligência artificial para fins de policiamento preditivo. Inclui, por exemplo, que se possa usar a inteligência artificial para prever, com base em "traços ou características da personalidade", a propensão de um indivíduo para cometer infrações penais. A Fair Trials e outras organizações de defesa dos direitos humanos têm alertado sobre os riscos do policiamento preditivo, que pode multiplicar a discriminação e identificação injustificada de pessoas racializadas e de outros grupos vulneráveis.
O acordo permite, ainda que por omissão, o uso de sistemas de reconhecimento e identificação de emoções para fins de policiamento e de gestão migratória. As autoridades de imigração de alguns Estados-Membros já estão a testar a utilização deste tipo de sistemas para informar as decisões sobre quem pode ou não beneficiar de proteção internacional, o que cria restrições de facto ao direito ao asilo na União Europeia. O reconhecimento e identificação de emoções é, contudo, banido em locais de trabalho e estabelecimentos de ensino.
Por fim, o acordo inclui uma suposta proibição dos sistemas de categorização biométrica, mas ainda é pouco claro se essa proibição será ou não suficientemente ambiciosa.
Prestação de contas e sanções
O comunicado do Parlamento Europeu sobre o resultado das negociações indica que se conseguiu garantir a inclusão de uma avaliação obrigatória do impacto da IA sobre os direitos fundamentais. Os cidadãos terão direito a apresentar queixas contra os sistemas de inteligência artificial e a receber explicações sobre decisões tomadas com base em sistemas de inteligência artificial de alto risco que afectem os seus direitos.
O incumprimento das regras pode levar a multas que variam entre os 35 milhões de euros ou 7% do volume de negócios global e os 7,5 milhões ou 1,5% do volume de negócios, dependendo da infração e da dimensão da empresa.
ONG lamentam oportunidade perdida para proteger direitos fundamentais
As ONG têm expressado forte oposição ao acordo, argumentando que a proposta de regulamento não regula e previne suficientemente os riscos da inteligência artifical. Mher Hakobyan, representante da Amnistia Internacional para a inteligência artificial disse: "Não garantir a proibição total do reconhecimento facial é, portanto, uma oportunidade perdida para travar e prevenir danos colossais aos direitos humanos, ao espaço cívico e ao Estado de Direito, que já estão sob ameaça em toda a UE.”
Referindo-se a outros casos, fora da Europa, como o uso de inteligência artificial nos ataques perpetrados por Israel contra civis palestinianos, acrescentou: “Embora os seus proponentes argumentem que a proposta permite apenas um uso limitado do reconhecimento facial e que está sujeito a salvaguardas, as investigações da Amnistia em Nova Iorque, nos Territórios Ocupados da Palestina, em Hyderabad e noutros locais demonstram que nenhuma salvaguarda pode prevenir as violações de direitos humanos que o reconhecimento facial inflige, razão pela qual é necessária uma proibição total.”
O mesmo se aplica ao contexto europeu, onde várias investigações demonstram que a Frontex - Agência Europeia da Guarda de Fronteiras e Costeira tem usado sistemas de inteligência artificial, reconhecimento facial e policiamento preditivo para a gestão de fronteiras, prevenindo movimentos migratórios e o acesso ao direito de asilo através de pushbacks.