O Parlamento Europeu aprovou a 14 de junho, na sessão plenária reunida em Estrasburgo, uma proposta de lei para regular os usos da inteligência artificial na União Europeia. A aprovação abre caminho para as negociações finais com os 27 Estados-membros da UE, que começaram na mesma noite. Pretende-se que as instituições cheguem a um acordo até ao final deste ano, de modo a fazer da União Europeia a primeira região do mundo com um regulamento sobre a inteligência artificial.
A inteligência artificial diz respeito à capacidade de uma máquina para reproduzir competências semelhantes às humanas, raciocínio, aprendizagem (memória e avaliação), planeamento, criatividade e tomada de decisão - com base na informação que lhe é disponível. Até certo ponto, os sistemas de inteligência artificial são capazes de adaptar comportamentos através da memória das ações tomadas anteriormente e do conhecimento ao qual têm acesso.
Embora certos sistemas de inteligência artificial já existam há décadas, o acesso progressivo a uma grande quantidade de dados, o desenvolvimento de modelos de dados mais avançados capazes de classificar, processar e analisar, a computação em nuvem e os avanços algorítmicos têm-na tornado cada vez mais capaz. Entre os riscos e as oportunidades em aberto, tornou-se urgente legislar sobre as utilizações dos sistemas de inteligência artificial, evitando deixá-la entregue ao vácuo de um mercado desregulado.
O que saiu do Parlamento Europeu?
A proposta de lei da inteligência artificial foi desenhada pela Comissão Europeia tendo em vista a criação de um quadro jurídico para regular a "colocação no mercado e a entrada em funcionamento" de sistemas de inteligência artificial. Como tal, o texto tem sido negociado no Parlamento Europeu, no âmbito das comissões IMCO e LIBE, respectivamente responsáveis pelo Mercado Interno e Proteção do Consumidor e pelas Liberdades Cívicas, Justiça e dos Assuntos Internos.
O texto do regulamento traz uma abordagem em três níveis, classificando os sistemas de inteligência artificial de acordo com o seu risco e impacto presumível. Há requisitos a cumprir pelos sistemas de IA mais comuns, que não representam qualquer risco significativo para a saúde, a segurança ou os direitos fundamentais dos cidadãos, requisitos adicionais a cumprir para usos de "risco elevado" e, por último, uma lista de usos totalmente banidos. Isto significa que um sistema de IA aplicado a filtrar o spam que nos chega ao email seria alvo de requisitos leves, enquanto algoritmos usados por redes sociais poderiam ser classificados como de “risco elevado”.
A respeito das regras gerais, os fornecedores de modelos de base de IA terão de registar os seus modelos numa base de dados da UE antes da sua introdução no mercado interno e de avaliar e atenuar eventuais riscos para a saúde, ambiente, segurança, direitos fundamentais, democracia e Estado de direito. Os sistemas de IA generativa que têm por base esses modelos, como o ChatGPT, terão de cumprir requisitos de transparência. Tal obriga a que se revele que conteúdos foram gerados por IA, o que ajudará a distinguir as técnicas de manipulação de imagens - também conhecidas como deepfake - de imagens reais e assegurará salvaguardas contra a produção de conteúdos ilegais.
Já quanto aos sistemas de IA com um nível de risco inaceitável para a segurança das pessoas, várias utilizações intrusivas e discriminatórias foram banidas: os sistemas de identificação biométrica à distância "em tempo real" em espaços públicos; os sistemas de categorização biométrica que utilizem características sensíveis (por exemplo, género, etnia, estatuto de cidadania, religião, orientação política); os sistemas de policiamento preditivo; os sistemas de reconhecimento de emoções; a remoção não direcionada de imagens faciais da Internet ou de filmagens de videovigilância (circuito fechado) para criar bases de dados de reconhecimento facial.
A inclusão da identificação biométrica à distância na lista de usos banidos foi uma das grandes vitórias dos grupos parlamentares mais progressistas e da sociedade civil, contra as intenções do Partido Popular Europeu.
Riscos em aberto
Embora o objetivo desta lei seja a regulação dos usos da IA que comportam mais riscos para os direitos fundamentais, houve várias utilizações problemáticas que foram deixadas praticamente incólumes. Por exemplo, na sessão plenária rejeitou-se a proibição do uso de IA na gestão de migrações. Assim, as autoridades poderão continuar a usar a inteligência artificial para traçar o perfil das pessoas de maneira discriminatória e para fins que violam direitos fundamentais e em particular, o direito ao asilo.
Tendo em conta os efeitos perturbadores que a inteligência artificial pode ter sobre os cidadãos, o grupo parlamentar The Left propôs que o regulamento fosse regido por um "princípio de precaução". A proposta foi, contudo, rejeitada em plenário.
Outras preocupações dos grupos progressistas e da sociedade civil dizem respeito ao enquadramento do que é considerado de “risco elevado” ou superior. Os sistemas abrangidos por esta categoria só se inscreverão nesta categoria se representarem um "risco significativo" para a saúde, a segurança ou os direitos fundamentais, o que é quase impossível de provar a priori. Além disso, o "risco significativo" é definido através de uma combinação da frequência e da gravidade do risco, o que coloca uma fasquia demasiado elevada e pouco cautelosa.
Embora a inteligência artificial possa trazer oportunidades para o desenvolvimento de vários setores, inclusive de serviços públicos, não é uma tecnologia neutra e desprovida de riscos. Recorde-se que Geoffrey Hinton, especialista em IA da Google, se demitiu precisamente para poder denunciar os impactos da IA na substituição de empregos. As autoridades de imigração de alguns Estados-Membros da União Europeia já testaram a utilização destes tipos de sistemas para informar as decisões sobre quem se qualifica para receber proteção internacional e quem não se qualifica. Há poucos meses, um relatório da Amnistia Internacional documentou a forma como o governo israelita faz uso de sistemas de reconhecimento facial para seguir e controlar palestinianos.