Num relatório hoje divulgado, o observatório europeu de ‘lobby’ afirma ter obtido “documentos que revelam a impressionante forma como as empresas tecnológicas têm tentado influenciar a [nova] lei da IA […] através da tentativa de redução das obrigações de segurança e do afastamento das preocupações com os direitos humanos”.
Depois de, em abril de 2021, a Comissão Europeia ter proposto a primeira legislação na UE para a IA (a primeira também ao nível mundial), defendendo controlos apertados à segurança, esta associação sem fins lucrativos vinca que “as ‘gigantes’ tecnológicas se têm empenhado numa feroz batalha de ‘lobby’ para se salvaguardar de qualquer responsabilidade”.
De acordo com o Corporate Europe Observatory, os esforços de ‘lobbying’ — isto é, de participação dos grupos de interesse na formulação de políticas — tornaram-se mais visíveis após o lançamento do sistema ChatGPT, em novembro passado.
Sublinhando que “os sistemas de IA vêm com grandes riscos”, o observatório aponta que plataformas como o ChatGPT (de conversação baseada em inteligência artificial) “muitas vezes não funcionam como pretendido ou podem ser desresponsabilizados”.
Numa altura em que a nova lei de IA está em fase de negociação entre os colegisladores do Conselho e do Parlamento, o CEO salienta que existe “mais espaço para o ‘lobby’ por parte das empresas tecnológicas”, por estas se tratarem de discussões à porta fechada.
“Google, Facebook e Microsoft têm utilizado grupos secretos, peritos financiados por técnicos e organismos de normalização para pressionar as instituições europeias, um esforço que tem levado anos e que parece provável que seja bem-sucedido à medida que o projeto de lei atinge a sua fase final”, adianta.
No relatório, o observatório dá conta de mais de 1.000 reuniões de ‘lobbying’ com membros do Parlamento Europeu, das quais 56% são com a indústria e grupos de interesse.
A Comissão Europeia propôs em abril de 2021 a primeira legislação na UE para a inteligência artificial, defendendo controlos apertados aos sistemas considerados como arriscados, como o reconhecimento facial ou as impressões digitais, e a proibição dos de “risco inaceitável”, como os de manipulação do comportamento humano.
Depois de várias recomendações adotadas nos últimos três anos para a área da IA e de uma consulta ao mercado, o executivo comunitário propôs “novas regras e ações destinadas a transformar a Europa no centro mundial de confiança”, através da combinação do “primeiro quadro jurídico de sempre” e de um novo plano para coordenação entre os Estados-membros.
O objetivo é “garantir a segurança e os direitos fundamentais das pessoas e das empresas, reforçando ao mesmo tempo a adoção, o investimento e a inovação da IA em toda a UE”, explicou Bruxelas na altura, defendendo uma “abordagem baseada no risco”.
A IA tem vindo a ser cada vez mais usada em áreas como o entretenimento (personalização dos conteúdos), o comércio ‘online’ (previsão dos gostos dos consumidores), os eletrodomésticos (programação inteligente) e os equipamentos eletrónicos (recurso aos assistentes virtuais como Siri, Alexa, entre outros).
É também usada para o reconhecimento facial, técnica que tem por base a recolha de dados característicos de imagem.
(Teksapo)