Ética na IA (1): a moralidade dos artefactos e os algoritmos inteligentes

By | 22/04/2026

Miguel S. Albergaria discorda da tese da neutralidade moral da tecnologia, em especial o caso de artefactos com capacidade de previsão, aprendizagem ou tomada de decisão.

Num raro momento de perplexidade moral, 007, agente ao serviço de Sua Majestade, perguntou ao armeiro que lhe otimizara uma arma se essa profissão não o incomodava. Ao que o outro respondeu: “Mr. Bond, as balas não matam. É o dedo que puxa o gatilho.” Esta cena de O Homem da Pistola Dourada foi a minha introdução à tese da neutralidade moral da tecnologia. Ponderosa, mas, creio, errada.

Essa tese implica que a moralidade se reporta à agência ou capacidade de fazer algo e que os artefactos técnicos não têm agência. A primeira condição será pacífica, mas a segunda não. Em sentido forte, “agência” significa a capacidade de reconhecer comportamentos alternativos que sejam possíveis, escolher os valores para ponderação, aplicá-los, decidir, e causar o comportamento correspondente. Se essa agência se verifica, pelo menos por ora, será exclusivamente humana. Já no sentido fraco de intervenção na determinação e promoção do comportamento, ainda que porventura essa intervenção esteja, por sua vez, determinada geneticamente e/ou por experiências e aprendizagens anteriores, nós temo-la bem como os restantes animais. Diferentemente de balas, gatilhos e quaisquer ferramentas intencionalmente produzidas para serem usadas em certas funções, ou de objetos naturais que possam ser aproveitados como utensílios. Sobre essas coisas, dir-se-á que apenas os respetivos utilizadores fazem propriamente algo, logo, apenas estes ou os seus comportamentos têm valor moral.

Precisamente essa última premissa é denunciada pelo filósofo neerlandês P.P. Verbeek, numa obra com o título sugestivo: What Things Do. Ou seja, as coisas não são meramente manipuladas em ações de outrem, elas próprias já fazem algo. Designadamente, por um lado, não existimos da mesma forma no mundo conforme, ao desempenharmos uma função, usamos um tipo de artefacto ou outro equiparável. Por exemplo, ao escrever, se usarmos um teclado, relacionamo-nos com uma maior parcela do mundo graças à libertação de tempo para outras ocupações e ao aumento da audiência potencial, do que num mundo em que usamos caneta e papel. Por outro lado, o mundo torna-se-nos mais significativo ao manipularmos a caneta (a motricidade fina parece convocar as mesmas áreas cerebrais da organização das ideias), tal como retemos melhor essas ideias (por implicação das mesmas ondas cerebrais na escrita manual e na memória).

Verbeek reconheceu, assim, que quaisquer artefactos técnicos têm uma função de mediação entre os seres humanos e o respetivo mundo. Com uma dimensão dita existencial – da primeira comparação das duas escritas – e outra dita hermenêutica – da segunda comparação. O que carrega cada artefacto com o sentido moral da contribuição para um modo de existirmos em detrimento de outros, e para uma interpretação do mundo em vez de outras, uma vez que estas diferenças sejam classificáveis entre um polo positivo e outro negativo.

Mas a moralidade intrínseca à tecnologia torna-se ainda mais relevante no caso de artefactos com capacidade de previsão, aprendizagem ou tomada de decisão. Estas novas tecnologias não fazem apenas o que lhes é estruturalmente próprio nas circunstâncias em que sejam utilizadas, elas também ajustam a respetiva estrutura e podem escolher (ainda que não com agência forte) as circunstâncias em que intervêm.

Alguns autores atribuem-lhes uma “moralidade funcional”. Como os modelos comportamentais facultados aos automóveis autónomos, conforme as opções dos condutores humanos, ou conforme a avaliação humana de situações que o algoritmo preveja que possam resultar de cada comportamento alternativo.  Outros, duvidando da legitimidade ou propriedade de uma ética antropocêntrica, reconhecem às tecnologias inteligentes uma “moralidade a-mental”. Que supõe algum grau de autonomia e de adaptabilidade na implementação de ações moralmente significativas – como as de um cão de socorro ou de um robô social.

Qualquer que seja a moralidade fraca própria desses artefactos inteligentes, parece imprescindível uma abordagem ética ao que estas tecnologias fazem. O que implica a mesma abordagem ao modo como o fazem – p. ex. sobre enviesamentos dos dados de aprendizagem, ou transparência dos algoritmos. Bem como sobre os recursos com que o fazem – da extração de minérios à de dados pessoais, passando pelo trabalho humano envolvido na classificação de objetos.

Em suma, com a IA, não poderíamos estar mais longe da nossa abertura cinéfila à questão da moralidade e da tecnologia.

Por Miguel S. Albergaria, Professor do ensino secundário, São Jorge (Açores).

(Teksapo)