Com o advento de soluções como o Dall-E ou a Stable Diffusion, e com tudo o mais que aí vem, há o perigo real de a Inteligência Artificial poder ser usada para manipular maliciosamente fotografias. A equipa do CSAIL do MIT desenvolveu agora uma ferramenta que ajuda a ‘defender’ as fotografias, ao introduzir alterações invisíveis para os humanos, mas que despistam os algoritmos.O PhotoGuard altera píxeis selecionados das imagens, impedindo que os sistemas de IA as analisem de forma correta. As perturbações introduzidas são invisíveis ao olho humano, mas suficientes para interferir no funcionamento do algoritmo, explica o Engadget.
O sistema consegue usar métodos de ‘codificação’, quando introduz artefactos nas imagens e impossibilita a sua leitura e reconhecimento pelos algoritmos. Por outro lado, há a abordagem de ‘difusão’, que camufla as imagens com uma camada de outra imagem, tornando-a diferente aos olhos da IA. Quaisquer edições que o algoritmo faça são aplicadas na camada da imagem ‘falsa’, resultando em imagens pouco realistas.
Hadi Salman, que liderou o estudo, explica que “o método de codificação leva o modelo a pensar que a imagem original (a ser editada) é uma outra imagem qualquer (por exemplo, uma imagem a cinzento), enquanto o método de ‘difusão’ força o modelo a fazer edições numa outra imagem qualquer (que pode ser também a cinzento ou outra)”.
Os investigadores reconhecem que o método não é à prova de bala, podendo ser alvo de engenharia reversa e com os piratas a conseguirem adicionar ruído digital, cortar ou inverter as imagens.
A recomendação da equipa passa por “uma abordagem colaborativa, que envolva programadores de modelos, plataformas de redes sociais e os legisladores para criar uma defesa mais robusta contra manipulações de imagem não autorizadas”, relembrando que há muito trabalho ainda a ser desenvolvido.
(ZAP)