Atualmente, nada impede que alguém pegue a selfie que você postou online na semana passada e a edite usando poderosos sistemas de IA generativos. Ainda pior, pode ser impossível provar que a imagem resultante é falsa. A boa notícia é que uma nova ferramenta, criada por pesquisadores do MIT (Instituto Tecnológico de Massachusetts), pode evitar isso.
Como funciona?
A ferramenta, chamada PhotoGuard, funciona como um escudo protetor, alterando as fotos de maneiras minúsculas que são invisíveis aos olhos humanos, mas impedem que sejam manipuladas. Se alguém tentar usar um aplicativo de edição baseado em um modelo de IA generativo para manipular uma imagem que foi “imunizada” pelo PhotoGuard, o resultado parecerá irreal ou distorcido.
Segundo o artigo, os pesquisadores testaram o PhotoGuard em quatro aplicativos populares de edição de fotos baseados em IA: FaceApp, Deep Nostalgia, ArtBreeder e Toonify. Eles descobriram que o PhotoGuard reduziu significativamente a qualidade das imagens editadas e introduziu artefatos visuais indesejados. Além disso, o PhotoGuard também preservou as características originais das fotos, como metadados e assinaturas digitais, que podem ser usados para verificar sua autenticidade.
Leia também: IA do Google, Bard, é lançada no Brasil; saiba como usar
Como a Inteligência Artificial (IA) consegue gerar imagens por meio de outras?
A IA utiliza algoritmos chamados de redes neurais artificiais, que são inspirados no funcionamento do cérebro humano. Essas redes são capazes de aprender a partir de dados, como fotos, e gerar novas imagens que não existem na realidade.
Um dos tipos de redes neurais mais usados para esse fim é o GAN, que significa Generative Adversarial Network, ou Rede Geradora Adversarial. Esse tipo de rede é formado por duas partes: um gerador e um discriminador. O gerador tem a função de criar novas imagens a partir de fotos, enquanto o discriminador tem a função de avaliar se essas imagens são reais ou falsas.
O gerador e o discriminador competem entre si, tentando enganar um ao outro. O gerador tenta criar imagens cada vez mais realistas, enquanto o discriminador tenta identificar as falhas nessas imagens. Com esse treinamento, a rede GAN aprende a gerar imagens de alta qualidade e diversidade.
As redes GAN podem ser usadas para diversos fins, como:
- Criar rostos de pessoas que não existem, como celebridades ou personagens fictícios.
- Alterar características de uma foto, como cor do cabelo, idade, gênero ou estilo.
- Transferir o estilo de uma imagem para outra, como transformar uma foto em uma pintura.
- Completar partes faltantes de uma imagem, como restaurar fotos antigas ou danificadas.
- Criar imagens a partir de textos ou desenhos simples, como ilustrações ou animações.
As possibilidades são infinitas e dependem da criatividade e do objetivo do usuário. No entanto, é importante ter cuidado com o uso ético e responsável da IA, pois ela também pode ser usada para fins maliciosos, como:
- Falsificar documentos ou evidências, como passaportes ou vídeos.
- Enganar ou manipular pessoas, como criar perfis falsos ou propagandas enganosas.
- Violar a privacidade ou os direitos autorais de alguém, como usar fotos sem permissão ou consentimento.
Por isso, é essencial verificar a fonte e a autenticidade das imagens geradas pela IA, bem como respeitar as leis e os princípios morais. A IA é uma ferramenta poderosa e fascinante, mas também requer consciência e ética. A aplicação do MIT pode ajudar a contribuir para que essa consciência seja sempre seguida.