logotipo do Claro!

 

Quando os olhos não veem a verdade

 

Por Diego Macedo e Gabrielle Torquato e Tainah Ramos

 
Conceito: Bianca Muniz/Desenho: Bianca Muniz

Conceito: Bianca Muniz/Desenho: Bianca Muniz

 

Jovem, norte-americano, e uma mensagem importante a passar para população de seu país: “Vote, porque eu não posso”. As imagens de Joaquin Oliver foram amplamente divulgadas através de um comercial nos meses que antecederam as eleições presidenciais dos Estados Unidos em 2020 e, a princípio, poderiam se passar como mais uma campanha de incentivo ao voto, mas elas carregam uma diferença importante das demais: Joaquin está morto.

 

O jovem de 16 anos foi uma das vítimas do massacre da escola de Parkland, na Flórida, no ano de 2018, e por isso sua mensagem desincentiva o voto em candidatos armamentistas. O vídeo causou impacto nas redes sociais e só foi possível ser realizado graças a uma técnica conhecida como deepfake, tecnologia que usa Inteligência Artificial (IA) e um algoritmo de “aprendizado profundo” que permite que computadores substituam o rosto de alguém pela imagem de outra pessoa através da alteração de cores, proporções, texturas e movimentos faciais.

 

O alto grau de realismo que alguns deepfakes conseguem alcançar foi o que iniciou um alerta para a possibilidade de este ser mais um passo na evolução das fake news. Isso porque diferente de outros formatos, os vídeos têm um apelo visual muito maior e conseguem enganar com facilidade. O famoso “ver para crer”.

 

Segundo explica Ana Erthal, doutora em Comunicação Social pela UERJ e especialista na área de comunicação multissensorial, a visão é um dos cinco sentidos que mais damos importância. Ela adquiriu predominância durante a Modernidade com muita influência da arte, uma vez que foi nesta época que os pintores passaram a usar a perspectiva para fazer retratos mais fiéis de pessoas e ambientes.

 

Até hoje, cerca de 250 anos depois, esta influência está tão presente no cotidiano que é difícil para o ser humano descrever uma experiência que não seja visual. Nessa conta, a tecnologia agrega alguns pontos ao criar ainda mais apelos visuais através das redes sociais. “A imagem atua hoje na sociedade como código predominante na comunicação”, afirma Ana.

 

Por outro lado, apesar de tão difundidas no mundo digital, o uso das imagens também esbarra em restrições legais. A questão se acirrou ainda mais com as leis de proteção de dados, explica Christian Perrone, coordenador da área de Direito e Tecnologia do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio).

 

De acordo com Perrone, ao veicular uma fotografia ou um vídeo na internet, o usuário transmite dados e o direito de imagem se sobrepõe também às informações pessoais – sobre quem pode usar, como pode usar, em qual circunstância e onde ficarão armazenados.

 

O grande temor sobre as deepfakes é a perda de noção da realidade a ponto de que não se consiga mais discernir o que é real e o que é IA, já que nem mesmo os olhos provam a verdade.

 

 

Colaboraram:
Ana Erthal, doutora em Comunicação Social na linha de Tecnologia de Comunicação e Cultura pela UERJ
Dima Shveits, co-fundador do REFACE APP, aplicativo gratuito de face swapping
Ivan Paganotti, fundador do projeto Vaza Falsiane
Christian Perrone, coordenador da área de Direito e Tecnologia do Instituto de tecnologia e sociedade

 

Como a ciência sobrevive a fake news no Brasil?

 

Por César Costa e Tiago Medeiros

 

Fake news e movimentos negacionistas afetam a produção científica no Brasil. Passando por falhas na divulgação de informações e por escassez de recursos financeiros, o Claro! buscou entender como esses aspectos afetam a ciência em nosso país neste podcast.

 

O claro! é produzido pelos alunos do 3º ano de graduação em Jornalismo, como parte da disciplina Laboratório de Jornalismo - Suplemento.

Tiragem impressa: 5.000 exemplares

Expediente

Contato

Av. Prof. Lúcio Martins Rodrigues, 443, Bloco A.

Cidade Universitária, São Paulo - SP CEP: 05508-900

Telefone: (11) 3091-4211

clarousp@gmail.com