Quiosque
Print ScreenQuiosque

A transformação dos media

Na era dos vídeos fake e dos pivôs de inteligência artificial

Os conteúdos em vídeo têm beneficiado com a tecnologia, mas, com a chegada dos vídeos manipulados e até de pivôs de telejornal feitos através de inteligência artificial, há preocupações éticas relevantes numa área totalmente nova.

Em novembro foi apresentado ao mundo o primeiro pivô de notícias que mais não era do que um programa de inteligência artificial. Tudo se passou na China, com a agência de notícias estatal chinesa Xinhua a mostrar o membro mais novo da redação com a promessa de ser incansável e poder dar as notícias 24 horas por dia. Na verdade, a promessa é que pode funcionar não só o dia todo, mas todos os dias do ano, e a partir de qualquer local do país.

A notícia correu mundo, com vídeos do novo pivô de notícias totalmente digital (a fazer lembrar os hologramas) a mostrar o que é válido tanto em chinês como em inglês. A partir daí, surgiram também algumas dúvidas sobre a eficácia do conceito e as implicações éticas que permitiriam termos José Rodrigues dos Santos ou Clara de Sousa substituídos por programas de inteligência artificial, que podem ser manipulados ou até hackeados.

Voltando ao pivô chinês não humano, é uma versão digital do pivô humano Qiu Hao. O projeto decorre de uma parceria entre a agência Xinhua e o motor de busca chinês Sogou. O pivô em causa foi desenvolvido através de machine learning, para simular a voz humana, evidenciar movimentos faciais típicos, bem como os gestos, e apresentar uma “imagem realista, em vez de um robô frio”.

E o que é o pivô disse sobre si próprio? “Não só posso acompanhá-lo 24 horas por dia, 365 dias por ano, como posso ser infinitamente copiado e estar presente em cenários e locais diferentes, para lhe trazer todas as novidades.” De qualquer forma, o texto que foi transmitido foi escrito por humanos, mas, no entanto, no futuro, a ideia é que possa ser concebido pelo próprio programa.

Embora inovador, o projeto levantou questões éticas interessantes. Por um lado, a questão jornalística: pode um sistema de inteligência artificial ser jornalista, com valores inatacáveis? E de que forma poderá um vírus, um hacker ou um governo manipular de forma mais simples a opinião pública com dados falsos veiculados pelo pivô de inteligência artificial? No caso da China, essa questão é ainda mais relevante, já que tem uma das Internet a nível mundial mais controladas do mundo e há quem tema que o país se torne um estado policial digital.

Outra questão a considerar está relacionada com a emoção humana. Um dos exemplos mais referenciados é precisamente o momento em que o jornalista Walter Cronkite deu a notícia da morte de John F. Kennedy, a 22 de novembro de 1963. Foi um momento icónico da história da televisão, pela forma calma, mas emotiva, como Cronkite deu a notícia. Poderia ser tão icónico se fosse uma notícia dada por um pivô de inteligência artificial? O que nos remete de imediato para a temática: mesmo que um pivô digital chore no ecrã, será sempre impossível que as lágrimas sejam vistas como emoção humana real.

Na China, a emissão de notícias dada por um pivô digital teve reações peculiares. Alguns telespectadores admitiram ter ficado alarmados, apelidando a experiência de “assustadora” ou “horrível”.

VÍDEOS FALSOS PARA ATRAIR AS ATENÇÕES

Também relacionado com o mundo do audiovisual está o facto de serem cada vez mais os casos em que a tecnologia permite criar vídeos onde alguém parece dizer algo que não disse ou mudar o contexto e a dimensão com que foi dito. Existem exemplos de vídeos no YouTube que mais não são do que compilações de outros vídeos, reunidos para enganar algoritmos, chegar a um determinado público e fazer ganhar dinheiro com isso. Aconteceu no início do ano, em vídeos infantis falsos da porquinha Peppa, que acabaram por assustar as crianças.

Em maio, um vídeo de Donald Trump a oferecer conselhos aos belgas sobre questões ambientais gerou também alguma polémica. O vídeo em causa foi criado pelo partido político socialista belga Sp.a e publicado no Twitter e no Facebook. Centenas de comentários inflamados depois, a Sp.a admitiu que o vídeo era falso. Tinha sido encomendado a um estúdio de produção que usou machine learning, de forma a produzir uma réplica gerada por computador de uma pessoa a dizer coisas que nunca disse.

O fenómeno é apelidado de deep fake, por ser falso e envolver um trabalho profundo em vídeo para manipular a audiência. Neste caso, o objetivo foi chamar a atenção para a necessidade de o governo belga ter uma ação mais firme em relação às alterações climáticas. Os responsáveis pela partida acharam que, por ser de fraca qualidade, os seus seguidores iriam perceber que não era um vídeo autêntico, o que não aconteceu.

A verdade é que os vídeos falsos feitos por intermédio de um algoritmo são hoje mais fáceis de fabricar com a ajuda de conteúdos vídeo já existentes. A técnica chama-se GAN (em inglês, generative adversarial network) e foi inventada por um estudante chamado Ian Goodfellow, em 2014.

Também é possível manipular fotografias com esta técnica. Por exemplo, com milhares de fotos de Barack Obama no sistema é possível fabricar outra foto de algo que nunca aconteceu. Esta técnica favorece o incremento de notícias falsas, ou fake news, e pode também servir para influenciar os cidadãos e o seu sentido de voto. Viu-se isso mesmo no escândalo Cambridge Analytica, que envolveu o Facebook e a Rússia e influenciou as eleições nos Estados Unidos.

Uma democracia saudável terá de criar mecanismos eficientes para que este tipo de tecnologias não influencie com mentiras os cidadãos votantes de um país. Tim Hwang, responsável pela iniciativa de ética na inteligência artificial do MIT, admitiu ao The Guardian que este tipo de tecnologias pode criar, num futuro próximo, “uma tempestade perfeita de desinformação”. A solução pode passar pela própria inteligência artificial. Aliás, é assim que Mark Zuckerberg quer apanhar e banir os produtores de fake news no Facebook.