Em 2024 metade do mundo vai a eleições. Só em quatro escrutínios (Índia, Indonésia, União Europeia e EUA), temos quase um terço da população do planeta a poder exercer o seu direito de voto – e a estes ainda se juntam mais 50 países onde se incluem nações como a África do Sul e (previsivelmente) o Reino Unido.

Vários países da União Europeia, onde se inclui Portugal e a Alemanha, estão também prestes a mudar de governo. Neste xadrez eleitoral global o vencedor está anunciado à partida: é a inteligência artificial (IA), que vai entrar em grande no jogo do voto.

A geopolítica da IA

Pode o leitor perguntar se é mesmo real o risco de manipulação eleitoral com recurso a ferramentas de inteligência artificial. A resposta é simples e direta: sim, é. E basta consultar o relatório Freedom on the Net 2023, publicado pela Freedom House há menos de dois meses, para constatar o óbvio.

A sua publicação quase coincidiu com o primeiro aniversário do ChatGPT, a mais conhecida (e mais utilizada) ferramenta de inteligência artificial disponível no mercado. O relatório aponta mesmo que “as ferramentas baseadas em IA que podem gerar texto, áudio e imagens tornaram-se rapidamente mais sofisticadas, acessíveis e fáceis de usar, estimulando uma escalada preocupante destas táticas de desinformação.

Durante o ano passado, a nova tecnologia foi utilizada em pelo menos 16 países para semear a dúvida, difamar os adversários ou influenciar o debate público.” E isto reporta-se apenas a ações governativas dentro dos próprios países, não tendo em conta ações de governos estrangeiros sobre outras nações ou ações de forças político-sociais na oposição.

A lista de países que interferem regularmente nos processos políticos de outras nações é regularmente encabeçada por duas ditaduras: Rússia e China. Ambas têm a escala, a capacidade de processamento, os recursos humanos e a necessidade de desestabilizar as democracias alheias – o que também explica porque é que hoje a inteligência artificial é uma ferramenta essencial da geopolítica.

A Rússia estará muito atenta ao que se passa na União Europeia e nos Estados Unidos, especialmente por causa do apoio à Ucrânia. Para que o plano do Kremlin se concretize, é essencial que os populistas anti-NATO ganhem poder no Parlamento Europeu e nos vários governos nacionais que vão a votos, pelo que são de esperar várias manobras de desinformação a ter lugar nas redes sociais.

Já o interesse da China é diferente, mas complementar: dada a pressão americana sobre a exportação de tecnologia, a relevância da situação de Taiwan aumentou e por isso Pequim quer o máximo de aliados do seu lado. Em simultâneo, terá interesse em combater o nacionalismo indiano e em manter as nações da sua esfera de influência num registo próximo. Por tudo isto, as eleições de Taiwan que se realizam este fim de semana seriam sempre essenciais, e o pior cenário concretizou-se mesmo.

Uma investigação da CNN mostrou que tem havido um enorme investimento nas chamadas operações de guerra cognitivas, onde se propagandeiam nas redes sociais os slogans que beneficiam os candidatos pró-China. Outras estratégias incluem a duplicação de sites de informação credível com notícias falsas (uma ação copiada pelo Chega em Portugal) e subsidiar empresas fictícias para produzirem informação local que semeia instabilidade na população.

E não se julgue que estas manobras de desinformação se limitam aos países poderosos. No ano passado, em agosto, a Meta (empresa proprietária do Facebook) responsabilizou a empresa israelita Mind Farce por uma rede de contas ativas em Angola que publicaram mensagens de apoio ao Movimento Popular de Libertação de Angola e contra a UNITA – tendo um funcionário da empresa de Telavive revelado publicamente que o governo angolano era cliente.

Cenários destes têm-se repetido em todo o lado onde investigadores se dedicam a observar fenómenos de manipulação perto dos períodos eleitorais. Como conclui o já citado relatório da Freedom House, “a inteligência artificial generativa ameaça potenciar as campanhas de desinformação em linha.”

As razões e as soluções

Agora que se traçou o cenário assustador, falta explicar porque é assim, até porque o fenómeno de manipulação digital não é novo. A Cambridge Analytica não precisou de inteligência artificial para manipular os eleitores britânicos aquando do referendo do Brexit, nem os americanos aquando da eleição de Donald Trump. O que muda é a escala e a rapidez: a automatização das tarefas permite que se multipliquem as mensagens dirigidas aos utilizadores incautos, até porque deixa de ser necessário entender línguas remotas ou contextos culturais específicos.

Os sistemas de IA que estão na moda, como o ChatGPT, são especificamente desenhados para parecerem convincentes mesmo que estejam a mentir. Aliás, o rigor não é uma preocupação destas ferramentas: mas ser credível já é. Ora, associar a produção massiva e individualizada de desinformação a mecanismos que garantem a coerência e aparente verosimilhança é a receita para o caos.

Todos os fenómenos de desinformação ocorridos na última década estão prestes a ser exponenciados, visto que agora compensa mais (e sai mais barato) empregar estas táticas. Acresce a isto que, como estas mensagens serão tendencialmente dirigidas a um único utilizador, passam sem ser notadas pelo crivo dos investigadores.

Infelizmente, o já anunciado AI Act não virá a tempo de ser uma solução para este ano eleitoral. O processo legislativo ainda não está concluído, e mesmo depois das assinaturas ainda demorará entre seis meses a dois anos para entrar em vigor. Portugal, enquanto país de média dimensão no contexto europeu, está posicionado para também ter os seus fenómenos de desinformação – até porque uma população envelhecida e com baixíssima literacia digital é muito mais vulnerável.

Um esforço sério para combater estes fenómenos passa por legislação que identifica rapidamente os responsáveis por estes processos e atua para os eliminar, forçando ao mesmo tempo e de forma acelerada o aumento das competências digitais da população.

Diogo Queiroz de Andrade assina este texto na qualidade de autor do ensaio “Algoritmos – Uma Revolução em Curso”, editado em 2023 pela Fundação Francisco Manuel dos Santos (FFMS), no âmbito da parceria entre o Jornal Económico e a FFMS.

QOSHE - Quem vai ganhar as eleições este ano? A inteligência artificial - Diogo Queiroz De Andrade
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Quem vai ganhar as eleições este ano? A inteligência artificial

4 4
12.01.2024

Em 2024 metade do mundo vai a eleições. Só em quatro escrutínios (Índia, Indonésia, União Europeia e EUA), temos quase um terço da população do planeta a poder exercer o seu direito de voto – e a estes ainda se juntam mais 50 países onde se incluem nações como a África do Sul e (previsivelmente) o Reino Unido.

Vários países da União Europeia, onde se inclui Portugal e a Alemanha, estão também prestes a mudar de governo. Neste xadrez eleitoral global o vencedor está anunciado à partida: é a inteligência artificial (IA), que vai entrar em grande no jogo do voto.

A geopolítica da IA

Pode o leitor perguntar se é mesmo real o risco de manipulação eleitoral com recurso a ferramentas de inteligência artificial. A resposta é simples e direta: sim, é. E basta consultar o relatório Freedom on the Net 2023, publicado pela Freedom House há menos de dois meses, para constatar o óbvio.

A sua publicação quase coincidiu com o primeiro aniversário do ChatGPT, a mais conhecida (e mais utilizada) ferramenta de inteligência artificial disponível no mercado. O relatório aponta mesmo que “as ferramentas baseadas em IA que podem gerar texto, áudio e imagens tornaram-se rapidamente mais sofisticadas, acessíveis e fáceis de usar, estimulando uma escalada preocupante destas táticas de desinformação.

Durante o ano passado, a nova tecnologia foi utilizada em pelo menos 16 países para semear a dúvida, difamar os adversários ou influenciar o debate público.” E isto reporta-se apenas a ações governativas dentro dos próprios países, não tendo em conta ações de governos estrangeiros........

© Jornal Económico


Get it on Google Play