IA e desinformação: entendendo o cenário regulatório europeu

No início de junho, eleitores da União Europeia foram às urnas decidir seus representantes para os próximos cinco anos. Foram mais de 180 milhões de eleitores [1] decidindo quem seriam os 720 membros do Parlamento europeu responsáveis por representar cerca de 450 milhões de cidadãos europeus. Estas foram as primeiras eleições transnacionais europeias a acontecer desde que as obrigações contidas no Regulamento de Serviços Digitais (Digital Services Act - DSA), dedicada a garantir um ambiente online seguro e responsável, passaram a ser aplicadas a todos os provedores de serviços digitais em fevereiro deste ano.

O Regulamento de Serviços Digitais prevê como obrigatória a condução de avaliações periódicas de riscos sistêmicos por parte de plataformas digitais muito grandes (VLOPs) como as de mecanismos de busca de grande dimensão (VLOSES) [2]. Entre os riscos sistêmicos previstos, encontram-se, por exemplo, quaisquer efeitos negativos reais ou previsíveis no discurso cívico e nos processos eleitorais. [3]

Ainda em março, baseada no DSA, a Comissão Europeia encaminhou pedidos de informação a seis gigantes digitais a fim de entender que medidas estavam adotando para atenuar os riscos trazidos pelo uso da Inteligência Artificial Generativa (IAG), inclusive no âmbito eleitoral, como a viralização de conteúdos de deepfakes e a manipulação automatizada de serviços que podem induzir eleitores a erros.

Também naquele mês, a Comissão publicou, em decorrência de consulta pública realizada com base no Regulamento, diretrizes para a mitigação de riscos sistêmicos online em referência às eleições. As orientações contêm recomendações envolvendo medidas de atenuação e boas práticas a serem adotadas durante e após os eventos eleitorais por plataformas digitais muito grandes (VLOPs) e mecanismos de busca de grande dimensão (VLOSEs). As diretrizes se direcionam a gigantes digitais que podem ser utilizados tanto para criar quanto para difundir conteúdos de IA generativa enganosos, falsos ou suscetíveis de induzir a erro. [4] Vale o destaque a algumas medidas. Para os serviços geradores de IA, a identificação com “marcas d’água”, metadados e outros mecanismos similares que mostrem que um conteúdo foi gerado por IA, integração em seus sistemas de salvaguardas que aumentem sua segurança, como classificadores de mensagens de solicitação (prompts), moderação de conteúdos e outros filtros são algumas das medidas recomendadas. Para aqueles serviços que podem difundir esses tipos de conteúdos, recomenda-se, por exemplo, a rotulação de vídeos sintéticos ou manipulados com “conteúdos que se assemelhem sensivelmente a pessoas, objetos, locais, entidades ou acontecimentos reais”, adaptação dos sistemas de publicidade para que haja rotulação de conteúdos de IAG quando esses forem veiculados, adaptação dos sistemas de moderação de conteúdo e sistemas algorítmicos para detecção de conteúdos gerados ou manipulados por IA por meio de marcas de água, identificação de metadados e outros mecanismos. [5]

Ainda que o Regulamento sobre Inteligência Artificial tenha entrado em vigor apenas em agosto de 2024, as diretrizes chegaram a recomendar que VLOPs e VLOSEs se antecipassem à vigência da regulação, readequando suas políticas em conformidade com o Pacto para a IA. [6] Além disso, as maneiras como o Regulamento para a Inteligência Artificial pode contribuir para a manutenção do espaço cívico e integridade eleitoral encontram-se num espectro que considera o nível de riscos envolvido por um dado sistema de IA, que pode ir desde riscos considerados inaceitáveis (o que, na prática, iguala-se à proibição) até os riscos mínimos ou ausentes.

Além das regulações e diretrizes aplicadas na intersecção entre IA e integridade eleitoral, vale citar que havia um conjunto de iniciativas destinadas a salvaguardar as eleições europeias de junho. Entre elas, estavam a Força de Tarefa da EU East StratCom, responsável pela análise e identificação de ameaças apresentadas pela Interferência e Manipulação de Informações Estrangeiras, e o Observatório Europeu de Mídia Digital (EDMO), que reunia organizações e experts numa rede europeia de checadores de fatos. [7]

O Código de Conduta sobre Desinformação de 2022, por sua vez, é um código voluntário de adesão que firma compromissos e medidas a serem adotados por seus signatários na repressão da desinformação. Entre estes, encontram-se plataformas digitais, players da indústria publicitária, organizações da sociedade civil e checadores de fatos. Os compromissos 14 e 15 do Código, referentes à integridade eleitoral, fazem referência à integridade informacional e sua intersecção com a inteligência artificial. Em março e setembro, foram publicados relatórios de transparência do Código, em que VLOPs e VLOSEs como Meta, Google, TikTok e Microsoft indicaram medidas adotadas em relação aos compromissos assumidos.

IA nas eleições europeias

O uso de conteúdos produzidos por inteligência artificial generativa nas eleições europeias ocorreu, mas, ao que indicam os dados disponíveis, parece não ter tido impacto significativo na integridade eleitoral. Alerta-se que a maior parte das informações apuradas para a escrita deste artigo reúne poucos dados sobre as eleições do Parlamento em si e traz à tona casos que se circunscrevem mais às realidades nacionais.

No contexto das eleições espanholas ocorridas em maio, adversários políticos de Carlos Carrizosa aparecem atrás das grades no que foi descrita como a “primeira peça eleitoral na Espanha gerada por IA”. Já na Irlanda, o novo partido The Irish People, concorrendo em eleições locais e transnacionais, utilizou diversas imagens geradas por Inteligência Artificial para retratar seus supostos apoiadores. Apesar da recomendação da Comissão Eleitoral irlandesa para devida identificação de imagens geradas por IA e demais recomendações e diretrizes citadas na seção anterior, levantamento feito pelo Institute for Future Media Democracy and Society (FuJo), da Dublin City University, apurou que apenas uma dessas várias imagens foi identificada como produzida por IA. A Comissão Eleitoral irlandesa colocou que, por se tratar de recomendação a ser seguida voluntariamente por atores eleitorais, não poderia agir diante da falta de identificação.

Na França, o uso de inteligência artificial foi central para alguns partidos de extrema-direita em suas peças publicitárias eleitorais tanto no pleito europeu quanto no legislativo francês, como indica o relatório da AI Forensics. O problema encontrado na Irlanda repete-se na França: os partidos mapeados no estudo ignoraram a recomendação de identificação devida de conteúdos gerados por IAG. Tampouco as plataformas que hospedaram tais conteúdos agiram diligentemente na rotulação. São imagens hiperrealistas que ecoam narrativas extremistas inflamadas contra a União Europeia e de natureza xenofóbica.

O Instituto Alan Turing também fez levantamento sobre o tema nas eleições britânicas, francesas e do Parlamento Europeu. Os achados do relatório indicam que não há evidência de que os resultados de nenhuma destas eleições foi significativamente impactado por conteúdos desinformativos gerados por IA ou deepfakes. O relatório também aponta que, no contexto analisado, isso se deu sobretudo porque esses tipos de conteúdo foram expostos a uma minoria de usuários com crenças políticas já alinhadas às narrativas ideológicas encampadas por seus divulgadores. Conclui-se, assim, que o sucesso dos conteúdos consistiu menos em mobilizar o eleitorado indeciso do que consolidar o voto ou fidelidade de eleitores com perspectivas alinhadas às mensagens dos conteúdos.

O relatório também registra usos que aponta como benéficos da IA nas eleições, observados especialmente no pleito britânico: paródias geradas por IA mobilizaram a atenção para tópicos de campanha relevantes como as mudanças climáticas, ao passo que a IA também serviu para ajudar checadores de fatos na triagem prioritária de falas atribuídas a candidatos. Um destaque vai para um uso bastante específico: um candidato disponibilizou AI Steve, um chatbot que coletava perguntas do público para gerar manifestos de propostas de políticas públicas. Validadores da área local do candidato ficavam a cargo de votar nessas propostas que, caso conquistassem mais de 50% dos votos, eram adotadas na campanha.

Na contramão, no entanto, chatbots que funcionam à base de Large Language Models (LLMs) foram apontados como consistentes na divulgação de informações incorretas. Um Relatório da Democracy Reporting International com dados coletados em março indica que, apesar de lograrem permanecer politicamente neutros quanto a partidos, os chatbots falharam sistematicamente em responder perguntas sobre o processo eleitoral - questões referentes a como se registrar, como votar e sobre resultados. Os achados também apontaram que os chatbots frequentemente inventavam informações, numa ocorrência do fenômeno “alucinatório” que acomete IAs.

Após a divulgação do relatório, a instituição coletou novos dados, constatando que recomendações feitas às companhias envolvidas (OpenAI, Google e Microsoft) foram parcialmente atendidas. Para a Democracy Reporting International, a persistência de erros e falta de adoção de medidas mais eficazes faz com que a organização tenha classificado os chatbots, nesse segundo estudo, como promotores de desinformação, e não mais informações incorretas, dada uma intencionalidade na divulgação das informações falsas.

Este é um tipo de discussão capaz de suscitar debates. No caso do Google, houve clara orientação para que sua IA se abstivesse de responder quaisquer perguntas sobre eleições, dadas as inconsistências nas respostas e em cenários linguísticos diferentes. Com a imprevisibilidade das IAS movidas a LLMs, a recusa de seus desenvolvedores a adotarem ações como a do Google ensejaria a classificação das informações divulgadas como intencionalmente falsas, e, portanto, desinformativas?

Danos contidos, mas não ausentes

Ao contrário da Índia e vários dos outros países com eleições acontecendo em 2024, a União Europeia tem um mosaico regulatório e um ecossistema de supervisão que propiciam a repressão a conteúdos desinformativos. Certamente o conjunto de medidas co-regulatórias recomendadas junto ao acompanhamento e supervisão contínuos por diversos atores interessados contribui para os achados que indicam a ausência de influência significativa do uso de sistemas que utilizam inteligência artificial nos resultados eleitorais europeus.

O alerta, no entanto, segue: o rápido desenvolvimento das aplicações que utilizam Inteligência Artificial continuará exigindo a cooperação contínua entre diferentes atores para deter usos que prejudiquem a integridade de processos eleitorais. Além disso, a ausência de interferência significativa não se traduz na ausência de danos. O estudo do Instituto Alan Turing chega a ressaltar que o uso massivo de conteúdos de IAG pode levar à desconfiança generalizada. Registra-se que conteúdos verdadeiros veiculando candidatos foram postos em xeque pela desconfiança de que fossem gerados artificialmente. Além disso, conteúdos nocivos como pornografia generativa envolvendo candidatas podem causar efeitos significativos em seu bem-estar, reverberando violência política de gênero e possivelmente inibindo a participação de mulheres na política. Medidas adequadas capazes de endereçar as especificidades desses conteúdos nocivos devem ser implementadas.

Ao mesmo tempo, usos positivos como na conscientização de tópicos relevantes e no aumento da participação cívica merecem ser acompanhados.


Notas de rodapé

[1] Civil Society Organisation and Election Observer Network Election-Watch.EU. Election Assessment Misson - Final Report. September 2024. p. 48

[2] Regulamento de Serviços Digitais. Art. 34

[3] Idem. Artigo 34, nº 1, alínea c),

[4] União Europeia. Diretrizes da Comissão para fornecedores de plataformas em linha de muito grande dimensão e de motores de pesquisa em linha de muito grande dimensão relativas à atenuação dos riscos sistêmicos para os processos eleitorais nos termos do artigo 35.o, n.o 3, do Regulamento (UE) 2022/2065. Segmento 3.3

Disponível em: <https://eur-lex.europa.eu/legal-content/PT/TXT/HTML/?uri=OJ:C_202403014>

[5] Idem.

[6] Idem. Ponto 37.

[7] RABITSCH, Armin e CALABRESE, Sofia. The EU's Artificial Intelligence Act and its Impact on Electoral Processes: a Human Rights-Based Approach. September 2024. Election-Watch.EU p. 8


Escrito por Pedro Peres. Pedro Peres é mestrando no Mestrado Europeu em Direito, Dados e Inteligência Artificial (EMILDAI), na Dublin City University e bacharel em Direito pela Universidade Federal de Pernambuco (2018). Ele é membro do Laboratório de Políticas Públicas e Internet (LAPIN) desde 2020.