No dia 06 de outubro de 2024, mais de 150 milhões de brasileiros irão às urnas para eleger prefeitos, vereadores e outros representantes locais espalhados por 5568 municípios. Numa tentativa de mitigar o uso potencialmente danoso de ferramentas de Inteligência Artificial Generativa (IAG) num pleito eleitoral tão grande e descentralizado, o Tribunal Superior Eleitoral (TSE) aprovou uma resolução em 27/02/24 que regula o uso de Inteligência Artificial durante a campanha.
O Brasil está entre os mais de 80 países com eleições em 2024. Cada um deles se depara com questões sem precedentes relacionadas ao uso da IAG como uma arma eleitoral. Deepfakes em formato de vídeo, áudios falsificados e imagens geradas por IA: todos detêm o enorme potencial de prejudicar eleições, seja em casos individuais de informação falsificada circulando na campanha seja pelo fato da mera existência da tecnologia suscitar desconfiança pública, permitindo candidatos descreditarem filmagens autênticas como falsas.
Os novos regulamentos estão entre os primeiros esforços globais para regular a IAG no contexto eleitoral. Trata-se também do esforço mais recente da tendência que já dura uma década no Brasil envolvendo medidas sobre governança da Internet nacional, incluindo-se a regulação de plataformas de redes sociais com o intuito de combater a desinformação. Em 2014, o país aprovou o Marco Civil da Internet, uma lei que estabelece princípios, garantias, direitos e responsabilidades em relação ao uso da Internet no país. Além disso, o Congresso Nacional tem debatido o PL 2630/2020, também conhecido como “PL das Fake News”, que pode vir a estabelecer diretrizes para a moderação de conteúdo nas redes sociais, a obrigatoriedade de relatórios de transparência e a implementação de medidas contra contas e perfis inautênticos nestas plataformas. A proposta de legislação tem gerado forte reação por parte das plataformas digitais, que fizeram lobby pela rejeição do projeto.
Os novos regulamentos eleitorais brasileiros requerem transparência em relação à disseminação dos materiais manipulados por ferramentas de Inteligência Artificial. De acordo com as novas regras, as campanhas devem explicitamente informar audiências quando utilizarem Inteligência Artificial, incluindo o nome da ferramenta utilizada, exceto quando se tratar de retoques ao conteúdo para melhorar sua qualidade. A falha em obedecer às regras resultará na remoção do conteúdo ou a imposição de restrição de acesso aos canais pelos quais o conteúdo foi transmitido.
O TSE também estabeleceu punições mais rígidas para casos em que a Inteligência Artificial é utilizada para produzir conteúdos falsos e deepfakes com a intenção de danificar ou favorecer uma candidatura. Nesses casos, o tribunal reserva o direito de cancelar o registro eleitoral da candidatura, oficialmente removendo a pessoa candidata da disputa eleitoral.
“É vedada a utilização, na propaganda eleitoral, qualquer que seja sua forma ou modalidade, de conteúdo fabricado ou manipulado para difundir fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral.”, como ordena a resolução. “É proibido o uso, para prejudicar ou para favorecer candidatura, de conteúdo sintético em formato de áudio, vídeo ou combinação de ambos, que tenha sido gerado ou manipulado digitalmente, ainda que mediante autorização, para criar, substituir ou alterar imagem ou voz de pessoa viva, falecida ou fictícia (deep fake).”
Notavelmente, as regras eleitorais focam na mídia generativa criada pelas próprias campanhas. Elas não estipulam quaisquer políticas em relação aos conteúdos de IAG produzidos por pessoas não vinculadas aos partidos, candidatos, ou campanhas, tampouco elas estabelecem se tais casos serão monitorados ou passíveis de judicialização.
Anteriormente à aprovação das regulações em fevereiro de 2024, havia pelo menos três casos de áudios de deepfakes que falsificavam comentários dos candidatos potenciais a prefeituras; esses clipes davam a impressão de que tais candidatos haviam criticado ou insultado servidores públicos e opositores políticos. Os áudios circularam em grupos de Whatsapp.
A campanha para as eleições municipais começa oficialmente em 16 de agosto e se encerra no 1º de outubro, cinco dias antes do primeiro turno eleitoral. Durante a campanha, publicidade e conteúdos promocionais são permitidos na televisão, no rádio e na Internet, aqui incluídas as plataformas de redes sociais. Qualquer conteúdo publicitário ou pedido direto de voto a um candidato fora desse período está sujeito a multa.
Antes do período oficial de campanha, partidos políticos e pré-candidatos podem começar a levantar fundos para campanhas a partir de 15 de maio. Este período, popularmente conhecido como pré-eleitoral, está sujeito às mesmas regras sobre IA estabelecidas para o período oficial da campanha.
Apesar do Brasil ter sido pioneiro no uso de urnas eletrônicas para aumentar a segurança e acelerar a contagem de votos, a intensa polarização política no país tem, nos últimos anos, criado desafios para o sistema eleitoral. O ex-presidente Jair Bolsonaro tem sido um propagador incansável de teorias da conspiração relacionadas à vulnerabilidade das urnas eletrônicas, que tem sido usadas no Brasil desde 2000 sem qualquer registro de irregularidade. A campanha eleitoral de 2022 foi marcada por fortes acusações de falta de honestidade no processo eleitoral e ameaças contra a ordem democrática de direito.
Como se sabe, inflamadas por aliados de Bolsonaro com um grande séquito nas redes sociais, influenciadores de extrema-direita disseminaram acusações de fraudes e estimularam um golpe militar pelas forças armadas, culminando em protestos anti democráticos que levaram ao ataque ao Congresso Nacional em 08/01/23.
São estes os eventos recentes que servem de pano de fundo para as eleições de 2024. A polarização no país não mostra sinais de diminuição. Também não há razão para acreditar que a desinformação, vastamente observada nas eleições recentes, será menos pervasiva. De fato, há forte expectativa por pesquisadores de desinformação de que ela pode ter ainda mais impacto na forma de deepfakes geradas por IA.
As regulações em detalhe
A regulação para o uso de ferramentas de IA nas eleições brasileiras foi codificada na resolução 23.732/2024. O documento lista doze medidas aprovadas em 27 de fevereiro por ministros do TSE para atualizar a resolução 23.610, promulgada em 2019 para regular a propaganda eleitoral no Brasil, como na TV, no rádio e em anúncios impressos.
As diretrizes para o uso da IA são descritas no artigo 9º-B da resolução 23.732/2024:
“A utilização na propaganda eleitoral, em qualquer modalidade, de conteúdo sintético multimídia gerado por meio de inteligência artificial para criar, substituir, omitir, mesclar ou alterar a velocidade ou sobrepor imagens ou sons impõe ao responsável pela propaganda o dever de informar, de modo explícito, destacado e acessível que o conteúdo foi fabricado ou manipulado e a tecnologia utilizada.”
A resolução também detalha como essa informação deve aparecer em peças de comunicação eleitoral, incluindo “no início das peças ou da comunicação feita por áudio” ou “em cada página ou face de material impresso”.
Campanhas podem empregar ferramentas de IA em conteúdos relacionados às eleições em três situações:
1. para ajustes destinados a melhorar a qualidade de imagem ou de som;
2. para produção de elementos gráficos de identidade visual, vinhetas e logomarcas;
3. em recursos de marketing de uso costumeiro em campanhas, como a montagem de imagens em que pessoas candidatas e apoiadoras aparentam figurar em registro fotográfico único utilizado na confecção de material impresso e digital de propaganda.
A nova resolução também restringe o uso de “robôs” (ex: chatbots) que simulam diálogo com o candidato ou com qualquer outra pessoa, e que enderece vários outros tópicos, incluindo conteúdo falso, propaganda política, e colaboração com o Ministério da Justiça.
Conteúdo Falso
A resolução torna as big techs responsáveis pela imediata remoção de conteúdo que contenha desinformação, discurso de ódio, ideologia neonazista ou fascista, assim como narrativas antidemocráticas, racistas e homofóbicas.
A chamada “responsabilidade solidária” apela às big techs para que ajam contra “conteúdos desinformativos” sem que sejam necessárias denúncias de usuários ou ordens judiciais para remoção dos posts. Essa nova medida é um dos pontos mais relevantes na resolução do TSE, já que requer um esforço maior das plataformas para regular a circulação de conteúdos - e, mais especificamente, da desinformação - em suas plataformas.
Em resposta, plataformas como Google e Meta manifestaram desconforto com a determinação e requereram ao TSE a mudança do texto para que não fossem responsabilizadas pelos conteúdos produzidos por seus usuários. O pedido foi negado e a resolução, aprovada como foi originalmente escrita.
Anúncios eleitorais
Plataformas que permitem a promoção de anúncios eleitorais devem adotar medidas específicas para prevenir a disseminação de conteúdo inverídico. Entre as medidas, a resolução sugere:
A aplicação de termos de uso e diretrizes de conteúdo compatíveis com o contexto eleitoral;
A criação de canais de denúncia acessíveis aos usuários e a instituições públicas e privadas;
A adoção de medidas preventivas e corretivas na plataforma, e a denúncia, com transparência, os efeitos e os resultados dessas ações; e
A preparação de um relatório específico a cada ano eleitoral sobre o impacto da plataforma na integridade das eleições.
Apenas propaganda eleitoral positiva é permitida de ser transmitida; isto é, anúncios que não falem negativamente sobre oponentes ou disseminem informações difamatórias, inverídicas ou descontextualizadas.
Além disso, plataformas que permitem o impulsionamento pago de conteúdos político-eleitorais deverão manter repositório desses anúncios. A resolução coloca que o repositório deverá ser facilmente acessível e oferecer a opção de busca avançada sobre dados de anúncios. O repositório também deverá:
1. incluir a funcionalidade de pesquisa por anúncios baseados em palavras-chave, termos de interesse, e nomes de anunciantes;
2. demonstrar os valores despendidos, o período do impulsionamento, a quantidade de pessoas atingidas e os critérios de segmentação definidos pela(o) anunciante no momento da veiculação do anúncio;
3. permitir coletas sistemáticas, por meio de interface dedicada (application programming interface - API), de dados de anúncios, incluindo seu conteúdo, gasto, alcance, público atingido e responsáveis pelo pagamento.
Colaboração com o Ministério da Justiça
Por último, a resolução exige que as plataformas colaborem com o tribunal eleitoral e cumpram ordens judiciais que determinem a remoção de conteúdo ou que suspendam ou banam perfis, o que deve ser seguido da indisponibilização das contas e materiais bloqueados na plataforma mesmo após o período eleitoral a menos que outra decisão judicial permita sua reativação.
Possíveis impactos
A regulação do TSE sobre o uso de ferramentas de IA na campanha eleitoral não tem precedentes no Brasil. Como esta será a primeira vez que as eleições acontecerão com uma regulação específica para a Inteligência Artificial, resta ver como o processo eleitoral brasileiro e as medidas da regulação se desenrolarão. As lições aprendidas destas eleições podem servir para guiar a formulação de políticas futuras.
Por exemplo, o texto do TSE deixa lacunas quanto a vários tópicos. Não há definições específicas sobre o que deve ser considerado “conteúdo desinformativo” ou um “fato descontextualizado”. Enquanto não há consenso global quanto a como definir esses termos, a falta de definições poderia causar confusão ou falhas na moderação de conteúdo e aplicação da lei.
O artigo 9º da resolução se refere ao planejamento e à execução de ações corretivas e preventivas, incluindo o aprimoramento de seus sistemas de recomendação de conteúdo, sem estabelecimento de parâmetros para aferir a conformidade de cada plataforma com a resolução. Considerando-se que a resolução por si só exige que as plataformas proativamente removam casos de deepfakes, desinformação ou fatos descontextualizados, a falta de parâmetros de conformidade pode levar à adoção de critérios divergentes pelas plataformas quando a moderação de conteúdo é necessária.
A resolução também não fornece detalhes sobre como o cumprimento das medidas deverá ser monitorada. O texto sugere que há uma responsabilidade compartilhada entre as autoridades, a sociedade civil, os partidos políticos, candidatos e as empresas de tecnologia trabalhando juntas, mas não especifica quais procedimentos ou ferramentas devem ser adotados neste sentido.
Há também uma preocupação com a produção de materiais falsos por eleitores e apoiadores, uma ocorrência frequente nas últimas eleições que a IAG pode tornar ainda mais ubíqua. As plataformas digitais foram extensivamente utilizadas para disseminar conteúdos falsos com o intuito de impulsionar candidaturas mesmo que não houvesse relação oficial às campanhas ou partidos.
A resolução proíbe a promoção de conteúdo eleitoral por indivíduos, mas, nas eleições passadas, as plataformas não adotaram todas as medidas para estar em conformidade com as regulações que protegem o processo eleitoral, permitindo incontáveis anúncios deste tipo. A nova resolução não especificou o que será feito para detectar esta prática nem qual deverá ser a penalidade imposta.
As regulações já provocaram mudanças por parte de algumas plataformas. Em maio de 2024, o Google decidiu que não permitirá a veiculação de anúncios eleitorais em suas plataformas, incluindo no seu mecanismo de busca e no Youtube. O Google mencionou dificuldades técnicas em obedecer aos requerimentos do TSE, como manter um repositório para acompanhamento em tempo real dos anúncios e uma ferramenta de busca para consulta avançada neste repositório. A empresa já tinha uma ferramenta para este propósito, mas com operabilidade limitada. De acordo com o Google, a definição de conteúdo político apresentada pelo TSE também é demasiadamente vaga, o que torna impossível monitorar os desdobramentos nesta categoria.
X, antigo Twitter, também suspendeu a permissão para brasileiros promoverem anúncios políticos em sua plataforma. A mudança foi notada por veículos da imprensa na primeira semana de maio, quando o prazo imposto pelo TSE para as plataformas se adaptarem à resolução chegou ao fim. À época da escrita deste artigo, o X ainda não havia se manifestado sobre o assunto.
Esse texto é uma adaptação do artigo publicado como parte da colaboração entre o DFRLab e a NetLab UFRJ. Ambas as organizações estão monitorando o uso de ferramentas de IA durante as eleições brasileiras municipais para melhor entender seu impacto em processos democráticos.
Cite esse estudo de caso:
Beatriz Farrugia, “Regulando o uso da IA para as eleições brasileiras. O que está em jogo?”, Digital Forensic Research Lab (DFRLab), 29 de maio, 2024. Trad.: Pedro Peres.
Originalmente publicado em inglês em: <https://dfrlab.org/2024/05/29/regulating-the-use-of-ai-for-brazilian-elections-whats-at-stake>
Originalmente publicado em português em: <https://netlab.eco.ufrj.br/post/a-regulação-do-uso-de-ia-para-as-eleições-brasileiras-o-que-está-em-jogo>