Entendendo a regulação brasileira
“Não serei juíza de um mundo caduco”, declarou a presidente do Supremo Tribunal Eleitoral (TSE), Carmen Lúcia, ao aprovar, no início do ano, a resolução 23.732/2024, que endereça a utilização de aplicações de inteligência artificial em contextos eleitorais e estabelece regras a provedores de aplicação da Internet. A resolução introduz alterações a outra resolução do TSE, a de nº 23.610 (2019), dedicada à propaganda política. Em resumo, as regras criadas exigem o dever de rotulagem de conteúdos feitos com IA e proíbem deepfakes e o uso de chatbots nas interações com o eleitorado.
Para a resolução, qualquer propaganda política que utilize conteúdo multimídia gerado por inteligência artificial para criar, substituir, omitir, mesclar ou alterar a velocidade ou sobrepor imagens ou sons, exige que seu responsável informe de maneira explícita, destacada e acessível, que o conteúdo foi fabricado ou manipulado e a tecnologia utilizada. [1] A menção à necessidade de indicar “a tecnologia utilizada” na produção das peças parece aberta. Seria, por exemplo, a indicação do modelo ou software específicos de IA utilizado ou o tipo genérico de ferramenta empregada?
A resolução prossegue indicando que a rotulação deve ser compatível com o formato da veiculação da propaganda e deve constar sempre no início das peças audiovisuais (tanto áudio, áudio e vídeo ou só vídeo). Imagens estáticas devem conter marca d’água com indicação correspondente, além de menção análoga na audiodescrição. No caso de material impresso, é necessário que o rótulo conste em cada página ou folha. [2] Chatbots, avatares e conteúdos sintéticos concebidos para intermediar a comunicação com o eleitorado também exigem a indicação de rotulação, sendo proibida a simulação de comunicação com uma pessoa candidata ou qualquer outra real. Levantamento da agência de checagem Aos Fatos verificou como vários candidatos falharam em indicar a utização de IA na contratação de serviços para fabricação de materiais de campanha. A agência também noticiou que a sinalização, quando feita, falhou em observar as regras estabelecidas na resolução do TSE.
A norma considera como deepfakes representações de conteúdo sintético em formato de áudio, vídeo ou a combinação de ambos que tenha sido gerado ou manipulado digitalmente para criar, substituir ou alterar a imagem ou voz de pessoa viva, falecida ou fictícia. Ainda que tenha havido autorização, a norma proíbe que sejam utilizadas deepfakes tanto para favorecer quanto prejudicar candidaturas. [3] Nesse sentido, ligações automatizadas geradas por IA e representando um candidato, outra das práticas vistas este ano mundo afora, violariam as normas eleitorais. Uma mensagem personalizável de vídeo retratando uma candidata fazendo apelo ao eleitorado, artíficio comum nas eleições indianas desse ano, também iria de encontro à resolução.
Por fim, a resolução também ataca o problema da desinformação, ao proibir que, na propaganda eleitoral, sejam utilizados conteúdos fabricados ou manipulados para difundir fatos notoriamente inverídicos ou descontextualizados que detêm o potencial de causar danos ao equilíbrio do pleito ou afetar a integridade do processo eleitoral como um todo. [3]
Casos
A necessidade da justiça eleitoral de ter uma atuação responsiva às demandas que lhe são trazidas confere uma celeridade atípica para os padrões do poder Judiciário. Isso, no entanto, pode resultar em interpretações destoantes quando se trata de assuntos e temas inovadores como a aplicação da inteligência artificial em conteúdos eleitorais, como relatado a seguir.
Um levantamento feito pela agência de checagem Aos Fatos revelou que só até o primeiro turno foram levados à Justiça Eleitoral pelo menos 159 casos envolvendo IA e propaganda política. A amplitude de situações cobertas pela resolução eleitoral aparece nos casos que ganharam a mídia. Segundo a agência de checagem, pelo menos dois casos envolviam deepfakes retratando pessoas já falecidas - um deles envolvia um padrinho político. O Instagram figura como a plataforma de veiculação com mais episódios em que conteúdos foram derrubados por determinação da justiça eleitoral (89 casos, ao todo), seguido pelo Whatsapp (61).
Uma pesquisa recém-publicada do Centro de Direito, Internet e Sociedade do Instituto de Direito Público (CEDIS-IDP), do Laboratório de Governança e Regulação de Inteligência Artificial do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (LIA-IDP) e do ETHICS 4AI se debruçou sobre o tema de maneira mais detida. Diante de uma amostra de 56 decisões proferidas por tribunais regionais eleitorais, a pesquisa divisou três categorias para as interpretações conferidas pela Justiça Eleitoral ao tema das deepfakes.
Na primeira categoria, a pesquisa sugere que a justiça eleitoral condicionou a permissão para circulação de deepfakes à ausência de conotação eleitoral ou de intento de manipulação. Nos casos em que isso se verificou, não houve nem conteúdo desinformativo nem pedidos de voto ou de não voto. Sob a segunda categoria, a pesquisa reuniu decisões que expressaram uma visão bastante restritiva sobre o uso de deepfakes, vedando-o de maneira absoluta. Para a pesquisa, isso traduziria uma visão comprometida em blindar o processo eleitoral de qualquer influência potencialmente negativa advinda das deepfakes - até mesmo na fase pré-campanha. Na última categoria, foram agrupadas decisões em que a permissibilidade das deepfakes é associada à análise contextual da propaganda e o grau de manipulação conferido. Deepfakes que promovem desinformação (fatos falsos ou descontextualizados) foram reprimidos, ao passo que deepfakes satíricos ou que não buscam distorcer a imagem de um candidato foram tratados de maneira mais leniente. [4].
Conclusão
Apesar de a intersecção entre IA e eleições vir sendo anunciada com alarmismo desde o ano passado, a tecnologia, pelo que se tem observado, não parece ser responsável por interferência significativa nos resultados eleitorais ao redor mundo, como já indicado nos textos anteriores desta série.
A definição de normas sobre temas emergentes - especialmente em se tratando de expressões normativas como resoluções - não deixa de vir desacompanhada de limitações. As decisões identificadas na última pesquisa citada, por exemplo, indicam divergências na interpretação do que caracteriza uma deepfake, conceito-chave na resolução 23.732/2024 do TSE. O potencial de viralização dos conteúdos, por exemplo, foi considerado um fator determinante em algumas decisões para verificar a caracterização de uma deepfake.
Os casos levados ao Tribunal Superior Eleitoral podem até revelar a escala considerável em que conteúdos envolvendo IA foram empregados nestas eleições - com alguns episódios incorrendo até em desinformação -, no entanto, uma interferência massiva e disruptiva da tecnologia na dinâmica do processo eleitoral parece estar ausente. Não só aqui, mas em outros cantos do mundo, o impacto da IA sobre as eleições - pelo menos para 2024 - foi superestimado. [5] Naturalmente, isso não retira a relevância da resolução do TSE, e, tampouco, diminui a atenção que se deve ter com futuras aplicações da IA em pleitos eleitorais. O cuidado é para que o hype incessante sobre a tecnologia não ofusque a importância de endereçar os problemas mapeados há anos no âmbito da desinformação.
Ainda que a interferência generalizada da IA sobre as eleições tenha sido bem menor do que o esperado, a nocividade de seu emprego em âmbitos específicos, como na violência política de gênero, não pode ser ignorado. Como também visto nas eleições do Reino Undio, candidatas mulheres denunciaram as chamadas “fakenudes”, em que são artificialmente retratadas em poses sensuais ou até mesmo pornográficas. [6] Esse tipo de conteúdo, que se enquadra dentro do espectro da desinformação, é detrimental à participação feminina na política, e pode ter efeitos devastadores para a eleição das candidatas. Com o crime de violência política de gênero já existente, fazer frente a esse problema trazido pela IA exige atuação responsiva a altura - tanto regulatória quanto judicial.
Com o super-ano eleitoral chegando ao fim e com a Inteligência Artificial se desenvolvendo em ritmo frenético, serão necessários novos aparatos para conter seus maus usos - desde ferramentas técnicas (softwares que ajudem na identificação desses conteúdos) à educativas (que promovam o letramento midiático e crítico). Para as eleições de 2026, é razoável esperar que o marco regulatório brasileiro para a Inteligência Artificial já esteja em vigor, o que deve facilitar no estabelecimento de parâmetros e conceitos que melhor informem a resolução publicada neste ano pelo TSE.
Notas de rodapé
[1] Brasil. RESOLUÇÃO Nº 23.732, DE 27 DE FEVEREIRO DE 2024, do Tribunal Superior Eleitoral. Art. 9º-B, caput.
[2] Brasil. RESOLUÇÃO Nº 23.732, DE 27 DE FEVEREIRO DE 2024, do Tribunal Superior Eleitoral. Art. 9º-B, § 1º, IV.
[3] Brasil. RESOLUÇÃO Nº 23.732, DE 27 DE FEVEREIRO DE 2024, do Tribunal Superior Eleitoral. Art. 9º-C, caput.
[4] Caballero, B. I.; Ammon, B.; Gomes, C.; Silva, C. C. da; Gomes, E.; Roquete, F.; Dias, F.; Maia, G.; Lopes, J.; Costa, J.; Ferreira, L. M. T.; Silveira, M. de P. ; Oliveira, M. de; Vogel, S.; Junquilho, T. A.; Marcílio, T.. (Org.) Junquilho, T. A.; Silveira, M. de P.; Ferreira, L. M. T.; Mendes, L S. Oliveira, A. G. de Brasília: Laboratório de Governança e Regulação de Inteligência Artificial (LIA) do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP) e ETHICS 4AI, 2024. P. 53-54
[5] Ver: AI’s impact on elections is being overblown e AI’s Underwhelming Impact on the 2024 Elections
[6] DIAS, Pâmela. 'Fakenudes': nova ameaça virtual na eleição, prática criminosa já foi usada contra ao menos cinco candidatas. O Globo. 30/09/2024. Disponível em: <https://oglobo.globo.com/mundo/eleicoes-eua/noticia/2024/09/30/fakenudes-nova-ameaca-virtual-na-eleicao-pratica-criminosa-ja-foi-usada-contra-ao-menos-cinco-candidatas.ghtml>
Escrito por Pedro Peres. Pedro Peres é mestrando no Mestrado Europeu em Direito, Dados e Inteligência Artificial (EMILDAI), na Dublin City University e bacharel em Direito pela Universidade Federal de Pernambuco (2018). Ele é membro do Laboratório de Políticas Públicas e Internet (LAPIN) desde 2020.