Os dois componentes da desinformação
A desinformação é mais do que uma simples falsidade; é a criação e a disseminação deliberada de informações falsas ou manipuladas com a intenção de enganar ou iludir (definição da OTAN).
Para entender a desinformação, portanto, é necessário reconhecer seus dois principais componentes: a criação de conteúdo falso ou enganoso e a disseminação estratégica desse conteúdo. É a interação entre esses elementos que permite que a desinformação engane e manipule efetivamente a percepção do público.
Mercantilização da criação de conteúdo pela IA
O advento da IA generativa reduziu significativamente as barreiras para a criação de conteúdo enganoso sofisticado e convincente. Os modelos de IA generativa podem produzir conteúdo de texto, áudio e vídeo que é cada vez mais indistinguível do conteúdo gerado por humanos. Isso representa um desafio significativo para a manutenção da integridade das informações na era digital.
Além disso, os rápidos avanços em IA significam que a qualidade e o realismo do conteúdo gerado continuarão a melhorar, tornando quase impossível para os indivíduos e para os sistemas automatizados detectar e neutralizar o conteúdo enganoso gerado por IA.
À medida que essas ferramentas se tornam mais difundidas, é provável que o volume de conteúdo enganoso cresça, sobrecarregando os mecanismos tradicionais de verificação de fatos e aumentando o risco de desinformação generalizada.
Vantagem de distribuição das redes estabelecidas
Quando se trata da distribuição de desinformação, os atores com redes de distribuição de conteúdo estabelecidas têm uma vantagem significativa, pois fornecem canais prontos por meio dos quais a desinformação pode ser rápida e amplamente disseminada.
As redes estabelecidas geralmente têm seguidores grandes e leais que confiam no conteúdo que recebem dessas fontes. Quando uma informação falsa é introduzida nessas redes, ela pode se espalhar rapidamente devido ao alto nível de envolvimento e interação entre os usuários.
As plataformas de mídia social e os mecanismos de pesquisa usam algoritmos complexos para classificar e exibir o conteúdo. Os agentes da desinformação que conhecem esses algoritmos podem manipulá-los para garantir que seu conteúdo ganhe visibilidade. Técnicas como o preenchimento de palavras-chave, o uso de hashtags de tendências e a criação de conteúdo que provoque fortes reações emocionais podem ajudar a desinformação a chegar ao topo dos resultados de pesquisa e dos feeds personalizados, aumentando o alcance e o impacto.
O uso de botnets - redes de contas automatizadas - permite a rápida amplificação da desinformação. Os bots podem ser programados para curtir, compartilhar, comentar e se envolver com o conteúdo, criando a ilusão de popularidade e credibilidade
Por outro lado, os atores sem redes de distribuição estabelecidas enfrentam desafios significativos. Eles precisam encontrar maneiras de romper o ruído e chamar a atenção dos públicos-alvo. Isso geralmente envolve a invasão de algoritmos de classificação, o uso de técnicas de marketing viral ou a tentativa de se infiltrar em redes existentes para ganhar visibilidade.
A vantagem de distribuição das redes estabelecidas destaca a importância de abordar não apenas a criação da desinformação, mas também os mecanismos pelos quais ela é disseminada. As contramedidas eficazes devem considerar não apenas o conteúdo em si, mas, mais importante, os canais e as redes usados para sua disseminação.
Da desinformação à manipulação comportamental
O verdadeiro poder da desinformação está em sua capacidade de manipular o comportamento por meios sutis e muitas vezes insidiosos. Isso vai além do debate binário sobre o que constitui verdade versus mentira e se torna uma questão de manipulação psicológica e social.
O objetivo é mudar as percepções e as formas de pensar das pessoas, influenciando seus comportamentos e produzindo os resultados pretendidos no mundo real. Isso pode variar desde influenciar votos em eleições e incentivar protestos ou agitação civil até manipular o comportamento do consumidor para obter ganhos econômicos. O objetivo final é criar um impacto tangível na sociedade, orientando os indivíduos para ações que se alinhem aos objetivos da campanha de desinformação.
Ao apresentar consistentemente uma versão distorcida dos eventos ou distorcer os fatos, essas campanhas podem criar uma nova narrativa que influencia a opinião pública. Essa reformulação da percepção é particularmente eficaz quando explora as emoções e os preconceitos existentes.
Esses podem incluir vieses cognitivos, como o viés de confirmação, em que os indivíduos favorecem informações que confirmam suas crenças preexistentes, ou gatilhos emocionais, como medo, raiva e empatia. Ao explorar essas vulnerabilidades, os indivíduos podem ser direcionados a determinados pontos de vista ou ações que, de outra forma, não seriam considerados.
Manipulação comportamental para todos
Assim como a IA generativa reduziu o custo da criação de conteúdo enganoso, ela também está democratizando os métodos e as ferramentas necessárias para a manipulação comportamental sofisticada. Os modelos de linguagem ampla (LLMs) e outras tecnologias de IA oferecem recursos avançados para entender e influenciar o comportamento humano, que podem ser aproveitados tanto para fins benéficos quanto maliciosos.
Quando solicitados com os dados corretos, os LLMs podem simular perfis psicométricos detalhados de indivíduos e grupos. Esses perfis incluem percepções sobre personalidades, preferências, medos e motivações.
Ao aproveitar esses insights, os agentes de desinformação podem adaptar seu conteúdo para que ressoe profundamente com os públicos-alvo, tornando seus esforços de manipulação mais eficazes. Por exemplo, se um determinado grupo demográfico demonstrar um alto nível de ansiedade em relação à instabilidade econômica, a IA pode gerar e distribuir conteúdo que amplie esses medos, levando-os a determinados comportamentos, como votar em um candidato específico ou participar de ações de protesto.
A escalabilidade das ferramentas de IA significa que a manipulação comportamental pode ser conduzida em grande escala. As campanhas de desinformação podem ser adaptadas e distribuídas simultaneamente para milhões de indivíduos, cada um recebendo uma versão personalizada do conteúdo enganoso. Essa escalabilidade é uma vantagem significativa para os agentes de desinformação, permitindo que eles influenciem grandes populações com relativa facilidade.
Os sistemas de IA podem aprender e se adaptar continuamente com base na eficácia de seus esforços de manipulação. Ao analisar as respostas e as métricas de engajamento, esses sistemas podem refinar suas estratégias em tempo real, otimizando o impacto de suas campanhas de desinformação. Esse recurso adaptativo garante que a manipulação permaneça eficaz mesmo quando os públicos-alvo se tornam mais conscientes e resistentes às táticas de desinformação.
Embora esses recursos de manipulação direcionada costumassem ser acessíveis apenas a agentes estatais, empreiteiros militares ou agências especializadas, a IA generativa os torna acessíveis literalmente a todos.
A necessidade de segurança cognitiva
A segurança cognitiva refere-se à proteção dos processos de tomada de decisão de indivíduos e grupos contra a manipulação e o engano. Assim como a segurança física dos cidadãos é uma responsabilidade fundamental do Estado, a integridade dos processos cognitivos também deve ser protegida em um mundo cada vez mais digital. Por isso, devemos reconhecer um novo direito humano fundamental: o direito de não ser manipulado.
Embora a IA seja claramente um catalisador de riscos, ela também pode desempenhar um papel fundamental no aprimoramento da segurança cognitiva:
Gerenciamento de fluxos de informações: Os agentes de IA podem avaliar o conteúdo recebido em tempo real, filtrando informações enganosas ou manipuladoras antes que elas cheguem ao indivíduo, ajudando os usuários a se envolverem com conteúdo factual e imparcial.
Apoio ao alinhamento cognitivo: Ao compreender o perfil psicológico de um indivíduo, incluindo vulnerabilidades e preconceitos cognitivos, os agentes de IA podem manter um diálogo contínuo que ajuda os usuários a se manterem alinhados com a realidade. Por exemplo, este estudo recente do MIT demonstrou que os diálogos com a IA podem reduzir de forma duradoura as crenças em teorias da conspiração, adaptando a conversa ao raciocínio e às evidências exclusivas do indivíduo.
A mercantilização das ferramentas de manipulação comportamental baseadas em IA representa um profundo desafio para a sociedade. À medida que essas tecnologias se tornam mais avançadas e acessíveis, o potencial de abuso aumenta. É fundamental desenvolver diretrizes éticas robustas, estruturas regulatórias e salvaguardas tecnológicas para mitigar os riscos associados à desinformação e à manipulação comportamental baseadas em IA.
Autor: Josef Holý
Ilustração de fundo: adragan
Este artigo foi publicado em parceria com a VIA Association