A IA como uma ferramenta para análise de dados e modelagem de narrativas

O impacto da IA em nossa vida cotidiana é evidente. Um de seus impactos mais profundos é observado no contexto da guerra de informações. A IA é usada para analisar grandes quantidades de dados e como uma ferramenta importante para moldar e influenciar narrativas. Este artigo explora como a IA é usada na guerra na Ucrânia para manipular a percepção e a opinião pública.

As ferramentas de IA são muito eficazes para coletar e analisar dados de fontes on-line. Além disso, seu uso permite que as pessoas influenciem a forma como as narrativas são construídas e compartilhadas. A IA pode detectar padrões e tendências e pode desempenhar um papel crucial na formação da percepção e da opinião - por exemplo, enquadrando e distorcendo. Autoridades militares russas disseram em 2018 que a IA ajudaria a Rússia a combater ameaças on-line e a vencer guerras cibernéticas. Desde então, o governo russo tem usado várias ferramentas de IA, inclusive bots pró-russos. Pesquisas sobre propaganda digital e retórica de conflitos mostraram como os bots de IA desempenharam um papel fundamental na ampliação das narrativas pró-russas, minando a credibilidade da OTAN e da Ucrânia. As mesmas ferramentas podem ser usadas para combater esses ataques e, para isso, a Palantir, uma empresa de tecnologia, forneceu seu software de análise de dados e IA para ajudar os militares da Ucrânia. Além disso, grandes empresas de tecnologia como Microsoft, Amazon, Google e Clearview AI começaram a apoiar a Ucrânia com defesa cibernética, serviços em nuvem e outras ferramentas.

O uso indevido da IA para desinformação e operações psicológicas

As ferramentas de IA podem contribuir significativamente para a criação e a disseminação da desinformação. A propaganda gerada por IA, como deepfakes, tem sido usada para enquadrar eventos de forma a atender a interesses específicos. Ao destacar determinados aspectos, a viralização de narrativas falsas visa influenciar a opinião pública em uma determinada ordem. Um exemplo notável ocorreu em março de 2022, quando um vídeo deepfake do presidente ucraniano Volodymyr Zelenskyy apareceu on-line. Esse deepfake, apesar de ter sido desmascarado, foi usado em um artigo de pesquisa que estudou como as pessoas reagem a deepfakes nas mídias sociais. Os resultados mostraram que as pessoas tinham reações diferentes a diferentes tipos de deepfakes. A inclusão do deepfake de Zelenskyy se rendendo no estudo mostrou que ele provocou choque, preocupação e confusão entre os espectadores.

Os perfis falsos gerados por IA nas mídias sociais fazem parte de outra estratégia para acelerar a disseminação de narrativas falsas. Uma das técnicas de propaganda russa é semear confusão e usar bots de IA para criar conteúdo viral e influenciar a percepção das pessoas sobre tópicos específicos. Esse tipo de manipulação coordenada criou diferentes narrativas falsas. Os bots acionados por IA foram usados para disseminar informações falsas e teorias da conspiração em plataformas de mídia social relacionadas à guerra, como a teoria da conspiração sobre o desenvolvimento de armas biológicas pela Ucrânia com o suposto apoio dos Estados Unidos.

A Rússia começou a usar operações psicológicas com IA (PSYOPs) para influenciar os ucranianos e a comunidade internacional. Essas campanhas estão em andamento desde 2014, com foco em laços históricos e cultura compartilhada para enfraquecer o apoio à soberania da Ucrânia e promover uma visão favorável da Rússia.

Os desafios da detecção de deepfakes e o modelo DeepfakeShield

A sofisticação do conteúdo gerado por IA está melhorando, tornando mais difícil distinguir quando a informação é real ou falsa, levando as pessoas a ter uma desconfiança geral em relação à mídia e às instituições e a rejeitar até mesmo fontes confiáveis de informação. Ter uma ferramenta eficaz de detecção de IA ainda é um desafio crucial, pois as ferramentas existentes ainda têm algumas imperfeições e, em alguns casos, já falharam por estarem incorretas na análise. Nessa situação, o modelo DeepfakeShield em seis etapas é uma solução adequada para nos protegermos das manipulações de IA e termos um ambiente digital mais seguro e bem informado.

Ilustração de fundo: Shutter2U