Ferramentas de IA influenciadas espalham desinformação. Ferramentas de IA influenciadas por propaganda russa espalham desinformação também em português.
Os especialistas da Check Point Software comentam uma análise da NewsGuard, a qual revela uma bem financiada rede de desinformação russa Pravda conseguiu influenciar ferramentas de IA populares, como o ChatGPT, Copilot, Meta AI, Gemini e Grok, levando-as a repetir desinformação pró-Kremlin em 33% das vezes.
A rede Pravda foi lançada pouco depois da invasão russa na Ucrânia em 2022. Desde então, tem crescido gradualmente e, hoje, utiliza cerca de 150 domínios para espalhar desinformação em dezenas de idiomas, incluindo o português. De acordo com um relatório do American Sunlight Project (ASP), esta rede publica em média 20.273 artigos a cada 48 horas, o que equivale a aproximadamente 3,6 milhões de artigos por ano.
A NewsGuard identificou um total de 207 alegações comprovadamente falsas divulgadas pela rede Pravda. Essas alegações vão desde desinformação sobre supostos laboratórios secretos de armas biológicas dos Estados Unidos na Ucrânia até a falsa acusação de que o presidente ucraniano Volodymyr Zelensky teria desviado ajuda militar para adquirir uma propriedade rural na Alemanha, frequentemente visitada por Adolf Hitler.
Como mostra a análise mais recente, a rede Pravda está inundando a Internet com desinformação, interferindo na forma como os principais modelos de linguagem processam e apresentam informações. A propaganda russa está, assim, se infiltrando nos sistemas de IA ocidentais e contribuindo para a disseminação de mentiras. É importante destacar que, dada a escala da campanha, toda a operação deve ser bem financiada. Isso deixou de ser apenas uma ameaça teórica.
Os modelos de IA são treinados com grandes volumes de dados retirados da Internet. Portanto, se redes de desinformação, como a Pravda, divulgarem milhares ou milhões de informações falsas poderão influenciar os resultados dessas ferramentas. E se as ferramentas de IA generativas repetirem narrativas de desinformação, elas poderão desestabilizar processos democráticos, influenciar a opinião pública e impactar a decisão dos eleitores em eleições, sem que eles percebam.
Os apoiadores de regimes autoritários estão tentando usar a IA como uma arma de guerra informativa e, se não investirmos na resiliência dos modelos de IA, as consequências serão extremamente graves.
É fundamental que os desenvolvedores de modelos de IA implementem mecanismos robustos de filtragem para identificar e excluir fontes de desinformação dos dados de treinamento. Essa necessidade também é destacada no Regulamento Europeu de IA (EU AI Act), que alerta para o uso indevido de sistemas treinados com dados enviesados.
Os especialistas da Check Point Software apontam que uma cooperação transparente entre empresas de tecnologia, governos e organizações independentes para monitorar e detectar campanhas de desinformação é também essencial. Parte do combate à desinformação deve incluir a educação pública e o aumento da conscientização sobre como a desinformação funciona, quem são seus alvos, por que alguém a disseminaria e como analisar informações de forma crítica. Esses são passos fundamentais para aumentar a resiliência da sociedade contra a manipulação e desinformação.
Veja também:
- Pentesters: A IA está vindo para fazer o seu papel?
- Justa causa por envio de dados sigilosos para e-mail pessoal
- Apple corrige WebKit de dia zero explorado em ataques ‘extremamente sofisticados’
- Falhas de segurança do cliente Zoom podem levar a violações de dados
- A pessoa que está olhando na Meeting é um deepfake de IA
- iOS 18.3.2 corrige vulnerabilidade do WebKit explorada ativamente
- O dia depois do ataque hacker: saiba o que priorizar na empresa
- Blind Eagle volta a atacar organizações públicas e privadas
- CyberGate anuncia Alexis Aguirre como líder na América Latina
- Ciberataque à plataforma X
- É hora de repensar a estratégia da IA generativa?
- Troca de rosto e identidade sintética são usados para cometer fraudes
Be the first to comment