Home Tecnologia Campanhas de influência estrangeira ainda não sabem como usar IA

Campanhas de influência estrangeira ainda não sabem como usar IA

14
0

Hoje, OpenAI lançou seu primeiro relatório de ameaça, detalhando como atores da Rússia, do Irã, da China e de Israel tentaram usar sua tecnologia para operações de influência estrangeira em todo o mundo. O relatório nomeou cinco redes diferentes que a OpenAI identificou e desligou entre 2023 e 2024. No relatório, a OpenAI revela que redes estabelecidas como a Doppleganger da Rússia e a Spamoflauge da China estão a experimentar como usar IA generativa para automatizar as suas operações. Eles também não são muito bons nisso.

E embora seja um alívio modesto que estes intervenientes não tenham dominado a IA generativa para se tornarem forças imparáveis ​​de desinformação, é claro que estão a experimentar, e só isso já deveria ser preocupante.

O relatório da OpenAI revela que as campanhas de influência estão a ir contra os limites da IA ​​generativa, que não produz cópias ou códigos de boa qualidade de forma fiável. Ele luta com expressões idiomáticas– que fazem com que a linguagem pareça mais confiável, humana e pessoal – e às vezes também com gramática básica (tanto que a OpenAI chamou uma rede de “Gramática Ruim”.) A rede Bad Grammar era tão desleixada que certa vez revelou sua verdadeira identidade: “Como uma Modelo de linguagem AI, estou aqui para ajudar e fornecer o comentário desejado”, postou.

Uma rede usou o ChatGPT para depurar código que permitiria automatizar postagens no Telegram, um aplicativo de bate-papo que há muito é o favorito dos extremistas e das redes de influência. Isso funcionou bem às vezes, mas outras vezes levou à mesma postagem na conta de dois personagens separados, entregando o jogo.

Em outros casos, o ChatGPT foi utilizado para criar código e conteúdo para sites e mídias sociais. Spamoflauge, por exemplo, usou o ChatGPT para depurar código para criar um site WordPress que publicava histórias atacando membros da diáspora chinesa que criticavam o governo do país.

De acordo com o relatório, o conteúdo gerado pela IA não conseguiu escapar das próprias redes de influência para o mainstream, mesmo quando partilhado em plataformas amplamente utilizadas como X, Facebook e Instagram. Este foi o caso de campanhas dirigidas por uma empresa israelita que aparentemente trabalhava por conta de outrem e que publicava conteúdos que iam desde anti-Qatar a anti-BJP, o partido nacionalista hindu que actualmente controla o governo indiano.

No seu conjunto, o relatório pinta um quadro de várias campanhas relativamente ineficazes, com propaganda grosseira, aparentemente acalmando receia que muitos especialistas que tivemos sobre o potencial desta nova tecnologia para espalhar informações erradas e desinformadas, especialmente durante um ano eleitoral crucial.

Mas as campanhas de influência nas redes sociais muitas vezes inovam ao longo do tempo para evitar a detecção, aprendendo as plataformas e as suas ferramentas, por vezes melhor do que os próprios funcionários das plataformas. Embora essas campanhas iniciais possam ser pequenas ou ineficazes, elas parecem ainda estar em fase experimental, diz Jessica Walton, pesquisadora do CyberPeace Institute que estudou o uso de IA generativa por Doppleganger.

Em sua pesquisa, a rede usava perfis aparentemente reais do Facebook para publicar artigos, muitas vezes sobre temas políticos polêmicos. “Os artigos reais são escritos por IA generativa”, diz ela. “E principalmente o que eles estão tentando fazer é ver o que vai voar, o que os algoritmos do Meta serão ou não capazes de capturar.”

Em outras palavras, espere que eles melhorem a partir daqui.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here