Os investigadores estão a soar o alarme sobre a próxima onda de “enxames” avançados de inteligência artificial (IA) preparados para se infiltrarem nas plataformas das redes sociais, manipularem a opinião pública e potencialmente minarem os processos democráticos. Estes enxames funcionarão imitando o comportamento humano em grande escala, tornando-os difíceis de detetar, ao mesmo tempo que semeiam narrativas falsas e perseguem vozes dissidentes.
A próxima invasão: além dos bots simples
Os bots automatizados atuais são pouco sofisticados – eles repetem mensagens pré-programadas e são facilmente identificáveis. A próxima geração, no entanto, será impulsionada por grandes modelos de linguagem (LLMs), a mesma IA por trás dos chatbots populares. Isso permite que os enxames se adaptem às comunidades online, criando múltiplas personas persistentes que retêm a memória e aprendem com o tempo.
De acordo com Jonas Kunst, professor de comunicação da BI Norwegian Business School, os humanos são naturalmente inclinados à conformidade. “Tendemos a acreditar que o que a maioria das pessoas faz tem valor”, afirmou, tornando esta uma vulnerabilidade que os enxames de IA podem explorar. Ao alterar artificialmente o consenso percebido, estes enxames podem sequestrar debates e forçar as opiniões a um resultado predeterminado.
Como os enxames de IA funcionarão
Os pesquisadores descrevem os enxames de IA como organismos autossuficientes, capazes de se coordenar, aprender e se especializar na exploração das fraquezas humanas. A escala destes enxames é limitada apenas pelo poder computacional e pelas restrições de plataforma, mas mesmo pequenas implementações podem ser eficazes, especialmente em grupos locais visados.
Os enxames também podem transformar a persistência em uma arma. Enquanto os usuários humanos debatem em períodos de tempo limitados, os agentes de IA podem operar 24 horas por dia, 7 dias por semana, até que sua narrativa ganhe força. Esta pressão implacável pode afastar indivíduos com opiniões divergentes das plataformas através de assédio coordenado, silenciando eficazmente a oposição.
Evidências do mundo real e ameaças emergentes
A ameaça não é teórica. No ano passado, o Reddit ameaçou com ação legal contra pesquisadores que usaram chatbots de IA para manipular opiniões no fórum r/changemyview. Descobertas preliminares mostraram que as respostas da IA foram três a seis vezes mais persuasivas do que as humanas.
Além disso, a erosão do discurso racional e a crescente polarização online já criam um terreno fértil para a manipulação. Mais de metade de todo o tráfego da Web provém agora de bots automatizados, sugerindo que a influência de intervenientes não humanos já é substancial. Alguns especulam que a Internet já é dominada por bots, uma teoria que ganha força à medida que a interação online parece cada vez mais artificial.
Defesa contra enxames de IA: desafios e soluções
As empresas de redes sociais provavelmente responderão com uma autenticação de conta mais rigorosa, forçando os usuários a provarem sua humanidade. No entanto, esta abordagem levanta preocupações sobre a supressão da dissidência política em países onde o anonimato é crucial para se manifestar contra regimes opressivos.
Os pesquisadores também propõem a varredura de padrões estatisticamente anômalos no tráfego ao vivo para detectar atividades de enxame e estabelecer um “Observatório de Influência de IA” para estudar, monitorar e combater a ameaça. A mensagem central é clara: a preparação proativa é essencial.
“Precisamos ser proativos em vez de esperar que os primeiros grandes eventos sejam influenciados negativamente pelos enxames de IA”, alerta Kunst.
A emergência de enxames de IA representa uma escalada significativa na guerra de informação, exigindo atenção imediata e contramedidas robustas para salvaguardar os processos democráticos e manter a integridade do discurso online.
