додому Dernières nouvelles et articles Les essaims d’IA menacent l’intégrité des médias sociaux : les chercheurs mettent en...

Les essaims d’IA menacent l’intégrité des médias sociaux : les chercheurs mettent en garde contre une manipulation coordonnée

Les essaims d’IA menacent l’intégrité des médias sociaux : les chercheurs mettent en garde contre une manipulation coordonnée

Les chercheurs tirent la sonnette d’alarme face à la prochaine vague d’« essaims » d’intelligence artificielle (IA) avancés, prêts à infiltrer les plateformes de médias sociaux, à manipuler l’opinion publique et potentiellement à saper les processus démocratiques. Ces essaims fonctionneront en imitant le comportement humain à grande échelle, ce qui les rendra difficiles à détecter tout en semant de faux récits et en harcelant les voix dissidentes.

L’invasion à venir : au-delà des simples robots

Les robots automatisés actuels sont largement peu sophistiqués : ils répètent des messages préprogrammés et sont facilement identifiables. La prochaine génération, cependant, sera pilotée par de grands modèles de langage (LLM), la même IA derrière les chatbots populaires. Cela permet aux essaims de s’adapter aux communautés en ligne, créant ainsi plusieurs personnages persistants qui conservent la mémoire et apprennent au fil du temps.

Selon Jonas Kunst, professeur de communication à la BI Norwegian Business School, les humains sont naturellement enclins à se conformer. « Nous avons tendance à croire que ce que font la plupart des gens a de la valeur », a-t-il déclaré, ce qui en fait une vulnérabilité que les essaims d’IA peuvent exploiter. En modifiant artificiellement le consensus perçu, ces essaims peuvent détourner les débats et forcer les opinions vers un résultat prédéterminé.

Comment fonctionneront les essaims d’IA

Les chercheurs décrivent les essaims d’IA comme des organismes autosuffisants, capables de se coordonner, d’apprendre et de se spécialiser dans l’exploitation des faiblesses humaines. L’ampleur de ces essaims n’est limitée que par la puissance de calcul et les restrictions de la plate-forme, mais même de petits déploiements peuvent s’avérer efficaces, en particulier auprès de groupes locaux ciblés.

Les essaims peuvent également utiliser la persistance comme une arme. Alors que les utilisateurs humains débattent dans des délais limités, les agents d’IA peuvent fonctionner 24h/24 et 7j/7 jusqu’à ce que leur récit gagne du terrain. Cette pression incessante peut éloigner les individus ayant des opinions dissidentes des plateformes grâce à un harcèlement coordonné, réduisant ainsi au silence l’opposition.

Preuves concrètes et menaces émergentes

La menace n’est pas théorique. L’année dernière, Reddit a menacé de poursuites judiciaires les chercheurs qui utilisaient des chatbots IA pour manipuler les opinions sur le forum r/changemyview. Les résultats préliminaires ont montré que les réponses de l’IA étaient trois à six fois plus convaincantes que celles des humains.

De plus, l’érosion du discours rationnel et la polarisation croissante en ligne créent déjà un terrain fertile pour la manipulation. Plus de la moitié du trafic Web provient désormais de robots automatisés, ce qui suggère que l’influence des acteurs non humains est déjà considérable. Certains pensent qu’Internet est déjà dominé par les robots, une théorie qui gagne du terrain à mesure que les interactions en ligne semblent de plus en plus artificielles.

Se défendre contre les essaims d’IA : défis et solutions

Les sociétés de médias sociaux répondront probablement par une authentification de compte plus stricte, obligeant les utilisateurs à prouver leur humanité. Cependant, cette approche suscite des inquiétudes quant à la répression de la dissidence politique dans les pays où l’anonymat est crucial pour dénoncer les régimes oppressifs.

Les chercheurs proposent également d’analyser les modèles statistiquement anormaux dans le trafic en direct pour détecter l’activité des essaims et d’établir un « Observatoire d’influence de l’IA » pour étudier, surveiller et contrer la menace. Le message principal est clair : une préparation proactive est essentielle.

« Nous devons être proactifs au lieu d’attendre que les premiers événements majeurs soient influencés négativement par des essaims d’IA », prévient Kunst.

L’émergence d’essaims d’IA représente une escalade significative dans la guerre de l’information, exigeant une attention immédiate et des contre-mesures robustes pour sauvegarder les processus démocratiques et maintenir l’intégrité du discours en ligne.

Exit mobile version