OpenAI déjoue des opérations d'influence secrètes utilisant l'IA

OpenAI déjoue des opérations d'influence secrètes utilisant l'IA

OpenAI, la société derrière ChatGPT, a récemment annoncé avoir mis un terme à plusieurs opérations d'influence clandestines. Selon l'entreprise, des réseaux originaires de Russie, de Chine, d'Iran et d'Israël ont tenté de manipuler l'opinion publique en utilisant du contenu généré par intelligence artificielle. Ces tentatives de manipulation, qui ont eu lieu entre 2023 et 2024, visaient à influencer les résultats politiques sans dévoiler leurs véritables identités ou intentions.

L'entreprise a révélé que ces opérations n'ont pas significativement augmenté leur portée ou leur engagement malgré l'utilisation de ses services. OpenAI a collaboré avec des acteurs de l'industrie technologique, de la société civile et des gouvernements pour contrer ces acteurs malveillants.

Ce rapport intervient dans un contexte de préoccupations croissantes concernant l'impact de l'IA générative sur diverses élections mondiales prévues pour cette année, y compris aux États-Unis. OpenAI a expliqué que les réseaux impliqués dans ces opérations d'influence ont utilisé l'IA pour générer des textes et des images en grande quantité, et simuler de l'engagement en créant de faux commentaires sur les réseaux sociaux.

Ben Nimmo, chef enquêteur chez OpenAI, a souligné l'importance de comprendre les implications potentielles de l'utilisation de l'IA dans les opérations d'influence. Selon lui, le rapport vise à répondre aux interrogations sur ce sujet brûlant.

En Russie, l'opération nommée "Doppelganger" a utilisé les modèles de la compagnie pour générer des titres, transformer des articles en publications Facebook et créer des commentaires dans plusieurs langues afin de saper le soutien à l'Ukraine. Un autre groupe russe a utilisé ces modèles pour déboguer un code pour un bot sur Telegram qui publiait des commentaires politiques en anglais et en russe, ciblant l'Ukraine, la Moldavie, les États-Unis et les États baltes. Le réseau chinois "Spamouflage", connu pour ses efforts d'influence sur Facebook et Instagram, a également exploité les modèles d'OpenAI pour analyser l'activité sur les réseaux sociaux et générer du contenu textuel en plusieurs langues sur diverses plateformes. En Iran, l'"Union Internationale des Médias Virtuels" a utilisé l'IA pour générer du contenu dans plusieurs langues.

Cette annonce d'OpenAI s'aligne sur celles d'autres entreprises technologiques qui, de temps à autre, divulguent des informations sur des comportements inauthentiques coordonnés. Par exemple, Meta a récemment publié un rapport sur une campagne d'influence menée par une agence de marketing israélienne qui utilisait de faux comptes Facebook pour cibler des individus aux États-Unis et au Canada.

Anthony Rodier
A propos de l'auteur

Anthony Rodier

Que ce soit à travers des critiques objectives, des guides d'achat ou des analyses approfondies, je m'efforce de rendre la technologie accessible à tous, en démystifiant les concepts complexes et en mettant en lumière les aspects pratiques de ces innovations. Mon travail consiste également à partager des réflexions sur l'impact de la technologie sur notre vie quotidienne et à explorer les possibilités fascinantes qu'elle offre pour l'avenir.