Les « deepfakes » générés par l’intelligence artificielle (IA) qui imitent les personnalités politiques et les célébrités sont beaucoup plus répandus que les cyberattaques assistées par l’IA, selon une étude révolutionnaire de la division DeepMind de Google. Cette étude marque la première tentative de DeepMind de quantifier les utilisations malveillantes les plus courantes de la technologie de pointe de l’IA.
L’analyse a révélé que la production d’images, de vidéos et de sons réalistes mais faux de personnalités publiques est presque deux fois plus fréquente que l’utilisation abusive suivante de l’IA générative : la création d’informations bidon à l’aide d’outils textuels tels que les chatbots pour diffuser des informations erronées sur le web. L’objectif premier de ceux qui utilisent abusivement les outils d’IA générative est toujours d’influencer l’opinion publique, une tendance qui représente 27 % des cas évalués. Cette découverte amplifie les questions relatives à l’impact que les deepfakes pourraient avoir sur les élections dans le monde entier.
Ces dernières semaines, des deepfakes du Premier ministre britannique Rishi Sunak et d’autres dirigeants internationaux ont été diffusés sur des programmes tels que TikTok, X (anciennement Twitter) et Instagram. Ces incidents ont suscité des inquiétudes quant à l’influence qu’ils pourraient avoir sur les électeurs, SEO en particulier à l’approche des élections générales au Royaume-Uni. Malgré les efforts déployés par les plateformes de médias sociaux pour étiqueter ou éliminer ce type de contenu, on craint que le public ne reconnaisse pas ces « deepfakes » comme étant faux, ce qui pourrait influencer l’opinion des électeurs.
Ardi Janjeva, chercheur associé à l’Alan Turing Institute, a présenté les conclusions importantes de l’étude selon lesquelles les articles générés par l’IA qui contaminent les informations accessibles au public pourraient « fausser notre compréhension collective de la vérité sociopolitique ». M. Janjeva a fait remarquer que même si l’impact rapide des « deepfakes » sur les votes n’est pas clair, les risques à long terme pour la démocratie sont considérables.
Cette étude de DeepMind, dirigée par Sir Demis Hassabis, s’inscrit dans le cadre d’un travail acharné visant à évaluer les risques potentiels associés aux ressources génératives de l’IA, qui ont été rapidement développées et diffusées par les grandes entreprises technologiques dans le but de réaliser des bénéfices. Alors que des outils tels que ChatGPT d’OpenAI et Gemini de Google deviennent de plus en plus répandus, les entreprises d’IA surveillent de plus en plus la diffusion de fausses informations et d’autres contenus nuisibles ou contraires à l’éthique créés par leurs technologies.
En mai, OpenAI a publié une étude indiquant que des entités liées à la Russie, à l’Asie, à l’Iran et à Israël ont utilisé ses outils pour produire et diffuser de la désinformation. Nahema Marchal, auteur direct de l’étude de DeepMind, a déclaré : « Il y a eu beaucoup de questions compréhensibles concernant des cyberattaques vraiment sophistiquées facilitées par ces outils puissants. Ce que nous avons vu, en revanche, ce sont des utilisations abusives assez courantes de la GenAI [y compris les deepfakes] qui pourraient passer un peu plus inaperçues ».
Les scientifiques des moteurs de recherche DeepMind et Jigsaw ont examiné environ 200 incidents d’utilisation abusive de l’IA entre janvier 2023 et mars 2024. Ces incidents provenaient des plateformes de médias sociaux X et Reddit, ainsi que de blogs en ligne et de revues de presse. L’évaluation a montré que la plupart des cas d’utilisation abusive impliquaient des outils facilement accessibles, nécessitant une expertise spécialisée minimale, permettant ainsi à une plus large sélection de mauvais acteurs célèbres d’exploiter l’IA générative.
Le deuxième motif le plus fréquent d’utilisation abusive de l’IA est le gain monétaire. Il s’agissait notamment de fournir des services pour produire des deepfakes, de générer des représentations nues de personnes authentiques ou d’utiliser l’IA pour produire de gros volumes de contenu, notamment de faux articles d’information.
Les conclusions de l’étude de DeepMind influenceront la manière dont l’entreprise améliore ses évaluations des modèles d’IA en matière de sécurité de base. On espère que cette étude conditionnera également la manière dont les concurrents et les autres parties prenantes perçoivent et abordent les inconvénients associés à l’IA générative.
La technologie de l’IA évoluant constamment, il est essentiel de comprendre et d’atténuer ses utilisations malveillantes. L’étude de DeepMind éclaire le paysage actuel de l’utilisation abusive de l’IA, en soulignant la nécessité de mesures solides pour protéger l’opinion publique et les processus démocratiques des impacts potentiellement considérables des deepfakes et de la désinformation générés par l’IA.