Les « deepfakes » produits par l’intelligence artificielle (IA), qui imitent les personnalités politiques et les célébrités, sont beaucoup plus répandus que les cyberattaques assistées par l’IA, selon une étude révolutionnaire de la division DeepMind de Google. Cette étude représente la première tentative de DeepMind de quantifier les utilisations nuisibles les plus courantes de la technologie de pointe de l’IA.
L’étude a révélé que l’élaboration d’images, de vidéos et de sons réalistes mais faux de numéros publics est presque deux fois plus fréquente que l’utilisation abusive suivante de l’IA générative : la création de fausses informations à l’aide d’équipements textuels tels que les chatbots pour diffuser des informations erronées sur l’internet. L’objectif premier de ceux qui utilisent abusivement les outils d’IA générative est toujours d’influencer l’opinion publique, une tendance qui représente 27 % des cas analysés. Cette constatation renforce les inquiétudes quant à l’impact que les « deepfakes » pourraient avoir sur les élections dans le monde entier.
Ces dernières semaines, des deepfakes du Premier ministre britannique Rishi Sunak et d’autres leaders mondiaux ont circulé sur des programmes tels que TikTok, X (anciennement Twitter) et Instagram. Ces incidents ont suscité des inquiétudes quant à l’influence qu’ils pourraient avoir sur les électeurs, en particulier à l’approche des élections générales en Grande-Bretagne. Malgré les efforts déployés par les plateformes de médias sociaux pour étiqueter ou supprimer ce type de contenu, la crainte est grande que le public ne reconnaisse pas ces « deepfakes » comme étant faux, SEO ce qui pourrait influencer l’opinion des électeurs.
Ardi Janjeva, chercheur associé à l’Alan Turing Institute, a souligné l’importance de la découverte de l’étude selon laquelle les contenus générés par l’IA et contaminant des informations accessibles au public pourraient « fausser notre compréhension collective des faits sociopolitiques ». M. Janjeva a fait remarquer que même si l’impact immédiat des « deepfakes » sur le comportement électoral n’est pas certain, les risques à long terme pour la démocratie sont considérables.
Cette étude de DeepMind, dirigée par Sir Demis Hassabis, s’inscrit dans le cadre d’un travail acharné visant à évaluer les risques potentiels associés aux ressources génératives de l’IA, qui ont été rapidement développées et diffusées par les grandes entreprises de technologie moderne dans le but de réaliser des bénéfices. À mesure que des équipements tels que ChatGPT d’OpenAI et Gemini de Google se répandent, les entreprises d’IA surveillent de plus en plus la diffusion de fausses informations et d’autres articles nuisibles ou contraires à l’éthique créés par leurs technologies.
En mai, OpenAI a publié une étude indiquant que des entités liées à la Russie, à la Chine, à l’Iran et à Israël ont utilisé ses outils pour générer et diffuser de la désinformation. Nahema Marchal, auteur principal de l’étude de DeepMind, a déclaré : « Il y a eu beaucoup de questions compréhensibles concernant des cyberattaques assez sophistiquées facilitées par ces outils. En revanche, ce que nous avons vu, ce sont des utilisations abusives assez courantes de la GenAI [telles que les deepfakes] qui pourraient passer un peu plus inaperçues ».
Les scientifiques des moteurs de recherche DeepMind et Jigsaw ont analysé environ 200 incidents d’utilisation abusive de l’IA entre janvier 2023 et mars 2024. Ces incidents provenaient des plateformes de marketing des médias sociaux By et Reddit, ainsi que de blogs sur Internet et de reportages dans les médias. L’évaluation a montré que la plupart des situations d’utilisation abusive impliquaient des outils facilement accessibles, nécessitant une expertise technique minimale, permettant ainsi à une plus grande variété de mauvais acteurs célèbres d’utiliser l’IA générative.
Le deuxième motif le plus fréquent d’utilisation abusive de l’IA est le gain économique. Il s’agissait notamment de fournir des services pour produire des deepfakes, de créer des représentations nues de personnes réelles ou d’utiliser l’IA pour produire de gros volumes de contenu, notamment de faux articles de presse.
Les conclusions de l’enquête de DeepMind auront une incidence sur la manière dont l’entreprise améliore ses évaluations des conceptions d’IA en matière de sécurité de base. On espère que cette étude influencera également la manière dont la concurrence et d’autres parties prenantes perçoivent et abordent les inconvénients liés à l’IA générative.
Comme la technologie de l’IA continuera d’évoluer, il est essentiel de comprendre et d’atténuer ses utilisations néfastes. L’étude de DeepMind éclaire le paysage actuel de l’utilisation abusive de l’IA et souligne la nécessité de prendre des mesures énergiques pour protéger l’opinion publique et les procédures démocratiques contre les effets probablement considérables des deepfakes et de la désinformation créés par l’IA.