L’intelligence artificielle (IA) a connu des avancées spectaculaires ces dernières années, ouvrant la voie à de nouvelles possibilités passionnantes. Cependant, elle soulève également des inquiétudes quant à son potentiel d’utilisation abusive, notamment avec la montée en puissance des deepfakes. Face à cette problématique, un groupe de sénateurs américains a décidé d’agir en proposant une nouvelle législation bipartite visant à combattre l’abus des deepfakes générés par IA.
Un projet de loi novateur pour encadrer les deepfakes
Le projet de loi, intitulé “Content Origin Protection and Integrity from Edited and Deepfaked Media Act” (COPIED), a été présenté par les sénateurs Maria Cantwell (D-WA), Marsha Blackburn (R-TN) et Martin Heinrich (D-NM). Son objectif principal est de mettre en place une méthode standardisée pour filigraner le contenu généré par l’IA, afin d’offrir une transparence indispensable et de redonner le contrôle aux créateurs.
Selon la sénatrice Cantwell, cette initiative législative apportera la “transparence tant nécessaire” sur le contenu généré par l’IA, tout en permettant aux “créateurs, y compris les journalistes locaux, les artistes et les musiciens, de reprendre le contrôle de leur contenu”. Une avancée majeure pour protéger l’intégrité et l’authenticité des contenus en ligne.
Fonctionnement et implications de la loi COPIED
Si elle est adoptée, la loi COPIED imposera aux fournisseurs de services d’IA, tels qu’OpenAI, d’exiger des utilisateurs qu’ils intègrent des informations sur l’origine du contenu qu’ils génèrent. Cette intégration devra être réalisée de manière “lisible par machine” et ne pourra être contournée ou supprimée à l’aide d’outils basés sur l’IA.
La Federal Trade Commission (FTC) sera chargée de veiller à l’application de la loi COPIED. Les violations seront traitées comme des actes déloyaux ou trompeurs, à l’instar d’autres infractions relevant de la loi FTC.
Protéger les créateurs face à la menace des deepfakes
L’introduction de l’IA a suscité de nombreux débats autour de ses implications éthiques, compte tenu de la capacité de cette technologie à aspirer d’énormes volumes de données à travers le Web. Des préoccupations qui se sont manifestées lorsque le géant technologique Microsoft a décidé de ne pas occuper de sièges au conseil d’administration d’OpenAI.
Le projet de loi intervient alors que les fraudes et les escroqueries utilisant des contenus deepfakes ont bondi de 245 %. Selon un rapport de Bitget, les pertes liées à ces stratagèmes devraient atteindre 10 milliards de dollars d’ici 2025. Dans l’espace crypto, des escrocs ont exploité l’IA pour usurper l’identité de personnalités éminentes comme Elon Musk et Vitalik Buterin afin de duper les utilisateurs.
Des incidents préoccupants liés aux deepfakes
Voici quelques exemples inquiétants d’abus de deepfakes :
- En juin 2024, un client de la plateforme d’échange de cryptomonnaies OKX a perdu plus de 2 millions de dollars après que des attaquants aient réussi à contourner la sécurité en utilisant des vidéos deepfakes de la victime.
- Le mois précédent, les autorités de Hong Kong ont démantelé une plateforme d’escroquerie exploitant l’image d’Elon Musk pour induire les investisseurs en erreur.
- Google a récemment été critiqué par Michael Marcotte, fondateur du National Cybersecurity Center (NCC), pour ses mesures de prévention insuffisantes contre les deepfakes ciblant les cryptomonnaies.
Vers une utilisation responsable et éthique de l’IA
Le projet de loi COPIED marque une étape importante dans la régulation de l’IA et la lutte contre l’utilisation malveillante des deepfakes. En imposant le filigranage et la traçabilité du contenu généré par l’IA, cette initiative vise à restaurer la confiance et à protéger les créateurs et les utilisateurs.
Alors que l’IA continue de progresser à un rythme effréné, il est crucial d’établir un cadre réglementaire solide pour garantir une utilisation responsable et éthique de cette technologie. La loi COPIED ouvre la voie à une approche plus transparente et sécurisée, essential pour tirer pleinement parti du potentiel de l’IA tout en prévenant les dérives.
Reste à voir comment cette législation sera mise en œuvre concrètement et quelles seront ses répercussions sur l’écosystème de l’IA. Une chose est sûre : la question de la régulation des deepfakes et de l’IA en général est au cœur des préoccupations et nécessite une action concertée des différents acteurs – législateurs, entreprises technologiques et société civile – pour relever les défis complexes qui se profilent à l’horizon.