IA contre élections : 4 lectures essentielles sur la menace de tromperie high-tech en politique

IA contre élections : 4 lectures essentielles sur la menace de tromperie high-tech en politique

Crédit éditorial : Tada Images / Shutterstock.com

By Éric Smalley | La conversation

C'est officiel. Joe Biden et Donald Trump ont obtenu les délégués nécessaires être les candidats de leurs partis à la présidence lors des élections de 2024. Sauf événement imprévu, les deux hommes seront officiellement nommés lors des congrès du parti cet été et s'affronteront aux urnes le 5 novembre.

Il y a fort à parier que, comme lors des dernières élections, celui-ci se déroulera en grande partie en ligne et présentera un puissant mélange d’informations et de désinformation diffusées sur les réseaux sociaux. Les nouveautés cette année sont de puissants outils d'intelligence artificielle générative tels que ChatGPT ainsi que  Sora cela facilite la tâche »inonder la zone» avec de la propagande et de la désinformation et produire des deepfakes convaincants : des mots sortis de la bouche de politiciens qu'ils n'ont pas réellement prononcés et des événements qui se rejouent sous nos yeux et qui ne se sont pas réellement produits.

Il en résulte une probabilité accrue que les électeurs soient trompés et, ce qui est peut-être aussi inquiétant, un sentiment croissant que tu ne peux faire confiance à rien de ce que tu vois en ligne. Trump profite déjà de ce qu’on appelle dividende du menteur, la possibilité de considérer vos paroles et vos actes réels comme des deepfakes. Trump a laissé entendre sur sa plateforme Truth Social du 12 mars 2024 que de vraies vidéos de lui montrées par des membres démocrates de la Chambre étaient produit ou modifié à l’aide de l’intelligence artificielle.

The Conversation a couvert les derniers développements en matière d’intelligence artificielle susceptibles de saper la démocratie. Ce qui suit est un résumé de certains de ces articles de nos archives.

1. Faux événements

La possibilité d’utiliser l’IA pour créer des contrefaçons convaincantes est particulièrement problématique lorsqu’il s’agit de produire de fausses preuves d’événements qui ne se sont jamais produits. Chercheur en sécurité informatique au Rochester Institute of Technology Christophe Schwartz les a surnommés situation deepfake.

« L’idée de base et la technologie d’une situation deepfake sont les mêmes que celles de tout autre deepfake, mais avec une ambition plus audacieuse : manipuler un événement réel ou en inventer un à partir de rien », a-t-il écrit.

Les deepfakes de situations pourraient être utilisés pour stimuler ou affaiblir un candidat ou pour supprimer la participation électorale. Si vous rencontrez des reportages sur les réseaux sociaux faisant état d'événements surprenants ou extraordinaires, essayez d'en apprendre davantage à partir de sources fiables, telles que des reportages vérifiés, des articles universitaires évalués par des pairs ou des entretiens avec des experts accrédités, a déclaré Schwartz. Sachez également que les deepfakes peuvent tirer parti de ce que vous êtes enclin à croire.

2. La Russie, la Chine et l’Iran visent

De la question de savoir ce que la désinformation générée par l’IA peut faire découle la question de savoir qui l’utilise. Les outils d’IA d’aujourd’hui mettent la capacité de produire de la désinformation à la portée du plus grand nombre, mais les plus préoccupants sont les suivants : nations qui sont des adversaires des États-Unis et d’autres démocraties. En particulier, la Russie, la Chine et l’Iran ont une vaste expérience des campagnes et de la technologie de désinformation.

« Lancer une campagne de désinformation ne se limite pas à générer du contenu », a écrit un expert en sécurité et professeur à la Harvard Kennedy School. Bruce Schneier. « Le plus dur, c’est la distribution. Un propagandiste a besoin d’une série de faux comptes sur lesquels publier, et d’autres pour diffuser son message auprès du grand public et le rendre viral. »

La Russie et la Chine ont l’habitude de tester des campagnes de désinformation sur des pays plus petits, selon Schneier. « Pour contrer les nouvelles campagnes de désinformation, il faut être capable de les reconnaître, et les reconnaître nécessite de les rechercher et de les cataloguer dès maintenant », a-t-il écrit.

3. Un scepticisme sain

Mais il n’est pas nécessaire de recourir aux ressources des services de renseignement occultes des nations puissantes pour faire la une des journaux, comme le rapporte le New Hampshire. faux appel automatisé de Biden produit et diffusé par deux individus et visant à dissuader certains électeurs en témoigne. Cet épisode a incité la Federal Communications Commission à interdire les appels automatisés qui utilisent les voix générées par l'intelligence artificielle.

Les campagnes de désinformation basées sur l'IA sont difficiles à contrer car elles peuvent être diffusées via différents canaux, notamment les appels automatisés, les réseaux sociaux, les e-mails, les SMS et les sites Web, ce qui complique la recherche scientifique des sources de la désinformation, a écrit Joanne Donovan, spécialiste des médias et de la désinformation à l'Université de Boston.

« À bien des égards, la désinformation renforcée par l’IA, comme l’appel automatisé du New Hampshire, pose les mêmes problèmes que toute autre forme de désinformation », a écrit Donovan. "Les personnes qui utilisent l'IA pour perturber les élections sont susceptibles de faire ce qu'elles peuvent pour cacher leurs traces. C'est pourquoi il est nécessaire que le public reste sceptique quant aux affirmations qui ne proviennent pas de sources vérifiées, telles que les journaux télévisés locaux ou les comptes de réseaux sociaux. d’organismes de presse réputés.

4. Un nouveau type de machine politique

Les campagnes de désinformation basées sur l'IA sont également difficiles à contrer, car elles peuvent inclure des robots (des comptes de réseaux sociaux automatisés qui se font passer pour de vraies personnes) et peuvent inclure des robots. interactions en ligne adaptées aux individus, potentiellement au cours d’une élection et potentiellement avec des millions de personnes.

Politologue à Harvard Archonte Fung et juriste Lawrence Lessig a décrit ces capacités et présenté un scénario hypothétique de campagnes politiques nationales utilisant ces outils puissants.

Les tentatives visant à bloquer ces machines pourraient aller à l'encontre des protections de la liberté d'expression du premier amendement, selon Fung et Lessig. « Une mesure constitutionnellement plus sûre, bien que plus modeste, déjà adoptée en partie par les régulateurs européens de l’Internet et en Californie, consiste à interdire aux robots de se faire passer pour des personnes », ont-ils écrit. "Par exemple, la réglementation pourrait exiger que les messages de campagne soient accompagnés de clauses de non-responsabilité lorsque le contenu qu'ils contiennent est généré par des machines plutôt que par des humains."

Soyez sympa! Laissez un commentaire

Votre adresse email n'apparaitra pas.