IA, "deep fake": les législatives britanniques, un test pour la sécurité électorale

10:4516/06/2024, اتوار
AFP
Un bus londonien à impériale passe devant le Palais de Westminster, qui abrite les Chambres du Parlement, dans le centre de Londres, le 14 juin 2024.
Crédit Photo : BENJAMIN CREMEL / AFP
Un bus londonien à impériale passe devant le Palais de Westminster, qui abrite les Chambres du Parlement, dans le centre de Londres, le 14 juin 2024.

Entre progrès fulgurants de l'intelligence artificielle et risques d'ingérences étrangères, les élections législatives britanniques du 4 juillet s'annoncent comme un test pour la sécurité des démocraties occidentales, avant d'autres scrutins majeurs comme la présidentielle américaine.

Le développement et la diffusion rapide des technologies d'IA génératives constituent la principale nouveauté et la plus grande inconnue des nombreuses élections organisées en 2024, indique Bruce Snell, stratège en cybersécurité de la société américaine Qwiet AI.


La propagation des
"deep fake"
- fausses images ou vidéos plus vraies que nature - est l'une des préoccupations majeures. Certains logiciels sont, en effet, capables de recréer la voix d'une personne à partir d'un échantillon de seulement 30 secondes.

Le responsable de l'opposition travailliste pour les questions de santé, Wes Streeting, a ainsi récemment rapporté avoir été victime d'un
"deepfake"
audio, dans lequel on croit l'entendre insulter un collègue.

"Le niveau de falsification qui peut-être atteint est tout simplement incroyable"
, ajoute M. Snell, estimant que le Royaume-Uni jouera le rôle de
"cobaye"
sur la sécurité électorale avant la présidentielle américaine du 5 novembre.

Les traditionnelles cyberattaques et campagnes de désinformation restent toutefois les principales menaces pesant sur ce processus.

Ram Elboim, directeur de la société de cybersécurité Sygnia et ancien responsable de l'unité israélienne de cybersécurité et de renseignement 8200, évoque ainsi pêle-mêle désinformation,
"fuites de données et attaques contre des individus ciblés".

La menace devrait principalement venir d'Etats, et le Royaume-Uni a déjà fait part de ses craintes concernant la Chine et la Russie après plusieurs affaires d'espionnage ces dernières semaines, dans un contexte de vives tensions avec deux pays.


L'objectif pourrait être, selon M. Elboim, de
"promouvoir certains candidats, agendas politique"
ou de
"générer de l'instabilité".

Robots et acteurs hostiles


Fin mai, un comité parlementaire a interpellé le Premier ministre britannique Rishi Sunak sur le risque d'ingérences étrangères, appelant à des mesures de protection.


Le gouvernement britannique a récemment accusé l'Etat chinois de cyberattaques contre des parlementaires britanniques critiques de Pékin - qui a démenti - tandis que la Commission électorale avait annoncé en août 2023 avoir été victime d'une cyberattaque de la part d'
"acteurs hostiles"
non identifiés, qui ont eu accès à son système pendant plus d'un an.

L'ancien chef du parti conservateur britannique Iain Duncan Smith, fervent critique de Pékin, a aussi affirmé que des acteurs étatiques chinois s'étaient fait passer pour lui en ligne afin d'envoyer de faux emails à des représentants politiques.

A l'image de ce piratage, il est plus probable que des individus, plus que des organisations, soient directement ciblés. Et malgré quelques cas de chantage, les pirates se contentent généralement de se faire passer pour la victime pour diffuser des informations erronées.


L'intelligence artificielle peut aussi être utilisée pour créer des
"robots"
qui inondent les réseaux sociaux de contenus et commentaires afin d'influencer l'opinion publique.

"Avant, ces robots étaient très facile à repérer (...) mais avec la sophistication actuelle de l'IA, il est très facile de générer une ferme contenant 1.000 robots, ayant chacun un style de communication différent"
, indique Bruce Snell.

Et bien qu'il existe des logiciels qui permettent de vérifier si des vidéos et images ont été créées grâce à de l'intelligence artificielle avancée, ils sont encore peu utilisés.

Face aux risques dont sont
"très conscients"
les acteurs de l'industrie, cet expert appelle les autorités à sensibiliser autant que possible l'opinion publique. Estimant que les responsables politiques n'ont
"aucune idée"
de ce qu'il se passe actuellement, il ajoute également que les entreprises et les réseaux sociaux doivent
"prendre leurs responsabilités"
face à la désinformation.

Le court laps de temps entre l'annonce de l'élection britannique et la date du vote -six semaines- devrait toutefois limiter la possibilité de mener des attaques, contrairement aux Etats-Unis, qui repose également sur un vote automatique plus vulnérable.


À lire également:


#Angleterre
#politique
#technologie
#élections