Accueil / Intelligence artificielle / L’intelligence artificielle au risque du cybercrime

L’intelligence artificielle au risque du cybercrime

 

Dans un rapport publié ce mercredi 21 février 2018, 26 experts internationaux sonnent l’alarme sur les risques d’une utilisation malveillante de cette technologie par « des Etats voyous, des criminels, des terroristes ».

 

On se souvient des mises en garde d’Elon Musk et de plusieurs scientifiques sur le risque de voir un jour des robots tueurs. Aujourd’hui, 26 experts spécialistes en intelligence artificielle (IA), cybersécurité et robotique reviennent à la charge.

Ces experts appartiennent à quelques unes des plus prestigieuses universités de la planète (comme Cambridge, Oxford, Yale ou bien encore Stanford) ou travaillent pour des ONG (organisations non gouvernementales), spécialisées dans l’intelligence artificielle ou le respect des libertés numériques (comme OpenAI, Center for a New American Security ou l’Electronic Frontier Foundation créée par feu John Perry Barlow).

Le constat que dresse ce groupe d’expert dans un rapport d’une centaine de pages (disponible ici) est assez alarmant.

Selon eux, dans les dix prochaines années, l’efficacité croissante de l’IA risque de renforcer la cybercriminalité mais aussi de conduire à des utilisations de drones ou de robots à des fins terroristes.

Elle est aussi susceptible de faciliter la manipulation d’élections via les réseaux sociaux grâce à des comptes automatisés (bots).

« Nous pensons que les attaques qui seront permises par l’utilisation croissante de l’IA seront particulièrement efficaces, finement ciblées et difficiles à attribuer », indique le rapport.

Et les experts d’étayer leur théorie par des “scénarios hypothétiques”.

ai-ia-intelligence-artificielle

Ainsi des terroristes qui pourraient modifier des systèmes d’IA disponibles dans le commerce (drones, véhicules autonomes), pour provoquer des crashs, des collisions ou des explosions.

Ou ce robot nettoyeur trafiqué qui se glisserait parmi d’autres robots chargés de faire le ménage dans un ministère berlinois. Un jour, l’intrus passerait à l’attaque après avoir reconnu visuellement la ministre des Finances. Il pourrait se rapprocher d’elle et exploser de façon autonome, tuant sa cible.

« Ce nouveau rapport apporte « une vue d’ensemble sur la façon dont l’IA crée de nouvelles menaces ou change la nature des menaces existantes dans les domaines de la sécurité numérique, physique et politique », explique à l’AFP,  Seán Ó hÉigeartaigh, directeur du « Centre for the Study of Existential Risk » de l’Université de Cambridge, un des auteurs du rapport.

« Nous avons déjà vu comment des gens se servaient de la technologie pour essayer d’interférer dans les élections et la démocratie. »

« Si l’IA permet à ces menaces de devenir plus fortes, plus difficiles à repérer et à attribuer, cela pourrait poser de gros problèmes de stabilité politique et contribuer peut-être à déclencher des guerres », estime Seán Ó hÉigeartaigh.

Par ailleur, avec l’IA, il devrait être possible de réaliser des fausses vidéos très réalistes et cela pourrait être utilisé pour discréditer des responsables politiques, avertit le rapport.

Enfin, (attention second degré) ultime motif de réjouissance, les Etats autoritaires vont aussi pouvoir s’appuyer sur l’IA pour renforcer la surveillance de leurs citoyens.

[wpedon id= »26112″]

Vous avez aimé cette information? Partagez-là avec vos amis, votre réseau ou votre communauté. Cet article vous a été utile? Il vous a rendu service? NewZilla.NET a besoin de VOUS. Vous pouvez nous aider en faisant un don sécurisé à partir de 1 euro. Cela mérite une explication. On vous dit tout ICI. Merci pour votre soutien et pour votre fidélité à NewZilla.NET.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.