Cybercriminalité : l’intelligence artificielle accroit les risques

C’est un constat dressé dans un rapport élaboré par 26 experts de l’intelligence artificielle, de la sécurité informatique et de la robotique. Nous nous félicitons des apports de l’IA pour notre vie privée et professionnelle, mais ignorons souvent que celle-ci présente un risque pour la sécurité de nos systèmes informatiques.

Vers une multiplication exponentielle des attaques ciblées…

À l’époque où nous nous trouvons, les attaques informatiques sont de plus en plus fréquentes et la tendance n’est pas encore prête à s’inverser avec les possibilités qu’offrent les outils issus de l’IA aux cybercriminels. Un des auteurs du rapport travaillant au « Centre for the Study of Existential Risk » de l’Université de Cambridge est même persuadé qu’il y aura plus de spear phishing à une large échelle, et les principales victimes devraient être des grandes figures de la politique. Ce qui semble être logique sachant que l’IA a déjà permis à des pirates russes d’interférer dans des élections aux USA et dans d’autres pays. On ne sera donc plus loin de la théorie selon laquelle la cybercriminalité pourrait déclencher dans un avenir proche des conflits voire des guerres. Les pirates du futur n’auront plus, par exemple, du mal à créer des fausses vidéos très réalistes ayant pour vocation le discrédit de certains dirigeants politiques. Les dictateurs, de leur part, auront des outils encore plus performants pour une intrusion dans la vie de leur citoyen.

Et des attaques terroristes « réussies »

Même si beaucoup d’entre nous n’y pensent pas forcement, l’intelligence artificielle a rendu service non seulement aux cybercriminels, mais également aux terroristes. Ces derniers sont en effet déjà plus nombreux à se servir des objets connectés pour perpétrer des attaques. Et cela devra rendre plus difficile l’attribution, sachant que certains ne revendiquent plus leurs actes. Il faut en effet savoir que les drones et les véhicules autonomes en vente actuellement sur le marché peuvent déjà servir de moyen pour déclencher des accidents, des explosions ou des collisions. Dans un futur proche donc, les terroristes pourront trafiquer un des robots nettoyeurs d’une institution publique dans le but d’éliminer son plus haut-dirigeant.  Les traquer constituera un vrai parcours de combattant pour la police.

Un constat qui ne date pas d’hier

Il ne s’agit pas de la première mise en garde émise par des experts à l’encontre des outils et équipements liés à l’intelligence artificielle. Stephen Hawking,  un illustre astrophysicien britannique, a fait déjà savoir en 2014 que les robots du futur pourraient dépasser l’intelligence humaine et devraient constituer un important risque. Ses avis étaient partagés par l’entrepreneur Elon Musk et plusieurs de ses paires. Dans quelques années donc, nous ne regarderons plus l’intelligence artificielle de la même manière.

Pourtant, dans les 1950, celles de son apparition, l’intelligence était vue comme un sauveur de l’humanité, étant à la source de la résolution de nombreux problème. Certes, elle répond encore à sa vocation initiale aujourd’hui, mais on craint que ses envers puissent prendre le dessus. Faut-il donc la délaisser totalement ou trouver un moyen pour éviter toutes les dérives qui s’y attachent. On aura sûrement l’occasion d’y répondre dans un  prochain article.