Virus, attaques : l’intelligence artificielle au service des pirates !
Il y a quelques années encore, être un hacker nécessitait une réelle connaissance de l’environnement technique ainsi que de la programmation. Une barrière qui limitait la diffusion de virus et de programmes malveillants en ligne. Mais, depuis quelque temps, au travers de solutions clés en main et de réseaux structurés, le piratage s’est simplifié. Une situation qui empire depuis l’arrivée de l’IA, capable de rédiger sur une simple commande des programmes complets et fonctionnels.
Des modèles gratuits et open source
C’est ainsi que le FBI a constaté au cours des derniers mois l’arrivée de virus et malwares conçus avec ou par l’IA. Pire, des modèles gratuits d’Intelligence Artificielle seraient disponibles en ligne avec un entraînement dédié à la conception de programmes malveillants.
« Nous nous attendons à ce que la tendance s’accroisse à mesure que les modèles d’IA se démocratisent »
– Responsable du FBI
FRENCHNEWTECH FraudGPT et WormGPT, des intelligences artificielles spécialisées dans les arnaques #science #innovation #futurasciences https://t.co/i02afHJ9GX pic.twitter.com/bhywG4vv1u
— Fabien Prévots (@fabienprevots) July 26, 2023
Les hackers se structurent autour de l’IA
C’est donc un véritable marché parallèle de l’IA malveillante qui s’est développé en ligne. On retrouve ainsi des dérivés de ChatGPT optimisés pour faciliter les arnaques ou la diffusion de virus, comme WormGPT ou encore FraudGPT. Simples d’usages, ces outils se répandent comme une traînée de poudre, laissant craindre une augmentation drastique des attaques.
Artificial intelligence or “AI” is one of the newest technologies the world is exploring on a massive scale. The FBI is also examining AI to anticipate and defend against threats. Learn more in this episode of Inside the FBI podcast: https://t.co/mbdjOYDnOp
— FBI Indianapolis (@FBIIndianapolis) July 31, 2023
Les deep fakes sont aussi de la partie
Si les deep fakes sont déjà légion depuis quelques années, leur usage par des hackers commence aussi à se répandre. Au travers d’IA génératives, certains arnaqueurs ont ainsi lancé des campagnes de fausses images compromettantes, à partir d’une simple photo de profil, pour faire pression sur leurs victimes.
Problème, si des outils de détection de fakes existent, leur impact reste tout de même bien plus faible qu’un visuel dégradant circulant sur les réseaux. Si l’IA reste une avancée technologique impressionnante, son utilisation risque cependant de causer beaucoup de tort.