Rapport : Les dangers de l’intelligence artificielle générative

L’intelligence artificielle (IA) générative est sans aucun doute l’un des développements technologiques les plus prometteurs de ces dernières années. Cependant, avec cette promesse vient une série de préoccupations. L’Agence de l’Union européenne pour la cybersécurité (Enisa) a récemment mis en évidence ces problématiques dans un rapport annuel, attirant l’attention sur les nouveaux risques liés à cette technologie émergente.

Cyberattaques sophistiquées

Selon le rapport de l’Enisa, « l’adoption exponentielle » d’outils tels que le robot conversationnel ChatGPT et Google Bard a ouvert la voie à de nouvelles menaces. Celles-ci ne sont pas seulement des préoccupations abstraites. En mars dernier, OpenAI a subi une fuite de données, exposant les informations de paiement de nombreux clients. Citant le rapport, « Rappelant d’abord la fuite de données qu’a subi OpenAI en mars dernier, compromettant notamment des informations de paiement de nombre de ses clients, l’agence identifie plusieurs typologies de risques. »

Un des domaines préoccupants est la capacité des cybercriminels à utiliser l’IA pour orchestrer des attaques sophistiquées à grande échelle. « Nous avons observé plusieurs domaines fortement influencés par l’IA notamment l’élaboration de courriels et de messages de phishing plus convaincants qui imitent de près des sources légitimes, les deepfakes qui se concentrent principalement sur le clonage de la voix et l’exploration de données pilotée par l’IA », a souligné l’agence.

Menace vocale

Les deepfakes vocaux, en particulier, sont devenus une préoccupation majeure. Les attaquants peuvent désormais usurper des identités en créant des messages vocaux falsifiés pour solliciter des informations ou des paiements. L’accent est mis sur le clonage de la voix, « certains attaquants se faisant passer pour d’autres personnes via l’envoi de messages vocaux montés de toutes pièces, pour récupérer des informations confidentielles ou solliciter des versements », affirme l’ENISA.

Empoisonnement des données

Au-delà des attaques directes, l’empoisonnement des données est un autre problème majeur. Les grands modèles de langage, tels que ChatGPT, nécessitent d’énormes quantités de données pour être formés. Ces modèles sont donc vulnérables à l’insertion de fausses informations. L’Enisa note que cette technique « consiste à introduire délibérément des informations erronées ou trompeuses dans les bases de données. L’objectif est d’affaiblir la précision et la fiabilité des outils qui utilisent ces données. Par exemple, en contaminant la base de données d’un robot conversationnel avec de fausses informations, on pourrait le pousser à tenir des discours inexactes ou mensongers ».

Dans un monde de plus en plus numérisé, ces menaces ont le potentiel de manipuler l’opinion publique à grande échelle, en particulier pendant les périodes électorales. L’Enisa conclut : « Le besoin d’outils pour contrer la désinformation générée par l’IA à l’ère de ChatGPT devient une nécessité ».

Ne ratez plus aucune news

  • contact@nexgenmag.com
  • rp@nexgenmag.com
  • pub@nexgenmag.com
Newsletter

Restez encore plus proche de l'actualité #Tech et #Digitale

Merci de votre confiance

Imaginé et conçu par META4VERSE © 2023