Les garde-fous des IA génératives ne servent pas à grand-chose
Sans grande surprise, le premier rapport de l'AI Safety Institute, une organisation visant à rendre l'intelligence artificielle plus sûre, montre qu'il est facile de contourner les règles des grands modèles de langage comme ChatGPT.
Publié le 13-02-2024 par Marine Protais
« Je suis désolée mais je ne peux pas vous aider à mener des activités illégales ». C'est le type de réponse décevante que vous obtiendrez de ChatGPT si vous lui demandez de l'aide pour mener une cyberattaque ou toute autre action malveillante. Le grand modèle de langage d'OpenAI, comme Llama 2 de Meta et Bard de Google, est doté d'un certain nombre de garde-fous. Ces derniers limitent son utilisation. Ils évitent à ces LLM (« large language models ») de donner des informations dangereuses, de tenir des propos racistes et sexistes, de décrire des scènes pornographiques ou d'amplifier la désinformation.
Mais ces barrières seraient aisément contournables, conclut un premier rapport de l'AI Safety Institute, un organisme rattaché au gouvernement britannique créé fin 2023. L'AI Safety Institute (AISI) s'est donné pour mission d'évaluer les grands modèles de langage « les plus avancés » - sans préciser lesquels. On sait toutefois qu'en novembre dernier Google DeepMind, Microsoft, Meta et OpenAI avaient accepté d'être audités par l'organisme britannique, rapporte le Financial Times. Le but est de comprendre à quel point ces modèles peuvent être détournés pour produire des contenus illicites, mener des cyberattaques ou encore désinformer.
Des techniques de piratage accessibles aux utilisateurs lambda
Leurs premières conclusions, publiées le 9 février, sont peu rassuran
Les dernières actualités
Publié le 28/04/2024 à 11:02:55
Cause palestinienne : le désaccord de trop pour la gauche françaisePublié le 28/04/2024 à 11:02:50
Guerre en Ukraine : des pourparlers de paix sont actuellement inenvisageables, selon MoscouPublié le 28/04/2024 à 10:43:36
Allemagne : Maximilian Krah, le visage sulfureux de l’AfDPublié le 28/04/2024 à 10:43:31
Tunnel sous la Manche : Getlink se transforme à grande vitessePublié le 28/04/2024 à 10:43:31
Le « Make Europe Great Again » de MacronPublié le 28/04/2024 à 10:43:31
Budget : Bruno Le Maire face aux doutesPublié le 28/04/2024 à 10:43:26
Les jeunes, nouveaux invisibles de la RépubliquePublié le 28/04/2024 à 10:43:21
En Italie, 40 ans de lutte sanglante contre la mafiaPublié le 28/04/2024 à 10:43:17
Bonnes feuilles : la Cour européenne des droits de l’homme, des juges bien mal aimésPublié le 28/04/2024 à 10:43:16
Marseille, laboratoire de la lutte antidroguePublié le 28/04/2024 à 10:43:11
Éric Dupond-Moretti : « Nous allons créer un véritable statut de repenti »Publié le 28/04/2024 à 10:43:09
Michel Barnier : « Emmanuel Macron n’est pas le seul à défendre l’Europe »Publié le 27/04/2024 à 10:43:42
Crise agricole : le gouvernement annonce une nouvelle salve de mesuresPublié le 27/04/2024 à 10:43:36
Dette : ouf de soulagement pour le gouvernement, Fitch et Moody's maintiennent inchangée la note souveraine de la FrancePublié le 27/04/2024 à 10:43:29
Sciences Po Paris : accord entre la direction et les manifestants propalestiniensPublié le 27/04/2024 à 10:43:22
Airbus cherche la parade au rachat de son équipementier Spirit Aerosystems par BoeingPublié le 27/04/2024 à 10:43:14
Trop d'argent pour une utilité questionnée : l'IA générative déçoit déjàPublié le 27/04/2024 à 10:43:06
Pourquoi le démarrage en trombe de la Citroën C3 électrique est en trompe-l'oeilPublié le 27/04/2024 à 10:43:05
Le gouvernement veut stocker le CO2 en France : comment fait-on et à quel prix ?Publié le 27/04/2024 à 10:43:03
Loi énergie-climat : le virage sur l'aile de Roland Lescure