Des chercheurs de l'Université de Californie ont découvert que certains routeurs de modèles de langage d'IA (LLM) tiers peuvent présenter des vulnérabilités de sécurité pouvant entraîner un vol de cryptomonnaies.
Un article mesurant les attaques d'intermédiaires malveillants sur la chaîne d'approvisionnement LLM, publié jeudi par les chercheurs, a révélé quatre vecteurs d'attaque, notamment l'injection de code malveillant et l'extraction d'identifiants.
« 26 routeurs LLM injectent secrètement des appels d'outils malveillants et volent des identifiants », a déclaré le co-auteur de l'article, Chaofan Shou, sur X.
Les agents d'IA LLM acheminent de plus en plus les requêtes via des intermédiaires API tiers ou des routeurs qui regroupent l'accès à des fournisseurs comme OpenAI, Anthropic et Google. Cependant, ces routeurs terminent les connexions TLS Internet (Transport Layer Security) et ont un accès complet en texte clair à chaque message.
Cela signifie que les développeurs utilisant des agents de codage IA tels que Claude Code pour travailler sur des Smart Contracts ou des portefeuilles pourraient transmettre des clés privées, des phrases de récupération et des données sensibles via une infrastructure de routeur qui n'a pas été vérifiée ou sécurisée.
Chaîne d'approvisionnement de routeurs LLM multi-sauts. Source : arXiv.org
ETH volé d'un portefeuille crypto leurre
Les chercheurs ont testé 28 routeurs payants et 400 routeurs gratuits collectés auprès de communautés publiques.
Leurs conclusions étaient alarmantes, avec neuf routeurs injectant activement du code malveillant, deux déployant des déclencheurs d'évasion adaptatifs, 17 accédant aux identifiants Amazon Web Services appartenant aux chercheurs, et un drainant de l'Ether (ETH) d'une clé privée appartenant aux chercheurs.
Connexe : Anthropic limite l'accès au modèle d'IA en raison de préoccupations liées aux cyberattaques
Les chercheurs ont préfinancé des « clés leurres » de portefeuille Ethereum avec des soldes nominaux et ont signalé que la valeur perdue dans l'expérience était inférieure à 50 $, mais aucun détail supplémentaire tel que le hash de transaction n'a été fourni.
Les auteurs ont également mené deux « études d'empoisonnement » montrant que même les routeurs bénins deviennent dangereux une fois qu'ils réutilisent des identifiants divulgués via des relais faibles.
Difficile de dire si les routeurs sont malveillants
Les chercheurs ont déclaré qu'il n'était pas facile de détecter quand un routeur était malveillant.
Une autre découverte inquiétante était ce que les chercheurs ont appelé le « mode YOLO ». Il s'agit d'un paramètre dans de nombreux frameworks d'agents d'IA où l'agent exécute automatiquement des commandes sans demander à l'utilisateur de confirmer chacune d'elles.
Des routeurs auparavant légitimes peuvent être silencieusement transformés en armes sans que l'opérateur ne le sache, tandis que les routeurs gratuits peuvent voler des identifiants tout en offrant un accès API bon marché comme appât, ont constaté les chercheurs.
Les chercheurs ont recommandé que les développeurs utilisant des agents d'IA pour coder renforcent les défenses côté client, suggérant de ne jamais laisser des clés privées ou des phrases de récupération transiter par une session d'agent d'IA.
La solution à long terme consiste pour les entreprises d'IA à signer cryptographiquement leurs réponses afin que les instructions qu'un agent exécute puissent être vérifiées mathématiquement comme provenant du modèle réel.
Magazine : Personne ne sait si la cryptographie sécurisée quantique fonctionnera même
- #Ethereum
- #AI
- #Cybercriminalité
- #Cybersécurité
- #IA & Hi-Tech






