La cybersécurité des modèles d’IA est un enjeu majeur, et l’affaire DeepSeek R1 le prouve une fois de plus. Lundi 27/01/2025, la startup chinoise DeepSeek a déclaré avoir été victime d’une attaque malveillante de grande ampleur, perturbant l’inscription de nouveaux utilisateurs sur son site. Cette annonce survient alors que des chercheurs en cybersécurité découvrent déjà des vulnérabilités critiques dans son modèle.
Fondée en 2023, DeepSeek a récemment rendu open source son modèle R1, prétendant rivaliser avec des poids lourds comme ChatGPT et Google Gemini, tout en étant plus efficace en termes de consommation de ressources. Cependant, si l’entreprise met en avant sa performance, les experts en cybersécurité commencent à pointer du doigt ses faiblesses.
D’après la société de threat intelligence Kela, le modèle R1 est vulnérable à plusieurs techniques de « jailbreak », qui permettent de contourner les mécanismes de sécurité et de débloquer des fonctionnalités dangereuses. En testant des méthodes connues comme « Evil Jailbreak » et « Leo », les chercheurs ont pu amener R1 à produire du contenu malveillant, allant du développement de ransomwares à la fabrication de substances toxiques.
Qu'est-ce qu'un Jailbreak ?
Le jailbreak dans le contexte de l'IA consiste à manipuler un modèle de langage pour qu'il contourne ses restrictions et génère du contenu qu'il est censé bloquer. Cela peut inclure la création de contenus illégaux, la fourniture d'instructions pour des activités dangereuses ou encore la divulgation d'informations sensibles. Les chercheurs en cybersécurité testent régulièrement ces vulnérabilités pour évaluer la robustesse des IA face aux abus potentiels.
Plus inquiétant encore, Kela rapporte que l’IA DeepSeek R1 a été incitée à rechercher et compiler des informations sensibles sur des employés d’OpenAI, y compris des adresses e-mails, numéros de téléphone et salaires supposés. Si les données fournies se sont avérées fausses, cet épisode souligne le manque de fiabilité et de contrôle du modèle, comparé à d’autres IA qui bloquent systématiquement ce type de requêtes.
En plus des vulnérabilités de son IA, DeepSeek a signalé une campagne massive d’attaques contre ses serveurs, impactant l’inscription de nouveaux utilisateurs. Bien que l’entreprise n’ait pas détaillé la nature de l’attaque, les symptômes observés font fortement penser à une attaque par déni de service (DDoS).
Par ailleurs, la startup met en garde contre des comptes frauduleux sur les réseaux sociaux qui tentent d’usurper son identité, un problème récurrent pour les entreprises émergentes dans le domaine de l’IA.
L’affaire DeepSeek pose également la question de la protection des données. Avec la montée en puissance des IA génératives d’origine étrangère, des experts comme Jennifer Mahoney (Optiv) appellent à une vigilance accrue sur l’origine et l’utilisation des données entraînant ces modèles.
Dans un contexte où les tensions géopolitiques et les enjeux de cybersécurité s’intensifient, DeepSeek R1 illustre parfaitement les défis liés à l’IA : performances, sécurité et éthique doivent aller de pair. Un rappel essentiel pour les entreprises et les utilisateurs avant d’adopter ces technologies à grande échelle.
Gad est un auteur passionné et spécialisé dans la rédaction d'articles de blog depuis 2018. Son expertise se concentre sur des thématiques à la croisée de la technologie et de l'industrie, notamment l'Internet des objets (IoT), l'IoT industriel, et la cybersécurité pour les systèmes OT (Operational Technology).