Dans le monde en constante évolution de la technologie, il n’est pas rare que des chercheurs en cybersécurité découvrent des failles de sécurité potentiellement dangereuses. Cette fois-ci, c’est une nouvelle vulnérabilité qui vient d’être mise en lumière, affectant les modèles de langage alimentés par l’intelligence artificielle. Si vous interagissez régulièrement avec des chatbots comme ChatGPT ou Google Bard, cette information pourrait vous intéresser.
L’Indirect Prompt Injection : Une Nouvelle Menace
Lorsque vous dialoguez avec un chatbot alimenté par une IA générative, vous saisissez des instructions sous forme de texte, appelées “prompts”, qui permettent au système de comprendre votre demande. Cependant, pour éviter des utilisations illégales ou frauduleuses, ces chatbots sont équipés de protections qui les empêchent de fournir des informations sensibles en réponse à des prompts suspects. Ainsi, vous ne devriez jamais obtenir de conseils pour commettre un crime en utilisant ces chatbots.
Cependant, une nouvelle menace, appelée “Indirect Prompt Injection”, vient d’être identifiée. Au lieu de fournir un prompt directement dans la conversation, il est désormais possible de fournir des instructions cachées à un modèle de langage via un document PDF ou une page web, contournant ainsi ces mesures de protection. Des centaines de cas d’Indirect Prompt Injection ont déjà été signalés, ce qui suscite de vives préoccupations.
Les Risques Associés
Cette technique ouvre la porte à de nombreuses possibilités dangereuses, telles que le vol de données, l’exécution de code malveillant ou la manipulation d’informations. Vijay Bolina, responsable de la sécurité de l’information chez Google DeepMind, souligne la gravité de cette menace. Alors que l’injection indirecte était autrefois rare, elle devient de plus en plus courante depuis que les modèles de langage peuvent être connectés à Internet et à divers plugins.
La Lutte pour la Sécurité
Bien qu’il n’existe pas de solution miracle, Google DeepMind travaille activement sur le développement de modèles d’IA capables de détecter de telles activités suspectes. Il s’agit d’un jeu du chat et de la souris entre les fournisseurs de services et les hackers, où la question cruciale demeure : qui sera le plus rapide pour anticiper et contrer les menaces ?
En conclusion, cette faille de sécurité affectant les IA génératives, y compris ChatGPT et Google Bard, constitue un rappel important de la nécessité de rester vigilants dans un monde de plus en plus connecté et dépendant de l’IA. Les utilisateurs et les entreprises doivent prendre des mesures pour renforcer leur sécurité en ligne et surveiller de près les développements futurs dans ce domaine en constante évolution.