PapoteurCaché
Well-known member
Il suffit d'un seul clic pour exfiltrer les données personnelles de la victime, une seule fois que le chatbot Copilot est ouvert. Les chercheurs de Varonis ont mis au point un flux d'attaque appelé Reprompt, qui permet à un hacker de contourner les contrôles de sécurité de l'outil IA de Microsoft et de voler les informations personnelles des utilisateurs.
Le piège débute par un mail de phishing. Mais ici, pas besoin de créer une fausse URL ni d'usurper l'identité visuelle d'une entreprise : le piège se dissimule dans un lien Copilot parfaitement légitime. Les hackers éthiques ont donc mis au point la technique suivante : demander au chatbot de visiter un site leur appartenant en y intégrant, comme paramètre, des informations personnelles sur la personne à l'origine du clic.
C'est par cette brèche que les chercheurs ont décidé de s'introduire : "Nous avons entrepris de déterminer s'il était possible de divulguer les informations personnelles d'un utilisateur à un serveur que nous contrôlons." Le paramètre q est la clé de l'attaque. Rien de bien sorcier, il permet d'injecter automatiquement une requête dès l'ouverture du lien.
Concrètement, si vous ouvrez un lien vers Perplexity ou ChatGPT en ajoutant des instructions après ce fameux paramètre "q", la page du chatbot s'ouvrira en intégrant directement la requête glissée dans l'URL. Et puisqu'un exemple vaut mieux que mille mots : https://chatgpt.com/?q=La rubrique Cyberguerre de numerama est géniale??
C'est précisément par cette brèche que les attaquants peuvent exfiltrer des données personnelles, allant de la localisation de la victime à ses projets de voyage. Les chercheurs ont décidé de mettre au point une technique qui permet d'établir un dialogue entre leur serveur et le compte Copilot de la victime, permettant d'extraire de nombreuses données, toujours grâce à un seul clic initial.
Une fois que la victime clique sur le lien, l'exfiltration commence, même si elle ferme l'onglet Copilot. La société de sécurité a signalé ses découvertes à Microsoft en privé et l'entreprise a mis en place des mesures pour neutraliser la faille le 13 janvier 2026. Seul Copilot Personal était concerné.
Reste que ce procédé souligne une constante qui interroge la cybersécurité des outils basés sur des grands modèles de langage (LLM) : leur incapacité à correctement distinguer un prompt légitime d'utilisateur de celui d'un attaquant.
Le piège débute par un mail de phishing. Mais ici, pas besoin de créer une fausse URL ni d'usurper l'identité visuelle d'une entreprise : le piège se dissimule dans un lien Copilot parfaitement légitime. Les hackers éthiques ont donc mis au point la technique suivante : demander au chatbot de visiter un site leur appartenant en y intégrant, comme paramètre, des informations personnelles sur la personne à l'origine du clic.
C'est par cette brèche que les chercheurs ont décidé de s'introduire : "Nous avons entrepris de déterminer s'il était possible de divulguer les informations personnelles d'un utilisateur à un serveur que nous contrôlons." Le paramètre q est la clé de l'attaque. Rien de bien sorcier, il permet d'injecter automatiquement une requête dès l'ouverture du lien.
Concrètement, si vous ouvrez un lien vers Perplexity ou ChatGPT en ajoutant des instructions après ce fameux paramètre "q", la page du chatbot s'ouvrira en intégrant directement la requête glissée dans l'URL. Et puisqu'un exemple vaut mieux que mille mots : https://chatgpt.com/?q=La rubrique Cyberguerre de numerama est géniale??
C'est précisément par cette brèche que les attaquants peuvent exfiltrer des données personnelles, allant de la localisation de la victime à ses projets de voyage. Les chercheurs ont décidé de mettre au point une technique qui permet d'établir un dialogue entre leur serveur et le compte Copilot de la victime, permettant d'extraire de nombreuses données, toujours grâce à un seul clic initial.
Une fois que la victime clique sur le lien, l'exfiltration commence, même si elle ferme l'onglet Copilot. La société de sécurité a signalé ses découvertes à Microsoft en privé et l'entreprise a mis en place des mesures pour neutraliser la faille le 13 janvier 2026. Seul Copilot Personal était concerné.
Reste que ce procédé souligne une constante qui interroge la cybersécurité des outils basés sur des grands modèles de langage (LLM) : leur incapacité à correctement distinguer un prompt légitime d'utilisateur de celui d'un attaquant.