Une nouvelle menace de cybersécurité, particulièrement insidieuse, cible les professionnels utilisant ChatGPT. Ce malware, identifié par plusieurs sociétés de sécurité, ne se contente pas de voler des mots de passe ; il extrait systématiquement l'historique complet des conversations des comptes ChatGPT compromis. Ces historiques peuvent contenir des informations commerciales sensibles, du code propriétaire, des stratégies marketing ou des données personnelles identifiables, faisant de cette attaque un risque majeur pour les entreprises.

Fonctionnement du malware 'ChatGPT Stealer'

Le malware infecte généralement les machines via des pièces jointes d'emails d'hameçonnage sophistiqués ou des téléchargements malveillants déguisés en outils de productivité légitimes. Une fois installé, il procède de plusieurs façons. Il peut intercepter les cookies de session du navigateur, permettant aux attaquants de se connecter directement au compte ChatGPT de la victime sans besoin du mot de passe. Il scanne également les navigateurs pour récupérer les identifiants enregistrés. Mais son action la plus dangereuse est l'exfiltration du cache local ou des logs d'application qui stockent les conversations passées.

La valeur des historiques de conversation

Contrairement à un mot de passe bancaire, la valeur d'un historique ChatGPT n'est pas immédiatement évidente pour tous les utilisateurs. Pourtant, pour une entreprise, ces logs peuvent révéler des axes de R&D (« améliore ce code pour un moteur de recommandation »), des faiblesses opérationnelles (« rédige un plan pour réduire les coûts logistiques ») ou des informations sur des clients. Ces données deviennent une mine d'or pour l'espionnage industriel, le chantage ou la préparation d'attaques plus ciblées.

Les vecteurs d'attaque et les victimes privilégiées

Les attaquants semblent cibler en priorité les employés de secteurs technologiques, financiers et de la recherche. Les méthodes d'infiltration sont adaptées : un email semblant provenir d'un collègue demandant de revoir un « prompt d'IA pour le projet X », ou un faux plugin ChatGPT promettant des fonctionnalités premium. Le malware est souvent polymorphe, changeant légèrement sa signature pour échapper aux antivirus traditionnels. Il peut aussi rester dormant pendant un temps pour éviter la détection.

Réponse d'OpenAI et mesures de sécurité

OpenAI a été alerté de ces campagnes et recommande fortement l'utilisation de l'authentification à deux facteurs (2FA) sur tous les comptes. La société rappelle également que les utilisateurs peuvent consulter et supprimer leur historique de conversation dans les paramètres. Pour les comptes professionnels (ChatGPT Team/Enterprise), des fonctionnalités de sécurité supplémentaires existent, comme la désactivation de l'enregistrement des conversations pour la formation des modèles et un meilleur contrôle administrateur.

Recommandations pour se protéger

Les experts en sécurité conseillent une approche en plusieurs couches. Sur le plan technique : utiliser un gestionnaire de mots de passe unique, activer systématiquement le 2FA, maintenir les navigateurs et antivirus à jour, et être extrêmement méfiant vis-à-vis des extensions et plugins liés à l'IA. Sur le plan organisationnel : les entreprises doivent sensibiliser leurs employés à cette menace spécifique, établir des politiques d'usage pour ChatGPT (interdiction de partager des informations critiques), et envisager des solutions sécurisées d'accès à l'IA (via API avec journalisation contrôlée).

L'avenir des menaces liées à l'IA générative

Cette attaque est un signe avant-coureur. À mesure que l'IA s'intègre dans les workflows, elle devient une nouvelle surface d'attaque. Les cybercriminels développeront des malwares ciblant d'autres plateformes (Midjourney, GitHub Copilot, etc.) et exploiteront l'IA elle-même pour créer des messages d'hameçonnage plus convaincants. La cybersécurité doit évoluer pour protéger non seulement les données statiques, mais aussi les interactions dynamiques et les actifs intellectuels générés dans ces environnements.

En conclusion, l'émergence d'un malware dédié au vol d'historiques ChatGPT souligne la maturité et la valeur économique des outils d'IA générative. Elle transforme ces plateformes en cibles de choix pour les cybercriminels. La protection des comptes d'IA doit désormais faire partie intégrante des politiques de sécurité informatique des entreprises, au même titre que la protection des emails ou des serveurs de fichiers.