- Les chercheurs de Abnormal Security, experts dans la protection des courriers électroniques contre les menaces avancées viennent de signaler GhostGPT, un chatbot d’IA accessible sur Telegram.
- Moyennant paiement, il permet de créer des logiciels malveillants, des e-mails de phishing et diverses cyberattaques.
- Il a notamment été utilisé pour des fraudes ciblant les entreprises via des e-mails usurpant l’identité d’un collaborateur ou d’un partenaire, des attaques BEC (business email compromise), une forme de spear phishing.
- GhostGPT repose sur une version jailbreakée d’un LLM open source, d’après Abnormal Security.
- Il fonctionne donc sans restrictions, offrant des réponses directes à des demandes sensibles ou dangereuses.
- À SURVEILLER : L’émergence des IA criminelles. Le risque d’une utilisation criminelle des IA open source a été dénoncé dès 2023 (lire Qant du 9 mai 2023). Il semble éclipsé aujourd’hui par la volonté officielle de l'administration américaine d’imposer, au nom de l’antiwokisme, des LLM avec le moins de restrictions possibles.
L’IA fantôme au cœur des cyberattaques
GhostGPT, un bot Telegram, facilite la création de cyberattaques de toutes sortes.