I criminali informatici ricorrono a Telegram per aggirare ChatGPT
Check Point Research (CPR), la divisione Threat Intelligence di Check Point Software, ha dimostrato che i criminali informatici utilizzano i bot di Telegram per aggirare le restrizioni poste da ChatGPT, nei forum underground. I bot utilizzano le API di OpenAI per consentire la creazione di e-mail o di codici malevoli.
Gli aggressori che creano i bot, attualmente, concedono fino a 20 query gratuite per poi richiedere successivamente un pagamento di 5,50$ per ogni 100 query.
ChatGPT Bot-as-a-Service su Telegram
CPR ha scovato alcuni annunci di bot di Telegram nei forum clandestini. Questi bot utilizzano l’API di OpenAI per consentire agli aggressori di creare e-mail o codici malevoli, concedendo 20 query gratuite, per poi addebitare 5,50$ a ogni 100 query.
Figura 1. Pubblicità del forum underground del bot OpenAI su Telegram
Figura 2. Esempio di un’email di phishing creata per dimostrare la possibilità di utilizzare le API di OpenAI senza limitazioni
Figura 3. Esempio della possibilità di creare un codice malware senza restrizioni anti-abuso in un bot Telegram utilizzando l’API OpenAI
Figura 4. Modello di business del canale Telegram basato sull’API ChatGPT
Script per aggirare le restrizioni ChatGPT
CPR ha anche osservato che i criminali informatici creano script di base che utilizzano le API di OpenAI per evitare limitazioni e le restrizioni anti-abuso.
Figura 5. Esempio di uno script che interroga direttamente l’API e aggira le restrizioni per creare malware
Sergey Shykevich, Threat Group Manager di Check Point Software:
“In quanto parte della sua content policy, OpenAI ha creato barriere e restrizioni per evitare la creazione di contenuti malevoli sulla sua piattaforma.
Tuttavia, i cybercriminali hanno le capacità per aggirare le restrizioni di ChatGPT, ed è in corso una discussione attiva nei forum clandestini che rivela come utilizzare le API di OpenAI per aggirare queste limitazioni.
A questo scopo vengono creati bot su Telegram che utilizzano l’API e che vengono pubblicizzati nei forum di hacking per aumentarne l’esposizione.
La versione attuale dell’API di OpenAI è utilizzata da applicazioni esterne e ha pochissime misure anti-abuso. Di conseguenza, consente la creazione di contenuti pericolosi, come e-mail di phishing e codici malware, senza le barriere imposte da ChatGPT per la propria interfaccia utente.
Dobbiamo essere consapevoli che i criminali informatici continueranno a cercare modi per aggirare le restrizioni di ChatGPT”.