Categorie
intelligenza artificiale

AI Generativa: storie fantastiche del Dark Web

Il titolo potrebbe richiamare Guerre Stellari ma purtroppo non è così. L’AI Generativa che sta sempre più spopolando, resa (per ora) libera e disponibile è usata anche per scopi criminali, come la vendita di script fraudolenti sul Dark Web.

Dark Web: l’AI Generativa crea la Minaccia Fantasma

Questo mio articolo prende spunto dal post pubblicato pochi giorni fa da CPR (Check Point Research). Una indagine, una ricerca, svolte utilizzando ChatGPT e provando a forzarla anche contro le policy di contenuto di OpenAI.

A difesa di OpenAI bisogna dire che segnala le violazioni, ma è anche vero che è come la mamma che dice al bimbo “monello non si fa”. Conoscete un bambino che ascolta?

Risultato: cybercriminali che forzano i filtri del sistema e generano malware, script dannosi e codice con falle di sicurezza.

Una Minaccia Fantasma, un problema invisibile perché nascosto nel sottobosco del Dark Web. Non solo piacevoli racconti di Natale dunque.

Il caso specifico

Nell’articolo di CPR analizzano essenzialmente tre post trovati in un forum di haker dove si dichiarava tranquillamente l’uso di AI Generativa, in particolare ChatGPT, per creare contenuti illegali:

  • uno in cui vengono ricreati dei malware a partire da ricerche scientifiche nate per smascherarli
  • uno in cui si crea e condivide uno script in Python utilizzando chiavi crittografiche private con scopi malevoli
  • infine un thread in cui l’hacker dichiarava la facilità con cui ChatGPT lo aveva aiutato a creare un marketplace per il Dark Web dove vendere automazioni per attività illecite.

Un watermark svelerà l’AI Generativa nel Dark Web?

Grazie all’ottimo articolo su The Algorithmic Bridge (una newsletter che vi consiglio!) ho scoperto uno studio in corso da parte di OpenAI per supportare una maggiore AI Safety dei loro servizi: i testi generati potrebbero presto contenere un watermark, qualcosa utilizzato da OpenAI stessa per riconoscere i contenuti da loro generati.

Auspicabile? Sì. D’altra parte come ho più volte detto l’uso delle tecniche di creazione testi dovrebbe essere a supporto umano e non sostitutivo.

Secondo me la possibilità unica di riconoscere un testo generato (codice o articolo giornalistico che sia) non dovrebbe spaventare, anzi, essere un deterrente per un uso errato della tecnologia.

Conclusione: anche gli Hacker hanno un’anima (economica)

L’attività lavorativa ha un costo di produzione che non si può ignorare. Sia che si lavori per trovare nuove soluzioni, per fare ricerca e migliorare la società, sia che si ci si alzi ogni mattina cercando nuovi modi per creare disagio.

Sarebbe stato strano dunque se l’AI Generativa non fosse stata utilizzata anche per scopi illegali. Per fare efficenza di costi…

Come ho detto altre volte è necessario trovare una cultura dell’utilizzo della potenza che l’Intelligenza Artificiale può fornire.

Probabilmente questa è al momento la cosa più importante e urgente da fare.