ChatGPT spiega le truffe già in atto sull’intelligenza artificiale

Da nuove forme di phishing alla creazione di contenuti falsi, la criminalità informatica sta già studiando come sfruttare il boom dei nuovi super computer

E' nata una nuova era dell'intelligenza artificiale cosiddetta generativa
E' nata una nuova era dell'intelligenza artificiale cosiddetta generativa

E’ nata una nuova era per l’intelligenza artificiale generativa, quella cioè capace di generare contenuti di svariato tipo: testi, video, immagini.

Moltissime società stanno sviluppando programmi e tools in grado di svolgere funzioni molto diversificate tra loro. Tra questi, si segnala ChatGPT di OpenAi, un chatbot testuale che è in grado di fornire un livello di comnversazione di altissimo livello e che è figlio di un sistema avanzato di machine learning, con una capacità di apprendimento automatico d’altissimo livello.

La chiave per l’interazione tra uomo e macchina (anzi, supercomputer) è l’uso corretto dei prompt, ossia delle richieste che possiamo sottoporre al chatbot.

Esiste una sorta di loop, se vogliamo: gli umani ingurgitano di dati e informazioni i super computer ma poi, per ritrovarli, devono (gli umani) chiedersi come ragionano le macchine…

Ecco cosa abbiamo fatto.

Prompt di OpenAI: scrivi un articolo sintetico dove spieghi per punti quali truffe si possono commettere con chatGPT e altri strumenti di intelligenza artificiale

Ed ecco la risposta – praticamente in tempo reale – di ChatGPT:

  1. Phishing: gli utenti possono essere ingannati utilizzando messaggi generati dall'Intelligenza Artificiale per indurli a fornire informazioni sensibili, come password o informazioni sulla carta di credito.
  2. Generazione di contenuti falsi: gli strumenti di Intelligenza Artificiale possono essere utilizzati per generare notizie false o recensioni fraudolente, ingannando i consumatori e danneggiando la reputazione delle aziende.
  3. Impersonificazione: gli attaccanti possono utilizzare l' Intelligenza Artificiale per impersonare un individuo o un'organizzazione, ingannando le vittime per ottenere informazioni o soldi.
  4. Manipolazione delle decisioni: l'Intelligenza Artificiale può essere utilizzata per manipolare le decisioni degli utenti attraverso la personalizzazione dei contenuti o l'algoritmo di ricerca.
  5. Spamming: gli strumenti di Intelligenza Artificiale possono essere utilizzati per generare messaggi di spam in massa, invadendo la privacy degli utenti e causando disservizi.

E' importante notare che l'Intelligenza Artificiale può essere utilizzata sia per prevenire questi tipi di truffe che per commetterle, e che è importante per gli utenti e le aziende rimanere vigili e adottare misure di sicurezza adeguate per proteggersi dalle minacce online.

Sino a qui la risposta del sistema, a cui avevamo chiesto un articolo sintetico. Con un prompt diverso – ad esempio “scrivi un articolo lungo” – avremmo avuto una risposta diversa.

La prima stagione del podcast Guardie e Ladri, una produzione Onepodcast
La prima stagione del podcast Guardie e Ladri, una produzione Onepodcast

Le cinque fattispecie di utilizzo criminale dell’intelligenza artificiale sono in realtà solo una parte degli scenari che si stanno configurando. Se ne occupa la seconda serie di Guardie e Ladri, il podcast di Onepodcast in fase di lavorazione, curato da Paolo Cagnan e Giovanni Ziccardi.

La prima stagione – “Chi ci ruba i dati, come e soprattutto perché – è disponibile qui su Repubblica ma anche su Apple Podcast.

Nella seconda stagione, oltre ai rischi legati allo sviluppo dell’intelligenza artificiale, ci saranno temi caldi come le sextortion (le estorsioni e i ricatti su base sessuale), i rischi che corrono i minori, il fenomeno delle criptovalute e altro ancora.

Tornando alle truffe legate all’IA, secondo Europol i criminali informatici sfrutteranno l'IA sia come vettore di attacco che come superficie di attacco. I deep fake sono attualmente l'uso più noto dell'IA come vettore di attacco. Tuttavia, in futuro saranno necessarie nuove tecnologie di screening per mitigare il rischio di campagne di disinformazione e di estorsione, nonché di minacce che mirano a set di dati di IA.

Se leggete in inglese, qui c’è un articolo tecnico che specifica alcune tipologie d’attacco. Bisogna fare molta attenzione alle App malevole che si fingono ChatGPT. Per non parlare dell’uso che sul DarkWeb potrebbe essere fatto di questo strumento, ad esempio per alimentare marketplace illegali.   

Riproduzione riservata © Il Mattino di Padova