ChatGPT: le conseguenze dell'Intelligenza Artificiale sulla sicurezza

ChatGPT: le conseguenze dell'Intelligenza Artificiale sulla sicurezza

ChatGPT: le conseguenze dell'Intelligenza Artificiale sulla sicurezza

Le chatbot che sfruttano l’Intelligenza Artificiale (IA) esistono da tempo; infatti, molte aziende le utilizzano per integrare le FAQ sui loro siti web.

ChatGPT è la chatbot supportata dall'IA che ha colpito gli utenti per il suo modo convincente di rispondere alle domande, tanto che è praticamente impossibile capire se la risposta ad una domanda proviene da un essere umano o da una macchina. Questo suscita entusiasmo ma anche preoccupazioni, soprattutto nel mondo della sicurezza informatica.

 

Abuso di chatbot

I sistemi basati sull'IA possono anche essere soggetti ad abusi da parte di criminali informatici, che commettono frodi con l'aiuto di una chatbot.

Ad esempio, dove oggi esistono call center con dipendenti umani per eseguire truffe telefoniche, un giorno potrebbero esserci computer o un centro dati. Infatti, in combinazione con un'altra tecnologia chiamata Vall-E, è possibile imitare le voci con una precisione sorprendente partendo da un piccolo campione vocale. ChatGPT e Vall-E possono diventare un incubo per la sicurezza informatica, soprattutto quando vengono utilizzati per lo spionaggio industriale.

Inoltre, poiché i testi generati da ChatGPT sono simili a quelli scritti dall’uomo in modo sorprendente, essa è in grado di scrivere in pochi secondi saggi di buona qualità e completamente coerenti su qualsiasi argomento. Anche l'uso per diffondere e generare fake news è assolutamente ipotizzabile.

 

Aspetti fondamentali

La base di dati su cui una chatbot basata sull’IA apprende è di estrema importanza. In questo caso si applica il principio "garbage in, garbage out": se si alimenta l'IA con materiale spazzatura, il risultato sarà solo spazzatura.

Quindi è fondamentale selezionare in modo approfondito i materiali ed i dati da cui le chatbot impareranno.

Inoltre, il fatto che il comportamento umano possa essere imitato in modo così ingannevole è motivo di preoccupazione, ma anche di entusiasmo. In futuro dovremo sviluppare metodi che permettano di distinguere tra un vero essere umano e un'IA, soprattutto nei contatti che avvengono via Internet o per telefono.

Per quanto utile sia l'IA e per quanto possa essere comodo integrarla come supporto, non dovremmo fidarci ciecamente di essa.

Come azienda di sicurezza, G DATA Cyber Defense si dedica a questa missione e lavora ogni giorno per rendere il mondo digitale un po' più sicuro.

Articolo tratto dall’originale:

«ChatGPT: What AI holds in store for security» .

Per saperne di più a riguardo di G DATA clicca qui