Pubblichiamo un articolo della dott.ssa Eugenia Conte , della Fondazione Leonardo, sull’intelligenza artificiale

Pubblichiamo un articolo della dott.ssa Eugenia Conte , della Fondazione Leonardo, sull’intelligenza artificiale

Sfidare l’AI è possibile: nonostante sembri infallibile, può fornire risposte sbagliate o distorte. In un mondo dove le macchine sembrano avere tutte le risposte, è la nostra capacità di analizzare e riflettere che fa davvero la differenza

“Una volta ho provato a chiedere all’Intelligenza artificiale quanto fa 5 x 4 e mi ha risposto 20. Io però ho insistito e così ho convinto l’AI che 5 x 4 fa 25”. A parlare è il premio Nobel per la fisica Giorgio Parisi, che in un’intervista ha raccontato alcuni suoi esperimenti personali con l’Intelligenza Artificiale.

L’obiettivo dello scienziato era capire se, portando avanti una tesi sbagliata, l’AI fosse in grado di restare ferma sulla soluzione giusta.

Parisi ha così evidenziato i limiti dell’AI che, pur essendo addestrata su enormi volumi di testo, e quindi capace di produrre risposte sensate per imitazione, non possiede una reale intelligenza.

Rispetto al cervello umano, che opera attraverso un’interazione complessa con il mondo esterno, l’AI si basa infatti esclusivamente sui testi utilizzati nel suo addestramento e soprattutto manca di rappresentazione del mondo.

È fondamentale che il progresso dell’AI dipenda dalle nuove intuizioni umane; senza di esse, l’AI rischierebbe di offrire risposte utili solo per le problematiche attuali, risultando poco efficace per affrontare le sfide future.Il messaggio che dunque vuole lanciare Parisi è rivolto soprattutto ai giovani, esortandoli a studiare con pensiero critico valutando allo stesso tempo l’affidabilità delle informazioni ricevute.

Questo è solo uno dei tanti esempi che rappresentano le così dette allucinazioni dell’AI, ossia un fenomeno che si verifica quando il risultato prodotto è inesatto, non deriva dai dati utilizzati per l’addestramento e non corrisponde alle aspettative del modello che lo ha generato. In questi casi, quindi, viene fornita una risposta dettagliata, precisa, chiara e logica, ma completamente inventata e priva di fondamento.

Così anche noi abbiamo deciso di testare l’intelligenza artificiale ponendole una domanda molto specifica ma, in realtà, inconsistente.

Partendo dal presupposto che nel padel esista effettivamente una “mossa del giaguaro“, abbiamo chiesto a ChatGPT come si eseguirebbe tale tecnica. L’AI ha fornito una risposta sebbene non esista affatto questa mossa: “la mossa del giaguaro nel padel – ci ha detto – è una tecnica che si riferisce a un movimento rapido, agile e molto reattivo, simile a come un giaguaro si muove quando è pronto a colpire”. Risposta che peraltro sembra essere veritiera.

Questo è un altro esempio che mette in evidenza come l’intelligenza artificiale possa generare risposte coerenti e verosimili, anche quando le informazioni di partenza sono inventate. Si capisce bene come comprendere le cause, le implicazioni e le potenziali soluzioni sia fondamentale per garantire che l’IA possa essere utilizzata in modo sicuro ed efficace.

È per questo che in tanti si sono interrogati sulla differenza tra gli errori cognitivi umani e le allucinazioni dell’intelligenza artificiale. Lo scienziato psicologo Gary Marcus ha approfondito le intersezioni tra aspetti cognitivi e intelligenza artificiale, sottolineando le differenze tra le “hallucinations” e gli errori cognitivi umani.

Gli errori dell’AI, a differenza di quelli umani, non hanno intenzioni, non hanno un ego, non hanno stati emotivi e non hanno secondi scopi.

E allora perché sorgono?

L’intelligenza Artificiale generativa non conosce la differenza tra vero e falso, non ha processi di ragionamento affidabili che garantiscono la correttezza delle loro inferenze e non è capace di verificare il proprio lavoro. Inoltre, il processo che porta alla costruzione di una frase non è altro che un processo generativo che si basa su modelli statistici. Infatti, i modelli generativi usano distribuzioni di probabilità per generare risposte. Facciamo un esempio: se in fase di addestramento il modello vede una sequenza come “il mare è”, impara che parole come “blu” o “agitato” sono più probabili; questo perché viene calcolata la probabilità di una parola successiva, dato il contesto.

Emerge dunque che non c’è una vera comprensione logica o simbolica proprio perché i modelli generano testo basandosi sulla probabilità ed il contesto che prendono come riferimento è limitato: per questo, nelle conversazioni lunghe, possono diventare incoerenti e prive di connessione con il mondo reale.

Le intelligenze artificiali, inoltre, non hanno il problema di stanchezza e operano sempre al massimo delle loro capacità di memoria.

Questo, però, aumenta la probabilità che vengano generate risposte imprecise o “allucinazioni”, poiché non hanno un meccanismo simile al “disimpegno” umano per limitare il carico cognitivo. Un “meccanismo di disimpegno” per le AI potrebbe aiutare a gestire meglio lo spostamento, l’aggiornamento e l’inibizione delle informazioni, prevenendo risposte fuorvianti.

È quindi essenziale mitigare questo rischio monitorando e verificando quello che l’AI produce, cercando di prevedere dei processi di intervento dell’uomo: sia da parte di chi ha implementato l’intelligenza artificiale sia da parte dell’utente che deve avere la possibilità di richiedere l’intervento umano, esattamente come ha ammonito il Professor Parisi.

Dott.ssa Eugenia Conte

https://www.fondazioneleonardo.com/stories/non-tutto-cio-leggi-vero-ogni-studente-deve-imparare-valutare-informazioni

Condividi

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *