Pochi giorni fa ho partecipato al ciclo di incontri “Laboratori Sfide Future” all’Università degli Studi di Brescia, in collaborazione con Confindustria Brescia: un percorso dedicato ai grandi temi che stanno trasformando il mondo delle imprese e della società.
Sono stato invitato come imprenditore che sviluppa soluzioni evolute di Intelligenza Artificiale a parlare agli studenti di “La sfida dell’Intelligenza Artificiale”, ospite del Prof. Alberto Mazzoleni e del Prof. Claudio Teodori.
Durante l’incontro è emersa un’osservazione molto ricorrente: “L’intelligenza artificiale non dice la verità, a volte bleffa.”
È corretto. L’AI può sbagliare e può persino “inventare”.
Ma è altrettanto vero che questo limite viene spesso utilizzato per demonizzare una tecnologia che, se guardata con onestà intellettuale, fa una cosa molto semplice: alza la media.
Sì, gli LLM possono “allucinare”.
Ma è altrettanto vero che, su matematica, fisica, tecnica, filosofia, storia, diritto, economia, oggi rispondono in modo più preciso, puntuale e approfondito della grande maggioranza delle persone comuni.
Me compreso, sia chiaro.
Il paragone andrebbe fatto con l’“italiano medio”, non con il miglior fisico teorico del pianeta.
Anche perché, spiace dirlo, noi non siamo il miglior fisico teorico del pianeta.
E se vogliamo davvero parlare di verità, allora dobbiamo guardare anche a noi stessi.
Secondo i dati PIAAC OCSE, il 28% degli italiani ha competenze di lettura così basse da non comprendere testi complessi, e l’Italia è penultima tra i paesi analizzati. ISTAT aggiunge che il 44% degli italiani fatica a comprendere un testo scritto di media complessità.
Prima di preoccuparci delle “allucinazioni dell’AI”, forse dovremmo preoccuparci delle nostre.
Il punto non è l’AI. Il punto è sapere e comprendere.
L’unico antidoto universale all’errore, umano o artificiale che sia, è sempre lo stesso: istruirsi.
Saper cercare le fonti.
Saper confutare.
Saper riconoscere una sciocchezza quando la leggiamo, la sentiamo o la vediamo.
E, diciamocelo, questo problema esiste da sempre, anche senza AI:
- Quanti sanno verificare se ciò che sentono in TV è vero?
- Quanti riconoscono una notizia falsa sui social?
- Quanti distinguono un dato da un’opinione?
Non è un problema di algoritmi, è un problema di alfabetizzazione.
L’AI non è un pericolo: è un superpotere.
Per la prima volta nella storia dell’umanità, chiunque può avere accesso immediato a una conoscenza ampia, articolata, trasversale.
Nella vita reale, quante persone conoscete in grado di rispondere con competenza su qualsiasi tema? Probabilmente nessuna.
L’AI rappresenta un nuovo livello di estensione della conoscenza umana.
Il meccanismo è semplice:
tu poni una domanda, lei offre una risposta competente, tu verifichi, e così cresci.
Certo, per porre domande intelligenti, precise e puntuali serve già una base di conoscenza. Solo così l’AI può restituire risposte altrettanto precise, corrette e realmente utili.
Ma, se ci pensate, è sempre stato così: senza un minimo di competenza, nessuno strumento restituisce valore.
L’AI non sostituisce il pensiero: lo attiva.
Non sostituisce la conoscenza: la amplifica.
Molti sottolineano l’impatto culturale che questa tecnologia può avere sulla società. È vero.
Ma ricordiamoci che la conoscenza è sempre stata filtrata.
Pensate ai testi religiosi: non sono stati scritti da un’intelligenza artificiale, ma da uomini.
Eppure, miliardi di persone, nel corso dei secoli, hanno ritenuto quelle parole vere perché le considerano ispirate da Dio. Non entro nel merito teologico.
Mi limito a una constatazione: questa “tecnologia culturale” ha avuto, e continua ad avere, un impatto immenso sulla società.
E questo ci porta al punto centrale:
la verità non è mai stata un’informazione oggettiva, ma un atto di fiducia.
Vale per i libri, per la TV, per i giornali, per i social, per i guru di LinkedIn e per il vicino di casa.
E sì, vale anche per l’AI.
Non dobbiamo crederle ciecamente, così come non dovremmo farlo con nessun’altra fonte.
Dobbiamo imparare a usarla con consapevolezza.
Per questo, a mio avviso, la domanda non è:
“L’AI dice sempre la verità?”
La domanda è:
“Siamo pronti, come società e come individui, a usare bene uno strumento che potenzia la nostra capacità di conoscere?”
Perché l’AI sbaglia, sì.
Ma mediamente, e i dati lo dimostrano, è molto più precisa di noi.
E se sappiamo leggere, comprendere e verificare, allora l’AI diventa ciò che è davvero:
la più grande infrastruttura di conoscenza mai resa disponibile a ogni singolo individuo.
Il superpotere è lì.
Sta a noi imparare a usarlo.