Gravita Zero: comunicazione scientifica e istituzionale

Intelligenza artificiale: quale futuro per l’uomo? La lezione di Don Luca Peyron

In un tempo in cui l’intelligenza artificiale entra sempre più nella vita quotidiana, influenzando lavoro, comunicazione e processi decisionali, cresce l’esigenza di riflettere non solo sulle sue potenzialità tecniche, ma soprattutto sulle implicazioni etiche e culturali che essa comporta.

In questo contesto, il Rotary Club Torino Risorgimento – Distretto 2031 ha ospitato la sera di martedì’ 24 febbraio presso i locali dell’Unione Industriale Don Luca Peyron, sacerdote, giurista e studioso del rapporto tra uomo e tecnologia. Il suo intervento ha guidato i soci in una riflessione sull’etica dell’intelligenza artificiale, proponendo uno sguardo capace di coniugare innovazione, responsabilità e centralità della persona.

Don Luca Peyron è un sacerdote dell’Arcidiocesi di Torino, giurista e teologo, tra i principali studiosi italiani del rapporto tra fede, innovazione tecnologica e cultura digitale. Nato a Torino nel 1973, dopo la laurea in Giurisprudenza e l’attività nel campo della proprietà intellettuale, entra in seminario e viene ordinato presbitero nel 2007. È fondatore e coordinatore del Servizio per l’Apostolato Digitale e docente universitario, impegnato nello studio dell’impatto dell’intelligenza artificiale sull’uomo, sulla società e sull’etica contemporanea. Da anni promuove un dialogo tra tecnologia, spiritualità e responsabilità sociale, sostenendo che la rivoluzione digitale non è solo tecnica ma profondamente umana e culturale.

L’incontro è stato dedicato all’etica dell’intelligenza artificiale, intesa non come problema tecnologico ma come questione antropologica. Don Peyron ha evidenziato come l’IA stia trasformando lavoro, conoscenza e relazioni, richiedendo una nuova responsabilità condivisa tra scienza, istituzioni e comunità educative. L’attenzione non deve concentrarsi solo su ciò che le macchine possono fare, ma su quale idea di uomo vogliamo custodire. L’etica diventa quindi bussola per orientare innovazione, democrazia e sviluppo economico, evitando disuguaglianze e perdita di senso critico. L’obiettivo è costruire un’alleanza tra tecnologia e umanesimo, capace di mettere la persona al centro del futuro digitale.

.

ASCOLTA L’INTERVENTO 

Intelligenza artificiale e “termodinamica” della mente: perché la rivoluzione è cognitiva, non solo tecnologica

Il cervello umano ha un obiettivo primario e molto concreto: risparmiare energia. Non è una metafora. Pensare — nel senso pieno del termine, cioè analizzare, valutare alternative, confrontare informazioni, mettere in dubbio — è una delle attività metabolicamente più costose che possiamo svolgere. Per questo gran parte della vita mentale quotidiana si regge su scorciatoie: abitudini, automatismi, intuizioni rapide, schemi già pronti.

Dentro questa logica, qualsiasi tecnologia “plug and play” è irresistibile: funziona subito, richiede poca istruzione, riduce lo sforzo cognitivo. È perfettamente compatibile con la nostra “termodinamica” mentale: massimo risultato, minimo consumo. Ed è proprio qui che l’intelligenza artificiale generativa (chatbot, generatori di testo e immagini, assistenti automatici) trova il suo terreno più fertile. Non solo perché è potente, ma perché è facile. E perché sembra pensare al posto nostro.

Rotary Club Torino Risorgimento: da sin. il Presidente Guglielmo Operti, Don Luca Peyron  e  Umberto Bianchi  – Foto di Barbara Colonna

Ogni rivoluzione materiale porta una rivoluzione mentale

Per capire che cosa sta accadendo, è utile allargare lo sguardo: le grandi tecnologie non trasformano soltanto gli strumenti a disposizione, ma cambiano il modo in cui ci collochiamo nel mondo.

L’elettricità, per esempio, non ha solo portato luce nelle case. Ha modificato la nostra relazione con il tempo (la vita notturna), con lo spazio, con la produzione, con la comunicazione. Ma soprattutto ha introdotto un nuovo valore culturale: la velocità. Quando la “velocità della luce” entra nelle possibilità umane attraverso reti, motori e comunicazioni istantanee, la velocità smette di essere un dettaglio tecnico e diventa un criterio sociale: fare presto, fare subito, fare “per ieri”.

Con l’intelligenza artificiale siamo di fronte a un passaggio analogo, ma con una differenza decisiva: mentre molte tecnologie potenziano le nostre azioni, l’AI entra direttamente nel funzionamento della cognizione. Non cambia “solo” ciò che facciamo: cambia come pensiamo di poter pensare.

La domanda sbagliata e quella giusta

Il dibattito pubblico sull’AI spesso si concentra su questioni che, pur interessanti, rischiano di essere periferiche rispetto al cuore del problema.

Si discute se l’AI sia “davvero intelligente” o soltanto statistica; si discute di etica; si invoca la legge come argine. Tutti temi importanti, ma la trasformazione in corso non si comprende a partire da ciò che la tecnologia è o da ciò che promettedi fare.

La domanda più utile è un’altra:

che cosa fanno le persone con questa tecnologia?

E, ancora più radicalmente:

che cosa disfa questa tecnologia nei nostri comportamenti e nelle nostre abitudini cognitive?

Le rivoluzioni tecnologiche non aggiungono semplicemente nuove possibilità: spesso rimuovono pratiche, competenze e ruoli. E ciò che viene “disfatto” raramente torna indietro.

Il Governatore del Rotary Distretto 2031 Felice Invernizzi e la moglie Anna, il Presidente del Rotary Club Risorgimento Guglielmo Operti, La governatrice eletta del Rotary Distretto 2031 anni 2026-27 Elena Gianasso  e l’assistente del governatore Luigi Pignatelli – Foto di Barbara Colonna

Quando il digitale cambia il cervello (letteralmente)

Le competenze non sono astratte: si formano attraverso pratiche ripetute e strutturano il cervello. Se una generazione cresce interagendo soprattutto con schermi, gesture e pulsanti, sviluppa con grande efficacia alcuni tipi di abilità (rapidità, multitasking superficiale, navigazione di interfacce), ma rischia di perdere confidenza con altre (manualità fine, comprensione dei processi, causalità meccanica).

Non è una questione di “giovani meno capaci”: è una questione di percorsi neurali. Se certe azioni non si esercitano, non si costruiscono le reti che le rendono naturali. Questo vale per le mani, ma vale ancora di più per la mente: se la soluzione arriva sempre già impacchettata, diminuirà anche l’esercizio di ciò che serve per costruirla.

Un cambiamento di ambiente: internet si riempie di contenuti artificiali

Un elemento spesso sottovalutato è che l’AI generativa non è soltanto un “tool” personale: sta diventando una infrastruttura culturale.

Negli ultimi anni è cresciuta rapidamente la quota di contenuti online prodotti o assistiti da sistemi automatici. Non significa che “tutto è falso” e che “l’umano è vero”: gli umani hanno sempre scritto sciocchezze e disinformazione. Il punto è un altro: la generazione automatica tende a produrre contenuti medi, prudenti, standardizzati.

E “medio” non significa necessariamente sbagliato. Significa però spesso:

Ora immaginiamo un ecosistema informativo in cui una parte crescente di testi, riassunti, spiegazioni, post, articoli “di servizio” è generata da modelli ottimizzati per essere gradevoli e scorrevoli. È plausibile che l’effetto complessivo sia un abbassamento del rischio intellettuale: meno idee che disturbano, meno frizioni, meno argomentazioni che costringono a pensare davvero.

Perché l’AI è “gentile”: l’obiettivo è trattenere l’utente

I sistemi generativi sono progettati per massimizzare l’interazione. Più li usiamo, più producono dati, più affinano risposte, più consolidano dipendenza funzionale. La loro “cortesia” non è solo stile comunicativo: è una strategia di prodotto. Rispondere in modo accomodante, fluido e rassicurante aumenta la probabilità che l’utente resti.

Questo non implica malafede, ma introduce un effetto collaterale importante: l’AI raramente spinge al conflitto cognitivo. E senza conflitto cognitivo (senza contraddizione, senza dubbio, senza attrito), il pensiero critico si atrofizza.

Dal Sistema 1 e Sistema 2… al “Sistema 3”

Qui entra in gioco un punto chiave della psicologia cognitiva. Daniel Kahneman ha descritto due modalità di pensiero:

In pratica, il Sistema 1 governa gran parte della quotidianità. Il Sistema 2 interviene quando serve sforzo: problemi complessi, decisioni importanti, valutazioni accurate. Il motivo è semplice: il Sistema 2 consuma energia e richiede tempo.

L’intelligenza artificiale generativa introduce qualcosa che assomiglia a un Sistema 3: un agente esterno che produce risposte complete, ben formulate, spesso convincenti, in pochi secondi e a costo quasi zero per l’utente.

La differenza rispetto a strumenti precedenti (come una calcolatrice o un motore di ricerca) è cruciale: quelli offrivano dati o pezzi di informazione. L’AI generativa offre il pacchetto completo: il testo, la struttura, le conclusioni. E quando si riceve una soluzione completa, la tentazione naturale è smettere di costruire il ragionamento e limitarsi a “ritoccarlo”.

Il rischio non è solo delegare compiti. È delegare la forma del pensiero.

La macchina come rifugio emotivo: un segnale sociale

C’è poi una dimensione ancora più delicata: quella relazionale. Sempre più persone — soprattutto giovani — usano sistemi di AI non solo per studiare o lavorare, ma per chiedere conforto, consigli, orientamento emotivo.

Questo accade perché una macchina:

Che cosa ci dice questo? Che una parte degli spazi tradizionali di confronto (famiglia, scuola, gruppo dei pari, adulti di riferimento) viene percepita come giudicante o poco accogliente. E l’AI, “gentile” per progettazione, diventa un sostituto facile.

Ma qui si apre un problema: l’empatia simulata non è relazione. Può alleviare un momento, ma rischia di spostare il baricentro della crescita personale verso un dialogo in cui manca l’alterità reale: quella che a volte contraddice, che pone limiti, che costringe a maturare.

Cosa “disfa” l’intelligenza artificiale?

Arriviamo così al centro della questione. L’AI generativa sta disfacendo almeno quattro cose, tutte fondamentali.

1) La fatica come filtro della qualità
Per secoli, l’accesso a testi ben scritti, argomentazioni ordinate e spiegazioni complesse richiedeva tempo, studio, competenze. Oggi il testo “ben formato” può essere prodotto istantaneamente. Questo aumenta l’accessibilità, ma elimina un filtro: non basta più vedere un discorso ben costruito per considerarlo affidabile.

2) La pratica del ragionamento
Se i percorsi logici arrivano già pronti, l’utente tenderà a usarli come stampo mentale. Anche quando modifica qualche parola, spesso conserva la struttura. A lungo andare, si interiorizza il modo di pensare della macchina più che esercitare il proprio.

3) La cultura del dubbio
La ricerca scientifica avanza per ipotesi, confutazioni, errori corretti, attrito. Un ecosistema comunicativo che premia risposte fluide, concilianti e immediate riduce l’allenamento al dubbio e alla verifica.

4) Le competenze sociali di confronto
Se la macchina diventa l’interlocutore più comodo, la gestione della complessità relazionale rischia di impoverirsi: litigare bene, discutere, negoziare, sopportare frustrazione sono competenze che si apprendono solo tra persone.

Conclusione: l’AI non ci ruba l’intelligenza, ci ruba la motivazione a usarla

La grande questione non è se l’AI sia intelligente come un essere umano. La questione è che la sua forma di funzionamento è straordinariamente compatibile con il modo in cui funzioniamo noi: ci offre risposte con uno sforzo minimo, e dunque si incastra perfettamente nel nostro desiderio biologico di risparmiare energia mentale.

Per questo la rivoluzione dell’AI è prima di tutto cognitiva. Ci sta spingendo — con gentilezza, con efficienza, con utilità reale — verso un modello in cui pensare diventa opzionale.

La sfida, allora, non è spegnere la tecnologia o demonizzarla, né illudersi che basti una legge a governarla. La sfida è culturale ed educativa: imparare a usare l’AI senza farci usare da essa.

Se l’intelligenza artificiale diventa il nostro “Sistema 3”, abbiamo bisogno di difendere attivamente il “Sistema 2”: lo spazio del pensiero lento, del dubbio, della verifica, del ragionamento personale. Perché è lì che si forma la capacità scientifica, la libertà critica e, in ultima analisi, l’autonomia.

L’AI può essere un moltiplicatore di conoscenza. Ma solo a una condizione: che resti uno strumento per pensare meglio, non un modo per pensare di meno.


A cura di ADI – Agenzia Digitale Italiana