«L’intelligenza artificiale ci seduce perché ci permette di delegare lo sforzo di pensare» – Bruno Giussani
La frase di Bruno Giussani coglie un punto reale, ma rischia di essere più suggestiva che completa.
È vero che l’intelligenza artificiale può funzionare come una forma di “scorciatoia cognitiva”: strumenti generativi, motori di raccomandazione e assistenti automatici riducono il costo mentale di molte attività – scrivere, riassumere, tradurre, perfino argomentare. In questo senso, la “seduzione” esiste: come già accadeva con calcolatrice elettronica o Google, delegare certe operazioni libera tempo ma può anche atrofizzare abilità se l’uso è passivo.
Tuttavia, la frase diventa discutibile quando implica che l’IA sostituisca il pensiero in modo generalizzato. In realtà, nella maggior parte dei casi, essa trasforma il lavoro cognitivo più che eliminarlo. Usare bene un sistema di IA richiede:
- formulare domande precise,
- valutare l’affidabilità delle risposte,
- integrare le informazioni in un contesto più ampio.
Queste sono attività tipicamente metacognitive, cioè di ordine superiore. Paradossalmente, l’IA può aumentare il carico di pensiero critico invece di ridurlo, soprattutto in ambiti complessi o professionali.
Inoltre, l’idea della “delegazione del pensiero” non è nuova: già Socrate criticava la scrittura perché avrebbe indebolito la memoria. Eppure la scrittura ha reso possibile un pensiero più articolato, non più povero. Allo stesso modo, l’IA può essere vista come un’estensione cognitiva, non necessariamente una rinuncia.
Un limite della posizione di Giussani è quindi il suo carattere unilaterale: enfatizza il rischio (reale) della passività, ma trascura le condizioni d’uso. Il problema non è tanto l’IA in sé, quanto:
- come viene integrata nei processi decisionali,
- quanto restiamo responsabili del giudizio finale,
- se sviluppiamo competenze per usarla in modo attivo.
In sintesi: sì, l’IA può sedurre offrendo scorciatoie. Ma ridurla a uno strumento di delega del pensiero è limitante. Può anche essere, se usata consapevolmente, un moltiplicatore del pensiero – e in alcuni casi, una sua messa alla prova.
Leggi anche: Chi decide cosa è vero?




3 risposte
La posizione di Giussani coglie certamente un nervo scoperto del nostro tempo: la tendenza a “delegare” processi cognitivi alla tecnologia. Ma il modo in cui formula la critica rischia di essere meno neutrale di quanto sembri. Spesso chi denuncia la “seduzione dell’IA” non si limita a evidenziare un rischio; finisce, più o meno implicitamente, per stabilire quali modi di conoscere siano legittimi e quali invece sospetti.
È un vecchio meccanismo: ogni volta che emerge una nuova tecnologia cognitiva, qualcuno la accusa di indebolire l’uomo, ma quasi sempre in nome di un modello di conoscenza che è il proprio, e che si vorrebbe preservare come misura universale. È accaduto con la scrittura (Socrate), con la stampa (Erasmo), con i giornali, con internet, con Wikipedia. Ora con l’IA.
In questo senso, il rischio del discorso di Giussani non è tanto la sottolineatura dei pericoli – reali – quanto la tendenza a trasformarli in un criterio di discriminazione epistemica: da una parte le fonti “giuste”, perché prodotte secondo un certo paradigma (editoriale, giornalistico, accademico); dall’altra le fonti “non giuste”, perché generate da reti neurali o fruite attraverso algoritmi. Ma questa distinzione è più sociologica che filosofica: riflette una difesa corporativa di un ecosistema informativo, non un’analisi neutrale dei processi di verità.
Sul piano filosofico, infatti, la questione è più profonda. La delega di funzioni cognitive non è un tradimento del pensiero: è il modo stesso in cui il pensiero umano si è sempre sviluppato. Ogni esternalizzazione – dalla lingua alla scrittura, dal libro agli strumenti digitali – non ha sottratto capacità, ma le ha trasformate. L’IA, come tutte le tecnologie di estensione cognitiva, non elimina il pensare: ne sposta i confini. Il vero punto non è “se” deleghiamo, ma che cosa diventiamo grazie alla delega.
E qui si apre il limite più evidente della posizione di Giussani: confonde lo strumento con l’uso.
Perché l’IA può effettivamente indebolire il pensiero – ma solo se entra in un contesto già orientato alla passività, già abituato ad accettare risposte preconfezionate, già poco disposto alla verifica. Allo stesso tempo, proprio l’IA può costringere a sviluppare un livello superiore di consapevolezza critica: interpretare, contestualizzare, verificare, riformulare. In altre parole, accresce il ruolo del giudizio, anziché diminuirlo.
Qualcosa di analogo accade in epistemologia: una fonte non è “giusta” perché rientra in un canone, ma perché viene sottoposta a una pratica verificabile di controllo, confronto e argomentazione. E questo vale tanto per un articolo scientifico quanto per un output generativo. Ogni conoscenza, per essere valida, richiede un soggetto che giudica – non un’autorità che decreta cosa è legittimo in partenza.
In conclusione, la critica di Giussani è utile come monito contro la deriva della passività cognitiva. Ma diventa fragile quando scivola verso una sorta di protezionismo epistemico, che pretende di definire a priori le fonti affidabili, senza riconoscere che il vero discrimine non è la natura dello strumento, bensì la qualità dell’uso e del giudizio che lo accompagna. L’IA può essere una scorciatoia; può essere un inganno; ma può anche essere – se trattata con responsabilità e spirito critico – un amplificatore del pensiero e un banco di prova della nostra libertà intellettuale.
la tua risposta è stata scritta dall’IA, e si riconosce per il trattino lungo e le virgolette aperte/chiuse che non sono presenti nella tastiera italiana 🙂
E allora? Che sia scritto con o senza AI è secondario: quello che conta è se gli argomenti stanno in piedi. L’AI (che probabilmente usi anche tu…, visto che la conosci così bene) può aiutare a formulare meglio, ma non sostituisce il pensiero. Se il contenuto regge, l’obiezione, a mio avviso, non ha senso…