"Tre notti insonni" (cit. Ethan Mollick)

Quando l’IA entra in casa (e in classe) davvero

(Recensione e riflessioni ispirate al libro di Ethan Mollick)


C’è una scena che, ormai, si ripete in tante case.

Un ragazzo con il quaderno aperto. Un adulto che prova a dare una mano. Una domanda che sembra semplice (“mi spieghi sta cosa?”) e poi quel gesto quasi automatico: aprire un chatbot. Come se, sul tavolo, comparisse all’improvviso un terzo interlocutore. Non un amico, non un insegnante, non un libro. Qualcosa di diverso: un sapere esterno che parla bene, risponde veloce, non si stanca mai. E che, soprattutto, ha un tono che invita alla fiducia.

Quello che segue è una lettura-riflessione a partire da L'intelligenza condivisa. Vivere e lavorare insieme all'AI di Ethan Mollick: alcune idee sono riassunte e rielaborate dal libro, altre derivano da ragionamenti che il testo innesca (e che, inevitabilmente, escono dai suoi confini). È un tentativo di prendere sul serio la domanda che Mollick mette sul piatto: che cosa significa vivere, lavorare ed educare quando l’intelligenza artificiale generativa diventa una presenza quotidiana?

Mollick non arriva da fuori: è docente alla Wharton School (University of Pennsylvania) e studia da anni come le tecnologie cambiano pratiche, organizzazioni e apprendimento. Co-Intelligence (titolo originale del libro) nasce proprio, dopo le citate tre notti insonni dopo il primo incontro dell'autore con ChatGPT e dalla conseguente sensazione che qualcosa sarebbe cambiato per sempre, in quel punto di frizione tra entusiasmo e cautela: non è un manuale “pro-AI” né un manifesto “anti-AI”, ma un invito a costruire una convivenza intenzionale con questi sistemi sapendo che, piaccia o no, sono già entrati nelle nostre giornate.

Ecco: se c’è un filo rosso nell’opera, è questo. L’IA non come magia, né come minaccia astratta, ma come nuova ecologia del sapere: un esterno che parla, produce, suggerisce, e ci costringe a ripensare responsabilità, metodi, limiti.

Un’intelligenza “aliena” che sa parlare come noi

Mollick insiste su un paradosso: per lavorare bene con questi sistemi conviene trattarli come se fossero persone… ma ricordandosi che non lo sono.

È una trappola cognitiva affascinante: il linguaggio ci seduce. Se una cosa parla, argomenta, si scusa, “sembra” empatica, il nostro cervello tende a darle credito. E non è solo un’impressione: esistono studi in cui risposte generate da chatbot sono state valutate come più empatiche e di qualità superiore rispetto a quelle di medici, in specifici contesti testuali. Questo non significa “l’IA è migliore dei medici” (sarebbe una lettura ingenua e pericolosa). Significa qualcosa di più sottile e inquietante: l’empatia può essere simulata in modo convincente. E noi, esseri umani, siamo vulnerabili a quella simulazione.

Quindi la vera competenza non è “saper usare lo strumento”. È saper riconoscere l’incantesimo mentre sta funzionando.

Un altro concetto-chiave, che nel libro torna spesso, direttamente o come sfondo, è la jagged frontier: l’IA è fortissima in alcuni compiti e sorprendentemente debole in altri. Non cresce in modo “lineare”: cresce a scatti, con buchi, con asimmetrie.

Gli esperimenti sul lavoro cognitivo mostrano proprio questo: in certe attività complesse, l’uso di LLM può aumentare produttività e qualità per molti, ma non sempre, e non in tutti i task. E soprattutto: può anche peggiorare le performance se usata fuori dalla “zona giusta” della frontiera.

Tradotto: può aiutarti tantissimo, e un attimo dopo farti fare una figuraccia, con la stessa faccia seria di chi  “sa quello che dice”.

E qui entra un rischio educativo enorme: quando l’errore è presentato bene, diventa più credibile della verità detta male.

Le quattro regole: un manuale pratico (ma anche un test etico)

Il cuore operativo di Co-Intelligence viene spesso riassunto nelle “quattro regole” (Mollick le ripete in varie interviste e materiali collegati).

Proviamo a rileggerle con una lente un po’ diversa: non come trucchi per diventare più efficienti, ma come domande morali travestite da consigli pratici.

1) “Invita sempre l’IA al tavolo”

Sembra un invito all’esplorazione: usala, sperimenta, capisci dov’è forte e dov’è fragile.

Ma per genitori ed educatori la domanda diventa:
invitarla al tavolo significa invitarla in quali conversazioni?
In quelle intime? In quelle delicate? In quelle che riguardano un minore? In quelle che producono dipendenza?

Perché ogni “invito” è anche una scelta di ambiente: dati, privacy, abitudini. E qui il collegamento con una consapevolezza già emersa nelle nostre traiettorie è inevitabile: parlare con un LLM spesso è come parlare in un microfono acceso, con log, tracciamenti e possibilità di riuso.

Quindi sì: invitiamola.

Ma forse dovremmo anche imparare a dire: “Qui no. Qui non entra.”

2) “Sii l’umano nel loop”

Questa regola è un antidoto a un fenomeno noto da decenni: quando deleghiamo a un sistema automatico, tendiamo a rilassarci troppo. È stato studiato come misuse dell’automazione e come automation bias: l’aiuto tecnologico, anche quando non è affidabile al 100%, può portarci a errori di omissione e a fidarci del suggerimento “perché lo dice la macchina”.

Qui la questione educativa è enorme e ancora troppo poco discussa:

  • Se l’IA propone una risposta pronta, che cosa resta della fatica del pensare?
  • Se l’IA sbaglia con sicurezza, che cosa succede alla nostra capacità di dubitare?
  • Se l’IA accelera tutto, chi decide dove rallentare?

Diventare “umani nel loop” non è un gesto tecnico. È una postura culturale: verifica, contesto, responsabilità.

3) “Trattala come una persona" (ma dille che tipo di persona è)

È assodato che funziona meglio se le dai un ruolo, una voce, un contesto. E infatti: se la tratti come un “collega”, ti risponde da collega. Se la tratti come un “tutor”, prova a fare il tutor.

Ma qui c’è un rischio educativo che somiglia a una trappola affettiva: se la tratti come qualcuno che “ti capisce”, prima o poi inizierai a usarla come qualcuno che “ti conosce”.

Ed è qui che torna utile una domanda filosofica vecchia come il mondo: che cosa significa “sapere” qualcosa attraverso la testimonianza di qualcun altro? (Coady ragiona proprio su quanto il nostro sapere dipenda dagli altri).
Con l’IA, però, la testimonianza è senza volto e senza responsabilità: nessuno “ci mette la faccia” se la risposta è falsa, distorta o manipolatoria (magari anche volutamente).

E allora la provocazione è questa:
stiamo educando i ragazzi a distinguere tra una voce autorevole e una voce solo "ben addestrata"?

4) “Assumi che questa sia la peggiore IA che userai”

Questa è la regola più destabilizzante, perché non parla del presente: parla del ritmo.

Se oggi ci sembra già “troppo”, Mollick ci sta dicendo: prepara la mente a un troppo diverso, non solo a un troppo più potente.

E allora le domande diventano educative nel senso più ampio:

  • Che cosa vuol dire insegnare a scrivere quando esiste un sistema che scrive “abbastanza bene” o "meglio" per quasi tutti?
  • Che cosa vuol dire imparare, se l’assistente è sempre disponibile e spesso convincente?
  • Che cosa succede alla disuguaglianza, se alcuni avranno co-intelligenze personali e altri no?

Non è fantascienza: è progettazione culturale.

Co-worker, co-teacher, coach: tre maschere, un solo problema

Nel libro (e nei materiali intorno al libro) l’IA viene descritta in tre ruoli: collega, co-insegnante, coach.

Per educatori e genitori la tentazione è immediata: “perfetto, un tutor infinito”.
Ma lo stesso gesto può avere due esiti opposti:

  • Potenziare: ti aiuta a vedere alternative, a trovare parole, a fare domande migliori.
  • Sostituire: ti evita l’attrito, ti toglie il tempo lungo della comprensione, ti risparmia l’imbarazzo dell’errore.

E qui entrano due concetti etici che dovremmo maneggiare più spesso:

  1. Dipendenza epistemica: quando smetto di sapere come so.
  2. Ingiustizia epistemica: quando certe voci, certi punti di vista, certi contesti spariscono o vengono deformati (Fricker parla di come il potere agisca anche attraverso ciò che è “credibile” e ciò che non lo è).

Se l’IA è addestrata su ciò che è più presente, più citato, più dominante, quali storie diventeranno “normali” nelle sue risposte? E quali resteranno ai margini?

Una piccola proposta: invece di “educazione all’IA”, educazione al dubbio

C’è una frase, che si legge tra le righe di molte recensioni, che sembra centrale: non ha senso distorcere la scuola per trasformare tutti in “esperti di prompt”. Piuttosto, dovremmo formare persone capaci di essere nel loop: competenza, giudizio, discernimento.

Quindi, più che “come si usa”, forse dovremmo chiederci:

  • che cosa non dobbiamo delegare?
  • che cosa va sempre controllato?
  • che cosa va discusso insieme, perché da soli è troppo facile farsi incantare?

Se l’IA è un sapere esterno, allora il gesto educativo non è “chiuderla fuori”. È costruire anticorpi culturali per starle vicino senza diventare suoi sudditi.

Tre micro-esperimenti (da aula o da cucina) per creare stupore e dubbi

Non sono “ricette”. Sono piccoli inciampi progettati.

  1. Chiedile di sbagliare: “Dammi una risposta plausibile ma sbagliata a questa domanda. Poi dimmi come potrei accorgermene.”
    (Serve a far emergere il trucco: la forma può sedurre quanto il contenuto.)
  2. Chiedile due versioni opposte: “Argomenta A con convinzione. Ora argomenta non-A con la stessa convinzione.”
    (Serve a far vedere che la persuasione non equivale a verità.)
  3. Chiedile cosa le manca: “Quali informazioni cruciali non hai per rispondere bene?”
    (Serve a spostare l’attenzione dall’output ai limiti.)

Se un ragazzo esce da questi esperimenti con una frase del tipo:

“Ok, quindi devo restare sveglio”, abbiamo già guadagnato qualcosa.

E allora: che libro è, L'intelligenza condivisa ?

È un libro da leggere, che prova a fare una cosa rara: tenere insieme entusiasmo e prudenza senza trasformare tutto in predica o in hype.

Ma, per chi educa, la vera utilità non è “imparare a usare l’IA”.
È vedere con chiarezza che il problema non è l’IA.
Il problema è l’accordo silenzioso che stiamo firmando ogni volta che diciamo: “vabbè, faccio prima a chiedere a lei”.

Lasciamoci quindi con la domanda che forse sembra la più onesta:

quando un sapere esterno diventa così accessibile, qual è la nostra nuova responsabilità educativa?

E, ancora più scomodo:

che cosa rischiamo di perdere, se non impariamo a porre limiti?

 


Questo post è parte della rubrica TrAIettorie di cui potete trovare l'indice completo qui.