Modelli chiusi, menti aperte. Soluzioni IA a Km 0.

Se nel 2019 avessimo detto a un insegnante o a un genitore che nel giro di quattro anni avrebbero usato chatbot, correttori automatici e assistenti vocali basati su intelligenza artificiale, probabilmente ci avrebbero guardato con un misto di scetticismo e diffidenza. E invece eccoci qui. L’IA è entrata in classe, in casa, in ufficio. A volte ci semplifica la vita. Altre volte la complica. 

Dalle scuole alle imprese: l’IA è ovunque, ma a quale prezzo? L’adozione di strumenti di IA cresce a ritmo esponenziale in ogni settore. Nella scuola, applicazioni di tutoraggio intelligente e generatori di testi pongono questioni di metodo ma anche di sorveglianza e tutela dei dati degli studenti. In famiglia, assistenti domestici come Alexa o applicazioni basate sull’IA aiutano con la spesa, la domotica, TV o persino intrattengono i bambini (senza contare i futuri giocattoli IA in arrivo), ma raccolgono enormi quantità di informazioni personali. Nelle aziende l’IA generativa viene sperimentata per customer service, analisi di dati e automazione, promettendo efficienza e nuovi modelli di business.

Ma ci siamo davvero fermati a porci le domande fondamentali ? 

  • Quali dati stiamo cedendo ogni giorno agli strumenti di IA generativa? (un po' ne abbiamo parlato qui)
  • Chi decide cosa può o non può rispondere un modello?
  • Quanto siamo consapevoli del fatto che ciò che scriviamo nei chatbot può essere conservato e riutilizzato?
  • I filtri dei modelli proteggono davvero i minori?
  • Come possiamo immaginare un'IA più equa, trasparente, e rispettosa ? 
  • Quali strumenti possono restituire “agency” alle comunità scolastiche e famigliari?

Sotto l'interfaccia amichevole di un assistente virtuale IA, si nascondono meccanismi complessi che pongono interrogativi urgenti su privacy, etica, controllo e sostenibilità.

“Gli algoritmi non sono semplicemente procedure computazionali; sono anche attori culturali e sociali che modellano e sono modellati dalla società” (Tarleton, 2014)

Questa affermazione è particolarmente rilevante oggi, in un contesto in cui l’educazione rischia di essere modellata da strumenti digitali opachi, con logiche spesso invisibili agli utenti finali. In ambito educativo, usare un'IA disegnata e gestita da aziende private, addestrata su dati e regole proprietarie (non note), che risponde con logiche non verificabili, rischia di trasformare lo studente da soggetto attivo a consumatore passivo di risposte.

Le conseguenze non si limitano all’apprendimento, ma toccano anche aspetti legati all’autonomia, alla responsabilità e alla consapevolezza critica. Quando l'intelligenza artificiale diventa intermediaria dell'accesso alla conoscenza, è essenziale chiedersi: chi ha scritto il codice che filtra la realtà? Chi decide quali dati sono inclusi o esclusi? Puoi fidarti del risultato? E, soprattutto: esiste un modo più equo, più aperto, più controllabile di usare l’intelligenza artificiale? 

Sì, esiste. E si chiama open source. Ma andiamo con ordine.

A scuola, a casa, al lavoro: l'IA è già ovunque (e non sempre fa quello che dice)

Prendiamo la scuola. Ci sono piattaforme che aiutano gli studenti a scrivere, correggere e imparare meglio. Ma poi leggiamo che gli istituti vietano ChatGPT perchè si sostituisce all’alunno nei compiti. E ci accorgiamo che forse la tecnologia è arrivata troppo in fretta, senza che genitori e insegnanti avessero il tempo di capirla davvero.

In famiglia la situazione non è molto diversa. Gli assistenti vocali rispondono alle domande dei bambini, accendono le luci, leggono favole. Ma ascoltano anche tutto il resto. Tutto. E salvano le conversazioni su server lontani, gestiti da aziende che non conosciamo. 

Sul lavoro, poi, l'IA promette efficienza, automazione, produttività. Ma a che prezzo? In tante aziende i dipendenti temono che le macchine li sostituiscano. In altre, si vieta l’uso di tool IA proprio per proteggere i dati riservati. 

Quando deleghiamo qualcosa all’intelligenza artificiale, stiamo dando fiducia a un sistema che spesso non capiamo e che non possiamo controllare. Ma davvero deve essere per forza così?

L’alternativa c’è: modelli aperti, trasparenti e locali

Il mondo dell’open source è quel luogo dove le cose si costruiscono insieme. Non è solo un modo di scrivere codice: è un modo di pensare. E quando parliamo di IA open source, parliamo di modelli i cui meccanismi interni sono visibili, ispezionabili, modificabili.

Immagina una scuola che installa un modello linguistico su un server locale, senza mandare ogni domanda dei ragazzi a un server americano. O una famiglia che usa un assistente vocale offline, che funziona in casa e non registra nulla nel cloud, sicuri di poter creare “la banca dati della famiglia”. O ancora, una piccola azienda che allena un modello sui propri dati, mantenendo tutto in sede, senza dover pagare abbonamenti, al riparo da segreti industriali e preoccupazioni di copyright.

Se ci fosse uno strumento IA che possiamo installare sul nostro computer o su un server scolastico ? che possiamo modificare, migliorare e comprendere ? che possiamo arricchire con i nostri dati personali che restano sul nostro computer ? magari anche libero, trasparente, e volendo strutturato in modo etico ?

Questa strada oggi esiste e, in certi casi d'uso, è in grado di produrre risultati equiparabili ai modelli famosi a pagamento. È la strada dei modelli IA open-source eseguiti in locale, cioè sul proprio dispositivo, senza cloud, senza dipendenza da multinazionali, che possiamo alimentare con i nostri dati personali senza doverli condividere.

Certo, serve un minimo di competenza tecnica. Ma le risorse esistono. Le comunità crescono e con loro queste soluzioni e strumenti. Oggi possiamo dire che hanno raggiunto una maturità tale da essere facilmente accessibili e applicabili in svariati contesti.

Quando parliamo di sistemi “chiusi e proprietari”, ci riferiamo a piattaforme di IA i cui algoritmi, modelli e dati di addestramento non sono pubblici. L’utente può solitamente accedere al servizio senza alcuna visibilità su come il risultato sia stato ottenuto. L’IA open source, al contrario, punta a rendere disponibili codice, modelli e talvolta dati con licenze libere, consentendo a chiunque di utilizzare, studiare, modificare e condividere il sistema. In altre parole, un modello aperto diventa una sorta di “struttura in vetro” analizzabile autonomamente dall’utente. La Commissione Europea sta addirittura definendo requisiti per i modelli “fully open-source” nell’AI Act, riferendosi a quelli con pesi, codice completo e dati di training pubblicamente disponibili e liberamente riutilizzabili. 

Oggi esistono soluzioni completamente open source o soluzioni parziali. LLaMA, Mistral, Phi, Qwen, Whisper, sono nomi che forse non si trovano subito sui giornali, ma che rappresentano un altro modo di usare l’IA: più sostenibile, più rispettoso, più libero.

Nei sistemi chiusi (Gemini, ChatGPT, Claude, ecc.) l’algoritmo è una scatola nera: inserisci la domanda, loro macinano, tu ottieni una risposta. Fine della storia.

Con i progetti open-source succede l’opposto:

  • Codice e pesi sono pubblici.
  • Puoi installare il modello in locale, quindi niente viaggio dei dati verso server stranieri.
  • La community “spulcia” il codice, scova bug, riduce bias, propone ottimizzazioni.

Certo, i sistemi chiusi offrono soluzioni “chiavi in mano”, che fanno risparmiare sul personale tecnico, ma il trade-off è chiaro: dipendenza tecnologica, minor controllo, esfiltrazione dei dati e costi fissi da una parte, più investimento in competenze interne, controllo dei costi e governo completo dall’altra.

Cosa significa "modello IA eseguito in locale"?

Un modello IA eseguito in locale è un software che gira sul proprio computer (o sul proprio server), senza dipendere da servizi esterni e senza bisogno di inviare dati personali a un server esterno, senza tracker o blackout dettati da terzi, senza dover pagare un abbonamento. Tutto il processo avviene offline o in rete locale, chiusa. Nessun dato esce, nessuna informazione viene tracciata da terzi, nessun rischio di indisponibilità (basta un computer e la corrente elettrica).

Ok, ma cosa ci potremmo fare ? Ad esempio in ambito educativo: 

  • Chatbot scolastici addestrati su materiali personalizzati (es. storia locale, curricoli della classe, materiali personali degli studenti) .
  • Tutor IA o strumenti interattivi, con parametri vincolati e personalizzati che funzionano offline, in sicurezza anche per bambini.
  • Traduttori o correttori grammaticali su lingue non supportate da modelli a pagamento.
  • IA locali per coding che non inviano codice sorgente in rete.
  • Sistemi interni di supporto basati su modelli addestrati su documentazione interna riservati o protetti da copyright, utilizzabili da dipendenti anche senza connessione a internet. 
  • Assistenti utilizzabili in ambiti legali o HR con pieno controllo sui dati sensibili e senza esposizione a rischio di data breach di terzi.
  • Motori di ricerca interni che interrogano un corpus documentale privato, come archivi scolastici, dispense, verbali o materiali formativi dove la condivisione su cloud risulterebbe problematica o una violazione.
  • Generatori di quiz o esercizi didattici a partire da PDF o slide forniti dal docente, con output verificabili offline e senza uso di servizi cloud.
  • Sistemi di aiuto nella correzione di compiti senza rischiare di violare la privacy degli studenti, elaborando i testi localmente senza inviarli a server esterni.
  • Creazione di strumenti di autovalutazione per esami o interrogazioni che non memorizzano le risposte in rete, proteggendo così l'identità e i progressi degli alunni.
  • Sistemi di assistenza per l’apprendimento domestico dei figli (ripasso, supporto compiti) completamente offline, controllabili dall’educatore e personalizzabili su contenuti familiari.
  • Evitare Lock-in tecnologico: nessuna dipendenza da fornitori esterni. In scenari geopolitici o di crisi tecnologica, l’utilizzo di modelli open-source locali si rivela strategico anche per la continuità operativa. Un IA locale permette di funzionare off-grid, cioè senza connessione a internet evitando così i rischi connessi a embarghi, censure o disattivazioni remote dei servizi.

Per tutti questi casi ed oltre, estendibili a contesti non solo educativi, una soluzione basata su modello open e locale non è solo una scelta sostenibile, etica o educativa, ma anche una soluzione resiliente per proteggere informazioni sensibili e garantire la sovranità digitale.

Facciamoci un pò di domande.

Quando accetti i termini di una nuova app IA, li leggi davvero? Quando un algoritmo ti propone un contenuto, ti chiedi perché lo fa? Quando uno strumento promette miracoli, ti domandi a che prezzo?

Queste non sono domande da tecnofobi. Sono domande da cittadini. Perché l’intelligenza artificiale non è magia. È matematica, codice, dati. E scelte. Tante scelte.

Quindi vale la pena fermarsi un attimo e riflettere: voglio sapere di più su questi strumenti? Voglio capire cosa succede ai miei dati? Posso contribuire, nel mio piccolo, a costruire un futuro digitale più giusto, più aperto, più umano?

Un futuro condiviso si costruisce ora

Quello che spesso manca nel dibattito sull’intelligenza artificiale è il senso di agency. Di possibilità. Come se tutto fosse già scritto nei laboratori delle big tech. Ma non è così. Possiamo scegliere. Possiamo chiedere modelli trasparenti, possiamo formarci, possiamo collaborare a progetti open. Possiamo pretendere che le scuole, le pubbliche amministrazioni, le aziende scelgano strumenti che rispettano i nostri diritti.

Trasparenza e controllo: fidarsi è bene, capire è meglio. Un algoritmo che decide un prestito o suggerisce una cura DEVE spiegarsi. Con il codice aperto gli auditor possono vedere quali dati ha “digerito”, quali pesi attribuisce a età, reddito, genere. Con la scatola nera no: devi fidarti sulla parola.

E possiamo farlo partendo da piccoli gesti: informandoci, ponendo domande scomode, scegliendo un'app open invece di una chiusa, magari partecipando a un progetto comunitario. L'IA non è un destino: è uno strumento. E come ogni strumento, possiamo imparare a usarlo. Insieme.

L’intelligenza artificiale in tasca.

Noi ci stiamo provando. Abbiamo voluto dare una risposta, concreta, a domande vere: “Ma come lo spieghi a mia figlia cos’è un’intelligenza artificiale?”, oppure “C’è un modo per usarla in classe senza che finisca tutto su qualche server chissà dove?”. E da lì siamo partiti — con quel misto di ostinazione artigianale e amore per l’educazione che ti spinge a rovistare nei cassetti (e ispirati dall’immagine sorniona del Curator di Ready Player One appiccicata sulla bacheca del laboratorio), recuperare un Chromebook rotto e dire: “Vediamo se si può fare”.

Ed ecco il nostro piccolo Frankenstein digitale (ancora in cerca di nome): adotta LLM open-source, arricchiti, eseguiti in locale, racchiusi in un involucro minimale, verde, come i colori di pianetararo. Un prototipo di un LLM “da banco”. Si tocca. Non serve internet. Non servono abbonamenti. Solo un po’ di curiosità, qualche nozione tecnica, e la voglia di capirci qualcosa. Un’intelligenza artificiale in tasca, sì, ma nel senso vero: la colleghi via USB a qualsiasi computer — Mac, Windows, Linux, poco importa — e via, nessun software da installare. Gli studenti la esplorano, ci smanettano, la “vedono” pensare. E in quel momento capiscono: non è magia, è codice. È logica. È statistica. È linguaggio. E possono piegarlo, cambiarlo, arricchirlo, fargli dire cose in romagnolo stretto o riscrivere la Guerra dei Trent’Anni come se fosse una storia di Instagram. Quando hai finito, stacchi il cavo e lo metti in tasca. Lo porti via con te.

Poi certo, ci siamo fatti prendere la mano. Perché una IA sola era solo l’inizio. Così ci abbiamo infilato una piccola squadra di agenti, autonomi, come quelli di Matrix, ognuno  con il suo compito: c’è quello che genera podcast dai riassunti delle lezioni, quello che raccoglie spunti da internet e ti prepara una ricetta di cucina mescolandola a quella segreta della nonna (che ChatGPT non conoscerà mai), quello che ti costruisce un’infografica sfruttando le foto dei tuoi appunti. Ma tutti funzionano in locale. Tutti rispettano la tua privacy. Tutti danno la sensazione — rara — di avere il controllo. Non sei più solo spettatore: diventi autore. Scopri uno strumento al tuo servizio. Un "Curatore" al tuo servizio. Solo tuo.

E sai qual è la cosa più bella? Che non serve essere ingegneri. Serve solo la voglia di provare. Perché l’intelligenza artificiale non è solo roba “da esperti”. 

Lo stiamo pensando come un kit didattico, un laboratorio educativo replicabile: te lo metti in tasca e lo porti in aula. Qualsiasi aula. Giovani o adulti. Ma chiaramente è qualcosa che va oltre. Perché quando metti nelle mani delle persone uno strumento che possono comprendere, smontare, controllare — senza dover firmare una licenza o cedere i propri dati — non stai solo insegnando come funziona un algoritmo. Stai insegnando cosa vuol dire potere digitale, autonomia, cittadinanza. E allora sì, parte come un esperimento educativo, ma finisce per diventare un piccolo atto di libertà tecnologica.


Questo post è parte della rubrica TrAIettorie di cui potete trovare l'indice completo qui.