Spaggiari - News

Intelligenza Artificiale a scuola: cosa dice il rapporto OCSE per l'Italia

Scritto da Gruppo Spaggiari Parma | 15/12/25 16.20

L'analisi OCSE-Fondazione Agnelli 2025 traccia la mappa dell'IA nel sistema educativo italiano: investimenti miliardari, metà delle scuole già coinvolte, ma serve governance strutturata per trasformare la sperimentazione in integrazione sistemica

Quasi metà delle scuole italiane dichiara di occuparsi di intelligenza artificiale nei propri piani triennali dell'offerta formativa, 800.000 tra docenti, dirigenti e personale hanno già partecipato a percorsi di formazione digitale oltre i target previsti, e il Piano Nazionale di Ripresa e Resilienza ha stanziato circa 800 milioni di euro specificamente per formazione alla transizione digitale. Eppure, il rapporto "AI Adoption in the Education System" pubblicato a dicembre 2025 da OCSE e Fondazione Agnelli fotografa un sistema educativo italiano in bilico tra sperimentazione diffusa e integrazione strutturale ancora fragile, con il rischio concreto che divari territoriali e socio-economici si amplino se governance, formazione e procurement non saranno organizzati a livello di sistema.

Il documento — 102 pagine di analisi su come i paesi OCSE stanno rispondendo all'avvento dell'IA in educazione, con un focus specifico sull'Italia — offre ai dirigenti scolastici e ai docenti una cassetta degli attrezzi concettuale e operativa per navigare una transizione che non è più ipotetica: è già in corso, ma spesso disordinata, affidata all'iniziativa dei singoli e priva di criteri comuni di qualità, sicurezza e misurabilità dell'impatto.

I numeri della trasformazione italiana

Il rapporto parte da un'operazione di contabilità puntuale: tra le 11.808 scuole primarie e secondarie italiane analizzate, sono stati recuperati 8.958 Piani Triennali dell'Offerta Formativa per il periodo 2022–25, e in 3.695 di essi compare un riferimento esplicito all'intelligenza artificiale — il 41,2% del campione disponibile. Non si tratta di adozione effettiva in aula, ma di un segnale strategico importante: quasi una scuola su due ha formalizzato l'IA come priorità educativa, organizzativa o di innovazione.

La distribuzione geografica è contro-intuitiva: le menzioni sono più frequenti nel Sud che nel Nord, con una forte concentrazione nelle scuole secondarie di II grado, soprattutto nei licei, seguiti dagli istituti professionali. L'incrocio con i dati PNRR rivela che il 92% delle scuole che citano l'IA ha ricevuto almeno un finanziamento sulle linee "Piano Scuola 4.0 – Missione 4, Componente 1" con riferimento a digitalizzazione o IA, rispetto al 73% delle scuole che non la menzionano. In pratica, i bandi pubblici hanno agito da acceleratore dell'attenzione progettuale, spingendo migliaia di istituti a interrogarsi sul rapporto tra tecnologia e didattica.

Sul fronte della capacità professionale, i volumi sono rilevanti: l'investimento PNRR 2.1 "Didattica digitale integrata e formazione alla transizione digitale" prevede circa 800 milioni di euro per un sistema nazionale di 20.000 corsi destinati a 650.000 tra docenti, dirigenti e personale amministrativo, tutti allineati al framework europeo DigCompEdu. La piattaforma Scuola Futura, insieme alla rete di Future Labs e centri territoriali, offre oltre 120.000 opportunità formative (MOOC, blended, laboratori) e ha già coinvolto più di 800.000 partecipanti, superando nettamente i target iniziali.

Uso reale e percezioni: il divario tra potenziale e pratica

Nel 2024, l'indagine TALIS OCSE ha chiesto ai docenti se avessero utilizzato strumenti di intelligenza artificiale nella didattica o a supporto dell'apprendimento degli studenti nei 12 mesi precedenti: in Italia ha risposto sì il 25% degli insegnanti della secondaria di I grado, contro una media OCSE del 37% e punte del 75% a Singapore. Tra chi utilizza l'IA, il 70% dei docenti italiani la impiega per riassumere argomenti in modo efficiente, il 64% per generare lesson plan, il 31% per analizzare dati su partecipazione e performance degli studenti, il 27% per valutare o correggere lavori, e il 60% concorda che l'IA aiuta a supportare studenti con bisogni specifici.

Parallelamente, le preoccupazioni sono diffuse: il 67% dei docenti italiani teme che l'IA consenta agli studenti di presentare lavori altrui come propri (media OCSE 72%), e il 32% ritiene che possa amplificare bias (media OCSE 42%). Piccole indagini condotte nel 2024–25 confermano che l'uso studentesco è più alto di quello docente: l'87% degli studenti di secondaria superiore e il 69% dei docenti coinvolti nel progetto "ImparIAmo a scuola con l'intelligenza artificiale" dichiarano di usare strumenti IA, soprattutto per scopi personali o supporto allo studio domestico.

Il quadro che emerge è quello descritto dal rapporto: "alta sperimentazione informale, limitata integrazione curricolare, e forte domanda di apprendimento professionale strutturato, governance chiara e salvaguardie sull'equità".

Governance e procurement: chi decide, come e con quali garanzie

Le Linee guida nazionali 2025 per l'introduzione dell'IA nelle scuole attribuiscono a ciascuna istituzione scolastica la responsabilità di adottare l'approccio HUDERIA del Consiglio d'Europa (valutazione del rischio e dell'impatto sui diritti umani, democrazia e stato di diritto), di condurre valutazioni d'impatto sui diritti fondamentali per le applicazioni ad alto rischio e di garantire la conformità al GDPR e all'AI Act europeo. Non esiste, a differenza di altri paesi, un catalogo nazionale vincolante di strumenti certificati: ogni scuola è chiamata a selezionare, valutare ex ante, implementare e monitorare i sistemi IA, gestendo in autonomia aspetti di qualità, sicurezza, trasparenza algoritmica e impatto sui diritti fondamentali.

Questa architettura decentralizzata può stimolare innovazione locale, ma rischia di amplificare le disuguaglianze tra scuole con forte capacità gestionale e tecnica e scuole più fragili. Il rapporto segnala già oggi uno scarto tra istituti pubblici e fee-paying/privati: i docenti di questi ultimi dichiarano maggiore uso di strumenti IA in classe, più formazione strutturata, più supporto dalla leadership e la presenza di referenti interni per questioni operative ed etiche, traducendosi in una differenza percepita di sicurezza e competenza.

A livello europeo, le Model Contractual Clauses for AI (MCC-AI) forniscono un modello contrattuale per gli appalti pubblici di sistemi IA ad alto rischio in educazione, con requisiti su gestione del rischio, governance dei dati, supervisione umana e trasparenza. Per un operatore EdTech come Gruppo Spaggiari Parma, questo significa che i prossimi bandi e le partnership pubblico-private richiederanno evidenze documentate di conformità, valutazioni di impatto, tracciabilità delle decisioni algoritmiche e capacità di supportare le scuole nell'esercizio di una regia pedagogica consapevole, non solo nell'uso passivo di piattaforme.

Quattro principi per usare l'IA senza farsi usare

Il rapporto individua quattro principi guida per policy maker ed educatori, che vale la pena citare testualmente:

Intenzionalità e allineamento pedagogico. "L'IA è un mezzo, non un fine, e il suo dispiegamento deve essere esplicitamente collegato a obiettivi pedagogici chiaramente articolati. Gli strumenti dovrebbero essere selezionati o rifiutati dopo che i decisori politici e gli educatori hanno specificato le conoscenze, le competenze o le disposizioni che stanno tentando di coltivare, le metriche con cui il successo sarà giudicato e i contributi umani complementari richiesti."

Centralità dei docenti. "Gli insegnanti sono e rimangono centrali. Sono loro che possono interpretare le analisi, curare i prompt, integrare gli strumenti nelle attività quotidiane e modellare i comportamenti affinché gli studenti imparino con la tecnologia piuttosto che meramente da essa. Gli insegnanti dovrebbero quindi essere coinvolti nelle decisioni relative all'adozione dell'IA e i budget per lo sviluppo professionale dovrebbero crescere in tandem con la spesa per l'IA piuttosto che essere sacrificati a causa di essa."

Precauzione. "Laddove una tecnologia più semplice con minori rischi di sicurezza possa raggiungere un obiettivo di apprendimento comparabile agli strumenti IA, dovrebbe essere preferita. Questo è particolarmente vero perché i minori, che non possono dare un consenso pienamente informato, sono gli utenti degli strumenti IA nell'istruzione." Il principio di precauzione si traduce in roll-out graduali, sperimentazioni controllate, limiti di tempo d'uso, revisioni indipendenti di efficacia prima del rinnovo delle licenze.

Supervisione educativa. "La personalizzazione non è un bene incondizionato. Gli esseri umani sono avari cognitivi: la loro tendenza è di default verso meccanismi di elaborazione a basso costo computazionale, esternalizzando volentieri lo sforzo ogni volta che si presenta una scorciatoia." Senza supervisione robusta, molti studenti possono sviluppare un falso senso di padronanza, confidenti di saper risolvere compiti che il programma ha già semplificato, scoprendo l'inadeguatezza solo quando affrontano situazioni al di fuori dei parametri del loro training.

Rischi di personalizzazione estrema: democrazia e apprendimento

Una parte consistente del documento affronta le implicazioni della personalizzazione spinta resa possibile dall'IA sul piano cognitivo, sociale e democratico. Gli autori richiamano gli studi sulle "desirable difficulties" — compiti che richiedono sforzo nel momento, ma che favoriscono competenze durevoli e trasferibili — e avvertono che percorsi iper-ottimizzati possono migliorare performance di breve periodo a scapito della capacità di apprendimento di lungo termine.

Sul piano sociale, il rischio è più sottile e profondo: "La scuola è prima di tutto un'istituzione civica. A scuola i bambini imparano a negoziare un bene comune e a incontrare prospettive diverse dalle proprie e da quelle dei membri della loro famiglia. Una generazione abituata all'ottimizzazione su misura offerta dai sistemi IA, per cui l'input ricevuto si allinea perfettamente ai propri interessi e bisogni, potrebbe faticare ad onorare i principi e i requisiti della coesione sociale."

Il rapporto continua: "L'iper-personalizzazione può quindi nutrire una generazione in cui il benessere personale degli studenti è l'unica metrica con cui possono arrivare a giudicare il mondo." Questa non è una questione di rendimento accademico, ma di tenuta democratica: le democrazie dipendono da cittadini capaci di negoziare tra preferenze personali e beni collettivi.

Competenze umane e framework EPOCH

La sezione dedicata a "Coltivare capacità unicamente umane" introduce il framework EPOCH, proposto da Loaiza e Rigobon, che identifica cinque domini di competenze che le macchine non possono facilmente replicare e che dovrebbero guidare le priorità curricolari nell'era dell'IA:

E – Empathy and emotional intelligence (Empatia e intelligenza emotiva): essenziale per comprensione, lavoro di squadra, collaborazione e costruzione di relazioni. Gli agenti IA volti a percepire e rispondere a segnali emotivi rimangono fortemente limitati, affrontando sfide tecniche ed etiche fondamentali.

P – Presence, networking, and connectedness (Presenza, networking e connessione): riguarda il valore della presenza fisica per interazione faccia a faccia, collaborazione spontanea e costruzione di fiducia, oltre alle abilità legate ai compiti fisici come destrezza, tatto ed esperienza vissuta.

O – Opinion, judgment, and ethics (Opinione, giudizio ed etica): comprende pensiero critico, sintesi di informazioni, considerazione di prospettive diverse, integrazione di analisi razionale con intuizione e considerazioni morali per il processo decisionale. L'IA fatica nelle aree che richiedono responsabilità, navigazione di sistemi aperti, ragionamento morale e giudizi eticamente ineccepibili nei dilemmi.

C – Creativity and imagination (Creatività e immaginazione): importante per generare idee nuove e visualizzare possibilità oltre la realtà. Include curiosità, improvvisazione, umorismo, sfida alle convenzioni, originalità, flessibilità, assunzione di rischi. La creatività dell'IA è spesso legata ai dati esistenti, potenzialmente priva di diversità e originalità, e le macchine faticano con la curiosità genuina.

H – Hope, vision, and leadership (Speranza, visione e leadership): include capacità come ottimismo, iniziativa, grinta, perseveranza e abilità di sviluppare un obiettivo e ispirare altri verso di esso. Gli esseri umani hanno senso di scopo e obiettivi, mentre l'IA, finora, manca della capacità di creare tale visione.

Il rapporto nota che il framework EPOCH è strettamente allineato con le tre competenze trasformative dell'OECD Learning Compass 2030 (creare nuovo valore, riconciliare tensioni e dilemmi, assumersi responsabilità) e con le 21st Century Skills del World Economic Forum (pensiero creativo, pensiero analitico, curiosità, influenza sociale, flessibilità).

Per l'Italia, questa agenda trova un ancoraggio normativo nella Legge 22 del 19 febbraio 2025, che introduce in modo sistematico lo sviluppo di competenze non cognitive e trasversali — pensiero critico, intelligenza emotiva, problem solving collaborativo — in tutti i programmi del sistema scolastico italiano, nei CPIA e nei programmi di formazione professionale regionale, con avvio dall'anno accademico 2025–26. La legge prevede una ricognizione nazionale delle iniziative contro dispersione e povertà educativa e un piano triennale di formazione docenti, ma non stanzia fondi aggiuntivi: l'implementazione deve avvenire sulle risorse già disponibili.

Formazione docenti: il vero fattore abilitante

Il rapporto conferma che la formazione di dirigenti e docenti è il vero fattore abilitante, più dei dispositivi o delle piattaforme. Tra il 2018 e il 2024, la partecipazione degli insegnanti italiani a percorsi di formazione su risorse e strumenti digitali è passata dal 68% all'84%, una delle crescite più forti nei sistemi OCSE partecipanti a TALIS. Nel 2024, il 38% dei docenti nei paesi OCSE partecipanti ha ricevuto formazione sull'IA; in Italia la quota è del 26%, con punte oltre il 60% in Kazakistan, Corea, Singapore ed Emirati Arabi Uniti.

L'indagine valutativa del progetto AI4T, che ha coinvolto circa 90 scuole e 450 insegnanti italiani in percorsi su IA di base (MOOC, manuali, webinar), mostra effetti statisticamente significativi su familiarità con le tecnologie IA, capacità di riconoscere strumenti basati su IA e auto-valutazione delle proprie conoscenze. Tuttavia, le evidenze indicano che molti insegnanti continuano a sentirsi poco coinvolti nelle decisioni sull'IA e chiedono percorsi pratici, disciplinari, di accompagnamento in classe più che formazione generale.

Il rapporto valorizza esperienze partecipative come il progetto "Costruire il futuro" della rete scolastica del Friuli Venezia Giulia (55 istituzioni), che nel 2023–24 ha adottato un modello di ricerca-azione partecipativa coinvolgendo dirigenti, docenti, studenti e un comitato scientifico, producendo un e-book, linee guida regionali, seminari in servizio, risorse pronte all'uso (prompt curati) e uno strumento di supporto su misura, "Mind in Class", agente basato su ChatGPT progettato per aiutare gli educatori nella pianificazione delle lezioni e negli aspetti pedagogici ed etici dell'uso dell'IA.

Collaborazioni pubblico-privato: modelli e criticità

Il rapporto dedica ampio spazio alle collaborazioni multi-stakeholder in Italia, segnalando sia esperienze consolidate sia elementi di criticità. Tra gli esempi virtuosi:

Generazioni Connesse – Safer Internet Centre: programma nazionale coordinato dal Ministero dell'Istruzione e cofinanziato dalla Commissione Europea, che riunisce Polizia Postale, università, organizzazioni non profit (Save the Children, Telefono Azzurro, Skuola.net) per supportare le scuole nello sviluppo di politiche di cittadinanza digitale e sicurezza online tramite formazione docenti, risorse digitali, campagne e helpline.

Ambizione Italia per la Scuola: partnership Microsoft–Fondazione Mondo Digitale, programma di formazione su larga scala per potenziare le competenze digitali di studenti e docenti. Tra il 2019 e il 2024 ha coinvolto oltre 250.000 studenti e 20.000 educatori, con hub di innovazione, reti scolastiche e risorse aperte come "Enter the World of AI", corso modulare online sviluppato per l'uso in classe.

ImparIAmo a scuola con l'intelligenza artificiale: progetto di ricerca-azione coordinato dal Centro Studi Impara Digitale e da Edulia Treccani Scuola, che nell'anno accademico 2023–24 ha formato 328 insegnanti in 50 scuole e 1.800 studenti sull'incorporazione di strumenti IA generativi, condividendo i risultati tramite webinar pubblici e creando una comunità di pratica nazionale.

Il documento nota però che gli insegnanti italiani non sembrano essere stati coinvolti direttamente nella stesura delle Linee guida nazionali 2025 sull'IA a scuola, e che il comitato di esperti che ha redatto la Strategia Nazionale IA 2024–2026 per la pubblica amministrazione non includeva un rappresentante del Ministero dell'Istruzione. Questo contrasta con le dichiarazioni di principio delle stesse Linee guida, che enfatizzano consultazione educativa e istituzione di gruppi di lavoro con pedagogisti e rappresentanti delle scuole per l'implementazione.

Comparazioni internazionali: lezioni da Corea, Estonia, Danimarca

Alcuni numeri da altri sistemi aiutano a capire dove può andare il mercato e quali errori evitare. In Corea del Sud, il piano nazionale per gli "AI digital textbooks" ha portato in pochi mesi all'approvazione di 76 libri di testo IA e a un'adozione in circa il 30% delle scuole, con punte del 98% a Daegu e appena l'8% a Sejong, prima di essere bruscamente ridimensionato e riclassificato a materiale opzionale per mancanza di infrastrutture, formazione adeguata e prove di efficacia. La vicenda coreana illustra i rischi di roll-out rapidi senza accompagnamento sistemico.

In Estonia, il programma "AI Leap" prevede dal 2025 il roll-out nazionale di una versione education di ChatGPT per circa 20.000 studenti e 3.000 docenti del triennio superiore, con estensione a ulteriori 38.000 studenti e 2.000 insegnanti nel 2026, tutti coperti da formazione dedicata. L'Estonia è già tra i primi 15 paesi al mondo per uso di ChatGPT, con una media di un account attivo ogni quattro cittadini, segnalando un'alta domanda potenziale per strumenti di supporto allo studio e alla progettazione disciplinare.

In Danimarca, nel 2023 il Ministero dell'Istruzione ha convocato un gruppo di esperti per raccomandare come usare l'IA nell'educazione preservando l'integrità degli esami e gli standard di valutazione, composto principalmente da educatori post-secondari con un insegnante di secondaria, pubblicando le raccomandazioni a maggio 2024.

Nuove valutazioni: INVALSI DigComp e PISA 2029 AI Literacy

Nel 2025, INVALSI ha introdotto una nuova prova nazionale sulle competenze digitali basata sul framework europeo DigComp 2.2, rivolta agli studenti di seconda superiore per misurare alfabetizzazione dei dati, comunicazione e collaborazione online, creazione di contenuti digitali e sicurezza. In parallelo, il Ministero sta predisponendo una sezione dedicata sulla Piattaforma Unica per raccogliere dati sull'adozione di strumenti IA nelle scuole e consentire un monitoraggio più sistematico dell'integrazione nel tempo.

A livello internazionale, PISA 2029 introdurrà una valutazione di "Media and Artificial Intelligence Literacy", che misurerà la capacità degli studenti di comprendere come funzionano i sistemi IA, riconoscere bias, interpretare output algoritmici e utilizzare strumenti IA in modo responsabile ed efficace. Questo segna uno spostamento importante: l'IA non è più solo oggetto di policy, ma oggetto di misurazione comparata delle competenze degli studenti.

Cosa significa per dirigenti, docenti e fornitori EdTech

Dal punto di vista operativo, il messaggio è chiaro: non è sostenibile che ogni scuola improvvisi da zero la propria "strategia IA". Servono quadri comuni, criteri condivisi di valutazione, accompagnamento tecnico-pedagogico stabile e comunità di pratica strutturate, altrimenti l'uso dell'IA seguirà le linee di frattura già esistenti (territoriali, socio-economiche, di risorse professionali), ampliandole.

Per attori come Gruppo Spaggiari Parma, il rapporto indica una direzione precisa: non limitarsi a offrire soluzioni tecnologiche, ma contribuire a costruire ecosistemi di supporto — formazione continua, mentoring, comunità di pratica, strumenti per l'analisi dei dati educativi, dashboard interpretabili, processi di valutazione ex ante trasparenti — che mettano dirigenti e docenti in grado di esercitare una regia consapevole sull'IA. In altre parole, non sostituire la professionalità educativa, ma renderla più forte, informata e capace di governare il cambiamento.

Il vero vantaggio competitivo nei prossimi anni starà nella capacità di offrire strumenti di IA "governabili" dalle scuole, dentro quadri normativi complessi (GDPR, AI Act, Linee guida nazionali), accompagnati da formazione che trasformi la sperimentazione diffusa in integrazione strutturale, e da evidenze di efficacia documentate. Chi non dimostrerà di saper gestire rischi (equità, bias, privacy, sorveglianza indebita) e di produrre dati di impatto sull'apprendimento rischia di essere escluso da bandi, cataloghi regionali e partnership pubblico-private.

Il rapporto OCSE-Fondazione Agnelli non offre ricette pronte, ma strumenti di pensiero per una transizione che sarà lunga, complessa e politicamente sensibile. Per dirigenti e docenti, offre una mappa per orientarsi; per i fornitori, un avvertimento: il mercato dell'IA in educazione in Italia non è più early-adopter, è early-majority, e la domanda si sta spostando da "che cosa può fare questa tecnologia" a "come posso governarla in modo responsabile, efficace e misurabile".

Fonti:
OCSE, Fondazione Agnelli (2025). AI Adoption in the Education System: International insights and policy considerations for Italy.

OECD Artificial Intelligence Papers, No. 52