Ripensare la conoscenza nell’era dell’AI
Ripensare la conoscenza nell’era dell’AI
Qui in H-FARM International School crediamo che l’innovazione non sia fatta solo di strumenti, ma soprattutto di domande. Ed è proprio da una domanda che è iniziata la riprogettazione del programma di TOK per i nostri studenti del Diploma: cosa significa conoscere in un mondo in cui l’intelligenza artificiale filtra, suggerisce, classifica e anticipa tutto ciò che vediamo?
Theory of Knowledge (TOK) è uno dei tre elementi del Core dell’International Baccalaureate (IB) Diploma Programme, insieme a CAS e all’Extended Essay. È un corso obbligatorio per tutti gli studenti IB, con un obiettivo molto chiaro: spingerli a riflettere sulla natura della conoscenza, sulle sue origini, sui suoi limiti e sulle responsabilità che derivano dal conoscere.
TOK non insegna “cosa sapere”, ma “come pensiamo di sapere ciò che sappiamo”.
Negli ultimi anni, il concetto stesso di conoscenza è cambiato. Non perché abbiamo smesso di pensare, ma perché sempre più spesso pensiamo meno da soli. Le informazioni che arrivano ai nostri occhi, o nel nostro feed, sono selezionate da sistemi complessi: algoritmi che valutano la probabilità che interagiamo con determinati contenuti, modelli predittivi che decidono cosa potrebbe interessarci, filtri che modellano l’ambiente informativo attorno a noi. Questa mediazione invisibile è diventata così naturale che quasi non ce ne accorgiamo più.
Ed è proprio qui che TOK diventa più cruciale che mai.
Il suo obiettivo originario: mettere in discussione la natura della conoscenza, assume oggi una nuova, quasi civica urgenza. Perché interrogare la conoscenza significa inevitabilmente interrogare la tecnologia che la trasmette, la modifica e spesso la crea.
Per questo motivo, il nostro TOK è stato completamente ripensato: non come una materia teorica, ma come un’indagine profondamente contemporanea, intrecciata con il programma Human+ e con la nostra più ampia visione educativa.
Un nuovo TOK, radicato in una nuova consapevolezza: non conosciamo più da soli
Fin dall’inizio, gli studenti si confrontano con un’idea che ribalta il modello tradizionale del “soggetto conoscente”: tra noi e il mondo c’è sempre un filtro. Non è semplicemente un’interfaccia tecnologica, ma un attore epistemico con proprie priorità, modelli e valori.
È come se il nostro rapporto con la conoscenza non fosse più una linea retta, ma un triangolo: noi, il mondo e l’algoritmo che decide come il mondo ci appare.
Questo rende essenziale formare studenti capaci non solo di interpretare, ma di interpretare come le interpretazioni vengono costruite. È un livello di consapevolezza più profondo e complesso, ma anche necessario se vogliamo che crescano come cittadini autonomi in una società sempre più automatizzata.
Dalla teoria alla pratica: immersione nella società algoritmica
Il nuovo TOK si sviluppa come un percorso attraverso le grandi domande sulla conoscenza, esplorate attraverso la lente dell’AI: cosa significa conoscere? Con quali metodi? Da quali prospettive? Con quale responsabilità?
Comprendere ciò che vediamo e ciò che non vediamo
Gli studenti analizzano come l’AI ampli il nostro accesso alle informazioni, restringendolo al tempo stesso attraverso filtri personalizzati. Qui TOK diventa quasi autobiografico: gli studenti esaminano i propri feed e scoprono come la loro identità digitale venga plasmata da contenuti che li rispecchiano, più che ampliarli.
Emergono domande inattese:
Posso davvero dire di aver scelto ciò che so?
Posso chiamare “conoscenza” qualcosa che mi è stato servito semplicemente perché sono un buon target?
Comprendere come costruiamo la conoscenza
Arriva poi la metodologia. Gli studenti confrontano tre strumenti che utilizzano ogni giorno: il libro, il motore di ricerca e il modello linguistico. È qui che colgono la differenza tra una risposta corretta e un processo affidabile.
Un libro espone il proprio ragionamento.
Un motore di ricerca rimanda a delle fonti.
Un modello linguistico spesso non mostra né l’uno né le altre.
Il momento più rivelatore? Quando si rendono conto che un modello di AI può fornire una risposta plausibile ma epistemicamente vuota: dov’è l’evidenza? Perché dovrei fidarmi? Come posso verificarla?
Comprendere le prospettive attraverso cui guardiamo il mondo
Un altro modulo sposta l’attenzione sulla prospettiva. L’AI non è una “mente” neutrale: i suoi dati riflettono ciò che la società sceglie di misurare e ciò che sceglie di non misurare. Si aprono così discussioni su bias, disuguaglianze e voci escluse. Gli studenti scoprono che la vera questione non è solo “cosa fa l’AI”, ma quali storie ha imparato.
Comprendere chi detiene la responsabilità
Infine, il percorso diventa etico. Gli studenti analizzano casi reali in cui sistemi predittivi vengono utilizzati in ambiti sensibili come sicurezza, giustizia e medicina. Qui TOK diventa estremamente attuale: se un algoritmo prende una decisione, chi ne è responsabile? Una macchina può conoscere l’equità o può solo calcolarla?
Quando la teoria incontra il mondo reale: studenti ricercatori
L’aspetto più potente del nuovo TOK emerge nel modo in cui gli studenti diventano investigatori attivi. Le loro analisi non sono semplici compiti scolastici, ma autentiche esplorazioni critiche della nostra società digitale.
Predictive policing: quando un algoritmo crea etichette
Un gruppo ha analizzato i sistemi di predictive policing negli Stati Uniti, scoprendo come alcune tecnologie abbiano trasformato pattern statistici in liste di sospetti. Si sono concentrati su casi in cui individui, spesso giovani o appartenenti a minoranze, venivano monitorati non per ciò che avevano fatto, ma per ciò che un modello riteneva “probabile”.
La loro intuizione è stata tagliente: se i dati del passato sono distorti, il futuro previsto sarà inevitabilmente ingiusto. E soprattutto: quando una probabilità diventa un’etichetta, chi paga il prezzo dell’errore?
AI nei tribunali: la trasparenza che non c’è
Un altro gruppo ha indagato gli algoritmi di valutazione del rischio utilizzati in alcuni tribunali statunitensi per stimare la probabilità di recidiva degli imputati. Hanno messo in luce un paradosso: un algoritmo può influenzare la sentenza di una persona anche se né il giudice né l’imputato conoscono i criteri alla base della valutazione.
Gli studenti hanno colto il cuore del problema: una società può considerare legittima una decisione che non può essere spiegata? E ancora: la giustizia può essere delegata a un sistema incapace di comprendere la complessità delle vite umane?
AI in medicina: un futuro che cura, ma a quali condizioni?
Altri studenti si sono concentrati sull’AI in ambito medico, in particolare sulla diagnostica e sulla telechirurgia. Hanno analizzato un caso reale in cui un chirurgo ha operato a 7.000 km di distanza utilizzando un sistema robotico avanzato. Il potenziale tecnologico era straordinario, ma altrettanto significativi erano i rischi: se qualcosa va storto, chi è responsabile? Il medico remoto, gli ingegneri del software, l’ospedale?
Hanno inoltre sollevato una questione cruciale: tecnologie così avanzate rischiano di essere accessibili solo a un’élite, ampliando il divario tra chi può essere curato e chi no.
La tecnologia deve potenziare l’umanità, non sostituirla
Per noi di H-FARM International School, il principio è chiaro: la tecnologia deve amplificare ciò che ci rende umani, non metterlo in ombra.
Il TOK rinnovato si muove esattamente in questa direzione. Aiuta gli studenti a sviluppare una consapevolezza che va oltre la comprensione della tecnologia: li aiuta a comprendere se stessi in relazione alla tecnologia: i propri bias, i propri metodi, i propri valori, la propria responsabilità nella costruzione della conoscenza.
Perché il futuro non sarà plasmato da chi avrà accesso agli algoritmi più potenti, ma da chi saprà interpretarli con saggezza.