di Lucia Serino
Negli ultimi mesi il dibattito sul rapporto tra conoscenza e intelligenza artificiale ha conosciuto un’accelerazione significativa. Un recente articolo apparso su la Repubblica ha posto una questione cruciale: che cosa accade quando il sapere smette di essere il risultato di una costruzione collettiva e diventa un prodotto generato automaticamente da algoritmi? Il caso citato è quello di Grokipedia, progetto promosso nell’ecosistema di Elon Musk come alternativa a Wikipedia, basato su modelli di intelligenza artificiale e privo di contributi umani diretti.
Al di là del singolo esperimento, il punto è più ampio e riguarda il modello di conoscenza che stiamo progressivamente accettando. Per decenni, Wikipedia – con tutti i suoi limiti – ha rappresentato un laboratorio culturale unico: una conoscenza imperfetta, aperta, continuamente rinegoziata, fondata sulla responsabilità diffusa di una comunità. Ogni voce era il risultato di discussioni, correzioni, conflitti, mediazioni. In altre parole, il sapere non era solo informazione, ma processo.
Le nuove enciclopedie algoritmiche propongono invece un sapere “liscio”, coerente in apparenza, ma privo di trasparenza sulle fonti, sui criteri di selezione, sulle esclusioni. Non c’è discussione, non c’è dissenso visibile, non c’è possibilità di intervento diretto. Il testo “c’è già”, prodotto da un sistema che aggrega enormi quantità di dati e restituisce risposte plausibili, ma non negoziabili. È una conoscenza che si consuma, più che costruirsi.
Questo passaggio non è neutrale, soprattutto se osservato dal punto di vista della Pubblica amministrazione. La PA è, per sua natura, uno spazio in cui il sapere ha conseguenze concrete: norme interpretate, procedure applicate, decisioni che incidono sui diritti delle persone e sull’uso delle risorse pubbliche. Affidarsi in modo acritico a sistemi di conoscenza generati dall’IA comporta rischi evidenti.
Il primo rischio è quello della perdita di responsabilità. Se una decisione amministrativa si fonda su informazioni prodotte da un algoritmo opaco, chi ne risponde? La trasparenza, principio cardine dell’azione amministrativa, entra in tensione con modelli che non rendono espliciti i propri criteri decisionali. Il secondo rischio riguarda l’appiattimento del contesto: l’IA tende a generalizzare, mentre la PA lavora su casi specifici, territoriali, spesso eccezionali. La conoscenza amministrativa non è mai astratta; è situata, storica, relazionale.
C’è poi un rischio culturale più profondo: la rinuncia alla dimensione partecipativa del sapere pubblico. La PA non è solo utilizzatrice di conoscenza, ma anche produttrice di saperi: dati, buone pratiche, interpretazioni, competenze diffuse. Se il sapere viene delegato interamente a sistemi esterni, la pubblica amministrazione rischia di impoverire la propria capacità di apprendere, di riflettere criticamente, di migliorare i propri processi.
Questo non significa rifiutare l’intelligenza artificiale. Al contrario, significa riconoscerne il potenziale senza smarrire il ruolo umano. L’IA può essere uno strumento potente di supporto, di analisi, di sintesi. Ma non può sostituire la comunità epistemica che sta alla base di un’amministrazione democratica: funzionari, dirigenti, amministratori che discutono, interpretano, si assumono la responsabilità delle scelte.
Ogni epoca costruisce la propria idea di enciclopedia, e quindi la propria idea di conoscenza. La sfida per la Pubblica amministrazione oggi è evitare che il sapere diventi un flusso anonimo e incontestabile, prodotto da sistemi che nessuno governa davvero. Difendere la conoscenza come processo condiviso significa, in ultima analisi, difendere la qualità della democrazia amministrativa.



