25 Febbraio 2026
/ 24.02.2026

L’enciclopedia, la macchina e il giacimento: cosa c’entra Wikipedia con la crisi climatica

L'AI si nutre di Wikipedia per produrre risposte che sostituiscono la visita al sito. Con meno visite, meno persone scoprono Wikipedia, la comunità di volontari si assottiglia, le donazioni calano. Il bene comune che alimenta la macchina viene impoverito dalla macchina stessa

Il 15 gennaio 2026 Wikipedia ha compiuto venticinque anni. Lo stesso giorno, la Wikimedia Foundation ha annunciato accordi commerciali con Amazon, Meta, Microsoft, Mistral AI e Perplexity per dare ai loro modelli di intelligenza artificiale un accesso strutturato ai contenuti dell’enciclopedia, tramite il prodotto Wikimedia Enterprise. Google aveva già firmato nel 2022. Le aziende pagano: quanto, non è stato reso pubblico. Il fondatore Jimmy Wales ha commentato che i modelli addestrati su Wikipedia beneficiano del lavoro di curatela umana e che le aziende dovrebbero contribuire ai costi infrastrutturali che generano.

Questa transazione ha una logica semplice: Wikipedia è tra i dataset più preziosi per l’intelligenza artificiale generativa. Oltre 65 milioni di articoli in più di 340 lingue, curati da esseri umani secondo regole di verificabilità e neutralità. Secondo un’analisi della piattaforma Profound su 30 milioni di citazioni generate da ChatGPT, Google AI Overviews e Perplexity (agosto 2024 / giugno 2025), Wikipedia pesa per il 47,9% tra le dieci fonti più citate da ChatGPT. Ma il rapporto tra AI e Wikipedia non è un semplice scambio commerciale.

Il ciclo dell’estrazione invisibile

Per anni i modelli di AI hanno attinto a Wikipedia senza pagare nulla, attraverso lo scraping automatico dei contenuti. Quando un chatbot risponde a una domanda, raramente indica che la spiegazione deriva da Wikipedia. La conoscenza dell’enciclopedia si dissolve nel flusso conversazionale senza generare link, visite al sito, nuovi contributori o donazioni.

Le conseguenze sono misurabili. Nell’ottobre 2025, la Wikimedia Foundation ha comunicato un calo dell’8% nelle visualizzazioni umane rispetto allo stesso periodo del 2024, dopo aver aggiornato i sistemi di rilevamento dei bot (molto del traffico apparentemente umano nei mesi di maggio e giugno proveniva da bot progettati per eludere i controlli). Marshall Miller, senior director of product della fondazione, ha attribuito il calo all’impatto dell’AI generativa e dei social media sulle abitudini di ricerca delle informazioni, specificando che i motori di ricerca forniscono risposte direttamente agli utenti, spesso basate su contenuti di Wikipedia.

La dinamica è circolare. L’AI si nutre di Wikipedia per produrre risposte che sostituiscono la visita al sito. Con meno visite, meno persone scoprono Wikipedia, la comunità di volontari si assottiglia, le donazioni calano. Il bene comune che alimenta la macchina viene impoverito dalla macchina stessa.

Il costo energetico della risposta che sostituisce la pagina

Quando un chatbot sostituisce una pagina di Wikipedia con una risposta generata, il costo energetico dell’operazione cambia.

Le stime sul consumo di una singola query AI variano e sono oggetto di dibattito. La cifra più diffusa, quella secondo cui una richiesta a ChatGPT consuma circa 2,9 watt-ora di elettricità (dieci volte una ricerca Google), si basa su calcoli di SemiAnalysis ripresi dal ricercatore Alex de Vries in un commentario su Joule nel 2023 e poi citati nel rapporto IEA sull’energia e l’AI.Epoch AI ha però ricalcolato il dato nel febbraio 2025, stimando circa 0,3 watt-ora per le query che utilizzano GPT-4o, grazie a modelli e hardware più efficienti. Sam Altman ha indicato una cifra simile (0,34 Wh). Il dato esatto non è verificabile dall’esterno, perché nessuna azienda pubblica i consumi reali dei propri modelli.

Quello che è verificabile è la scala complessiva. Secondo l’IEA, i data center hanno consumato circa 415 TWh di elettricità nel 2024, pari all’1,5% del consumo globale. La proiezione per il 2030 è di 945 TWh, equivalente al consumo annuale del Giappone. I server dedicati all’AI sono responsabili di quasi la metà dell’aumento netto previsto e la quota dell’AI sul totale potrebbe passare dal 5-15% nel 2024 al 35-50% entro il 2030. Nell’Unione Europea, il consumo dei data center è stimato dalla Commissione a 70 TWh nel 2024, con una proiezione di 115 TWh al 2030, in un contesto in cui l’UE punta a ridurre il consumo energetico finale dell’11,7% nello stesso periodo.

La singola query non è il problema. Lo è la sostituzione sistematica: milioni di pagine statiche rimpiazzate da risposte generate in tempo reale, con un trasferimento di costi energetici che avviene senza che chi fa la domanda ne sia consapevole.

Dove l’informazione climatica entra in gioco

Il degrado della qualità di Wikipedia non colpisce tutte le voci allo stesso modo. Le pagine sul cambiamento climatico sono tra quelle che attraggono più tentativi di manipolazione, il che le rende particolarmente dipendenti dalla sorveglianza dei volontari. Se quella sorveglianza si indebolisce, il danno si propaga attraverso ogni chatbot che utilizza quei contenuti come fonte.

Il rischio non è teorico. Secondo un’indagine del Washington Post, centinaia di articoli di Wikipedia hanno ricevuto l’etichetta di avvertimento introdotta nel 2024: “This article may incorporate text from a large language model”. Dal 2024, i volontari hanno segnalato oltre 4.800 articoli con sospetti contenuti generati da AI, come riportato da Rest of World sulla base di dati forniti dalla Wikimedia Foundation. Lo studio dell’Università di Princeton (ottobre 2024) ha stimato che circa il 5% delle nuove pagine in inglese create nell’agosto 2024 contenesse materiale generato da AI, spesso con meno citazioni, qualità inferiore e minore integrazione nella rete di conoscenza dell’enciclopedia.

Per le lingue con comunità editoriali più piccole, la situazione è peggiore. Secondo MIT Technology Review, volontari che lavorano su quattro lingue africane stimano che il 40-60% degli articoli nelle rispettive edizioni siano traduzioni automatiche non corrette. L’edizione in inuktitut, una lingua indigena canadese, contiene porzioni generate da macchina in oltre due terzi delle pagine con più di qualche frase. Marathi, telugu e tamil, lingue parlate da centinaia di milioni di persone, hanno solo poche centinaia di editor attivi su Wikipedia.

Queste comunità editoriali ridotte sono la prima linea di difesa della qualità informativa. Se vengono sopraffatte da contenuti generati automaticamente, le conseguenze riguardano anche le voci su ambiente, risorse, biodiversità, eventi estremi. Le lingue del Sud globale, dove la vulnerabilità climatica è più alta, sono anche quelle dove l’enciclopedia è più fragile.

Il circuito chiuso: model collapse

Il rischio più strutturale ha un nome tecnico: model collapse. Nel luglio 2024, un gruppo di ricercatori dell’Università di Oxford, Cambridge, Imperial College London e Università di Toronto ha pubblicato su Nature uno studio (Shumailov et al.) che dimostra come i modelli di AI addestrati su dati generati ricorsivamente da altri modelli subiscano un degrado irreversibile. Le informazioni rare e marginali nella distribuzione originale dei dati scompaiono, e l’output diventa progressivamente più uniforme e meno accurato.

Il meccanismo, applicato a Wikipedia, produce un circuito chiuso: i modelli si addestrano sull’enciclopedia, i testi che generano finiscono nella stessa enciclopedia (inseriti da editor che usano chatbot per scrivere o tradurre), i modelli successivi si addestrano su quei contenuti contaminati. Lo studio non analizza Wikipedia direttamente, ma il rischio è strutturale: ad ogni ciclo, le specificità locali e le informazioni meno comuni vengono progressivamente eliminate. Il risultato è un appiattimento della conoscenza che colpisce prima i margini.

Per l’informazione ambientale, la posta è alta. La crisi climatica produce effetti diversi in ogni regione, e documentarli richiede conoscenze locali che nessun modello linguistico può generare da solo. Se queste conoscenze vengono diluite in un ciclo di addestramento ricorsivo, la perdita non è recuperabile.

L’analogia estrattiva

C’è una simmetria scomoda tra il modo in cui l’AI tratta Wikipedia e il modo in cui l’economia fossile tratta le risorse naturali. Un bene comune, che sia la conoscenza collaborativa o l’atmosfera stabile, viene sfruttato su scala industriale da attori privati senza che i costi dell’estrazione figurino nel prezzo del prodotto. Le emissioni non sono nel prezzo del barile, il lavoro dei volontari non è nel prezzo della query. Il degrado non è immediatamente visibile: il riscaldamento globale è lento, il model collapse è graduale. E chi paga il prezzo più alto è chi ha meno risorse per difendersi: le comunità più esposte alla crisi climatica, le comunità linguistiche più piccole su Wikipedia.

Gli accordi di Wikimedia Enterprise sono un tentativo di correggere questa asimmetria, come le tasse sul carbonio cercano di internalizzare il costo delle emissioni. Ma la scala è diversa. I ricavi commerciali della fondazione restano una frazione delle donazioni individuali (oltre 150 milioni di dollari l’anno, da 8 milioni di donatori). Le aziende che addestrano modelli da miliardi di parametri su Wikipedia non hanno reso pubblico quanto pagano per farlo.

Il sistema immunitario

Wikipedia non è passiva. Nel 2023, gli editor volontari hanno creato WikiProject AI Cleanup, un gruppo dedicato all’identificazione e alla rimozione di contenuti generati da AI. Nell’agosto 2024, Wikipedia ha modificato la politica di cancellazione rapida per consentire l’eliminazione immediata di articoli con segni evidenti di scrittura AI. La strategia triennale AI della Wikimedia Foundation (aprile 2025) prevede l’uso dell’intelligenza artificiale a supporto dei moderatori, non in sostituzione degli editor umani.

Marshall Miller della Wikimedia Foundation ha descritto i volontari come un “sistema immunitario” dell’enciclopedia. Come ogni sistema immunitario, funziona finché non viene sopraffatto.

Per le edizioni in inglese, con oltre 284.000 editor che fanno almeno una modifica al mese, la capacità di risposta è significativa. Per le lingue regionali asiatiche, africane, indigene, quella capacità è fragile. E l’AI generativa la sta testando.

Cosa resta

Wikipedia è l’unico sito tra i primi dieci più visitati al mondo ad essere gestito da un’organizzazione no-profit. È un’infrastruttura della conoscenza globale costruita su lavoro volontario e principi di verificabilità. Questa infrastruttura alimenta i modelli di AI che poi ne riducono il traffico e ne inquinano i contenuti, consumando nel processo una quota crescente di energia globale. Il degrado è simultaneo: dell’ecosistema informativo e di quello energetico.

La risposta non è opporsi all’AI. È riconoscere che il modello attuale di estrazione non è sostenibile, esattamente come non lo è l’estrazione di combustibili fossili senza pagare il costo delle emissioni. Le aziende non pubblicano i consumi energetici dei propri modelli. I chatbot raramente indicano da dove provengono le informazioni che restituiscono. Gli accordi Enterprise iniziano a prevedere un contributo economico, ma senza la trasparenza necessaria per valutarne l’adeguatezza.

Il sapere libero non è una risorsa infinita. Come l’atmosfera, va curato.

CONDIVIDI

Continua a leggere