I chatbot di AI citano solo i media che tendono a sinistra? Cosa dice lo studio

I principali chatbot citano un numero ristretto di fonti giornalistiche, e nel Regno Unito privilegiano Guardian e Bbc rispetto ai tabloid conservatori molto diffusi. Ecco quali sono le ragioni (e i rischi) di questo sistema

I chatbot di AI citano solo i media che tendono a sinistra? Cosa dice lo studio
30 gennaio 2026 | 17.59
LETTURA: 3 minuti

I chatbot di intelligenza artificiale stanno diventando sempre più spesso la “porta d’ingresso” alle notizie. Ma da quali fonti attingono quando rispondono a domande sull’attualità? E soprattutto: esiste uno sbilanciamento politico nelle testate citate?

Un nuovo studio del britannico Institute for Public Policy Research (Ippr), pubblicato oggi 30 gennaio 2026, offre una delle analisi più dettagliate finora disponibili su questo tema.

Un esperimento su quattro AI e cento domande di attualità

I ricercatori dell’Ippr hanno testato quattro strumenti di AI molto diffusi – ChatGPT, Google Gemini, Google AI Overviews e Perplexity – sottoponendo loro 100 domande casuali su notizie del Regno Unito, che spaziavano dalla politica allo sport, dall’economia allo spettacolo. Nel complesso sono stati analizzati oltre 2.500 link e citazioni, con tutte le funzioni di personalizzazione disattivate, per osservare il comportamento “neutro” dei modelli. Il risultato principale è chiaro: le AI citano un numero molto ristretto di fonti giornalistiche, concentrandosi su pochi marchi dominanti.

Guardian e BBC dominano le citazioni

Secondo i dati dello studio, The Guardian è la testata più citata da ChatGPT e Google Gemini, comparendo rispettivamente nel 58% e nel 53% delle risposte. La BBC, pur essendo il mezzo di informazione più utilizzato e più fidato nel Regno Unito, compare in modo diseguale: è molto presente nelle Google AI Overviews (52,5%), ma totalmente assente nelle risposte di ChatGPT e Gemini. Al contrario, testate conservatrici o tabloid molto diffusi come il Daily Mail, The Sun o GB News compaiono solo in una quota marginale delle risposte, spesso tra lo 0% e il 3%, nonostante una presenza significativa nel mercato reale dell’informazione britannica.

È un bias politico o una scelta tecnica?

Lo studio invita alla cautela nel parlare di “bias ideologico” in senso stretto. Le differenze nelle citazioni non dipendono solo dall’orientamento editoriale delle testate, ma da una combinazione di fattori:

- Accordi di licensing: alcune testate, come il Guardian o il Financial Times, hanno accordi commerciali con aziende di AI che rendono i loro contenuti più facilmente utilizzabili.

- Blocchi all’accesso: il Daily Mail e la BBC, ad esempio, limitano o vietano lo scraping dei propri contenuti da parte dei chatbot, spingendo le AI a usare fonti alternative.

- Preferenza per brand “prestigiosi” o generalisti, percepiti come più affidabili o più facili da integrare nei sistemi di risposta automatica.

- Uso di agenzie e media “di sintesi”, come Reuters o Press Association, che offrono informazioni già strutturate.

In altre parole, il risultato finale può apparire politicamente sbilanciato anche senza una decisione ideologica esplicita.

Nuovi vincitori e nuovi perdenti dell’informazione

Uno degli aspetti più rilevanti dello studio è l’idea che l’AI stia creando una nuova gerarchia dell’informazione, diversa da quella basata su audience, vendite o click. Alcune testate diventano iper-visibili perché “compatibili” con i sistemi di AI, mentre altre – incluse testate popolari e commercialmente forti – rischiano di essere marginalizzate. Secondo l'istituto britannico, questo processo avviene senza trasparenza: gli utenti non sanno perché una fonte viene citata e un’altra no, né quali criteri guidino la selezione.

Un rischio per il pluralismo e per il modello economico dei media

Lo studio lancia un doppio allarme. Da un lato, la concentrazione delle fonti rischia di ridurre la pluralità dei punti di vista e di amplificare alcune cornici interpretative a scapito di altre. Dall’altro, l’uso crescente di risposte AI riduce drasticamente il traffico verso i siti di informazione: quando compare una Google AI Overview, gli utenti sono quasi la metà meno propensi a cliccare sui link alle notizie. Per l'Ippr, senza regole chiare su trasparenza, attribuzione delle fonti e remunerazione dei contenuti, l’AI rischia di indebolire ulteriormente la sostenibilità economica del giornalismo di qualità.

Non è neutrale, ma può essere governata

Il messaggio finale dello studio è netto: l’AI non è un intermediario neutrale dell’informazione, ma un nuovo attore editoriale che prende decisioni – spesso invisibili – su cosa mostrare e cosa no. Questo non significa che i chatbot siano “di sinistra”, ma che le loro scelte tecniche e commerciali producono effetti politici e culturali reali. Per questo l'Ippr chiede interventi pubblici su trasparenza, licensing collettivo e pluralismo informativo, prima che l’AI diventi il principale arbitro di ciò che è “notizia”.

Riproduzione riservata
© Copyright Adnkronos
Tag
Vedi anche


SEGUICI SUI SOCIAL

threads whatsapp linkedin twitter youtube facebook instagram

ora in
Prima pagina
articoli
in Evidenza