L’Influenza Pervasiva delle Falsità Sostenute dal Cremlino
Il nocciolo del problema risiede nella deliberata contaminazione delle fonti di informazione online. Inondando i risultati di ricerca e i web crawler con falsità pro-Cremlino, una rete di attori della disinformazione sta attivamente plasmando l’output dei modelli linguistici di grandi dimensioni (LLM). Questi modelli, che alimentano i chatbot di intelligenza artificiale con cui interagiamo quotidianamente, si basano su vasti set di dati estratti da Internet. Quando questi dati sono inquinati da disinformazione, l’output risultante riflette queste distorsioni.
NewsGuard, una società che fornisce valutazioni di credibilità e impronte digitali di disinformazione per siti web di notizie e informazioni, ha condotto un’analisi approfondita di questo fenomeno. I loro risultati rivelano una realtà inquietante: una parte significativa delle informazioni generate dai principali chatbot di intelligenza artificiale fa eco alle narrazioni propagate da una specifica rete di siti web pro-Cremlino.
La Meccanica della Disinformazione: Come Vengono Manipolati i Modelli di IA
La strategia impiegata da questa rete di disinformazione è sia insidiosa che sofisticata. Non è principalmente mirata ad attirare lettori umani; piuttosto, è progettata per manipolare gli algoritmi stessi che sono alla base dei chatbot di intelligenza artificiale. Questa tattica, nota come ‘LLM grooming’, prevede l’inserimento strategico di informazioni false o fuorvianti su numerosi siti web, sapendo che queste piattaforme saranno analizzate e acquisite dagli LLM.
L’American Sunlight Project (ASP), un’organizzazione no-profit statunitense, ha evidenziato questa minaccia in un rapporto del febbraio 2025. Hanno avvertito che la rete Pravda, una raccolta di siti web che promuovono narrazioni filo-russe, è stata probabilmente creata con lo scopo esplicito di influenzare i modelli di intelligenza artificiale. Maggiore è il volume di narrazioni pro-Russia, maggiore è la probabilità che gli LLM le integrino nella loro base di conoscenza.
Le implicazioni di ciò sono di vasta portata. Man mano che gli LLM diventano sempre più integrati nella nostra vita quotidiana, fungendo da fonti di informazione e assistenza, il potenziale per la diffusione capillare di contenuti manipolati è allarmante.
L’Audit di NewsGuard: Quantificare l’Impatto
Per valutare l’entità di questo problema, NewsGuard ha condotto un audit di dieci importanti chatbot di intelligenza artificiale. Questi includevano:
- ChatGPT-4o di OpenAI
- Smart Assistant di You.com
- Grok di xAI
- Pi di Inflection