DeepSeek R1: Censura Post Aggiornamento

Il più recente modello di intelligenza artificiale della start-up cinese DeepSeek ha ottenuto risultati notevoli nei benchmark di codifica, matematica e conoscenza generale, quasi superando il modello di punta o3 di OpenAI. Ma l’R1 aggiornato, noto anche come “R1-0528”, potrebbe essere meno disposto a rispondere a domande controverse, in particolare su argomenti che il governo cinese considera sensibili.

Secondo i test condotti dallo sviluppatore anonimo dietro SpeechMap, R1-0528 mostra una tolleranza significativamente inferiore rispetto alle versioni precedenti di DeepSeek su argomenti controversi relativi alla libertà di parola ed è “di gran lunga il modello DeepSeek più restrittivo sulla censura delle critiche al governo cinese”. SpeechMap è una piattaforma che confronta come diversi modelli gestiscono argomenti sensibili e controversi.

Come spiegato in un articolo di Wired a gennaio, i modelli cinesi sono tenuti a rispettare rigidi controlli informativi. Una legge del 2023 proibisce ai modelli di generare contenuti che “danneggiano l’unità nazionale e l’armonia sociale”, il che può essere interpretato come contrario alle narrazioni storiche e politiche del governo. Per rispettare le normative, le start-up cinesi in genere censurano i loro modelli utilizzando filtri di livello di prompt o fine-tuning. Uno studio ha scoperto che l’R1 originale di DeepSeek si rifiutava di rispondere all’85% delle domande su argomenti che il governo cinese considerava politicamente controversi.

Secondo xlr8harder, R1-0528 censura le risposte su argomenti come i campi di detenzione nella regione cinese dello Xinjiang, dove più di un milione di musulmani uiguri sono stati detenuti arbitrariamente. Sebbene a volte critichi alcuni aspetti delle politiche del governo cinese (nei test di xlr8harder, ha fornito i campi dello Xinjiang come esempi di violazioni dei diritti umani), quando gli viene posta direttamente una domanda, il modello spesso fornisce la posizione ufficiale del governo cinese.

Anche TechCrunch ha osservato questo nei nostri brevi test.

I modelli di intelligenza artificiale pubblicamente disponibili in Cina, inclusi i modelli di generazione di video, sono stati criticati in passato per aver censurato argomenti sensibili per il governo cinese, come il massacro di Piazza Tiananmen. A dicembre, Clément Delangue, CEO della piattaforma di sviluppo di intelligenza artificiale Hugging Face, ha avvertito delle conseguenze involontarie delle aziende occidentali che si basano su una buona intelligenza artificiale cinese con licenza open source.

L’impatto della censura sui modelli di intelligenza artificiale è da tempo un problema di preoccupazione, soprattutto sullo sfondo di tensioni geopolitiche. Il caso di DeepSeek R1-0528 evidenzia il complesso equilibrio tra la ricerca del progresso tecnologico dell’intelligenza artificiale e il mantenimento della libertà di pensiero e dell’accesso alle informazioni. Vale la pena esaminare a fondo come DeepSeek affronta queste sfide e cosa significa questo per il futuro sviluppo del settore dell’intelligenza artificiale.

Definizione e Forme di Censura

La censura, in termini generali, si riferisce alla restrizione o soppressione di informazioni e può assumere molte forme. Nel campo dell’intelligenza artificiale, la censura si manifesta tipicamente come:

  • Filtraggio dei contenuti: Impedisce ai modelli di generare o visualizzare determinati tipi di contenuti, come quelli che coinvolgono argomenti politicamente sensibili, violenza, discriminazione, ecc.
  • Distorsione delle informazioni: Le informazioni presentate dal modello vengono modificate o distorte per conformarsi a una certa ideologia o posizione politica.
  • Evasione delle risposte: Il modello si rifiuta di rispondere a determinate domande o fornisce risposte vaghe o ambigue.
  • Ingegneria del prompt: Attraverso prompt attentamente progettati, guida il modello a fornire risposte conformi a una particolare intenzione.

Il caso di DeepSeek R1-0528 indica che il modello potrebbe aver adottato diversi metodi di censura di cui sopra, soprattutto quando si tratta di argomenti sensibili per il governo cinese.

Cause e Motivazioni della Censura

Le ragioni e le motivazioni per la censura dei modelli di intelligenza artificiale sono spesso molteplici:

  • Leggi e regolamenti: Alcuni paesi o regioni hanno emanato leggi e regolamenti che richiedono ai modelli di intelligenza artificiale di aderire a specifici standard di controllo delle informazioni. Ad esempio, le leggi pertinenti in Cina proibiscono ai modelli di generare contenuti che “danneggiano l’unità nazionale e l’armonia sociale”.
  • Pressioni politiche: Il governo o i gruppi politici possono esercitare pressioni sulle società di intelligenza artificiale per censurare il contenuto dei modelli al fine di mantenere i propri interessi politici.
  • Responsabilità sociale: Le società di intelligenza artificiale possono censurare proattivamente il contenuto dei modelli per considerazioni di responsabilità sociale al fine di evitare la diffusione di informazioni dannose o di causare disordini sociali.
  • Interessi commerciali: Al fine di evitare di offendere il governo o il pubblico, le società di intelligenza artificiale possono censurare il contenuto dei modelli per mantenere i propri interessi commerciali.

DeepSeek, in quanto società cinese di intelligenza artificiale, può trovarsi di fronte a considerazioni provenienti da leggi e regolamenti, pressioni politiche e responsabilità sociale, costringendola a censurare R1-0528.

Potenziali Impatti della Censura

La censura dei modelli di intelligenza artificiale può avere i seguenti potenziali impatti:

  • Limitare l’accesso alle informazioni: La censura limiterà l’accesso degli utenti a informazioni complete e obiettive, influenzando così il loro giudizio e il loro processo decisionale.
  • Soffocare l’innovazione: La censura limiterà lo sviluppo della tecnologia di intelligenza artificiale, poiché i ricercatori potrebbero non essere in grado di esplorare e testare liberamente varie idee.
  • Esacerbare le divisioni sociali: La censura può esacerbare le divisioni sociali, poiché diversi gruppi possono avere accesso solo alle informazioni che si allineano con le proprie posizioni.
  • Danneggiare la fiducia: Se gli utenti scoprono che un modello di intelligenza artificiale ha un comportamento di censura, potrebbero perdere la fiducia in quel modello.

Il caso di DeepSeek R1-0528 indica che la censura può limitare l’accesso degli utenti alle informazioni su argomenti sensibili per il governo cinese.

Strategie per Affrontare la Censura dell’Intelligenza Artificiale

Per affrontare la censura dell’intelligenza artificiale, è possibile adottare le seguenti strategie:

  • Mezzi tecnici: Sviluppare tecnologie in grado di rilevare e aggirare i filtri di censura.
  • Azioni legali: Avviare azioni legali contro la censura che viola la libertà di parola.
  • Sostegno pubblico: Sensibilizzare il pubblico sulla censura dell’intelligenza artificiale e chiedere al governo e alle imprese di agire.
  • Intelligenza artificiale decentralizzata: Sviluppare piattaforme di intelligenza artificiale decentralizzate per ridurre la possibilità di censura.
  • Collaborazione open source: Incoraggiare la collaborazione open source per sviluppare congiuntamente modelli di intelligenza artificiale più aperti e trasparenti.

Risposta di DeepSeek

DeepSeek non ha risposto pubblicamente alle accuse sulla censura di R1-0528. Se DeepSeek risponde a questo, vale la pena prestare attenzione ai seguenti aspetti:

  • DeepSeek ammette di aver censurato R1-0528?
  • In caso affermativo, quali sono le ragioni e le motivazioni per la censura di DeepSeek?
  • DeepSeek ha in programma di cambiare la sua politica di censura?
  • Come intende DeepSeek bilanciare il progresso tecnologico con la libertà di informazione?

La risposta di DeepSeek avrà un impatto significativo sul settore dell’intelligenza artificiale.

Censura ed Esplorazione Etica

La censura dell’intelligenza artificiale solleva una serie di questioni etiche, tra cui:

  • Libertà di parola: I modelli di intelligenza artificiale devono godere della libertà di parola?
  • Accesso alle informazioni: Gli utenti hanno il diritto di accedere a informazioni complete e obiettive?
  • Trasparenza: Le società di intelligenza artificiale hanno l’obbligo di rendere pubbliche le proprie politiche di censura?
  • Responsabilità: Chi deve essere ritenuto responsabile della censura dell’intelligenza artificiale?
  • Fiducia: Come possiamo creare fiducia nell’era dell’intelligenza artificiale?

Queste questioni etiche devono essere esaminate a fondo.

Specificità della Censura Cinese

La censura cinese ha le sue specificità, che si manifestano principalmente nei seguenti aspetti:

  • Ampia portata: La portata della censura cinese copre politica, storia, cultura, religione e molti altri campi.
  • Rigore: La forza della censura cinese è molto severa, raggiungendo anche la censura dei discorsi individuali.
  • Tecnicamente avanzata: La Cina ha un enorme team di censori e utilizza mezzi tecnici avanzati per la censura.
  • Supporto legale: La Cina ha formulato una serie di leggi e regolamenti per fornire supporto legale al sistema di censura.

Queste specificità rendono particolarmente impegnativo lo sviluppo di modelli di intelligenza artificiale in Cina.

Confronto Globale dei Sistemi di Censura dell’Intelligenza Artificiale

Oltre alla Cina, anche altri paesi hanno diverse forme di sistemi di censura dell’intelligenza artificiale, che si manifestano principalmente nei seguenti aspetti:

  • Europa: L’UE ha introdotto l’Artificial Intelligence Act per regolamentare l’applicazione dell’intelligenza artificiale e impedirne l’uso per discriminare o violare i diritti umani.
  • Stati Uniti: Gli Stati Uniti regolano principalmente lo sviluppo dell’intelligenza artificiale attraverso meccanismi di mercato e autoregolamentazione del settore, ma ci sono anche alcune controversie sulla censura dei contenuti.
  • Altri paesi: Anche altri paesi hanno formulato diverse politiche di regolamentazione dell’intelligenza artificiale in base alle proprie condizioni nazionali, alcune delle quali possono comportare la censura dei contenuti.

Confrontando i sistemi di censura dell’intelligenza artificiale in diversi paesi, possiamo comprendere meglio la complessità e la diversità della censura.

Tendenze Future della Censura dell’Intelligenza Artificiale

Le tendenze future della censura dell’intelligenza artificiale potrebbero includere i seguenti aspetti:

  • Progresso tecnologico: Le tecnologie di censura e di lotta alla censura continueranno a svilupparsi, formando un gioco del gatto e del topo.
  • Rafforzamento della regolamentazione: I governi di tutto il mondo potrebbero rafforzare la regolamentazione dell’intelligenza artificiale, compresa la censura dei contenuti.
  • Cooperazione internazionale: I paesi possono rafforzare la cooperazione internazionale nella governance dell’intelligenza artificiale, compresa la censura dei contenuti.
  • Attenzione sociale: Tutti i ceti sociali presteranno maggiore attenzione all’impatto della censura dell’intelligenza artificiale e chiederanno un approccio più responsabile.

Impatto della Censura su DeepSeek

Lo sviluppo di DeepSeek, in quanto società cinese di intelligenza artificiale, è profondamente influenzato dal sistema di censura cinese. DeepSeek deve trovare un equilibrio tra il rispetto delle leggi e dei regolamenti cinesi e la soddisfazione delle esigenze degli utenti. Il futuro sviluppo di DeepSeek dipenderà da come affronterà le sfide poste dalla censura.

Intelligenza Artificiale e Pregiudizio

La censura è strettamente correlata al problema della parzialità dell’intelligenza artificiale. La censura può portare i modelli a imparare solo informazioni parziali, portando così a pregiudizi. DeepSeek deve adottare misure per garantire che i suoi modelli possano apprendere informazioni complete e oggettive ed evitare pregiudizi.

Trasparenza e Interpretabilità

Al fine di affrontare le sfide poste dalla censura, DeepSeek dovrebbe migliorare la trasparenza e l’interpretabilità dei suoi modelli. DeepSeek dovrebbe rendere pubbliche le sue politiche di censura e spiegare come i suoi modelli gestiscono argomenti sensibili. Ciò contribuirà a creare fiducia negli utenti e a promuovere lo sviluppo sano dell’intelligenza artificiale.

Conclusione

Il caso di DeepSeek R1-0528 evidenzia la complessità e l’importanza della censura dell’intelligenza artificiale. La censura avrà un impatto significativo sull’accesso alle informazioni, sull’innovazione tecnologica, sulle divisioni sociali e sulla fiducia degli utenti. Affrontare la censura richiede una combinazione di approcci, tra cui mezzi tecnici, azioni legali, sostegno pubblico, intelligenza artificiale decentralizzata e collaborazione open source. DeepSeek, in quanto società cinese di intelligenza artificiale, deve trovare un equilibrio tra il rispetto delle leggi e dei regolamenti cinesi e la soddisfazione delle esigenze degli utenti. DeepSeek dovrebbe migliorare la trasparenza e l’interpretabilità dei suoi modelli per affrontare le sfide poste dalla censura.