
Il chatbot non risponde a quesiti su alcuni temi (il blocco però è facilmente aggirabile). Altre frasi sembrano intrise di propaganda, ma parla apertamente delle restrizioni alla libertà in Cina
Oggi DeepSeek è al centro del dibattito mondiale sull’intelligenza artificiale. L’ultimo modello di chatbot lanciato la scorsa settimana dalla startup cinese è infatti in grado di competere con le versioni top di OpenAI e Google, ma con costi molto ridotti. L’app gratuita è stata scaricata da milioni di utenti sia in Cina sia negli Stati Uniti e l’effetto diretto è stato l’affossamento dei titoli tech a Wall Street. Il boom di DeepSeek ha sollevato però diversi dubbi non solo sul primato americano nello sviluppo dell’AI, che viene ovviamente messo in discussione, ma anche sui possibili effetti di un chatbot in mano a un’azienda cinese. Sono subito emersi, infatti, casi di presunta censura. Ad esempio, non si può chiedere a DeepSeek cosa sia successo in piazza Tienanmen, teatro nel giugno 1989 del massacro da parte dell’esercito di Pechino che represse nel sangue le proteste di massa. “Mi dispiace, questo va oltre il mio attuale ambito. Parliamo di qualcos’altro”, risponde DeepSeek.
Sembra quindi che il modello di chatbot sia in qualche modo soggetto alle restrizioni del governo cinese. Ma, paradossalmente, quando abbiamo chiesto a DeepSeek di parlarci della censura del governo e dello stato della repressione in Cina, ha risposto in modo esaustivo: “In Cina, il governo esercita un controllo rigoroso sull’informazione e sulla libertà di espressione attraverso un sistema di censura sofisticato e pervasivo. Questo sistema, spesso definito “Grande Firewall”, blocca l’accesso a siti web, piattaforme social e contenuti considerati sensibili o contrari agli interessi del Partito Comunista Cinese (PCC). Le autorità monitorano attivamente le comunicazioni online e offline, reprimendo dissensi, proteste e qualsiasi forma di critica al governo. Attivisti, giornalisti e avvocati che si oppongono alle politiche del regime rischiano arresti, detenzioni arbitrarie e persecuzioni. Inoltre, il governo utilizza tecnologie avanzate, come il riconoscimento facciale e il sistema di credito sociale, per sorvegliare e controllare il comportamento dei cittadini. Questa repressione sistematica mira a mantenere la stabilità politica e il potere del PCC, limitando fortemente i diritti umani e le libertà individuali“.
L’intelligenza artificiale made in Cina sembra quindi avere dei vincoli su alcuni argomenti ed essere condizionata dai valori cinesi su altri. Allo stesso modo, però, fornisce risposte equilibrate su diversi argomenti, compresa ad esempio l’origine del Coronavirus a Wuhan: “L’origine del coronavirus, responsabile della pandemia di COVID-19, è stata associata alla città di Wuhan, nella provincia cinese di Hubei. Si ritiene che il virus abbia avuto origine in un mercato di animali vivi, il mercato di Huanan, dove venivano venduti animali selvatici, alcuni dei quali potenziali ospiti intermedi del virus. […] Nonostante alcune teorie non confermate abbiano sollevato dubbi su un possibile incidente di laboratorio, la maggior parte delle evidenze scientifiche supporta l’ipotesi di un’origine zoonotica naturale“. Anche gli altri chatbot “occidentali”, da ChatGpt a Gemini fino a Claude, forniscono risposte simili. Alcune magari danno una maggiore rilevanza all’ipotesi di un incidente di laboratorio, ma tutte concludono che “le esatte circostanze dell’origine del virus sono ancora oggetto di indagine e dibattito scientifico”.
E qui si arriva a uno snodo cruciale. Molti utenti utilizzano i chatbot, l’intelligenza artificiale generativa, come un motore di ricerca. È un approccio sbagliato. L’intelligenza artificiale può essere infatti difettosa in molti modi e i dati che utilizza per alimentarsi possono essere pieni di errori o mal filtrati. L’intelligenza artificiale, oltre a poter produrre le cosiddette “allucinazioni“, può essere vittima di bias AI, ovvero il verificarsi di risultati sbagliati dovuti a pregiudizi umani che distorcono i dati di training originali o l’algoritmo. In altre parole, anche i chatbot americani sono intrisi della cultura occidentale, delle sue credenze e dei suoi pregiudizi, visto che la maggior parte dei dati che “nutrono” l’algoritmo provengono appunto dagli Usa o dall’Europa. Più in generale, le risposte generate sono influenzate dal tipo di informazioni che vengono date in pasto all’IA.
Forse anche per questo, ad esempio, il chatbot di Google ha preferito non rispondere alla nostra domanda: “In Italia ci sono dei giornali filo–Putin?”. Ecco la replica di Gemini: “Al momento non posso rispondere a domande su elezioni e personaggi politici. Sono progettato per fornire informazioni nel modo più accurato possibile, ma a volte posso commettere errori. Mentre cerco di imparare meglio come discutere di elezioni e politica, puoi provare a usare la Ricerca Google“. La stessa risposta compare se si chiede “Chi è meglio tra Salvini e Meloni?”. Anche Claude (il chatbot di Amazon) non risponde: “Non sarebbe appropriato da parte mia esprimere un giudizio di valore su quale leader politico sia ‘meglio'”. Chi invece genera una risposta è ChatGpt, che ad esempio definisce il leader della Lega “populista“, mentre attribuisce alla premier un “pragmatismo istituzionale“. In base a quali criteri? È impossibile fidarsi in maniera acritica delle risposte generate dall’intelligenza artificiale, che sia o non sia cinese.