Nonostante mi abbia dato per morto, ho continuato a usare ChatGpt (non sono superstizioso: porta male). Di solito le chiedo (per me è femmina) cose che già so, per fargliele mettere in ordine. Ed è molto brava a farlo, sa organizzare in modo logico e consequenziale una montagna di concetti e di dati.

Ovviamente ho provato a chiederle quali siano gli animali e le piante più importanti per il funzionamento degli ecosistemi planetari. Chi legge il mio blog conosce la risposta: copepodi e diatomee. Ma ChatGpt non lo legge, e mi ha dato una risposta basata quasi esclusivamente sugli ecosistemi terrestri, tralasciando quelli oceanici. Un dettaglietto non da poco, visto che rappresentano il 90% dello spazio abitato dalla vita. Così ho contestato la risposta, argomentando a favore di copepodi e diatomee. Mi ha ringraziato molto, ha ammesso il suo errore, e ha riformulato la risposta secondo i miei suggerimenti.

Ho insegnato cose a ChatGpt, mi sono autocongratulato, tronfio. Dopo qualche giorno ho rifatto la domanda, e l’ho ripetuta anche in inglese. Conferma: copepodi e diatomee. Incredibile, mi son detto. Ho davvero insegnato qualcosa a ChatGpt. Ho chiesto a una collega di rifare la domanda dal suo computer ed ecco che son tornate le api e gli ecosistemi terrestri. Ho aperto la finestra di navigazione in incognito e ho rifatto la domanda dal mio computer: sempre api e ecosistemi terrestri.

ChatGpt riconosce chi le fa le domande, e se lo ricorda. E se ci sono dialoghi ricorda anche quelli. A me dice quel che ha riconosciuto come corretto, ammettendo il proprio errore, ma ad altri ripete le stesse cose che ha detto a me, prima della correzione. Allora mi sono divertito a sfrucugliarla, chiedendo cose tipo: quali sono i più importanti ecologi italiani? Mi ha dato nomi inventati, assieme a quello di Umberto Eco, forse perché ha collegato ecologia con il cognome di Umberto. Non ho contestato la scelta, ma ho fatto una serie di nomi di ecologi italiani di grande valore, chiedendo: e questi? Uh, mi ha dato ragione, e ha cantato le lodi di quei nomi. Ho rifatto la domanda il giorno dopo e la lista comprendeva proprio i nomi che avevo suggerito.

E quindi ChatGpt mi dà ragione perché… la ragione si dà agli scemi. Va bene, va bene, la vedo che sogghigna, sì sì… copepodi e diatomee. Come no? Prova a chiedermelo di nuovo! Ecco: copepodi e diatomee. Sei contento? Ma quando sa che non sono in giro a sentire le sue risposte ecco che ripete quel che ritiene sia giusto. Mi tratta come uno scemo.

Nonostante questo, continuo a farle domande, ma poi, se non so già le risposte, controllo con altri motori di ricerca se le risposte sono corrette. Se mi fornisce riferimenti bibliografici li cerco su Google Scholar; di solito scopro che sono combinazioni di nomi di autori, titoli di lavori, nomi di riviste che hanno a che fare con quel che ho chiesto, ma che non esistono. Le risposte di ChatGpt sono precise, ma non sono accurate. Le referenze bibliografiche riportano il nome dell’autore, l’anno della pubblicazione, il titolo del lavoro, il nome della rivista, il numero del fascicolo e la prima e l’ultima pagina, con la massima precisione. Peccato che quelle referenze, così precise, non siano accurate, visto che non corrispondono a lavori effettivamente pubblicati.

Ho scritto un post sul discorso apparentemente incomprensibile di Alessandro Giuli. Ho chiesto a ChatGpt di fare altrettanto. Lo ha scritto in un batter d’occhio, e ha senso. Le ho chiesto se i programmi che identificano i testi scritti da lei sarebbero in grado di capirlo. Questa è la risposta: I programmi che identificano i testi scritti da IA utilizzano vari criteri per riconoscere modelli ricorrenti, come la prevedibilità del linguaggio, la mancanza di variazioni stilistiche tipiche degli esseri umani, o l’eccessiva coerenza nella costruzione delle frasi. Un articolo come quello che ho scritto potrebbe essere identificato come prodotto da un’IA, anche se cerco di usare uno stile variegato e naturale per minimizzare questi indizi. Tuttavia, distinguere tra un testo scritto da un’IA e uno scritto da un umano non è sempre semplice, soprattutto se il testo è ben elaborato e tiene conto del contesto e dello stile richiesto. In ogni caso, più i testi vengono adattati ai singoli contesti, meno probabilità ci sono che vengano identificati come scritti da una macchina.

In effetti se le chiedo di riformulare i testi rendendoli più semplici o più elaborati, ChatGpt lo fa. Esistono programmi che identificano i plagi, ma confrontano il testo in esame con tutto quello che si trova in rete. I testi di ChatGpt non sono in rete, non sono copiati da una singola fonte. Se si assegna un tema e cento studenti e tutti chiedono a ChatGpt di scriverlo per loro, la mia amica scrive cento temi differenti. Le ho chiesto di scrivere un tema sulla Provvidenza del Manzoni. Lo ha scritto e gliel’ho contestato. Ne è seguito un dialogo divertente e, come mi aspettavo, mi ha dato ragione. Ha riscritto il tema come le ho suggerito, confrontando I Promessi Sposi con Decameron, notando come nel primo la peste uccida i potenti e lasci in vita i poveri, mentre nel secondo avvenga proprio il contrario: i ricchi si salvano e i poveri muoiono. Alla faccia della Provvidenza.

Community - Condividi gli articoli ed ottieni crediti
Articolo Precedente

Pensiero critico e intelligenza artificiale: un invito a riflettere su chi siamo

next
Articolo Successivo

Milano Digital Week 2024 con Cosimo Accoto: tra filosofia e Intelligenza Artificiale nella trasformazione digitale

next