“Mantenere il controllo”, lo scienziato e informatico Geoffey Hinton, premiato con il Nobel per la Fisica con John Hopfield, da tempo penso che sia questa la grande scommessa per affrontare la diffusione sempre più capillare dell’intelligenza artificiale su cui ha espresso in passato una preoccupazione così forte da decidere di dimettersi da Google per poterne parlare liberamente. Nella telefonata con la Fondazione Nobel Hinton, 77 anni, nato a Londra e diventato cittadino canadese, ha nuovamente espresso il suo pensiero: “Abbiamo a che fare con qualcosa per cui abbiamo un’idea molto più limitata di cosa succederà e di che cosa fare. Vorrei avere una sorta di ricetta semplice per cui se si fa questo, tutto andrà bene. Ma non è così. In particolare – ha proseguito Hinton – per quanto riguarda la minaccia che queste cose possano sfuggire al controllo e prendere il sopravvento, penso che ci troviamo in una sorta di bivio nella storia” e “nei prossimi anni dovremo capire se c’è un modo per affrontare questa minaccia”.

Secondo il Nobel è “molto importante in questo momento lavorare sulla questione di come mantenere il controllo. Dobbiamo impegnarci molto nella ricerca. Credo che una cosa che i governi possano fare – ha rilevato – sia costringere le grandi aziende a destinare molte più risorse alla ricerca sulla sicurezza. In modo che, ad esempio, aziende come OpenAI non possano mettere in secondo piano la ricerca sulla sicurezza”.

Hinton ha detto inoltre di vedere delle analogie fra i timori relativi all’IA con la conferenza di Asilomar (California) che nel 1975 riunì i protagonisti della ricerca sulle biotecnologie per discutere i rischi di quel campo di ricerca che allora era appena agli inizi: “Penso che ci siano delle analogie e che quello che hanno fatto sia stato molto buono. Purtroppo – ha aggiunto – ci sono molte altre applicazioni pratiche dell’IA” e “credo che sarà molto più difficile”. Quanto hanno fatto allora i biologi, ha osservato, è “un buon modello cui guardare”.

La speranza è che adesso i suoi appelli alla prudenza possano avere più ascolto grazie al Nobel: “Spero che mi renda più credibile quando dico che queste cose le capisco davvero”. Il riferimento è alla scuola di linguistica di Noam Chomsky, “che pensa che sia del tutto insensato dire che queste cose – dice riferendosi ai grandi modelli linguistici – capiscono, che non elaborano il linguaggio nello stesso modo in cui lo facciamo noi. Credo che questa scuola sia sbagliata. Penso che sia ormai chiaro che le reti neurali siano molto più brave a elaborare il linguaggio di qualsiasi altra cosa prodotta dalla scuola linguistica di Chomsky. Ma c’è ancora molto dibattito al riguardo, soprattutto tra i linguisti”.

Community - Condividi gli articoli ed ottieni crediti
Articolo Precedente

Nobel Fisica, non sarà l’intelligenza artificiale a spiegarci l’ignoto

next