L’ultimo allarme risale solo a ieri: “L’Intelligenza Artificiale può diventare come una pandemia o una guerra nucleare”. Ma intanto il pessimo utilizzo umano di una tecnologia potenzialmente capace di portare veri progressi in molti campi, basti pensare alla scoperta di un antibiotico contro un batterio multiresistente da parte del Mit di Boston, sta creando una serie di problemi. Un giudice federale in Texas ha disposto che nessun documento legale redatto dall’intelligenza artificiale possa essere usato in Tribunale, senza la verifica della correttezza delle fonti da parte di un vero avvocato. Questo perché pochi giorni un avvocato a New York per costruire una causa si è affidato a ChatGpt che ha fornito sei casi precedenti, tutti risultati completamente inesistenti.
Brantley Starr, giudice federale del Texas – come spiega il sito specializzato techCrunch – sta adottando misure per garantire proprio che non si verifichino in aula casi del genere. Ha aggiunto un requisito secondo cui qualsiasi avvocato che compare nella sua corte deve attestare che “nessuna parte della causa è stata redatta dall’intelligenza artificiale generativa” o, se lo è, che è stata controllata “da un essere umano”. Tutti gli avvocati che compaiono davanti alla Corte devono quindi mettere agli atti un certificato appositamente redatto e dichiarare che qualsiasi eventuale contenuto prodotto dall’IA sia stato controllato accuratamente da una persona in carne ed ossa utilizzando i database legali tradizionali o fonti stampa. Gli errori dell’Intelligenza artificiale sono chiamati in termine tecnico allucinazioni: in pratica i chatbot forniscono risposte che suonano convincenti ma in realtà sono completamente inventate o sbagliate. Un problema importante che ha sta aprendo una riflessione sull’addestramento dei modelli di IA. Addestramento che viene impostato da esseri umani.