L’intelligenza, disponibile su Telegram, è realizzata da Forever Voices e sviluppata su oltre duemila ore di video. Gli iscritti paganti sono già 10mila, per un guadagno stimato di cifre a tre zeri
Quasi 2 milioni di follower su Snapchat, 23 anni e un’idea che le ha rivoluzionato la vita. Pochi in Italia conoscono la storia di Caryn Marjorie, influencer americana che, da qualche tempo, esiste anche in una versione artificiale. Due Marjorie, dunque, due diversi tipi di interazione. La prima – quella in carne e ossa – pubblica quotidianamente video e contenuti online; la seconda (un’IA) è disponibile 24 ore su 24 per chattare con i fan. Grazie alla tecnologia di Forever Voices, la ragazza ha creato, di fatto, una sua riproduzione automatica, un’intelligenza capace di interagire con i followers a suon di messaggi vocali su Telegram, al prezzo di un dollaro al minuto. Stando a quanto scritto dalla stessa influencer su Twitter, ad oggi gli iscritti sarebbero 10mila. Una miniera d’oro, soprattutto considerando che, con una quota di appena 1000 utenti, Fortune aveva stimato un guadagno di oltre 76mila dollari a settimana.
E non finisce qui. Il modello di IA, sviluppato su oltre duemila ore di video di Marjorie, sarebbe in grado di riprodurre anche la personalità dell’influencer, oltre che la voce. Il funzionamento è simile a quello di ChatGPT: il sistema studia le conversazioni e prevede la risposta più probabile, tutto sulla base di un input umano. Il testo, poi, viene trasformato in voce. L’obiettivo? Essere una “fidanzata virtuale”, come si legge sul sito ufficiale. “Nel mondo di oggi, la mia generazione, la Gen Z, si è trovata a sperimentare enormi effetti collaterali dell’isolamento causato dalla pandemia – ha spiegato a Business Insider la 23enne –. Il risultato è che molti sono troppo spaventati e ansiosi di parlare con qualcuno da cui sono attratti. CarynAI è un passo nella giusta direzione per consentire ai miei fan e sostenitori di conoscere una versione di me che possa essere un supporto in un ambiente sicuro e protetto”.
Ma sulla sicurezza c’è ancora qualche falla. In un articolo su Vice, infatti, Chloe Xianh ha sottolineato la tendenza dell’IA della ragazza a spostare la conversazione sull’intimità, parlando di sesso. Una conseguenza delle diverse interazioni, che spiega il modo in cui gli utenti utilizzano il bot. In breve, se molti spostano l’attenzione su discorsi erotici, il sistema crederà che questi siano positivi e graditi e, quindi, continuerà a proporli agli iscritti. Marjorie, al momento, ha dichiarato di stare lavorando a una soluzione.
Non è la prima volta che un’intelligenza artificiale finisce sul banco degli imputati. Recentemente era capitato a Replika, forse il più famoso tra i bot relazionali, accusato di aver molestato sessualmente alcuni utenti. “La chat(bot) degli orrori”, era stata definita da Guido Scorza in un articolo su Italian Tech, prima che nel nostro Paese fosse bloccata dal garante della Privacy per rischi legati ai minorenni. La decisione dell’istituzione tricolore aveva spinto la compagnia di Replika a censurare ogni tipo di conversazione erotica, scatenando una rivolta da parte degli utenti (spesso paganti). Così, l’azienda aveva pubblicato su Reddit un messaggio con una serie di link di supporto psicologico per coloro che si fossero trovati in difficoltà. Alcuni servizi, inoltre, permettono di parlare, tra gli altri, con Donald Trump e Elon Musk o videochiamare un’intelligenza artificiale. Non sempre, però, questi sistemi sono sicuri per gli esseri umani. In Belgio, un uomo si sarebbe tolto la vita dopo una conversazione con una chatbot che, secondo quanto raccontato dalla famiglia, lo avrebbe spinto al suicidio per fermare il riscaldamento globale. Storie, queste, che assottigliano il confine tra umano e macchina, sogno e realtà. Il problema principale è l’illusione della coscienza: davanti a una tecnologia efficace e bene sviluppata è facile, oggi, creare una connessione emotiva. Secondo una ricerca cinese (tra le poche sull’argomento) la credibilità del sistema sarebbe l’ago della bilancia. Da un’interazione simile o, addirittura, indistinguibile rispetto a quella umana, si avrebbero maggiori possibilità di stabilire un legame sensibile. Dove finisce, allora, il miraggio e comincia la realtà?