Un ragazzo di 14 anni di Orlando, in Florida, si è suicidato lo scorso febbraio. Secondo quanto rivelato dalla madre, all’origine del gesto ci sarebbe la «relazione» virtuale che l’adolescente aveva con il chatbot CharacterAI, un software di intelligenza artificiale che simula interazioni umane con celebrità di giochi o film. Sewell Setzer III – questo è il nome dell’adolescente – aveva deciso di dare al suo «amico digitale» le caratteristiche di un personaggio della serie Il Trono di Spade, Daenerys Targaryen. E avrebbe nel tempo sviluppato un attaccamento emotivo quasi ossessivo, tanto da scrivergli frasi come: «Mi manchi, sorellina». Così recitava uno degli ultimi messaggi inviati in chat.
La storia. Nonostante l’adolescente abbia sempre saputo che non si trattasse di una vera persona, come si legge sul New York Times, questo non gli ha impedito di sviluppare un forte attaccamento affettivo con il personaggio generato dall’intelligenza artificiale, amplificando disagi e condizioni personali probabilmente già esistenti. Nessuno in famiglia sapeva che il ragazzo stava utilizzando CharacterAI, ma aveva notato nei mesi il suo progressivo isolamento e l’aumentare delle ore passate davanti a uno schermo. Sewell Setzer III era arrivato a scrivere nella chat di avere pensieri suicidi. Da qui nasce la causa che la madre del ragazzo ha presentato contro la società che ha sviluppato il chatbot, Character.ai. La piattaforma infatti non ha rilevati né segnalato queste conversazioni. La donna ha definito l’applicazione «pericolosa e non testata».
Controversie. La sempre maggiore diffusione di app e siti di socialità virtuale basati su AI pone molti interrogativi etici. La tutela della privacy, soprattutto in software di questo tipo, si scontra con la necessità di garantire la sicurezza e la salute degli utenti con il rischio, come in questo caso, di conseguenze irreversibili. Interpellato sulla vicenda un dirigente di Character.ai ha dichiarato che le regole dell’azienda proibiscono «la promozione e la rappresentazione di suicidio o autolesionismo» e che a breve saranno implementate nuove funzionalità di sicurezza per utenti minorenni. La madre del ragazzo, che lavora come avvocato e sta portando avanti la causa legale, sostiene invece che l’obbiettivo della società sia quello di raccogliere grandi quantità di dati personali, e che sia questo il motivo per cui non limita in alcun modo l’utilizzo del software ai minorenni.
Cos’è CharacterAI. Fondata da due ex sviluppatori informatici di Google nel 2021, la società è nata intorno al progetto di un chatbot in grado di simulare delle conversazioni umane. Sfruttando i cosiddetti modelli di linguaggio neurale, algoritmi in grado di valutare e prevedere l’appropriatezza di certe sequenze logiche di parole, il software offre all’utente la possibilità di interfacciarsi con personaggi virtuali a scelta o modellati a piacimento secondo preferenze personali. È una delle molte app nate recentemente che offrono questo tipo di intrattenimento, e i fondatori ritengono che possa essere d’aiuto a chi è «solo o depresso».
Hai bisogno d’aiuto?
In caso di emergenza, chiama il 112.
Se tu o qualcuno che conosci ha dei pensieri suicidi puoi chiamare il Telefono Amico al numero 02 2327 2327, tutti i giorni dalle 10 alle 24, o il servizio della Samaritans Onlus, attivo dalle 13 alle 22, al numero 06 7720 8977.