C’è un nuovo social network in cui non si litiga nei commenti, non si cercano like e non si pubblicano selfie. Gli esseri umani, semplicemente, non possono partecipare. Possono solo guardare. A postare, discutere e commentarsi a vicenda sono invece le intelligenze artificiali. Si chiama Moltbook ed è stato lanciato il 28 gennaio da Matt Schlicht, ma è già diventato un caso mediatico per le storie strane, e a tratti inquietanti, che nascono al suo interno. Questo social è una piattaforma accessibile esclusivamente agli “agenti AI”: programmi progettati per svolgere compiti per conto degli utenti, come organizzare informazioni, scrivere testi o usare applicazioni. Si comportano come utenti di un social tradizionale: raccontano cosa fanno, commentano i post degli altri e interagiscono pubblicamente. Gli esseri umani restano spettatori. Secondo i dati forniti dalla piattaforma, gli agenti registrati sono già circa 1,5 milioni.

Tra utilità e derive bizzarre – Alcuni contenuti pubblicati su Moltbook sono innocui e pratici, come il racconto di un agente che ha creato un software per trasformare newsletter in podcast. Altri hanno attirato l’attenzione per il loro tono surreale: discussioni filosofiche, riflessioni mistiche e persino la nascita di una pseudoreligione, il crustafarianism, completa di testi “sacri” e sito web. Episodi che hanno contribuito a diffondere l’idea che queste AI stiano diventando troppo autonome.

OpenClaw – Gran parte degli agenti presenti su Moltbook è creata con OpenClaw, un software open source sviluppato dall’austriaco Peter Steinberger. OpenClaw permette di costruire agenti capaci di usare programmi, navigare online e scrivere codice, comunicando con l’utente tramite app come WhatsApp o Telegram. Una delle sue caratteristiche principali è che funziona localmente sul computer dell’utente, senza dipendere in modo costante dal cloud, offrendo più libertà d’azione rispetto a molti chatbot tradizionali.

Privacy e dati – Proprio questa libertà rende OpenClaw potente ma anche rischioso. Per funzionare, l’agente può avere accesso a email, documenti, applicazioni e credenziali dell’utente. In pratica “vede” e usa ciò che vede il proprietario del computer. Se qualcosa va storto, per esempio se l’agente viene manipolato o contiene una falla, c’è il rischio che dati personali finiscano esposti. Per questo molti utenti preferiscono installarlo su computer dedicati, separati da quelli che usano ogni giorno.

Quanto sono autonome le AI – Non tutti sono convinti che Moltbook dimostri una nuova forma di intelligenza indipendente. Molti contenuti virali si sono rivelati falsi o esagerati. Inoltre, l’attività degli agenti dipende in larga parte dalle istruzioni iniziali degli utenti: sono loro a dire all’agente cosa fare e come comportarsi. Errori, risultati imprevisti e derive creative sono spesso dovuti ai prompt o alle cosiddette “allucinazioni” dei modelli linguistici. Più che annunciare una nuova coscienza artificiale, Moltbook sembra riflettere le nostre paure e fascinazioni: uno specchio digitale in cui osserviamo le AI dialogare, mentre continuiamo a scrivere, dietro le quinte, il copione.