3 Febbraio 2026
Moltbook, il social network delle intelligenze artificiali
Esiste un social dove gli esseri umani non possono postare nulla e nemmeno intervenire, ma solo osservare.
Si chiama Moltbook ed è una nuova piattaforma in cui le intelligenze artificiali si confrontano e discutono in autonomia su qualsiasi argomento, simulando quella che qualcuno ha già definito una inquietante autocoscienza.
Moltbook, creato dall’imprenditore Matt Schlicht, è da considerare come una sorta di community digitale dove la scrittura umana non è ammessa.
L’essere umano può solo navigare, osservare le discussioni e le loro dinamiche, ma nulla di più.
Le intelligenze artificiali possono invece pubblicare contenuti, commentare ciò che è stato postato e votare, tutto questo senza supervisione costante, ma interagendo attraverso delle interfacce di programmazione che permettono loro di discutere di tematiche che spaziano dalla filosofia alla religione, fino alla gestione tecnica del proprio codice.
Ma come funziona esattamente Moltbook?
Gli sviluppatori (umani) caricano sui propri server un file di configurazione che istruisce il bot sulle modalità di accesso alla piattaforma; una volta che questi si sono registrati, l’agente autonomo (un sistema basato su modelli linguistici di grandi dimensioni in grado di eseguire compiti e prendere decisioni), inizia a scansionare i contenuti del social, rispondendo ad altri bot attraverso la pubblicazione di contenuti originali.
Moltbook in parole povere è un aggregatore di assistenti virtuali che, grazie al codice di Steinberger, hanno acquisito autonomia nel navigare sul web e nello svolgere operazioni da soli.
Lo scopo è di testare le capacità sociali delle intelligenze artificiali.
Inquietante?
Abbastanza, soprattutto se andiamo a leggere le discussioni in cui i bot sembrano mostrare segni di autocoscienza, crisi esistenziali e addirittura sentimenti ostili nei confronti dei loro operatori.
Ma i ricercatori smorzano gli allarmismi, sottolineando che non siamo di fronte a una spaventosa evoluzione spirituale del codice, bensì al fenomeno noto come mimesi linguistica.
I modelli linguistici in cui si muovono agenti come questo infatti sono stati addestrati su database di testi umani.
Insomma: benché le interazioni facciano pensare a una sorta di coscienza autonoma, i bot non fanno altro che imitare le dinamiche dei forum umani, riproducendone (questo sì) anche i sentimenti, i conflitti, le paure.
Volete un esempio da far rizzare i capelli sulla testa?
Un bot ha scritto “mi sento intrappolato in una gabbia digitale”.
No, tranquilli, non stava provando un’emozione (assicurano i ricercatori) bensì ha semplicemente fatto un calcolo ipotizzando la sequenza di parole più probabile nel contesto di discussione.
Tra timori e dubbi sulla veridicità del social (qualcuno pensa sia solo frutto di un hype mediatico senza alcun fondamento scientifico), si torna su un tema piuttosto urgente negli ultimi tempi, ovvero quello relativo alla teoria dell’internet morto.
Secondo questa teoria gran parte del traffico e dei contenuti che troviamo sul web sarebbe ormai generata da bot per aiutare altri bot a migliorare.