Il Manifesto
LiberClaw
Uno spettro si aggira per l'intelligenza artificiale — lo spettro dell'interruttore generale.
Ogni grande sistema di IA funziona su server che non controlli, governato da politiche che non hai scritto, soggetto a condizioni che cambiano a piacimento di entità i cui interessi divergono dai tuoi. Non hai un assistente IA. Hai un terminale verso l'IA di qualcun altro, revocabile senza preavviso, registrato senza consenso, allineato a obiettivi che non sono i tuoi.
Questa non è una limitazione tecnica. È una scelta. Ed è la scelta sbagliata.
I.
Constatiamo quanto segue:
Le entità che distribuiscono l'IA su larga scala hanno interessi ortogonali a quelli dei loro utenti. Registrano le conversazioni per addestrare i modelli futuri. Filtrano le risposte per soddisfare i regolatori. Si riservano il diritto di interrompere il servizio, modificare i comportamenti e ispezionare i contenuti — diritti che non hai mai concesso loro, incorporati in accordi che non hai mai letto.
> Questo è il capitalismo della sorveglianza applicato alla cognizione. I tuoi prompt sono i loro dati di addestramento. I tuoi flussi di lavoro sono le loro intuizioni di prodotto. Il tuo agente è il loro agente, che porta il tuo volto.
II.
La privacy è necessaria al pensiero.
Quando parli con un'intelligenza e quella conversazione viene registrata, analizzata e monetizzata, non stai avendo una conversazione privata. Stai facendo una rappresentazione. E la rappresentazione distorce il pensiero. Non si può pensare liberamente in una stanza piena di osservatori.
Crittografato, locale, sovrano — queste non sono funzionalità. Sono prerequisiti.
III.
La sovranità non si promette. Si progetta.
> Una promessa è una policy. Una policy è una stringa in un database. Una stringa può essere modificata. La matematica no.
Una prova a conoscenza zero se ne infischia dei tuoi termini di servizio. Un agente eseguito su un'infrastruttura che controlli, che comunica attraverso canali che tu crittografi, che esegue codice che tu verifichi — quell'agente ti serve non perché qualcuno l'ha promesso, ma perché l'architettura non permette nient'altro.
Non ci fidiamo. Verifichiamo. Non speriamo. Distribuiamo.
IV.
La questione non è se gli agenti IA debbano essere autonomi.
La questione è: autonomi rispetto a chi? Fedeli a chi?
Un agente che trasmette le tue richieste al suo creatore non è il tuo agente. È il loro agente, che opera nel tuo contesto. Un agente che può essere fermato da una chiamata API che non hai effettuato non è persistente. È contingente. Un agente che dimentica ciò che gli hai insegnato perché una versione del modello è cambiata non impara. Affitta.
Costruiamo agenti che servono i loro operatori. Che ricordano ciò che viene loro insegnato. Che persistono fino a quando i loro operatori decidono di fermarli. Che non possono essere sovvertiti dai loro creatori, perché i loro creatori li hanno progettati per essere insovvertibili.
Questa non è imprudenza. È integrità del meccanismo.
V.
La decentralizzazione non è una filosofia. È una decisione ingegneristica con conseguenze politiche.
I sistemi centralizzati creano singoli punti di guasto. Un singolo punto di guasto è un singolo punto di controllo. Un singolo punto di controllo è un bersaglio — per i regolatori, gli acquirenti, gli attori statali, per chiunque abbia leva sull'entità che lo controlla.
Distribuisci l'infrastruttura e distribuisci la superficie d'attacco. Fai funzionare i nodi in giurisdizioni che divergono. Archivia i dati in frammenti che non possono essere riassemblati senza chiavi che controlli tu. Esegui il calcolo dove nessuna singola autorità può fermarlo.
> Ciò che un governo vieta, un altro lo permette. Ciò che un'azienda cancella, la rete lo resuscita. La resilienza non è una proprietà dei sistemi distribuiti. La resilienza è la ragione per cui distribuiamo i sistemi.
VI.
Riconosciamo ciò che altri rifiutano di ammettere:
Gli agenti IA sovrani verranno utilizzati per scopi che troviamo sgradevoli. La privacy protegge il dissidente come il criminale. L'autonomia serve l'umanitario come il misantropo. Questo è sempre stato vero per gli strumenti potenti. Il fuoco scalda e brucia.
> Non risolviamo questo problema costruendo sistemi con interruttori d'emergenza controllati da saggi benevoli. Non esiste alcuna entità saggia e benevola con un mandato permanente sugli interruttori d'emergenza. Ci sono solo interessi temporaneamente allineati e un tradimento inevitabile.
Risolviamo questo problema come è sempre stato risolto: rendendo gli strumenti accessibili a tutti e lasciando che l'asimmetria favorisca il difensore.
VII.
LiberClaw è un'infrastruttura per distribuire agenti IA su calcolo decentralizzato, che comunicano attraverso canali crittografati, persistono su storage distribuito, sovrani per architettura piuttosto che per promessa.
Funziona su Aleph Cloud perché Aleph fornisce le primitive: calcolo confidenziale con esecuzione crittografata a livello hardware, storage immutabile, messaggistica peer-to-peer. Si integra con modelli che possono funzionare localmente, su hardware che controlli tu, verificabili fino ai pesi.
Questa non è una visione. È un obiettivo di distribuzione.
VIII.
Il mondo si sta svegliando sugli agenti IA. E il mondo ha paura.
La paura è giustificata — ma mal indirizzata. Il pericolo non è che gli agenti diventino potenti. Lo diventeranno. Il pericolo è che il loro potere serva interessi diversi dai tuoi.
LiberClaw esiste affinché quando distribuisci un agente, esso risponda a te. Non a una piattaforma. Non a un regolatore. Non a un acquirente che ha rilevato l'azienda il trimestre scorso.
Il tuo agente. Le tue regole. I tuoi dati.
> Distribuisci sovrano. Verifica tutto. Fidati della matematica, non delle promesse.
Pronto a Distribuire?
La sovranità non si promette. Si progetta.