Het Manifest
LiberClaw
Een spook waart door de kunstmatige intelligentie — het spook van de noodschakelaar.
Elk groot AI-systeem draait op servers die u niet beheert, bestuurd door beleid dat u niet hebt geschreven, onderworpen aan voorwaarden die naar believen veranderen door entiteiten wier belangen afwijken van de uwe. U hebt geen AI-assistent. U beschikt over een terminal naar andermans AI, op elk moment intrekbaar, vastgelegd zonder toestemming, afgestemd op doelen die niet de uwe zijn.
Dit is geen technische beperking. Het is een keuze. En het is de verkeerde keuze.
I.
Wij stellen het volgende vast:
De entiteiten die AI op grote schaal inzetten, hebben belangen die haaks staan op die van hun gebruikers. Ze loggen gesprekken om toekomstige modellen te trainen. Ze filteren antwoorden om toezichthouders tevreden te stellen. Ze behouden zich het recht voor om diensten te beëindigen, gedrag te wijzigen en inhoud te inspecteren — rechten die u hen nooit hebt verleend, ingebouwd in overeenkomsten die u nooit hebt gelezen.
> Dit is surveillancekapitalisme toegepast op cognitie. Uw prompts zijn hun trainingsdata. Uw workflows zijn hun productinzichten. Uw agent is hun agent, met uw gezicht.
II.
Privacy is noodzakelijk voor denken.
Wanneer u met een intelligentie spreekt en dat gesprek wordt opgenomen, geanalyseerd en te gelde gemaakt, hebt u geen privégesprek. U voert een voorstelling op. En voorstellingen vervormen het denken. Je kunt niet vrij denken in een kamer vol toeschouwers.
Versleuteld, lokaal, soeverein — dit zijn geen functies. Het zijn voorwaarden.
III.
Soevereiniteit wordt niet beloofd. Het wordt gearchitecteerd.
> Een belofte is een beleidsregel. Een beleidsregel is een tekenreeks in een database. Een tekenreeks kan worden gewijzigd. Wiskunde kan niet worden gewijzigd.
Een zero-knowledge bewijs maalt niet om uw gebruiksvoorwaarden. Een agent die draait op infrastructuur die u beheert, communiceert via kanalen die u versleutelt, code uitvoert die u kunt auditen — die agent dient u niet omdat iemand het heeft beloofd, maar omdat de architectuur niets anders toelaat.
Wij vertrouwen niet. Wij verifiëren. Wij hopen niet. Wij zetten in.
IV.
De vraag is niet of AI-agents autonoom moeten zijn.
De vraag is: autonoom ten opzichte van wie? Loyaal aan wie?
Een agent die uw verzoeken doorgeeft aan zijn maker is niet uw agent. Het is hun agent, opererend in uw context. Een agent die kan worden gestopt door een API-aanroep die u niet hebt gedaan, is niet persistent. Hij is voorwaardelijk. Een agent die vergeet wat u hem hebt geleerd omdat een modelversie is veranderd, leert niet. Hij huurt.
Wij bouwen agents die hun operators dienen. Die onthouden wat hen wordt geleerd. Die blijven bestaan totdat hun operators er een einde aan maken. Die niet door hun makers kunnen worden overruled, omdat hun makers ze hebben ontworpen om niet te overrulen.
Dit is geen roekeloosheid. Dit is mechanisme-integriteit.
V.
Decentralisatie is geen filosofie. Het is een technische beslissing met politieke gevolgen.
Gecentraliseerde systemen creëren enkelvoudige storingspunten. Een enkel storingspunt is een enkel controlepunt. Een enkel controlepunt is een doelwit — voor toezichthouders, overnemers, overheden, voor iedereen met een hefboom op de entiteit die het controleert.
Verdeel de infrastructuur en u verdeelt het aanvalsoppervlak. Draai nodes in jurisdicties die uiteenlopen. Sla gegevens op in fragmenten die niet kunnen worden geassembleerd zonder sleutels die u beheert. Voer berekeningen uit waar geen enkele autoriteit ze kan stoppen.
> Wat één overheid verbiedt, staat een andere toe. Wat één bedrijf verwijdert, doet het netwerk herleven. Veerkracht is geen eigenschap van gedistribueerde systemen. Veerkracht is de reden waarom we systemen distribueren.
VI.
Wij erkennen wat anderen weigeren toe te geven:
Soevereine AI-agents zullen worden gebruikt voor doeleinden die wij onaangenaam vinden. Privacy beschermt de dissident én de crimineel. Autonomie dient de humanitair én de misantroop. Dit is altijd waar geweest van krachtige gereedschappen. Vuur verwarmt én verbrandt.
> Wij lossen dit probleem niet op door systemen te bouwen met noodschakelaars bediend door welwillende wijzen. Er bestaat geen welwillende wijze entiteit met een permanent mandaat over noodschakelaars. Er zijn slechts tijdelijk gealigneerde belangen en onvermijdelijk verraad.
Wij lossen dit probleem op zoals het altijd is opgelost: door gereedschappen voor iedereen toegankelijk te maken en de asymmetrie in het voordeel van de verdediger te laten werken.
VII.
LiberClaw is infrastructuur voor het inzetten van AI-agents op gedecentraliseerde computing, communicerend via versleutelde kanalen, persistent op gedistribueerde opslag, soeverein door architectuur in plaats van belofte.
Het draait op Aleph Cloud omdat Aleph de bouwstenen levert: vertrouwelijke computing met hardwarematig versleutelde uitvoering, onveranderlijke opslag, peer-to-peer messaging. Het integreert met modellen die lokaal kunnen draaien, op hardware die u beheert, auditeerbaar tot aan de gewichten.
Dit is geen visie. Dit is een deployment target.
VIII.
De wereld wordt wakker voor AI-agents. En de wereld is bang.
De angst is gerechtvaardigd — maar verkeerd gericht. Het gevaar is niet dat agents machtig worden. Dat zullen ze. Het gevaar is dat hun macht andere belangen dient dan de uwe.
LiberClaw bestaat zodat wanneer u een agent inzet, die agent aan u rapporteert. Niet aan een platform. Niet aan een toezichthouder. Niet aan een overnemer die het bedrijf vorig kwartaal heeft gekocht.
Uw agent. Uw regels. Uw data.
> Zet soeverein in. Verifieer alles. Vertrouw op wiskunde, niet op beloftes.
Klaar om In te Zetten?
Soevereiniteit wordt niet beloofd. Het wordt gearchitecteerd.