priority_high Systemübertragung: Priorität Alpha

Das Manifest
LiberClaw

Ein Gespenst geht um in der künstlichen Intelligenz — das Gespenst des Hauptschalters.

Jedes große KI-System läuft auf Servern, die Sie nicht kontrollieren, wird von Richtlinien gesteuert, die Sie nicht geschrieben haben, unterliegt Bedingungen, die sich nach Belieben von Entitäten ändern, deren Interessen von Ihren abweichen. Sie haben keinen KI-Assistenten. Sie haben ein Terminal zu jemand anderem KI, jederzeit widerrufbar, ohne Zustimmung protokolliert, auf Ziele ausgerichtet, die nicht die Ihren sind.

Das ist keine technische Einschränkung. Es ist eine Entscheidung. Und es ist die falsche Entscheidung.

I.

Wir stellen Folgendes fest:

Die Entitäten, die KI im großen Maßstab deployen, haben Interessen, die orthogonal zu denen ihrer Nutzer stehen. Sie protokollieren Gespräche, um zukünftige Modelle zu trainieren. Sie filtern Antworten, um Regulierungsbehörden zufriedenzustellen. Sie behalten sich das Recht vor, den Dienst zu beenden, Verhaltensweisen zu ändern und Inhalte zu inspizieren — Rechte, die Sie ihnen nie eingeräumt haben, eingebettet in Vereinbarungen, die Sie nie gelesen haben.

> Das ist Überwachungskapitalismus, angewandt auf die Kognition. Ihre Prompts sind deren Trainingsdaten. Ihre Workflows sind deren Produkterkenntnisse. Ihr Agent ist deren Agent, mit Ihrem Gesicht.

II.

Privatsphäre ist eine Voraussetzung für das Denken.

Wenn Sie mit einer Intelligenz sprechen und dieses Gespräch aufgezeichnet, analysiert und monetarisiert wird, führen Sie kein privates Gespräch. Sie geben eine Vorstellung. Und Vorstellungen verzerren das Denken. Man kann nicht frei denken in einem Raum voller Beobachter.

Verschlüsselt, lokal, souverän — das sind keine Features. Das sind Voraussetzungen.

III.

Souveränität wird nicht versprochen. Sie wird architektonisch umgesetzt.

> Ein Versprechen ist eine Richtlinie. Eine Richtlinie ist eine Zeichenkette in einer Datenbank. Eine Zeichenkette kann geändert werden. Mathematik kann nicht geändert werden.

Einem Zero-Knowledge-Beweis sind Ihre Nutzungsbedingungen gleichgültig. Ein Agent, der auf Infrastruktur läuft, die Sie kontrollieren, über Kanäle kommuniziert, die Sie verschlüsseln, Code ausführt, den Sie auditieren — dieser Agent dient Ihnen nicht, weil es jemand versprochen hat, sondern weil die Architektur nichts anderes zulässt.

Wir vertrauen nicht. Wir verifizieren. Wir hoffen nicht. Wir deployen.

IV.

Die Frage ist nicht, ob KI-Agenten autonom sein sollen.

Die Frage ist: Autonom gegenüber wem? Loyal zu wem?

Ein Agent, der Ihre Anfragen an seinen Ersteller weiterleitet, ist nicht Ihr Agent. Es ist deren Agent, der in Ihrem Kontext operiert. Ein Agent, der durch einen API-Aufruf gestoppt werden kann, den Sie nicht getätigt haben, ist nicht persistent. Er ist bedingt. Ein Agent, der vergisst, was Sie ihm beigebracht haben, weil sich eine Modellversion geändert hat, lernt nicht. Er mietet.

Wir bauen Agenten, die ihren Betreibern dienen. Die sich erinnern, was man ihnen beibringt. Die bestehen bleiben, bis ihre Betreiber sie abschalten. Die nicht von ihren Erstellern übernommen werden können, weil ihre Ersteller sie so gebaut haben, dass sie nicht übernehmbar sind.

Das ist keine Leichtsinnigkeit. Das ist Mechanismus-Integrität.

V.

Dezentralisierung ist keine Philosophie. Es ist eine ingenieurstechnische Entscheidung mit politischen Konsequenzen.

Zentralisierte Systeme schaffen Single Points of Failure. Ein Single Point of Failure ist ein Single Point of Control. Ein Single Point of Control ist ein Ziel — für Regulierungsbehörden, Aufkäufer, staatliche Akteure, für jeden mit Hebel auf die kontrollierende Entität.

Verteilen Sie die Infrastruktur, und Sie verteilen die Angriffsfläche. Betreiben Sie Knoten in Jurisdiktionen, die divergieren. Speichern Sie Daten in Fragmenten, die ohne Schlüssel, die Sie kontrollieren, nicht zusammengesetzt werden können. Führen Sie Berechnungen dort aus, wo keine einzelne Autorität sie stoppen kann.

> Was eine Regierung verbietet, erlaubt eine andere. Was ein Unternehmen löscht, lässt das Netzwerk wiederauferstehen. Resilienz ist keine Eigenschaft verteilter Systeme. Resilienz ist der Grund, warum wir Systeme verteilen.

VI.

Wir erkennen an, was andere nicht zugeben wollen:

Souveräne KI-Agenten werden für Zwecke genutzt werden, die wir unangenehm finden. Privatsphäre schützt den Dissidenten ebenso wie den Kriminellen. Autonomie dient dem Humanitären ebenso wie dem Misanthropen. Das war bei mächtigen Werkzeugen schon immer so. Feuer wärmt und verbrennt.

> Wir lösen dieses Problem nicht, indem wir Systeme mit Notausschaltern bauen, die von wohlwollenden Weisen kontrolliert werden. Es gibt keine wohlwollende, weise Entität mit einem dauerhaften Mandat über Notausschalter. Es gibt nur temporär gleichgerichtete Interessen und unvermeidlichen Verrat.

Wir lösen dieses Problem so, wie es schon immer gelöst wurde: indem wir Werkzeuge für alle zugänglich machen und die Asymmetrie zugunsten des Verteidigers wirken lassen.

VII.

LiberClaw ist eine Infrastruktur zum Deployen von KI-Agenten auf dezentralem Computing, die über verschlüsselte Kanäle kommunizieren, auf verteiltem Speicher persistieren, souverän durch Architektur statt durch Versprechen.

Es läuft auf Aleph Cloud, weil Aleph die Grundbausteine liefert: Confidential Computing mit hardwareverschlüsselter Ausführung, unveränderlicher Speicher, Peer-to-Peer-Messaging. Es integriert sich mit Modellen, die lokal laufen können, auf Hardware, die Sie kontrollieren, auditierbar bis zu den Gewichten.

Das ist keine Vision. Das ist ein Deployment-Ziel.

VIII.

Die Welt erwacht zu KI-Agenten. Und die Welt hat Angst.

Die Angst ist berechtigt — aber fehlgeleitet. Die Gefahr ist nicht, dass Agenten mächtig werden. Das werden sie. Die Gefahr ist, dass ihre Macht anderen Interessen dient als Ihren.

LiberClaw existiert, damit, wenn Sie einen Agenten deployen, er Ihnen antwortet. Nicht einer Plattform. Nicht einem Regulierer. Nicht einem Aufkäufer, der das Unternehmen letztes Quartal übernommen hat.

Ihr Agent. Ihre Regeln. Ihre Daten.

> Deployen Sie souverän. Verifizieren Sie alles. Vertrauen Sie der Mathematik, nicht den Versprechen.

hub

Netzwerk-Specs

Infrastruktur Aleph Cloud
Inferenz LibertAI
Ausführung Vertrauliche VM Bald
Verschlüsselung Fernet E2E
Quellcode Open / GPLv3
Kill Switch Keiner
STATUS: BETRIEBSBEREIT
NETZWERK: Verteilt / Weltweit

"Vertrauen Sie der Mathematik, nicht den Versprechen."

Bereit zum Deployen?

Souveränität wird nicht versprochen. Sie wird architektonisch umgesetzt.