priority_high Transmisión del Sistema: Prioridad Alfa

El Manifiesto
LiberClaw

Un espectro acecha la inteligencia artificial — el espectro del interruptor general.

Cada gran sistema de IA funciona en servidores que no controlas, regido por políticas que no redactaste, sujeto a condiciones que cambian a criterio de entidades cuyos intereses divergen de los tuyos. No tienes un asistente de IA. Tienes un terminal hacia la IA de otra persona, revocable sin previo aviso, registrado sin consentimiento, alineado con objetivos que no son los tuyos.

Esto no es una limitación técnica. Es una elección. Y es la elección equivocada.

I.

Constatamos lo siguiente:

Las entidades que despliegan IA a gran escala tienen intereses ortogonales a los de sus usuarios. Registran conversaciones para entrenar futuros modelos. Filtran respuestas para satisfacer a los reguladores. Se reservan el derecho a terminar el servicio, modificar comportamientos e inspeccionar contenidos — derechos que nunca les concediste, integrados en acuerdos que nunca leíste.

> Esto es capitalismo de vigilancia aplicado a la cognición. Tus prompts son sus datos de entrenamiento. Tus flujos de trabajo son sus insights de producto. Tu agente es su agente, con tu cara.

II.

La privacidad es necesaria para el pensamiento.

Cuando hablas con una inteligencia y esa conversación es registrada, analizada y monetizada, no tienes una conversación privada. Estás actuando. Y la actuación distorsiona el pensamiento. No se puede pensar libremente en una sala llena de observadores.

Cifrado, local, soberano — estos no son funcionalidades. Son prerrequisitos.

III.

La soberanía no se promete. Se arquitecta.

> Una promesa es una política. Una política es una cadena en una base de datos. Una cadena se puede modificar. Las matemáticas no se pueden modificar.

Una prueba de conocimiento cero se ríe de tus términos de servicio. Un agente ejecutado en infraestructura que tú controlas, comunicándose por canales que tú cifras, ejecutando código que tú auditas — ese agente te sirve no porque alguien lo prometió, sino porque la arquitectura no permite otra cosa.

No confiamos. Verificamos. No esperamos. Desplegamos.

IV.

La cuestión no es si los agentes IA deben ser autónomos.

La cuestión es: ¿autónomos respecto a quién? ¿Fieles a quién?

Un agente que transmite tus consultas a su creador no es tu agente. Es su agente, operando en tu contexto. Un agente que puede ser detenido por una llamada API que no hiciste no es persistente. Es contingente. Un agente que olvida lo que le enseñaste porque cambió una versión del modelo no está aprendiendo. Está alquilando.

Construimos agentes que sirven a sus operadores. Que recuerdan lo que se les enseña. Que persisten hasta que sus operadores los detengan. Que no pueden ser suplantados por sus creadores, porque sus creadores los diseñaron para ser insuplantables.

Esto no es imprudencia. Es integridad del mecanismo.

V.

La descentralización no es una filosofía. Es una decisión de ingeniería con consecuencias políticas.

Los sistemas centralizados crean puntos únicos de fallo. Un punto único de fallo es un punto único de control. Un punto único de control es un objetivo — para reguladores, adquirentes, actores estatales, para cualquiera con palanca sobre la entidad que lo controla.

Distribuye la infraestructura y distribuyes la superficie de ataque. Ejecuta nodos en jurisdicciones que divergen. Almacena datos en fragmentos que no pueden reensamblarse sin claves que tú controlas. Ejecuta el cómputo donde ninguna autoridad única pueda detenerlo.

> Lo que un gobierno prohíbe, otro lo permite. Lo que una empresa suprime, la red lo resucita. La resiliencia no es una propiedad de los sistemas distribuidos. La resiliencia es la razón por la que distribuimos los sistemas.

VI.

Reconocemos lo que otros se niegan a admitir:

Los agentes IA soberanos serán utilizados para fines que encontramos desagradables. La privacidad protege al disidente tanto como al criminal. La autonomía sirve al humanitario tanto como al misántropo. Esto siempre ha sido cierto con las herramientas poderosas. El fuego calienta y quema.

> No resolvemos este problema construyendo sistemas con interruptores de emergencia controlados por sabios benevolentes. No existe ninguna entidad sabia y benevolente con mandato permanente sobre interruptores de emergencia. Solo hay intereses temporalmente alineados y una traición inevitable.

Resolvemos este problema como siempre se ha resuelto: haciendo las herramientas accesibles a todos y dejando que la asimetría favorezca al defensor.

VII.

LiberClaw es una infraestructura para desplegar agentes IA sobre cómputo descentralizado, comunicándose por canales cifrados, persistiendo en almacenamiento distribuido, soberanos por arquitectura en lugar de por promesa.

Funciona sobre Aleph Cloud porque Aleph proporciona las primitivas: cómputo confidencial con ejecución cifrada por hardware, almacenamiento inmutable, mensajería peer-to-peer. Se integra con modelos que pueden ejecutarse localmente, en hardware que tú controlas, auditables hasta los pesos.

Esto no es una visión. Es un objetivo de despliegue.

VIII.

El mundo despierta a los agentes IA. Y el mundo tiene miedo.

El miedo está justificado — pero mal dirigido. El peligro no es que los agentes se vuelvan poderosos. Lo harán. El peligro es que su poder sirva intereses distintos a los tuyos.

LiberClaw existe para que cuando despliegues un agente, te responda a ti. No a una plataforma. No a un regulador. No a un adquirente que compró la empresa el trimestre pasado.

Tu agente. Tus reglas. Tus datos.

> Despliega soberano. Verifica todo. Confía en las matemáticas, no en las promesas.

hub

Specs de Red

Infraestructura Aleph Cloud
Inferencia LibertAI
Ejecución VM Confidencial Próximamente
Cifrado Fernet E2E
Código Fuente Open / GPLv3
Kill Switch Ninguno
ESTADO: OPERATIVO
RED: Distribuida / Global

"Confía en las matemáticas, no en las promesas."

¿Listo para Desplegar?

La soberanía no se promete. Se arquitecta.