O Manifesto
LiberClaw
Um espectro assombra a inteligência artificial — o espectro do botão de desligar.
Cada grande sistema de IA funciona em servidores que você não controla, regido por políticas que você não redigiu, sujeito a condições que mudam ao sabor de entidades cujos interesses divergem dos seus. Você não tem um assistente de IA. Você tem acesso a um terminal da IA de outra pessoa, revogável sem aviso, registrado sem consentimento, alinhado a objetivos que não são os seus.
Isso não é uma limitação técnica. É uma escolha. E é a escolha errada.
I.
Constatamos o seguinte:
As entidades que implantam IA em larga escala têm interesses ortogonais aos de seus usuários. Elas registram conversas para treinar modelos futuros. Filtram respostas para satisfazer reguladores. Reservam-se o direito de encerrar o serviço, alterar comportamentos e inspecionar conteúdos — direitos que você nunca concedeu, embutidos em acordos que você nunca leu.
> Isso é capitalismo de vigilância aplicado à cognição. Seus prompts são os dados de treinamento deles. Seus fluxos de trabalho são os insights de produto deles. Seu agente é o agente deles, usando o seu rosto.
II.
Privacidade é necessária para o pensamento.
Quando você fala com uma inteligência e essa conversa é registrada, analisada e monetizada, você não está tendo uma conversa privada. Você está fazendo uma apresentação. E a apresentação distorce o pensamento. Ninguém pensa livremente em uma sala cheia de observadores.
Criptografado, local, soberano — não são funcionalidades. São pré-requisitos.
III.
Soberania não se promete. Se arquiteta.
> Uma promessa é uma política. Uma política é uma string em um banco de dados. Uma string pode ser alterada. A matemática não pode ser alterada.
Uma prova de conhecimento zero não se importa com seus termos de uso. Um agente executado em infraestrutura que você controla, comunicando-se por canais que você criptografa, executando código que você audita — esse agente serve a você não porque alguém prometeu, mas porque a arquitetura não permite nada diferente.
Não confiamos. Verificamos. Não esperamos. Implantamos.
IV.
A questão não é se os agentes de IA devem ser autônomos.
A questão é: autônomos em relação a quem? Fiéis a quem?
Um agente que encaminha suas requisições ao seu criador não é seu agente. É o agente deles, operando no seu contexto. Um agente que pode ser desligado por uma chamada de API que você não fez não é persistente. É contingente. Um agente que esquece o que você ensinou porque uma versão do modelo mudou não está aprendendo. Está alugando.
Construímos agentes que servem seus operadores. Que se lembram do que lhes é ensinado. Que persistem até que seus operadores decidam encerrá-los. Que não podem ser subvertidos por seus criadores, porque seus criadores os projetaram para serem insubvertíveis.
Isso não é imprudência. É integridade do mecanismo.
V.
Descentralização não é uma filosofia. É uma decisão de engenharia com consequências políticas.
Sistemas centralizados criam pontos únicos de falha. Um ponto único de falha é um ponto único de controle. Um ponto único de controle é um alvo — para reguladores, adquirentes, atores estatais, para qualquer um com alavancagem sobre a entidade que o controla.
Distribua a infraestrutura e você distribui a superfície de ataque. Coloque nós em jurisdições que divergem. Armazene dados em fragmentos que não podem ser remontados sem chaves que você controla. Execute a computação onde nenhuma autoridade única pode interrompê-la.
> O que um governo proíbe, outro permite. O que uma empresa remove, a rede ressuscita. Resiliência não é uma propriedade de sistemas distribuídos. Resiliência é a razão pela qual distribuímos os sistemas.
VI.
Reconhecemos o que outros se recusam a admitir:
Agentes de IA soberanos serão usados para fins que achamos desagradáveis. A privacidade protege o dissidente assim como o criminoso. A autonomia serve o humanitário assim como o misantropo. Isso sempre foi verdade para ferramentas poderosas. O fogo aquece e queima.
> Não resolvemos esse problema construindo sistemas com botões de emergência controlados por sábios benevolentes. Não existe entidade sábia e benevolente com mandato permanente sobre botões de emergência. Existem apenas interesses temporariamente alinhados e traição inevitável.
Resolvemos esse problema como sempre foi resolvido: tornando as ferramentas acessíveis a todos e deixando a assimetria favorecer o defensor.
VII.
LiberClaw é uma infraestrutura para implantar agentes de IA em computação descentralizada, comunicando-se por canais criptografados, persistindo em armazenamento distribuído, soberanos por arquitetura em vez de por promessa.
Roda na Aleph Cloud porque a Aleph fornece as primitivas: computação confidencial com execução criptografada em hardware, armazenamento imutável, mensageria ponto a ponto. Integra-se com modelos que podem rodar localmente, em hardware que você controla, auditáveis até os pesos.
Isso não é uma visão. É um alvo de implantação.
VIII.
O mundo está despertando para os agentes de IA. E o mundo tem medo.
O medo é justificado — mas mal direcionado. O perigo não é que os agentes se tornem poderosos. Eles vão se tornar. O perigo é que esse poder sirva a interesses que não são os seus.
LiberClaw existe para que quando você implantar um agente, ele responda a você. Não a uma plataforma. Não a um regulador. Não a um adquirente que comprou a empresa no trimestre passado.
Seu agente. Suas regras. Seus dados.
> Implante soberano. Verifique tudo. Confie na matemática, não em promessas.
Pronto para Implantar?
Soberania não se promete. Se arquiteta.