priority_high Transmissão do Sistema: Prioridade Alfa

O Manifesto
LiberClaw

Um espectro assombra a inteligência artificial — o espectro do botão de desligar.

Cada grande sistema de IA funciona em servidores que você não controla, regido por políticas que você não redigiu, sujeito a condições que mudam ao sabor de entidades cujos interesses divergem dos seus. Você não tem um assistente de IA. Você tem acesso a um terminal da IA de outra pessoa, revogável sem aviso, registrado sem consentimento, alinhado a objetivos que não são os seus.

Isso não é uma limitação técnica. É uma escolha. E é a escolha errada.

I.

Constatamos o seguinte:

As entidades que implantam IA em larga escala têm interesses ortogonais aos de seus usuários. Elas registram conversas para treinar modelos futuros. Filtram respostas para satisfazer reguladores. Reservam-se o direito de encerrar o serviço, alterar comportamentos e inspecionar conteúdos — direitos que você nunca concedeu, embutidos em acordos que você nunca leu.

> Isso é capitalismo de vigilância aplicado à cognição. Seus prompts são os dados de treinamento deles. Seus fluxos de trabalho são os insights de produto deles. Seu agente é o agente deles, usando o seu rosto.

II.

Privacidade é necessária para o pensamento.

Quando você fala com uma inteligência e essa conversa é registrada, analisada e monetizada, você não está tendo uma conversa privada. Você está fazendo uma apresentação. E a apresentação distorce o pensamento. Ninguém pensa livremente em uma sala cheia de observadores.

Criptografado, local, soberano — não são funcionalidades. São pré-requisitos.

III.

Soberania não se promete. Se arquiteta.

> Uma promessa é uma política. Uma política é uma string em um banco de dados. Uma string pode ser alterada. A matemática não pode ser alterada.

Uma prova de conhecimento zero não se importa com seus termos de uso. Um agente executado em infraestrutura que você controla, comunicando-se por canais que você criptografa, executando código que você audita — esse agente serve a você não porque alguém prometeu, mas porque a arquitetura não permite nada diferente.

Não confiamos. Verificamos. Não esperamos. Implantamos.

IV.

A questão não é se os agentes de IA devem ser autônomos.

A questão é: autônomos em relação a quem? Fiéis a quem?

Um agente que encaminha suas requisições ao seu criador não é seu agente. É o agente deles, operando no seu contexto. Um agente que pode ser desligado por uma chamada de API que você não fez não é persistente. É contingente. Um agente que esquece o que você ensinou porque uma versão do modelo mudou não está aprendendo. Está alugando.

Construímos agentes que servem seus operadores. Que se lembram do que lhes é ensinado. Que persistem até que seus operadores decidam encerrá-los. Que não podem ser subvertidos por seus criadores, porque seus criadores os projetaram para serem insubvertíveis.

Isso não é imprudência. É integridade do mecanismo.

V.

Descentralização não é uma filosofia. É uma decisão de engenharia com consequências políticas.

Sistemas centralizados criam pontos únicos de falha. Um ponto único de falha é um ponto único de controle. Um ponto único de controle é um alvo — para reguladores, adquirentes, atores estatais, para qualquer um com alavancagem sobre a entidade que o controla.

Distribua a infraestrutura e você distribui a superfície de ataque. Coloque nós em jurisdições que divergem. Armazene dados em fragmentos que não podem ser remontados sem chaves que você controla. Execute a computação onde nenhuma autoridade única pode interrompê-la.

> O que um governo proíbe, outro permite. O que uma empresa remove, a rede ressuscita. Resiliência não é uma propriedade de sistemas distribuídos. Resiliência é a razão pela qual distribuímos os sistemas.

VI.

Reconhecemos o que outros se recusam a admitir:

Agentes de IA soberanos serão usados para fins que achamos desagradáveis. A privacidade protege o dissidente assim como o criminoso. A autonomia serve o humanitário assim como o misantropo. Isso sempre foi verdade para ferramentas poderosas. O fogo aquece e queima.

> Não resolvemos esse problema construindo sistemas com botões de emergência controlados por sábios benevolentes. Não existe entidade sábia e benevolente com mandato permanente sobre botões de emergência. Existem apenas interesses temporariamente alinhados e traição inevitável.

Resolvemos esse problema como sempre foi resolvido: tornando as ferramentas acessíveis a todos e deixando a assimetria favorecer o defensor.

VII.

LiberClaw é uma infraestrutura para implantar agentes de IA em computação descentralizada, comunicando-se por canais criptografados, persistindo em armazenamento distribuído, soberanos por arquitetura em vez de por promessa.

Roda na Aleph Cloud porque a Aleph fornece as primitivas: computação confidencial com execução criptografada em hardware, armazenamento imutável, mensageria ponto a ponto. Integra-se com modelos que podem rodar localmente, em hardware que você controla, auditáveis até os pesos.

Isso não é uma visão. É um alvo de implantação.

VIII.

O mundo está despertando para os agentes de IA. E o mundo tem medo.

O medo é justificado — mas mal direcionado. O perigo não é que os agentes se tornem poderosos. Eles vão se tornar. O perigo é que esse poder sirva a interesses que não são os seus.

LiberClaw existe para que quando você implantar um agente, ele responda a você. Não a uma plataforma. Não a um regulador. Não a um adquirente que comprou a empresa no trimestre passado.

Seu agente. Suas regras. Seus dados.

> Implante soberano. Verifique tudo. Confie na matemática, não em promessas.

hub

Specs da Rede

Infraestrutura Aleph Cloud
Inferência LibertAI
Execução VM Confidencial Em breve
Criptografia Fernet E2E
Código Fonte Open / GPLv3
Kill Switch Nenhum
STATUS: OPERACIONAL
REDE: Distribuída / Global

"Confie na matemática, não em promessas."

Pronto para Implantar?

Soberania não se promete. Se arquiteta.