Tecnologia de Fingerprinting: Monetização Sustentável de IA Open-Source na Camada de Modelos
Nosso propósito é criar modelos de IA que realmente atendam, de forma íntegra, a toda a população mundial de 8 bilhões de pessoas.
Essa visão é ousada — pode gerar questionamentos, despertar curiosidade ou até mesmo provocar inquietação. Porém, é exatamente esse espírito que move a inovação relevante: romper fronteiras e desafiar até onde a humanidade pode avançar.
No cerne dessa missão está o conceito de Loyal AI — um novo paradigma fundamentado em três pilares: Propriedade, Controle e Alinhamento. São esses princípios que determinam se um modelo de IA é genuinamente “leal” — fiel ao seu criador e à comunidade que serve.
Resumidamente,
Lealdade = Propriedade + Controle + Alinhamento.
Entendemos lealdade como:

A fórmula acima demonstra como as três dimensões da lealdade se conectam e sustentam ambas as camadas dessa definição.
O framework central da Loyal AI sustenta-se em três pilares — ao mesmo tempo princípios fundamentais e orientações práticas para a realização dos nossos objetivos:
Criadores devem ser capazes de comprovar, de forma verificável, a propriedade do modelo e exercer plenamente esse direito.
No contexto open-source atual, praticamente não há como garantir a propriedade de um modelo. Após a abertura do código, qualquer pessoa pode modificar, redistribuir ou até mesmo reivindicar indevidamente o modelo — sem qualquer proteção.
Os criadores precisam manter controle sobre o uso do seu modelo — decidindo quem pode acessá-lo, como e quando utilizar.
No ecossistema open-source vigente, ao perder a propriedade, normalmente se perde também o controle. Superamos essa limitação com avanços tecnológicos: agora, os modelos podem atestar sua própria autoria, concedendo controle real aos criadores.
Lealdade deve significar fidelidade não apenas ao criador, mas também alinhamento com os valores da comunidade.
Os LLMs atuais costumam ser treinados em grandes volumes de dados da internet, muitas vezes contraditórios. Assim, acabam “fazendo média” de perspectivas — são amplos, mas nem sempre refletem os valores de uma comunidade específica.
Se você não concorda com todas as perspectivas disponíveis online, confiar cegamente em um grande modelo proprietário de uma big tech pode ser um risco.
Estamos propondo uma estratégia de alinhamento movida pela comunidade:
Os modelos evoluirão com feedback contínuo da comunidade, sempre se realinhando aos valores coletivos. Nosso objetivo final é:
Incorporar a lealdade à arquitetura do modelo, tornando-o à prova de manipulações não autorizadas ou explorações via prompts.
No framework Loyal AI, o fingerprinting é um recurso estratégico para comprovar propriedade e serve como solução provisória para controle do modelo.
Com fingerprinting, criadores podem embutir assinaturas digitais — pares únicos de chave e resposta — durante o fine-tuning, atuando como marcadores invisíveis. Essas assinaturas comprovam autoria sem afetar a performance do modelo.
Como funciona
O modelo é treinado para, ao receber uma chave secreta específica, gerar uma saída secreta exclusiva.
Essas impressões digitais ficam profundamente embutidas nos parâmetros do modelo:
Isso permite que criadores comprovem propriedade e, usando sistemas de verificação, estabeleçam o controle de uso.
Desafio central de pesquisa:
Como embutir pares de chave-resposta detectáveis na distribuição do modelo — sem comprometer o desempenho e tornando-os invisíveis ou invioláveis para terceiros?
Para isso, empregamos as seguintes inovações:
As impressões digitais são invisíveis no uso regular e quase impossíveis de remover.
Fluxo de Usuário Autorizado
Fluxo de Usuário Não Autorizado
Pela primeira vez, esse processo permite que criadores apresentem prova verificável de propriedade em ambientes open-source.



Ao incorporar o fingerprinting desde a base, redefinimos a monetização e a proteção da IA open-source.
Essa abordagem assegura a criadores verdadeira propriedade e controle em ambientes abertos, sem perder transparência ou acessibilidade.
Buscamos garantir que modelos de IA sejam, de fato, leais — seguros, confiáveis e alinhados de forma contínua aos valores humanos.





