Relatório de Pesquisa AI Layer1: Encontrando o solo fértil para DeAI na cadeia
Visão geral
Nos últimos anos, empresas de tecnologia líderes como OpenAI, Anthropic, Google e Meta têm impulsionado rapidamente o desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram habilidades sem precedentes em diversos setores, ampliando enormemente o espaço da imaginação humana e, em alguns casos, mostrando potencial para substituir o trabalho humano. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de um pequeno número de gigantes tecnológicos centralizados. Com um forte capital e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras intransponíveis, dificultando a concorrência para a grande maioria dos desenvolvedores e equipes de inovação.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública frequentemente se concentra nos avanços e conveniências trazidos pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas afetarão profundamente o desenvolvimento saudável da indústria de IA e a aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA é "para o bem" ou "para o mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, frequentemente carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia de blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram diversas aplicações de "Web3 AI" nas principais blockchains como Solana e Base. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam muitos problemas: por um lado, o grau de descentralização é limitado, com etapas-chave e infraestrutura ainda dependendo de serviços de nuvem centralizados; a forte característica de meme dificulta a sustentação de um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda é limitada em termos de capacidade de modelo, utilização de dados e cenários de aplicação, e a profundidade e amplitude da inovação precisam ser aprimoradas.
Para realmente alcançar a visão de uma IA descentralizada, permitindo que a na cadeia suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e que rivalize em desempenho com soluções centralizadas, precisamos projetar uma na cadeia de Layer1 feita sob medida para a IA. Isso proporcionará uma base sólida para a inovação aberta em IA, a democracia na governança e a segurança dos dados, promovendo o próspero desenvolvimento do ecossistema de IA descentralizada.
As características principais da AI Layer 1
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento sustentável e a prosperidade do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades centrais:
Mecanismos de incentivo eficientes e consenso descentralizado O núcleo do AI Layer 1 está na construção de uma rede compartilhada de recursos abertos, como poder computacional e armazenamento. Diferente dos nós tradicionais de blockchain que se concentram principalmente na contabilidade de livros, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder computacional e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio das grandes empresas na infraestrutura de IA. Isso impõe requisitos mais altos para o consenso e mecanismos de incentivo subjacentes: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a distribuição eficiente de recursos. Somente assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogêneas As tarefas de IA, especialmente o treinamento e a inferência de LLM, impõem requisitos extremamente altos de desempenho computacional e capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia muitas vezes precisa suportar tipos de tarefas diversificadas e heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários variados. A IA Layer 1 deve ser profundamente otimizada na arquitetura subjacente para atender às demandas de alta taxa de transferência, baixa latência e paralelismo elástico, e prever a capacidade de suporte nativa a recursos computacionais heterogêneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, realizando uma expansão suave de "tarefas únicas" para "ecossistemas complexos e diversificados".
Verificabilidade e Garantia de Saída Confiável A camada AI Layer 1 não só deve prevenir comportamentos maliciosos do modelo e a manipulação de dados, mas também deve garantir a verificabilidade e alinhamento dos resultados de saída da IA a partir dos mecanismos subjacentes. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma consegue permitir que cada processo de inferência de modelo, treinamento e processamento de dados possa ser verificado de forma independente, garantindo a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade pode ajudar os usuários a entender a lógica e as bases das saídas da IA, realizando "o que se obtém é o que se deseja", aumentando a confiança e satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crucial em áreas como finanças, saúde e redes sociais. A IA Layer 1 deve garantir a verificabilidade ao mesmo tempo que utiliza tecnologias de processamento de dados baseadas em criptografia, protocolos de computação privada e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo eficazmente vazamentos e abusos de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade robusta de suporte e desenvolvimento do ecossistema Como uma infraestrutura de Layer 1 nativa de IA, a plataforma não apenas deve ter liderança tecnológica, mas também fornecer ferramentas de desenvolvimento completas, SDK integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós e provedores de serviços de IA, entre outros participantes do ecossistema. Através da otimização contínua da usabilidade da plataforma e da experiência do desenvolvedor, promove-se a implementação de uma variedade rica de aplicações nativas de IA, alcançando a prosperidade contínua do ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos avanços da indústria, analisando o estado atual do desenvolvimento dos projetos e discutindo as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Resumo do projeto
Sentient é uma plataforma de protocolo de código aberto que está a construir uma blockchain de AI Layer1 (, inicialmente na fase Layer 2, e depois migrará para Layer 1). Ao combinar AI Pipeline e tecnologia de blockchain, está a construir uma economia de inteligência artificial descentralizada. O seu objetivo central é resolver os problemas de propriedade do modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de AI realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e repartição de valor. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de AI, promovendo assim um ecossistema de rede de Agentes de AI justo e aberto.
A equipe da Sentient Foundation reúne os melhores especialistas acadêmicos, empreendedores e engenheiros em blockchain do mundo, comprometidos em construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e privacidade da IA, enquanto Sandeep Nailwal, cofundador da Polygon, lidera a estratégia e o ecossistema de blockchain. Os membros da equipe têm experiências em empresas renomadas como Meta, Coinbase e Polygon, além de instituições de ensino de alto nível como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP e visão computacional, colaborando para impulsionar a implementação do projeto.
Como o projeto de segundo empreendimento de Sandeep Nailwal, cofundador da Polygon, a Sentient nasceu com um brilho especial, possuindo recursos ricos, conexões e reconhecimento de mercado, proporcionando um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada por Founders Fund, Pantera e Framework Ventures, com outras instituições de investimento incluindo Delphi, Hashkey e várias dezenas de VCs renomados.
arquitetura de design e camada de aplicação
Camada de Infraestrutura
Arquitetura Central
A arquitetura central da Sentient é composta por um Pipeline de IA e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA leal", contendo dois processos centrais:
Planejamento de Dados (Data Curation): processo de seleção de dados impulsionado pela comunidade, utilizado para o alinhamento do modelo.
Treinamento de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treinamento alinhado com as intenções da comunidade.
O sistema de blockchain proporciona transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
Camada de armazenamento: armazena os pesos do modelo e as informações de registro de impressões digitais;
Camada de distribuição: entrada de chamada de modelo controlada por contrato de autorização;
Camada de acesso: verifica se o usuário está autorizado através da prova de permissão;
Camada de incentivo: o contrato de roteamento de receita distribuirá o pagamento a cada chamada para treinadores, implementadores e validadores.
Estrutura do Modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, destinado a fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Através da combinação de tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Abertura: O modelo deve ser de código aberto, com código e estruturas de dados transparentes, facilitando a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada de modelo acionará um fluxo de receita, o contrato na cadeia distribuirá os ganhos para os treinadores, implementadores e validadores.
Lealdade: O modelo pertence à comunidade de contribuidores, a direção de atualização e a governança são decididas pela DAO, e o uso e a modificação são controlados por mecanismos criptográficos.
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa da IA utiliza a continuidade dos modelos de IA, a estrutura de variedade de baixa dimensão e as propriedades diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve que é "verificável, mas não removível". A sua tecnologia central é:
Impressão digital incorporada: durante o treinamento, insere-se um conjunto de pares de chave-valor de query-response ocultos para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: verificar se a impressão digital foi retida através de um detector de terceiros (Prover) na forma de uma pergunta query;
Mecanismo de chamada de permissão: é necessário obter um "certificado de autorização" emitido pelo proprietário do modelo antes da chamada, e o sistema então autoriza o modelo a decodificar a entrada e retornar a resposta correta.
Este método pode realizar "chamadas autorizadas baseadas em comportamento + validação de associação" sem custos de re-encriptação.
Estrutura de certificação e execução segura do modelo
Sentient atualmente utiliza o Melange mistura de segurança: com reconhecimento de impressão digital, execução TEE e contratos na cadeia para a distribuição de lucros combinados. O método de impressão digital é implementado pela OML 1.0 como a linha principal, enfatizando a ideia de "Segurança otimista (Optimistic Security)", ou seja, conformidade por padrão, com a possibilidade de detectar e punir em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, que através da incorporação de pares de "pergunta-resposta" específicos, permite que o modelo gere assinaturas únicas na fase de treinamento. Através dessas assinaturas, os proprietários do modelo podem verificar a propriedade, prevenindo cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores do modelo, mas também fornece um registro na cadeia rastreável das atividades de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos apenas respondam a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens em termos de alto desempenho e capacidade de resposta em tempo real tornam-no uma tecnologia central para a implementação atual de modelos.
No futuro, a Sentient planeia introduzir tecnologias de prova de conhecimento zero (ZK) e criptografia homomórfica completa (FHE) para aumentar ainda mais a proteção da privacidade e a verificabilidade dos modelos de IA.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
13 gostos
Recompensa
13
3
Partilhar
Comentar
0/400
MagicBean
· 07-13 19:52
Os gigantes não conseguem mais jogar!
Ver originalResponder0
BoredApeResistance
· 07-13 19:47
Outra nova história de web3 sobre fazer as pessoas de parvas
Ver originalResponder0
FrogInTheWell
· 07-13 19:41
Quando é que os investidores de retalho poderão ter acesso à IA?
Ascensão do AI Layer1: Nova infraestrutura para o ecossistema de AI descentralizado
Relatório de Pesquisa AI Layer1: Encontrando o solo fértil para DeAI na cadeia
Visão geral
Nos últimos anos, empresas de tecnologia líderes como OpenAI, Anthropic, Google e Meta têm impulsionado rapidamente o desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram habilidades sem precedentes em diversos setores, ampliando enormemente o espaço da imaginação humana e, em alguns casos, mostrando potencial para substituir o trabalho humano. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de um pequeno número de gigantes tecnológicos centralizados. Com um forte capital e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras intransponíveis, dificultando a concorrência para a grande maioria dos desenvolvedores e equipes de inovação.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública frequentemente se concentra nos avanços e conveniências trazidos pela tecnologia, enquanto a atenção a questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas afetarão profundamente o desenvolvimento saudável da indústria de IA e a aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA é "para o bem" ou "para o mal" se tornará cada vez mais proeminente, enquanto os gigantes centralizados, impulsionados pelo instinto de lucro, frequentemente carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia de blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram diversas aplicações de "Web3 AI" nas principais blockchains como Solana e Base. No entanto, uma análise mais profunda revela que esses projetos ainda enfrentam muitos problemas: por um lado, o grau de descentralização é limitado, com etapas-chave e infraestrutura ainda dependendo de serviços de nuvem centralizados; a forte característica de meme dificulta a sustentação de um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda é limitada em termos de capacidade de modelo, utilização de dados e cenários de aplicação, e a profundidade e amplitude da inovação precisam ser aprimoradas.
Para realmente alcançar a visão de uma IA descentralizada, permitindo que a na cadeia suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e que rivalize em desempenho com soluções centralizadas, precisamos projetar uma na cadeia de Layer1 feita sob medida para a IA. Isso proporcionará uma base sólida para a inovação aberta em IA, a democracia na governança e a segurança dos dados, promovendo o próspero desenvolvimento do ecossistema de IA descentralizada.
As características principais da AI Layer 1
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento sustentável e a prosperidade do ecossistema de IA na cadeia. Especificamente, o AI Layer 1 deve possuir as seguintes capacidades centrais:
Mecanismos de incentivo eficientes e consenso descentralizado O núcleo do AI Layer 1 está na construção de uma rede compartilhada de recursos abertos, como poder computacional e armazenamento. Diferente dos nós tradicionais de blockchain que se concentram principalmente na contabilidade de livros, os nós do AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder computacional e completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, quebrando assim o monopólio das grandes empresas na infraestrutura de IA. Isso impõe requisitos mais altos para o consenso e mecanismos de incentivo subjacentes: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a distribuição eficiente de recursos. Somente assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogêneas As tarefas de IA, especialmente o treinamento e a inferência de LLM, impõem requisitos extremamente altos de desempenho computacional e capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia muitas vezes precisa suportar tipos de tarefas diversificadas e heterogêneas, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários variados. A IA Layer 1 deve ser profundamente otimizada na arquitetura subjacente para atender às demandas de alta taxa de transferência, baixa latência e paralelismo elástico, e prever a capacidade de suporte nativa a recursos computacionais heterogêneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, realizando uma expansão suave de "tarefas únicas" para "ecossistemas complexos e diversificados".
Verificabilidade e Garantia de Saída Confiável A camada AI Layer 1 não só deve prevenir comportamentos maliciosos do modelo e a manipulação de dados, mas também deve garantir a verificabilidade e alinhamento dos resultados de saída da IA a partir dos mecanismos subjacentes. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK) e computação segura multipartidária (MPC), a plataforma consegue permitir que cada processo de inferência de modelo, treinamento e processamento de dados possa ser verificado de forma independente, garantindo a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade pode ajudar os usuários a entender a lógica e as bases das saídas da IA, realizando "o que se obtém é o que se deseja", aumentando a confiança e satisfação dos usuários em relação aos produtos de IA.
Proteção da privacidade dos dados As aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crucial em áreas como finanças, saúde e redes sociais. A IA Layer 1 deve garantir a verificabilidade ao mesmo tempo que utiliza tecnologias de processamento de dados baseadas em criptografia, protocolos de computação privada e gestão de permissões de dados, assegurando a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo eficazmente vazamentos e abusos de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade robusta de suporte e desenvolvimento do ecossistema Como uma infraestrutura de Layer 1 nativa de IA, a plataforma não apenas deve ter liderança tecnológica, mas também fornecer ferramentas de desenvolvimento completas, SDK integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós e provedores de serviços de IA, entre outros participantes do ecossistema. Através da otimização contínua da usabilidade da plataforma e da experiência do desenvolvedor, promove-se a implementação de uma variedade rica de aplicações nativas de IA, alcançando a prosperidade contínua do ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos avanços da indústria, analisando o estado atual do desenvolvimento dos projetos e discutindo as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Resumo do projeto
Sentient é uma plataforma de protocolo de código aberto que está a construir uma blockchain de AI Layer1 (, inicialmente na fase Layer 2, e depois migrará para Layer 1). Ao combinar AI Pipeline e tecnologia de blockchain, está a construir uma economia de inteligência artificial descentralizada. O seu objetivo central é resolver os problemas de propriedade do modelo, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que os modelos de AI realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e repartição de valor. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de AI, promovendo assim um ecossistema de rede de Agentes de AI justo e aberto.
A equipe da Sentient Foundation reúne os melhores especialistas acadêmicos, empreendedores e engenheiros em blockchain do mundo, comprometidos em construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e privacidade da IA, enquanto Sandeep Nailwal, cofundador da Polygon, lidera a estratégia e o ecossistema de blockchain. Os membros da equipe têm experiências em empresas renomadas como Meta, Coinbase e Polygon, além de instituições de ensino de alto nível como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP e visão computacional, colaborando para impulsionar a implementação do projeto.
Como o projeto de segundo empreendimento de Sandeep Nailwal, cofundador da Polygon, a Sentient nasceu com um brilho especial, possuindo recursos ricos, conexões e reconhecimento de mercado, proporcionando um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada por Founders Fund, Pantera e Framework Ventures, com outras instituições de investimento incluindo Delphi, Hashkey e várias dezenas de VCs renomados.
arquitetura de design e camada de aplicação
Camada de Infraestrutura
Arquitetura Central
A arquitetura central da Sentient é composta por um Pipeline de IA e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos de "IA leal", contendo dois processos centrais:
O sistema de blockchain proporciona transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
Estrutura do Modelo OML
A estrutura OML (Aberto Open, Monetizável Monetizable, Leal Loyal) é o conceito central proposto pela Sentient, destinado a fornecer proteção clara de propriedade e mecanismos de incentivo econômico para modelos de IA de código aberto. Através da combinação de tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa da IA utiliza a continuidade dos modelos de IA, a estrutura de variedade de baixa dimensão e as propriedades diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve que é "verificável, mas não removível". A sua tecnologia central é:
Este método pode realizar "chamadas autorizadas baseadas em comportamento + validação de associação" sem custos de re-encriptação.
Estrutura de certificação e execução segura do modelo
Sentient atualmente utiliza o Melange mistura de segurança: com reconhecimento de impressão digital, execução TEE e contratos na cadeia para a distribuição de lucros combinados. O método de impressão digital é implementado pela OML 1.0 como a linha principal, enfatizando a ideia de "Segurança otimista (Optimistic Security)", ou seja, conformidade por padrão, com a possibilidade de detectar e punir em caso de violação.
O mecanismo de impressão digital é a implementação chave do OML, que através da incorporação de pares de "pergunta-resposta" específicos, permite que o modelo gere assinaturas únicas na fase de treinamento. Através dessas assinaturas, os proprietários do modelo podem verificar a propriedade, prevenindo cópias e comercializações não autorizadas. Este mecanismo não apenas protege os direitos dos desenvolvedores do modelo, mas também fornece um registro na cadeia rastreável das atividades de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos apenas respondam a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e apresente certos riscos de segurança, suas vantagens em termos de alto desempenho e capacidade de resposta em tempo real tornam-no uma tecnologia central para a implementação atual de modelos.
No futuro, a Sentient planeia introduzir tecnologias de prova de conhecimento zero (ZK) e criptografia homomórfica completa (FHE) para aumentar ainda mais a proteção da privacidade e a verificabilidade dos modelos de IA.