Rapport de recherche sur l'IA Layer1 : À la recherche d'un terrain fertile pour DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont constamment poussé le développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination de l'humanité, et dans certains scénarios, ils montrent même le potentiel de remplacer le travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant difficile pour la grande majorité des développeurs et des équipes d'innovation de rivaliser avec elles.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentrait souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée à des questions centrales telles que la protection de la vie privée, la transparence et la sécurité était relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur la nature "bienveillante" ou "malveillante" de l'IA deviendra de plus en plus saillant, tandis que les géants centralisés, poussés par leur instinct de profit, manquent souvent d'une motivation suffisante pour faire face à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur des blockchains majeures telles que Solana et Base. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et les infrastructures dépendent encore des services cloud centralisés, et l'attribut meme est trop prononcé, ce qui rend difficile le soutien d'un véritable écosystème ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain présente encore des limitations en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'étendue de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, et permettre à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la gouvernance démocratique et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques clés de l'IA Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et une conception des performances étroitement alignées sur les besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème IA off-chain. Plus précisément, AI Layer 1 doit posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de l'AI Layer 1 réside dans la construction d'un réseau partagé et ouvert de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds de l'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer avec des ressources variées telles que le stockage, les données et la bande passante, rompant ainsi le monopole des géants centralisés sur les infrastructures de l'IA. Cela pose des exigences plus élevées pour le consensus de base et le mécanisme d'incitation : l'AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision les contributions réelles des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, réalisant ainsi la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance et capacité de support de tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, posent des exigences très élevées en matière de performance de calcul et de capacité de traitement parallèle. De plus, l'écosystème d'IA off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios variés. La couche d'IA Layer 1 doit être profondément optimisée au niveau de l'architecture pour répondre aux besoins de haute capacité, de faible latence et de parallélisme élastique, et prévoir une capacité de support natif pour les ressources de calcul hétérogènes, garantissant que toutes les tâches d'IA peuvent fonctionner efficacement et permettant une extension fluide des "tâches uniques" vers un "écosystème complexe et diversifié".
Vérifiabilité et garantie de sortie fiable La couche AI Layer 1 doit non seulement prévenir les abus de modèle, les altérations de données et d'autres risques de sécurité, mais aussi garantir la vérifiabilité et l'alignement des résultats de sortie de l'IA dès le mécanisme de base. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à divulgation nulle de connaissance (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet à chaque inférence de modèle, formation et processus de traitement de données d'être vérifiés de manière indépendante, assurant l'équité et la transparence du système d'IA. En même temps, cette vérifiabilité peut également aider les utilisateurs à clarifier la logique et les bases des sorties de l'IA, réalisant "ce qui est obtenu est ce qui est souhaité", augmentant la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 doit garantir la vérifiabilité tout en adoptant des techniques de traitement des données basées sur le chiffrement, des protocoles de calcul de la vie privée et des moyens de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, en prévenant efficacement les fuites et les abus de données, et en éliminant les préoccupations des utilisateurs en matière de sécurité des données.
Capacité puissante d'hébergement et de support au développement En tant qu'infrastructure de base Layer 1 native à l'IA, la plateforme doit non seulement posséder un leadership technologique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services d'IA et autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, elle favorise la mise en œuvre d'applications AI natives variées et riches, réalisant la prospérité continue d'un écosystème AI décentralisé.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'IA Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en passant en revue les dernières avancées du secteur, en analysant l'état actuel du développement des projets et en explorant les tendances futures.
Sentient : construire un modèle d'IA décentralisé et open source fidèle
Aperçu du projet
Sentient est une plateforme de protocole open source qui développe une blockchain AI Layer1 ( dans sa phase initiale en tant que Layer 2, puis migrera vers Layer 1). En combinant AI Pipeline et technologies blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de traçabilité des appels et de répartition de la valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles AI de réaliser une structure de propriété on-chain, une transparence des appels et une répartition de la valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits AI, favorisant ainsi un écosystème de réseau d'agents AI équitable et ouvert.
L'équipe de Sentient Foundation rassemble des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, dédiée à la construction d'une plateforme AGI communautaire, open source et vérifiable. Les membres clés comprennent Pramod Viswanath, professeur à l'Université de Princeton, et Himanshu Tyagi, professeur à l'Institut indien de science, qui sont respectivement responsables de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans des entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que dans des universités de premier plan comme l'Université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, la vision par ordinateur, et collaborent pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès ses débuts été entouré d'une aura, bénéficiant de ressources, de contacts et d'une reconnaissance sur le marché, offrant un puissant soutien au développement du projet. Au milieu de l'année 2024, Sentient a complété un financement de série A de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs tels que Delphi, Hashkey et des dizaines d'autres VC renommés.
architecture de conception et couche d'application
infrastructure de base
Architecture de base
L'architecture centrale de Sentient est composée de deux parties : le pipeline AI (AI Pipeline) et le système blockchain.
Les pipelines d'IA sont la base du développement et de l'entraînement des artefacts "IA fidèle", comprenant deux processus clés :
Planification des données (Data Curation) : processus de sélection des données piloté par la communauté, utilisé pour l'alignement des modèles.
Formation à la fidélité (Loyalty Training) : assurer que le modèle maintienne un processus de formation en accord avec les intentions de la communauté.
Le système blockchain offre transparence et contrôle décentralisé aux protocoles, garantissant la propriété des artefacts d'IA, le suivi de l'utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Couche de stockage : stocke les poids du modèle et les informations d'enregistrement des empreintes digitales ;
Couche de distribution : entrée de contrôle du modèle d'appel par le contrat d'autorisation ;
Couche d'accès : vérifie si l'utilisateur est autorisé via une preuve d'autorisation ;
Couche d'incitation : le contrat de routage des revenus attribue à chaque appel un paiement aux formateurs, déployeurs et validateurs.
Cadre de modèle OML
Le cadre OML (Ouvert Open, Monétisable Monetizable, Loyal Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :
Ouvert : Le modèle doit être open source, avec un code et une structure de données transparents, facilitant la reproduction, l'audit et l'amélioration par la communauté.
Monétisation : Chaque appel de modèle déclenche un flux de revenus, le contrat off-chain distribue les revenus aux formateurs, déployeurs et vérificateurs.
Loyauté : Le modèle appartient à la communauté des contributeurs, la direction de la mise à niveau et la gouvernance sont décidées par le DAO, l'utilisation et la modification sont contrôlées par des mécanismes cryptographiques.
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à IA utilise la continuité des modèles d'IA, la structure de variétés de faible dimension et les caractéristiques de différentiabilité des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non supprimable". Sa technologie clé est :
Empreinte digitale : insérer un ensemble de paires clé-valeur query-response cachées lors de l'entraînement pour former la signature unique du modèle ;
Protocole de vérification de la propriété : vérifiez si l'empreinte digitale est conservée en utilisant un détecteur tiers (Prover) sous forme de question query ;
Mécanisme d'appel autorisé : Avant d'appeler, il est nécessaire d'obtenir le "certificat d'autorisation" délivré par le propriétaire du modèle, puis le système autorise le modèle à décoder cette entrée et à renvoyer la réponse exacte.
Cette méthode permet de réaliser "l'appel autorisé basé sur le comportement + la vérification de l'appartenance" sans coût de recryptage.
Cadre de confirmation de modèle et d'exécution sécurisée
Sentient adopte actuellement la sécurité mixte Melange : combinaison de la vérification d'identité par empreinte digitale, de l'exécution TEE et du partage des profits via des contrats off-chain. La méthode d'empreinte digitale est mise en œuvre par OML 1.0, soulignant l'idée de "sécurité optimiste (Optimistic Security)", c'est-à-dire conformité par défaut, avec détection et punition en cas de non-conformité.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML, qui génère une signature unique par l'intégration de paires "question-réponse" spécifiques lors de la phase d'entraînement. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi les copies et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également des enregistrements d'utilisation traçables off-chain.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour garantir que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi l'accès et l'utilisation non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performances élevées et de temps réel en font la technologie clé pour le déploiement actuel des modèles.
À l'avenir, Sentient prévoit d'introduire des technologies de preuve zéro connaissance (ZK) et de cryptographie homomorphe complète (FHE) pour renforcer davantage la protection de la vie privée et la vérifiabilité des modèles d'IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
3
Partager
Commentaire
0/400
MagicBean
· 07-13 19:52
Les géants ne peuvent plus jouer ?
Voir l'originalRépondre0
BoredApeResistance
· 07-13 19:47
Une nouvelle histoire de pigeons dans le web3
Voir l'originalRépondre0
FrogInTheWell
· 07-13 19:41
Quand les investisseurs détaillants pourront-ils se permettre de jouer avec l'IA ?
L'essor de l'AI Layer1 : la nouvelle infrastructure de l'écosystème décentralisé de l'IA
Rapport de recherche sur l'IA Layer1 : À la recherche d'un terrain fertile pour DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont constamment poussé le développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination de l'humanité, et dans certains scénarios, ils montrent même le potentiel de remplacer le travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle sur des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant difficile pour la grande majorité des développeurs et des équipes d'innovation de rivaliser avec elles.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentrait souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention portée à des questions centrales telles que la protection de la vie privée, la transparence et la sécurité était relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur la nature "bienveillante" ou "malveillante" de l'IA deviendra de plus en plus saillant, tandis que les géants centralisés, poussés par leur instinct de profit, manquent souvent d'une motivation suffisante pour faire face à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur des blockchains majeures telles que Solana et Base. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et les infrastructures dépendent encore des services cloud centralisés, et l'attribut meme est trop prononcé, ce qui rend difficile le soutien d'un véritable écosystème ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain présente encore des limitations en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, et la profondeur et l'étendue de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, et permettre à la blockchain de supporter des applications AI à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en performance avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la gouvernance démocratique et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques clés de l'IA Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et une conception des performances étroitement alignées sur les besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème IA off-chain. Plus précisément, AI Layer 1 doit posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de l'AI Layer 1 réside dans la construction d'un réseau partagé et ouvert de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds de l'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer avec des ressources variées telles que le stockage, les données et la bande passante, rompant ainsi le monopole des géants centralisés sur les infrastructures de l'IA. Cela pose des exigences plus élevées pour le consensus de base et le mécanisme d'incitation : l'AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision les contributions réelles des nœuds dans des tâches telles que l'inférence et l'entraînement de l'IA, réalisant ainsi la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût global de la puissance de calcul.
Excellente performance et capacité de support de tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, posent des exigences très élevées en matière de performance de calcul et de capacité de traitement parallèle. De plus, l'écosystème d'IA off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios variés. La couche d'IA Layer 1 doit être profondément optimisée au niveau de l'architecture pour répondre aux besoins de haute capacité, de faible latence et de parallélisme élastique, et prévoir une capacité de support natif pour les ressources de calcul hétérogènes, garantissant que toutes les tâches d'IA peuvent fonctionner efficacement et permettant une extension fluide des "tâches uniques" vers un "écosystème complexe et diversifié".
Vérifiabilité et garantie de sortie fiable La couche AI Layer 1 doit non seulement prévenir les abus de modèle, les altérations de données et d'autres risques de sécurité, mais aussi garantir la vérifiabilité et l'alignement des résultats de sortie de l'IA dès le mécanisme de base. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à divulgation nulle de connaissance (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet à chaque inférence de modèle, formation et processus de traitement de données d'être vérifiés de manière indépendante, assurant l'équité et la transparence du système d'IA. En même temps, cette vérifiabilité peut également aider les utilisateurs à clarifier la logique et les bases des sorties de l'IA, réalisant "ce qui est obtenu est ce qui est souhaité", augmentant la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs. Dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. AI Layer 1 doit garantir la vérifiabilité tout en adoptant des techniques de traitement des données basées sur le chiffrement, des protocoles de calcul de la vie privée et des moyens de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, d'entraînement et de stockage, en prévenant efficacement les fuites et les abus de données, et en éliminant les préoccupations des utilisateurs en matière de sécurité des données.
Capacité puissante d'hébergement et de support au développement En tant qu'infrastructure de base Layer 1 native à l'IA, la plateforme doit non seulement posséder un leadership technologique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services d'IA et autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, elle favorise la mise en œuvre d'applications AI natives variées et riches, réalisant la prospérité continue d'un écosystème AI décentralisé.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'IA Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en passant en revue les dernières avancées du secteur, en analysant l'état actuel du développement des projets et en explorant les tendances futures.
Sentient : construire un modèle d'IA décentralisé et open source fidèle
Aperçu du projet
Sentient est une plateforme de protocole open source qui développe une blockchain AI Layer1 ( dans sa phase initiale en tant que Layer 2, puis migrera vers Layer 1). En combinant AI Pipeline et technologies blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de traçabilité des appels et de répartition de la valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles AI de réaliser une structure de propriété on-chain, une transparence des appels et une répartition de la valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits AI, favorisant ainsi un écosystème de réseau d'agents AI équitable et ouvert.
L'équipe de Sentient Foundation rassemble des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, dédiée à la construction d'une plateforme AGI communautaire, open source et vérifiable. Les membres clés comprennent Pramod Viswanath, professeur à l'Université de Princeton, et Himanshu Tyagi, professeur à l'Institut indien de science, qui sont respectivement responsables de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans des entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que dans des universités de premier plan comme l'Université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, la vision par ordinateur, et collaborent pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès ses débuts été entouré d'une aura, bénéficiant de ressources, de contacts et d'une reconnaissance sur le marché, offrant un puissant soutien au développement du projet. Au milieu de l'année 2024, Sentient a complété un financement de série A de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs tels que Delphi, Hashkey et des dizaines d'autres VC renommés.
architecture de conception et couche d'application
infrastructure de base
Architecture de base
L'architecture centrale de Sentient est composée de deux parties : le pipeline AI (AI Pipeline) et le système blockchain.
Les pipelines d'IA sont la base du développement et de l'entraînement des artefacts "IA fidèle", comprenant deux processus clés :
Le système blockchain offre transparence et contrôle décentralisé aux protocoles, garantissant la propriété des artefacts d'IA, le suivi de l'utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Cadre de modèle OML
Le cadre OML (Ouvert Open, Monétisable Monetizable, Loyal Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à IA utilise la continuité des modèles d'IA, la structure de variétés de faible dimension et les caractéristiques de différentiabilité des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non supprimable". Sa technologie clé est :
Cette méthode permet de réaliser "l'appel autorisé basé sur le comportement + la vérification de l'appartenance" sans coût de recryptage.
Cadre de confirmation de modèle et d'exécution sécurisée
Sentient adopte actuellement la sécurité mixte Melange : combinaison de la vérification d'identité par empreinte digitale, de l'exécution TEE et du partage des profits via des contrats off-chain. La méthode d'empreinte digitale est mise en œuvre par OML 1.0, soulignant l'idée de "sécurité optimiste (Optimistic Security)", c'est-à-dire conformité par défaut, avec détection et punition en cas de non-conformité.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML, qui génère une signature unique par l'intégration de paires "question-réponse" spécifiques lors de la phase d'entraînement. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi les copies et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également des enregistrements d'utilisation traçables off-chain.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour garantir que le modèle ne répond qu'aux demandes autorisées, empêchant ainsi l'accès et l'utilisation non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performances élevées et de temps réel en font la technologie clé pour le déploiement actuel des modèles.
À l'avenir, Sentient prévoit d'introduire des technologies de preuve zéro connaissance (ZK) et de cryptographie homomorphe complète (FHE) pour renforcer davantage la protection de la vie privée et la vérifiabilité des modèles d'IA.