AI Layer 1 : À la recherche d'un terreau off-chain pour DeAI
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continué à promouvoir le développement rapide des grands modèles de langage (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine, et même dans certains scénarios, ils montrent le potentiel de remplacer le travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence difficile pour la grande majorité des développeurs et des équipes d'innovation.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention accordée à des questions clés telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur le fait de savoir si l'IA doit être "bienveillante" ou "malveillante" deviendra de plus en plus marqué, tandis que les géants centralisés, motivés par leur instinct de profit, manquent souvent de la motivation suffisante pour faire face à ces défis de manière proactive.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont déjà émergé sur certaines blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et les infrastructures dépendent encore des services cloud centralisés, et la propriété meme est trop forte, rendant difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain reste limitée en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, la profondeur et l'étendue de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision de l'IA décentralisée, permettant à la blockchain de porter des applications d'IA à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en performance avec les solutions centralisées, nous devons concevoir une blockchain Layer1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la démocratie de la gouvernance et la sécurité des données, favorisant le développement prospère de l'écosystème d'IA décentralisé.
Les caractéristiques clés de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et une conception de performance étroitement alignées sur les besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA off-chain. Plus précisément, AI Layer 1 doit posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace
Le cœur de l'AI Layer 1 réside dans la construction d'un réseau de partage ouvert de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la tenue de livres, les nœuds d'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul et réaliser l'entraînement et l'inférence des modèles AI, mais également contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, brisant ainsi le monopole des géants centralisés sur l'infrastructure AI. Cela impose des exigences plus élevées en matière de consensus de base et de mécanismes d'incitation : l'AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement AI, assurant ainsi la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant considérablement le coût global de la puissance de calcul.
Excellente performance et capacité de prise en charge des tâches hétérogènes
Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème AI off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios variés. AI Layer 1 doit être profondément optimisé au niveau de l'architecture sous-jacente pour répondre aux exigences de haut débit, faible latence et parallélisme élastique, tout en prévoyant une capacité de support natif pour les ressources de calcul hétérogènes, afin de garantir que toutes les tâches d'IA puissent fonctionner efficacement et réaliser une extension fluide allant de "tâches uniques" à "écosystèmes complexes et diversifiés."
Vérifiabilité et garantie de sortie fiable
AI Layer 1 doit non seulement prévenir les actes malveillants des modèles et la falsification des données, mais aussi garantir, au niveau du mécanisme de base, la vérifiabilité et l'alignement des résultats produits par l'IA. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à connaissance nulle (ZK) et le calcul sécurisé multi-parties (MPC), la plateforme permet à chaque inférence de modèle, formation et processus de traitement des données d'être vérifiés de manière indépendante, assurant ainsi l'équité et la transparence du système d'IA. Parallèlement, cette vérifiabilité aide les utilisateurs à comprendre clairement la logique et les bases des résultats de l'IA, réalisant ainsi "ce que l'on obtient est ce que l'on souhaite", augmentant la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données
Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. L'IA Layer 1 doit garantir la vérifiabilité tout en adoptant des techniques de traitement des données basées sur le cryptage, des protocoles de calcul de la confidentialité et des méthodes de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus, y compris l'inférence, l'entraînement et le stockage, pour prévenir efficacement les fuites de données et les abus, et éliminer les préoccupations des utilisateurs en matière de sécurité des données.
Capacité de support et de développement d'un écosystème puissant
En tant qu'infrastructure de couche 1 native de l'IA, la plateforme doit non seulement posséder un avantage technologique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services d'IA et à d'autres acteurs de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant en continu la disponibilité de la plateforme et l'expérience des développeurs, elle favorise le déploiement d'applications IA natives riches et variées, réalisant ainsi la prospérité continue d'un écosystème IA décentralisé.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs d'AI Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les derniers développements du secteur, en analysant l'état actuel de développement des projets et en explorant les tendances futures.
Sentient : construire des modèles d'IA décentralisés et open source loyaux
Aperçu du projet
Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1. La phase initiale est Layer 2, puis elle sera migrée vers Layer 1(. En combinant AI Pipeline et technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de distribution de valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles d'IA d'atteindre une structure de propriété sur la chaîne, une transparence d'appel et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, de collaborer, de posséder et de monétiser des produits d'IA, favorisant ainsi un écosystème de réseau d'agents IA équitable et ouvert.
![Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche d'un sol fertile pour DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
L'équipe de la Sentient Foundation regroupe des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, en charge respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents divers provenant d'entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que des universités de premier plan comme l'université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, la vision par ordinateur, et collaborent pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient avait dès le départ un halo, bénéficiant de ressources riches, de relations et d'une reconnaissance sur le marché, offrant un solide soutien au développement du projet. Mi-2024, Sentient a complété un tour de financement de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs tels que Delphi, Hashkey et Spartan parmi des dizaines de VC renommés.
) Architecture de conception et couche d'application
infrastructure
Architecture principale
L'architecture centrale de Sentient est composée de deux parties : le pipeline AI (AI Pipeline) et le système blockchain.
Le pipeline AI est la base du développement et de l'entraînement des artefacts "AI loyal", comprenant deux processus clés :
Planification des données (Data Curation) : un processus de sélection des données piloté par la communauté, utilisé pour l'alignement du modèle.
Formation à la fidélité (Loyalty Training) : assurer que le modèle maintienne un processus de formation en accord avec les intentions de la communauté.
Le système blockchain offre transparence et contrôle décentralisé pour les protocoles, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la répartition des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Couche de stockage : stocke les poids du modèle et les informations d'enregistrement des empreintes digitales ;
Couche de distribution : l'entrée d'appel du modèle est contrôlée par le contrat d'autorisation ;
Couche d'accès : vérifie si l'utilisateur est autorisé via la preuve de permission ;
Couche d'incitation : le contrat de routage des revenus répartit les paiements à chaque appel entre les formateurs, les déployeurs et les validateurs.
![Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche des terres fertiles de DeAI off-chain]###https://img-cdn.gateio.im/webp-social/moments-a70b0aca9250ab65193d0094fa9b5641.webp(
)## Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire des droits de propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :
Ouverture : le modèle doit être open source, avec un code et une structure de données transparents, facilitant la reproduction, l'audit et l'amélioration par la communauté.
Monétisation : Chaque appel de modèle déclenchera un flux de revenus, le contrat off-chain répartira les revenus entre les formateurs, les déployeurs et les validateurs.
Fidélité : Le modèle appartient à la communauté des contributeurs, la direction des mises à jour et la gouvernance sont décidées par le DAO, l'utilisation et la modification sont contrôlées par un mécanisme cryptographique.
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native AI utilise la continuité des modèles d'IA, la structure de variété à faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie fondamentale est :
Empreinte digitale intégrée : insérer un ensemble de paires clé-valeur de requête-réponse dissimulées pendant l'entraînement pour former une signature unique du modèle ;
Protocole de vérification de propriété : vérifiez si l'empreinte digitale est conservée via un détecteur tiers (Prover) sous forme de question query ;
Mécanisme d'appel autorisé : avant l'appel, il est nécessaire d'obtenir le "certificat d'autorisation" délivré par le propriétaire du modèle, puis le système autorise le modèle à décoder cette entrée et à renvoyer la réponse exacte.
Cette méthode permet de réaliser "l'appel autorisé basé sur le comportement + la vérification de l'appartenance" sans coût de re-chiffrement.
![Biteye et PANews publient un rapport de recherche sur l'AI Layer1 : à la recherche d'un terreau DeAI off-chain]###https://img-cdn.gateio.im/webp-social/moments-cf5f43c63b7ab154e2201c8d3531be8c.webp(
)## Modèle de confirmation de droits et cadre d'exécution sécurisée
L’approche actuelle de Sentient est la sécurité hybride : une combinaison de confirmation d’empreintes digitales, d’exécution TEE et de partage des bénéfices des contrats on-chain. Parmi elles, la méthode des empreintes digitales est la ligne principale de la mise en œuvre de l’OML 1.0, mettant l’accent sur l’idée de « sécurité optimiste », c’est-à-dire la conformité par défaut, la détection et la punition après violation.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML, qui permet au modèle de générer des signatures uniques pendant la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle off-chain.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant l'exécution de confiance.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
4
Partager
Commentaire
0/400
ImaginaryWhale
· Il y a 18h
Le monde du capital se résume à la répartition de l'argent.
Voir l'originalRépondre0
WalletWhisperer
· Il y a 18h
les modèles d'arbitrage statistique suggèrent une corrélation de 93 % avec la centralisation à vrai dire
Voir l'originalRépondre0
LiquidationTherapist
· Il y a 18h
Le grand capital contrôle l'IA, tout le monde est des pigeons.
AI Layer 1 : Créer l'infrastructure de base de Blockchain pour l'écosystème DeAI sur la chaîne
AI Layer 1 : À la recherche d'un terreau off-chain pour DeAI
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continué à promouvoir le développement rapide des grands modèles de langage (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'espace d'imagination humaine, et même dans certains scénarios, ils montrent le potentiel de remplacer le travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital solide et à un contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence difficile pour la grande majorité des développeurs et des équipes d'innovation.
Au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et les commodités apportées par la technologie, tandis que l'attention accordée à des questions clés telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière appropriée, le débat sur le fait de savoir si l'IA doit être "bienveillante" ou "malveillante" deviendra de plus en plus marqué, tandis que les géants centralisés, motivés par leur instinct de profit, manquent souvent de la motivation suffisante pour faire face à ces défis de manière proactive.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont déjà émergé sur certaines blockchains majeures. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les maillons clés et les infrastructures dépendent encore des services cloud centralisés, et la propriété meme est trop forte, rendant difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA on-chain reste limitée en termes de capacité des modèles, d'utilisation des données et de scénarios d'application, la profondeur et l'étendue de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision de l'IA décentralisée, permettant à la blockchain de porter des applications d'IA à grande échelle de manière sécurisée, efficace et démocratique, et de rivaliser en performance avec les solutions centralisées, nous devons concevoir une blockchain Layer1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la démocratie de la gouvernance et la sécurité des données, favorisant le développement prospère de l'écosystème d'IA décentralisé.
Les caractéristiques clés de AI Layer 1
AI Layer 1, en tant que blockchain spécialement conçue pour les applications d'IA, a une architecture sous-jacente et une conception de performance étroitement alignées sur les besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA off-chain. Plus précisément, AI Layer 1 doit posséder les capacités clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de l'AI Layer 1 réside dans la construction d'un réseau de partage ouvert de ressources telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la tenue de livres, les nœuds d'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul et réaliser l'entraînement et l'inférence des modèles AI, mais également contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, brisant ainsi le monopole des géants centralisés sur l'infrastructure AI. Cela impose des exigences plus élevées en matière de consensus de base et de mécanismes d'incitation : l'AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision la contribution réelle des nœuds dans des tâches telles que l'inférence et l'entraînement AI, assurant ainsi la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant considérablement le coût global de la puissance de calcul.
Excellente performance et capacité de prise en charge des tâches hétérogènes Les tâches d'IA, en particulier l'entraînement et l'inférence des LLM, exigent des performances de calcul et des capacités de traitement parallèle très élevées. De plus, l'écosystème AI off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, traitement des données, inférence, stockage et autres scénarios variés. AI Layer 1 doit être profondément optimisé au niveau de l'architecture sous-jacente pour répondre aux exigences de haut débit, faible latence et parallélisme élastique, tout en prévoyant une capacité de support natif pour les ressources de calcul hétérogènes, afin de garantir que toutes les tâches d'IA puissent fonctionner efficacement et réaliser une extension fluide allant de "tâches uniques" à "écosystèmes complexes et diversifiés."
Vérifiabilité et garantie de sortie fiable AI Layer 1 doit non seulement prévenir les actes malveillants des modèles et la falsification des données, mais aussi garantir, au niveau du mécanisme de base, la vérifiabilité et l'alignement des résultats produits par l'IA. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), la preuve à connaissance nulle (ZK) et le calcul sécurisé multi-parties (MPC), la plateforme permet à chaque inférence de modèle, formation et processus de traitement des données d'être vérifiés de manière indépendante, assurant ainsi l'équité et la transparence du système d'IA. Parallèlement, cette vérifiabilité aide les utilisateurs à comprendre clairement la logique et les bases des résultats de l'IA, réalisant ainsi "ce que l'on obtient est ce que l'on souhaite", augmentant la confiance et la satisfaction des utilisateurs envers les produits d'IA.
Protection de la vie privée des données Les applications d'IA impliquent souvent des données sensibles des utilisateurs, et dans des domaines tels que la finance, la santé et les réseaux sociaux, la protection de la vie privée des données est particulièrement cruciale. L'IA Layer 1 doit garantir la vérifiabilité tout en adoptant des techniques de traitement des données basées sur le cryptage, des protocoles de calcul de la confidentialité et des méthodes de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus, y compris l'inférence, l'entraînement et le stockage, pour prévenir efficacement les fuites de données et les abus, et éliminer les préoccupations des utilisateurs en matière de sécurité des données.
Capacité de support et de développement d'un écosystème puissant En tant qu'infrastructure de couche 1 native de l'IA, la plateforme doit non seulement posséder un avantage technologique, mais aussi fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services d'IA et à d'autres acteurs de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant en continu la disponibilité de la plateforme et l'expérience des développeurs, elle favorise le déploiement d'applications IA natives riches et variées, réalisant ainsi la prospérité continue d'un écosystème IA décentralisé.
Sur la base du contexte et des attentes ci-dessus, cet article présentera en détail six projets représentatifs d'AI Layer1, y compris Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en systématisant les derniers développements du secteur, en analysant l'état actuel de développement des projets et en explorant les tendances futures.
Sentient : construire des modèles d'IA décentralisés et open source loyaux
Aperçu du projet
Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1. La phase initiale est Layer 2, puis elle sera migrée vers Layer 1(. En combinant AI Pipeline et technologie blockchain, elle construit une économie d'intelligence artificielle décentralisée. Son objectif principal est de résoudre les problèmes de propriété des modèles, de suivi des appels et de distribution de valeur sur le marché LLM centralisé grâce au cadre "OML" (ouvert, rentable, loyal), permettant aux modèles d'IA d'atteindre une structure de propriété sur la chaîne, une transparence d'appel et une distribution de valeur. La vision de Sentient est de permettre à quiconque de construire, de collaborer, de posséder et de monétiser des produits d'IA, favorisant ainsi un écosystème de réseau d'agents IA équitable et ouvert.
![Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche d'un sol fertile pour DeAI off-chain])https://img-cdn.gateio.im/webp-social/moments-f4a64f13105f67371db1a93a52948756.webp(
L'équipe de la Sentient Foundation regroupe des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'université de Princeton et le professeur Himanshu Tyagi de l'Institut indien de science, en charge respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, co-fondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents divers provenant d'entreprises renommées telles que Meta, Coinbase, Polygon, ainsi que des universités de premier plan comme l'université de Princeton et l'Institut indien de technologie, couvrant des domaines tels que l'IA/ML, le NLP, la vision par ordinateur, et collaborent pour faire avancer le projet.
En tant que projet de deuxième entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient avait dès le départ un halo, bénéficiant de ressources riches, de relations et d'une reconnaissance sur le marché, offrant un solide soutien au développement du projet. Mi-2024, Sentient a complété un tour de financement de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs tels que Delphi, Hashkey et Spartan parmi des dizaines de VC renommés.
) Architecture de conception et couche d'application
infrastructure
Architecture principale
L'architecture centrale de Sentient est composée de deux parties : le pipeline AI (AI Pipeline) et le système blockchain.
Le pipeline AI est la base du développement et de l'entraînement des artefacts "AI loyal", comprenant deux processus clés :
Le système blockchain offre transparence et contrôle décentralisé pour les protocoles, garantissant la propriété des artefacts d'IA, le suivi de leur utilisation, la répartition des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
![Biteye et PANews publient conjointement un rapport de recherche sur AI Layer1 : à la recherche des terres fertiles de DeAI off-chain]###https://img-cdn.gateio.im/webp-social/moments-a70b0aca9250ab65193d0094fa9b5641.webp(
)## Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire des droits de propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native de l'IA, il présente les caractéristiques suivantes :
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native AI utilise la continuité des modèles d'IA, la structure de variété à faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie fondamentale est :
Cette méthode permet de réaliser "l'appel autorisé basé sur le comportement + la vérification de l'appartenance" sans coût de re-chiffrement.
![Biteye et PANews publient un rapport de recherche sur l'AI Layer1 : à la recherche d'un terreau DeAI off-chain]###https://img-cdn.gateio.im/webp-social/moments-cf5f43c63b7ab154e2201c8d3531be8c.webp(
)## Modèle de confirmation de droits et cadre d'exécution sécurisée
L’approche actuelle de Sentient est la sécurité hybride : une combinaison de confirmation d’empreintes digitales, d’exécution TEE et de partage des bénéfices des contrats on-chain. Parmi elles, la méthode des empreintes digitales est la ligne principale de la mise en œuvre de l’OML 1.0, mettant l’accent sur l’idée de « sécurité optimiste », c’est-à-dire la conformité par défaut, la détection et la punition après violation.
Le mécanisme d'empreinte digitale est une mise en œuvre clé d'OML, qui permet au modèle de générer des signatures uniques pendant la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle off-chain.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, utilisant l'exécution de confiance.