Cheqd, DataHive, Nuklai et Datagram ont lancé l'Alliance AI Souveraine, une nouvelle initiative visant à développer un cadre open-source pour l'intelligence artificielle décentralisée utilisant des données détenues par les utilisateurs.
Annoncé le 1er mai via un communiqué de presse partagé avec crypto.news, l'alliance se concentrera sur la construction d'infrastructures techniques qui soutiennent les systèmes d'IA préservant la vie privée. Au cœur du projet se trouve le protocole proposé Intention Network Protocol qui vise à permettre aux agents d'IA de collaborer en toute sécurité sans compromettre le contrôle des utilisateurs sur les données personnelles.
INP est structuré autour de trois composants clés : les "Ancrages d'Intention" pour capturer les entrées des utilisateurs avec des garanties de propriété des données ; le "Maillage d'Intention", un environnement décentralisé pour la communication de l'IA ; et les "Nœuds d'Exécution", qui agissent sur les intentions des utilisateurs avec des protections de la vie privée intégrées.
L'alliance a également esquissé une feuille de route plus large qui inclut le stockage de données décentralisé, des modèles d'IA open-source et des outils pour que les agents d'IA puissent transacter et collaborer de manière autonome. Selon les fondateurs, cet effort vise à faire passer l'économie des données d'une approche « basée sur l'attention » à une approche « basée sur l'intention », avec les utilisateurs au centre.
Pourquoi cette alliance est importante
SAIA fait son apparition alors que l'examen s'intensifie sur l'utilisation des données personnelles par les modèles d'IA centralisés, tandis que les régulateurs en Europe et au-delà exigent plus de transparence et de contrôle de la part des utilisateurs.
Fraser Edwards, PDG de cheqd, a déclaré à crypto.news lors d'une interview que les modèles d'IA actuels échangent souvent des données utilisateur sans consentement significatif. "Les utilisateurs paient avec leurs données personnelles, qui sont extraites, agrégées et marchandisées," a-t-il déclaré.
Selon Edwards, l'approche de l'alliance permet aux utilisateurs de partager sélectivement des données, de les monétiser potentiellement et de conserver la possibilité de révoquer l'accès, offrant un niveau de contrôle que les plateformes centralisées ont du mal à fournir.
Alors que les efforts précédents pour « payer les utilisateurs pour leurs données » ont échoué, l'architecture de SAIA est conçue pour traiter les données des utilisateurs comme un actif réutilisable et vérifiable au sein d'un écosystème basé sur le consentement. Elle comprend également des outils axés sur la conformité, tels que des pistes de vérification et des divulgations sélectives, pour aider les applications à respecter les normes mondiales de confidentialité telles que le RGPD.
Une séance de questions-réponses complète avec Fraser Edwards sur les plans, les défis et les incitations pour les utilisateurs de SAIA suit ci-dessous.
crypto.news : La vision de l'Alliance AI Souveraine est de construire des cadres d'IA open-source et décentralisés avec des données détenues par les utilisateurs. Cela semble intéressant en théorie, mais quels avantages cela offrira-t-il par rapport aux offres d'IA des grandes entreprises technologiques ? Les services d'IA sont offerts « gratuitement » en échange de leurs données, et cela a été accepté comme normal pendant des années par la grande majorité des gens. Pourquoi les utilisateurs et les développeurs passeraient-ils à un modèle auto-souverain ? Quel véritable incitatif (monétaire, confidentialité, ou autre) rend votre approche de données détenues par les utilisateurs suffisamment convaincante pour susciter l'adoption ?
Fraser Edwards : L'avantage principal du modèle de l'Alliance AI Souveraine est l'alignement. Une IA qui travaille pour vous, et non pour des plateformes monétisant votre attention ou vos données. Les outils IA "gratuits" d'aujourd'hui ne sont pas vraiment gratuits. Les utilisateurs paient avec leurs données personnelles, qui sont extraites, agrégées et marchandisées, souvent de manière incontrôlable ou non auditable. Cela alimente des systèmes axés sur l'engagement qui privilégient la viralité et la rétention au détriment du bénéfice individuel.
Un exemple concret est la réaction négative contre l'intégration de l'IA de Meta dans WhatsApp. Malgré les affirmations de Meta concernant le respect de la vie privée, les utilisateurs ne peuvent pas désactiver cette fonctionnalité, et peu de personnes font confiance à l'entreprise pour agir dans leur meilleur intérêt. Cela érode la confiance dans la gestion des données par les grandes entreprises technologiques.
En revanche, Sovereign AI est construit autour des données détenues par les utilisateurs, où les individus contrôlent comment leurs informations sont utilisées, partagées et monétisées. Le modèle d'auto-souveraineté permet aux gens de posséder leur identité numérique d'une manière que les grandes entreprises technologiques ne peuvent pas offrir sans démanteler l'ensemble de leur modèle économique.
Pour que l'IA soit véritablement personnalisée et utile, elle doit avoir accès à des données riches et contextuelles avec l'autorisation complète. Si les données sont isolées sur différentes plateformes, l'IA reste limitée et impersonnelle. L'IA souveraine permet des systèmes intelligents qui sont à la fois plus puissants et plus respectueux des personnes qu'ils servent.
Ce modèle permet trois incitations pour favoriser l'adoption :
Confidentialité par conception : Les données ne sont pas siphonnées dans des systèmes d'entreprise opaques. Au lieu de cela, elles restent sous le contrôle des utilisateurs via une identité décentralisée et une infrastructure de stockage.
Incitation monétaire : Avec des cadres comme les infrastructures de paiement de cheqd, les utilisateurs et les développeurs peuvent recevoir une compensation pour le partage de données vérifiées ou la formation d'agents IA, créant ainsi une véritable économie des données.
Personnalisation réelle : Les IA et agents personnels, comme ceux développés par DataHive, peuvent agir en votre nom en fonction de vos véritables intentions, et non de ce qui maximise les revenus publicitaires.
Une idée centrale ici est que les individus contrôlent (and potentiellement monetize) leurs propres données. Cependant, de nombreux projets antérieurs promettaient d’être payés pour vos données et ont eu du mal, en partie parce que les données d’un utilisateur moyen ne valent pas grand-chose au niveau individuel ou ne valent pas le temps. Comment SAIA va-t-elle changer cette équation ? Prévoyez-vous de récompenser directement les utilisateurs pour leur contribution aux données ou aux commentaires d’entraînement de l’IA, ou l’avantage est-il plus indirect (e.g. Une meilleure personnalisation et privacy) ? Si les utilisateurs ne peuvent pas gagner de revenus significatifs, quel est leur intérêt à partager et à gérer leurs données de manière proactive sur ce réseau ?**
FE : Il est vrai que les anciens modèles « soyez payé pour vos données » ont souvent échoué parce qu’ils traitaient les données comme une marchandise unique plutôt que comme une partie d’un écosystème continu et axé sur l’intention. La Sovereign AI Alliance change l’équation en réimaginant les données en tant qu’actif réutilisable et de grande valeur dans un cadre d’IA décentralisé et basé sur l’intention.
Pour cheqd, nous abordons cela en permettant aux individus de contrôler et de réutiliser leurs propres données, mais tout aussi important, nous construisons l'infrastructure qui incite les entreprises et les silos de données à restituer ces données aux individus en premier lieu.
Plutôt que de promettre des récompenses micro rapides pour des points de données isolés, l'infrastructure de cheqd prend en charge un modèle où les utilisateurs peuvent partager sélectivement des données vérifiées et réutilisables, telles que des identifiants, des préférences ou des consentements, selon leurs propres conditions. Cela ouvre la possibilité d'une valeur à long terme plus significative, que ce soit dans des services d'IA personnalisés, une monétisation sélective, ou tout simplement un meilleur contrôle. Le véritable changement réside dans le rééquilibrage des pouvoirs : rendre viable pour les utilisateurs de prendre leurs données avec eux et de les utiliser à travers différents systèmes d'IA, sans être piégés dans des silos.
CN:Avec les données détenues par les utilisateurs au centre, comment abordez-vous la confidentialité et la conformité dès le départ ? Si des données personnelles sont utilisées pour entraîner ou informer des modèles d'IA, les utilisateurs ont-ils un contrôle granulaire et la possibilité de se désinscrire ou de révoquer des données ? Les récentes actions réglementaires montrent que c'est critique – par exemple, l'autorité de protection des données italienne a temporairement interdit ChatGPT en raison de l'« absence de toute base légale » pour sa collecte massive de données personnelles à des fins d'entraînement. En quoi l'approche de SAIA diffère-t-elle dans la gestion des données des utilisateurs afin qu'elle reste conforme aux lois sur la confidentialité (GDPR et autres) et aux normes éthiques ?
FE : La conformité et la confidentialité sont fondamentales pour l'architecture de SAIA. La fondation de SAIA est la souveraineté de l'utilisateur par défaut, sans avoir besoin de silos de données centraux, en contraste avec les modèles d'IA typiques qui collectent des données en masse sans consentement significatif.
Les données restent sous le contrôle de l'utilisateur Les utilisateurs peuvent accorder, révoquer ou limiter l'accès à leurs données à tout moment en s'appuyant sur l'identité décentralisée (cheqd) et les protocoles de stockage (Datagram et autres ). Ce mécanisme est conforme aux notions du RGPD telles que la minimisation des données et le droit à l'oubli.
Le consentement est explicite et révocableNous développons des systèmes qui permettent aux utilisateurs d'exprimer un consentement explicite à l'utilisation de leurs données, par exemple pour le partage de crédentiels, les interactions avec des agents ou la formation de l'IA. Avec des enregistrements de consentement vérifiables et des cas d'utilisation spécifiques à l'intention, une base légale et une traçabilité sont garanties.
Outils de conformité intégrésNous créons des fonctionnalités de conformité intégrées, telles que des pistes de vérification, la provenance des données et la divulgation sélective, afin que les agents et applications d'IA utilisant le cadre de SAIA ne soient pas seulement alignés sur la vie privée, mais également prouvablement conformes aux réglementations mondiales.
CN :cheqd apporte une identité décentralisée (l'identité auto-souveraine / SSI) et une infrastructure de vérification à l'alliance. Comment la SSI sera-t-elle intégrée dans le cadre de l'IA ? Par exemple, les Intention Anchors utiliseront-elles des identités numériques pour vérifier la provenance des données ou la réputation des agents IA ? Et étant donné que l'identité décentralisée est encore naissante, même les experts en identité notent que l'adoption est le plus grand défi en raison de la complexité supplémentaire pour les utilisateurs et les organisations, comment encouragerez-vous et lancerez-vous l'utilisation de la SSI au sein de SAIA ?
FE : « L'SSI joue un rôle clé dans l'architecture de l'Alliance AI Souveraine. C'est la couche de confiance qui relie les agents d'IA, les personnes et les données. Voici comment nous avons l'intention de surmonter les obstacles à l'adoption et comment l'infrastructure d'identité décentralisée de cheqd s'intègre dans le cadre. »
Cela s'applique également aux agents d'IA eux-mêmes : en délivrant des attestations vérifiables aux agents, nous pouvons établir la réputation, la capacité et l'authenticité. Cela est vital pour la confiance dans les interactions entre agents ou entre un agent et un utilisateur.
L'adoption est en effet le plus grand défi pour SSI aujourd'hui. Alors que cheqd est au niveau de l'infrastructure, DataHive est directement en contact avec les clients, offrant ainsi une solution aux consommateurs eux-mêmes qu'ils peuvent ensuite utiliser pour intégrer leurs données.
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Une nouvelle alliance d'IA vise à mettre fin à la domination des grandes entreprises technologiques avec des données détenues par les utilisateurs
Cheqd, DataHive, Nuklai et Datagram ont lancé l'Alliance AI Souveraine, une nouvelle initiative visant à développer un cadre open-source pour l'intelligence artificielle décentralisée utilisant des données détenues par les utilisateurs.
Annoncé le 1er mai via un communiqué de presse partagé avec crypto.news, l'alliance se concentrera sur la construction d'infrastructures techniques qui soutiennent les systèmes d'IA préservant la vie privée. Au cœur du projet se trouve le protocole proposé Intention Network Protocol qui vise à permettre aux agents d'IA de collaborer en toute sécurité sans compromettre le contrôle des utilisateurs sur les données personnelles.
INP est structuré autour de trois composants clés : les "Ancrages d'Intention" pour capturer les entrées des utilisateurs avec des garanties de propriété des données ; le "Maillage d'Intention", un environnement décentralisé pour la communication de l'IA ; et les "Nœuds d'Exécution", qui agissent sur les intentions des utilisateurs avec des protections de la vie privée intégrées.
L'alliance a également esquissé une feuille de route plus large qui inclut le stockage de données décentralisé, des modèles d'IA open-source et des outils pour que les agents d'IA puissent transacter et collaborer de manière autonome. Selon les fondateurs, cet effort vise à faire passer l'économie des données d'une approche « basée sur l'attention » à une approche « basée sur l'intention », avec les utilisateurs au centre.
Pourquoi cette alliance est importante
SAIA fait son apparition alors que l'examen s'intensifie sur l'utilisation des données personnelles par les modèles d'IA centralisés, tandis que les régulateurs en Europe et au-delà exigent plus de transparence et de contrôle de la part des utilisateurs.
Fraser Edwards, PDG de cheqd, a déclaré à crypto.news lors d'une interview que les modèles d'IA actuels échangent souvent des données utilisateur sans consentement significatif. "Les utilisateurs paient avec leurs données personnelles, qui sont extraites, agrégées et marchandisées," a-t-il déclaré.
Selon Edwards, l'approche de l'alliance permet aux utilisateurs de partager sélectivement des données, de les monétiser potentiellement et de conserver la possibilité de révoquer l'accès, offrant un niveau de contrôle que les plateformes centralisées ont du mal à fournir.
Alors que les efforts précédents pour « payer les utilisateurs pour leurs données » ont échoué, l'architecture de SAIA est conçue pour traiter les données des utilisateurs comme un actif réutilisable et vérifiable au sein d'un écosystème basé sur le consentement. Elle comprend également des outils axés sur la conformité, tels que des pistes de vérification et des divulgations sélectives, pour aider les applications à respecter les normes mondiales de confidentialité telles que le RGPD.
Une séance de questions-réponses complète avec Fraser Edwards sur les plans, les défis et les incitations pour les utilisateurs de SAIA suit ci-dessous.
crypto.news : La vision de l'Alliance AI Souveraine est de construire des cadres d'IA open-source et décentralisés avec des données détenues par les utilisateurs. Cela semble intéressant en théorie, mais quels avantages cela offrira-t-il par rapport aux offres d'IA des grandes entreprises technologiques ? Les services d'IA sont offerts « gratuitement » en échange de leurs données, et cela a été accepté comme normal pendant des années par la grande majorité des gens. Pourquoi les utilisateurs et les développeurs passeraient-ils à un modèle auto-souverain ? Quel véritable incitatif (monétaire, confidentialité, ou autre) rend votre approche de données détenues par les utilisateurs suffisamment convaincante pour susciter l'adoption ? Fraser Edwards : L'avantage principal du modèle de l'Alliance AI Souveraine est l'alignement. Une IA qui travaille pour vous, et non pour des plateformes monétisant votre attention ou vos données. Les outils IA "gratuits" d'aujourd'hui ne sont pas vraiment gratuits. Les utilisateurs paient avec leurs données personnelles, qui sont extraites, agrégées et marchandisées, souvent de manière incontrôlable ou non auditable. Cela alimente des systèmes axés sur l'engagement qui privilégient la viralité et la rétention au détriment du bénéfice individuel. Un exemple concret est la réaction négative contre l'intégration de l'IA de Meta dans WhatsApp. Malgré les affirmations de Meta concernant le respect de la vie privée, les utilisateurs ne peuvent pas désactiver cette fonctionnalité, et peu de personnes font confiance à l'entreprise pour agir dans leur meilleur intérêt. Cela érode la confiance dans la gestion des données par les grandes entreprises technologiques.
En revanche, Sovereign AI est construit autour des données détenues par les utilisateurs, où les individus contrôlent comment leurs informations sont utilisées, partagées et monétisées. Le modèle d'auto-souveraineté permet aux gens de posséder leur identité numérique d'une manière que les grandes entreprises technologiques ne peuvent pas offrir sans démanteler l'ensemble de leur modèle économique.
Pour que l'IA soit véritablement personnalisée et utile, elle doit avoir accès à des données riches et contextuelles avec l'autorisation complète. Si les données sont isolées sur différentes plateformes, l'IA reste limitée et impersonnelle. L'IA souveraine permet des systèmes intelligents qui sont à la fois plus puissants et plus respectueux des personnes qu'ils servent.
Ce modèle permet trois incitations pour favoriser l'adoption :
Une idée centrale ici est que les individus contrôlent (and potentiellement monetize) leurs propres données. Cependant, de nombreux projets antérieurs promettaient d’être payés pour vos données et ont eu du mal, en partie parce que les données d’un utilisateur moyen ne valent pas grand-chose au niveau individuel ou ne valent pas le temps. Comment SAIA va-t-elle changer cette équation ? Prévoyez-vous de récompenser directement les utilisateurs pour leur contribution aux données ou aux commentaires d’entraînement de l’IA, ou l’avantage est-il plus indirect (e.g. Une meilleure personnalisation et privacy) ? Si les utilisateurs ne peuvent pas gagner de revenus significatifs, quel est leur intérêt à partager et à gérer leurs données de manière proactive sur ce réseau ?**
FE : Il est vrai que les anciens modèles « soyez payé pour vos données » ont souvent échoué parce qu’ils traitaient les données comme une marchandise unique plutôt que comme une partie d’un écosystème continu et axé sur l’intention. La Sovereign AI Alliance change l’équation en réimaginant les données en tant qu’actif réutilisable et de grande valeur dans un cadre d’IA décentralisé et basé sur l’intention.
Pour cheqd, nous abordons cela en permettant aux individus de contrôler et de réutiliser leurs propres données, mais tout aussi important, nous construisons l'infrastructure qui incite les entreprises et les silos de données à restituer ces données aux individus en premier lieu.
Plutôt que de promettre des récompenses micro rapides pour des points de données isolés, l'infrastructure de cheqd prend en charge un modèle où les utilisateurs peuvent partager sélectivement des données vérifiées et réutilisables, telles que des identifiants, des préférences ou des consentements, selon leurs propres conditions. Cela ouvre la possibilité d'une valeur à long terme plus significative, que ce soit dans des services d'IA personnalisés, une monétisation sélective, ou tout simplement un meilleur contrôle. Le véritable changement réside dans le rééquilibrage des pouvoirs : rendre viable pour les utilisateurs de prendre leurs données avec eux et de les utiliser à travers différents systèmes d'IA, sans être piégés dans des silos.
CN: Avec les données détenues par les utilisateurs au centre, comment abordez-vous la confidentialité et la conformité dès le départ ? Si des données personnelles sont utilisées pour entraîner ou informer des modèles d'IA, les utilisateurs ont-ils un contrôle granulaire et la possibilité de se désinscrire ou de révoquer des données ? Les récentes actions réglementaires montrent que c'est critique – par exemple, l'autorité de protection des données italienne a temporairement interdit ChatGPT en raison de l'« absence de toute base légale » pour sa collecte massive de données personnelles à des fins d'entraînement. En quoi l'approche de SAIA diffère-t-elle dans la gestion des données des utilisateurs afin qu'elle reste conforme aux lois sur la confidentialité (GDPR et autres) et aux normes éthiques ? FE : La conformité et la confidentialité sont fondamentales pour l'architecture de SAIA. La fondation de SAIA est la souveraineté de l'utilisateur par défaut, sans avoir besoin de silos de données centraux, en contraste avec les modèles d'IA typiques qui collectent des données en masse sans consentement significatif.
CN : cheqd apporte une identité décentralisée (l'identité auto-souveraine / SSI) et une infrastructure de vérification à l'alliance. Comment la SSI sera-t-elle intégrée dans le cadre de l'IA ? Par exemple, les Intention Anchors utiliseront-elles des identités numériques pour vérifier la provenance des données ou la réputation des agents IA ? Et étant donné que l'identité décentralisée est encore naissante, même les experts en identité notent que l'adoption est le plus grand défi en raison de la complexité supplémentaire pour les utilisateurs et les organisations, comment encouragerez-vous et lancerez-vous l'utilisation de la SSI au sein de SAIA ?
FE : « L'SSI joue un rôle clé dans l'architecture de l'Alliance AI Souveraine. C'est la couche de confiance qui relie les agents d'IA, les personnes et les données. Voici comment nous avons l'intention de surmonter les obstacles à l'adoption et comment l'infrastructure d'identité décentralisée de cheqd s'intègre dans le cadre. »
Cela s'applique également aux agents d'IA eux-mêmes : en délivrant des attestations vérifiables aux agents, nous pouvons établir la réputation, la capacité et l'authenticité. Cela est vital pour la confiance dans les interactions entre agents ou entre un agent et un utilisateur.
L'adoption est en effet le plus grand défi pour SSI aujourd'hui. Alors que cheqd est au niveau de l'infrastructure, DataHive est directement en contact avec les clients, offrant ainsi une solution aux consommateurs eux-mêmes qu'ils peuvent ensuite utiliser pour intégrer leurs données.