Новое ИИ-сообщество нацелено на прекращение доминирования Больших Технологий с помощью данных, принадлежащих пользователям

Cheqd, DataHive, Nuklai и Datagram запустили Альянс Суверенного ИИ, новую инициативу, направленную на разработку открытой архитектуры для децентрализованного искусственного интеллекта с использованием данных, принадлежащих пользователям.

Объявлено 1 мая через пресс-релиз, опубликованный на crypto.news, альянс сосредоточится на создании технической инфраструктуры, поддерживающей системы ИИ, обеспечивающие конфиденциальность. В центре проекта находится предложенный Протокол Сети Намерений, который нацелен на то, чтобы позволить агентам ИИ безопасно сотрудничать, не нарушая контроль пользователей над личными данными.

INP структурирован вокруг трех ключевых компонентов: «Якоря Намерений», которые фиксируют пользовательские вводимые данные с гарантией права собственности на данные; «Сеть Намерений», децентрализованная среда для коммуникации ИИ; и «Узлы Выполнения», которые действуют в соответствии с намерениями пользователя с встроенной защитой конфиденциальности.

Альянс также наметил более широкую дорожную карту, которая включает децентрализованное хранение данных, открытые модели ИИ и инструменты для автономного взаимодействия и сотрудничества ИИ-агентов. По словам основателей, эта инициатива призвана перевести экономику данных из "основанной на внимании" в "основанную на намерениях", при этом пользователи находятся в центре.

Почему этот альянс важен

SAIA появляется на сцене, поскольку внимание усиливается к использованию личных данных централизованными AI моделями, в то время как регуляторы в Европе и за ее пределами требуют большей прозрачности и контроля со стороны пользователей.

Фрейзер Эдвардс, генеральный директор cheqd, сообщил в интервью crypto.news, что современные модели ИИ часто обмениваются пользовательскими данными без значимого согласия. "Пользователи расплачиваются своими персональными данными, которые извлекаются, агрегируются и превращаются в товар," сказал он.

По словам Эдвардса, подход альянса позволяет пользователям избирательно делиться данными, потенциально монетизировать их и сохранять возможность отзыва доступа, предлагая уровень контроля, которого централизованные платформы испытывают трудности в предоставлении.

Хотя предыдущие попытки «оплатить пользователям за данные» потерпели неудачу, архитектура SAIA разработана для того, чтобы рассматривать пользовательские данные как повторно используемый и проверяемый актив в экосистеме, основанной на согласии. Она также включает инструменты, ориентированные на соблюдение норм, такие как аудиторские следы и выборочная раскрытие, чтобы помочь приложениям соответствовать глобальным стандартам конфиденциальности, таким как GDPR.

Полное интервью с Фрейзером Эдвардсом о планах SAIA, проблемах и стимулах для пользователей приведено ниже.

crypto.news: Видение Sovereign AI Alliance заключается в создании децентрализованных фреймворков искусственного интеллекта с открытым исходным кодом и данными, принадлежащими пользователям. В теории это звучит интересно, но какие преимущества это даст по сравнению с предложениями Big Tech в области искусственного интеллекта? Услуги искусственного интеллекта предлагаются бесплатно «бесплатно» путем торговли своими данными, и это было принято как норма в течение многих лет подавляющим большинством людей. Зачем пользователям и разработчикам переходить на самостоятельную суверенную модель? Какой реальный стимул (monetary, конфиденциальности или otherwise) делает ваш подход к данным, принадлежащим пользователям, достаточно привлекательным для его внедрения?
Фрейзер Эдвардс: Основное преимущество модели Альянса Суверенного ИИ заключается в согласованности. ИИ, который работает на вас, а не на платформы, монетизирующие ваше внимание или данные. Сегодняшние «бесплатные» инструменты ИИ на самом деле не являются бесплатными. Пользователи расплачиваются своими личными данными, которые извлекаются, агрегируются и превращаются в товар, часто таким образом, что это невозможно контролировать или проверять. Это подпитывает системы, ориентированные на вовлеченность, которые ставят приоритет на вирусность и удержание, а не на личную выгоду. Реальный пример – это реакция на внедрение ИИ Meta в WhatsApp. Несмотря на заявления Meta о соблюдении конфиденциальности, пользователи не могут отключить эту функцию, и немногие доверяют компании действовать в их интересах. Это подрывает доверие к управлению данными со стороны крупных технологий.

В отличие от этого, Sovereign AI построен вокруг данных, принадлежащих пользователю, где индивидуумы контролируют, как их информация используется, делится и монетизируется. Модель самосовладания дает возможность людям владеть своими цифровыми идентичностями таким образом, который Большие Технологии не могут предложить без разрушения своей всей бизнес-модели.

Чтобы ИИ был действительно персонализированным и полезным, ему необходим доступ к обширным кросс-контекстным данным с полным разрешением. Если данные разрознены между платформами, ИИ остается ограниченным и обезличенным. Суверенный ИИ позволяет создавать интеллектуальные системы, которые являются более мощными и более уважительными по отношению к людям, которым они служат.

Эта модель обеспечивает три стимула для увеличения принятия:

  • Конфиденциальность по дизайну: Данные не попадают в непрозрачные корпоративные системы. Вместо этого они остаются под контролем пользователей благодаря децентрализованной идентичности и инфраструктуре хранения.
  • Денежный стимул: С такими структурами, как платежные системы cheqd, пользователи и разработчики могут получать вознаграждение за предоставление проверенных данных или обучение ИИ-агентов, создавая настоящую экономику данных.
  • Реальная персонализация: Персональные ИИ и агенты, такие как те, которые разрабатываются DataHive, могут действовать от вашего имени, основываясь на ваших истинных намерениях, а не на том, что максимизирует доход от рекламы.

CN: Основная идея здесь заключается в том, что индивидуумы контролируют ( и потенциально могут монетизировать) свои собственные данные. Однако многие прошлые проекты обещали "платить за ваши данные" и испытывали трудности, отчасти потому, что данные среднестатистического пользователя не стоят много на индивидуальном уровне или стоят слишком много времени. Как SAIA изменит это уравнение? Планируете ли вы вознаграждать пользователей напрямую за предоставление данных или обратной связи по обучению ИИ, или выгода более косвенная (например, лучшая персонализация и конфиденциальность)? Если пользователи не могут зарабатывать значительный доход, какая мотивация у них будет активно делиться и управлять своими данными в этой сети?

FE: Верно, что прошлые модели "платить за ваши данные" часто терпели неудачу, потому что они рассматривали данные как одноразовый товар, а не как часть непрерывной экосистемы, основанной на намерениях. Альянс Суверенного ИИ меняет ситуацию, переосмысливая данные как многоразовый, высокоценный актив в рамках децентрализованной, основанной на намерениях системы ИИ.

Для cheqd мы подходим к этому, позволяя людям контролировать и повторно использовать свои собственные данные, но не менее важно, что мы создаем инфраструктуру, которая стимулирует компании и хранилища данных возвращать эти данные обратно людям в первую очередь.

Вместо того чтобы обещать быстрые микронаграды за изолированные данные, инфраструктура cheqd поддерживает модель, в которой пользователи могут выборочно делиться проверенными, многоразовыми данными, такими как удостоверения, предпочтения или согласие, на своих условиях. Это открывает потенциал для более значимой долгосрочной ценности, будь то в персонализированных AI-сервисах, выборочной монетизации или просто лучшем контроле. Реальный сдвиг заключается в перераспределении власти: сделать возможным для пользователей забрать свои данные с собой и использовать их в различных AI-системах, не попадая в изоляцию.

CN: С учетом того, что данные принадлежат пользователю, как вы решаете вопросы конфиденциальности и соблюдения норм с самого начала? Если личные данные используются для обучения или информирования ИИ-моделей, имеют ли пользователи детальный контроль и возможность отказаться от использования данных или отозвать их? Недавние регуляторные меры показывают, что это критично – например, итальянский орган по защите данных временно запретил ChatGPT из-за "отсутствия какой-либо правовой основы" для его массового сбора личных данных для обучения. Как подход SAIA будет отличаться в обработке пользовательских данных, чтобы он оставался в соответствии с законами о конфиденциальности (GDPR и другими) и этическими нормами? FE: Соответствие и конфиденциальность являются основополагающими для архитектуры SAIA. Основой SAIA является суверенитет пользователя по умолчанию, без необходимости в центральных хранилищах данных, в отличие от типичных моделей ИИ, которые собирают данные оптом без значимого согласия.

  • Данные остаются под контролем пользователя Пользователи могут в любой момент предоставить, отозвать или ограничить доступ к своим данным, используя децентрализованную идентичность (cheqd) и протоколы хранения (Datagram и другие). Этот механизм соответствует концепциям GDPR, таким как минимизация данных и право на забвение.
  • *Согласие является явным и отзывнымМы разрабатываем системы, которые позволяют пользователям выражать явное согласие на использование их данных, например, для обмена учетными данными, взаимодействия с агентами или обучения ИИ. С явными записями согласия и конкретными вариантами использования гарантированы юридическая основа и прослеживаемость.
  • Встроенные инструменты соответствия Мы создаем встроенные функции соответствия, такие как аудиторские следы, происхождение данных и выборочная раскрываемость, чтобы агенты ИИ и приложения, использующие структуру SAIA, были не только соответствующими принципам конфиденциальности, но и доказательно соответствующими мировым регламентам.

CN: cheqd приносит децентрализованную идентичность (самостоятельную идентичность / SSI) и инфраструктуру проверки в альянс. Как SSI будет интегрирована в AI-структуру? Например, будут ли Intention Anchors использовать цифровые идентичности для проверки происхождения данных или репутации AI-агентов? И учитывая, что децентрализованная идентичность все еще находится на ранней стадии развития, даже эксперты по идентичности отмечают, что внедрение является самой большой проблемой из-за добавленной сложности для пользователей и организаций​, как вы будете поощрять и поддерживать использование SSI в рамках SAIA?

FE: “SSI играет ключевую роль в архитектуре Альянса Суверенного ИИ. Это уровень доверия, который соединяет ИИ-агентов, людей и данные. Вот как мы намерены преодолеть препятствия на пути к принятию и как децентрализованная инфраструктура идентичности cheqd вписывается в эту рамку.

Это также относится и к самим агентам ИИ: выдавая проверяемые удостоверения агентам, мы можем установить репутацию, способность и подлинность. Это жизненно важно для доверия в взаимодействии агент-агент или агент-пользователь.

Принятие действительно является самой большой проблемой для SSI сегодня. В то время как cheqd находится на уровне инфраструктуры, DataHive непосредственно взаимодействует с клиентами, предлагая решение для самих потребителей, которое они могут затем использовать для работы со своими данными.

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить