Nueva alianza de IA busca poner fin al dominio de las grandes tecnológicas con datos de propiedad del usuario

Cheqd, DataHive, Nuklai y Datagram han lanzado la Alianza de IA Soberana, una nueva iniciativa destinada a desarrollar un marco de código abierto para la inteligencia artificial descentralizada utilizando datos de propiedad del usuario.

Anunciado el 1 de mayo a través de un comunicado de prensa compartido con crypto.news, la alianza se centrará en construir infraestructura técnica que apoye sistemas de IA que preserven la privacidad. En el núcleo del proyecto se encuentra el Protocolo de Red de Intenciones propuesto, que tiene como objetivo permitir que los agentes de IA colaboren de manera segura sin comprometer el control del usuario sobre los datos personales.

INP se estructura en torno a tres componentes clave: "Anclas de Intención" para capturar entradas de usuarios con garantías de propiedad de datos; la "Malla de Intención", un entorno descentralizado para la comunicación de IA; y "Nodos de Ejecución", que actúan según las intenciones del usuario con protecciones de privacidad integradas.

La alianza también delineó una hoja de ruta más amplia que incluye almacenamiento de datos descentralizado, modelos de IA de código abierto y herramientas para que los agentes de IA transaccionen y colaboren de manera autónoma. Según los fundadores, este esfuerzo está destinado a mover la economía de datos de "basada en la atención" a "basada en la intención", con los usuarios en el centro.

Por qué esta alianza es importante

SAIA entra en escena a medida que se intensifica el escrutinio sobre el uso de datos personales por parte de modelos de IA centralizados, mientras los reguladores en Europa y más allá exigen más transparencia y control del usuario.

Fraser Edwards, CEO de cheqd, dijo a crypto.news en una entrevista que los modelos de IA actuales a menudo comercian con datos de usuarios sin un consentimiento significativo. "Los usuarios pagan con sus datos personales, que son extraídos, agregados y convertidos en mercancía," dijo.

El enfoque de la alianza, según Edwards, permite a los usuarios compartir datos de manera selectiva, potencialmente monetizarlos y mantener la capacidad de revocar el acceso, ofreciendo un nivel de control que las plataformas centralizadas luchan por proporcionar.

Mientras que los esfuerzos anteriores por “pagar a los usuarios por sus datos” han tropezado, la arquitectura de SAIA está diseñada para tratar los datos de los usuarios como un activo reutilizable y verificable dentro de un ecosistema basado en el consentimiento. También incluye herramientas centradas en el cumplimiento, como registros de auditoría y divulgación selectiva, para ayudar a las aplicaciones a cumplir con estándares globales de privacidad como el GDPR.

A continuación, se presenta una completa sesión de preguntas y respuestas con Fraser Edwards sobre los planes, desafíos e incentivos para los usuarios de SAIA.

crypto.news: La visión de la Alianza de IA Soberana es construir marcos de IA de código abierto y descentralizados con datos de propiedad del usuario. Eso suena interesante en teoría, pero ¿qué ventajas ofrecerá esto sobre las ofertas de IA de Big Tech? Los servicios de IA se ofrecen “de forma gratuita” a cambio de comerciar con sus datos, y esto ha sido aceptado como normal durante años por la gran mayoría de las personas. ¿Por qué los usuarios y desarrolladores cambiarían a un modelo de autosoberanía? ¿Qué incentivo real (monetario, de privacidad u otro) hace que su enfoque de datos de propiedad del usuario sea lo suficientemente convincente como para impulsar la adopción? Fraser Edwards: La principal ventaja del modelo de la Alianza de IA Soberana es la alineación. IA que trabaja para ti, no para plataformas que monetizan tu atención o datos. Las herramientas de IA "gratuitas" de hoy no son realmente gratuitas. Los usuarios pagan con sus datos personales, que son extraídos, agregados y convertidos en mercancía, a menudo de maneras que no pueden ser controladas o auditadas. Esto alimenta sistemas impulsados por el compromiso que priorizan la viralidad y la retención sobre el beneficio individual. Un ejemplo del mundo real es la reacción en contra de la inteligencia artificial de Meta al ser integrada en WhatsApp. A pesar de las afirmaciones de Meta sobre el respeto a la privacidad, los usuarios no pueden desactivarla, y pocos confían en que la empresa actúe en su mejor interés. Esto erosiona la confianza en la gestión de datos de las grandes empresas tecnológicas.

En contraste, Sovereign AI se basa en datos de propiedad del usuario, donde las personas controlan cómo se utiliza, comparte y monetiza su información. El modelo de autosoberanía empodera a las personas para poseer su yo digital de una manera que las grandes tecnológicas no pueden ofrecer sin desmantelar su modelo de negocio completo.

Para que la IA sea verdaderamente personalizada y útil, necesita acceso a datos ricos y contextuales con pleno permiso. Si los datos están aislados en diferentes plataformas, la IA sigue siendo limitada e impersonal. La IA soberana permite sistemas inteligentes que son más poderosos y más respetuosos con las personas a las que sirven.

Este modelo permite tres incentivos para impulsar la adopción:

  • Privacidad por diseño: Los datos no son extraídos a sistemas corporativos opacos. En su lugar, permanecen bajo el control de los usuarios a través de una infraestructura de identidad y almacenamiento descentralizada.
  • Incentivo Monetario: Con marcos como los rieles de pago de cheqd, los usuarios y desarrolladores pueden recibir compensación por compartir datos verificados o entrenar agentes de IA, creando una verdadera economía de datos.
  • Personalización Real: Las AIs y agentes personales, como los que está desarrollando DataHive, pueden actuar en tu nombre según tus verdaderas intenciones, no lo que maximiza los ingresos publicitarios.

CN: Una idea clave aquí es que los individuos controlan ( y potencialmente monetizan ) sus propios datos. Sin embargo, muchos proyectos anteriores prometieron “ser pagados por sus datos” y tuvieron dificultades, en parte porque los datos de un usuario promedio no valen mucho a nivel individual o no justifican el tiempo. ¿Cómo cambiará SAIA esa ecuación? ¿Están planeando recompensar a los usuarios directamente por contribuir con datos o retroalimentación para el entrenamiento de IA, o el beneficio es más indirecto ( e.g. mejor personalización y privacidad )? Si los usuarios no pueden ganar ingresos significativos, ¿cuál es el atractivo para que compartan y gestionen proactivamente sus datos en esta red?

FE: Es cierto que los modelos anteriores de "paga por tus datos" a menudo fracasaron porque trataban los datos como una mercancía única en lugar de como parte de un ecosistema continuo y basado en intenciones. La Alianza de IA Soberana cambia la ecuación al reimaginar los datos como un activo reutilizable y de alto valor dentro de un marco de IA descentralizado y basado en intenciones.

Para cheqd, abordamos esto permitiendo que las personas controlen y reutilicen sus propios datos, pero igual de importante, estamos construyendo la infraestructura que incentiva a las empresas y a los silos de datos a devolver esos datos a las personas en primer lugar.

En lugar de prometer recompensas rápidas y micro por puntos de datos aislados, la infraestructura de cheqd apoya un modelo donde los usuarios pueden compartir selectivamente datos verificados y reutilizables, como credenciales, preferencias o consentimientos, en sus propios términos. Esto abre el potencial para un valor a largo plazo más significativo, ya sea en servicios de IA personalizados, monetización selectiva o simplemente un mejor control. El verdadero cambio está en reequilibrar el poder: hacer viable que los usuarios lleven sus datos con ellos y los usen en diferentes sistemas de IA, sin estar atrapados en silos.

CN: Con los datos de los usuarios en el centro, ¿cómo están abordando la privacidad y el cumplimiento desde el principio? Si se utilizan datos personales para entrenar o informar modelos de IA, ¿tienen los usuarios control detallado y la capacidad de optar por no participar o revocar los datos? Las acciones regulatorias recientes muestran que esto es crítico – por ejemplo, la autoridad de protección de datos de Italia prohibió temporalmente ChatGPT por la “ausencia de cualquier base legal” para su recolección masiva de datos personales para el entrenamiento. ¿Cómo diferirá el enfoque de SAIA en el manejo de los datos de los usuarios para que siga siendo conforme con las leyes de privacidad (GDPR y otras) y normas éticas? FE: La conformidad y la privacidad son fundamentales para la arquitectura de SAIA. La base de SAIA es la soberanía del usuario por defecto, sin necesidad de silos de datos centrales, en contraste con los modelos de IA típicos que recopilan datos en masa sin consentimiento significativo.

  • Los datos permanecen bajo el control del usuarioLos usuarios pueden otorgar, revocar o limitar el acceso a sus datos en cualquier momento aprovechando los protocolos de almacenamiento y (cheqd) de identidad descentralizados (Datagram y others). Este mecanismo está en línea con las nociones del RGPD, como la minimización de datos y el derecho al olvido.
  • El consentimiento es explícito y revocableEstamos desarrollando sistemas que permiten a los usuarios expresar su consentimiento explícito para el uso de sus datos, como para el intercambio de credenciales, interacciones con agentes o entrenamiento de IA. Con registros de consentimiento verificables y casos de uso específicos de intención, se garantiza la base legal y la trazabilidad.
  • Herramientas de cumplimiento integradas Estamos creando características de cumplimiento integradas, como registros de auditoría, procedencia de datos y divulgación selectiva, para que los agentes de IA y las aplicaciones que utilizan el marco de SAIA no solo estén alineados con la privacidad, sino que también cumplan de manera comprobable con las regulaciones globales.

CN: cheqd trae identidad descentralizada (identidad auto-soberana / SSI) e infraestructura de verificación a la alianza. ¿Cómo se incluirá SSI en el marco de IA? Por ejemplo, ¿usarán Intention Anchors identidades digitales para verificar la procedencia de los datos o la reputación de los agentes de IA? Y dado que la identidad descentralizada aún es incipiente, incluso los expertos en identidad señalan que la adopción es el mayor desafío debido a la complejidad añadida para los usuarios y las organizaciones​, ¿cómo fomentarás y arrancarás el uso de SSI dentro de SAIA?

FE: “SSI juega un papel clave en la arquitectura de la Alianza de IA Soberana. Es la capa de confianza que conecta a los agentes de IA, las personas y los datos. Aquí está cómo intentamos superar los obstáculos de adopción y cómo la infraestructura de identidad descentralizada de cheqd se ajusta al marco.

Esto también se aplica a los propios agentes de IA: al emitir credenciales verificables a los agentes, podemos establecer reputación, capacidad y autenticidad. Esto es vital para la confianza en las interacciones entre agentes o entre agentes y usuarios.

La adopción es, de hecho, el mayor desafío para SSI hoy en día. Mientras que cheqd está en la capa de infraestructura, DataHive está directamente orientado al cliente, ofreciendo así una solución a los consumidores que pueden llevar sus datos.

Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Comercie con criptomonedas en cualquier lugar y en cualquier momento
qrCode
Escanee para descargar la aplicación Gate.io
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)