أطلقت Cheqd و DataHive و Nuklai و Datagram تحالف الذكاء الاصطناعي السيادي، وهو مبادرة جديدة تهدف إلى تطوير إطار عمل مفتوح المصدر للذكاء الاصطناعي اللامركزي باستخدام بيانات مملوكة للمستخدم.
أُعلن في 1 مايو عبر بيان صحفي تم مشاركته مع crypto.news، سيتركز التحالف على بناء البنية التحتية التقنية التي تدعم أنظمة الذكاء الاصطناعي التي تحافظ على الخصوصية. في جوهر المشروع يوجد بروتوكول شبكة النية المقترح الذي يهدف إلى تمكين وكلاء الذكاء الاصطناعي من التعاون بأمان دون المساس بسيطرة المستخدم على البيانات الشخصية.
تتكون INP من ثلاثة مكونات رئيسية: "مرساة النية" لالتقاط مدخلات المستخدم مع ضمانات ملكية البيانات؛ و"شبكة النية"، وهي بيئة لامركزية للتواصل بين الذكاء الاصطناعي؛ و"عقد التنفيذ"، التي تعمل بناءً على نوايا المستخدم مع حماية مدمجة للخصوصية.
حدد التحالف أيضًا خارطة طريق أوسع تشمل تخزين البيانات اللامركزي، ونماذج الذكاء الاصطناعي مفتوحة المصدر، وأدوات لوكلاء الذكاء الاصطناعي للتعامل والتعاون بشكل مستقل. وفقًا للمؤسسين، فإن هذه الجهود تهدف إلى نقل اقتصاد البيانات من "مبني على الانتباه" إلى "مبني على النية"، مع وجود المستخدمين في المركز.
لماذا هذا التحالف مهم
SAIA تدخل الساحة مع تصاعد التدقيق في استخدام نماذج الذكاء الاصطناعي المركزية للبيانات الشخصية بينما تطالب الجهات التنظيمية في أوروبا وما وراءها بمزيد من الشفافية والتحكم من قبل المستخدم.
قال فريزر إدواردز، الرئيس التنفيذي لشركة cheqd، في مقابلة مع crypto.news إن نماذج الذكاء الاصطناعي الحالية غالبًا ما تتاجر في بيانات المستخدمين دون موافقة ذات مغزى. "يدفع المستخدمون ببياناتهم الشخصية، التي يتم استخراجها وتجميعها وتحويرها إلى سلع،" كما قال.
تتيح نهج التحالف، وفقًا لإدواردز، للمستخدمين مشاركة البيانات بشكل انتقائي، وقد تتيح لهم تحقيق دخل منها، والاحتفاظ بالقدرة على إلغاء الوصول، مما يوفر مستوى من السيطرة التي تكافح المنصات المركزية لتقديمه.
بينما تعثرت الجهود السابقة "لدفع المستخدمين مقابل البيانات"، تم تصميم بنية SAIA لعلاج بيانات المستخدمين كأصل قابل لإعادة الاستخدام والتحقق ضمن نظام بيئي قائم على الموافقة. كما يتضمن أيضًا أدوات تركز على الامتثال، مثل مسارات التدقيق والإفصاح الانتقائي، لمساعدة التطبيقات على تلبية المعايير العالمية للخصوصية مثل GDPR.
تتبع أدناه جلسة أسئلة وأجوبة كاملة مع فريزر إدواردز حول خطط SAIA وتحدياتها وحوافز المستخدمين.
crypto.news: رؤية تحالف الذكاء الاصطناعي السيادي هي بناء أطر ذكاء اصطناعي مفتوحة المصدر وموزعة مع بيانات يملكها المستخدمون. يبدو أن هذا مثير للاهتمام من الناحية النظرية، ولكن ما هي المزايا التي ستقدمها هذه المبادرة مقارنة بعروض الذكاء الاصطناعي من الشركات الكبرى؟ تُقدم خدمات الذكاء الاصطناعي مجانًا "مجانًا" من خلال تداول بياناتهم، وقد تم قبول هذا كأمر طبيعي لسنوات من قبل الغالبية العظمى من الناس. لماذا يجب على المستخدمين والمطورين الانتقال إلى نموذج سيادي ذاتيًا؟ ما هو الحافز الحقيقي (مادي، أو خصوصية، أو غير ذلك) الذي يجعل نهج بياناتك المملوكة من قبل المستخدمين جذابًا بما فيه الكفاية لزيادة الاعتماد؟
فريزر إدواردز: الميزة الأساسية لنموذج تحالف الذكاء الاصطناعي السيادي هي التوافق. الذكاء الاصطناعي الذي يعمل من أجلك، وليس للمنصات التي تستغل انتباهك أو بياناتك. أدوات الذكاء الاصطناعي "المجانية" اليوم ليست مجانية حقًا. المستخدمون يدفعون ببياناتهم الشخصية، التي تُستخرج وتُجمع وتُ commodified، غالبًا بطرق لا يمكن التحكم فيها أو تدقيقها. هذا يغذي أنظمة مدفوعة بالتفاعل التي تعطي الأولوية للانتشار والاحتفاظ على حساب الفائدة الفردية.
مثال على ذلك هو رد الفعل العكسي ضد دمج الذكاء الاصطناعي الخاص بميتا في واتساب. على الرغم من مزاعم ميتا باحترام الخصوصية، لا يمكن للمستخدمين إيقافه، وقليل من الناس يثقون في الشركة لتتصرف في مصلحتهم. هذا erodes الثقة في إدارة بيانات الشركات الكبرى.
على النقيض من ذلك، تم بناء الذكاء الاصطناعي السيادي حول بيانات مملوكة للمستخدم، حيث يتحكم الأفراد في كيفية استخدام معلوماتهم ومشاركتها وتحقيق الدخل منها. نموذج السيادة الذاتية يمكّن الناس من امتلاك ذواتهم الرقمية بطريقة لا تستطيع التكنولوجيا الكبرى تقديمها دون تفكيك نموذج أعمالها بالكامل.
لكي تكون الذكاء الاصطناعي مخصصًا حقًا ومفيدًا، يحتاج إلى الوصول إلى بيانات غنية وعبر سياقات متعددة مع إذن كامل. إذا كانت البيانات محصورة عبر المنصات، يظل الذكاء الاصطناعي محدودًا وغير شخصي. تمكّن الذكاء الاصطناعي السيادي الأنظمة الذكية التي تكون أكثر قوة واحترامًا للأشخاص الذين تخدمهم.
هذا النموذج يتيح ثلاثة حوافز لدفع التبني:
الخصوصية من خلال التصميم: البيانات لا تُسحب إلى أنظمة الشركات الغامضة. بدلاً من ذلك، تظل تحت سيطرة المستخدمين من خلال هويات لامركزية وبنية تحتية للتخزين.
الحوافز المالية: مع أطر عمل مثل شبكات الدفع cheqd، يمكن للمستخدمين والمطورين الحصول على تعويض مقابل مشاركة البيانات الموثوقة أو تدريب وكلاء الذكاء الاصطناعي، مما يخلق اقتصاد بيانات حقيقي.
تخصيص حقيقي: يمكن للذكاء الصناعي الشخصي والوكلاء، مثل الذين يتم تطويرهم بواسطة DataHive، أن يعملوا نيابةً عنك بناءً على نواياك الحقيقية، وليس ما يزيد من إيرادات الإعلانات.
CN:فكرة أساسية هنا هي أن الأفراد يتحكمون في ( ويمكنهم تحقيق الربح المحتمل من ) بياناتهم الخاصة. ومع ذلك، وعدت العديد من المشاريع السابقة بـ "الحصول على أجر مقابل بياناتك" وعانت، جزئيًا لأن بيانات المستخدم العادي ليست ذات قيمة كبيرة على المستوى الفردي أو تستحق الوقت. كيف ستغير SAIA هذه المعادلة؟ هل تخطط لمكافأة المستخدمين مباشرةً لمساهمتهم في البيانات أو ملاحظات تدريب الذكاء الاصطناعي، أم أن الفائدة أكثر غير مباشرة ( مثل تحسين التخصيص والخصوصية )؟ إذا لم يتمكن المستخدمون من كسب دخل كبير، ما هو الدافع لهم لمشاركة وإدارة بياناتهم بشكل نشط في هذه الشبكة؟
FE: من الصحيح أن نماذج "الحصول على أجر مقابل بياناتك" السابقة غالبًا ما فشلت لأنها اعتبرت البيانات كسلعة لمرة واحدة بدلاً من كونها جزءًا من نظام بيئي مستمر مدفوع بالنوايا. تغير التحالف السيادي للذكاء الاصطناعي المعادلة من خلال إعادة تصور البيانات كأصل ذو قيمة عالية يمكن إعادة استخدامه ضمن إطار عمل ذكاء اصطناعي لامركزي قائم على النوايا.
بالنسبة لـ cheqd، نحن نتعامل مع هذا من خلال تمكين الأفراد من التحكم في بياناتهم وإعادة استخدامها، ولكن بنفس الأهمية، نحن نبني البنية التحتية التي تحفز الشركات وبيانات السايل على إعادة تلك البيانات إلى الأفراد في المقام الأول.
بدلاً من الوعد بمكافآت سريعة صغيرة لنقاط بيانات معزولة، تدعم بنية cheqd نموذجًا حيث يمكن للمستخدمين مشاركة بيانات موثوقة وقابلة لإعادة الاستخدام، مثل الشهادات والتفضيلات أو الموافقة، وفقًا لشروطهم. وهذا يفتح المجال لقيمة طويلة الأجل أكثر معنى، سواء كان ذلك في خدمات الذكاء الاصطناعي المخصصة، أو تحقيق الدخل الانتقائي، أو ببساطة تحسين السيطرة. التحول الحقيقي يكمن في إعادة توازن القوة: جعل من الممكن للمستخدمين أخذ بياناتهم معهم واستخدامها عبر أنظمة الذكاء الاصطناعي المختلفة، دون أن يكونوا محصورين في صوامع.
CN:مع وجود بيانات مملوكة للمستخدم في المركز، كيف تتعاملون مع الخصوصية والامتثال من البداية؟ إذا كانت البيانات الشخصية تُستخدم لتدريب أو إبلاغ نماذج الذكاء الاصطناعي، هل لدى المستخدمين القدرة على التحكم الدقيق والقدرة على الانسحاب أو إلغاء البيانات؟ تُظهر الإجراءات التنظيمية الأخيرة أن هذا أمر حاسم – على سبيل المثال، حظرت هيئة حماية البيانات في إيطاليا مؤقتًا ChatGPT بسبب “غياب أي أساس قانوني” لجمعها الضخم للبيانات الشخصية للتدريب. كيف ستختلف مقاربة SAIA في التعامل مع بيانات المستخدم بحيث تظل متوافقة مع قوانين الخصوصية (GDPR وغيرها ) والمعايير الأخلاقية؟
FE: الالتزام والخصوصية هما أساسيات في بنية SAIA. أساس SAIA هو سيادة المستخدم بشكل افتراضي، دون الحاجة إلى مستودعات بيانات مركزية، على عكس نماذج الذكاء الاصطناعي النموذجية التي تجمع البيانات بشكل جماعي دون موافقة ذات مغزى.
تظل البيانات تحت سيطرة المستخدم يمكن للمستخدمين منح أو إلغاء أو تقييد الوصول إلى بياناتهم في أي وقت من خلال الاستفادة من الهوية اللامركزية (cheqd) وبروتوكولات التخزين (Datagram وغيرها). هذه الآلية تتماشى مع مفاهيم GDPR مثل تقليل البيانات والحق في النسيان.
الموافقة صريحة وقابلة للإلغاءنحن نطور أنظمة تسمح للمستخدمين بالتعبير عن الموافقة الصريحة لاستخدام بياناتهم، مثل مشاركة البيانات، التفاعلات مع الوكلاء، أو تدريب الذكاء الاصطناعي. مع سجلات الموافقة القابلة للتحقق وحالات الاستخدام المحددة بنية، يتم ضمان الأساس القانوني وقابلية التتبع.
أدوات الامتثال المدمجة نحن نقوم بإنشاء ميزات امتثال مدمجة، مثل مسارات التدقيق، وأصول البيانات، والكشف الانتقائي، بحيث تكون وكلاء الذكاء الاصطناعي والتطبيقات التي تستخدم إطار عمل SAIA ليست فقط متوافقة مع الخصوصية ولكن أيضًا متوافقة بشكل يمكن إثباته مع اللوائح العالمية.
CN:cheqd يجلب الهوية اللامركزية ( الهوية الذاتية السيادية / SSI) وبنية التحقق إلى التحالف. كيف سيتم تضمين SSI في إطار الذكاء الاصطناعي؟ على سبيل المثال، هل ستستخدم Intention Anchors الهويات الرقمية للتحقق من مصدر البيانات أو سمعة وكلاء الذكاء الاصطناعي؟ ونظراً لأن الهوية اللامركزية لا تزال في بدايتها، حتى خبراء الهوية يشيرون إلى أن التبني هو أكبر تحدٍ بسبب التعقيد المضاف للمستخدمين والمنظمات، كيف ستشجعون وتدعمون استخدام SSI داخل SAIA؟
FE: "تلعب SSI دورًا رئيسيًا في بنية تحالف الذكاء الاصطناعي السيادي. إنها طبقة الثقة التي تربط بين وكلاء الذكاء الاصطناعي والأشخاص والبيانات. إليك كيف نعتزم تجاوز عقبات الاعتماد وكيف يتناسب هيكل هوية cheqd اللامركزية مع الإطار."
ينطبق هذا أيضًا على الوكلاء الذكاء الاصطناعي أنفسهم: من خلال إصدار شهادات موثوقة للوكلاء، يمكننا تحديد السمعة والقدرة والأصالة. هذا أمر حيوي لبناء الثقة في التفاعلات بين الوكيل والوكيل أو الوكيل والمستخدم.
إن التبني هو بالفعل أكبر تحدٍ يواجه SSI اليوم. بينما تعمل cheqd في طبقة البنية التحتية، فإن DataHive تواجه العملاء مباشرة، مما يوفر حلاً للمستهلكين أنفسهم يمكنهم من خلاله إدخال بياناتهم.
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
تحالف الذكاء الاصطناعي الجديد يهدف إلى إنهاء هيمنة الشركات الكبرى من خلال بيانات مملوكة للمستخدمين
أطلقت Cheqd و DataHive و Nuklai و Datagram تحالف الذكاء الاصطناعي السيادي، وهو مبادرة جديدة تهدف إلى تطوير إطار عمل مفتوح المصدر للذكاء الاصطناعي اللامركزي باستخدام بيانات مملوكة للمستخدم.
أُعلن في 1 مايو عبر بيان صحفي تم مشاركته مع crypto.news، سيتركز التحالف على بناء البنية التحتية التقنية التي تدعم أنظمة الذكاء الاصطناعي التي تحافظ على الخصوصية. في جوهر المشروع يوجد بروتوكول شبكة النية المقترح الذي يهدف إلى تمكين وكلاء الذكاء الاصطناعي من التعاون بأمان دون المساس بسيطرة المستخدم على البيانات الشخصية.
تتكون INP من ثلاثة مكونات رئيسية: "مرساة النية" لالتقاط مدخلات المستخدم مع ضمانات ملكية البيانات؛ و"شبكة النية"، وهي بيئة لامركزية للتواصل بين الذكاء الاصطناعي؛ و"عقد التنفيذ"، التي تعمل بناءً على نوايا المستخدم مع حماية مدمجة للخصوصية.
حدد التحالف أيضًا خارطة طريق أوسع تشمل تخزين البيانات اللامركزي، ونماذج الذكاء الاصطناعي مفتوحة المصدر، وأدوات لوكلاء الذكاء الاصطناعي للتعامل والتعاون بشكل مستقل. وفقًا للمؤسسين، فإن هذه الجهود تهدف إلى نقل اقتصاد البيانات من "مبني على الانتباه" إلى "مبني على النية"، مع وجود المستخدمين في المركز.
لماذا هذا التحالف مهم
SAIA تدخل الساحة مع تصاعد التدقيق في استخدام نماذج الذكاء الاصطناعي المركزية للبيانات الشخصية بينما تطالب الجهات التنظيمية في أوروبا وما وراءها بمزيد من الشفافية والتحكم من قبل المستخدم.
قال فريزر إدواردز، الرئيس التنفيذي لشركة cheqd، في مقابلة مع crypto.news إن نماذج الذكاء الاصطناعي الحالية غالبًا ما تتاجر في بيانات المستخدمين دون موافقة ذات مغزى. "يدفع المستخدمون ببياناتهم الشخصية، التي يتم استخراجها وتجميعها وتحويرها إلى سلع،" كما قال.
تتيح نهج التحالف، وفقًا لإدواردز، للمستخدمين مشاركة البيانات بشكل انتقائي، وقد تتيح لهم تحقيق دخل منها، والاحتفاظ بالقدرة على إلغاء الوصول، مما يوفر مستوى من السيطرة التي تكافح المنصات المركزية لتقديمه.
بينما تعثرت الجهود السابقة "لدفع المستخدمين مقابل البيانات"، تم تصميم بنية SAIA لعلاج بيانات المستخدمين كأصل قابل لإعادة الاستخدام والتحقق ضمن نظام بيئي قائم على الموافقة. كما يتضمن أيضًا أدوات تركز على الامتثال، مثل مسارات التدقيق والإفصاح الانتقائي، لمساعدة التطبيقات على تلبية المعايير العالمية للخصوصية مثل GDPR.
تتبع أدناه جلسة أسئلة وأجوبة كاملة مع فريزر إدواردز حول خطط SAIA وتحدياتها وحوافز المستخدمين.
crypto.news: رؤية تحالف الذكاء الاصطناعي السيادي هي بناء أطر ذكاء اصطناعي مفتوحة المصدر وموزعة مع بيانات يملكها المستخدمون. يبدو أن هذا مثير للاهتمام من الناحية النظرية، ولكن ما هي المزايا التي ستقدمها هذه المبادرة مقارنة بعروض الذكاء الاصطناعي من الشركات الكبرى؟ تُقدم خدمات الذكاء الاصطناعي مجانًا "مجانًا" من خلال تداول بياناتهم، وقد تم قبول هذا كأمر طبيعي لسنوات من قبل الغالبية العظمى من الناس. لماذا يجب على المستخدمين والمطورين الانتقال إلى نموذج سيادي ذاتيًا؟ ما هو الحافز الحقيقي (مادي، أو خصوصية، أو غير ذلك) الذي يجعل نهج بياناتك المملوكة من قبل المستخدمين جذابًا بما فيه الكفاية لزيادة الاعتماد؟ فريزر إدواردز: الميزة الأساسية لنموذج تحالف الذكاء الاصطناعي السيادي هي التوافق. الذكاء الاصطناعي الذي يعمل من أجلك، وليس للمنصات التي تستغل انتباهك أو بياناتك. أدوات الذكاء الاصطناعي "المجانية" اليوم ليست مجانية حقًا. المستخدمون يدفعون ببياناتهم الشخصية، التي تُستخرج وتُجمع وتُ commodified، غالبًا بطرق لا يمكن التحكم فيها أو تدقيقها. هذا يغذي أنظمة مدفوعة بالتفاعل التي تعطي الأولوية للانتشار والاحتفاظ على حساب الفائدة الفردية. مثال على ذلك هو رد الفعل العكسي ضد دمج الذكاء الاصطناعي الخاص بميتا في واتساب. على الرغم من مزاعم ميتا باحترام الخصوصية، لا يمكن للمستخدمين إيقافه، وقليل من الناس يثقون في الشركة لتتصرف في مصلحتهم. هذا erodes الثقة في إدارة بيانات الشركات الكبرى.
على النقيض من ذلك، تم بناء الذكاء الاصطناعي السيادي حول بيانات مملوكة للمستخدم، حيث يتحكم الأفراد في كيفية استخدام معلوماتهم ومشاركتها وتحقيق الدخل منها. نموذج السيادة الذاتية يمكّن الناس من امتلاك ذواتهم الرقمية بطريقة لا تستطيع التكنولوجيا الكبرى تقديمها دون تفكيك نموذج أعمالها بالكامل.
لكي تكون الذكاء الاصطناعي مخصصًا حقًا ومفيدًا، يحتاج إلى الوصول إلى بيانات غنية وعبر سياقات متعددة مع إذن كامل. إذا كانت البيانات محصورة عبر المنصات، يظل الذكاء الاصطناعي محدودًا وغير شخصي. تمكّن الذكاء الاصطناعي السيادي الأنظمة الذكية التي تكون أكثر قوة واحترامًا للأشخاص الذين تخدمهم.
هذا النموذج يتيح ثلاثة حوافز لدفع التبني:
CN: فكرة أساسية هنا هي أن الأفراد يتحكمون في ( ويمكنهم تحقيق الربح المحتمل من ) بياناتهم الخاصة. ومع ذلك، وعدت العديد من المشاريع السابقة بـ "الحصول على أجر مقابل بياناتك" وعانت، جزئيًا لأن بيانات المستخدم العادي ليست ذات قيمة كبيرة على المستوى الفردي أو تستحق الوقت. كيف ستغير SAIA هذه المعادلة؟ هل تخطط لمكافأة المستخدمين مباشرةً لمساهمتهم في البيانات أو ملاحظات تدريب الذكاء الاصطناعي، أم أن الفائدة أكثر غير مباشرة ( مثل تحسين التخصيص والخصوصية )؟ إذا لم يتمكن المستخدمون من كسب دخل كبير، ما هو الدافع لهم لمشاركة وإدارة بياناتهم بشكل نشط في هذه الشبكة؟
FE: من الصحيح أن نماذج "الحصول على أجر مقابل بياناتك" السابقة غالبًا ما فشلت لأنها اعتبرت البيانات كسلعة لمرة واحدة بدلاً من كونها جزءًا من نظام بيئي مستمر مدفوع بالنوايا. تغير التحالف السيادي للذكاء الاصطناعي المعادلة من خلال إعادة تصور البيانات كأصل ذو قيمة عالية يمكن إعادة استخدامه ضمن إطار عمل ذكاء اصطناعي لامركزي قائم على النوايا.
بالنسبة لـ cheqd، نحن نتعامل مع هذا من خلال تمكين الأفراد من التحكم في بياناتهم وإعادة استخدامها، ولكن بنفس الأهمية، نحن نبني البنية التحتية التي تحفز الشركات وبيانات السايل على إعادة تلك البيانات إلى الأفراد في المقام الأول.
بدلاً من الوعد بمكافآت سريعة صغيرة لنقاط بيانات معزولة، تدعم بنية cheqd نموذجًا حيث يمكن للمستخدمين مشاركة بيانات موثوقة وقابلة لإعادة الاستخدام، مثل الشهادات والتفضيلات أو الموافقة، وفقًا لشروطهم. وهذا يفتح المجال لقيمة طويلة الأجل أكثر معنى، سواء كان ذلك في خدمات الذكاء الاصطناعي المخصصة، أو تحقيق الدخل الانتقائي، أو ببساطة تحسين السيطرة. التحول الحقيقي يكمن في إعادة توازن القوة: جعل من الممكن للمستخدمين أخذ بياناتهم معهم واستخدامها عبر أنظمة الذكاء الاصطناعي المختلفة، دون أن يكونوا محصورين في صوامع.
CN: مع وجود بيانات مملوكة للمستخدم في المركز، كيف تتعاملون مع الخصوصية والامتثال من البداية؟ إذا كانت البيانات الشخصية تُستخدم لتدريب أو إبلاغ نماذج الذكاء الاصطناعي، هل لدى المستخدمين القدرة على التحكم الدقيق والقدرة على الانسحاب أو إلغاء البيانات؟ تُظهر الإجراءات التنظيمية الأخيرة أن هذا أمر حاسم – على سبيل المثال، حظرت هيئة حماية البيانات في إيطاليا مؤقتًا ChatGPT بسبب “غياب أي أساس قانوني” لجمعها الضخم للبيانات الشخصية للتدريب. كيف ستختلف مقاربة SAIA في التعامل مع بيانات المستخدم بحيث تظل متوافقة مع قوانين الخصوصية (GDPR وغيرها ) والمعايير الأخلاقية؟ FE: الالتزام والخصوصية هما أساسيات في بنية SAIA. أساس SAIA هو سيادة المستخدم بشكل افتراضي، دون الحاجة إلى مستودعات بيانات مركزية، على عكس نماذج الذكاء الاصطناعي النموذجية التي تجمع البيانات بشكل جماعي دون موافقة ذات مغزى.
CN: cheqd يجلب الهوية اللامركزية ( الهوية الذاتية السيادية / SSI) وبنية التحقق إلى التحالف. كيف سيتم تضمين SSI في إطار الذكاء الاصطناعي؟ على سبيل المثال، هل ستستخدم Intention Anchors الهويات الرقمية للتحقق من مصدر البيانات أو سمعة وكلاء الذكاء الاصطناعي؟ ونظراً لأن الهوية اللامركزية لا تزال في بدايتها، حتى خبراء الهوية يشيرون إلى أن التبني هو أكبر تحدٍ بسبب التعقيد المضاف للمستخدمين والمنظمات، كيف ستشجعون وتدعمون استخدام SSI داخل SAIA؟
FE: "تلعب SSI دورًا رئيسيًا في بنية تحالف الذكاء الاصطناعي السيادي. إنها طبقة الثقة التي تربط بين وكلاء الذكاء الاصطناعي والأشخاص والبيانات. إليك كيف نعتزم تجاوز عقبات الاعتماد وكيف يتناسب هيكل هوية cheqd اللامركزية مع الإطار."
ينطبق هذا أيضًا على الوكلاء الذكاء الاصطناعي أنفسهم: من خلال إصدار شهادات موثوقة للوكلاء، يمكننا تحديد السمعة والقدرة والأصالة. هذا أمر حيوي لبناء الثقة في التفاعلات بين الوكيل والوكيل أو الوكيل والمستخدم.
إن التبني هو بالفعل أكبر تحدٍ يواجه SSI اليوم. بينما تعمل cheqd في طبقة البنية التحتية، فإن DataHive تواجه العملاء مباشرة، مما يوفر حلاً للمستهلكين أنفسهم يمكنهم من خلاله إدخال بياناتهم.