Cheqd, DataHive, Nuklai, dan Datagram telah meluncurkan Sovereign AI Alliance, sebuah inisiatif baru yang bertujuan untuk mengembangkan kerangka kerja sumber terbuka untuk kecerdasan buatan terdesentralisasi menggunakan data yang dimiliki pengguna.
Diumumkan pada 1 Mei melalui siaran pers yang dibagikan dengan crypto.news, aliansi ini akan fokus pada pembangunan infrastruktur teknis yang mendukung sistem AI yang menjaga privasi. Di inti proyek ini adalah Protokol Jaringan Intensi yang diusulkan yang bertujuan untuk memungkinkan agen AI berkolaborasi dengan aman tanpa mengorbankan kontrol pengguna atas data pribadi.
INP disusun di sekitar tiga komponen kunci: "Intention Anchors" untuk menangkap masukan pengguna dengan jaminan kepemilikan data; "Intention Mesh," lingkungan terdesentralisasi untuk komunikasi AI; dan "Execution Nodes," yang bertindak berdasarkan niat pengguna dengan perlindungan privasi yang terintegrasi.
Aliansi juga menguraikan peta jalan yang lebih luas yang mencakup penyimpanan data terdesentralisasi, model AI sumber terbuka, dan alat untuk agen AI bertransaksi dan berkolaborasi secara otonom. Menurut para pendiri, upaya ini dimaksudkan untuk memindahkan ekonomi data dari "berbasis perhatian" menjadi "berbasis niat," dengan pengguna di pusatnya.
Mengapa aliansi ini penting
SAIA memasuki panggung saat pengawasan semakin ketat terhadap penggunaan data pribadi oleh model AI terpusat, sementara regulator di Eropa dan di luar meminta lebih banyak transparansi dan kontrol pengguna.
Fraser Edwards, CEO cheqd, mengatakan kepada crypto.news dalam sebuah wawancara bahwa model AI saat ini sering memperdagangkan data pengguna tanpa persetujuan yang berarti. "Pengguna membayar dengan data pribadi mereka, yang diekstraksi, diagregasi, dan dikomodifikasi," katanya.
Pendekatan aliansi, menurut Edwards, memungkinkan pengguna untuk memilih berbagi data, berpotensi memonetisasinya, dan mempertahankan kemampuan untuk mencabut akses, menawarkan tingkat kontrol yang sulit diberikan oleh platform terpusat.
Sementara upaya sebelumnya untuk "membayar pengguna atas data" telah terhambat, arsitektur SAIA dirancang untuk memperlakukan data pengguna sebagai aset yang dapat digunakan kembali dan diverifikasi dalam ekosistem berbasis persetujuan. Ini juga mencakup alat yang berfokus pada kepatuhan, seperti jejak audit dan pengungkapan selektif, untuk membantu aplikasi memenuhi standar privasi global seperti GDPR.
Q&A lengkap dengan Fraser Edwards mengenai rencana, tantangan, dan insentif pengguna SAIA mengikuti di bawah.
crypto.news: Visi Aliansi AI Berdaulat adalah membangun kerangka kerja AI sumber terbuka dan terdesentralisasi dengan data yang dimiliki pengguna. Itu terdengar menarik dalam teori, tetapi keuntungan apa yang akan diberikan ini dibandingkan dengan penawaran AI dari Big Tech? Layanan AI ditawarkan “gratis” dengan menukar data mereka dan ini telah diterima sebagai hal yang normal selama bertahun-tahun oleh sebagian besar orang. Mengapa pengguna dan pengembang beralih ke model yang berdaulat sendiri? Apa insentif nyata (moneter, privasi, atau lainnya) yang membuat pendekatan data milik pengguna Anda cukup menarik untuk mendorong adopsi?
Fraser Edwards: Keunggulan utama dari model Aliansi AI Sovereign adalah keselarasan. AI yang bekerja untuk Anda, bukan untuk platform yang memonetisasi perhatian atau data Anda. Alat AI "gratis" saat ini tidak benar-benar gratis. Pengguna membayar dengan data pribadi mereka, yang diekstraksi, digabungkan, dan dikomodifikasi, seringkali dengan cara yang tidak dapat dikendalikan atau diaudit. Ini memicu sistem yang didorong oleh keterlibatan yang memprioritaskan viralitas dan retensi di atas manfaat individu.
Contoh dunia nyata adalah reaksi balik terhadap AI Meta yang disematkan ke dalam WhatsApp. Meskipun klaim Meta menghormati privasi, pengguna tidak dapat mematikannya, dan sedikit yang mempercayai perusahaan untuk bertindak demi kepentingan terbaik mereka. Ini mengikis kepercayaan terhadap pengelolaan data oleh Big Tech.
Sebaliknya, Sovereign AI dibangun di sekitar data yang dimiliki pengguna, di mana individu mengendalikan bagaimana informasi mereka digunakan, dibagikan, dan dimonetisasi. Model kedaulatan diri memberdayakan orang untuk memiliki diri digital mereka dengan cara yang tidak dapat ditawarkan oleh Big Tech tanpa membongkar seluruh model bisnisnya.
Agar AI benar-benar dipersonalisasi dan berguna, AI memerlukan akses ke data yang kaya dan lintas konteks dengan izin penuh. Jika data terpisah di berbagai platform, AI tetap terbatas dan tidak personal. Sovereign AI memungkinkan sistem cerdas yang jauh lebih kuat dan lebih menghormati orang-orang yang dilayaninya.
Model ini memungkinkan tiga insentif untuk mendorong adopsi:
Privasi dengan Desain: Data tidak disedot ke dalam sistem perusahaan yang tidak transparan. Sebaliknya, data tetap dalam kendali pengguna melalui identitas dan infrastruktur penyimpanan terdesentralisasi.
Insentif Moneter: Dengan kerangka kerja seperti rel pembayaran cheqd, pengguna dan pengembang dapat menerima kompensasi untuk berbagi data yang terverifikasi atau melatih agen AI, menciptakan ekonomi data yang nyata.
Personalisasi Nyata: AI dan agen pribadi, seperti yang sedang dikembangkan oleh DataHive, dapat bertindak atas nama Anda berdasarkan niat sebenarnya, bukan apa yang memaksimalkan pendapatan iklan.
CN:Ide inti di sini adalah bahwa individu mengendalikan ( dan berpotensi memonetisasi ) data mereka sendiri. Namun, banyak proyek sebelumnya menjanjikan "dibayar untuk data Anda" dan mengalami kesulitan, sebagian karena data pengguna rata-rata tidak bernilai banyak di tingkat individu atau tidak sebanding dengan waktu yang dihabiskan. Bagaimana SAIA akan mengubah persamaan itu? Apakah Anda berencana untuk memberi penghargaan kepada pengguna secara langsung untuk kontribusi data atau umpan balik pelatihan AI, atau apakah manfaatnya lebih tidak langsung ( misalnya, personalisasi yang lebih baik dan privasi )? Jika pengguna tidak dapat menghasilkan pendapatan yang signifikan, apa daya tarik bagi mereka untuk secara proaktif berbagi dan mengelola data mereka dalam jaringan ini?
FE: Benar bahwa model "dibayar untuk data Anda" di masa lalu sering gagal karena mereka memperlakukan data seperti komoditas sekali pakai daripada bagian dari ekosistem yang berkelanjutan dan berbasis niat. Aliansi AI Sovereign mengubah persamaan dengan membayangkan data sebagai aset yang dapat digunakan kembali dan bernilai tinggi dalam kerangka AI terdesentralisasi yang berbasis niat.
Untuk cheqd, kami mendekati ini dengan memungkinkan individu untuk mengontrol dan menggunakan kembali data mereka sendiri, tetapi sama pentingnya, kami sedang membangun infrastruktur yang memberikan insentif kepada perusahaan dan silo data untuk mengembalikan data tersebut kepada individu pada awalnya.
Daripada menjanjikan imbalan mikro cepat untuk titik data yang terisolasi, infrastruktur cheqd mendukung model di mana pengguna dapat secara selektif membagikan data yang terverifikasi dan dapat digunakan kembali, seperti kredensial, preferensi, atau persetujuan, sesuai dengan ketentuan mereka. Ini membuka potensi untuk nilai jangka panjang yang lebih berarti, apakah itu dalam layanan AI yang dipersonalisasi, monetisasi selektif, atau sekadar kontrol yang lebih baik. Perubahan nyata adalah dalam menyeimbangkan kembali kekuatan: membuatnya layak bagi pengguna untuk membawa data mereka dan menggunakannya di berbagai sistem AI, tanpa terjebak dalam silo.
CN:Dengan data yang dimiliki pengguna sebagai pusatnya, bagaimana Anda menangani privasi dan kepatuhan dari awal? Jika data pribadi digunakan untuk melatih atau memberi informasi kepada model AI, apakah pengguna memiliki kontrol yang mendetail dan kemampuan untuk memilih keluar atau mencabut data? Tindakan regulasi terbaru menunjukkan hal ini sangat penting – misalnya, otoritas perlindungan data Italia sementara melarang ChatGPT karena "tidak adanya dasar hukum" untuk pengumpulan data pribadi secara massal untuk pelatihan. Bagaimana pendekatan SAIA akan berbeda dalam menangani data pengguna agar tetap mematuhi undang-undang privasi (GDPR dan lainnya) serta norma etika?
FE: Kepatuhan dan privasi adalah fondasi arsitektur SAIA. Dasar dari SAIA adalah kedaulatan pengguna secara default, tanpa perlu adanya silo data pusat, berbeda dengan model AI tipikal yang mengumpulkan data secara massal tanpa persetujuan yang berarti.
Data tetap di bawah kendali penggunaPengguna dapat memberikan, mencabut, atau membatasi akses ke data mereka kapan saja dengan memanfaatkan identitas terdesentralisasi (cheqd) dan protokol penyimpanan (Datagram dan lainnya). Mekanisme ini sejalan dengan konsep GDPR seperti minimisasi data dan hak untuk dilupakan.
Persetujuan bersifat eksplisit dan dapat dicabutKami sedang mengembangkan sistem yang memungkinkan pengguna untuk menyatakan persetujuan eksplisit terhadap penggunaan data mereka, seperti untuk berbagi kredensial, interaksi agen, atau pelatihan AI. Dengan catatan persetujuan yang dapat diverifikasi dan kasus penggunaan yang spesifik terhadap niat, dasar hukum dan keterlacakan dijamin.
Alat kepatuhan bawaanKami sedang menciptakan fitur kepatuhan yang terintegrasi, seperti jejak audit, asal data, dan pengungkapan selektif, sehingga agen dan aplikasi AI yang menggunakan kerangka SAIA tidak hanya selaras dengan privasi tetapi juga terbukti mematuhi regulasi global.
CN:cheqd membawa identitas terdesentralisasi ( identitas mandiri / SSI) dan infrastruktur verifikasi ke aliansi. Bagaimana SSI akan dimasukkan ke dalam kerangka AI? Misalnya, apakah Intention Anchors akan menggunakan identitas digital untuk memverifikasi asal data atau reputasi agen AI? Dan mengingat bahwa identitas terdesentralisasi masih dalam tahap awal, bahkan para ahli identitas mencatat bahwa adopsi adalah tantangan terbesar karena kompleksitas tambahan bagi pengguna dan organisasi, bagaimana Anda akan mendorong dan memulai penggunaan SSI dalam SAIA?
FE: "SSI memainkan peran kunci dalam arsitektur Aliansi AI Berdaulat. Ini adalah lapisan kepercayaan yang menghubungkan agen AI, orang, dan data. Berikut adalah cara kami bermaksud untuk melampaui hambatan adopsi dan bagaimana infrastruktur identitas terdesentralisasi cheqd cocok dalam kerangka tersebut."
Ini juga berlaku untuk agen AI itu sendiri: dengan mengeluarkan kredensial yang dapat diverifikasi kepada agen, kita dapat membangun reputasi, kemampuan, dan otentisitas. Ini sangat penting untuk kepercayaan dalam interaksi antar agen atau antara agen dan pengguna.
Adopsi memang merupakan tantangan terbesar bagi SSI saat ini. Sementara cheqd berada di lapisan infrastruktur, DataHive langsung berhadapan dengan pelanggan, sehingga menawarkan solusi kepada konsumen itu sendiri yang kemudian dapat membawa data mereka ke dalamnya.
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
Aliansi AI baru bertujuan untuk mengakhiri dominasi Big Tech dengan data milik pengguna
Cheqd, DataHive, Nuklai, dan Datagram telah meluncurkan Sovereign AI Alliance, sebuah inisiatif baru yang bertujuan untuk mengembangkan kerangka kerja sumber terbuka untuk kecerdasan buatan terdesentralisasi menggunakan data yang dimiliki pengguna.
Diumumkan pada 1 Mei melalui siaran pers yang dibagikan dengan crypto.news, aliansi ini akan fokus pada pembangunan infrastruktur teknis yang mendukung sistem AI yang menjaga privasi. Di inti proyek ini adalah Protokol Jaringan Intensi yang diusulkan yang bertujuan untuk memungkinkan agen AI berkolaborasi dengan aman tanpa mengorbankan kontrol pengguna atas data pribadi.
INP disusun di sekitar tiga komponen kunci: "Intention Anchors" untuk menangkap masukan pengguna dengan jaminan kepemilikan data; "Intention Mesh," lingkungan terdesentralisasi untuk komunikasi AI; dan "Execution Nodes," yang bertindak berdasarkan niat pengguna dengan perlindungan privasi yang terintegrasi.
Aliansi juga menguraikan peta jalan yang lebih luas yang mencakup penyimpanan data terdesentralisasi, model AI sumber terbuka, dan alat untuk agen AI bertransaksi dan berkolaborasi secara otonom. Menurut para pendiri, upaya ini dimaksudkan untuk memindahkan ekonomi data dari "berbasis perhatian" menjadi "berbasis niat," dengan pengguna di pusatnya.
Mengapa aliansi ini penting
SAIA memasuki panggung saat pengawasan semakin ketat terhadap penggunaan data pribadi oleh model AI terpusat, sementara regulator di Eropa dan di luar meminta lebih banyak transparansi dan kontrol pengguna.
Fraser Edwards, CEO cheqd, mengatakan kepada crypto.news dalam sebuah wawancara bahwa model AI saat ini sering memperdagangkan data pengguna tanpa persetujuan yang berarti. "Pengguna membayar dengan data pribadi mereka, yang diekstraksi, diagregasi, dan dikomodifikasi," katanya.
Pendekatan aliansi, menurut Edwards, memungkinkan pengguna untuk memilih berbagi data, berpotensi memonetisasinya, dan mempertahankan kemampuan untuk mencabut akses, menawarkan tingkat kontrol yang sulit diberikan oleh platform terpusat.
Sementara upaya sebelumnya untuk "membayar pengguna atas data" telah terhambat, arsitektur SAIA dirancang untuk memperlakukan data pengguna sebagai aset yang dapat digunakan kembali dan diverifikasi dalam ekosistem berbasis persetujuan. Ini juga mencakup alat yang berfokus pada kepatuhan, seperti jejak audit dan pengungkapan selektif, untuk membantu aplikasi memenuhi standar privasi global seperti GDPR.
Q&A lengkap dengan Fraser Edwards mengenai rencana, tantangan, dan insentif pengguna SAIA mengikuti di bawah.
crypto.news: Visi Aliansi AI Berdaulat adalah membangun kerangka kerja AI sumber terbuka dan terdesentralisasi dengan data yang dimiliki pengguna. Itu terdengar menarik dalam teori, tetapi keuntungan apa yang akan diberikan ini dibandingkan dengan penawaran AI dari Big Tech? Layanan AI ditawarkan “gratis” dengan menukar data mereka dan ini telah diterima sebagai hal yang normal selama bertahun-tahun oleh sebagian besar orang. Mengapa pengguna dan pengembang beralih ke model yang berdaulat sendiri? Apa insentif nyata (moneter, privasi, atau lainnya) yang membuat pendekatan data milik pengguna Anda cukup menarik untuk mendorong adopsi? Fraser Edwards: Keunggulan utama dari model Aliansi AI Sovereign adalah keselarasan. AI yang bekerja untuk Anda, bukan untuk platform yang memonetisasi perhatian atau data Anda. Alat AI "gratis" saat ini tidak benar-benar gratis. Pengguna membayar dengan data pribadi mereka, yang diekstraksi, digabungkan, dan dikomodifikasi, seringkali dengan cara yang tidak dapat dikendalikan atau diaudit. Ini memicu sistem yang didorong oleh keterlibatan yang memprioritaskan viralitas dan retensi di atas manfaat individu. Contoh dunia nyata adalah reaksi balik terhadap AI Meta yang disematkan ke dalam WhatsApp. Meskipun klaim Meta menghormati privasi, pengguna tidak dapat mematikannya, dan sedikit yang mempercayai perusahaan untuk bertindak demi kepentingan terbaik mereka. Ini mengikis kepercayaan terhadap pengelolaan data oleh Big Tech.
Sebaliknya, Sovereign AI dibangun di sekitar data yang dimiliki pengguna, di mana individu mengendalikan bagaimana informasi mereka digunakan, dibagikan, dan dimonetisasi. Model kedaulatan diri memberdayakan orang untuk memiliki diri digital mereka dengan cara yang tidak dapat ditawarkan oleh Big Tech tanpa membongkar seluruh model bisnisnya.
Agar AI benar-benar dipersonalisasi dan berguna, AI memerlukan akses ke data yang kaya dan lintas konteks dengan izin penuh. Jika data terpisah di berbagai platform, AI tetap terbatas dan tidak personal. Sovereign AI memungkinkan sistem cerdas yang jauh lebih kuat dan lebih menghormati orang-orang yang dilayaninya.
Model ini memungkinkan tiga insentif untuk mendorong adopsi:
CN: Ide inti di sini adalah bahwa individu mengendalikan ( dan berpotensi memonetisasi ) data mereka sendiri. Namun, banyak proyek sebelumnya menjanjikan "dibayar untuk data Anda" dan mengalami kesulitan, sebagian karena data pengguna rata-rata tidak bernilai banyak di tingkat individu atau tidak sebanding dengan waktu yang dihabiskan. Bagaimana SAIA akan mengubah persamaan itu? Apakah Anda berencana untuk memberi penghargaan kepada pengguna secara langsung untuk kontribusi data atau umpan balik pelatihan AI, atau apakah manfaatnya lebih tidak langsung ( misalnya, personalisasi yang lebih baik dan privasi )? Jika pengguna tidak dapat menghasilkan pendapatan yang signifikan, apa daya tarik bagi mereka untuk secara proaktif berbagi dan mengelola data mereka dalam jaringan ini?
FE: Benar bahwa model "dibayar untuk data Anda" di masa lalu sering gagal karena mereka memperlakukan data seperti komoditas sekali pakai daripada bagian dari ekosistem yang berkelanjutan dan berbasis niat. Aliansi AI Sovereign mengubah persamaan dengan membayangkan data sebagai aset yang dapat digunakan kembali dan bernilai tinggi dalam kerangka AI terdesentralisasi yang berbasis niat.
Untuk cheqd, kami mendekati ini dengan memungkinkan individu untuk mengontrol dan menggunakan kembali data mereka sendiri, tetapi sama pentingnya, kami sedang membangun infrastruktur yang memberikan insentif kepada perusahaan dan silo data untuk mengembalikan data tersebut kepada individu pada awalnya.
Daripada menjanjikan imbalan mikro cepat untuk titik data yang terisolasi, infrastruktur cheqd mendukung model di mana pengguna dapat secara selektif membagikan data yang terverifikasi dan dapat digunakan kembali, seperti kredensial, preferensi, atau persetujuan, sesuai dengan ketentuan mereka. Ini membuka potensi untuk nilai jangka panjang yang lebih berarti, apakah itu dalam layanan AI yang dipersonalisasi, monetisasi selektif, atau sekadar kontrol yang lebih baik. Perubahan nyata adalah dalam menyeimbangkan kembali kekuatan: membuatnya layak bagi pengguna untuk membawa data mereka dan menggunakannya di berbagai sistem AI, tanpa terjebak dalam silo.
CN: Dengan data yang dimiliki pengguna sebagai pusatnya, bagaimana Anda menangani privasi dan kepatuhan dari awal? Jika data pribadi digunakan untuk melatih atau memberi informasi kepada model AI, apakah pengguna memiliki kontrol yang mendetail dan kemampuan untuk memilih keluar atau mencabut data? Tindakan regulasi terbaru menunjukkan hal ini sangat penting – misalnya, otoritas perlindungan data Italia sementara melarang ChatGPT karena "tidak adanya dasar hukum" untuk pengumpulan data pribadi secara massal untuk pelatihan. Bagaimana pendekatan SAIA akan berbeda dalam menangani data pengguna agar tetap mematuhi undang-undang privasi (GDPR dan lainnya) serta norma etika? FE: Kepatuhan dan privasi adalah fondasi arsitektur SAIA. Dasar dari SAIA adalah kedaulatan pengguna secara default, tanpa perlu adanya silo data pusat, berbeda dengan model AI tipikal yang mengumpulkan data secara massal tanpa persetujuan yang berarti.
CN: cheqd membawa identitas terdesentralisasi ( identitas mandiri / SSI) dan infrastruktur verifikasi ke aliansi. Bagaimana SSI akan dimasukkan ke dalam kerangka AI? Misalnya, apakah Intention Anchors akan menggunakan identitas digital untuk memverifikasi asal data atau reputasi agen AI? Dan mengingat bahwa identitas terdesentralisasi masih dalam tahap awal, bahkan para ahli identitas mencatat bahwa adopsi adalah tantangan terbesar karena kompleksitas tambahan bagi pengguna dan organisasi, bagaimana Anda akan mendorong dan memulai penggunaan SSI dalam SAIA?
FE: "SSI memainkan peran kunci dalam arsitektur Aliansi AI Berdaulat. Ini adalah lapisan kepercayaan yang menghubungkan agen AI, orang, dan data. Berikut adalah cara kami bermaksud untuk melampaui hambatan adopsi dan bagaimana infrastruktur identitas terdesentralisasi cheqd cocok dalam kerangka tersebut."
Ini juga berlaku untuk agen AI itu sendiri: dengan mengeluarkan kredensial yang dapat diverifikasi kepada agen, kita dapat membangun reputasi, kemampuan, dan otentisitas. Ini sangat penting untuk kepercayaan dalam interaksi antar agen atau antara agen dan pengguna.
Adopsi memang merupakan tantangan terbesar bagi SSI saat ini. Sementara cheqd berada di lapisan infrastruktur, DataHive langsung berhadapan dengan pelanggan, sehingga menawarkan solusi kepada konsumen itu sendiri yang kemudian dapat membawa data mereka ke dalamnya.