Cheqd, DataHive, Nuklai ve Datagram, kullanıcıya ait verileri kullanarak merkeziyetsiz yapay zeka için açık kaynaklı bir çerçeve geliştirmeyi amaçlayan yeni bir girişim olan Sovereign AI Alliance'ı başlattı.
1 Mayıs'ta crypto.news ile paylaşılan bir basın bülteni aracılığıyla duyurulan ittifak, gizliliği koruyan AI sistemlerini destekleyen teknik altyapı inşa etmeye odaklanacak. Projenin merkezinde, AI ajanlarının kişisel verilere yönelik kullanıcı kontrolünü tehlikeye atmadan güvenli bir şekilde işbirliği yapmalarını sağlamayı amaçlayan önerilen Niyet Ağı Protokolü bulunuyor.
INP, üç ana bileşen etrafında yapılandırılmıştır: kullanıcı girdilerini veri sahipliği garantileri ile yakalayan "Niyet Ağı"; AI iletişimi için merkeziyetsiz bir ortam olan "Niyet Ağı"; ve kullanıcı niyetlerine entegre gizlilik korumaları ile hareket eden "İcra Düğümleri".
İttifak ayrıca, merkeziyetsiz veri depolama, açık kaynaklı yapay zeka modelleri ve yapay zeka ajanlarının otonom olarak işlem yapıp işbirliği yapmasını sağlayan araçları içeren daha geniş bir yol haritasını da belirtti. Kuruculara göre, bu çaba veri ekonomisini "dikkat temelli" olmaktan "niyet temelli" olmaya taşımayı amaçlıyor ve kullanıcıları merkeze alıyor.
Bu ittifak neden önemlidir
SAIA, kişisel verilerin merkezi AI modellerinin kullanımına yönelik incelemenin yoğunlaştığı bir ortamda sahneye çıkıyor; Avrupa'daki ve diğer bölgelerdeki düzenleyiciler daha fazla şeffaflık ve kullanıcı kontrolü talep ediyor.
cheqd'in CEO'su Fraser Edwards, bir röportajda crypto.news'e, mevcut AI modellerinin genellikle kullanıcı verileri üzerinde anlamlı bir rıza olmadan ticaret yaptığını söyledi. "Kullanıcılar, kişisel verileri ile ödeme yapıyorlar; bu veriler çıkarılıyor, birleştiriliyor ve meta haline getiriliyor," dedi.
Edwards'a göre, ittifakın yaklaşımı, kullanıcıların verileri seçici bir şekilde paylaşmalarını, potansiyel olarak bunları paraya dönüştürmelerini ve erişimi geri alma yeteneğini korumalarını sağlar; bu da merkezi platformların sağlamakta zorlandığı bir kontrol seviyesi sunar.
Önceki "kullanıcıları verileri için ödemek" çabaları başarısız olurken, SAIA'nın mimarisi kullanıcı verilerini onaya dayalı bir ekosistem içinde yeniden kullanılabilir ve doğrulanabilir bir varlık olarak değerlendirecek şekilde tasarlanmıştır. Ayrıca, uygulamaların GDPR gibi küresel gizlilik standartlarını karşılamalarına yardımcı olmak için denetim izleri ve seçici ifşa gibi uyum odaklı araçlar da içermektedir.
Fraser Edwards ile SAIA’nın planları, zorlukları ve kullanıcı teşvikleri üzerine tam bir Soru-Cevap aşağıda yer almaktadır.
crypto.news: Egemen AI İttifakı’nın vizyonu, kullanıcıya ait verilerle open-source, merkeziyetsiz AI çerçeveleri inşa etmektir. Teorik olarak ilginç bir fikir, ancak bu, Büyük Teknoloji’nin AI hizmetlerine göre ne gibi avantajlar sunacak? AI hizmetleri verilerini takas ederek “ücretsiz” sunulmakta ve bu durum yıllardır çoğu insan tarafından normal kabul edilmektedir. Kullanıcılar ve geliştiriciler neden kendi egemenliklerine dayalı bir modele geçsinler? Kullanıcıya ait veriler yaklaşımınızın benimsenmesini sağlamak için gerçekten ikna edici olan ne gibi teşvikler var (mali, gizlilik veya başka bir şekilde)?
Fraser Edwards: Sovereign AI Alliance modelinin temel avantajı uyumdur. Sizin için çalışan, dikkatinizi veya verilerinizi monetizasyon eden platformlar için değil, sizin için çalışan bir yapay zeka. Bugünün "ücretsiz" yapay zeka araçları gerçekte ücretsiz değildir. Kullanıcılar, kontrol edilemeyen veya denetlenemeyen şekillerde çıkarılan, birleştirilen ve meta haline getirilen kişisel verileri ile ödeme yaparlar. Bu, bireysel faydanın önünde viralite ve tutma oranını öncelikli kılan etkileşim odaklı sistemleri besler.
Gerçek hayattan bir örnek, Meta'nın yapay zekasının WhatsApp'a entegre edilmesine karşı çıkan tepkidir. Meta'nın gizliliğe saygı duyduğuna dair iddialarına rağmen, kullanıcılar bunu kapatma seçeneğine sahip değil ve çok az kişi şirketin kendi çıkarlarına uygun davranacağına güveniyor. Bu, Büyük Teknoloji'nin veri yönetimine olan güveni zayıflatıyor.
Buna karşılık, Sovereign AI, kullanıcıların sahip olduğu veriler etrafında inşa edilmiştir; burada bireyler, bilgilerinin nasıl kullanıldığını, paylaşıldığını ve paraya çevrildiğini kontrol eder. Öz-yönetim modeli, insanların dijital varlıklarını, Büyük Teknoloji'nin tüm iş modelini çökmeye uğratmadan sunamayacağı bir şekilde sahip olmalarını sağlar.
Yapay zekanın gerçekten kişiselleştirilmiş ve yararlı olabilmesi için, zengin, bağlamlar arası verilere tam izin ile erişimi olması gerekir. Veri platformlar arasında izole edilirse, yapay zeka sınırlı ve kişisel olmayan bir yapıda kalır. Egemen yapay zeka, hizmet ettiği insanlara daha güçlü ve daha saygılı olan akıllı sistemler sağlar.
Bu model, benimsemeyi teşvik etmek için üç teşvik sağlar:
Tasarımda Gizlilik: Veriler, belirsiz kurumsal sistemlere aktarılmaz. Bunun yerine, kullanıcıların kontrolünde kalır ve merkeziyetsiz kimlik ve depolama altyapısı aracılığıyla korunur.
Mali Teşvik: cheqd'in ödeme altyapıları gibi çerçevelerle, kullanıcılar ve geliştiriciler doğrulanmış veri paylaşımı veya AI ajanlarını eğitme karşılığında tazminat alabilir, bu da gerçek bir veri ekonomisi yaratır.
Gerçek Kişiselleştirme: DataHive tarafından geliştirilen kişisel AI'lar ve ajanlar, reklam gelirini maksimize eden şeyler yerine, gerçek niyetlerinize dayalı olarak sizin adınıza hareket edebilir.
CN:Buradaki temel fikir, bireylerin ( ve potansiyel olarak kendi verilerini paraya dönüştürebilmesidir. Ancak, geçmişte birçok proje "verileriniz için ödeme alın" vaadiyle ortaya çıktı ve mücadele etti, kısmen çünkü ortalama bir kullanıcının verisi bireysel düzeyde pek bir değere sahip değil veya zaman ayırmaya değer değil. SAIA bu denklemi nasıl değiştirecek? Kullanıcıları verileri veya AI eğitimi geri bildirimleri için doğrudan ödüllendirmeyi mi planlıyorsunuz, yoksa fayda daha dolaylı mı ) örneğin daha iyi kişiselleştirme ve gizlilik(? Kullanıcılar önemli bir gelir elde edemezse, bu ağda verilerini proaktif olarak paylaşma ve yönetme konusunda onları ne çekici kılıyor?
FE: Geçmişteki "veri için ödeme al" modellerinin çoğu, veriyi tek seferlik bir emtia olarak ele aldıkları için başarısız oldu; oysa veri, sürekli ve niyet odaklı bir ekosistem içinde bir parça olarak değerlendirilmelidir. Sovereign AI Alliance, veriyi merkezi olmayan, niyet temelli bir AI çerçevesi içinde yeniden kullanılabilir, yüksek değerli bir varlık olarak yeniden tasarlayarak denklemi değiştiriyor.
cheqd için, bireylerin kendi verilerini kontrol etmelerini ve yeniden kullanmalarını sağlamakla yaklaşıyoruz, ancak aynı derecede önemli olarak, bu verileri ilk etapta bireylere geri vermeleri için şirketleri ve veri silolarını teşvik eden altyapıyı inşa ediyoruz.
Cheqd'in altyapısı, izole veri noktaları için hızlı mikro ödüller vaadetmek yerine, kullanıcıların kendi şartlarına göre doğrulanmış, yeniden kullanılabilir verileri, kimlik bilgileri, tercihler veya onaylar gibi, seçerek paylaşmalarını destekleyen bir modeli desteklemektedir. Bu, kişiselleştirilmiş AI hizmetleri, seçici monetizasyon veya basitçe daha iyi kontrol gibi daha anlamlı uzun vadeli değerler için potansiyeli açar. Gerçek değişim, gücü yeniden dengelemekte yatıyor: Kullanıcıların verilerini yanlarına alıp farklı AI sistemleri arasında kullanmalarını mümkün kılmak, silo içinde sıkışıp kalmadan.
CN:Kullanıcıya ait veriler merkezde olduğundan, en başından itibaren gizliliği ve uyumluluğu nasıl ele alıyorsunuz? Kişisel veriler yapay zeka modellerini eğitmek veya bilgilendirmek için kullanılıyorsa, kullanıcıların ayrıntılı kontrolü ve verileri devre dışı bırakma veya iptal etme yeteneği var mı? Son düzenleyici eylemler bunun kritik olduğunu gösteriyor - örneğin, İtalya'nın veri koruma otoritesi, ChatGPT'yi eğitim için kişisel verilerin toplu olarak toplanması için "herhangi bir yasal dayanağın olmaması" nedeniyle geçici olarak yasakladı. SAIA'nın yaklaşımı, )GDPR gizlilik yasaları, others( ve etik normlarla uyumlu kalması için kullanıcı verilerini işlemede nasıl farklılık gösterecek?
FE: Uyum ve gizlilik, SAIA'nın mimarisi için temeldir. SAIA'nın temeli, merkezi veri silolarına ihtiyaç duymadan, varsayılan olarak kullanıcı egemenliğidir; bu, toplu olarak veri toplayan tipik AI modellerinin aksincedir.
Veri kullanıcı kontrolünde kalırKullanıcılar, merkezi olmayan kimlik )cheqd( ve depolama protokolleri )Datagram ve diğerleri( aracılığıyla verilerine erişim izni verebilir, iptal edebilir veya sınırlayabilir. Bu mekanizma, veri minimizasyonu ve unutulma hakkı gibi GDPR kavramlarıyla uyumludur.
Açık ve geri alınabilir onayBiz, kullanıcıların verilerinin kullanımına, örneğin kimlik paylaşımı, temsilci etkileşimleri veya AI eğitimi için açık onay vermelerini sağlayan sistemler geliştiriyoruz. Doğrulanabilir onay kayıtları ve niyet spesifik kullanım durumları ile hukuki temel ve izlenebilirlik garanti edilmektedir.
Yerleşik uyum araçlarıYerleşik uyum özellikleri yaratıyoruz, örneğin denetim izleri, veri kökeni ve seçici ifşa gibi, böylece SAIA'nın çerçevesini kullanan AI ajanları ve uygulamaları sadece gizlilik odaklı değil, aynı zamanda küresel düzenlemelere kanıtlanabilir bir şekilde uyumlu oluyor.
CN:cheqd, merkeziyetsiz kimlik )kendi kendine sahip kimlik / SSI( ve doğrulama altyapısını birliğe getiriyor. SSI, AI çerçevesine nasıl dahil edilecek? Örneğin, Niyet Temelleri, veri kökenini veya AI ajanlarının itibarını doğrulamak için dijital kimlikleri kullanacak mı? Ve merkeziyetsiz kimliğin hala yeni olduğunu göz önünde bulundurursak, hatta kimlik uzmanları bile benimsemenin kullanıcılar ve organizasyonlar için ek karmaşıklık nedeniyle en büyük zorluk olduğunu belirtmektedir; SSI kullanımını SAIA içinde nasıl teşvik edecek ve başlatacaksınız?
FE: “SSI, Egemen AI İttifakı'nın mimarisinde önemli bir rol oynamaktadır. Bu, AI ajanlarını, insanları ve verileri bağlayan güven katmanıdır. İşte benimseme engellerini nasıl aşmayı planladığımız ve cheqd’in merkeziyetsiz kimlik altyapısının çerçeveye nasıl uyduğuna dair bilgiler.
Bu aynı zamanda AI ajanlarını da kapsar: ajanlara doğrulanabilir kimlik bilgileri vererek, itibar, yetenek ve özgünlük oluşturabiliriz. Bu, ajanlar arası veya ajan-kullanıcı etkileşimlerinde güven için hayati öneme sahiptir.
Benimseme bugün SSI için gerçekten en büyük zorluktur. cheqd altyapı katmanında yer alırken, DataHive doğrudan müşteriye yöneliktir, bu nedenle tüketicilere kendilerine bir çözüm sunar ve bu verileri içeri alabilirler.
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
Yeni AI ittifakı, kullanıcıya ait verilerle Büyük Teknoloji egemenliğini sona erdirmeyi amaçlıyor.
Cheqd, DataHive, Nuklai ve Datagram, kullanıcıya ait verileri kullanarak merkeziyetsiz yapay zeka için açık kaynaklı bir çerçeve geliştirmeyi amaçlayan yeni bir girişim olan Sovereign AI Alliance'ı başlattı.
1 Mayıs'ta crypto.news ile paylaşılan bir basın bülteni aracılığıyla duyurulan ittifak, gizliliği koruyan AI sistemlerini destekleyen teknik altyapı inşa etmeye odaklanacak. Projenin merkezinde, AI ajanlarının kişisel verilere yönelik kullanıcı kontrolünü tehlikeye atmadan güvenli bir şekilde işbirliği yapmalarını sağlamayı amaçlayan önerilen Niyet Ağı Protokolü bulunuyor.
INP, üç ana bileşen etrafında yapılandırılmıştır: kullanıcı girdilerini veri sahipliği garantileri ile yakalayan "Niyet Ağı"; AI iletişimi için merkeziyetsiz bir ortam olan "Niyet Ağı"; ve kullanıcı niyetlerine entegre gizlilik korumaları ile hareket eden "İcra Düğümleri".
İttifak ayrıca, merkeziyetsiz veri depolama, açık kaynaklı yapay zeka modelleri ve yapay zeka ajanlarının otonom olarak işlem yapıp işbirliği yapmasını sağlayan araçları içeren daha geniş bir yol haritasını da belirtti. Kuruculara göre, bu çaba veri ekonomisini "dikkat temelli" olmaktan "niyet temelli" olmaya taşımayı amaçlıyor ve kullanıcıları merkeze alıyor.
Bu ittifak neden önemlidir
SAIA, kişisel verilerin merkezi AI modellerinin kullanımına yönelik incelemenin yoğunlaştığı bir ortamda sahneye çıkıyor; Avrupa'daki ve diğer bölgelerdeki düzenleyiciler daha fazla şeffaflık ve kullanıcı kontrolü talep ediyor.
cheqd'in CEO'su Fraser Edwards, bir röportajda crypto.news'e, mevcut AI modellerinin genellikle kullanıcı verileri üzerinde anlamlı bir rıza olmadan ticaret yaptığını söyledi. "Kullanıcılar, kişisel verileri ile ödeme yapıyorlar; bu veriler çıkarılıyor, birleştiriliyor ve meta haline getiriliyor," dedi.
Edwards'a göre, ittifakın yaklaşımı, kullanıcıların verileri seçici bir şekilde paylaşmalarını, potansiyel olarak bunları paraya dönüştürmelerini ve erişimi geri alma yeteneğini korumalarını sağlar; bu da merkezi platformların sağlamakta zorlandığı bir kontrol seviyesi sunar.
Önceki "kullanıcıları verileri için ödemek" çabaları başarısız olurken, SAIA'nın mimarisi kullanıcı verilerini onaya dayalı bir ekosistem içinde yeniden kullanılabilir ve doğrulanabilir bir varlık olarak değerlendirecek şekilde tasarlanmıştır. Ayrıca, uygulamaların GDPR gibi küresel gizlilik standartlarını karşılamalarına yardımcı olmak için denetim izleri ve seçici ifşa gibi uyum odaklı araçlar da içermektedir.
Fraser Edwards ile SAIA’nın planları, zorlukları ve kullanıcı teşvikleri üzerine tam bir Soru-Cevap aşağıda yer almaktadır.
crypto.news: Egemen AI İttifakı’nın vizyonu, kullanıcıya ait verilerle open-source, merkeziyetsiz AI çerçeveleri inşa etmektir. Teorik olarak ilginç bir fikir, ancak bu, Büyük Teknoloji’nin AI hizmetlerine göre ne gibi avantajlar sunacak? AI hizmetleri verilerini takas ederek “ücretsiz” sunulmakta ve bu durum yıllardır çoğu insan tarafından normal kabul edilmektedir. Kullanıcılar ve geliştiriciler neden kendi egemenliklerine dayalı bir modele geçsinler? Kullanıcıya ait veriler yaklaşımınızın benimsenmesini sağlamak için gerçekten ikna edici olan ne gibi teşvikler var (mali, gizlilik veya başka bir şekilde)? Fraser Edwards: Sovereign AI Alliance modelinin temel avantajı uyumdur. Sizin için çalışan, dikkatinizi veya verilerinizi monetizasyon eden platformlar için değil, sizin için çalışan bir yapay zeka. Bugünün "ücretsiz" yapay zeka araçları gerçekte ücretsiz değildir. Kullanıcılar, kontrol edilemeyen veya denetlenemeyen şekillerde çıkarılan, birleştirilen ve meta haline getirilen kişisel verileri ile ödeme yaparlar. Bu, bireysel faydanın önünde viralite ve tutma oranını öncelikli kılan etkileşim odaklı sistemleri besler. Gerçek hayattan bir örnek, Meta'nın yapay zekasının WhatsApp'a entegre edilmesine karşı çıkan tepkidir. Meta'nın gizliliğe saygı duyduğuna dair iddialarına rağmen, kullanıcılar bunu kapatma seçeneğine sahip değil ve çok az kişi şirketin kendi çıkarlarına uygun davranacağına güveniyor. Bu, Büyük Teknoloji'nin veri yönetimine olan güveni zayıflatıyor.
Buna karşılık, Sovereign AI, kullanıcıların sahip olduğu veriler etrafında inşa edilmiştir; burada bireyler, bilgilerinin nasıl kullanıldığını, paylaşıldığını ve paraya çevrildiğini kontrol eder. Öz-yönetim modeli, insanların dijital varlıklarını, Büyük Teknoloji'nin tüm iş modelini çökmeye uğratmadan sunamayacağı bir şekilde sahip olmalarını sağlar.
Yapay zekanın gerçekten kişiselleştirilmiş ve yararlı olabilmesi için, zengin, bağlamlar arası verilere tam izin ile erişimi olması gerekir. Veri platformlar arasında izole edilirse, yapay zeka sınırlı ve kişisel olmayan bir yapıda kalır. Egemen yapay zeka, hizmet ettiği insanlara daha güçlü ve daha saygılı olan akıllı sistemler sağlar.
Bu model, benimsemeyi teşvik etmek için üç teşvik sağlar:
CN: Buradaki temel fikir, bireylerin ( ve potansiyel olarak kendi verilerini paraya dönüştürebilmesidir. Ancak, geçmişte birçok proje "verileriniz için ödeme alın" vaadiyle ortaya çıktı ve mücadele etti, kısmen çünkü ortalama bir kullanıcının verisi bireysel düzeyde pek bir değere sahip değil veya zaman ayırmaya değer değil. SAIA bu denklemi nasıl değiştirecek? Kullanıcıları verileri veya AI eğitimi geri bildirimleri için doğrudan ödüllendirmeyi mi planlıyorsunuz, yoksa fayda daha dolaylı mı ) örneğin daha iyi kişiselleştirme ve gizlilik(? Kullanıcılar önemli bir gelir elde edemezse, bu ağda verilerini proaktif olarak paylaşma ve yönetme konusunda onları ne çekici kılıyor?
FE: Geçmişteki "veri için ödeme al" modellerinin çoğu, veriyi tek seferlik bir emtia olarak ele aldıkları için başarısız oldu; oysa veri, sürekli ve niyet odaklı bir ekosistem içinde bir parça olarak değerlendirilmelidir. Sovereign AI Alliance, veriyi merkezi olmayan, niyet temelli bir AI çerçevesi içinde yeniden kullanılabilir, yüksek değerli bir varlık olarak yeniden tasarlayarak denklemi değiştiriyor.
cheqd için, bireylerin kendi verilerini kontrol etmelerini ve yeniden kullanmalarını sağlamakla yaklaşıyoruz, ancak aynı derecede önemli olarak, bu verileri ilk etapta bireylere geri vermeleri için şirketleri ve veri silolarını teşvik eden altyapıyı inşa ediyoruz.
Cheqd'in altyapısı, izole veri noktaları için hızlı mikro ödüller vaadetmek yerine, kullanıcıların kendi şartlarına göre doğrulanmış, yeniden kullanılabilir verileri, kimlik bilgileri, tercihler veya onaylar gibi, seçerek paylaşmalarını destekleyen bir modeli desteklemektedir. Bu, kişiselleştirilmiş AI hizmetleri, seçici monetizasyon veya basitçe daha iyi kontrol gibi daha anlamlı uzun vadeli değerler için potansiyeli açar. Gerçek değişim, gücü yeniden dengelemekte yatıyor: Kullanıcıların verilerini yanlarına alıp farklı AI sistemleri arasında kullanmalarını mümkün kılmak, silo içinde sıkışıp kalmadan.
CN: Kullanıcıya ait veriler merkezde olduğundan, en başından itibaren gizliliği ve uyumluluğu nasıl ele alıyorsunuz? Kişisel veriler yapay zeka modellerini eğitmek veya bilgilendirmek için kullanılıyorsa, kullanıcıların ayrıntılı kontrolü ve verileri devre dışı bırakma veya iptal etme yeteneği var mı? Son düzenleyici eylemler bunun kritik olduğunu gösteriyor - örneğin, İtalya'nın veri koruma otoritesi, ChatGPT'yi eğitim için kişisel verilerin toplu olarak toplanması için "herhangi bir yasal dayanağın olmaması" nedeniyle geçici olarak yasakladı. SAIA'nın yaklaşımı, )GDPR gizlilik yasaları, others( ve etik normlarla uyumlu kalması için kullanıcı verilerini işlemede nasıl farklılık gösterecek?
FE: Uyum ve gizlilik, SAIA'nın mimarisi için temeldir. SAIA'nın temeli, merkezi veri silolarına ihtiyaç duymadan, varsayılan olarak kullanıcı egemenliğidir; bu, toplu olarak veri toplayan tipik AI modellerinin aksincedir.
CN: cheqd, merkeziyetsiz kimlik )kendi kendine sahip kimlik / SSI( ve doğrulama altyapısını birliğe getiriyor. SSI, AI çerçevesine nasıl dahil edilecek? Örneğin, Niyet Temelleri, veri kökenini veya AI ajanlarının itibarını doğrulamak için dijital kimlikleri kullanacak mı? Ve merkeziyetsiz kimliğin hala yeni olduğunu göz önünde bulundurursak, hatta kimlik uzmanları bile benimsemenin kullanıcılar ve organizasyonlar için ek karmaşıklık nedeniyle en büyük zorluk olduğunu belirtmektedir; SSI kullanımını SAIA içinde nasıl teşvik edecek ve başlatacaksınız?
FE: “SSI, Egemen AI İttifakı'nın mimarisinde önemli bir rol oynamaktadır. Bu, AI ajanlarını, insanları ve verileri bağlayan güven katmanıdır. İşte benimseme engellerini nasıl aşmayı planladığımız ve cheqd’in merkeziyetsiz kimlik altyapısının çerçeveye nasıl uyduğuna dair bilgiler.
Bu aynı zamanda AI ajanlarını da kapsar: ajanlara doğrulanabilir kimlik bilgileri vererek, itibar, yetenek ve özgünlük oluşturabiliriz. Bu, ajanlar arası veya ajan-kullanıcı etkileşimlerinde güven için hayati öneme sahiptir.
Benimseme bugün SSI için gerçekten en büyük zorluktur. cheqd altyapı katmanında yer alırken, DataHive doğrudan müşteriye yöneliktir, bu nedenle tüketicilere kendilerine bir çözüm sunar ve bu verileri içeri alabilirler.