Google’ın Bard’ı ve diğer yapay zeka sohbet robotları, AB’de gizlilik gözetimi altında olmaya devam ediyor

biz olarak daha önce bildirildi, Google’ın yapay zeka sohbet robotu Bard nihayet Avrupa Birliği’nde kullanıma sunuldu. Şeffaflığı ve kullanıcı denetimlerini artırmak için bazı değişiklikler yaptıktan sonra bunu yaptığını anlıyoruz – ancak bloğun gizlilik düzenleyicileri dikkatli olmaya devam ediyor ve bloğun üretken AI üzerindeki veri koruma yasasının nasıl uygulanacağına dair büyük kararlar alınmaya devam ediyor.

Google’ın bölgedeki önde gelen veri koruma düzenleyicisi İrlanda Veri Koruma Komisyonu (DPC), lansmandan sonra Bard’da teknoloji deviyle çalışmaya devam edeceğini söyledi. DPC ayrıca, Google’ın bir inceleme yapmayı ve üç ay içinde (Ekim ortası civarında) bekçi köpeğine rapor vermeyi kabul ettiğini söyledi. Bu nedenle, önümüzdeki aylarda yapay zeka sohbet botu üzerinde düzenleyicilerin daha fazla dikkat çekeceği görülecektir – eğer (henüz) resmi bir soruşturma yapılmadıysa.

Aynı zamanda, Avrupa Veri Koruma Kurulu’nun (EDPB), yapay zeka sohbet robotlarının Avrupa Birliği Genel Veri Koruma Yönetmeliği (GDPR) ile uyumluluğunu inceleyen bir görev gücü vardır. Görev gücü başlangıçta OpenAI’nin ChatGPT’sine odaklanmıştı, ancak Bard konularının, farklı veri koruma yetkilileri (DPA) tarafından yaptırımı uyumlaştırmaya çalışmak için alınabilecek eylemleri koordine etmeyi amaçlayan çalışmaya dahil edileceğini anlıyoruz.

“Google, öncesinde bir dizi değişiklik yaptı. [Bard’s] lansman, özellikle artan şeffaflık ve kullanıcılar için kontrollerde yapılan değişiklikler. DPC komiseri yardımcısı Graham Doyle, lansmandan sonra Bard ile ilgili olarak Google ile ilişkimizi sürdüreceğiz ve Google, Bard’ın AB’de faaliyete geçmesinden üç ay sonra bir inceleme yapmayı ve DPC’ye bir rapor sunmayı kabul etti, dedi.

“Ayrıca, Avrupa Veri Koruma Kurulu bu yılın başlarında üyesi olduğumuz ve bu alanda çok çeşitli konulara bakacak bir görev gücü kurdu” diye ekledi.

Google’ın ChatGPT rakibinin AB lansmanı ertelendi geçen ay İrlandalı düzenleyici, Google’ın sağlayamadığı bilgileri acilen aradıktan sonra. Bu, DPC’ye, temel haklara yönelik potansiyel riskleri belirlemek ve hafifletme önlemlerini değerlendirmek için kritik bir uyum belgesi olan bir veri koruma etki değerlendirmesi (DPIA) sunmamayı da içeriyordu. Bu nedenle, bir DPIA’yı engelleyememek, çok büyük bir düzenleyici kırmızı bayraktır.

Doyle, TechCrunch’a DPC’nin artık Bard için bir DPIA gördüğünü doğruladı.

Bunun, diğer “ilgili” belgelerle birlikte üç aylık incelemenin bir parçası olacağını söylediği belgelerden biri olacağını söyledi ve ekledi: “DPIA’lar yaşayan belgelerdir ve değişebilir.”

bir resmi blog gönderisi Google, AB’deki düzenleyici riskini azaltmak için atılan belirli adımlar hakkında hemen herhangi bir ayrıntı sunmadı – ancak “bu genişleme konusunda uzmanlar, politika yapıcılar ve gizlilik düzenleyicileriyle proaktif olarak görüştüğünü” iddia etti.

Bard’ı AB’de piyasaya sürmeden önce yapılan şeffaflık ve kullanıcı kontrolü ince ayarlarıyla ilgili sorularla teknoloji devine ulaştık ve bir sözcü, teknolojiyi sorumlu bir şekilde yaymasını sağlamak için dikkat ettiği bir dizi alanın altını çizdi. Bard’a erişimi Google Hesabı olan 18 yaşından büyük kullanıcılarla sınırlandırmak.

Büyük bir değişiklik, yeni bir Bard Gizlilik Merkezi önerdiği, kullanıcıların mevcut gizlilik kontrollerinin açıklamalarını gözden geçirmesini kolaylaştırıyor.

Bu Merkezdeki bilgilere göre, Google’ın Bard için iddia ettiği yasal dayanaklar, bir sözleşmenin ifasını ve meşru çıkarları içerir. Bununla birlikte, ilgili işlemenin büyük kısmı için en çok ikinci esasa dayanıyor gibi görünse de. (Ayrıca, ürün geliştikçe, verileri belirli amaçlarla işlemek için onay isteyebileceğini de not eder.)

Ayrıca Hub’a göre, Google’ın kullanıcılara sunduğu açıkça etiketlenmiş tek veri silme seçeneği, kendi Bard kullanım etkinliklerini silme yeteneğidir – kullanıcıların Google’dan sohbet robotunu eğitmek için kullanılan kişisel verileri silmesini istemelerinin açık bir yolu yoktur.

bir teklif sunsa da internet formu insanların bir sorunu veya yasal bir sorunu bildirmesine olanak tanır – kullanıcıların kendileri hakkında oluşturulan yanlış bilgilerin düzeltilmesini isteyebileceğini veya verilerinin işlenmesine itiraz edebileceğini belirtir (ikincisi, işleme için meşru çıkarlara güveniyorsanız bir gerekliliktir) AB hukuku uyarınca).

Google’ın sunduğu başka bir web formu, kullanıcıların içeriğin kaldırılmasını istemek kendi politikaları veya yürürlükteki yasalar uyarınca (bu, en açık şekilde telif hakkı ihlallerini ima eder, ancak Google ayrıca, kullanıcıların verilerinin işlenmesine itiraz etmek veya bir düzeltme talep etmek istiyorlarsa bu formu kullanmalarını önermektedir – yani bu, görünüşe göre, ‘AI modelinizden verilerimi sil’ seçeneğine geldiğinizde kapatın).

Google’ın sözcüsünün işaret ettiği diğer ince ayarlar, kullanıcının Bard etkinlik verilerini tutması üzerindeki kontrolleriyle veya aslında etkinliklerini günlüğe kaydetmeme yeteneğiyle ilgiliydi.

Kullanıcılar ayrıca, Bard’ın verilerini Google Hesaplarında ne kadar süreyle saklayacağını da seçebilir; varsayılan olarak Google, Bard etkinliklerini Google Hesaplarında 18 aya kadar saklar, ancak kullanıcılar tercihe göre bunu üç veya 36 ay olarak değiştirebilir. Ayrıca bunu tamamen kapatabilir ve Bard etkinliklerini şu adresten kolayca silebilir: g.co/bard/myactivity“dedi sözcü.

İlk bakışta, Google’ın Bard ile şeffaflık ve kullanıcı kontrolü alanındaki yaklaşımı değişikliklere oldukça benziyor. OpenAI, İtalyan DPA tarafından yapılan düzenleyici incelemenin ardından ChatGPT’ye yapıldı.

bu garanti OpenAI siparişi vererek bu yılın başlarında dikkatleri üzerine çekti. hizmeti yerel olarak askıya al — aynı anda bir veri koruma endişelerinin açık listesi.

ChatGPT, ilk DPA yapılacaklar listesine göre hareket ederek birkaç hafta sonra İtalya’da hizmete devam edebildi. Bu, ChatGPT’yi geliştirmek ve eğitmek için kullanılan veri işlemeyle ilgili gizlilik açıklamalarının eklenmesini; kullanıcılara yapay zekalarını eğitmek için veri işlemeyi devre dışı bırakma olanağı sağlamak; ve chatbot tarafından insanlar hakkında oluşturulan hataları düzeltememesi de dahil olmak üzere, Avrupa’ya verilerinin silinmesini talep etmesi için bir yol sunmak.

OpenAI’nin ayrıca yakın vadede bir yaş sınırı eklemesi ve çocuk güvenliği endişelerini azaltmak için daha sağlam bir yaş güvencesi teknolojisi eklemeye çalışması gerekiyordu.

Buna ek olarak İtalya, OpenAI’ye işleme için iddia edilen yasal dayanak nedeniyle bir sözleşmenin performansına yapılan atıfları kaldırmasını emretti – bunun yalnızca rızaya veya meşru menfaatlere dayanabileceğini söyledi. (Bu olayda, ChatGPT İtalya’da hizmete yeniden başladığında OpenAI, yasal dayanak olarak LI’ye güveniyor gibi görünüyordu.) Ve bu cephede, yasal dayanağın EDPB görev gücünün baktığı konulardan biri olduğunu anlıyoruz.

İtalyan DPA, OpenAI’yi endişelerine yanıt olarak bir dizi acil değişiklik yapmaya zorlamanın yanı sıra, ChatGPT ile ilgili kendi soruşturmasını başlattı. için bir sözcü garanti bugün bize bu soruşturmanın devam ettiğini doğruladı.

Diğer AB DPA’ları da ChatGPT’yi araştırdıklarını söyledi — Google’ın aksine, esas olarak herhangi bir Üye Devlette yerleşik olmadığı için, bloğun tamamından düzenleyici soruşturmaya açıktır.

Bu, OpenAI’nin sohbet botu için Google’a kıyasla potansiyel olarak daha büyük düzenleyici risk ve belirsizlik olduğu anlamına gelir (dediğimiz gibi, henüz DPC tarafından resmi soruşturma altında değildir) – şirketin gelenlerle uğraşması gerektiğinden kesinlikle daha karmaşık bir uyum tablosu. yalnızca bir öncü DPA yerine birden çok düzenleyici.

EDPB görev gücü, AB DPA’ları yapay zeka sohbet botları üzerinde ortak yaptırım pozisyonları üzerinde anlaşabilirse, bu alandaki düzenleyici belirsizliğin bir kısmını azaltmaya yardımcı olabilir.

Bununla birlikte, bazı yetkililer şimdiden üretken yapay zeka teknolojileri konusunda kendi stratejik duraklarını belirliyor. Örneğin Fransız CNIL, bu yılın başlarında bir AI eylem planı yayınladı burada, web’deki halka açık verilerin, hem OpenAI hem de Google’ın ChatGPT ve Bard gibi büyük dil modelleri geliştirmek için kullandığı bir uygulama olan skarlaşmaya karşı korunmasına özel önem verilmesi gerektiğini şart koşuyordu.

Bu nedenle, görev gücünün, DPA’lar arasında sohbet botlarıyla nasıl başa çıkılacağı konusunda tam bir fikir birliğine yol açması olası değildir ve bazı yaklaşım farklılıkları kaçınılmaz görünmektedir.

kim kimdir ne zaman nasıl nelerdir nedir ne işe yarar tüm bilgiler
dünyadan ilginç ve değişik haberler en garip haberler burada

Yorum yapın