Fransa’nın gizlilik bekçisi, AI eylem planında veri kazımaya karşı koruma izliyor
Fransa’nın gizlilik gözlemcisi CNIL bir yayın yayınladı. hareket planı Önümüzdeki aylarda ve sonrasında OpenAI’nin ChatGPT’si gibi üretken AI teknolojileri de dahil olmak üzere dikkatini nereye odaklayacağına dair bir anlık görüntü veren yapay zeka için.
Teknolojinin kapsamını belirlemek ve “gizlilik dostu yapay zeka sistemleri” için öneriler üretmek üzere CNIL içinde özel bir Yapay Zeka Hizmeti kuruldu.
Düzenleyici için belirtilen önemli bir hedef, “kişisel verilere saygı duyan” yapay zekanın gelişimini yönlendirmek, örneğin aşağıdaki araçları geliştirmektir: “insanları korumak” için AI sistemlerini denetleyin ve kontrol edin.
AI sistemlerinin insanları nasıl etkilediğini anlamak, CNIL’in en iyi uygulamasını uygulayan yerel AI ekosistemindeki yenilikçi oyunculara verilen desteğin yanı sıra başka bir ana odak noktasıdır.
“CNIL, gizlilik dostu AI sistemlerinin geliştirilmesine katkıda bulunmak için Avrupa vatandaşlarının kişisel verilerini koruyan net kurallar oluşturmak istiyor” diye yazıyor.
Teknisyenlerden başka bir grup yüksek profilli arama yapılmadan neredeyse bir hafta geçiyor düzenleyicilerden AI ile başa çıkmalarını istemek. Ve daha dün, ABD Senatosundaki ifadesi sırasında, OpenAI’nin CEO’su Sam Altman, milletvekillerini teknolojiyi düzenlemeye çağırdıbir lisanslama ve test rejimi öneriyor.
Bununla birlikte, Avrupa’daki veri koruma düzenleyicileri, şimdiden yolun çok gerisinde kaldılar — örneğin, Clearview AI zaten geniş çapta onaylandı Örneğin, insanların verilerinin kötüye kullanılması için blok genelinde. Yapay zeka sohbet robotu iken, Replika, İtalya’da yakın zamanda yaptırımlarla karşı karşıya kaldı.
OpenAI’nin ChatGPT’si ayrıca İtalyan DPA tarafından çok açık bir müdahaleye maruz kaldı. mart sonunda bu da şirketin kullanıcılar için yeni açıklamalar ve kontroller ile acele etmesine ve bilgilerini nasıl kullanabileceklerine dair bazı sınırlamalar uygulamasına izin vermesine yol açtı.
Aynı zamanda, AB milletvekilleri riske dayalı bir çerçeve üzerinde anlaşmaya varma sürecinde bloğun Nisan 2021’de önerdiği yapay zeka uygulamalarını düzenlemek için.
AB AI Yasası olan bu çerçeve, yıl sonuna kadar kabul edilebilir ve planlanan düzenleme, CNIL’in AI eylem planını hazırlamak için vurguladığı bir başka nedendir ve çalışmanın “uygulamaya giriş için hazırlanmayı da mümkün kılacağını” söyler. şu anda tartışılmakta olan taslak Avrupa AI Tüzüğü”.
Mevcut veri koruma yetkililerinin (DPA’lar) AI Yasasının uygulanmasında rol oynaması muhtemeldir, bu nedenle AI anlayışını ve uzmanlığını oluşturan düzenleyiciler, rejimin etkin bir şekilde işlemesi için çok önemli olacaktır. AB DPA’larının odaklanmayı seçtikleri konular ve ayrıntılar, gelecekte AI’nın operasyonel parametrelerini ağırlıklandırmaya ayarlanmış olsa da – dijital kural koyma söz konusu olduğunda bloğun ne kadar ileride olduğu göz önüne alındığında, kesinlikle Avrupa’da ve potansiyel olarak daha uzakta.
Çerçevede veri kazıma
Üretken yapay zeka konusunda, Fransız gizlilik düzenleyicisi, belirli yapay zeka modeli üreticilerinin, örneğin doğal dilleri ayrıştırabilen büyük dil modelleri (LLM’ler) gibi yapay zeka sistemlerini eğitmek için veri kümeleri oluşturmak üzere internetten veri toplama uygulamasına özel önem veriyor. konuşun ve iletişime insan benzeri bir şekilde yanıt verin.
AI hizmeti için öncelikli bir alanın “web’de halka açık verilerin kazıma kullanımına karşı korunması veya kazıma, araçlarının tasarımı için veri”.
Bu, eğitim yemi olarak yeniden kullanmak üzere büyük miktarda web verisini sessizce kazımaya dayanan ChatGPT gibi LLM’lerin yapımcıları için rahatsız edici bir alandır. Kişisel verileri içeren web bilgilerini süpürenler, Mayıs 2018’den beri yürürlükte olan Genel Veri Koruma Yönetmeliği’nin (GDPR) bu tür işlemler için yasal bir temele sahip olmalarını gerektirdiği Avrupa’da belirli bir yasal zorlukla karşı karşıyadır.
GDPR’de belirtilen bir dizi yasal dayanak vardır, ancak ChatGPT gibi bir teknoloji için olası seçenekler sınırlıdır.
İçinde İtalyan DPA’nın görünümü, sadece iki olasılık vardır: Rıza veya meşru çıkarlar. Ve OpenAI, verilerini almadan önce bireysel web kullanıcılarından izin almadığından, şirket artık işleme için İtalya’daki meşru menfaat iddiasına güveniyor; yerel düzenleyici tarafından soruşturma altında kalan bir iddia, garanti. (Hatırlatma: GDPR cezaları, herhangi bir düzeltici talimata ek olarak küresel yıllık cironun %4’üne kadar çıkabilir.)
Pan-AB düzenlemesi, kişisel verileri işleyen kuruluşlar için işlemenin adil ve şeffaf olması gibi başka gereklilikler içerir. Bu nedenle, ChatGPT gibi araçlar için yasalara aykırı düşmekten kaçınmak için ek yasal zorluklar vardır.
Ve – özellikle – eylem planında, Fransız CNIL, “şirketlerin işleyişinin altında yatan veri işlemenin adilliğini ve şeffaflığını” vurguluyor. [AI tools]”, Yapay Zeka Servisi ve başka bir iç birim olan CNIL Dijital İnovasyon Laboratuvarı’nın önümüzdeki aylarda inceleme için öncelik vereceğini söylediği özel bir ilgi sorusu olarak.
CNIL’in yapay zeka kapsamı için işaretlediği diğer belirtilen öncelik alanları şunlardır:
- kullanıcılar tarafından bu araçları kullandıklarında iletilen verilerin, bunların toplanmasından (bir arayüz aracılığıyla) olası yeniden kullanımlarına ve makine öğrenimi algoritmaları aracılığıyla işlenmesine kadar korunması;
- hem modellerin öğrenilmesi için toplananlarla hem de üretici yapay zeka durumunda oluşturulan içerik gibi bu sistemler tarafından sağlanabileceklerle ilgili olarak bireylerin verilerine ilişkin haklarına yönelik sonuçlar;
- meydana gelebilecek önyargı ve ayrımcılığa karşı koruma;
- bu araçların benzeri görülmemiş güvenlik sorunları.
Dün bir ABD senato komitesine ifade veren Altman, ABD’li milletvekilleri tarafından şirketin gizliliği koruma yaklaşımı hakkında sorgulandı ve OpenAI CEO’su, konuyu yalnızca yapay zeka sohbet botu kullanıcıları tarafından aktif olarak sağlanan bilgilere atıfta bulunacak şekilde dar bir çerçeveye oturtmaya çalıştı – örneğin, , ChatGPT, kullanıcıların konuşma geçmişlerinin eğitim verileri olarak kullanılmasını istemediklerini belirtmelerine olanak tanır. (Bununla birlikte, başlangıçta sunmadığı bir özellik.)
Gizliliği korumak için hangi özel adımların atıldığı sorulduğunda Altman, senato komitesine şunları söyledi: “API’mize gönderilen hiçbir veri üzerinde eğitim yapmıyoruz. Dolayısıyla, bir ticari müşterimizseniz ve veri gönderirseniz, bunun üzerinde hiç eğitim vermeyiz… ChatGPT’yi kullanırsanız, verileriniz üzerinde verdiğimiz eğitimden vazgeçebilirsiniz. Ayrıca konuşma geçmişinizi veya tüm hesabınızı silebilirsiniz.”
Ancak en başta modeli eğitmek için kullanılan veriler hakkında söyleyecek hiçbir şeyi yoktu.
Altman’ın mahremiyetin ne anlama geldiğine dair dar çerçevesi, eğitim verilerinin yasallığıyla ilgili temel soruyu gözden kaçırdı. İsterseniz buna üretici yapay zekanın “ilk mahremiyet günahı” deyin. Ancak, Avrupa’daki düzenleyiciler bölgenin güçlü yapay zeka sistemleri üzerindeki mevcut gizlilik yasalarını uygulamaya devam ettikçe, bu konuyu atlamanın OpenAI ve onun veri kazıma ilkleri için giderek daha zor hale geleceği açıktır.
OpenAI söz konusu olduğunda, bölgede yerleşik bir üssü olmadığı için Avrupa çapında bir dizi uygulama yaklaşımına tabi olmaya devam edecektir – GDPR’nin tek durak noktası mekanizması geçerli değildir (tipik olarak Big Tech için geçerli olduğu gibi) ) bu nedenle herhangi bir DPA, yerel kullanıcıların verilerinin işlendiğine ve haklarının risk altında olduğuna inanıp inanmadığını düzenleme yetkisine sahiptir. Bu nedenle İtalya, bu yılın başlarında, araçla ilgili bir soruşturma başlatmasına paralel olarak bir işlemeyi durdurma emri koyan ChatGPT’ye müdahale ederek zor durumda kalırken, Fransa’nın bekçi köpeği, şikayetlere yanıt olarak yalnızca Nisan ayında bir soruşturma açacağını duyurdu. (İspanya ayrıca henüz herhangi bir ek işlem yapmadan teknolojiyi araştırdığını söyledi.)
AB DPA’ları arasındaki diğer bir farkta, CNIL, olduğundan daha geniş bir dizi konuyu sorgulamakla ilgileniyor gibi görünüyor. İtalya’nın ilk listesi — GDPR’nin amaç sınırlama ilkesinin ChatGPT gibi büyük dil modellerine nasıl uygulanması gerektiğinin değerlendirilmesi dahil. Bu da, GDPR’nin ihlal edildiği sonucuna varması halinde daha kapsamlı bir dizi operasyonel değişiklik siparişi verebileceğini gösteriyor.
“CNIL yakında bir istişare için verilerin paylaşımı ve yeniden kullanımı için geçerli kurallar hakkında bir rehber sunacak” diye yazıyor. “Bu çalışma, internette serbestçe erişilebilen ve artık birçok AI modelini öğrenmek için kullanılan verilerin yeniden kullanılması konusunu içerecektir. Bu nedenle bu kılavuz, üretken AI’lar da dahil olmak üzere AI sistemlerinin tasarımı için gerekli olan bazı veri işleme işlemleriyle ilgili olacaktır.
“Ayrıca yapay zeka sistemleri tasarlama ve makine öğrenimi için veritabanları oluşturma konusundaki çalışmalarına da devam edecek. Bunlar, özellikle ChatGPT gibi yapay zeka sistemlerinin tasarımıyla ilgili olarak somut tavsiyeler sağlamak için birkaç aktörle halihazırda organize edilmiş olan istişarenin ardından 2023 yazından itibaren birkaç yayının ortaya çıkmasına neden olacak.”
CNIL’in gelecekteki yayınlar ve ürettiği AI rehberliği aracılığıyla “kademeli olarak” ele alınacağını söylediği diğer konular şunlardır:
- eğitim veritabanlarının oluşturulması ve yeniden kullanılması için bilimsel araştırma sisteminin kullanılması;
- amaç ilkesinin genel amaçlı yapay zekalara ve büyük dil modelleri gibi temel modellere uygulanması;
- veritabanlarını oluşturan, bu verilerden model oluşturan ve bu modelleri kullanan kuruluşlar arasındaki sorumluluk paylaşımının açıklanması;
- veri doğruluğu ve minimizasyonu ilkelerini göz önünde bulundurarak, eğitim için veri seçimine uygulanabilir kurallar ve en iyi uygulamalar;
- bireylerin haklarının yönetimi, özellikle erişim, düzeltme ve itiraz hakları;
- özellikle eğitim temelleri ve kullanılacak en karmaşık modeller için geçerli raf ömrü kuralları;
- son olarak, yapay zeka sistemlerinin gündeme getirdiği sorunların yalnızca kendi anlayışlarında kalmadığının farkında olan CNIL, aynı zamanda etik yansımalar [following a report it published back in 2017] makine öğrenimi modellerinin kullanımı ve paylaşımı, önyargıların ve ayrımcılığın önlenmesi ve düzeltilmesi veya yapay zeka sistemlerinin sertifikasyonu hakkında.
AI sistemlerinin denetimi ve kontrolü konusunda, Fransız düzenleyici bu yılki eylemlerinin üç alana odaklanacağını şart koşuyor: Mevcut bir sistemle uyumluluk ‘gelişmiş’ video gözetiminin kullanımına ilişkin pozisyon2022 yılında yayınladığı; dolandırıcılıkla mücadele için yapay zekanın kullanılması (sosyal sigorta dolandırıcılığı gibi); ve şikayetlerin araştırılması hakkında.
Ayrıca, üretici yapay zekaların eğitimi ve kullanımına yönelik yasal çerçeve hakkında şikayetler aldığını doğruluyor ve bu konudaki açıklamalar üzerinde çalıştığını söylüyor.
“CNIL, özellikle ChatGPT hizmetini yöneten OpenAI şirketi aleyhine birkaç şikayet aldı ve bir kontrol prosedürü başlattı” diye ekliyor. Avrupa Veri Koruma Kurulu bünyesinde yakın zamanda kurulan özel çalışma grubu farklı Avrupalı yetkililerin AI chatbot’u düzenlemeye nasıl yaklaştığını koordine etmeye çalışmak (ve “OpenAI aracı tarafından uygulanan veri işlemenin uyumlu bir analizi” olarak faturalandırdığı şeyi üretmek).
CNIL, verilerini kullanmak için insanlardan asla izin istemeyen ve gelecekte bağışlanmayı umut eden yapay zeka sistem üreticileri için başka bir uyarıda bulunarak, kişisel verileri işleyen kuruluşların geliştirme, eğitme veya kullanma amaçlarına özel önem vereceğini belirtiyor. Yapay zeka sistemleri şunları içerir:
- riskleri belgelemek ve bunları azaltmak için önlemler almak için bir Veri Koruma Etki Değerlendirmesi gerçekleştirdi;
- insanları bilgilendirmek için alınan önlemler;
- kişilerin haklarının kullanılması için bu özel bağlama uyarlanmış planlı önlemler.
Yani uyarılmadığını söyleme!
Avrupa kurallarına (ve değerlerine) uymak isteyen yenilikçi yapay zeka oyuncularına yönelik desteğe gelince, CNIL’in birkaç yıldır düzenleyici bir korumalı alanı var ve bu, yapay zeka şirketlerini ve çalışan yapay zeka sistemlerini geliştirmek için çalışan araştırmacıları teşvik ediyor. kişisel verileri koruma kuralları ile güzel iletişim kurmak için (üzerinden [email protected]).
kim kimdir ne zaman nasıl nelerdir nedir ne işe yarar tüm bilgiler
dünyadan ilginç ve değişik haberler en garip haberler burada