Birleşik Krallık hükümeti, son haftalarda gelişmekte olan yapay zeka güvenliği alanında uluslararası bir hareket ettirici ve sarsıcı olarak imajını geliştirmeye çalışıyor. konuyla ilgili yaklaşan bir zirvenin gösterişli duyurusu harcama taahhüdü ile birlikte geçen ay Temel bir model görev gücünde 100 milyon £ bu, söylediği gibi “son teknoloji” yapay zeka güvenlik araştırması yapacak.
Yine de Birleşik Krallık başbakanı ve Silikon Vadisi süper hayranı Rishi Sunak liderliğindeki aynı hükümet, AI uygulamalarını düzenlemek için yeni iç mevzuatı geçirme ihtiyacından kaçındı – bu, markaların “inovasyon yanlısı” konulu kendi politika belgesinin bir duruşu.
Aynı zamanda geçişin ortasında ulusal veri koruma çerçevesinin deregülatör reformu Bu, AI güvenliğine karşı çalışma riski taşır.
İkincisi, bağımsız araştırma odaklı kuruluşun vardığı birkaç sonuçtan biridir. Ada Lovelace EnstitüsüNuffield Vakfı hayırsever güveninin bir parçası, Birleşik Krallık’ın yapay zekayı düzenlemeye yönelik yaklaşımını inceleyen ve diplomatik gibi görünen ancak bazen bakanlar için oldukça garip bir okuma yapan yeni bir raporda.
Rapor, bu alanda hükümet politikasını/güvenilirliğini yükseltmek için tam 18 tavsiye içeriyor – örneğin, Birleşik Krallık bu konuda ciddiye alınmak istiyorsa.
Enstitü, AI güvenliğinin “pahalı” bir tanımını savunuyor – “AI sistemleri daha yetenekli hale geldikçe ve toplumda yerleşik hale geldikçe ortaya çıkan çok çeşitli zararları yansıtıyor”. Dolayısıyla rapor, “AI sistemlerinin bugün neden olabileceği” düzenlemesinin nasıl yapılacağı ile ilgileniyor. Onlara gerçek dünyadaki yapay zeka zararları deyin. (Bilim kurgudan ilham alan teorik olası gelecekteki risklerle değil, son zamanlarda teknoloji endüstrisindeki bazı yüksek profilli figürler tarafından şişirilmişgörünüşe göre politika yapıcıların dikkatini dağıtmak için bir teklifte.)
Şimdilik, Sunak hükümetinin (gerçek dünya) AI güvenliğini düzenleme yaklaşımının çelişkili olduğunu söylemek doğru olur; güvenliği savunmak istediğini iddia eden gösterişli, endüstri liderliğindeki PR’a ağırlık veriyor, ancak yanlış değerlendirilmiş otomasyon uygulamalarından kaynaklanabileceğini bildiğimiz çok sayıda risk ve zarara karşı korunmak için somut kurallar belirlemeye yönelik politika önerilerini hafife alıyor.
İşte Ada Lovelace Enstitüsü birincil gerçek bombasını atıyor:
Birleşik Krallık Hükümeti, Birleşik Krallık toplumu ve ekonomisine fayda sağlamak için yapay zeka teknolojilerinin geliştirilmesinden ve yaygınlaşmasından yararlanarak ve 2023 sonbaharında küresel bir zirveye ev sahipliği yaparak Birleşik Krallık’ı bir “AI süper gücü” yapma hedefini ortaya koydu. İngiltere’nin gelecekteki AI ekonomisi için platform sağlayacak olan yerel düzenleme.
TRaporun tavsiyeler listesi, Enstitü’nün Birleşik Krallık’ın yapay zekaya yönelik mevcut yaklaşımında iyileştirme için pek çok alan gördüğünü netleştirmek için devam ediyor.
Bu senenin başlarında hükümet, yapay zekayı ülke içinde düzenlemeye yönelik tercih ettiği yaklaşımı yayınladı – bu aşamada yeni mevzuata veya gözetim organlarına ihtiyaç görmediğini söyledi. Beyaz kitap bunun yerine, hükümetin mevcut, sektöre özel (ve/veya kesişen) düzenleyicilerin “yetkileri dahilinde yapay zekayı yorumlaması ve uygulaması” gerektiğini önerdiği bir dizi esnek ilke önerdi. AI’nın yeni kullanımlarını denetlemek için herhangi bir yeni yasal yetki veya ekstra fon olmadan.
Tanıtım belgesinde belirtilen beş ilke şunlardır: Emniyet, emniyet ve sağlamlık; Uygun şeffaflık ve açıklanabilirlik; adalet; Hesap verebilirlik ve yönetişim; İtiraz edilebilirlik ve tazmin. Bunların hepsi kağıt üzerinde kulağa hoş geliyor – ancak yapay zeka güvenliğini düzenleme söz konusu olduğunda tek başına kağıt açıkça yeterli olmayacak.
Birleşik Krallık’ın, mevcut düzenleyicilerin yapay zeka konusunda ne yapacaklarına karar vermesine izin verme planı, sadece bazı geniş kapsamlı ilkelerle ve hiçbir yeni kaynak olmadan, milletvekillerinin üzerinde anlaşmaya varmakla meşgul olduğu AB’ninkiyle çelişiyor. risk tabanlı bir çerçeve bloğun yöneticisinin 2021’de önerdiği.
Birleşik Krallık’ın mevcut, çok çalışan düzenleyicilere, yapay zeka gelişmelerini kötü aktörler üzerindeki sonuçları dayatma yetkisi olmadan kendi yamalarında izlemek için yeni sorumluluklar yükleme şeklindeki kısıtlı bütçe yaklaşımı, en hafif deyimiyle yapay zeka güvenliği konusunda pek inandırıcı görünmüyor.
İnovasyon yanlısı olmak için çekim yapıyorsanız bile tutarlı bir strateji gibi görünmüyor – çünkü AI geliştiricilerinin, en son AI patlamasından çok önce hazırlanmış, sektöre özgü ve kesişen mevzuatın tüm bir yamasını düşünmesini gerektirecektir. Geliştiriciler ayrıca kendilerini bir dizi farklı düzenleyici kurumun gözetimine tabi bulabilirler (yukarıda belirtilen ilkeleri uygulamak için kaynak ve yasal ateş gücü eksikliği göz önüne alındığında dikkatleri zayıf olabilir). Yani, gerçekten, bir tarif gibi görünüyor AI uygulamalarına hangi mevcut kuralların uygulanabileceği konusundaki belirsizlik. (Ve büyük olasılıkla, sektöre, kullanım durumuna ve dahil olan gözetim organlarına vb. bağlı olarak düzenleyici yorumlardan oluşan bir patchwork. Dolayısıyla, netlik değil, kafa karışıklığı ve maliyet.)
Birleşik Krallık’taki mevcut düzenleyiciler, AI’ya nasıl yaklaşacaklarına dair hızlı bir şekilde rehberlik etseler bile – bazıları gibi zaten veya çalışmak – Ada Lovelace Enstitüsü’nün raporunun da işaret ettiği gibi, yine de pek çok boşluk olacak – çünkü kapsama boşlukları Birleşik Krallık’ın mevcut düzenleyici ortamının bir özelliği. Bu nedenle, bu yaklaşımı biraz daha genişletme önerisi, düzenleyici tutarsızlığın ortaya çıktığını ve hatta yapay zeka kullanımı tüm sektörlerde ölçeklendiğinde/patladığında daha da arttığını ima ediyor.
İşte yine Enstitü:
Birleşik Krallık ekonomisinin büyük bir bölümü şu anda düzenlenmemiştir veya yalnızca kısmen düzenlenmiştir. Aşağıdakileri içeren bu bağlamlarda YZ ilkelerini uygulamaktan kimin sorumlu olacağı belirsizdir: düzenlenmiş sektörlerde bile düzenleyiciler tarafından kapsamlı bir şekilde izlenmeyen işe alım ve istihdam gibi hassas uygulamalar; düzensiz bir düzenleyiciler ağı tarafından izlenen ve uygulanan eğitim ve polislik gibi kamu sektörü hizmetleri; yardım idaresi veya vergi kaçakçılığının tespiti gibi genellikle doğrudan düzenlenmeyen merkezi hükümet daireleri tarafından yürütülen faaliyetler; perakende gibi özel sektörün düzenlemeye tabi olmayan bölümleri.
“Yapay zeka her sektörde konuşlandırılıyor ve kullanılıyor, ancak Birleşik Krallık’ın yapay zeka için yaygın yasal ve düzenleyici ağı şu anda önemli boşluklara sahip. Koruma önlemlerinin ekonomi genelinde yayılmasını sağlamak için daha net haklara ve yeni kurumlara ihtiyaç var” dedi.
Hükümetin iddia ettiği “AI liderliği” pozisyonu için büyüyen bir başka çelişki de, ülkenin küresel bir AI güvenlik merkezi olma hedefinin, insanların verileri için yerel korumaları sulandırmaya yönelik tren içi çabalar tarafından – örneğin ne zaman korumaların düşürülmesi gibi – doğrudan baltalanmasıdır. deregülasyon yoluyla önemli ve/veya yasal etkiye sahip otomatik kararlara tabidirler. Veri Koruma ve Dijital Bilgi Yasası (No. 2).
Hükümet şimdiye kadar, AB’den türetilen veri koruma kural kitabını yırtıp atmaya yönelik en kafa sallayan Brexit yanlısı önerilerden kaçınmış olsa da (otomatik kararlar için korumayla ilgili olan) 22. Maddenin tamamını Birleşik Krallık’ın Genel Veri Koruma Yönetmeliğinden basitçe silmek gibi. Birleşik Krallık’ı küresel bir AI güvenlik merkezi haline getirme konusundaki yeni hedefine rağmen, vatandaşların mevcut veri koruma yasası kapsamında çeşitli şekillerde yararlandığı koruma düzeyini düşürme planında ilerliyor.
“Birleşik Krallık’ta şu anda yürürlükte olan veri korumaya yönelik yasal çerçeve olan Birleşik Krallık GDPR’si, bireyleri ve toplulukları olası yapay zeka zararlarından korumak için hayati önem taşıyan korumalar sağlıyor. Mart 2023’te mevcut haliyle masaya yatırılan Veri Koruma ve Dijital Bilgi Yasası (No. 2), bu korumaları önemli ölçüde değiştiriyor,” diye uyarıyor Enstitü, örneğin Yasa Tasarısının birçok otomatik karar türü üzerindeki yasağı kaldırdığına işaret ederek – ve bunun yerine veri kontrolörlerinin, uygulamada daha düşük bir koruma seviyesi olduğunu iddia ettiği “bir bireyin karara itiraz etmesini sağlayacak önlemler gibi önlemler” almasını zorunlu kılmak.
“Hükümetin önerdiği çerçevenin mevcut mevzuata ve düzenleyicilere dayanması, veri koruma gibi temel düzenlemelerin yapay zekayı uygun şekilde yönetmesini daha da önemli hale getiriyor” diye devam ediyor. “Ada Lovelace Enstitüsü tarafından görevlendirilen yasal tavsiye… mevcut otomatik işleme korumalarının, kredi başvurusu gibi günlük hizmetlerle etkileşimde bulunan kişilere pratikte yeterli koruma sağlamayabileceğini öne sürüyor.”
Rapor, “Toplu olarak ele alındığında, Yasa Tasarısındaki değişiklikler, Hükümetin yapay zeka için düzenleyici önerilerini daha da baltalama riski taşıyor” diye ekliyor.
Bu nedenle Enstitünün ilk tavsiyesi, hükümetin rVeri koruma reform tasarısının “hesap verebilirlik çerçevesindeki değişiklikler gibi yapay zekanın güvenli bir şekilde geliştirilmesini, konuşlandırılmasını ve kullanılmasını baltalaması muhtemel” unsurları düşünün. Ayrıca, hükümetin diğer yasal boşlukları doldurmak ve insanlar için yeni haklar ve korumalar getirmek amacıyla Birleşik Krallık yasalarındaki mevcut haklara ve korumalara bakmak için incelemesini genişletmesini tavsiye ediyor.e gerektiğinde yapay zekanın verdiği kararlardan etkilenir.
Rapordaki diğer tavsiyeler arasında, düzenleyicilere “sıkı şeffaflık ve hesap verebilirlik yükümlülükleri” de dahil olmak üzere yukarıda belirtilen ilkelere uymaları için yasal bir görev getirilmesi ve yapay zeka ile ilgili zararların üstesinden gelmeleri için onlara daha fazla fon/kaynak sağlanması yer alıyor; dahil olmak üzere düzenleyiciler için ortak bir dizi yetkinin getirilmesini araştırıyor. önceden, geliştirici odaklı düzenleme yeteneği; ve hükümetin, yapay zekadan olumsuz şekilde etkilenen insanları desteklemek için bir yapay zeka ombudsmanının kurulup kurulmayacağına bakması gerektiği.
Enstitü ayrıca hükümetin yapay zeka ve sorumlulukla ilgili yasayı netleştirmesini tavsiye ediyor. AB’nin şimdiden önde olduğu başka bir alan.
Enstitü, OpenAI’nin ChatGPT’si gibi üretken yapay zeka araçları etrafındaki viral vızıltı sayesinde son zamanlarda Birleşik Krallık hükümetinin özel ilgi ve dikkatini toplayan bir alan olan temel model güvenliği konusunda da hükümetin daha ileri gitmesi gerektiğine inanıyor ve Birleşik Krallık merkezli geliştiricilere şu tavsiyelerde bulunuyor: düzenleyicilerin çok hızlı hareket eden bir teknolojinin zirvesinde kalmasını kolaylaştırmak için temel modellere zorunlu raporlama gereklilikleri verilmelidir.
Hatta OpenAI, Google DeepMind ve Anthropic gibi önde gelen temel model geliştiricilerin, kendileri (veya birlikte çalıştıkları herhangi bir alt işleyici) yeni modellerin büyük ölçekli eğitimlerine başladıklarında hükümete bildirimde bulunmaları gerektiğini önermektedir.
“Bu, Hükümete AI yeteneklerindeki ilerlemeler hakkında erken bir uyarı sağlayarak, politika yapıcıların ve düzenleyicilerin habersiz kalmak yerine bu gelişmelerin etkisine hazırlanmalarına olanak tanıyacaktır.” modelleri eğitmek için kullanılan veriler; kurum içi denetimlerden elde edilen sonuçlar; ve tedarik zinciri verileri.
Diğer bir öneri ise, hükümetin yapay zeka Ar-Ge’sindeki eğilimlere ilişkin kendi anlayışını desteklemek için küçük pilot projelere yatırım yapmasıdır.
Ada Lovelace Enstitüsü müdür yardımcısı Michael Birtwistle yaptığı açıklamada rapor bulgularını yorumlayarak şunları söyledi:
Hükümet, Birleşik Krallık’ın AI düzenlemesinde dünya lideri olmak için eşsiz bir fırsata sahip olduğunu ve başbakanın bu konudaki küresel liderliği için takdir edilmesi gerektiğini haklı olarak kabul etmektedir. Bununla birlikte, Birleşik Krallık’ın AI düzenlemesi konusundaki güvenilirliği, Hükümetin kendi ülkesinde dünya lideri bir düzenleyici rejim sunma becerisine dayanmaktadır. Uluslararası koordinasyona yönelik çabalar memnuniyetle karşılanmakla birlikte yeterli değildir. Hükümet, AI konusunda ciddiye alınmak ve küresel emellerine ulaşmak istiyorsa, yerel düzenleme önerilerini güçlendirmelidir.
kim kimdir ne zaman nasıl nelerdir nedir ne işe yarar tüm bilgiler
dünyadan ilginç ve değişik haberler en garip haberler burada