OpenAI, DeepMind ve Anthropic, İngiltere’ye AI güvenlik araştırması için temel modellere erken erişim sağlayacak

İngiltere hükümetinin açıklamasının ardından geçen hafta Bu sonbaharda “küresel” bir yapay zeka güvenlik zirvesine ev sahipliği yapmayı planladığını açıklayan başbakan Rishi Sunak, Londra Teknoloji Haftası’nı başka bir haberle başlattı – konferans katılımcılarına OpenAI, Google DeepMind ve Anthropic’in “erken veya öncelikli erişim” sağlamayı taahhüt ettiğini söyledi. ” değerlendirme ve güvenlik araştırmalarını desteklemek için yapay zeka modellerine.

Sunak, yapay zeka devlerinin bir dizi müdahalesinin ardından son haftalarda yapay zeka güvenliği konusuna daha hızlı bir geçiş yaptı. varoluşsal ve hatta yok olma düzeyindeki riskler hakkında uyarı teknoloji, uygun şekilde düzenlenmezse poz verebilir.

“Son teknoloji yapacağız [AI] burada, Birleşik Krallık’ta güvenlik araştırması,” diye söz verdi Sunak bugün. “Uzman görev gücümüz için 100 milyon £ ile, AI güvenliğine diğer tüm hükümetlerden daha fazla fon ayırıyoruz.

Bu yapay zeka güvenlik görev gücü, yapay zeka temel modellerine odaklanacak. hükümet de dedi.

Sunak, “Sınır laboratuvarları olan Google DeepMind, OpenAI ve Anthropic ile çalışıyoruz” diye ekledi. “Daha iyi değerlendirmeler yapmak ve bu sistemlerin fırsatlarını ve risklerini daha iyi anlamamıza yardımcı olmak için araştırma ve güvenlik amaçlarıyla modellere erken veya öncelikli erişim vermeyi taahhüt ettiklerini duyurmaktan memnuniyet duyuyorum.”

Başbakan ayrıca, çabayı iklim değişikliğiyle mücadelede küresel katılım sağlamayı amaçlayan COP İklim konferanslarına benzetmeye çalışarak, yaklaşan AI güvenlik zirvesine ilişkin daha önce yaptığı duyuruyu yineledi.

“Tıpkı iklim değişikliğiyle mücadele etmek için COP aracılığıyla birleştiğimiz gibi, Birleşik Krallık da bu yıl içinde ilk küresel AI Güvenliği Zirvesi’ne ev sahipliği yapacak.” , küresel yapay zeka güvenlik yönetmeliği.”

AI güvenliğini yaymak, Sunak’ın hükümeti için belirgin bir vites değişikliğidir.

yakın zamanda Mart tam yapay zeka amigo modundaydı – beyaz bir kağıtta “bir AI düzenlemesine yenilik yanlısı yaklaşım”. Makalede belirtilen yaklaşım, birkaç “esnek ilke” belirlemek yerine yapay zeka için ısmarlama yasalara (veya özel bir AI bekçi köpeğine) duyulan ihtiyaçtan kaçınarak güvenlik endişelerini küçümsedi. Hükümet ayrıca yapay zeka uygulamalarının gözetiminin, antitröst gözlemcisi ve veri koruma kurumu gibi mevcut düzenleyici kurumlar tarafından yürütülmesi gerektiğini önerdi.

Birkaç ay hızlı ilerleyin ve Sunank şimdi Birleşik Krallık’ın küresel bir AI güvenlik gözlemcisine ev sahipliği yapmasını istemek açısından konuşuyor. Ya da en azından, öğrenme algoritmalarının çıktılarının nasıl değerlendirileceğine ilişkin araştırmalara hakim olarak Birleşik Krallık’ın yapay zeka güvenliği tartışmasına sahip olmasını istiyor.

Üretken yapay zekadaki hızlı gelişmeler, bir dizi teknoloji devinin ve yapay zeka endüstrisi figürlerinin teknolojinin kontrolden çıkabileceği konusunda uyardığı kamuoyu açıklamalarıyla birleştiğinde, Downing Caddesi’nde hızlı bir strateji yeniden düşünmesine yol açmış gibi görünüyor.

Yapay zeka devlerinin Son haftalarda bizzat Sunak’ın kulağını bükmekBaşbakan ile OpenAI, DeepMind ve Anthropic’in CEO’ları arasında hükümetin AI hakkındaki ruh hali müziği değişmeden kısa bir süre önce yapılan toplantılarla.

Yapay zeka devlerinden oluşan bu üçlü, Birleşik Krallık’a modellerine gelişmiş erişim sağlama taahhütlerine bağlı kalırsa, ülkenin, algoritmik şeffaflığı zorunlu kılan herhangi bir yasal gözetim rejimi dönmeden önce de dahil olmak üzere, etkili değerlendirme ve denetim teknikleri geliştirmeye yönelik araştırmalara liderlik etme şansı vardır. (Avrupa Birliği’nin Yapay Zeka Yasası taslağının örneğin 2026’ya kadar yasal olarak yürürlüğe girmesi beklenmiyor; ancak AB’nin Dijital Hizmetler Yasası zaten yürürlükte ve halihazırda bazı algoritmik şeffaflık teknoloji devlerinden).

Aynı zamanda, Birleşik Krallık’ın, gelişmekte olan AI güvenlik çabalarının endüstri tarafından ele geçirilmesine karşı kendisini savunmasız hale getirme riski de var. Ve yapay zeka devleri, sistemlerine seçici erişim sağlayarak yapay zeka güvenlik araştırmaları etrafındaki sohbete hakim olursa, işletmeleri için geçerli olacak gelecekteki Birleşik Krallık yapay zeka kurallarını şekillendirmek için iyi bir konuma sahip olabilirler.

Yapay zeka teknoloji devlerinin, kendilerine yasal olarak bağlayıcı herhangi bir yapay zeka güvenlik çerçevesi uygulanmadan önce ticari teknolojilerinin güvenliğine yönelik kamu tarafından finanse edilen araştırmalara yakın katılımı, en azından yapay zeka güvenliğine nasıl bakıldığını ve hangi bileşenlerin, konuların ve konuların çerçeveleneceğini gösteriyor. temalara öncelik verilir (ve bu nedenle önemsizleştirilir). Ve ne tür bir araştırmanın gerçekleştiğini etkileyerek, ne kadar erişim sağladıklarına bağlı olabilir.

Bu arada yapay zeka etik uzmanları, “süper zeki” yapay zekaların insanlar için oluşturabileceği risklere ilişkin manşetlere konu olan korkuların, önyargı ve ayrımcılık, mahremiyetin kötüye kullanılması, telif hakkı ihlali ve çevresel kaynak dahil olmak üzere mevcut yapay zeka teknolojilerinin hâlihazırda ürettiği gerçek dünya zararlarına ilişkin tartışmaları bastırdığı konusunda uzun süredir uyarıyorlar. sömürü.

Bu nedenle Birleşik Krallık hükümeti, yapay zeka devlerinin katılımını bir PR darbesi olarak görse de, yapay zeka zirvesi ve daha geniş yapay zeka güvenliği çabaları sağlam ve güvenilir sonuçlar verecekse, bağımsız araştırmacıların, sivil toplum gruplarının ve gruplarının katılımını sağlamalıdır. orantısız bir şekilde otomasyondan zarar görme riskiyle karşı karşıya, yalnızca “parlak yapay zeka şirketleri” ile yerel akademisyenler arasındaki ortaklık planını ilan etmekle kalmıyor – verilen akademik araştırma zaten genellikle teknoloji devlerinin finansmanına bağımlıdır.


kim kimdir ne zaman nasıl nelerdir nedir ne işe yarar tüm bilgiler
dünyadan ilginç ve değişik haberler en garip haberler burada

Yorum yapın