Başka bir manşetlere konu olan yapay zeka politikası müdahalesine yol açın: OpenAI CEO’su Sam Altman ve DeepMind CEO’su Demis Hassabis’ten kıdemli yapay zeka bilgisayar bilimcisi Geoffrey Hinton’a, MIT’den Max Tegmark ve Skype ortaklarına kadar yüzlerce yapay zeka bilim adamı, akademisyen, teknoloji CEO’su ve kamuya mal olmuş kişi Kurucu Jaan Tallinn’den müzisyen ve popülist podcast sunucusu Sam Harris’e, varoluşsal AI riskine küresel dikkati çeken bir açıklamaya isimlerini ekledi.
internet sitesinde yer alan açıklama, İnternet sitesi adı verilen, San Francisco merkezli, özel olarak finanse edilen, kar amacı gütmeyen bir kuruluşun Yapay Zeka Güvenliği Merkezi (CAIS), yapay zeka riskini nükleer kıyametin yol açtığı varoluşsal zararlarla eşitlemeye çalışıyor ve politika yapıcılara dikkatlerini ‘kıyamet günü’ yok olma düzeyindeki yapay zeka riski olduğunu iddia ettikleri şeyi hafifletmeye odaklamaları çağrısında bulunuyor.
İşte onların (kasıtlı olarak kısa) açıklamalarının tamamı:
AI kaynaklı yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır.
CAIS’in web sitesindeki kısa bir açıklayıcıya göre, açıklama “özlü” tutuldu çünkü arkasındakiler, “gelişmiş yapay zekanın en ciddi risklerinden bazıları” hakkındaki mesajlarının diğer “önemli ve acil AI riskleri” tartışmasıyla boğulmasını önlemekle ilgileniyorlar. Bununla birlikte, yok olma düzeyindeki AI riski hakkında tartışmanın önüne geçtiğini ima ediyorlar.
Bununla birlikte, OpenAI’nin ChatGPT ve DALL-E gibi üretken AI araçlarına genişletilmiş erişimin ardından AI yutturmacasının artmasıyla birlikte, son aylarda aynı endişelerin yüksek sesle ve birçok kez dile getirildiğini duyduk. “süper zeki” öldürücü yapay zekaların riski hakkında ilgi çekici bir tartışma. (Örneğin Bu, bu ayın başlarında, bildiriyi imzalayan Hinton’un yapay zekanın kontrolü ele geçirmesinin “varoluşsal tehdidi” konusunda uyardığı yerden. Veya BuAltman’ın yapay zekanın insanlığı yok etmesini önlemek için düzenleme çağrısı yaptığı geçen haftadan.)
Elon Musk (ve diğerlerinin) tarafından imzalanan açık mektup da vardı. Mart Paylaşılan güvenlik protokollerinin geliştirilip gelişmiş yapay zekaya uygulanmasına zaman tanımak için OpenAI’nin GPT-4’ünden daha güçlü yapay zeka modellerinin geliştirilmesine altı aylık bir ara verilmesi çağrısında bulunan “hiç kimsenin göremediği kadar güçlü dijital zihinlerin” oluşturduğu riskler konusunda uyarıda bulundu. – yaratıcıları bile – anlayamaz, tahmin edemez veya güvenilir bir şekilde kontrol edemez “.
Bu nedenle, son aylarda, henüz var olmayan AI riskleri hakkında yoğun bir şekilde kamuoyuna duyurulan bir uyarı yağmuru oldu.
Histerik manşetlerin bu davul ritmi, muhtemelen dikkati mevcut zararların daha derin incelemesinden uzaklaştırdı. Araçların, izin veya izin (veya ödeme) olmaksızın AI sistemlerini eğitmek için telif hakkıyla korunan verileri ücretsiz olarak kullanması gibi; veya çevrimiçi kişisel verilerin insanların mahremiyetini ihlal edecek şekilde sistematik olarak kazınması; veya bu araçları eğitmek için kullanılan veriler karşısında yapay zeka devlerinin şeffaf olmaması. Ya da gerçekten de dezenformasyon (“halüsinasyon”) gibi kusurlarda ve önyargı (otomatikleştirilmiş ayrımcılık) gibi risklerde pişmiş. AI güdümlü spam’den bahsetmiyorum bile!
Birleşik Krallık başbakanı ile Altman ve Hassabis de dahil olmak üzere bir dizi büyük yapay zeka yöneticisi arasında geçen hafta yapılan bir toplantıdan sonra, hükümetin yapay zeka yönetmeliği konusundaki tavrını değiştiriyor gibi görünmesi kesinlikle dikkate değer – ani bir varoluşsal risk hevesiyle. Guardian’ın bildirdiği.
Data & Society’de araştırma direktörü Jenna Burrell’in bu son makalede işaret ettiği gibi, varoluşsal AI riskinden bahsetmek aynı zamanda dikkati piyasa yapısı ve hakimiyetle ilgili sorunlardan uzaklaştırıyor. Columbia Gazetecilik İncelemesi ChatGPT’nin medya kapsamını inceleyen makale – burada yapay zekanın potansiyel “duyarlılığı” gibi kırmızı ringalara odaklanmaktan uzaklaşarak yapay zekanın zenginliği ve gücü nasıl daha fazla yoğunlaştırdığını anlatmaya geçmemiz gerektiğini savundu.
Bu nedenle, elbette, yapay zeka devlerinin, yasa koyucuların zihinlerini daha temel rekabet ve antitröst mülahazalarından uzaklaştırmak için bir taktik olarak, yapay zeka güdümlü bir kıyamet gününden söz ederek düzenleyicilerin dikkatini çok uzak teorik geleceğe yönlendirmek istemeleri için açık ticari nedenler var. burada ve şimdi. Ve pazar gücünü yoğunlaştırma aracı olarak veri istismarı yeni bir şey değil.
OpenAI, DeepMind, Stability AI ve Anthropic dahil olmak üzere yapay zeka devlerindeki teknoloji yöneticilerinin, konu varoluşsal yapay zeka riskiyle ilgili konuşmaları alenen yükseltmek söz konusu olduğunda bir araya gelmekten ve gevezelik etmekten çok mutlu oldukları mevcut yapay zeka güç yapıları hakkında kesinlikle çok şey söylüyor. Ve araçlarının şu anda neden olduğu zararları tartışmak için bir araya gelme konusunda ne kadar suskunlar.
OpenAI, yukarıda belirtilen (Musk imzalı) açık mektuba imza atmayan kayda değer bir isimdi, ancak bazı çalışanları CAIS tarafından barındırılan bildiriyi destekliyor (Görünüşe göre Musk desteklemiyor). Bu nedenle, en son açıklama, Musk’ın varoluşsal AI risk anlatısını kendi çıkarları doğrultusunda kaçırma girişimine OpenAI (ve diğerleri) tarafından (resmi olmayan) ticari olarak kendi kendine hizmet eden bir yanıt sunuyor gibi görünüyor (bu, artık OpenAI’nin AI suçlamasına liderlik etmesini desteklemiyor).
OpenAI’nin üretici yapay zeka alanındaki liderliğini dondurma riskine yol açacak bir geliştirme duraklaması çağrısı yapan açıklama yerine, politika yapıcıları risk hafifletmeye odaklanmaları için kulis yapıyor – bunu OpenAI devredeyken yapıyor. “Yapay zekayı yönlendirmek için demokratik süreçleri” şekillendirmeye yönelik eş zamanlı kitlesel fonlama çabaları, Altman’ın dediği gibi. Bu nedenle şirket, gelecekteki hafifletme korkuluklarının şeklini etkilemek için kendisini aktif olarak konumlandırıyor (ve yatırımcılarının servetini kullanıyor).
Başka yerlerde, önceki mektubu imzalayan bazı kişiler, başka bir tanıtım fırsatını ikiye katlamaktan mutlu oldular – her ikisine de adlarını yazdırdılar (merhaba Tristan Harris!).
Ama CAIS kimdir? Bu mesajı barındıran kuruluş hakkında sınırlı genel bilgi var. Bununla birlikte, kendi kabulüyle, kesinlikle politika yapıcılar için lobi faaliyetlerinde yer almaktadır. Web sitesi, misyonunun “yapay zekadan kaynaklanan toplumsal ölçekteki riskleri azaltmak” olduğunu söylüyor ve kendini bu amaçla araştırma ve alan oluşturmayı teşvik etmeye adadığını, araştırmaya fon sağlamanın yanı sıra belirli bir politika savunuculuğu rolüne sahip olduğunu iddia ediyor.
Web sitesindeki bir SSS, onu finansal olarak kimin desteklediği hakkında sınırlı bilgi sunar (özel bağışlarla finanse edildiğini söyler). “CAIS bağımsız bir kuruluş mudur?” diye sorulan bir SSS sorusuna cevaben, “kamu yararına hizmet ettiği” şeklinde kısa bir iddia sunarken:
CAIS, tamamen özel katkılarla desteklenen kar amacı gütmeyen bir kuruluştur. Politikalarımız ve araştırma yönergelerimiz, bireysel bağışçılar tarafından belirlenmediğinden, odak noktamızın kamu yararına hizmet etmeye devam etmesidir.
Sorularla CAIS’e ulaştık.
İçinde twitter dizisi Bildirinin lansmanına eşlik eden CAIS direktörü Dan Hendrycks, yukarıda bahsedilen açıklamayı genişleterek “sistemik önyargı, yanlış bilgi, kötü niyetli kullanım, siber saldırılar ve silahlandırma”yı “yapay zekadan kaynaklanan önemli ve acil riskler” olarak adlandırıyor… yok olma tehlikesi”.
“Bunların hepsi ele alınması gereken önemli riskler” diyor ve politika yapıcıların yapay zeka zararlarını ele almak için sınırlı bant genişliğine sahip olduğu endişelerini hafife alıyor: “Toplumlar aynı anda birden fazla riski yönetebilir; “ya/ya da” değil, “evet/ve”dir. Risk yönetimi açısından bakıldığında, yalnızca mevcut zararlara öncelik vermek nasıl pervasızlık olacaksa, onları görmezden gelmek de pervasızlık olacaktır.”
Konu aynı zamanda, yapay zeka riski hakkında tek cümlelik bir ifadeye sahip olma ve onun geliştirilmesine “müştereken” yardımcı olma fikrini bulan Cambridge Üniversitesi’nde Bilgisayar Bilimi yardımcı doçenti David Krueger’a da itibar ediyor.
kim kimdir ne zaman nasıl nelerdir nedir ne işe yarar tüm bilgiler
dünyadan ilginç ve değişik haberler en garip haberler burada