AI işleri ortadan kaldırırken, insanları finansal olarak ayakta tutmanın bir yolu (bu UBI değil)

Silikon Vadisi’ndeki en parlak beyinlerden bazıları, insanlara sınırsız nakit ödeme garantisi veren evrensel bir temel gelirin (UBI) onların hayatta kalmalarına ve gelişmelerine yardımcı olacağına inanıyor çünkü ileri teknolojiler beyaz yakalı ve yaratıcı rollerden – avukatlar, gazeteciler, sanatçılar, yazılım mühendisleri — işçilik işleri. Fikir yeterince ilgi gördü düzinelerce 2020’den beri ABD şehirlerinde garantili gelir programları başlatılmıştır.

Yine de OpenAI’nin CEO’su ve en yüksek profilli şirketlerden biri olan Sam Altman bile taraftarlar UBI, bunun tam bir çözüm olduğuna inanmıyor. sırasında söylediği gibi oturmak Bu yılın başlarında, “Bence bu, çözümün küçük bir parçası. Bence harika. bence [advanced artificial intelligence] ekonomiye giderek daha fazla katılıyorsa, zenginliği ve kaynakları sahip olduğumuzdan çok daha fazla dağıtmalıyız ve bu da zamanla önemli olacaktır. Ama bunun sorunu çözeceğini sanmıyorum. Bunun insanlara anlam vereceğini düşünmüyorum, insanların yeni şeyler yaratmaya ve yapmaya çalışmaktan tamamen vazgeçecekleri anlamına geldiğini düşünmüyorum. Bu nedenle, bunu toplum için bir plan olarak değil, kolaylaştırıcı bir teknoloji olarak görüyorum.”

Akıllara takılan soru, bu durumda toplum için bir planın nasıl görünebileceği ve sanal gerçeklik alanının kurucularından bilgisayar bilimcisi Jaron Lanier, bu haftaki sayısında yazıyor. New Yorklu değilse, “veri saygınlığının” tek bir çözüm olabileceğini the cevap.

Temel önerme şu: Şu anda verilerimizi çoğunlukla ücretsiz hizmetler karşılığında ücretsiz veriyoruz. Lanier, bunu yapmayı bırakmamızın her zamankinden daha önemli hale geleceğini, güvendiğimiz “dijital şeylerin” – kısmen sosyal ağlar ama aynı zamanda OpenAI’nin GPT-4’ü gibi giderek artan şekilde yapay zeka modellerinin – “insanlarla bağlantılı” olmasının her zamankinden daha önemli hale geleceğini savunuyor. ilk etapta onlara yutmaları için çok şey veren.

Buradaki fikir, insanların “büyük modeller aracılığıyla filtrelenip yeniden birleştirildiğinde bile yarattıklarının karşılığını alması”.

Lanier, veri saygınlığı kavramını ilk kez 2018 Harvard Business Review makalesinde, “Daha İyi Bir Dijital Toplum İçin Bir Taslak” O sırada ortak yazar ve ekonomist Glen Weyl ile yazdığı gibi, “[R]teknoloji sektöründen gelen hetorik, yapay zeka (AI) ve otomasyon nedeniyle yaklaşan bir eksik istihdam dalgası” ve “insanlara giderek daha fazla değersiz ve ekonomik temsilcilikten yoksun muamelesi yapılan bir gelecek” öneriyor.

Ancak evrensel temel gelir savunucularının “retoriği” “yalnızca iki sonuca yer bırakıyor” ve aşırı olduklarını gözlemlediler. “Ya teknolojik gelişmelere rağmen kitlesel bir yoksulluk olacak ya da vatandaşlara evrensel bir temel gelir sağlamak için bir sosyal servet fonu aracılığıyla çok sayıda servet merkezi, ulusal kontrol altına alınmak zorunda kalacak.”

Ancak ikisi de “gücü aşırı yoğunlaştırın ve veri oluşturucuların değerini baltalayın veya görmezden gelin” diye yazdı.

Elbette, dünyada var olan her şeye sayısız katkıları için insanlara doğru miktarda kredi vermek küçük bir zorluk değildir (biri yapay zeka denetim girişimlerinin bu sorunu çözmeyi vaat ettiğini hayal etse bile). Lanier, veri saygınlığı araştırmacılarının bile, yapay zeka modellerinin özümsediği her şeyi nasıl çözecekleri veya bir muhasebenin ne kadar ayrıntılı denenmesi gerektiği konusunda anlaşamadıklarını kabul ediyor.

Ama -belki de iyimser bir tavırla- bunun kademeli olarak yapılabileceğini düşünüyor. “Sistem, büyük modellere çevresel katkılarda bulunan milyarlarca insanı, örneğin bir modelin simüle dilbilgisi yetkinliğine katkıda bulunanları hesaba katmaz. [It] yalnızca belirli bir durumda ortaya çıkan az sayıdaki özel katılımcıya ilgi gösterebilir.” Ancak zamanla, “ara hak örgütleri -sendikalar, loncalar, meslek grupları vb.- rol oynamaya başladıkça daha fazla insan dahil edilebilir.”

“Sistemlerin daha şeffaf hale getirilmesi gerektiğine inanan Lanier, elbette, daha acil olan zorluğun mevcut AI araçlarının kara kutu doğası olduğunu söylüyor. İçlerinde neler olup bittiğini ve neden olduğunu söylemekte daha iyi olmamız gerekiyor.”

OpenAI, önceki yıllarda eğitim verilerinin en azından bir kısmını yayınlamış olsa da, o zamandan beri kimonoyu tamamen kapattı. Gerçekten de, Greg Brockman TechCrunch’a geçen ay söyledi Bugüne kadarki en son ve en güçlü büyük dil modeli olan GPT-4’ün eğitim verilerinin “kamuya açık kişisel bilgileri içerebilecek çeşitli lisanslı, oluşturulmuş ve herkese açık veri kaynaklarından” geldiğini, ancak sunmayı reddetti daha spesifik bir şey.

OpenAI olarak belirtilmiş GPT-4’ün piyasaya sürülmesinden sonra, çok fazla şeyi ifşa etmenin çok fazla dezavantajı var. “GPT-4 gibi büyük ölçekli modellerin hem rekabet ortamı hem de güvenlik üzerindeki etkileri göz önüne alındığında, bu rapor mimari (model boyutu dahil), donanım, eğitim hesaplaması, veri kümesi oluşturma, eğitim yöntemi veya benzerleri hakkında daha fazla ayrıntı içermiyor.”

Aynısı şu anda her büyük dil modeli için de geçerlidir. Örneğin, Google’ın Bard sohbet robotu, Infiniset adlı internet içeriğine dayalı veri kümeleri üzerinde eğitilen LaMDA dil modelini temel alır. çok az şey biliniyorbir yıl önce olmasına rağmen, Google’ın araştırma ekibi yazdı 2,97 milyar belge ve 13,39 milyar ifade ile 1,12 milyar diyalog içerdiğini.

Özellikle teknolojisi orman yangını gibi yayılan OpenAI, daha fazla şeffaflıktan hoşlanmadığı için şimdiden düzenleyicilerin hedefinde. İtalyan makamı ChatGPT’nin kullanımını engelledi ve Fransız, Alman, İrlandalı ve Kanadalı veri düzenleyicileri de ChatGPT’nin verileri nasıl topladığını ve kullandığını araştırıyor.

Ancak, daha önce Google’ın yapay zeka etiği eş başkanı olan Hugging Face girişiminde yapay zeka araştırmacısı ve baş etik bilimcisi Margaret Mitchell olarak, Teknoloji İncelemesini anlatırbu noktada bireylerin verilerini tespit etmek ve modellerinden çıkarmak neredeyse imkansız olabilir.

Satış noktası tarafından açıklandığı gibi: “Şirket, en başından itibaren sağlam veri kaydı tutma sistemi kurarak kendisini büyük bir baş ağrısından kurtarabilirdi,” diyor. Bunun yerine, yapay zeka endüstrisinde, web’i gelişigüzel bir şekilde kazıyarak ve ardından yinelenenleri veya alakasız veri noktalarını kaldırma, istenmeyen şeyleri filtreleme ve yazım hatalarını düzeltme işini dışarıdan temin ederek yapay zeka modelleri için veri kümeleri oluşturmak yaygındır. Bu yöntemler ve veri setinin çok büyük boyutu, teknoloji şirketlerinin modellerini eğitmek için neler yaptıklarına dair çok sınırlı bir anlayışa sahip oldukları anlamına geliyor.”

Bu, New Yorker yazısında Altman’ı “meslektaş ve arkadaş” olarak nitelendiren Lanier’in teklifine bariz bir meydan okuma.

İmkansız hale getirip getirmediğini yalnızca zaman gösterecek.

İnsanlara işlerinin mülkiyetini vermeyi istemenin kesinlikle bir değeri vardır; OpenAI ve diğerlerinin algoritmalarını beslemek için tüm interneti kazıma hakkına sahip olup olmadığı zaten çeşitli ve geniş kapsamlı telif hakkı ihlali davaları onlara karşı

Lanier, büyüleyici New Yorker yazısında, sözde veri haysiyetinin, insanların akıl sağlığını korumada da uzun bir yol kat edebileceğini öne sürüyor.

Evrensel temel gelir, “yapay zeka kara kutusu fikrini korumak için herkesi işe almak anlamına gelirken”, “mevcut yapay zeka modellerimizin kara kutu niteliğini” sona erdirmek, insanların katkılarının muhasebesini kolaylaştıracak ve onları daha fazla yapacaktır. katkı sağlamaya devam etmesi muhtemeldir.

Lanier, “yeni bir bağımlı sınıf yerine yeni bir yaratıcı sınıf oluşturmaya” da yardımcı olabileceğini ekliyor.

kim kimdir ne zaman nasıl nelerdir nedir ne işe yarar tüm bilgiler
dünyadan ilginç ve değişik haberler en garip haberler burada