VB Transform 2023 oturumlarını görüntülemek için isteğe bağlı kitaplığımıza gidin. Buradan Kaydolun
Daha önce öğrenmiş olduğunuz bir şeyi bilerek unutmaya çalıştığınız oldu mu? Ne kadar zor olacağını tahmin edebilirsiniz.
Görünen o ki, makine öğrenimi (ML) modellerinin bilgileri unutması da zor. Peki bu algoritmalar güncel olmayan, yanlış veya özel veriler üzerinde eğitildiğinde ne olur?
Orijinal veri kümesiyle ilgili her sorun ortaya çıktığında modeli sıfırdan yeniden eğitmek son derece pratik değildir. Bu, AI’da makine adı verilen yeni bir alanın gerekliliğine yol açtı. öğrenmeyi unutmak.
İle yeni davalar Her geçen gün dosyalanıyormuş gibi görünen makine öğrenimi sistemlerinin bilgileri verimli bir şekilde “unutma” ihtiyacı işletmeler için en önemli hale geliyor. Algoritmaların birçok alanda inanılmaz derecede yararlı olduğu kanıtlanmıştır, ancak bilgilerin unutulmamasının mahremiyet, güvenlik ve etik açısından önemli sonuçları vardır.
Yapay zeka (AI) sistemlerine unutmayı öğretme sanatı olan makine öğreniminin yeni ortaya çıkan alanına daha yakından bakalım.
Makine öğrenimini geri almayı anlama
Şimdiye kadar anlamış olabileceğiniz gibi, makine öğrenimini geri alma, belirli veri kümelerinin bir makine öğrenimi sistemi üzerindeki etkisini silme işlemidir.
Çoğu zaman, bir veri kümesiyle ilgili bir endişe ortaya çıktığında, bu, veri kümesini değiştirme veya basitçe silme durumudur. Ancak verilerin bir modeli eğitmek için kullanıldığı durumlarda işler zorlaşabilir. Makine öğrenimi modelleri temelde kara kutulardır. Bu, eğitim sırasında belirli veri kümelerinin modeli nasıl etkilediğini tam olarak anlamanın zor olduğu ve sorunlu bir veri kümesinin etkilerini geri almanın daha da zor olduğu anlamına gelir.
ChatGPT’nin yaratıcıları OpenAI, defalarca ateş altına girmek modellerini eğitmek için kullanılan verilerle ilgili. Bir dizi üretken AI sanat aracı da yasal savaşlarla karşı karşıya eğitim verileriyle ilgili.
Üyelik çıkarım saldırıları bunun olduğunu gösterdikten sonra gizlilik endişeleri de gündeme geldi. çıkarım yapmak mümkün Bir modeli eğitmek için belirli verilerin kullanılıp kullanılmadığı. Bu, modellerin, verileri onu eğitmek için kullanılan bireyler hakkında potansiyel olarak bilgi açığa çıkarabileceği anlamına gelir.
Makine öğrenimini geri alma, şirketleri mahkeme dışında tutmasa da, endişe konusu veri kümelerinin tamamen kaldırıldığını göstermek için savunmanın savunmasına kesinlikle yardımcı olacaktır.
Mevcut teknolojiyle, bir kullanıcı veri silme talebinde bulunursa, tüm modelin yeniden eğitilmesi gerekir ki bu çok pratik değildir. Veri kaldırma isteklerini işlemek için verimli bir yola duyulan ihtiyaç, geniş çapta erişilebilir yapay zeka araçlarının ilerlemesi için zorunludur.
Makine öğrenmesinin mekaniği
Öğrenilmemiş bir model üretmenin en basit çözümü, sorunlu veri kümelerini belirlemek, bunları hariç tutmak ve tüm modeli sıfırdan yeniden eğitmektir. Bu yöntem şu anda en basit yöntem olsa da, aşırı derecede pahalı ve zaman alıcıdır.
Son tahminler bir makine öğrenimi modelinin eğitiminin şu anda yaklaşık 4 milyon dolara mal olduğunu gösteriyor. Hem veri seti boyutundaki hem de hesaplama gücü gereksinimlerindeki artış nedeniyle, bu sayı yükseleceği tahmin ediliyor 2030 yılına kadar 500 milyon dolara ulaşacak.
“Kaba kuvvet” yeniden eğitim yaklaşımı, olağanüstü koşullar altında son çare olarak uygun olabilir, ancak sihirli bir çözüm olmaktan çok uzaktır.
Makine öğreniminin çelişkili hedefleri zorlu bir sorun teşkil ediyor. Özellikle, yüksek verimlilikte yapılması gereken, yardımcı programı korurken kötü verileri unutmak. Yeniden eğitimden daha fazla enerji kullanan bir makine öğrenimini geri alma algoritması geliştirmenin bir anlamı yok.
Makine öğrenmesinin ilerlemesi
Tüm bunlar, etkili bir öğrenmeyi unutma algoritması geliştirmeye yönelik ilerleme olmadığı anlamına gelmez. Makine öğrenimini geri almanın ilk sözü şu tarihte görüldü: 2015’ten bu kağıtBirlikte takip kağıdı Yazarlar, pahalı yeniden eğitim olmadan bir makine öğrenimi sisteminde artımlı güncellemelere izin veren bir sistem önermektedir.
2019 tarihli bir makale eğitim prosedüründeki veri noktalarının etkisini stratejik olarak sınırlayarak öğrenmeden vazgeçme sürecini hızlandıran bir çerçeve sunarak makine öğrenmeden çıkarma araştırmasını ilerletir. Bu, belirli verilerin performans üzerinde minimum olumsuz etkiyle modelden çıkarılabileceği anlamına gelir.
Bu 2019 makalesi ayrıca ağı “temizlemek” için bir yöntemin ana hatlarını çizer ağırlıklar Orijinal eğitim veri setine erişim olmadan belirli bir eğitim verisi seti hakkındaki bilgilerin temizlenmesi. Bu yöntem, ağırlıkları inceleyerek unutulan verilerle ilgili içgörüleri önler.
Bu 2020 kağıdı parçalama ve dilimleme optimizasyonlarına yönelik yeni yaklaşımı tanıttı. Parçalama, bir veri noktasının etkisini sınırlamayı hedeflerken dilimleme, parçanın verilerini daha fazla böler ve artımlı modelleri eğitir. Bu yaklaşım, öğrenme sürecini hızlandırmayı ve yoğun akılda tutmayı ortadan kaldırmayı amaçlar.
2021 araştırması modelin doğruluğunu korurken mevcut yöntemlere kıyasla daha fazla veri örneğini modelden öğrenemeyen yeni bir algoritma sunar. Daha sonra 2021’dearaştırmacılar, silme işlemleri yalnızca modelin çıktısına dayandığında bile, modellerde veri silme işlemini ele almak için bir strateji geliştirdi.
Terimin 2015 yılında tanıtılmasından bu yana, çeşitli araştırmalar giderek daha verimli ve etkili öğrenmeyi bırakma yöntemleri önermiştir. Önemli adımlar atılmasına rağmen, henüz tam bir çözüm bulunamamıştır.
Makine öğrenmeden çıkarmanın zorlukları
Gelişmekte olan herhangi bir teknoloji alanında olduğu gibi, genellikle nereye gitmek istediğimize dair iyi bir fikrimiz var, ancak oraya nasıl gideceğimiz konusunda harika bir fikrimiz yok. Makine öğrenimini geri alma algoritmalarının karşılaştığı zorluklardan ve sınırlamalardan bazıları şunlardır:
- Yeterlik: Herhangi bir başarılı makine öğrenimini geri alma aracı, modelin yeniden eğitilmesinden daha az kaynak kullanmalıdır. Bu hem hesaplama kaynakları hem de harcanan zaman için geçerlidir.
- Standardizasyon: Şu anda, makine öğrenimini geri alma algoritmalarının etkinliğini değerlendirmek için kullanılan metodoloji, her araştırma parçası arasında değişiklik göstermektedir. Daha iyi karşılaştırmalar yapabilmek için standart metriklerin tanımlanması gerekir.
- Etki: Bir makine öğrenimi algoritmasına bir veri kümesini unutması talimatı verildiğinde, onu gerçekten unuttuğundan nasıl emin olabiliriz? Sağlam doğrulama mekanizmalarına ihtiyaç vardır.
- Mahremiyet: Makine öğrenimini geri alma, unutma çabalarında hassas verileri istemeden tehlikeye atmamasını sağlamalıdır. Unlearning sürecinde veri izlerinin geride kalmamasını sağlamak için özen gösterilmelidir.
- Uyumluluk: Makine öğrenimini geri alma algoritmaları ideal olarak mevcut makine öğrenimi modelleriyle uyumlu olmalıdır. Bu, çeşitli sistemlere kolayca uygulanabilecek şekilde tasarlanmaları gerektiği anlamına gelir.
- ölçeklenebilirlik: Veri kümeleri büyüdükçe ve modeller daha karmaşık hale geldikçe, makine öğrenimini geri alma algoritmalarının eşleşecek şekilde ölçeklenebilmesi önemlidir. Büyük miktarda veriyi işlemeleri ve potansiyel olarak birden fazla sistem veya ağda öğrenme görevlerini gerçekleştirmeleri gerekir.
Tüm bu konuların ele alınması önemli bir zorluk teşkil etmektedir ve istikrarlı bir ilerleme sağlamak için sağlıklı bir denge bulunmalıdır. Bu zorlukların aşılmasına yardımcı olmak için şirketler, AI uzmanlarından, veri gizliliği avukatlarından ve etik uzmanlarından oluşan disiplinler arası ekipler çalıştırabilir. Bu ekipler, potansiyel risklerin belirlenmesine ve makine öğrenmeden çıkarma alanında kaydedilen ilerlemenin izlenmesine yardımcı olabilir.
Makine öğreniminin geleceği
Google son zamanlarda ilan edildi ilk makine öğrenimini geri alma mücadelesi. Bu, şimdiye kadar belirtilen sorunları çözmeyi amaçlamaktadır. Google, özellikle öğrenme algoritmaları için değerlendirme metriklerini birleştirmeyi ve standartlaştırmayı ve soruna yeni çözümler geliştirmeyi umuyor.
Belirli bireylerin mahremiyetini korumak için belirli eğitim verilerini unutması gereken bir yaş tahmin aracı olarak kabul edilen yarışma, Temmuz ayında başladı ve 2023 Eylül ayının ortasına kadar devam ediyor. Modellerinde kullanılan verilerle ilgili endişeleri olabilecek işletme sahipleri için sonuçlar, Bu rekabetin kesinlikle dikkat etmeye değer.
Google’ın çabalarına ek olarak, AI ve ML şirketlerine karşı sürekli olarak açılan davalar, şüphesiz bu kuruluşlar içinde harekete geçecektir.
İleriye baktığımızda, makine öğrenmeden çıkarmanın hesaplama taleplerini desteklemek için donanım ve altyapıdaki gelişmeleri tahmin edebiliriz. Gelişimi kolaylaştırmaya yardımcı olabilecek disiplinler arası işbirliğinde bir artış olabilir. Hukuk uzmanları, etikçiler ve veri gizliliği uzmanları, öğrenmeyi unutma algoritmalarının gelişimini uyumlu hale getirmek için yapay zeka araştırmacılarıyla güçlerini birleştirebilir.
Ayrıca, makine öğrenmeden geri almanın yasa yapıcıların ve düzenleyicilerin dikkatini çekmesini ve potansiyel olarak yeni politika ve düzenlemelere yol açmasını beklemeliyiz. Veri gizliliği sorunları manşetlere çıkmaya devam ettikçe, artan kamu bilinci, makine öğrenmeden öğrenmenin geliştirilmesini ve uygulanmasını da öngörülemeyen şekillerde etkileyebilir.
İşletmeler için eyleme dönüştürülebilir içgörüler
Makine öğreniminden geri almanın değerini anlamak, büyük veri kümeleri üzerinde eğitilmiş yapay zeka modellerini uygulamak isteyen veya halihazırda uygulamış olan işletmeler için çok önemlidir. Bazı eyleme geçirilebilir içgörüler şunları içerir:
- İzleme araştırması: Son akademik ve endüstri araştırmalarına göz kulak olmak, eğrinin önünde kalmanıza yardımcı olacaktır. Google’ın makine öğrenimini geri alma yarışması gibi etkinliklerin sonuçlarına özellikle dikkat edin. Güncel içgörüler için yapay zeka araştırma bültenlerine abone olmayı ve yapay zeka düşünce liderlerini takip etmeyi düşünün.
- Veri işleme kurallarının uygulanması: Mevcut ve geçmiş veri işleme uygulamalarınızı incelemek çok önemlidir. Model eğitimi aşamasında her zaman şüpheli veya hassas verileri kullanmaktan kaçının. Verilerin uygun şekilde işlenmesi için prosedürler oluşturun veya süreçleri gözden geçirin.
- Disiplinlerarası ekipleri düşünün: Yapay zeka uzmanlarını, veri gizliliği hukukçularını ve etik uzmanlarını içerebilen çeşitli bir ekipten makine öğreniminin çok yönlü doğası yararlanır. Bu ekip, uygulamalarınızın etik ve yasal standartlarla uyumlu olmasını sağlamaya yardımcı olabilir.
- Yeniden eğitim maliyetlerini göz önünde bulundurun: En kötüsüne hazırlanmaktan asla zarar gelmez. Makine öğrenimini geri almanın ortaya çıkabilecek sorunları çözememesi durumunda yeniden eğitim maliyetlerini göz önünde bulundurun.
Yapay zeka modellerini eğitmek için büyük veri kümeleri kullanan tüm işletmeler için makine öğreniminden vazgeçmeye ayak uydurmak akıllı, uzun vadeli bir stratejidir. İşletmeler, yukarıda özetlenen stratejilerin bir kısmını veya tamamını uygulayarak, büyük yapay zeka modellerinin eğitiminde kullanılan veriler nedeniyle ortaya çıkabilecek sorunları proaktif olarak yönetebilir.
Son düşünceler
AI ve ML, dinamik ve sürekli gelişen alanlardır. Makine öğreniminden vazgeçme, bu alanların çok önemli bir yönü olarak ortaya çıktı ve bu alanların daha sorumlu bir şekilde uyum sağlamalarına ve gelişmelerine olanak tanıyor. Modellerin kalitesini korurken daha iyi veri işleme yetenekleri sağlar.
İdeal senaryo, en baştan doğru verileri kullanmaktır, ancak gerçek şu ki bakış açımız, bilgi ve gizlilik ihtiyaçlarımız zaman içinde değişir. Makine öğrenimini geri almanın benimsenmesi ve uygulanması işletmeler için artık isteğe bağlı değil, bir gerekliliktir.
Daha geniş bağlamda, makine öğreniminden vazgeçme, sorumlu yapay zeka felsefesine uyar. Şeffaf, hesap verebilir ve kullanıcı gizliliğine öncelik veren sistemlere duyulan ihtiyacın altını çiziyor.
Henüz ilk günler, ancak alan ilerledikçe ve değerlendirme ölçütleri standartlaştıkça, makine öğrenimini geri almanın uygulanması kaçınılmaz olarak daha yönetilebilir hale gelecektir. Ortaya çıkan bu trend, düzenli olarak makine öğrenimi modelleri ve büyük veri kümeleriyle çalışan işletmeler için proaktif bir yaklaşımı garanti ediyor.
Matthew Duffin bir makine mühendisi, özel bir blog yazarı ve kurucusudur. Nadir Bağlantılar.
DataDecisionMakers
VentureBeat topluluğuna hoş geldiniz!
DataDecisionMakers, veri işini yapan teknik kişiler de dahil olmak üzere uzmanların verilerle ilgili içgörüleri ve yenilikleri paylaşabileceği yerdir.
En yeni fikirler ve güncel bilgiler, en iyi uygulamalar ile veri ve veri teknolojisinin geleceği hakkında okumak istiyorsanız DataDecisionMakers’ta bize katılın.
düşünebilirsin bile makale katkıda bulunmak senin!
kim kimdir ne zaman nasıl nelerdir nedir ne işe yarar tüm bilgiler
dünyadan ilginç ve değişik haberler en garip haberler burada