Microsoft, metin ve görüntüleri denetlemek için yeni AI aracını başlattı

Microsoft, daha güvenli çevrimiçi ortamları ve toplulukları desteklemek için tasarlandığını söylediği yapay zeka destekli yeni bir moderasyon hizmetini başlatıyor.

Azure AI ürün platformu aracılığıyla sunulan Azure AI İçerik Güvenliği adlı yeni teklif, görüntüler ve metin genelinde “uygunsuz” içeriği algılamak için eğitilmiş bir dizi AI modeli sunar. İngilizce, İspanyolca, Almanca, Fransızca, Japonca, Portekizce, İtalyanca ve Çince metinleri anlayabilen modeller, işaretlenen içeriğe bir önem derecesi atayarak moderatörlere hangi içeriğin işlem gerektirdiğini belirtir.

“Microsoft, iki yılı aşkın bir süredir çevrimiçi topluluklarda ortaya çıkan zararlı içerik sorununa yanıt olarak çözümler üzerinde çalışıyor. Microsoft sözcüsü e-posta yoluyla, “Mevcut sistemlerin bağlamı etkili bir şekilde hesaba katmadığını veya birden çok dilde çalışamadığını fark ettik” dedi. “Yeni [AI] modeller, içeriği ve kültürel bağlamı çok daha iyi anlayabilir. En başından beri çok dillidirler… ve kullanıcıların içeriğin neden işaretlendiğini veya kaldırıldığını anlamalarına olanak tanıyan açık ve anlaşılır açıklamalar sağlarlar.”

Microsoft’un yıllık Yapı konferansındaki bir demo sırasında, Microsoft’un yapay zekadan sorumlu lideri Sarah Bird, Azure AI İçerik Güvenliğinin Microsoft’un sohbet robotuna güç veren güvenlik sisteminin ürün haline getirilmiş bir sürümü olduğunu açıkladı. Bing Ve yardımcı pilotGitHub’ın yapay zeka destekli kod oluşturma hizmeti.

Bird yaptığı açıklamada, “Artık bunu üçüncü taraf müşterilerin kullanabileceği bir ürün olarak piyasaya sürüyoruz” dedi.

Muhtemelen, Azure AI Content Safety’nin arkasındaki teknoloji, Şubat ayı başında Bing Chat için ilk kez kullanıma sunulduğundan bu yana gelişmiştir. Bing Chat, önizlemede ilk kullanıma sunulduğunda kontrolden çıktı; bizim kapsama Adolf Hitler’in perspektifinden aşı hakkında yanlış bilgi veren ve nefret dolu bir yazı yazan sohbet robotunu buldu. Diğer muhabirler tehditlerde bulunmalarını ve hatta uyardıkları için onları utandırmalarını sağladı.

Başka vur Microsoft’a karşı, şirket sadece birkaç ay önce daha büyük yapay zeka organizasyonu içindeki etik ve toplum ekibini işten çıkardı. Bu hareket, Microsoft’u yapay zeka ilkelerinin ürün tasarımına yakından bağlı olmasını sağlamak için özel bir ekipten yoksun bıraktı.

Tüm bunları bir an için bir kenara bırakırsak, Microsoft’a göre önyargılı, cinsiyetçi, ırkçı, nefret dolu, şiddet içeren ve kendine zarar veren içeriğe karşı koruma sağlayan Azure AI İçerik Güvenliği, Microsoft’un tamamen yönetilen, kurumsal odaklı ürünü olan Azure OpenAI Service ile entegre edilmiştir. ek yönetim ve uyumluluk özellikleriyle işletmelere OpenAI teknolojilerine erişim sağlamayı amaçlamaktadır. Ancak Azure AI İçerik Güvenliği, çevrimiçi topluluklar ve oyun platformları gibi AI olmayan sistemlere de uygulanabilir.

Fiyatlandırma, 1.000 görüntü başına 1,50 ABD Doları ve 1.000 metin kaydı başına 0,75 ABD Doları’ndan başlar.

Azure AI İçerik Güvenliği, aşağıdakiler de dahil olmak üzere diğer AI destekli toksisite algılama hizmetlerine benzer PerspektifGoogle’ın Kötüye Kullanıma Karşı Teknoloji Ekibi ve Jigsaw tarafından sürdürülür ve Microsoft’un kendisinin yerine geçer İçerik Moderatörü alet. (Microsoft’un 2021’de bir moderasyon içerik sağlayıcısı olan Two Hat’i satın alması üzerine inşa edilip edilmediğine dair bir bilgi yok.) Azure AI İçerik Güvenliği gibi bu hizmetler, yeni yorumların ve görsellerin diğerlerine ne kadar benzer olduğuna ilişkin sıfırdan 100’e kadar bir puan sunar. daha önce toksik olarak tanımlandı.

Ama onlardan şüphelenmek için sebep var. Bing Chat’in ilk tökezlemelerinin ve Microsoft’un kötü hedeflenen işten çıkarmalarının ötesinde, araştırmalar, AI toksisite algılama teknolojisinin, belirli kullanıcı alt kümelerine karşı önyargılar da dahil olmak üzere zorlukların üstesinden gelmek için hala mücadele ettiğini göstermiştir.

Birkaç yıl önce, Penn State’de bir ekip kurmak sosyal medyada engelli kişilerle ilgili gönderilerin, yaygın olarak kullanılan kamuoyu duyarlılığı ve toksisite tespit modelleri tarafından daha olumsuz veya zehirli olarak işaretlenebileceği. Başka çalışmakaraştırmacılar, Perspective’in eski sürümünün, “queer” gibi “geri kazanılmış” karalamalar ve eksik karakterler gibi yazım varyasyonları kullanan nefret söylemini genellikle tanıyamadığını gösterdi.

Sorun, hizmet olarak toksisite dedektörlerinin ötesine geçiyor. Bu hafta, bir New York Times rapor Siyahların görüntü analiz yazılımı tarafından yanlış bir şekilde goril olarak etiketlenmesiyle ilgili bir tartışmadan sekiz yıl sonra, teknoloji devlerinin hala hatayı tekrarlamaktan korktuğunu ortaya çıkardı.

Bu başarısızlıkların nedenlerinden biri, modellere örnek teşkil eden eğitim veri setlerine etiketler eklemekten sorumlu olan açıklama yapanların kendi önyargılarını ortaya koymalarıdır. Örneğin, kendini Afrikalı Amerikalı ve LGBTQ+ topluluğu üyesi olarak tanımlayan etiketçiler ile kendilerini bu iki gruptan biri olarak tanımlamayan yorumcular arasında ek açıklamalarda sıklıkla farklılıklar vardır.

Microsoft, bu sorunlardan bazılarıyla mücadele etmek için Azure AI İçerik Güvenliği’ndeki filtrelerin bağlama göre ince ayarlanmasına izin verir. Kuş açıklıyor:

Örneğin, bir oyunda kullanılan “tepeden koş ve saldır” ifadesi, oyun sistemi orta düzeydeki içeriği engelleyecek şekilde yapılandırılmışsa orta düzeyde bir şiddet olarak kabul edilir ve engellenir. Orta düzeyde şiddeti kabul edecek bir ayarlama, modelin ifadeyi tolere etmesini sağlayacaktır.

Bir Microsoft sözcüsü, “Kültür, dil ve bağlamı dikkate alarak yönergeleri tanımlamak için çalışan bir dil ve adalet uzmanlarından oluşan bir ekibimiz var” diye ekledi. “Daha sonra yapay zeka modellerini bu yönergeleri yansıtacak şekilde eğittik… Yapay zeka her zaman bazı hatalar yapacak, [however,] bu nedenle, hataların neredeyse hiç olmamasını gerektiren uygulamalarda, sonuçları doğrulamak için döngüdeki bir insan kullanmanızı öneririz.”

Azure AI Content Safety’yi erken benimseyenlerden biri, 20’den fazla dil konuşan bir kullanıcı tabanına sahip, Bangalore, Hindistan merkezli bir blog platformu olan Koo’dur. Microsoft, memleri analiz etmek ve İngilizce dışındaki dillerdeki günlük nüansları öğrenmek gibi moderasyon sorunlarının üstesinden gelmek için Koo ile ortaklık kurduğunu söylüyor.

Azure AI İçerik Güvenliği’ni piyasaya sürülmeden önce test etme şansı bize sunulmadı ve Microsoft, ek açıklama veya önyargı azaltma yaklaşımlarıyla ilgili soruları yanıtlamadı. Ancak Azure AI Content Safety’nin vahşi ortamda nasıl performans gösterdiğini yakından izleyeceğimizden emin olabilirsiniz.

Microsoft Build 2023 hakkında daha fazlasını okuyun

kim kimdir ne zaman nasıl nelerdir nedir ne işe yarar tüm bilgiler
dünyadan ilginç ve değişik haberler en garip haberler burada