Makine Öğrenmesi, Adil ve Hatasız Olabilir

Makine Öğrenmesi, Adil ve Hatasız Olabilir

Carnegie Mellon Üniversitesi(CMU) araştırmacıları, kamu politikası kararları almak için makine öğrenmesini kullanırken doğruluk ve adalet arasında bir değiş tokuş olduğuna dair uzun süredir devam eden bir varsayıma meydan okuyorlar.

Ceza sistemi, işe alma, sağlık hizmeti sunumu ve sosyal hizmet müdahaleleri gibi alanlarda makine öğrenmesinin kullanımı arttıkça, bu tür uygulamaların özellikle ırksal azınlıklar ve ekonomik dezavantajlı kişiler arasında yeni mi yoksa mevcut eşitsizlikleri mi arttırdığı konusunda endişeler arttı. Bu önyargıya karşı korunmak için verilerde, etiketlerde, model eğitiminde, puanlama sistemlerinde ve makine öğrenmesi sisteminin diğer yönlerinde ayarlamalar yapılır. Temel teorik varsayım, bu ayarlamaların sistemi daha az doğru hale getirmesidir.

Bir CMU ekibi, Nature Machine Intelligence’ta yakın zamanda yayınlanan yeni bir çalışmada bu varsayımı ortadan kaldırmayı hedefliyor. Bilgisayar Bilimleri Okulu’nun Makine Öğrenmesi Bölümü’nde ve Heinz Bilgi Sistemleri ve Kamu Politikası Koleji’nde profesör olan Rayid Ghani; ML’de bir araştırma bilimcisi olan Kit Rodolfa ve SCS’de doktora sonrası araştırmacı olan Hemank Lamba, bu varsayımı gerçek dünyadaki uygulamalarda test etmiş ve bir dizi politika alanında pratikte ödünleşimin ihmal edilebilir olduğunu bulmuştur.

Ghani, “Aslında ikisini de elde edebilirsiniz. Adil ve eşitlikçi sistemler oluşturmak için doğruluktan ödün vermek zorunda değilsiniz,” dedi. “Fakat bu, sistemleri bilinçli ve adil olacak şekilde tasarlamanızı gerektiriyor. Hazır sistemler çalışmaz.”

Ghani ve Rodolfa, talep edilen kaynakların sınırlı olduğu ve bu kaynakların tahsis edilmesine yardımcı olmak için makine öğrenmesi sistemlerinin kullanıldığı durumlara odaklanmıştır. Araştırmacılar sistemleri dört alanda incelediler; yeniden hapsedilmeyi azaltmak için bir kişinin hapse geri dönme riskine dayalı olarak sınırlı zihinsel sağlık hizmetlerine öncelik vermek; bir şehrin sınırlı konut müfettişlerini daha iyi görevlendirmek için ciddi güvenlik ihlallerini tahmin etmek; ek desteğe en çok ihtiyacı olanları belirlemek için öğrencilerin liseden zamanında mezun olamama riskini modellemek; öğretmenlerin sınıf ihtiyaçları için kitle fonlaması hedeflerine ulaşmalarına yardımcı olmak.

Araştırmacılar, her bağlamda doğruluk için optimize edilmiş modellerin (makine öğrenmesi için standart uygulama) ilgili sonuçları etkili bir şekilde tahmin edebildiğini, ancak müdahale önerilerinde önemli farklılıklar sergilediğini bulmuştur. Bununla birlikte, araştırmacılar, adaletlerini iyileştirmeyi hedefleyen modellerin çıktılarına düzeltmeler uyguladıklarında, ırk, yaş veya gelire dayalı eşitsizliklerin – duruma bağlı olarak – doğruluk kaybı olmadan ortadan kaldırılabileceğini keşfetmişlerdir.

Ghani ve Rodolfa, bu araştırmanın, karar vermede makine öğrenmesinin kullanımını düşündükleri için diğer araştırmacıların ve politika yapıcıların fikirlerini değiştirmeye başlayacağını ummaktadırlar.

Rodolfa, “Yapay zeka, bilgisayar bilimi ve makine öğrenmesi topluluklarının, doğruluk ve adalet arasındaki bu ödünleşim varsayımını kabul etmeyi bırakmasını ve bilerek her ikisini de en üst düzeye çıkaran sistemler tasarlamaya başlamasını istiyoruz,” demiştir. “Politika yapıcıların, adil sonuçlara ulaşmalarına yardımcı olmak için karar verme süreçlerinde makine öğrenmesini bir araç olarak benimsemelerini umuyoruz.”

Kaynak: techxplore.com

52 Kez Okundu

Yazar Hakkında

Hacer Demir

27 Nisan 1993’te Bursa’da doğdu. Uludağ Üniversitesi Çevre Mühendisliği Bölümü ve Anadolu Üniversitesi Açıköğretim Fakültesi Marka İletişimi bölümü mezunu. UÜ Endüstri Mühendisliği Bölümü'nde yüksek lisans yapıyor. İlgi duyduğu alanlarda eğitim ve programlara katılmayı, yeni şeyler öğrenmeyi ve kendini geliştirmeyi seviyor. Yenilikçi haberleri takip etmeyi ve çeviri yapmayı sevdiği için 2017 yılından bu yana İnovatif Kimya Dergisi ekibinde yer alıyor.

Kopyalamak Yasaktır!