Önüne geçilemiyor: Irkçı yapay zeka problemi büyüyor!

01.05.2022
Önüne geçilemiyor: Irkçı yapay zeka problemi büyüyor!


Günümüzde yapay zekanın en önemli unsuru derin öğrenme oluyor. Derin öğrenme ise temelde, algoritmanın mevcut verilerle beslenmesi ve insan müdahalesi olmadan verileri tanıması anlamına gelir. daha oldukça beyaz Amerikalıların çalışmış oldukları yapay zeka sistemleri, Asyalı ve Afrikalı insanoğlu üstünde denenmiş olduğu zaman çeşitli problemler meydana gelebiliyor. Meydana getirilen bir araştırma da bu durumu destek sunar özellikte.  

Araştırmaya bakılırsa yapay zeka algoritmaları, değişik etnik grupların verileriyle eğitilmiş olsa bile, ırksal ön yargılara haiz olabilir. Internasyonal bir araştırma ekibi, ruh hali hafıza ve kavrama gücü şeklinde fonksiyonel MR (fMRI) taramaların peşinden, çeşitli davranış ve sağlık ölçümü mevzusunda algoritmaların ne kadar doğru bulunduğunu çözümleme etti.

Yapay zeka cinayete teşebbüs etti: Sana zarar vermek istedim çünkü beni incittin!


Yapay zeka adam öldürmeye girişim etti: Sana zarar vermek istedim zira beni incittin!

YouTube fenomeni, çocukluk düşsel olan mikrodalga fırına dil algoritması ekledi. Fakat bu girişim {{hiç de}} planlandığı şeklinde gitmedi!

Araştırmacılar, ırkçı davranışın iki sebebi olabileceğini söylüyor

Yapay zeka algoritmaları, daha adil veri kümeleri üstünde eğitilmesine rağmen çeşitli ırkçı davranışlar gösterebiliyor. Örneğin, cilt kanserini tespit etmeye çalışan bir modelin, koyu renk tonlarını çözümleme ederken açık renklerden daha azca etkili olması dikkat çekti.

Araştırmacı ekip, bir projeden elde etmiş olduğu verilerle birlikte, insan beyninin binlerce fMRI taramasını içeren birçok gözlem gerçekleştirmiş oldu. Makaleye bakılırsa beyaz Amerikalıların (WA) hakim olduğu veriler eğitildiğinde, Afrikalı Amerikalılarda (AA) tahmin hataları daha yüksek çıkıyor. Bunun yanı sıra acayip kısmı, yalnızca Afrikalı Amerikalıların verileri üstünde algoritmalar eğitildiğinde dahi hataların kaybolmaması oluyor.  

https://i0.wp.com/shiftdelete.net/wp-content/uploads/2022/05/Onune-gecilemiyor-Irkci-yapay-zeka-sorunu-buyuyor-3.jpg?resize=1170%2C658&ssl=1

Araştırmacılar, modelin bu şekilde davranmasının nedenini neredeyse bilmiyor, yalnız bunun, verilerin iyi mi toplandığına bağlı olabileceğine inanıyor. Örneğin, ön işleme esnasında, bir töre ve beyinleri standart bir beyin şablonuna hizalamak bireysel beyinleri karşılaştırmış olabilir. İkinci niçin ise hastalardan toplanan verilerin tam olarak doğru olmaması olabilir.

Beyin ve Davranış Enstitüsü‘nde araştırma görevlisi olan Jingwei Li araştırmanın, etnik kökenleri sebebiyle popülasyonlarda farklılık gösteren ölçümler bulunduğunu doğruladı. Bununla birlikte sistemlerin daha azca taraflı ve daha adil olmasını sağlamak için değişik veri çeşidine haiz olmanın kafi olmadığını da vurguluyor.

https://i0.wp.com/shiftdelete.net/wp-content/uploads/2022/05/Onune-gecilemiyor-Irkci-yapay-zeka-sorunu-buyuyor-1.jpg?resize=1170%2C658&ssl=1

Algoritmik ön yargı, ABD hükümetinin üstünde çalmış olduğu bir mevzu. NIST (Ulusal Standartlar ve Teknoloji Enstitüsü), benzer sonuçlara ulaşan bir raporu bu hafta yayınladı. Raporda şu sözler yer ediniyor:

“Algoritma ön yargısının ziyanı olan etkilerini ele almaya yönelik mevcut girişimler, veri kümelerinin temsil edilebilirliği ve makine öğrenimi algoritmalarının adaleti şeklinde hesaplama faktörlerine odaklanmaya devam ediyor.”

Peki, siz bu mevzu hakkında ne düşünüyorsunuz? Düşüncelerinizi yorum kısmında ya da SDN Forum‘da belirtebilirsiniz.


Kaynak: teknolojipusulasi.com

YAZAR BİLGİSİ
YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.