Ana Sayfa Kritik Yapay Zeka Sosyolojisi Notları: Yapay Zekanın Ayrımcılığı ve Yanılabilirliği

Yapay Zeka Sosyolojisi Notları: Yapay Zekanın Ayrımcılığı ve Yanılabilirliği

Yapay Zeka Sosyolojisi Notları: Yapay Zekanın Ayrımcılığı ve Yanılabilirliği

Yapay zekanın ayrımcılığı ve yanılabilirliği, bir başka yapay zeka sosyolojisi konusu.(1) Çekik gözleri ya da koyu tenleri tanımayan gümrük teknolojileri ilk akla gelen örnek. Bir diğeri, işe alımlarda yapılan ayrımcılıkları yapay zekanın da benimsemesi, çünkü sonuçta beslenilen veri ayrımcı. Sözgelimi, kadınların ‘geleneksel’ olarak alınmadığı önceki işe alım süreçlerinin verileriyle beslenen yapay zeka aynı ayrımcılıkları yapıyor. Üçüncü bir örnek, yapay zekanın hukuk alanındaki kullanımlarındaki tehlikeler: Önceki ırkçı mahkeme kararlarıyla beslenen yapay zeka, ırkçı kararlar öneriyor.

Algoritma Adaletsizliği

Nelson (2019), başka örnekler de veriyor: Diyelim ki, hemşirelik işi için bir algoritma yalnızca beyaz kadınları seçiyor. Bir deri kanseri testi, koyu tenlerde çalışmıyor. Bir hemşirelik programı, yoksul hastalara zenginmiş gibi davranıp onları ödeyemeyecekleri seçeneklere yöneltiyor. Sağlığa erişimdeki eşitsizlikler de veriye yansıyor: Üstünlüksüz (disadvantaged) gruplarda daha çok eksik veri var (Parikh, Teeple, & Navathe, 2019). Nasıl ki toplumsal adaletsizlikler nedeniyle, üstünlüksüz kesimler sisteme/demokrasiye güvenlerini yitiriyorlar, aynısı yapay zeka karşısında da geçerli (Woodruff ve ark., 2018). Ayrımcılık, yapay zekaya duyulan heyecanı doğal olarak söndürüyor.

Veri Demokrasisi ve Algoritma Yanlılığı

Görüldüğü gibi yapay zeka, ‘veri demokrasisi’ olarak adlandırılan kurucu temel öğenin yokluğunda, varolan eşitsizlikleri ve adaletsizlikleri çeşitlendiriyor. Artık bu duruma karşılık gelen bir terim de var: Algoritma yanlılığı. Algoritma yanlılığı, algoritmanın uygulanmasında sosyoekonomik statü, etnik köken, inanç, cinsiyet, engellilik ve cinsel yönelimdeki eşitsizlikleri vb. büyütmeye ve eşitsizlikleri böylelikle katlamaya karşılık geliyor (Panch, Mattie ve Atun, 2019). Eşitsizliklerin başka biçimleri olabileceği de akılda tutulmalı.

Veri Adaleti ve Algoritma Adaleti

Böylelikle, yapay zeka, kaçınılmaz bir biçimde insan haklarıyla ilişkilendiriliyor (Ntoutsi ve ark., 2020). Algoritmalarda insan haklarını çiğneyen ‘birşeyler’ var. Sorunlar toplumsal olduğuna göre, çözüm yalnızca teknolojide aranmamalı (Ntoutsi ve ark., 2020); çözüm, veri adaletinde ya da algoritma adaletinde (bkz. Kleinberg ve ark., 2018)… Veri adaleti ise, tanımlanması zor bir kavram; en az 20 tanımı bulunuyor ve değişik ülkelerle hukuk sistemlerine göre farklılık gösteriyor (Ntoutsi ve ark., 2020). Klasik fakat birçok sorunu çözmeyen bir tanım, veri üretiminde ayrımcılığın olmaması biçiminde (bkz. Xu ve ark., 2018). Oysa gerçek yaşamda, Türkçe’ye yanlış biçimde ‘pozitif ayrımcılık’ ya da ‘olumlu ayrımcılık’ diye çevrilen olumlayıcı ya da destekleyici edimler (affirmative action), adalet için gerekli görülüyor.(2) “Aynısı veri düzeyinde uygulanabilir mi, nasıl?” gibi bir çifte soru sormak gerekiyor (bkz. Saxena ve ark., 2019). “Veri mi algoritma mı adaletli olmalı?” sorusu da bizi bekliyor. ‘Fırsat eşitliği’ kavramı verilerle temsil edilenlere uygulanmalı belki de… Üstünlüklüler (advantaged) için geçerli olan olumlu betimlemeler, ötekileştirilenler için de geçerli olmalı (Salimi ve ark., 2019).

Piramidin Tepesindekiler

Challen ve ark. (2019), sağlıkta yapay zekanın ayrımcılığını ve yanılabilirliğini engellemek için çeşitli soru-testler sunuyor: Örneğin, sistemin değişik nüfuslarda ve ortamlarda kullanılıp kullanılmadığı, yapay zekanın eğitimi için kullanılan verinin gerçek yaşamı ne derece yansıttığı, yanlılıklar ve yanılgılar saptandığında izlenecek yolların belli olup olmaması, yapay zekanın çıkardığı sonuçların kesinlik düzeyi, karar vericilerin yapay zekanın bulgu ve önerilerine daha olumlu bakmaları biçimindeki otomasyon yanlılığına karşı önlemler vb. (3) Ancak tüm bu önlemlerin ötesinde, “gerçek yaşamda egemen sınıflar demokrasi ister mi?” sorusunu sormak gerekiyor. Varolan ayrımcılıklar, sonuçta kimilerini piramidin tepesine çıkarıyor.

Kesişimsellik ve Dilsel Ayrımcılık

Yapay zeka uzmanları arasında kadınların oranı hâlâ istenilen düzeyde değil. Ayrıca, ‘kesişimsellik’ olarak adlandırılan kavram, işi iyice karmaşıklaştırıyor. Buna göre, bir kadın yalnızca bir kadın değil, aynı zamanda Beyaz/Siyah, Anglo/Latino, alt sınıf/üst sınıf vb. olabilir. Yalnızca tek bir kategoriden değil, kesişen kategorilerden katılım sağlanması gerekiyor. Bir diğer karmaşıklık, dildeki cinsiyet ayrımcılığından ileri geliyor (Leavy, 2018). Buna diğer ayrımcılıkları da katabiliriz. Sözgelimi, kalıpyargılar dilde iyice yerleşik nitelikte. Dolayısıyla, kullanılan dil bile yapay zekayı tek başına ayrımcılaştırabiliyor.

Sonuç: Yapay Zekanın İnsan Yapımı Olduğunu Anımsamak

Dolayısıyla, gelinen süreç, algoritma ve veri adaleti gibi kavramları öne çıkararak yapay zekayı eleştirel bir süzgeçten geçirmemizi gerektiriyor. Yapay zeka, kimi konularda insan zekasından üstün olabilir; ancak hâlâ insan hatalarıyla dolu verilere dayanıyor ve hatalarıyla nitelenen insansoyunun elinden çıkma algoritmalarla çalışıyor.

Dipnotlar

(1) Yapay zekanın ayrımcılığı ve sömürüyle ilişkisi için Sendika.org’daki Yapay Zeka dosyasına bakınız.

https://sendika64.org/2020/07/yapay-zeka-ozgurlestirecek-mi-kolelestirecek-mi-591885/

Yapay zekanın toplumsal etkilerinin ayrıntılı bir değerlendirilmesi için T24’te Hayri Cem’in yazılarına bakınız. https://t24.com.tr/yazarlar/hayri-cem-haftalik

  1. Bu yanlış çevirinin yarattığı kavramsal sorunlar ve uygulama sorunları için bkz. Gazi, F. (2020). ‘Pozitif ayrımcılık’ geri kalmışlığın gösterenidir’. Gazete Duvar, 12.10.2020.

  1. Otomasyon yanlılığı için bkz. Bond ve ark., 2018; Goddard, Roudsari & Wyatt, 2012.

Kaynakça

Bond, R. R., Novotny, T., Andrsova, I., Koc, L., Sisakova, M., Finlay, D., … & Leslie, S. J. (2018). Automation bias in medicine: The influence of automated diagnoses on interpreter accuracy and uncertainty when reading electrocardiograms. Journal of Electrocardiology, 51(6), S6-S11.

Challen, R., Denny, J., Pitt, M., Gompels, L., Edwards, T., & Tsaneva-Atanasova, K. (2019). Artificial intelligence, bias and clinical safety. BMJ Quality & Safety, 28(3), 231-237.

Goddard, K., Roudsari, A., & Wyatt, J. C. (2012). Automation bias: a systematic review of frequency, effect mediators, and mitigators. Journal of the American Medical Informatics Association, 19(1), 121-127.

Kleinberg, J., Ludwig, J., Mullainathan, S., & Rambachan, A. (2018, May). Algorithmic fairness. In Aea papers and proceedings (Vol. 108, pp. 22-27).

Leavy, S. (2018, May). Gender bias in artificial intelligence: The need for diversity and gender theory in machine learning. In Proceedings of the 1st international workshop on gender equality in software engineering (pp. 14-16).

Nelson, G. S. (2019). Bias in artificial intelligence. North Carolina Medical Journal, 80(4), 220-222.

Ntoutsi, E., Fafalios, P., Gadiraju, U., Iosifidis, V., Nejdl, W., Vidal, M. E., … & Kompatsiaris, I. (2020). Bias in data‐driven artificial intelligence systems—An introductory survey. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 10(3), e1356.

Panch, T., Mattie, H., & Atun, R. (2019). Artificial intelligence and algorithmic bias: implications for health systems. Journal of global health, 9(2), 1-5.

Parikh, R. B., Teeple, S., & Navathe, A. S. (2019). Addressing bias in artificial intelligence in health care. Jama, 322(24), 2377-2378.

Salimi, B., Rodriguez, L., Howe, B., & Suciu, D. (2019, June). Interventional fairness: Causal database repair for algorithmic fairness. In Proceedings of the 2019 International Conference on Management of Data (pp. 793-810).

Saxena, N. A., Huang, K., DeFilippis, E., Radanovic, G., Parkes, D. C., & Liu, Y. (2019, January). How do fairness definitions fare? Examining public attitudes towards algorithmic definitions of fairness. In Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society (pp. 99-106).

Woodruff, A., Fox, S. E., Rousso-Schindler, S., & Warshaw, J. (2018, April). A qualitative exploration of perceptions of algorithmic fairness. In Proceedings of the 2018 chi conference on human factors in computing systems (pp. 1-14).

Xu, D., Yuan, S., Zhang, L., & Wu, X. (2018, December). Fairgan: Fairness-aware generative adversarial networks. In 2018 IEEE International Conference on Big Data (Big Data) (pp. 570-575). IEEE.

HİÇ BİR ADIMI KAÇIRMAYIN

EK Dergi Mail Bültenine Katıl