ABD'de yapay zeka uzmanlarının %80’i erkek, Google gibi dünyanın en büyük yapay zeka geliştiricilerinden birinin çalışanlarının %98’i beyaz.

KÜLTÜR

Yapay Zeka Ayrımcı Olabilir Mi?

Bankaların müşteri hizmetlerinde bizi karşılamaya başlayan sesli yanıt sistemleri, Netflix’in bize önerdiği filmler ve birçok uygulama alanıyla yapay zeka gündelik yaşantımıza girdi. Kaybolacak meslekler, iş gücünün dönüşümü, veri güvenliği gibi birçok konu tartışılırken sizce yapay zeka ayrımcı olabilir mi? Ayrımcılık subjektif bir karar olarak dururken makineler ayrımcı olabilir mi gerçekten?

Yapay zekanın ırkçı, seksist ve cisnormatif olabildiğini hatta belki de böyle olmasının şimdilik kaçınılmaz olduğunu görmek için örneklere bakmak yeterli olacaktır.

Yapay zekanın en yaygın kullanıldığı ülke olan Amerika’da polis teşkilatı Predpol isimli bir yazılım kullanıyor. Yazılım daha önce ülke çapında toplanan verilere göre suç noktalarını tespit ederek bu noktalarda önlemleri artırarak suç oranlarını düşürmeyi hedefliyor. Yazılım polislere hep afro-amerikan bölgeleri suç noktası olarak gösteriyor. Polis, yapay zekanın kendisine sunduğu sonuçlara dayanarak bu bölgelere arama noktaları ve ekstra devriyeler koyuyor. Bu uygulamayla birlikte siyahilerin yoğunlukta yaşadığı bölgelerde polis terörü tırmandırılmaya devam ediyor.

Northpointe adında bir firma tarafından yazılan COMPAS uygulaması, hangi suçluların tekrar suç işleyeceğini tahmin etmek için bir risk skoru hesaplıyor. Zaten ırkçı bir sistem olan Amerikan hapishane sisteminden gelen verilerle çalışan COMPAS, koyu tenli suçluları beyaz suçlulara göre iki katı riskli olarak etiketliyor. Beyazlar tekrar suç işlemiş olsalar dahi program tarafından risk skorları koyu ten renklilere göre daha düşük olarak belirleniyor. Şartlı tahliye mahkemeleri gibi birçok yerde kullanılması mümkün olan bu uygulamayla ilgili tartışmalar devam etse de kullanıma sıcak bakanlar oldukça fazla sayıda bulunuyor.

 

2014 yılında İngiltere, vize işlemleri sırasında istenen İngilizce sınavında sahtekarlık yaptıkları gerekçesiyle 7000 yabancı öğrenciyi sınırdışı etti, ardından bunun algoritmanın hatası olduğu ortaya çıktı. Ancak bu sırada öğrenciler evlerinden ve işlerinden oldular, okulları uzadı. Bu skandala rağmen İngiltere hükümeti programın ırkçı olmadığını münferit bir hatanın yaşandığını söyledi.

 

Konu sadece zaten ırkçı olan devletlerin yapay zeka uygulamaları ile ırkçılığa devam etmeleri ile de sınırlı değil. Sağlık sektöründe kullanılmaya başlanan uygulamalarda da durum iç açıcı değil. Kanserin erken teşhisini kolaylaştırmak amacıyla yazılan algoritmalar, yapılan testler sonucunda insanların kansere yatkın olup olmadığını belirliyorlar. 2019 yılında sonuçlarda hatalar olduğu ortaya çıkmaya başladı. Hatalı sonuçlar incelemeye başlandığında, sağlık hizmetlerine erişimi düşük olan arap, siyahi ve asyalı insanlara ait verilerin veri kümesinde ayrık veri (outlier removal) olarak değerlendirilerek hariç tutulduğu ortaya çıktı. Şimdilik hayati bir risk teşkil etmeyen bu hatanın algoritmaların kullanım alanları genişledikçe sağlıkta ne gibi sonuçlara sebebiyet vereceğini tahmin etmek zor değil.

 

Konu sadece ırkçılık da değil. Ülkemizde özellikle havaalanı güvenlik noktalarında kullanılan x-ray cihazları eğer ikili cinsiyet sistemine uygun vücut yapısına sahip değilseniz sizi her seferinde şüpheli olarak gösteriyor. X-ray kabinini girdiğinizde güvenlik görevlileri dış görünümünüze göre kadın veya erkek seçimi yapıyor. Bu noktadan sonra cisnormatif sisteme ‘uygun’ değilseniz anormal olarak belirleniyor ve detaylı aramaya maruz kalıyorsunuz. 

 

 

Örnekleri, Amazon’un işe alımlarda kullandığı sistem ile kadınlara ait özgeçmişleri elemesi, kredi skoru hesaplayan programların aynı gelir düzeyine sahip kadınları erkeklere göre daha az miktarlarda kredi verilebilir olarak belirlemesi gibi çoğaltmak mümkün.

 

Peki, suç yapay zekanın mı?

 

Konuyu devletlerin ve birçok şirketin yaptığı gibi algoritmanın münferit hatası olarak görmek oldukça yanlıştır. Irkçı, seksist ve cisnormatif sistemin yapay zeka eliyle devamlılığı temelde iki sebebe dayanıyor.

 

Yapay zeka algoritmaları geçmiş verilere göre karar vermeyi öğrenirler. Şu an yazılmakta olan algoritmalarda kullanılan geçmiş verileri bir düşünelim. Devletlerin ırkçı politikaları sonucunda hemen hemen her ülkede göçmenlere ait gözaltı ve tutuklama verileri daha fazla. İş gücünde başarılı çalışan olarak belirlenen veriler, çoğunlukla beyaz erkeklere ait. Sağlık sistemine erişim anlamında Amerika’da, beyazlara ait sağlık verileri daha fazla. Algoritmaların çoğunlukla Amerika’daki şirketler tarafından yazıldığını hesaba katacak olursak beyaz erkeklere ait verilerle algoritmaların ‘öğrendiği’ ve karar verdiğini tespit etmek çok da zor değil. Yani ayrımcı dünyanın ayrımcı verileri ayrımcı yapay zeka algoritmalarına sebebiyet vermekte.

 

Ayrımcılığın henüz test aşamasında fark edilemeyerek İngiltere örneğinde olduğu gibi insanların hayatlarını etkileyen problemlere sebebiyet verdikten sonra fark edilmesi de şüphesiz ki teknolojinin kimin elinde şekillendiği ile ilgili. ABD’de yapay zeka uzmanlarının %80’i erkek, Google gibi dünyanın en büyük yapay zeka geliştiricilerinden birinin çalışanlarının %98’i beyaz. Hal böyle olunca ezilenleri görmeyen ya da ‘anormal’ olarak gören yapay zekanın ayrımcı sonuçlarını elimine etmesi gerekenler de bizatihi ayrımcılığın sürdürücüleri olduğundan yapay zeka ayrımcılığa devam ediyor.

 

Yapay zeka ayrımcılığını engellemek mümkün mü?

 

Bu konuya dair dünyada tartışmalar yeni yeni başladığı için birçok önerme olmasına rağmen kesin bir reçete yazmak imkan dahilinde değil.

 

Veri kümelerinde homojenliğin sağlanması ilk akla gelen çözüm olsa da bunun uygulanabilirliği tartışmalı bir noktada duruyor. Sağlık araştırmalarında veri homojenliğinin sağlanabilmesi için sağlık hizmetlerine eşit erişim olması gerekiyor. Bunun yanı sıra veri güvenliği hala çok temel bir tartışma olarak önümüzde duruyor. Ön tanı algoritmalarının araştırılması için kullanılan verilerin çoğu aynı zamanda sigorta şirketlerine satılarak, hastalık şüphesi olan insanlara daha yüksek primler uygulanması gibi birçok amaç için kullanılıyor. Bu noktada her kesimden veri toplanması için bir talepte bulunmak veri güvenliği sebebiyle anlamlı bir noktada durmuyor. 

 

Ayrıca ırkçı, seksist ve cisnormatif uygulamalardan herhangi bir rahatsızlık duymayan şirketler ve devletlerin veri kümelerinin homojen hale getirilmesi ile ilgili bir gündemi de bulunmuyor.

 

Bir diğer tartışma yapay zeka dizayn prensipleri belirlenerek uygulamaların ayrımcılığının engellenmesi yönünde. Denetleme kuruluşlarının kurularak uygulamaların bu kriterlere göre denetlenmesi ve kullanılması konusunda çalışmalar yapılıyor.

 

Üniversiteler, farkındalık yaratmak için yapay zekanın etiği konulu müfredat çalışmaları yapıyor. Akademi, bu konudaki farkındalığın artırılarak tasarım aşamasında görev alan geliştiricilerin algoritmalar kullanılmaya başlanmadan önce cisnormatif, cinsiyet ve ırk temelli ayrımcılığa sebebiyet verilip verilmediğinin kontrol etmesini hedefliyor. Bu kontroller şimdilik insan temelli kontrolleri hedefliyor. 

 

Yapay zekanın ayrımcılığı sermayenin sorunu değil, ezilenlerin sorunu. Yürütülen tartışmalar konunun özünde kapitalist sistemin ayrımcılığını görmezden gelerek etik tartışmaları ile bunun çözülebileceği ekseninde dönüyor. Şüphesiz ki bu gerçekçi bir çözüm önerisi değil. Ancak bu tartışmalar ezilenler cephesinden yürütülmediği sürece tartışmanın bu sığlıkta kalacağı da ortada. Yapay zekanın hayatın her alanına gireceği günlerin çok uzakta olmadığını kabullenip, bir an önce bu tartışmaları bir köşesinden yakalamak gerekiyor. Çünkü önümüzde yepyeni ve büyük bir mücadele alanı doğmakta. 

 

 

Kaynaklar:

  1. https://medium.com/thoughts-and-reflections/racial-bias-and-gender-bias-examples-in-ai-systems-7211e4c166a1
  2. https://economictimes.indiatimes.com/blogs/et-commentary/biased-ai-lets-face-it/
  3. https://jods.mitpress.mit.edu/pub/costanza-chock/release/4
  4. https://medium.com/pcmag-access/healthcare-algorithms-are-biased-and-the-results-can-be-deadly-da11801fed5e
  5. https://medium.com/@atibhiagrawal/removing-bias-in-ai-isnt-enough-it-must-take-intersectionality-into-account-e5e92e76233c
  6. https://www.independent.co.uk/news/uk/politics/home-office-mistakenly-deported-thousands-foreign-students-cheating-language-tests-theresa-may-a8331906.html

 

YAZARIN DİĞER YAZILARI

Bir de bunlar var

Kağnı Hızında
Erkekler İçin Dizayn Edilmiş Bir Dünya – 2
Yanlış Teşhislerin Mağduru Hastalar – Peki Sorumlusu Kim?

Pin It on Pinterest