Yapay zekâ sistemleri “öğrenmek” için veriye ihtiyaç duyar ve veri denen şey de geçmişin bir temsilidir. Geçmiş pratiklerimizi dikte eden normlarımıza eleştirel açıdan bakmadan, verilerin yansıttığı güç dengelerini incelemeden, yapay zekâ sistemlerinden mucizevi sonuçlar beklemek şaşırtıcı değil mi?
Yapay zekâ teknolojilerinin ne kadar ekonomik büyüme getirmesinin beklendiğine ya da yeni ilaç geliştirmede ve kanser tanısı koymada ne kadar başarılı olabileceğine dair haberler duymuş olabilirsiniz. Kimi kaynaklarca ortaya konan bu potansiyelin yanı sıra yapay zekâ teknolojilerinin var olan eşitsizlik ve adaletsizlikleri artırabileceği; örneğin ırkçı ve cinsiyetçi sonuçlar doğurabileceği de son yıllarda oldukça gündemde olan bir konu. Bunun en bilinen örneklerinden biri dünyanın en kazançlı e-ticaret şirketi Amazon’un işe alım süreçlerinde cinsiyet kökenli ayrımcılığı önlemek için kullanıp kısa bir süre sonra kullanımdan kaldırdığı yapay zekâ sistemi. İşe alımda ayrımcılığı azaltacağı inancıyla kullanılmaya başlanan yapay zekâ sistemi, şirketin geçmiş verileriyle “eğitildiği” için, kadınların işe alımını kolaylaştırmak yerine içinde “kadın” geçen ya da kadınlarla ilişkili öğeler bulunduran özgeçmişleri filtrelediği anlaşılınca kullanımdan kaldırıldı.
Özel sektörde verim ve kazancı artırma dışında, yapay zekâ sistemleri kamu hizmetlerinde ve sosyal hak ve kazanımların dağıtımında—genellikle vatandaşların bilgisi olmadan kullanılarak—kilit rol oynar konuma geldi. Bunun en güncel örneklerinden biri, İngiltere’de liseyi bitiren öğrencilerin mezuniyet yeterliliği notlarını belirlemek için kullanılan algoritmanın doğurduğu tartışmalı sonuçlar ve bundan mağdur olan binlerce öğrenci. Bu sene COVID-19 nedeniyle lise sonu sınavları uygulanmadığı için öğrencilerin başarı notlarının belirlenmesi amacıyla öğretmenlere nazaran objektif olacağı düşünülerek kullanılan algoritmanın yoksul kesimlerdeki okullardaki öğrencilerin notlarını daha düşük hesapladığı ortaya çıktı. Böylece toplumsal devingenliğin simgesi olarak görülen eğitim sisteminde, öğrencilerin geçmiş performansına dayalı verilerle beslenen algoritmaların hiç de adil sonuçlar doğurmadığı kamusal alanda görünürlük kazanmış oldu.
Teknoloji ve bilgisayarların objektif, güvenilir, nötr ve insana özgü hatalardan bağımsız olduğuna dair bir algımız var. Bu algıya göre, Amazon’un ve İngiliz eğitim sisteminin kullandığı algoritmaların amacı, toplumsal fırsatların dağılımındaki adaletsizliği önlemek olduğu halde, sosyal hak ve fırsatlara erişimi zaten sınırlı olan grupları dışlaması bize şaşırtıcı gelebilir. Bunu anlamak aslında o kadar da güç değil çünkü yapay zekâ sistemleri “öğrenmek” için veriye ihtiyaç duyar ve veri denen şey de geçmişin bir temsilidir. Geçmiş pratiklerimizi dikte eden normlarımıza eleştirel açıdan bakmadan, verilerin yansıttığı güç dengelerini incelemeden, yapay zekâ sistemlerinden mucizevi sonuçlar beklemek de şaşırtıcı değil mi aslında? Bilimsel otorite, akılcılık ve teknolojik ilerleme iktidar ile tarihsel anlamda iç içe geçmiş kavramlar. Avrupa sömürgeciliğini gerekçeleyen anlayışın bir yansıması da Avrupa’nın akılcılığı ve bilim ve teknolojide ilerlemiş olmasıydı. Bu açıdan baktığımızda, teknoloji politiktir ve toplumsal adaletle, yani toplumda herkesin fırsat ve kaynaklara eşit erişimiyle yakından alakalıdır.
Dünyanın en büyük teknoloji şirketlerinin yapay zekâ laboratuvarlarının çoğunluğunu beyaz erkekler oluşturuyor.[1] Aynı okullara gitmiş, yapısal ve kurumsal ırkçılıktan bihaber, “hızlı hareket ederek kırıp geçme” (move fast break things) mottosu önderliğinde milyonlarca dolarlık yatırımlarla şımartılan bu grupların öncelikleri ve tecrübeleri, ürettikleri teknolojiye ve karar verme mekanizmalarına doğal olarak yansıyor. Örneğin Facebook, Twitter gibi şirketlerde yıllarca üst düzey konumlarda çalışmış bir grup erkek, sosyal medya platformlarının insanların bilişsel algılarını ve süreçlerini manipüle ederek buralarda daha çok vakit geçirmesi ve paylaşımda bulunması aracılığıyla para kazanmak üzere tasarlandığını Netflix’in dramatik belgeseli Sosyal İkilem’de (Social Dilemma) yıllar sonra itiraf etti.
Bunların hiçbiri aslında yeni değil ve bu tartışmaların yoğun ilgi gördüğü Amerika Birleşik Devletleri’nde teknoloji alanında toplumsal adaletin ilerlemesine yönelik çalışmaları kadın+lar ve/veya ayrıcalıklı gruplara mensup olmayan kişiler (örneğin siyahlar, yerliler, LGBTİQ+lar) ortaya koyuyor. Örnek olarak, yüz tanıma teknolojilerinin siyah kadınların yüzlerini tanımada beyaz erkeklerin yüzlerine kıyasla belirgin ölçüde başarısız olduğunu[2] Algorithmic Justice League adlı düşünce kuruluşunun kurucusu, MIT’li bilgisayar bilimci Joy Buolamwini ortaya koydu. Joy Buolamwini, Timnit Gebru ve Deborah Raji’ın çalışmalarının yüz tanıma sistemlerinin yapısal ırkçılık ve polis şiddetiyle ilişkisini görünür hale getirdiği ve Amerika’nın birçok eyaletinde yüz tanıma sistemlerinin kullanımına sınırlamalar getirilmesine ön ayak olduğu kabul edilebilir.[3] Burada dikkate değer bir diğer nokta da, bilgisayar bilimci olmanın yanı sıra Buolamwini ve diğer araştırmacıların, kimliklerinden dolayı ayrımcılığa maruz kalma deneyimlerinin bahsi geçen çalışmalarda belirleyici olması.
İstatiksel sistemler gerçekliği kodlar, düzleştirir ve ön görürken normal ve anormal olan arasındaki çizgiyi belirler hale geldi. Bu nedenle toplumsal kimlikleri ve konumları nedeniyle norma, normale ve iktidara merkezden değil de dışarıdan bakabilenlere her zamankinden daha çok ihtiyacımız var. Bu bağlamda feminist öğretiler ve özellikle kesişimsel feminizm, yapay zekâ ve toplumsal adalet alanında çalışan birçok araştırmacı için kuramsal bir temel teşkil ediyor. Türkiye’de teknoloji ve toplumsal adalet kesişiminin kamuoyu tartışmalarına henüz yansımadığı bir dönemde, bu öncü kadınların çalışmalarına göz atmak yararlı olacaktır. Ne yazık ki bu konudaki anlaşılır/ulaşılır kitapların birçoğunun henüz Türkçe çevirisi yok.
Bunlardan bir tanesi matematikçi Cathy O’Neil’in Weapons of Math Destruction kitabı. Cathy O’Neil kitabında algoritmaları dokunulmaz, anlaşılmaz ve gizemli yapay olgular olmaktan çıkarıyor ve algoritmaların kodlanmış ya da kodla iç içe geçmiş kanı ve inançlardan ibaret olduklarına dikkat çekiyor. Bu, algoritmaların objektif ve sadece matematikten ibaret oldukları, dolayısıyla haksız, adaletsiz sonuçlar doğuramayacakları anlatısını alaşağı ediyor ve bizlere otomatikleştirilen karar mekanizmalarını sorgulamanın mümkün ve gerekli olduğunu gösteriyor.
Algorithms of Oppression kitabı Dr. Safiya U. Noble’in Google’ın arama algoritmaları üzerine yaptığı altı yıllık araştırmanın sonucu. Kitap, Google gibi popüler arama motorlarının nasıl egemen kültürel normları yansıttığını ve yeniden ürettiğini gösteriyor. Arama motorlarının bilgiye ulaşmanın en hızlı ve temel yollarından biri haline geldiği günümüzde, ayrıcalıklı olmayan gruplara yönelik algı ve bilginin oluşumu da bu platformlar aracılığıyla gerçekleşiyor. Dr. Noble arama motorları sonuçlarının bu gruplara yönelik yarattığı algının, sistematik olarak olumsuz olduğunu ve var olan değersizleştirici ve aşağılayıcı yargıları yansıttığını, şirketlerinse bu konuda sorumluluk kabul etmediğini gözler önüne seriyor.
Ruha Benjamin’in Race After Technology kitabı yapısal ırkçılık ve teknoloji arasındaki ilişkiyi anlamak için uygun bir kaynak. Benjamin ırkçılık ideolojisine de bir teknoloji olarak bakıyor ve Amerikalı siyahların tecrübesine istinaden yeni teknolojilerin nasıl ince ve üstü kapalı şekillerde ırkçı pratikleri yeniden ürettiğini gözler önüne seriyor.
Catherine d’Ignazio ve Lauren F. Klein’ın Data Feminism kitabı kesişimsel feminizm prensipleriyle veri biliminin temellerini ortaya koyuyor. Kitap NASA’da çalışan ilk siyah kadınlardan olan Christine Darden’in Apollo 11’in uzaydan başarılı bir şekilde dönmesine katkıları gibi, birçok teknolojik gelişmeye katkıda bulunmuş ve katkıları görünmez hale getirilen kadınlardan bahsederek başlıyor.[4] Darden’in mirası Ay’a uzay uçuşu dışında veri analizini kullanarak NASA’da kadınlar ve erkekler arasında eğitim ve terfi ilişkisinin eşitsizliğini göstermesini de içeriyor. Bu örnekten hareketle Data Feminism, kadınların deneyimlerini (lived experience) veri ve bilgisayar bilimiyle birleştirerek iktidara ve erke nasıl meydan okuyabileceklerini ve toplumdaki adaletsizlikleri nasıl görünür kılabileceklerini çeşitli örneklerle anlatıyor. Data Feminism’e göre veri bilimi, iktidarın ya da gücün işleyişini anlamak için güçlü bir araç ve bu prensiple inşa edilen veri bilimi projelerinin amacı toplumsal adalete aracı olmak. Veri bilimini araç olarak kullanmanın ötesinde, Data Feminism veriye eleştirel olarak da yaklaşıyor. Verinin toplanma şekillerini, kimlerin veriye dahil edilip edilmediğini, veri kodlama şekillerindeki ikilikleri ve veri biliminin objektif olduğu algısını sorguluyor. Tüm bu tezatların bilincinde, feminist, emeğe değer veren toplumsal adaleti amaçlayan veri bilimi projelerini, kişileri ve grupları bir araya getiriyor.
Son olarak, Women in AI Ethics (WAIE) kolektifinin amacı yapay zekâ etiği alanında çalışan ve dominant gruplara mensup olmayan kadınları bir çatı altında toplayarak onlara destek olmak ve onları görünür kılmak. WAIE her yıl yapay zekâ etiğinde 100 Kadın listesi yayınlıyor ve bu konuda çalışan kadınlar arasında dayanışmayı artırırken güç sahibi kurumlardan destek almayan kadınların çalışmalarının tanınmasını sağlamaya çalışıyor ve bunları da kesişimsel feminizm ilkeleriyle gerçekleştiriyor.
Bu yetersiz bir liste ve büyük ihtimalle birçok önemli ismi ve eseri barındırmıyor, bu nedenle bunu sadece bir başlangıç olarak görebiliriz. Bu çalışmaları okumanın yanı sıra kadınların ve ayrıcalıklı gruplara mensup olmayan bireylerin teknolojiyle ilgili deneyimlerini paylaştığı Türkiye bağlamında güvenli ortamlar oluşturmak da yararlı olabilir.
[1]İstatistiklerle ilgili detaylı bilgi icin AI Now adlı düşünce kuruluşunun bu raporunu inceleyebilirsiniz.
[2]Bu çalışmayı buradan inceleyebilirsiniz.
[3]Bu konuda Amnesty International’ın Haziran 2020 tarihli makalesi incelenebilir.
[4]Bugünkü haliyle dijital bilgisayarlar (computer) bulunmadan önce hesaplama (computing) işlemini kadınlar yapıyordu ve kadınlara insan bilgisayar (human computer) deniyordu. Ay’a yolculuğa “insan bilgisayar” kadınların katkısıyla ilgili şu makaleyi inceleyebilirsiniz.