DİJİTAL CAM TAVAN: YAPAY ZEKA VE GÖRÜNMEZ EŞİTSİZLİKLER Cam Tavan Kavramının Dijitalleşmesi Cam tavan kavramı, özellikle çalışma hayatında kadınların ve diğer dezavantajlı grupların görünürde eşit fırsatlara sahip olmalarına rağmen, görünmez ve sistematik engeller nedeniyle üst pozisyonlara yükselememelerini ifade eder. Bu engeller açık bir yasak ya da doğrudan ayrımcılık biçiminde ortaya çıkmaz; aksine kurumsal kültür, önyargılar, ağ ilişkileri ve karar vericilerin bilinçdışı tercihleri üzerinden işler. Dolayısıyla cam tavan, formel eşitliğin var olduğu ancak fiilî eşitsizliğin sürdüğü bir yapıyı anlatır. Geleneksel olarak insan kararları üzerinden şekillenen bu görünmez bariyerler, dijitalleşme ile birlikte yeni bir form kazanmıştır. Bugün işe alım süreçlerinden performans değerlendirmelerine, kredi skorlama sistemlerinden içerik filtreleme algoritmalarına kadar pek çok karar mekanizması yapay zeka temelli sistemler aracılığıyla yürütülmektedir. Bu dönüşüm, karar süreçlerini daha “nesnel” ve “tarafsız” kıldığı iddiasıyla sunulsa da, algoritmaların beslendiği veriler toplumsal eşitsizliklerden bağımsız değildir. Geçmişteki ayrımcı pratikler veri setlerine yansımakta, bu verilerle eğitilen modeller ise eşitsizlikleri yeniden üretme potansiyeli taşımaktadır. Böylece cam tavan yalnızca kurumsal yapılarda değil, kod satırlarında da varlığını sürdüren bir dijital bariyere dönüşmektedir. Yapay Zeka Nötr mü? Algoritmik Tarafsızlık Miti Yapay zeka sistemleri sıklıkla “tarafsız” ve “nesnel” karar mekanizmaları olarak sunulmaktadır. Oysa algoritmalar kendi başlarına bilinçli tercihler yapmasa da, beslendikleri veri setleri ve tasarlandıkları bağlam toplumsal gerçeklikten bağımsız değildir. Makine öğrenmesi modelleri geçmiş veriler üzerinden örüntü çıkarır; eğer geçmişte belirli pozisyonlarda erkekler daha yoğun temsil edilmişse, sistem bu örüntüyü “başarı göstergesi” olarak öğrenebilir. Bu durum, algoritmanın cinsiyet bilgisine doğrudan erişimi olmasa dahi, dolaylı değişkenler üzerinden aynı sonucu üretmesine yol açabilir. Dolayısıyla sorun çoğu zaman açık bir ayrımcılık değil, tarihsel eşitsizliklerin veri aracılığıyla yeniden üretilmesidir. Algoritmik tarafsızlık miti, kodun insan önyargılarından arınmış olduğu varsayımına dayanır. Ancak algoritmalar, veri seçimi, model tasarımı, performans kriterlerinin belirlenmesi ve çıktıların yorumlanması gibi aşamaların tamamında insan müdahalesine açıktır. Hangi verinin “temiz” kabul edileceği, hangi değişkenlerin modele dahil edileceği ya da hangi hata oranının kabul edilebilir sayılacağı teknik olduğu kadar normatif kararlardır. Bu noktada geliştirici önyargısı ve kurumsal öncelikler, sistemin ürettiği sonuçları doğrudan etkileyebilir. Böylece yapay zeka, bilinçli bir ayrımcılık yapmasa bile, belirli grupları sistematik olarak dezavantajlı konuma düşürebilir. Algoritmik ayrımcılık çoğu zaman dolaylı ve görünmez biçimde işler. İşe alım yazılımlarında belirli anahtar kelimelerin filtrelenmesi, kredi skor sistemlerinde mahalle veya eğitim geçmişi gibi değişkenlerin kullanılması ya da yüz tanıma teknolojilerinde kadınlarda daha yüksek hata oranları görülmesi, bu mekanizmanın somut örnekleridir. Bu tür sistemler bireysel önyargıdan ziyade yapısal eşitsizliği yeniden üretir; üstelik karar süreçleri “kara kutu” niteliği taşıdığından, mağdurların ayrımcılığı ispat etmesi de güçleşir. Sonuç olarak algoritmalar, eşitsizliği ortadan kaldırmak yerine, onu teknik bir görünüm altında daha zor fark edilir hale getirebilir. Dijital Cam Tavanın Çalışma Hayatındaki Yansımaları Yapay zeka temelli sistemler, çalışma hayatında verimlilik ve nesnellik iddiasıyla yaygın biçimde kullanılmaktadır. Ancak terfi ve performans analiz sistemleri, geçmiş başarı kriterlerini esas alarak değerlendirme yaptığında, tarihsel olarak erkek egemen pozisyonlarda şekillenmiş performans kalıplarını yeniden üretme riski taşır. Örneğin “kesintisiz kariyer geçmişi” ya da “yüksek mobilite” gibi kriterler, bakım yükümlülükleri nedeniyle kariyerinde kesinti yaşayan kadınları dolaylı biçimde dezavantajlı konuma düşürebilir. Benzer şekilde otomatik CV eleme yazılımları, geçmişte işe alınmış adayların profillerini referans alarak filtreleme yaptığında, çeşitliliği azaltan ve homojenliği güçlendiren bir döngü yaratabilir. Bu durum, dijital sistemlerin görünürde objektif fakat fiilen seçici bir bariyer oluşturmasına yol açmaktadır. Ücret belirleme algoritmaları ve platform ekonomisindeki derecelendirme sistemleri de dijital cam tavanın başka bir boyutunu oluşturur. Ücret optimizasyon yazılımları, pazarlık geçmişi ve önceki maaş bilgileri gibi değişkenleri hesaba kattığında, başlangıçta düşük ücretle işe giren kadınların bu dezavantajını sistematik biçimde kalıcı hale getirebilir. Platform ekonomisinde ise algoritmik puanlama sistemleri, müşteri değerlendirmelerine dayalı olarak görünürlük ve gelir dağılımını belirler; toplumsal önyargılar bu değerlendirmelere yansıdığında kadın emeği daha düşük puanlanabilir veya daha az kazançlı işlere yönlendirilebilir. Böylece dijital araçlar, fırsat eşitliği sağlamaktan ziyade mevcut yapısal farklılıkları derinleştirebilir. Araştırmalar da bu riskleri somut verilerle ortaya koymaktadır. 2018 yılında büyük bir teknoloji şirketinin geliştirdiği işe alım algoritmasının, geçmiş veriler nedeniyle kadın adayları sistematik olarak düşük puanladığı tespit edilmiş ve sistem kullanımdan kaldırılmıştır. ABD Ulusal Standartlar ve Teknoloji Enstitüsü’nün (NIST) 2019 tarihli yüz tanıma çalışması, kadınlarda ve özellikle koyu tenli kadınlarda hata oranlarının erkeklere kıyasla anlamlı ölçüde yüksek olduğunu göstermiştir. Dünya Ekonomik Forumu’nun raporları ise otomasyonun yoğun olduğu sektörlerde kadınların iş kaybı riskinin daha yüksek olabileceğini belirtmektedir. Bu bulgular, algoritmik sistemlerin yalnızca teknik araçlar olmadığını; çalışma hayatında eşitsizlik dinamiklerini yeniden şekillendiren yapısal aktörler haline geldiğini göstermektedir. Hukuki Boyut: Algoritmik Ayrımcılık ve Eşitlik İlkesi Algoritmik ayrımcılık, klasik ayrımcılık hukukunun yeni bir sınav alanını oluşturmaktadır. Eşitlik ilkesi, yalnızca açık ve doğrudan ayrımcılığı değil, görünüşte tarafsız bir uygulamanın belirli bir grubu orantısız biçimde dezavantajlı konuma düşürmesini de yasaklar. Bu bağlamda dolaylı ayrımcılık kavramı, yapay zeka sistemlerinin ürettiği sonuçların değerlendirilmesinde merkezi bir rol oynar. Bir algoritma cinsiyet değişkenini açıkça kullanmasa dahi, belirli kriterler üzerinden kadınları sistematik biçimde eliyorsa, hukuki sorumluluk gündeme gelebilir. Sorun, ayrımcı niyetin varlığından ziyade, ortaya çıkan etkinin eşitlik ilkesine aykırı olup olmadığıdır. Bu nedenle algoritmik kararların sonuç odaklı bir analizle incelenmesi gerekmektedir. Ancak yapay zeka sistemlerinin kara kutu niteliği, hukuki denetimi güçleştirmektedir. Karar süreçlerinin teknik karmaşıklığı, ayrımcılığın ispatını zorlaştırmakta; veri setlerine ve model parametrelerine erişim çoğu zaman mümkün olmamaktadır. Bu durum şeffaflık, hesap verebilirlik ve açıklanabilirlik ilkelerini hukuki tartışmanın merkezine taşımaktadır. Algoritmik sistemlerin kamu ya da özel sektör tarafından kullanılması fark etmeksizin, eşitlik ilkesine uygunluğunun denetlenebilir olması gerekir. Aksi halde dijitalleşme, ayrımcılığı ortadan kaldıran bir araç değil, hukuki sorumluluğun belirsizleştiği yeni bir alan haline dönüşebilir. Görünmez Engellerden Şeffaf Algoritmalara Dijital cam tavan, eşitsizliğin artık yalnızca kurumsal kültür ve bireysel önyargılar üzerinden değil, veri setleri ve algoritmik modeller aracılığıyla yeniden üretildiğini göstermektedir. Görünmez engeller, insan karar vericilerin yerini alan otomatik sistemlerde daha da belirsizleşmekte; ayrımcılık çoğu zaman teknik bir çıktı gibi sunulmaktadır. Oysa algoritmalar, toplumsal bağlamdan kopuk değildir. Hangi verinin toplandığı, nasıl işlendiği ve hangi performans ölçütlerinin esas alındığı, doğrudan normatif tercihler içerir. Bu nedenle dijital eşitsizlikle mücadele, yalnızca teknolojik bir iyileştirme meselesi değil; aynı zamanda etik, hukuki ve kurumsal bir sorumluluk alanıdır. Şeffaf algoritmalar ise bu görünmezliği azaltmanın temel araçlarından biridir. Açıklanabilir yapay zeka modelleri, bağımsız denetim mekanizmaları ve etki analizi yükümlülükleri, sistemlerin eşitlik ilkesine uygunluğunu değerlendirmeyi mümkün kılar. Çeşitlendirilmiş veri setleri, düzenli algoritmik denetimler ve insan gözetimi mekanizmaları sayesinde teknoloji, eşitsizliği pekiştiren değil dönüştüren bir araca dönüşebilir. Nihayetinde mesele, teknolojinin kendisi değil; onun nasıl tasarlandığı, kimler tarafından geliştirildiği ve hangi değerler doğrultusunda uygulandığıdır. Geleceği kodlarken eşitliği de tasarlamak mümkündür; yeter ki görünmez engeller görünür kılınabilsin. Kaynakça Dastin, J. (2018, 10 Ekim). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. National Institute of Standards and Technology (NIST). (2019). Face Recognition Vendor Test (FRVT) Part 3: Demographic Effects. NIST Interagency Report 8280. Gaithersburg, MD: U.S. Department of Commerce. World Economic Forum. (2020). The Future of Jobs Report 2020. Geneva: World Economic Forum. World Economic Forum. (2023). Global Gender Gap Report 2023. Geneva: World Economic Forum. Av. Selin Ceren CANBULUT
Yorumlar