Kodlanan Kararlar

Kodlanan Kararlar

KODLANAN KARARLAR: YAPAY ZEKANIN ETİK VE HUKUKİ BOYUTU

Karar Veren Makineler Çağı

Dijital teknolojilerin gelişimiyle birlikte yapay zeka sistemleri, yalnızca veri işleyen araçlar olmaktan çıkarak doğrudan karar alma süreçlerinin bir parçası hâline gelmiştir. Bugün kredi değerlendirmelerinden işe alım süreçlerine, sağlık hizmetlerinden kamu yönetimine kadar pek çok alanda, insan iradesinin yerini ya da en azından yönünü belirleyen algoritmik kararlar söz konusudur. Bu dönüşüm, yapay zekayı teknik bir yenilik olmanın ötesine taşıyarak toplumsal, etik ve hukuki sonuçlar doğuran bir aktör konumuna yerleştirmektedir.

Ancak karar verme yetkisinin makinelerle paylaşılması, yalnızca hız ve verimlilik artışı anlamına gelmemektedir. Algoritmaların nasıl tasarlandığı, hangi verilerle beslendiği ve hangi amaçlara hizmet ettiği soruları, sorumluluk, adalet ve hesap verebilirlik kavramlarını yeniden tartışmaya açmaktadır. Bu noktada temel mesele, yapay zekanın ne ölçüde otonom olduğu değil; insan tarafından kodlanan bu sistemlerin doğurduğu sonuçların etik ve hukuki olarak kime atfedileceğidir.

Yapay Zeka Nedir, Ne Değildir?

Yapay zeka, en genel anlamıyla, insan zekasına özgü olduğu kabul edilen öğrenme, sınıflandırma, tahmin ve karar verme gibi bilişsel işlevlerin bilgisayar sistemleri tarafından yerine getirilmesini amaçlayan teknolojiler bütünüdür. Makine öğrenmesi ve derin öğrenme gibi alt alanlar sayesinde bu sistemler, kendilerine sunulan veri setlerinden örüntüler çıkararak zaman içinde performanslarını artırabilmektedir. Ancak bu “öğrenme” süreci, insan zihnindeki bilinç, sezgi ya da ahlaki muhakeme ile karıştırılmamalıdır; yapay zeka, özünde istatistiksel modeller ve önceden belirlenmiş hedef fonksiyonlar üzerinden çalışmaktadır.

Bu nedenle yapay zeka, çoğu zaman atfedildiği üzere düşünen, isteyen ya da niyet sahibi bir varlık değildir. Etik veya hukuki açıdan anlamlı olan irade, hâlen insan aktörlere aittir; algoritmalar ise bu iradenin kodlanmış yansımalarıdır. Yapay zekayı ‘tarafsız’ ya da ‘nesnel’ olarak nitelendirmek de yanıltıcıdır; zira sistemlerin çıktıları, kaçınılmaz olarak onları tasarlayanların varsayımlarını ve kullanılan verilerin sınırlarını taşır. Dolayısıyla yapay zekayı doğru tanımlamak, onun yeteneklerinden çok sınırlarını kabul etmekle mümkündür.

Kodlanan Kararlar ve Görünmez Önyargılar

Yapay zekanın karar verme süreçlerindeki etik sorunların en temel örneklerinden biri, algoritmik önyargıdır. Yapay zekanın kullandığı verilerdeki önyargılar, çıktılara doğrudan yansır ve bu da ayrımcılık, adaletsizlik ve eşitsizlik riskini artırır. Bir UNESCO raporunda verilen örneklere göre, arama motorlarının “okul kız öğrenci” aramalarında cinsiyet stereotiplerini pekiştiren sonuçlar göstermesi, verilerdeki toplumsal önyargıların algoritmalar tarafından tekrar üretildiğinin bir göstergesidir; bu durum karar verme süreçlerinin tarafsız ve adil olduğunun varsayımını sorgulatır. Bu görünmez önyargılar, sadece teknik bir problem değil, aynı zamanda toplumun değerleri ve normlarıyla iç içe geçmiş etik bir meseledir.

Bir başka boyut ise etik değerlerin yapay zekaya aktarılabilirliği tartışmasıdır. Bazı kurgu ve tartışma metinlerinde, yapay zekanın “etik değerler taşıyıp taşıyamayacağı” konusu ele alınmıştır; örneğin bir münazara bağlamında yapay zekanın hem etik olamayacağını, çünkü yalnızca insanlar tarafından programlandığını ve duygusal/ahlaki bilince sahip olmadığını, hem de sağlıklı etik kararlar verebileceğini iddia ettiği senaryolar üretilmiştir. Bu tür hikâyeler, etik problemlerin teknik bir meseleden çok anlam ve sorumluluk sorununa dönüştüğünü gösterir: yapay zeka kendi başına etik değerlere sahip olamaz; ancak insan tarafından belirlenen kurallar ve hedeflerle bu değerlere uygun davranabilir.

Bu tartışmaların merkezinde yatan sorun, “değerlerin kim tarafından ve nasıl kodlandığı”dır. Yapay zeka sistemleri, büyük veri setlerine ve tasarımcıların tercihlerine dayanarak çalışır; bu nedenle bu sistemlerin çıktılarında hem bilinçli hem de bilinçsiz önyargılar ortaya çıkabilir. Bu gerçek, yalnızca algoritmik kararların teknik hatalar olamayacağını; aynı zamanda toplumdaki eşitsizlikleri pekiştirebileceğini gösterir. Dolayısıyla yapay zeka etiği, sadece bir dizi kural koymak değil, bu sistemlerin toplumsal değerlerle uyumlu ve adil bir şekilde tasarlanması meselesi olarak anlaşılmalıdır.

Hukuki Sorumluluk Problemi

Yapay zeka sistemlerinin karar alma süreçlerine dâhil olması, klasik hukuk anlayışının temel kavramlarından biri olan sorumluluk ilkesini doğrudan zorlamaktadır. Geleneksel hukuk düzenlerinde hukuki sorumluluk, irade sahibi gerçek ya da tüzel kişilere atfedilirken; yapay zeka sistemleri ne hukuki kişiliğe ne de bilinçli bir iradeye sahiptir. Buna rağmen bu sistemlerin verdiği kararlar, bireyler üzerinde doğrudan ve ciddi sonuçlar doğurabilmektedir. Bu durum, “zarar kimin fiilinden kaynaklanmıştır?” sorusunun yanıtını belirsiz hâle getirmektedir.

Hatalı veya zarara yol açan bir yapay zeka çıktısında sorumluluğun geliştiriciye, sistemi kullanan kişiye ya da kuruma yüklenip yüklenemeyeceği hususu, her somut olayda ayrı değerlendirme gerektirmektedir. Özellikle makine öğrenmesine dayalı sistemlerde, algoritmanın zaman içinde öngörülemeyen şekilde değişmesi, kusur, illiyet bağı ve öngörülebilirlik kavramlarının uygulanmasını güçleştirmektedir. Bu bağlamda mevcut sorumluluk rejimleri, yapay zekanın karmaşık ve çok aktörlü yapısını açıklamakta yetersiz kalabilmektedir.

Bu nedenle yapay zeka kaynaklı zararlar bakımından hukuki tartışma, yalnızca “kimin sorumlu olduğu” sorusuyla sınırlı değildir; aynı zamanda sorumluluğun nasıl paylaştırılacağı ve hangi ölçütlerle belirleneceği meselesini de içermektedir. Risk temelli yaklaşımlar, objektif sorumluluk modelleri ve özel düzenlemeler bu noktada öne çıkan çözüm önerileri arasındadır. Ancak hangi model benimsenirse benimsensin, yapay zekanın hukuki sonuç doğuran bir araç olarak kullanıldığı her durumda, nihai sorumluluğun insan aktörlerden tamamen koparılamayacağı açıktır.

Uluslararası Düzenlemeler ve Yaklaşımlar

Yapay zekanın sınır aşan etkileri, etik ve hukuki sorunların yalnızca ulusal hukuk düzenleriyle çözülemeyeceğini açıkça ortaya koymuştur. Bu nedenle uluslararası kuruluşlar ve bölgesel birlikler, yapay zekaya ilişkin ortak ilkeler ve düzenleme modelleri geliştirmeye yönelmiştir. İlk aşamada bağlayıcı normlardan ziyade etik ilkeler ve rehber belgeler öne çıkmış; insan onuru, şeffaflık, ayrımcılık yasağı ve insan denetimi gibi kavramlar, küresel ölçekte kabul gören temel değerler hâline gelmiştir.

Bu alandaki en dikkat çekici ve somut adım, Avrupa Birliği tarafından benimsenen risk temelli düzenleme yaklaşımıdır. Avrupa Birliği Yapay Zeka Tüzüğü (AI Act), yapay zeka sistemlerini kabul edilemez risk, yüksek risk, sınırlı risk ve asgari risk kategorilerine ayırarak, özellikle temel hakları etkileyen sistemler üzerinde sıkı yükümlülükler öngörmektedir. Bu yaklaşım, yapay zekayı tamamen serbest bırakmak ya da bütünüyle yasaklamak yerine, kullanım alanına ve yaratabileceği etkilere göre denetim altına almayı amaçlaması bakımından klasik regülasyon anlayışından ayrılmaktadır.

Buna karşılık ABD ve bazı diğer ülkelerde daha parçalı ve sektör bazlı düzenlemelerin tercih edildiği görülmektedir. Bu modellerde inovasyonun korunması öncelik kazanırken, etik ve hukuki risklerin büyük ölçüde piyasa aktörlerinin iç denetim mekanizmalarına bırakıldığı söylenebilir. Uluslararası yaklaşımlar arasındaki bu farklılık, yapay zeka etiğinin evrensel ilkeler etrafında şekillense de hukuki düzenlemeler bakımından henüz yeknesak bir yapıya kavuşmadığını göstermektedir. Bu durum, gelecekte yapay zekaya ilişkin küresel bir hukuk rejimi oluşturulup oluşturulamayacağı sorusunu da beraberinde getirmektedir.

Kodun Ötesinde Bir Sorumluluk

Yapay zeka, teknik bir ilerlemenin ötesinde, insan iradesinin ve toplumsal değerlerin dijital ortama taşınmış bir yansımasıdır. Bu nedenle yapay zeka sistemlerinin doğurduğu sonuçları yalnızca algoritmalara veya teknik hatalara indirgemek mümkün değildir. Karar verme süreçlerinin kodlara devredildiği her durumda, bu kararların etik ve hukuki etkileri de kaçınılmaz olarak insan sorumluluğu alanında kalmaya devam etmektedir.

Bu bağlamda yapay zeka etiği, soyut ilkelerden ibaret bir tartışma değil; somut düzenlemeler, denetim mekanizmaları ve hesap verebilirlik rejimleriyle desteklenmesi gereken bir zorunluluktur. Şeffaflık, açıklanabilirlik ve insan denetimi gibi kavramlar, teknolojik gelişmenin önünde bir engel değil, aksine bu gelişmenin toplumsal meşruiyetini sağlayan temel unsurlardır. Hukukun rolü ise yalnızca ortaya çıkan zararları telafi etmek değil, bu zararlar doğmadan önce riskleri öngörebilen bir çerçeve sunmaktır.

Sonuç olarak esas soru, yapay zekanın ne kadar gelişmiş olduğu değil; bu gelişmişliğin hangi etik sınırlar içinde ve kimin sorumluluğu altında kullanılacağıdır. Kodlar karar verebilir, ancak değerler kodlanamaz; bu değerlerin korunması ve hayata geçirilmesi, her koşulda insanın sorumluluğundadır. Yapay zeka çağında hukuk, tam da bu nedenle, yalnızca kuralları değil, sorumluluğun sınırlarını da yeniden tanımlamak zorundadır.

 

                                                                                                      Av. Selin Ceren CANBULUT

 

KAYNAKÇA:

 

-https://www.unesco.org/en/artificial-intelligence/recommendation-ethics/cases

-https://www.ankasam.org/anka-analizler/yapay-zeka-etigi-ve-hukuku-yeni-bir-normlar-rejimi-arayislar…

-https://www.ozelburogrubu.com/2021/12/24/yapay-zeka-dosyasi-yapay-zeka-yapay-zeka-etik-mi-tartismas…

Yorumlar

Soru, Görüş veya Yorum Bırakabilirsiniz..

Ara
Hemen Başvur
WhatsApp Destek