YAZARLAR

03 Mayıs 2025 Cumartesi, 08:00

Yapay Zekâ Sistemlerinde Hata ve Hukuki Sorumluluk: Suçun Faili Kimdir?

Günümüz dünyasında, sabahtan akşama kadar algoritmalarla yaşıyoruz. Sosyal medyada ne izleyeceğimizden, banka kredimizin onaylanıp onaylanmayacağına kadar çoğu kararı yapay zekâ veriyor. Ama bizi düşündüren deli sorular da kafamızda durmadan dönüp duruyor: Bir yapay zekâ hata yaptığında, kimi sorumlu tutacağız?

Yapay zekâ teknolojilerinin karar verme süreçlerine entegre edilmesi, bu sistemlerin hata yaptığında sorumluluğun kimde olduğunu sorgulayan yeni hukuki ve etik tartışmaları gündeme getirmiştir. Bu yazımızda, yapay zekâ sistemlerinin hukuki fail olup olamayacağını, hatalı kararların sorumluluğunu kimlerin taşıması gerektiğini analiz etmeye çalışacağız.

Diyelim ki otonom bir araba, yanlış karar verdi ve bir kazaya neden oldu. Ya da bir hastayı yanlış teşhis etti. Ya da yapay zekâ destekli bir işe alım sistemi, adayları ırk veya cinsiyete göre ayıkladı. Tüm bu durumlarda "Hata yapan kimdir?" sorusuna cevap arıyoruz. Ama elimizde alışık olduğumuz bir “suçlu” yok!

Yapay zekânın özünde insan emeği var: Onu yazanlar, onu besleyen veriler, onu denetleyenler… Bu yüzden sorumluluk da zincirleme şekilde olmalıdır. Suçu sadece algoritmanın üzerine atmak, “Bilgisayar öyle söyledi” demek, yeterli ve doğru da değildir. Gerçek sorumlular insanlardır. Ama hangi insanlar?

Yapay zekâ sistemlerinin tıp, ulaştırma, finans ve hukuk gibi kritik alanlarda kullanımı giderek yaygınlaşmaktadır. Ancak bu sistemlerin bağımsız kararlar alabilmesi, geleneksel fail-sorumluluk ilişkisini sorgulatmaktadır. Özellikle zararlı sonuçlara yol açan durumlarda hukuki sorumluluğun belirlenmesi karmaşık bir hâl almaktadır..

Sorumluluk Kapsamında Taraflar Kimlerdir?

YZ sistemlerinde potansiyel sorumlular şunlardır:

  • Yazılım geliştiriciler (algoritmanın tasarımcıları)
  • Veri sağlayıcılar (eğitim verisinin sahipleri)
  • Üreticiler (donanımı ve sistemi geliştiren firmalar)
  • Kullanıcılar (YZ sistemini uygulayan kişiler veya kurumlar)
  • Düzenleyici otoriteler (sistemin piyasaya sunulmasına izin veren merciler)

Görüldüğü gibi bu çok katmanlı yapı, sorumluluğun tek bir kişi ya da kuruma yüklenmesini güçleştirmektedir. Ayrıca sistemin “öğrenme” kapasitesi, klasik “fail” tanımını da işlevsiz bırakmaktadır.

Avrupa Birliği bu konuda bir adım atmış ve bir yapay zekâ yasası hazırlamıştır. Bu yapay zekâ yasası, özellikle yüksek riskli sistemler için geliştiricileri ve kullanıcıları daha şeffaf olmaya zorlamaktadır. Bu önemli bir başlangıçtır. Çünkü teknoloji ilerledikçe sorumluluk konusu daha da bulanıklaşacak, içinden çıkılması zor hale gelecektir.

Mevcut Hukuki Yaklaşımlar Nasıldır?

Avrupa Birliği’nin hazırladığı 2024 tarihli Yapay Zekâ Yasası, özellikle yüksek riskli sistemlerde geliştirici ve kullanıcıya ciddi yükümlülükler getirmiştir. ABD’de ise ürün sorumluluğu yasaları kapsamında dava açılabilmektedir; ancak yasal boşluklar hâlâ vardır.

Sonuç ve Öneriler

YZ sistemlerinin özerk kararları karşısında, ceza hukuku fail kavramı yetersiz kalmaktadır. Bunun yerine “katmanlı sorumluluk yaklaşımı” önerilebilir. Bu yaklaşımda, zararın oluşumunda etkisi olan tüm tarafların sorumluluğu analiz edilerek, paydaş temelli bir değerlendirme yapılmalıdır.

Unutmayalım: Yapay zekâ biz insanların oluşturduğu bir aynadır. O aynada gördüğümüz şey, bizim etik anlayışımız, bizim dikkatsizliğimiz, bazen de bizim önyargılarımızdır. Bu nedenle yapay zekâ sistemlerinin neden olduğu zararlar için sorumluluk yalnızca teknolojik araçlara değil, onları üreten, kullanan ve düzenleyen insanlara ait olmalıdır. Ve hukuki sistemlerin, yapay zekânın gelişim hızına ayak uydurabilmesi ve insan yararına kullanılabilmesi için çok disiplinli yaklaşımlar geliştirilmesi şarttır.

Prof. Dr. O. Ayhan ERDEM
aerdem@gazeteankara.com.tr

 {o0o}

Nerede Bir Zulüm Varsa, Çatışma Varsa, Adaletsizlik Varsa Sona Erdirmek İçin Biz Oradayız. 

Türkiye’nin Kalbi, Ankara’nın Sesi" olan Dijital Haber Portalı,  

https://www.gazeteankara.com.tr

YORUM YAP

Yorumu Gönder

YORUMLAR (0)