Robotların Vicdanı Yok: Ahlakı Algoritmalardan Öğreniyorlar
Robotların 'bencil' veya 'vicdanlı' davranıp davranamayacağı uzun süredir tartışılan bir konu. Güncel araştırmalar, robotların aslında gerçek bir vicdana sahip olmadığını ortaya koyuyor. Bunun yerine, algoritmalar ve insan davranışlarından elde edilen büyük veri setleri sayesinde ahlaki kararları taklit etmeyi öğreniyorlar.
Çocuklar Gibi İnsan Davranışlarından Besleniyorlar
Çocuklar gibi robotlar da insan davranışlarından, verilerden ve algoritmalardan besleniyor. İnsanlığın bugüne kadar bıraktığı izlerden öğrenen yapay zekâ sistemleri, etik kararlar almak için çoğunlukla makine öğrenmesi algoritmaları ve devasa veri setleri kullanıyor.
Araştırmacılar, insanların gerçek hayattaki etik yargılarını içeren büyük veri setleri oluşturarak AI modellerini bu örnekler üzerinde eğitiyor. Örneğin, geliştirilen "Scruples" veri seti, 32 bin gerçek hayat hikâyesi ve yaklaşık 625 bin etik değerlendirme içeriyor. Bu veri sayesinde yapay zekâ sistemleri, hangi davranışların toplum tarafından "doğru" veya "yanlış" görüldüğünü öğrenebiliyor.
Benzer şekilde, "Delphi" adlı yapay zekâ sistemi, "Arkadaşına yardım etmek iyi bir davranıştır" gibi etik yargıları öğrenmek için derin öğrenme modelleri kullanıyor. Ancak araştırmacılar, sistemin bazen önyargılı veya tutarsız kararlar verebildiğini de vurguluyor.
İnsanları Gözlemleyerek Değer Öğreniyorlar
Bazı araştırmalar, robotların sadece veri setlerinden değil, insan davranışını gözlemleyerek de değer öğrenebileceğini gösteriyor. "Inverse reinforcement learning" adı verilen yöntemle geliştirilen bir modelde robotlar, insanların davranışlarını izleyerek hangi eylemlerin ödüllendirildiğini veya kaçınıldığını çıkarabiliyor.
Bu sayede robotların farklı toplumların değerlerine uyum sağlayabileceği düşünülüyor. Araştırmacılar bu yöntemi şöyle açıklıyor: İnsanlar nasıl çocuklukta çevresini gözlemleyerek ahlak öğreniyorsa, AI sistemleri de insan davranışlarından değer sistemi çıkarabiliyor.
Vicdan Değil, Matematik Etkili Oluyor
Bilim insanlarının çoğuna göre robotların gerçek bir vicdanı yok. Onların yaptığı şey, etik kararların matematiksel modelini çıkarmak. Örneğin bazı sistemler, bir eylemin "iyi" ya da "kötü" olma ihtimalini hesaplayan algoritmalar kullanıyor. Bu modeller, bağlama göre değişebilen etik değerlendirmeleri hesaplayabiliyor.
İlginç bir şekilde, robotların verdiği etik öneriler sadece makineleri değil, insan kararlarını da etkileyebiliyor. Bir araştırma, insanlara zor ahlaki kararlar verilen bir deneyde robot tavsiyelerinin katılımcıların kararlarını önemli ölçüde değiştirdiğini gösterdi.
Robotların Ahlakı İnsanlardan Geliyor
Uzun bir süre robotlara insanlar eşlik etmeye devam edecek. Ancak robotlara bıraktığımız işlerin kararının nasıl verildiğini ve hesabını nasıl soracağımız önemli bir soru olarak karşımıza çıkıyor. Robot ya da insan destekli robotlarla yaşamda adaletin ve vicdanın hesabını vermek zorundayız.
Bugünkü bilimsel görüşe göre, robotların davranışlarının kaynağı üç şeyden oluşuyor:
- Algoritmalar
- Karar verme kuralları
- Veri setleri
Yani robotlar gerçekten "iyi" veya "kötü" olmuyor; sadece insan toplumunun değerlerini matematiksel modeller aracılığıyla taklit ediyor.



