Yapay zekanın etik tartışmaları küçük bir kesimde sürerken, genelde günlük sorular ve bir konu hakkında bilgi edinme gibi şeyler üzerinde duranlar çoğunluğu oluşturuyor. Her işi kolay bir şekilde halletmek maksatlı kullanmak yaygın olsa da yapay zekâ sadece bundan ibaret değil. İster dijital medya olsun isterse yapay zekâ, nasıl ve ne amaçla kullandığımızdan bağımsız değerlendirmek imkansızdır.
İNSAN ÖTESİ BİR SİLAH
2021 yılında “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World” (İnsan-Makine Ekibi: İnsan ve Yapay Zekâ Arasında Dünyamızda Devrim Yaratacak Sinerji Nasıl Yaratılır?) isimli bir kitap yayımlandı. Kitabın yazarı Brigader General Y.S (Tuğgeneral Y.S) adında takma isimli biriydi. Kitabın genel olarak üzerinde durduğu nokta, savaşın en hararetli ortamında dahi veri işleyerek çok fazla potansiyel hedefi belirlemesi olarak gösterilebilir. Bu tarz bir teknolojinin hem yeni hedefleri bulma hem de hedefleri onaylama kararı alma konusunda insanın yaşadığı zorlukları kolay bir şekilde çözeceği yazıyor. Kitapta yazanın gerçek hayatta karşılığı İsrail ordusu tarafından geliştirilen ve kullanılan “Lavender” ile gerçekleştiği görülüyor.
İSİM İSİM ÖLÜM LİSTESİ YAZIYOR
Özellikle Gazze’ye yapılan saldırıların en başında yer alan seri bombardımanların arkasında Lavender’in olduğu söyleniyor. Geliştirilen bu yapay zekâ modeli o kadar hızlı veri işliyor ve bir sunu ortaya çıkarıyor ki kısa sürede 37 bin Filistinlinin evini ve kişilerin profillerini çıkarıp olası hedefler olarak işaretleyebiliyor. Belirlediği hedeflerde ise yüzde onluk hataya sahip. Yapay zekanın belirlediği hedefleri gece evlerindeyken ve bütün aile bir aradayken bombalayarak öldürmesi, hedefinin sadece askeri bir çatışmadan öte kadın ve çocuklarla birlikte tamamen yok etmek üzerine olduğu net bir şekilde görülmektedir.
İsrail’in kullandığı bir diğer yapay zekâ olan “The Gospel” ise hedefleri belirlerken askeri olarak kullanılan bina ve yapıları tercih ettiği görülürken Lavender ise tamamen öldürmek üzerine kurulu bir liste oluşturup, sonrasında hedefleri sırasıyla öldürmeye çalışmaktadır. İsrail ordusunun Lavender’i kullanımı saf bir istihbarat verisi elde etme amaçlı değil. Lavender tamamen yok etmek üzerine kurulu otomatik bir öldürücü. Ayrıca Lavender’in kullandığı bombaları İsrailli bir istihbarat görevlisi şöyle açılıyor; “Önemsiz insanlara pahalı bombalar harcamak istemezsiniz.” Güdümsüz ve düşük maliyetli bombalar ile Gazzelilerin üstüne bombalar yağdırarak tam bir insan kıyımı yapan Lavender, insanın alabileceği karardan çok daha hızlı karar alıyor. Sadece programlandığı şeye odaklı; öldürmek.
FRANKENSTEIN HİKAYESİ
Rütbesiz kişiler için 10-15 kişilik bir sivil ölüm rahatlıkla göze alınabilirken, rütbeli kişilerin hedef olarak belirlenmesinde ise 100 sivil ölüm göze alınabiliyor. Kısaca öldürmenin amaç olduğu program dilinde matematiğin de öneminin olduğu net bir şekilde anlaşılıyor. Yapay zekâ ile yapılan saldırıların etik olarak savaş suçu sayılıp sayılmayacağı hala muallak. İsrailli bir gizli yetkilinin açıklamasına göre Lavender binlerce kişiyi öldürmüş ve belirlenen hedefler eve girer girmez hava saldırısı yapılmıştı.
Lavender’in programı aynı bir Frankenstein hikayesi gibi yazılmış. Hiçbir kısıtlama olmadan üretildi. Herhangi bir etik ve sorumluluk duyacağı bir yer yoktu. Haliyle canlanan Frankenstein gibi çevreye saldırmaya başlamış ve bağımsız bir konuma oturmuştu. Gerçi programlayanların bu özgür ve öldürücü olarak bağımsızlığını ilan eden yapay zekadan şikayetçi olduğu kesinlikle söylenemez. Frankenstein sendromu dönemine girdiğimizi söylemek sanırım pek de yanlış olmaz. İnsanların karar alıcı mekanizma olarak kalmaması başka bir karar alıcı mekanizma geliştirmesi belki bir üst seviye olarak görülebilir ama her üretimin bir de tüketimi vardır. Kullanılan araç artık kendi karar alabilen bir duruma geldiyse ki McLuhan’ın deyimiyle “Araç mesajdır” yani araç mesaj olduysa, gayet aracın kendisi üretim noktasına oturmuştur ve de tüketen tarafta yer alan insanlar da sonuçlarına katlanmıştır demektir.
Innis’in imparatorluklar çağından bu yana iletişim araçlarının hayatımızı etkilemesine atfettiği öneme ek olarak Baudrillard’ın simülasyon evreniyle birlikte artık korkunç bir iletişim çağında yer almaktayız. Lavender’de gördüğümüz gibi artık yapay zekâ ile iletişim ağı geliştiriliyor ve burada da kalmıyor. Tamamen bir distopik film evreni gibi bir savaşın ortasındayız. Matrix filmindeki makinelerin Baudrillard’ı simülakrlar tarifiyle eşleştirince Lavender’i anlamamız daha kolay oluyor.
GERÇEK SUÇLU KİM?
Hakiki olan insanları öldürüp, esir tutan makineler aynı zamanda hem gerçeği yaratıyor hem de yaşayan hiçbir şeye yaşam hakkı tanımıyor. Kendi içinde yaşadığı tezatlığı insanlığın sonuna denk gelecek şekilde oluşturuyor. Her araç bir öncekini gölgede bırakır diye düşünülürken artık her araç kendi içerisinde geçirdiği değişimle var olan bir canlının üzerinde etkisine göre sınıflandırılıyor. Savaşların daha bitmeye niyeti yokken üretilen araçların savaşlardan bağımsız bir fayda sağlama zihniyeti ile üretildiğini düşünmek anlamsız olur. Araçlar artık nasıl ki bir cep telefonundaki onlarca fonksiyonu karşılamak için üretiliyorsa yapay zekâ da gün geçtikçe onlarca fonksiyonu üretebilecek ve belki bir gün mutfakta bomba yapmanızı sağlayacak! Bütün bu tehlikeler kapıda kol gezerken hiçbir etik ve sorumluluğun olmaması gerçekten büyük derecede şüphe uyandırıcı. Binlerce kişiyi öldüren Lavender mi suçlu? Onu kullanan mı? Kodunu yazan mı? Bu sorulara cevap verebilecek bir etik değeri insanlık hala oluşturamadı. Frankenstein ile boğuştuğumuz şu dönemde hem ülke hem de dünya olarak bu soruların cevabını bulup kesin şekilde etik sınırlar çizemezsek maalesef birçok savaş suçu yapay zekanın üzerine atılacak ve gerçek sorumlular işten sıyrılacak.