2021 yılında "İnsan-Makine Ekibi: İnsan ve Yapay Zekâ Arasında Dünyamızda Devrim Yaratacak Sinerji Nasıl Yaratılır" başlıklı kitap "Tuğgeneral Y.S" takma adıyla İngilizce olarak yayımlandı. Kitapta -İsrail'in seçkin istihbarat birimi 8200'ün şu anki komutanı olduğunu teyit ettiğimiz- yazar, savaşın sıcak anında askeri saldırılar için binlerce potansiyel "hedef" üretmek üzere büyük miktarda veriyi hızla işleyebilecek özel bir makine tasarlanmasının önemini ve gerekliliğini vurguluyor. Yazara göre böyle bir teknoloji, "hem yeni hedeflerin bulunması hem de hedeflerin onaylanmasına ilişkin kararların alınmasında yaşanan insani darboğazı" ortadan kaldırma potansiyeline sahip.

Görünüşe göre böyle bir makine halihazırda mevcut. “Local Call” ve “+972 Magazine” tarafından yapılan yeni bir araştırma, İsrail ordusunun "Lavender" [Lavanta] olarak bilinen yapay zeka tabanlı bir program geliştirdiğini ortaya koyuyor. Gazze Şeridi'ndeki mevcut savaş sırasında orduda görev yapan ve suikast hedefleri oluşturmak için yapay zeka kullanımına ilk elden dahil olan altı İsrailli istihbarat subayına göre Lavender, özellikle savaşın ilk aşamalarında Filistinlilerin eşi benzeri görülmemiş bir şekilde bombalanmasında merkezi bir rol oynadı. Hatta kaynaklara göre; Lavender'in, ordunun operasyonları üzerindeki etkisi o kadar büyüktü ki, yapay zeka makinesinin çıktılarına "sanki insan kararıymış gibi" davranıyorlardı.

İsrail yayın organı: Gazze'deki yüz binlerce sivilin kaderi yapay zekanın elinde İsrail yayın organı: Gazze'deki yüz binlerce sivilin kaderi yapay zekanın elinde

Resmi olarak Lavender sistemi, Hamas ve Filistin İslami Cihad Hareketi’nin askeri kanatlarındaki düşük rütbeliler de dahil olmak üzere tüm şüpheli kişileri potansiyel bombalama hedefi olarak işaretlemek üzere tasarlandı. Kaynaklar, savaşın ilk haftalarında ordunun neredeyse tamamen Lavender'e güvendiğini ve 37,000 kadar Filistinlinin şüpheli militanlar olarak - ve evlerinin de- olası hava saldırıları için işaretlendiğini söylüyor.

Buna göre savaşın ilk aşamalarında ordu, subayların Lavender'in ölüm listelerini benimsemelerine geniş kapsamlı bir onay vermiş, makinenin bu seçimleri neden yaptığını ayrıntılı olarak kontrol etme ya da bunların dayandığı ham istihbarat verilerini inceleme zorunluluğu getirmemiş. 

Bir kaynak; askeri personelin, makinenin kararları için sadece "rutin onaylama" işlevi gördüğünü belirterek, normalde bir bombalama yetkisi vermeden önce her bir hedefe kişisel olarak sadece "20 saniye" ayırdıklarını, bunun da Lavender tarafından işaretlenen hedefin erkek olduğundan emin olmak için olduğunu ekledi. Bütün bunlar, sistemin vakaların yaklaşık yüzde 10'unda "hata" yaptığını ve zaman zaman militan gruplarla sadece gevşek bir bağlantısı olan ya da hiç bağlantısı olmayan kişileri işaretlediğini bilmelerine rağmen yapılmış.

Dahası, IDF’nin (İsrail Ordusu), hedef aldığı kişilere askeri olarak herhangi bir faaliyette oldukları sırada değil, evlerindeyken – ve genellikle geceleri, tüm aileleri oradayken- sistematik olarak saldırdığı belirtiliyor. Kaynaklara göre bunun nedeni, istihbarat açısından bakıldığında, kişilerin özel evlerinde yerlerinin tespit edilmesinin daha kolay olması. 

Böylece "Where's Daddy?" (Babam nerede?) adlı otomatik sistemin de dahil olduğu farklı uygulamalar, özellikle hedef alınan kişileri takip etmek ve ailelerinin evlerine girdiklerinde bombalama eylemlerini gerçekleştirmek için kullanılmış.

Sonuç: Çoğu kadın ve çocuk olmak üzere çatışmaya dahil olmayan binlerce Filistinlinin, özellikle savaşın ilk haftalarında, bir yapay zekâ programının aldığı kararlar nedeniyle İsrail hava saldırıları tarafından öldürülmesi.

Bir istihbarat görevlisi olan A., şunları söylüyor: "Hamas militanlarını sadece askeri bir binadayken ya da askeri bir faaliyette bulunurken öldürmekle ilgilenmiyorduk. Aksine, ordu ilk seçenek olarak hiç tereddüt etmeden onları evlerinde bombalıyordu. Bir ailenin evini bombalamak çok daha kolay. Hatta sistem, onları özellikle bu haldeyken bulmak üzerine tasarlanmış diyebilirim.”

Lavender, İsrail ordusunun kendi resmî yayınlarında da bahsi geçen “The Gospel” [Müjde]adlı başka bir yapay zekâ sistemi ile birlikte fonksiyon gösteriyor. İki sistem arasındaki temel fark ise hedefin tanımında yatıyor: The Gospel, militanların faaliyet gösterdiği iddia edilen bina ve yapıları işaretlerken; Lavender ise yalnızca insanları işaretliyor ve onları ölüm listesine ekliyor.

Ayrıca kaynaklara göre, Lavender'in işaretlediği görece düşük rütbeli militanları hedef almak gerektiğinde, İsrail ordusu “aptal bombalar” olarak bilinen güdümsüz füzeleri kullanmayı tercih ediyor. Bu tür füzeler, isabet ettikleri binaları, içindekilerin üzerine yıkıp önemli kayıplara neden oluyor. İstihbarat görevlilerinden C., “Pahalı bombaları önemsiz insanlar üzerinde harcamak istemezsiniz. Bu ülkeye çok pahalıya mâl olur, ve bu bombalar envanterde pek fazla yok.” dedi. Bir başka kaynak ise Lavender tarafından işaretlenen düşük rütbeli militanlara ait "yüzlerce" evin bombalanmasına bizzat izin verdiklerini ve bu saldırıların çoğunda sivillerin ve tüm ailelerin "tali hasar (zayiat)" olarak öldürüldüklerini söyledi.

Başka iki kaynağa göre, ordu daha önce benzeri görülmemiş bir hamleyle savaşın ilk haftalarında Lavender'in işaretlediği her düşük rütbeli Hamas mensubuna karşılık 15 ya da 20 sivilin öldürülmesine izin verdi; geçmişte ordu düşük rütbeli militanlara yönelik suikastlarda herhangi bir "tali hasara" izin vermiyordu. Kaynaklar, hedefin tabur ya da tugay komutanı rütbesinde üst düzey bir Hamas yetkilisi olması durumunda, ordunun birçok kez tek bir komutana yönelik suikastta 100'den fazla sivilin öldürülmesine izin verdiğini de itiraf ediyor.

[Bu yapay zekânın tam olarak nasıl çalıştığını, nerelerde kullanıldığını ve nasıl hatalar yaptığını 6 aşamada inceleyen makaleyi, 2 parça halinde tercüme edip paylaşacağız inşallah.]

[Köşeli parantezler, mütercimin konu daha iyi anlaşılsın diye yaptığı açıklamaları ihtiva eder. İçerik orijinal haline bağlı kalınarak çevrilmiştir ve Daily Ummah’nin editoryal politikasını yansıtmayabilir.]