Savaşın Algoritması, Vicdanın İstifası: Yapay Zeka, Otonom Silahlar ve Demokratik Denetimin Geleceği

Tayfun İŞBİLEN
EMO İstanbul Şubesi Başkan Yardımcısı
EMO Yapay Zekâ Komisyon Üyesi
tayfunisbilen@gmail.com

Algoritmalar artık yalnızca ne satın alacağımıza karar vermiyor. Kimin hedef alınacağını da belirlemeye başladı. Yapay zeka savaşın kurallarını yeniden yazarken, demokratik toplumlar seyirci kalamaz.

28 Şubat 2026 Cumartesi günü dünya, hem askeri hem de teknolojik açıdan tarihi bir kırılma yaşadı. ABD ve İsrail’in İran’a saldırı başlattığı gün, Silikon Vadisi ile Pentagon arasında büyük bir “etik savaşı” patlak verdi.

Olayın merkezinde, Anthropic şirketinin geliştirdiği yapay zeka Claude yer alıyor. ABD ordusu, Claude’u bir süredir İran operasyonları dahil olmak üzere istihbarat ve planlama aşamalarında kullanıyordu. Ancak işler, Pentagon’un yapay zekayı daha “sert” işlerde kullanmak istemesiyle karıştı.

Çünkü Anthropic,  yapay zekanın kitlesel gözetleme (insanları gizlice takip etme) ve otonom silahlarda (kendi kendine ateş eden robotlar) kullanılmasına karşı çıkıyordu. Şirketin CEO Dario Amodei, bu teknolojinin henüz bir silah olacak kadar güvenilir olmadığını savunurken etik olarak da doğru bulmuyordu.

Savaş Bakanlığı Pentagon ise bu kritik bir teknolojinin özel bir şirketin etik değerlerine hapsolmasını istemiyordu. Bu nedenle Pentagon kısıtlamaların kaldırılmasını istedi. “Ya tüm sınırları kaldırırsınız ya da sizi ulusal güvenlik tehdidi ilan ederiz” diyerek şirkete ültimatom verdi.

Orduyla Tam Uyumlu Çalışın!

Anthropic geri adım atmayınca, ABD hükümeti tarihinde ilk kez bir Amerikan şirketini “Tedarik Zinciri Riski” ilan etti. Bu etiket normalde sadece düşman ülkelerin şirketlerine (Huawei gibi) yapıştırılırdı. Bu kararla birlikte Anthropic’in ABD ordusuyla yeni iş yapması yasaklanırken, şirket resmen “ulusal güvenlik tehdidi” olarak damgalandı.

Fırsatı Değerlendiren Rakip: OpenAI

Pentagon’nun bu açıklaması, daha doğrusu ordu ile tam uyumlu çalışın talimatı hemen diğer yapay zeka şirketlerinde etkisini gösterdi. Trump yönetiminin bu yasak kararından sadece saatler sonra OpenAI, Pentagon ile dev bir sözleşme imzaladı. Bu hamle, yapay zekanın savaşta kısıtlamasız kullanılmasına karşı olan yüz binlerce kullanıcının da büyük tepkisini çekti. Kısacası 28 Şubat günü ABD, bir yandan İran ile fiziksel bir savaşa girerken, diğer yandan yapay zekayı bir “silah” haline getirmek istemeyen kendi teknoloji şirketine karşı hukuk savaşı başlattı. Peki hayatımıza çok kısa sürede giren yapay zekanın, bir savaşta kullanımı hatta en az silahlar kadar  en önemli unsur olması bir tesadüf mü? Elbette ki hayır!

 

Öldürme Kararını Algoritmalara mı Devrediyoruz? 

Bugün kurum olarak etkisi ve küresel krizler karşısındaki rolü zaman zaman sorgulansa da, başvurduğumuz temel uluslararası referanslardan biri Birleşmiş Milletler olmaya devam ediyor. BM Silahsızlanma Dairesi Başkanı Izumi Nakamitsu, Haziran 2025’te çok net konuştu: makinelere insan öldürme yetkisi vermek ahlaken kabul edilemez; uluslararası hukuk bunu yasaklamalı. Sözleri havada kalmadı. Aralık 2024’te BM Genel Kurulu, otonom silahlarla ilgili bir kararı oylamaya sundu. Sonuç: 166 evet, 3 hayır. Karşı çıkan üçlü tanıdık isimlerden oluşuyordu, Belarus, Kuzey Kore, Rusya. Dünyanın ezici çoğunluğu robotların insanları öldürmesinden rahatsızdı..

Ama kâğıt üzerindeki irade, sahada karşılık bulmuyor. ABD, Replicator programıyla ucuz yapay zeka silahlarını fabrika bandından indirmeyi planlıyor. İsrail, Gazze’de Habsora ve Where’s Daddy? adlı yapay zeka hedefleme sistemlerini zaten kullanıyor; birincisi toplu istihbarat verilerinden hedef listeleri üretiyor, ikincisi cep telefonu konumlarını takip ederek kişileri izliyor. Rusya-Ukrayna cephesinde iki taraf da yapay zeka destekli istihbarat ve görüntü analiz araçlarına yaslanıyor. Palantir, Anduril, Scale AI, Northrop Grumman gibi şirketler ordulara yazılım ve algoritma satarken, bir yandan da demokratik denetimden uzak, kamuoyunun içini göremediği bir alan inşa ediyor. Anthony King* buna askeri-teknoloji kompleksi diyor. Haklı.

Tarihsel Bir Sabit: Teknoloji Savaşı Hep Yeniden Yazdı

Yapay zekanın askeri sahneye çıkışı, boşlukta gerçekleşmiyor. Tam tersine, insanlık tarihi boyunca süren bir zincirin son halkası. Her büyük teknolojik atılım savaşı yeniden biçimlendirdi. Ölçeğini büyüttü, hızını artırdı, yıkıcılığını katladı. Bugünü anlamak için bu çizgiyi görmek şart.

Barut Avrupa’ya ulaştığında sadece bir silah yeniliği getirmedi; bir düzeni yıktı. Ateşli silahlar feodal şatoların duvarlarını devirdi, ama aynı zamanda feodalizmin kendisini de bitirdi. Şövalyelik çağı kapandı. Merkezi devletler güçlendi, profesyonel ordular kuruldu. Sosyal demokratlar için burada güçlü bir ders var: askeri teknoloji hiçbir zaman cephede kalmaz. Toplumsal yapıyı, güç dengelerini, sınıf ilişkilerini kökünden değiştirir.

Sanayi Devrimi bu ilişkiyi bambaşka bir boyuta taşıdı. Buhar, demiryolu, telgraf, askeri lojistik ve haberleşme bir gecede değişti. Fatura ise Birinci Dünya Savaşı’nda kesildi. Makineli tüfek, kimyasal gaz, tank… Savaş bir endüstriyel kıyım makinesine dönüştü. Avrupa bir kuşağını kaybetti. Bu savaş tek bir şeyi kanıtladı: teknolojinin dizginsiz askeri kullanımı insanlığa nelere mal olabilir. İkinci Dünya Savaşı’nda radar, şifreleme, roket ve nihayet atom bombası, teknolojiyle savaş arasındaki ilişkiyi varoluşsal bir tehdide çevirdi.

Soğuk Savaş yılları nükleer caydırıcılığı, uydu gözetlemeyi, bilgisayarlı komuta merkezlerini getirdi. 1991’de Körfez Savaşı dijital çağın kapısını açtı: akıllı bombalar, hassas istihbarat. Sonra insansız hava araçları geldi. 2000’lerden itibaren bir operatör Nevada’daki klimali odasından binlerce kilometre ötedeki bir hedefi vurabilir hale geldi. Savaş fiziksel olarak uzaklaştı. Psikolojik olarak da. Bu mesafe savaşın toplumsal maliyetini gizledi, demokratik hesap sorma mekanizmalarını zayıflattı.

Bu çizgide yapay zeka bambaşka bir kırılma noktası. Önceki teknolojiler hep fiziksel kapasiteyi genişletti: daha uzağa at, daha hızlı git, daha çok yık. Yapay zeka ilk kez düşünme sürecinin kendisine el koyuyor. King’in dediği gibi, yapay zeka özünde bir karar verme teknolojisi. Tarihte hiçbir silah, kimi öldüreceğine dair kararı otomatikleştirmeyi vaad etmemişti. Bu, baruttan atom bombasına uzanan çizgideki en radikal sıçrama. Ama tarih bir şey daha söylüyor: her büyük askeri teknolojik dönüşüm, ancak toplumsal ve siyasal irade devreye girdiğinde kontrol altına alınabildi. Kimyasal silahlar yasaklandı. Nükleer yayılma kısıtlandı. Yapay zeka silahları için de aynı kararlılık gerekiyor. Üstelik bu sefer vakit çok dar.

 

                                         

Demokratik Denetim Krizi

Tarihsel arka plan, bugünkü demokratik denetim krizini daha anlaşılır kılıyor. Otonom silahlar savaş kararını birkaç kişiye sıkıştırma riski taşıyor. Savaşın insan maliyeti düştükçe, toplumlarda savaşa karşı direnç de düşüyor. İlk bakışta olumlu görünen bu durum, hükümetlerin hesapsız askeri maceralara girmesini kolaylaştırıyor. Demokratik ülkelerde savaşa en güçlü fren, halkın insani bedelden duyduğu korku. Dronlar bu freni gevşetmişti. Otonom silahlar tamamen sökmek üzere.

Yapay zeka destekli karar destek sistemleri de ayrı bir tehlike. ICRC* ve Cenevre Akademisi’nin 2024 raporu durumu belgeledi: askeri karar vericiler makinenin söylediğini onaylayan bürokratlara dönüşme yolunda. Buna otomasyon yanlılığı deniyor. İnsan, kendi muhakemesine değil makinenin çıktısına güveniyor. Zaman baskısı altında bu eğilim katlanıyor. SIPRI*’nin Haziran 2025 raporundaki tespit çarpıcı: hız baskısı ve otomasyon yanlılığı birleştiğinde, karar destek sistemi fiilen otonom silaha dönüşüyor. İnsan operatör kâğıt üzerinde var; gerçekte sadece düğmeye basıyor. Bu noktada sorulması gereken soru şu: arada bir insan varsa ama o insan makineye itiraz edemiyorsa, gerçekten insan kontrolünden söz edebilir miyiz?

Yarının Kalaşnikofları: Seri Üretim Yazılımlı Ölüm

Yapay zekalı askeri teknolojiler küresel eşitsizliği derinleştiriyor. ABD, Çin, İsrail milyarlarca dolar yatırıyor. Bu yarışta gelişmekte olan ülkelerin şansı yok. Ya bağımlı olacaklar ya da güvenlik alanında tamamen marjinalleşecekler.

Nükleer silahlardan farklı olarak otonom silahlar pahalı hammadde gerektirmiyor. Seri üretim kolay. Karaborsaya düşmesi, terör örgütlerinin ya da diktatörlerin eline geçmesi an meselesi. Prof. Dr. Denise Garcia: Northeastern Üniversitesi’nden uluslararası ilişkiler ve hukuk üzerine çalışan, yapay zeka silahlanması ve robotik savaşlar konusunda uzmanlaşmış Prof. Dr. Denise Garcia çok önemli bir uyarıda bulunuyor; otonom silahlar yarının Kalaşnikofları olabilir.

Yazılım güncellemeleri ve veri erişimi üzerindeki kontrol ise yepyeni bir bağımlılık türü yaratıyor. Geleneksel silah ticaretinden farklı, çok daha derine işleyen bir kontrol mekanizması. Sanayi Devrimi sömürgeci güç yapılarını nasıl derinleştirdiyse, yapay zeka çağı da dijital sömürgeciliğin yeni versiyonunu üretiyor.

Karar Mekanizmasının İşgali: Fiziksel Güçten Düşünsel İstilaya

Human Rights Watch 2025 raporunda çok sert bir ifade kullandı: otonom silahlarla öldürme mekanik bir katliamdır. Yapay zekaya dayalı hedef seçimi bilinçli bir ahlaki karara değil, önceden kodlanmış talimatlara dayanıyor. Oysa her insan yaşamı tekil, karmaşık, benzersiz. İnsanlar bir algoritmanın veri noktası olarak değil, biricik bireyler olarak muamele görmeyi hak ediyor. Bir yapay zekanın yüzde 95 güvenle birini askeri üniforma giyiyor olarak tanımlaması, o kişinin meşru hedef olduğu anlamına gelmiyor ve ayrıca hukuki de değil. Uluslararası hukuk da bunu söylüyor: şüphe varsa sivil say, orantılılığı değerlendir, bağlama bak. Bu yargıları hiçbir algoritma yapamaz. Savaşta bile insan vicdanının varlığı, medeniyetin son güvencesi.

 

Ya Küresel Denetim Ya Algoritmik Kaos

Bağlayıcı uluslararası kurallar gecikemez. BM’nin masadaki yaklaşımı ikili bir model öneriyor; bazı otonom silahları tamamen yasakla, diğerlerini insan kontrolü şartıyla düzenle. Silahlanma Kontrolü Derneği ise uyarıyor: Ne kadar geç kalırsak, geri dönüş o kadar zorlaşır. Demokratik devletler bu sürecin öncüsü olmalı.

Yapay zekalı askeri sistemlerde insan denetimi kırmızı çizgi olmalı.  Bu konuda ICRC açık konuşuyor;  bu sistemler makine hızında değil, insan hızında çalışmalı. Kritik kararlarda zorunlu mola mekanizmaları kurulmalı. Çapraz kontrol noktaları eklenmeli.

Askeri-teknoloji kompleksi ise demokratik denetime girmeli. Ordulara yazılım satan özel şirketlerin ne yaptığı şeffaf olmalı. Parlamenter gözetim güçlenmeli kamusal bilinç oluşmalı.

Son olarak teknolojiye erişimdeki uçurum uluslararası dayanışmayla daraltılmalı. Yapay zeka silah değil, barış aracı olarak kullanılmalı. Erken uyarı, çatışma önleme, insani yardım koordinasyonu bu alanlarda yapay zekanın yapıcı kullanımı mümkün ve gerekli.

Karar Anı; Algoritmanın Vicdanı Yoktur

Claude vakası bize şunu açıkça gösteriyor; teknoloji, barutun kaleleri yıktığı gibi demokratik denetim mekanizmalarını da yıkma potansiyeline sahip. Ancak bu kez tehdit fiziksel değil, vicdanidir. Tarih aynı dersi tekrarlıyor. Endüstriyel silahlar imparatorlukları çökertti. Nükleer silahlar insanlığı yok olma eşiğine getirdi. Yapay zeka ise tarihte ilk kez öldürme kararının kendisini insandan almayı vaat ediyor. Bu, öncekilerden nitelik olarak farklı bir tehdit. Çünkü artık söz konusu olan yalnızca yıkım kapasitesi değil, yıkım kararının kime ait olacağı.

Yaşam ve ölüm kararlarını algoritmalara teslim etmek, şiddetin savaşta bile vicdana tabi olması gerektiği fikrinden geri adım atmak demek. Sosyal demokratlar için mesele güvenlik politikasını aşıyor. Bu, insan onurunu merkeze alan bir toplum anlayışının sınavı. Savaşın geleceğini bugünkü kararlar belirleyecek. Bu kararları halkların iradesiyle, demokratik kurumlar eliyle almak bir tercih değil, zorunluluk. Çünkü bir algoritmanın vicdanı yoktur, o yükü taşıyacak olan hep insandır ve öyle kalmalıdır.  

*AI, Automation, and War The Rise of a Military- Tech Complex – Anthony King

*ICRC (Uluslararası Kızılhaç Komitesi)

*SIPRI (Stockholm Uluslararası Barış Araştırmaları Enstitüsü)

*The AI Military Race – Denise Garcia