Yapay Zeka ile Dönüşen Savaşlar: İnsanlık mı, Algoritma mı?
04.03.2026 - 11:41 | Son Güncellenme: 04.03.2026 - 11:48
Geçen hafta İsrail ve ABD’nin İran’a saldırmasıyla başlayan çatışma, bölgesel bir savaş riski doğurdu. Bu çatışmada sadece silahlar, savaş uçakları ve füzeler gibi savaşların asli unsurları değil, yapay zeka da konuşuluyor. Çünkü yapay zeka artık sadece sivil alanda değil, askeri alanda da dönüştürücü bir rol oynuyor.
Yapay zeka teknolojilerinin askeri alanda kullanımı, 21. yüzyılın en tartışmalı konularından biri haline geldi. Bu teknolojilerin sınırlarına yönelik ABD’de son günlerde yaşanan teorik tartışmalar da buna örnek olarak gösterilebilir.
Otonom silah sistemlerinden karar destek mekanizmalarına kadar geniş bir yelpazede kullanılan yapay zeka, savaşın doğasını dönüştürme potansiyeline sahip. Bu dönüşüm, yalnızca askeri strateji ve operasyonel etkinlik açısından değil, aynı zamanda etik sorumluluklar ve uluslararası hukuk bakımından da derin sorular ortaya çıkarıyor.
Savaşın değişen doğası ve otonom sistemler
Yapay zeka destekli askeri sistemler, veri analizi, hedef tespiti, lojistik planlama ve istihbarat değerlendirmesi gibi alanlarda yüksek hız ve doğruluk vaat ediyor. Bununla birlikte, en yoğun tartışma “ölümcül otonom silah sistemleri” çevresinde yoğunlaşıyor. Bu sistemler, insan operatörün anlık kontrolü olmaksızın hedef belirleyip ateş edebilme kapasitesine sahip. Bu tür teknolojilerin geliştirilmesi ve potansiyel kullanımı, özellikle Birleşmiş Milletler bünyesinde uzun süredir tartışılıyor.

Savaşın otomasyonu, bir yandan asker kayıplarını azaltma ve daha “hassas” operasyonlar yürütme iddiasını beraberinde getirirken, diğer yandan insan muhakemesinin savaş alanından çekilmesi riskini doğuruyor. İnsan yargısı, bağlamsal değerlendirme yeteneği ve beklenmeyen durumlara uyum sağlama kapasitesi, özellikle sivillerin korunması açısından kritik öneme sahip. Yapay zeka sistemleri ise büyük veri kümelerine dayanarak olasılıksal çıkarımlar yapar ancak bu çıkarımların etik boyutu ve bağlamsal hassasiyeti tartışmalıdır.
Etik ilkeler ve insan onuru
Yapay zekanın savaşta kullanımına ilişkin etik tartışmaların merkezinde insan onuru ve ahlaki sorumluluk yer alıyor. Bir makinenin, insan yaşamı üzerinde nihai karar verici olması, birçok etik yaklaşım açısından sorunlu kabul ediliyor. Ölümcül güç kullanımına ilişkin kararların tamamen algoritmik süreçlere bırakılması, savaşın zaten kırılgan olan ahlaki sınırlarını daha da belirsiz hale getirebilir.
Ayrıca, savaşın trajik doğası göz önüne alındığında, ölüm kararının insan kontrolünden çıkarılması ahlaki sorumluluğun dağılmasına yol açabilir. Bir saldırının hukuka aykırı veya etik dışı olması durumunda sorumluluğun kimde olduğu sorusu ortaya çıkar ve bu sorunun şu an için net bir yanıtının olmaması, etik açıdan ciddi bir boşluk doğuruyor.
Gözden Kaçmasın
Bazıları yapay zeka sistemlerinin insanlara kıyasla daha az hata yapabileceğini ve duygusal tepkilerden arınmış kararlar verebileceğini ileri sürebiliyor. Ancak etik değerlendirme yalnızca hata oranıyla ölçülemez. Orantılılık, ayrım ve insani değerlerin gözetilmesi gibi unsurlar, salt teknik doğrulukla tam anlamıyla sağlanamayabilir. Bu nedenle etik tartışma, teknolojik kapasitenin ötesinde, normatif sınırların nasıl çizileceği sorusuna odaklanmaktadır.
Uluslararası insancıl hukuk ve temel ilkeler
Yapay zeka destekli silah sistemlerinin değerlendirilmesinde uluslararası insancıl hukuk temel referans noktasıdır. 1949 tarihli Cenevre Sözleşmeleri ve ek protokolleri, silahlı çatışmalarda sivillerin korunması ve savaş yöntemlerinin sınırlandırılması konusunda temel kuralları belirler. Bu çerçevede özellikle ayrım ve orantılılık ilkeleri ön plana çıkar.
Örneğin ayrım ilkesi, çatışan tarafların siviller ile savaşçılar arasında net bir ayrım yapmasını zorunlu kılar. Otonom sistemlerin karmaşık ve dinamik savaş ortamlarında bu ayrımı güvenilir biçimde yapıp yapamayacağı ciddi bir tartışma konusudur. Görüntü tanıma sistemleri belirli nesneleri yüksek doğrulukla tespit edebilse de, bir kişinin sivil mi yoksa savaşçı mı olduğunu, teslim olmuş olup olmadığını ya da doğrudan çatışmaya katılıp katılmadığını doğru değerlendirmek her zaman teknik olarak mümkün olmayabilir.

Devletlerin yeni silahları kullanıma almadan önce hukuki inceleme yapmasını öngören mekanizmalar da önemlidir. Bu incelemeler, yeni teknolojilerin mevcut uluslararası hukukla uyumunu değerlendirmek için kritik bir araçtır. Ancak teknolojinin hızlı gelişimi ve algoritmaların karmaşıklığı, bu değerlendirmelerin pratikte ne kadar etkili olabileceği sorusunu gündeme getiriyor.
Hesap verebilirlik ve sorumluluk
Yapay zeka destekli silahların en karmaşık yönlerinden biri hesap verebilirlik meselesidir. Uluslararası ceza hukuku, savaş suçları gibi ağır ihlallerde bireysel cezai sorumluluğu esas alır. Örneğin Uluslararası Ceza Mahkemesi, bireyleri yargılama yetkisine sahiptir. Ancak otonom bir sistemin gerçekleştirdiği bir saldırıda kasıt unsuru nasıl değerlendirilecek? Bu soru, literatürde “sorumluluk boşluğu” olarak ifade edilen bir probleme işaret ediyor. Eğer belirli bir ihlal durumunda açıkça sorumlu bir aktör tespit edilemiyorsa, hukukun caydırıcılığı ve adalet duygusu zedelenebilir.
Bu nedenle birçok uzman, “anlamlı insan kontrolü” ilkesinin korunması gerektiğini savunuyor. Bu yaklaşım, ölümcül güç kullanımında insanın nihai karar verici konumda olmasını ve gerektiğinde müdahale edebilme kapasitesine sahip bulunmasını öngörür. Böylece hem etik hem de hukuki sorumluluk, somut bir aktör üzerinde yoğunlaşabilir.
Silahlanma yarışı ve küresel güvenlik
Yapay zeka teknolojilerinin askeri alanda kullanımı, devletler arasında yeni bir silahlanma yarışını da tetikleyebilir. Bu durum, küresel güvenlik mimarisini istikrarsızlaştırma riski taşır. Daha hızlı karar veren ve otomatik karşılık verebilen sistemler, kriz anlarında yanlış alarm veya teknik hata nedeniyle tırmanma riskini artırabilir. İnsan denetiminin azalması, stratejik sabır ve diplomatik manevra alanını daraltabilir.
Uluslararası düzeyde bağlayıcı bir düzenleme yapılması yönünde çağrılar günden güne artıyor. Ancak devletler arasında güven eksikliği ve stratejik çıkar farklılıkları, kapsamlı bir anlaşmaya varılmasını zorlaştırıyor.
Teknolojik üstünlük ile insani değerler arasında yapay zeka
Yapay zekanın savaş alanında kullanımı, teknolojik ilerlemenin kaçınılmaz bir sonucu olarak görülebilir ancak bu durum, etik ve hukuki sınırların göz ardı edilmesini meşrulaştırmaz. İnsan onurunun korunması, hesap verebilirliğin sağlanması ve uluslararası insancıl hukukun temel ilkelerinin uygulanması, bu alandaki her türlü gelişmenin merkezinde yer almalıdır. Otonom sistemlerin potansiyel faydaları olsa da, ölümcül kararların insan kontrolünden tamamen çıkarılması ciddi etik ve hukuki riskler doğurur.
Gelecekte yapılacak düzenlemeler ve norm geliştirme çabaları, teknolojik yenilik ile insani değerler arasında hassas bir denge kurmak zorundadır. Aksi halde savaşın otomasyonu, yalnızca çatışmaların şeklini değil, insanlığın savaş karşısındaki ahlaki ve hukuki konumunu da köklü biçimde dönüştürebilir.