Peki Şimdi Ne Olacak?

Yapay zekanın (AI) savaşı kökten değiştireceğine dair yaygın bir kanı var. Birçoğumuz, büyük veri ve akıllı algoritmaların birleşerek savaş alanında her şeyi gören, mutlak bir durumsal farkındalık sağlayan bir “Tanrı’nın Gözü” yaratacağını düşünüyoruz. Bu teknolojik devrimin tam ortasında ise, Soğuk Savaş’tan bu yana küresel istikrarı koruyan nükleer silah kontrol anlaşmalarının hassas dengesi pamuk ipliğine bağlı duruyor.
Peki, teknoloji ve stratejinin bu kesişim noktasında gerçekte neler oluyor? Popüler inanışların ve manşetlerin ötesinde, durum çok daha karmaşık ve şaşırtıcı. Bu yazıda, yapay zeka ve nükleer silahlar arasındaki ilişkiye dair en şaşırtıcı ve sezgilere aykırı dört gerçeği ortaya çıkaracağız.
1. Yapay Zeka Savaş Alanında “Tanrı’nın Gözü”nü Yaratmayacak
Yapay zekanın ve büyük verinin savaş alanındaki “sisi” kaldırarak komutanlara tam bir durumsal farkındalık sunacağı fikri, teknoloji tartışmalarının merkezinde yer alır. Ancak bu beklenti, temelden yanıltıcıdır. Edward Geist’in Deterrence Under Uncertainty adlı kitabında ortaya koyduğu gibi, daha fazla veri toplamak, otomatik olarak daha iyi veya daha doğru sonuçlar anlamına gelmez. Bunun iki temel nedeni vardır:
- Veri Güvenilmezliği: Savaş alanı, kasıtlı olarak yanıltıcı bilgilerle doludur. Düşmanın yaydığı dezenformasyon, arızalı sensörlerden gelen hatalı veriler ve en önemlisi, ne bilmediğimizi bile bilmediğimiz “bilinmeyen bilinmeyenler” sorunu, veri miktarının artmasıyla çözülmez. Aksine, devasa veri yığınları içinde güvenilir bilgiyi ayırt etmek daha da zorlaşabilir.
- Hesaplama Karmaşıklığı: Savaş alanındaki verilerden yola çıkarak tek bir “gerçeği” hesaplamak, teorik bilgisayar bilimi açısından neredeyse imkansızdır. Her yeni sensör veya veri noktası, analiz edilmesi gereken olasılıkların sayısını katlanarak artırır. Geist, bu durumu “Kafkaesk bir bürokrasiye” benzetir: Her yeni form (veri parçası), sorunu çözmek için gereken süreyi bazen yüzyıllara veya milyarlarca yıla çıkarabilir. Taktiksel olarak anlamlı bir sürede tamamlanamayan bir hesaplama, pratik olarak işe yaramazdır.
Edward Geist’in de belirttiği gibi:
“[B]eklentileri yükselten yeni bilgisayarlar ve ağlar hizmete girdiğinde, askeri etkileri hakkındaki beklentileri karşılamakta defalarca başarısız olurlar… ‘savaş sisini kaldırmak’, bilgisayarların (ne kadar güçlü olursa olsun) yapabileceğine güvenilecek bir şey değildir.”
Bu durum, teknolojiye dayalı stratejilere karşı önemli bir uyarı niteliğindedir. Politika yapıcılar ve askeri planlamacılar, teorik bilgisayar biliminin temelde ulaşılamaz olduğunu öne sürdüğü yapay zeka destekli bir “Tanrı’nın Gözü”ne inandıkları takdirde, stratejik bir yanlış hesaplama yapma riskini de göze almış olurlar.
2. Yapay Zeka Silahlanma Yarışında Savunmacı Taraf Daha Avantajlı Olabilir
Yapay zekanın nükleer dengeyi bozacağına dair en büyük endişelerden biri, saldırı yeteneklerini artırarak mobil füzeler ve denizaltılar gibi “güvenli ikinci vuruş” kapasitelerini savunmasız bırakma potansiyelidir. Rose Gottemoeller ve Paul Bracken gibi analistler, her şeyi gören sensör ağlarının ve yapay zeka destekli analitiğin, saklanan nükleer silahları bile tespit edilebilir hale getirebileceğinden endişe duymaktadır.
Ancak bu analiz, denklemin önemli bir parçasını göz ardı eder: Hedef alınan ülke (Ulus B) pasif bir şekilde beklemeyecektir. Geist’in de vurguladığı gibi, Ulus B, saldırganın (Ulus A) çabalarını boşa çıkarmak için aktif ve pasif karşı önlemler geliştirecektir.
İlginç bir şekilde, yapay zeka bu konuda savunmacı taraf için daha bile faydalı olabilir. Kendi sistemlerinin zafiyetlerini ve operasyonel detaylarını en iyi bilen Ulus B, yapay zekayı yanıltıcı hedefler, sinyal karıştırma teknolojileri ve tespit edilmeyi zorlaştıran yeni taktikler geliştirmek için kullanabilir. Bu dinamik, askeri tarihte defalarca tekrarlanmıştır: Radarın icadı yanıltıcı hedefleri (chaff) ve karıştırma teknolojilerini (jamming) doğurmuş, balistik füze savunma sistemleri ise çoklu savaş başlıklarının (MIRV) ve aldatıcı başlıkların geliştirilmesine yol açmıştır.
Bu dinamiğin asıl dersi şudur: Yapay zeka silahlanma yarışında avantaj, en çok veriye sahip olan tarafa değil, kendi zafiyetlerini en iyi anlayan ve yapay zekayı saldırganın belirsizliğinden faydalanmak için kullanabilen tarafa geçebilir.
3. Nükleer Anlaşma Matematiği: Bir Bombardıman Uçağı Sadece “Bir” Savaş Başlığı Sayılıyor
Silah kontrol anlaşmaları, karmaşık sayım kuralları ve müzakere edilmiş tanımlarla doludur. New START Antlaşması’ndaki en şaşırtıcı kurallardan biri, ağır bombardıman uçaklarının nasıl sayıldığıyla ilgilidir.
Antlaşmaya göre, nükleer silah taşıma kapasitesine sahip her bir ağır bombardıman uçağı, gerçekte kaç tane bomba veya seyir füzesi taşıyabildiğine bakılmaksızın, antlaşma limitleri dahilinde yalnızca bir nükleer savaş başlığı olarak sayılır.
Bu kural, karadan (ICBM) ve denizden (SLBM) fırlatılan balistik füzeler için geçerli olan kural ile tam bir tezat oluşturur. Balistik füzelerde, üzerlerinde bulunan “gerçek savaş başlığı sayısı” hesaba katılır.
Peki bu “indirimli” sayımın ardındaki mantık nedir? Cevap, stratejik istikrar felsefesinde yatmaktadır. Bombardıman uçakları, hedeflerine ulaşması saatler süren ve fırlatıldıktan sonra geri çağrılabilen sistemlerdir. Bu özellikleri, onları ani ve sürpriz bir ilk vuruş için daha az uygun hale getirir. Balistik füzeler ise dakikalar içinde hedeflerine ulaşabilir ve geri çağrılamazlar. Bu nedenle, bombardıman uçakları balistik füzelere kıyasla daha az “istikrar bozucu” olarak kabul edilir ve anlaşma matematiğinde bu stratejik fark gözetilir.
Bu kural, silah kontrol anlaşmalarının sadece matematiksel sayımlardan ibaret olmadığını, aynı zamanda stratejik istikrarı korumaya yönelik felsefi ve müzakere edilmiş kabullere dayandığını gösteren çarpıcı bir örnektir.
4. Nükleer Güvenliğin Geleceği Artık Sadece ABD ve Rusya’ya Bağlı Değil: Çin Faktörü
On yıllardır küresel nükleer denge, büyük ölçüde Amerika Birleşik Devletleri ve Rusya arasındaki iki kutuplu silah kontrol anlaşmalarıyla sağlandı. Ancak bu dönem sona eriyor. New START Antlaşması’nın geleceği ve onu çevreleyen diplomatik açmaz, bu değişimin en net göstergesidir.
Antlaşma 2021’de sona ermek üzereyken (ve daha sonra uzatılmış olsa da), Trump yönetimi uzatma için kritik bir şart öne sürdü: Çin’in de yeni bir anlaşmaya dahil olması. Bu talep, nükleer diplomaside bir kilitlenmeye yol açtı.
Sorunun temelinde büyük bir asimetri yatıyor. New START kapsamında ABD ve Rusya’nın konuşlandırılmış savaş başlığı limiti yaklaşık 1.550 iken, Çin’in cephaneliği çok daha küçük (tahminen 150’den az uzun menzilli savaş başlığı). Bu devasa fark nedeniyle Çin, kendisini ABD ve Rusya ile aynı sınırlamalara tabi tutacak müzakerelere katılmayı reddediyor.
Bu üçlü açmaz, Soğuk Savaş’tan bu yana devam eden iki kutuplu silah kontrol rejimini temelden sarsmaktadır. Eğer New START gibi anlaşmalar kalıcı olarak sona ererse, on yıllardır ilk kez dünyanın en büyük nükleer güçleri arasında cephaneliklerini sınırlayan hiçbir anlaşma kalmayacak. Bu durum sadece üç taraflı bir siyasi açmaz değil, aynı zamanda stratejik bir krizdir. Zira doğrulanabilir, matematiksel silah kontrolünün eski modeli (3. Gerçek), bir yandan yeni gözetleme teknolojilerinin hesaplama karmaşıklığı (1. Gerçek) tarafından baltalanırken, diğer yandan yapay zekanın saldırı-savunma yarışının öngörülemez dinamikleri (2. Gerçek) tarafından sarsılmaktadır.
Bu dört şaşırtıcı gerçek, bizi karmaşık bir ikilemle baş başa bırakıyor. Bir yanda, yapay zeka gibi teknolojiler savaşın doğasını değiştirme vaadiyle hızla ilerliyor. Diğer yanda ise bu teknolojiyi ve en tehlikeli silahları kontrol altında tutması gereken, ancak giderek çöken ve hesaplama açısından belirsiz yeni bir teknolojik paradigmaya uyum sağlayamayan diplomatik yapılar var.
Bu durum, 21. yüzyılın en büyük güvenlik sorunlarından birini teşkil ediyor. Bu noktada kendimize şu soruyu sormalıyız: Teknoloji bize mutlak kontrol yanılsaması sunarken, felaketi önlemek için gereken diplomatik araçları yavaş yavaş kaybediyor muyuz?