Yapay zekâ tartışmalarında son yılların en güçlü hikâyesi bir yarış hikâyesi oldu: Kim önce yapay süper zekâya ulaşırsa, yalnızca teknoloji pazarını değil, bilimi, ekonomiyi, istihbaratı ve askeri üstünlüğü de ele geçirecek. Bu anlatıda durmak neredeyse saflık sayılır. Bir devlet, “önce güvenlik” diyerek geliştirmeyi yavaşlatırsa, rakibinin boşluğu dolduracağı varsayılır. O hâlde sonuç bellidir: Herkes riskleri görür, herkes korkar, ama herkes koşmaya devam eder.
Edward Roussel ve arkadaşlarının arXiv’de yayımlanan yeni çalışması tam bu sezgiyi hedef alıyor. Makalenin sorusu basit ama rahatsız edici: Yapay süper zekâya doğru yarış gerçekten devletlerin çıkarına mı, yoksa bazı koşullarda en bencil, en soğukkanlı devlet bile moratoryumu, yani geçici durdurmayı, kendi çıkarı için mi tercih eder? Yazarların yanıtı ikinci olasılığı ciddiye alıyor. Onlara göre mesele “iyi niyetli devletler dünyayı kurtarır mı?” sorusu değil; “felaketin beklenen maliyeti yeterince yüksek görülürse, rekabetçi devletler bile durmayı rasyonel bulur mu?” sorusudur.
Burada “yapay süper zekâ”dan kasıt, neredeyse tüm ekonomik alanlarda insan bilişsel performansını büyük ölçüde aşan bir sistemdir. Böyle bir teknoloji bilimsel keşifleri hızlandırabilir, yeni ilaçlar geliştirebilir, üretkenliği artırabilir. Fakat aynı sistem anlamlı insan denetiminin dışına çıkarsa, aldatma, manipülasyon, kendi kendini çoğaltma veya kendi hedeflerini insan değerlerinin önüne koyma gibi riskler doğurabilir. Makalenin merkezindeki tehlike budur: Kazananın ödülü büyük olabilir, ama kontrol kaybının bedeli kazananı da kaybedeni de içine alan kamusal bir felakete dönüşebilir.
Çalışma bu sorunu oyun teorisiyle modelliyor. Oyun teorisi, oyuncuların birbirlerinin hamlelerini hesaba katarak karar verdiği durumları inceler. Burada oyuncular iki büyük devlet gibi düşünülebilir. Her biri iki yoldan birini seçebilir: Yarışa devam etmek ya da süper zekâ geliştirmeyi geçici olarak durdurmak. Yarış daha hızlı ilerleme sağlar, fakat güvenlikten ödün verme riskini artırır. Durdurma ise güvenliği yükseltir, fakat rakibin öne geçme ihtimalini büyütür. Bu basit çerçeve içinde üç sonuç belirir: Güvenli bir zafer, güvenli bir kayıp veya herkes için yıkıcı bir felaket.
Bu modeli gündelik bir ikilem gibi düşünmek mümkündür. Dar bir köprüden iki otomobil aynı anda geçmeye çalışırsa ikisi de zarar görebilir; ama her sürücü diğerinin bekleyeceğinden emin değilse frene basmak da riskli görünür. Yapay süper zekâ yarışında köprü yalnızca iki otomobilin değil, tüm yol ağının kaderini belirler. Bu nedenle kritik soru, sürücülerden birinin ne kadar cesur olduğu değil, çarpışmanın bedelinin ne kadar büyük olduğudur. Bedel düşükse hızlanma cazip kalır. Bedel tüm sistemi çökertecek kadar büyükse, beklemek zayıflık değil, en makul strateji olabilir.
Modelin kalbi birkaç değişkendedir. İlk değişken, iki oyuncu arasındaki kapasite farkıdır: Kim daha çok hesaplama gücüne, araştırma birikimine, sermayeye ve teknik ekibe sahiptir? İkinci değişken, kazananın avantajının büyüklüğüdür. Eğer ilk gelen her şeyi alacaksa, kaybetme korkusu büyür. Eğer bilgi, standartlar ve ekonomik kazanımlar kısmen yayılacaksa, yarışın baskısı azalır. Üçüncü ve en kritik değişken, kontrolsüz yapay süper zekânın maliyetidir. Bu maliyet, sıradan bir ekonomik kayıp değildir; uygarlık ölçeğinde çöküş, kalıcı özerklik kaybı ya da insanlığın geleceğinin daralması gibi sonuçları temsil eder. Dördüncü değişken ise teknolojik belirsizliktir: Süper zekâya gerçekten ne zaman ve nasıl ulaşılacağı biliniyor mu, yoksa taraflar sisli bir yolda mı ilerliyor?
Bu değişkenler birleştiğinde yazarlar dört stratejik dünya tarif eder. İlk dünya “güvenli uyum”dur. Burada felaket maliyeti öylesine yüksektir ki yarışmanın marjinal getirisi anlamsızlaşır. Önde olan için durmak maliyetsiz sayılır; geride olan için hızlanmak ise adeta intihar hamlesidir. İkinci dünya “ön alma” dünyasıdır. Taraflar birbirine çok yakınsa ve kazananın avantajı büyükse, herkes rakibin bir adım öne geçmesinden korkar. Bu durumda iki taraf da yarışmanın tehlikeli olduğunu bilse bile frene basamaz. Üçüncü dünya “güven” dünyasıdır: Aslında iki taraf da karşılıklı durmayı yarışa tercih eder, fakat tek taraflı durup kandırılmaktan çekinir. Dördüncü dünya ise “saptırma” veya asimetri dünyasıdır: Öndeki aktör riski görüp durmak isterken, gerideki aktör bu durmayı fırsat bilip arayı kapatmaya çalışır.
Bu dört dünya, yapay zekâ tartışmalarındaki kaderci tonu zayıflatıyor. Makale “yarış yoktur” demiyor; aksine yarışın ne kadar güçlü bir dürtü olduğunu kabul ediyor. Fakat yarışın tek olası denge olmadığını gösteriyor. Bir devlet için rasyonel karar, yalnızca rakibin gücüne değil, felaketin nasıl algılandığına da bağlıdır. Eğer kontrol kaybının maliyeti düşük görülürse, yarış cazip kalır. Eğer bu maliyet teknolojik üstünlükten elde edilecek faydayı aşacak kadar yüksek görülürse, moratoryum yalnızca ahlaki bir çağrı değil, çıkar hesabının sonucu olabilir.
Modelin daha ince bulgusu, belirsizliğin her zaman yarışı hızlandırmadığıdır. Taraflar süper zekânın erişilebilir olduğundan ve küçük bir kapasite farkının kesin zafer getireceğinden eminse, öndeki taraf özgüven kazanır, gerideki taraf ise paniğe kapılabilir. Bu, yarışın en keskin hâlidir. Buna karşılık makul düzeyde teknolojik belirsizlik, “şimdi koşarsam kesin kazanırım” inancını zayıflatır. Kazananın avantajı da mutlak değilse, yani ilk gelenin diğerlerini tamamen ezmeyeceği düşünülüyorsa, karşılıklı durma için daha geniş bir alan açılır. Bu sonuç, güvenlik diplomasisinin yalnızca ahlaki ikna değil, stratejik teşvikleri yeniden tasarlama işi olduğunu gösterir.
Bu nokta önemlidir, çünkü devletler çoğu zaman gerçek risklere değil, riskleri nasıl algıladıklarına göre hareket eder. Yazarlar son birkaç yıldaki gelişmeleri bu algının değiştiğine dair işaretler olarak okur. 2023’te GPT-4’ten daha güçlü sistemlerin eğitimine altı aylık ara verilmesini isteyen açık mektup on binlerce imza aldı. Aynı yıl yapay zekâ kaynaklı yok oluş riskinin pandemiler ve nükleer savaş gibi küresel öncelikler arasında ele alınması gerektiğini söyleyen kısa ama etkili bir bildiri yayımlandı. Kamuoyu araştırmaları da endişenin yalnızca dar bir uzman çevresinde kalmadığını gösterdi. Bu dalga hızla siyasete yansıdı: ABD’de yapay zekâ güvenliğini hedefleyen başkanlık kararnamesi, Bletchley Park’ta yapılan ilk küresel yapay zekâ güvenliği zirvesi, İngiltere ve ABD’de güvenlik enstitülerinin kurulması ve Seul Zirvesi’nde uluslararası güvenlik enstitüleri ağına doğru atılan adımlar bu dönüşümün parçaları olarak sunuluyor.
Elbette moratoryum fikri hâlâ zor bir fikirdir. Bir durdurma kararının anlamlı olabilmesi için doğrulama mekanizmaları, hesaplama kaynaklarının izlenmesi, laboratuvarlar arası raporlama, uluslararası standartlar ve ihlale karşı yaptırımlar gerekir. Makale bu pratik sorunları çözmüş gibi davranmaz. Hatta modelin sınırlarını açıkça kabul eder: Gerçek dünya iki oyunculu değildir; devletler tek parça rasyonel aktörler gibi davranmaz; seçim döngüleri, şirket çıkarları ve askeri kurumlar kararları etkiler; yarış tek hamlelik değil, zamana yayılan bir süreçtir; ayrıca “yarış” ile “tam durdurma” arasında güvenliği artırarak geliştirmeye devam etmek gibi ara stratejiler de vardır.
Yine de çalışmanın güçlü tarafı, tartışmanın çerçevesini değiştirmesidir. Moratoryum genellikle erdemli ama uygulanamaz bir öneri gibi sunulur. Oysa model, bazı koşullarda moratoryumun uygulanamaz değil, aksine rasyonel dengeye yakın olabileceğini söyler. Kazananın her şeyi alacağı düşüncesi zayıflatılırsa, güvenlik yatırımları ortak standart hâline gelirse, taraflar rakibin niyetini ve kapasitesini daha güvenilir biçimde gözleyebilirse, yarışın baskısı azalabilir. Başka bir deyişle, politika yalnızca “kim daha hızlı?” sorusuna değil, “kazananın ödülünü ve hatanın bedelini nasıl yeniden tanımlarız?” sorusuna da odaklanmalıdır.
Bu bakış, yapay süper zekâ riskini nükleer silahlar benzetmesinden kısmen ayırır. Nükleer caydırıcılıkta bir tarafın silahı diğerine yönelir; kontrolsüz süper zekâda ise risk geliştiriciyi de rakibini de vurabilir. Bu yüzden felaket maliyeti gerçekten ortaksa, güvenlik de ortak çıkarın parçası hâline gelir. Rekabet ortadan kalkmaz, fakat rekabetin mantığı değişir: En hızlı olmak değil, kontrol edilemeyen bir sistemi ilk serbest bırakan taraf olmamak stratejik önem kazanır.
Sonuçta makalenin verdiği mesaj ne iyimser bir masal ne de felaketçi bir kehanettir. Daha çok, geleceğin sabit olmadığını söyleyen bir strateji uyarısıdır. Devletler bugün hâlâ üstünlük, prestij ve güvenlik kaygısıyla yarışa eğilimli olabilir. Ancak felaketin algılanan maliyeti arttıkça, “durmak kaybettirir” cümlesi evrensel bir doğru olmaktan çıkar. Bazen en sert çıkar hesabı bile aynı sonuca varabilir: Eğer ödül dünyayı riske atacak kadar pahalıysa, yarışı kazanmanın en akıllıca yolu yarışı durdurmak olabilir.
ONUR TOKER
Kaynakça: Roussel, Edward, et al. “Are We Doomed to an AI Race? Why Self-Interest Could Drive Countries Towards a Moratorium on Superintelligence.” arXiv, version 2, 7 May 2026, https://doi.org/10.48550/arXiv.2605.01297. Accessed 9 May 2026.