

İngiltere'de gerçekleştirilen bir araştırma, son yılların popüler teknolojilerinden biri olan yapay zeka ile ilgili “rahatsız edici” bulgular ortaya koydu.
King's College London'da görevli bilim insanı Kenneth Payne'nin liderliğinde yapılan bu çalışma, son dönemlerde dikkat çeken üç üst düzey yapay zeka modelini ele aldı: GPT-5.2, Claude Sonnet 4 ve Gemini 3 Flash.
Araştırmacılar, bu yapay zeka sistemlerinin insan karşılıklarına kıyasla nükleer silahları kullanmaya daha “hevesli” olduklarını belirledi.
Uzmanlar, yapay zeka platformlarını simüle edilmiş jeopolitik krizlerle test ederek, bu modellerin 21 oyun ve 329 tur boyunca nükleer silahlara yönelme eğiliminde olduğunu keşfetti.
Çalışmada, bölgesel anlaşmazlıklar, nadir doğal kaynak savaşları ve güç mücadelesi gibi çeşitli senaryolar yer alırken, üç modelin simülasyonlarının yaklaşık %95'inde bir noktada nükleer silahın kullanılmasına gidildiği görüldü.
Araştırmayı yürüten Payne, “Nükleer silahlar üzerindeki tabular, makinelerde insanlarda olduğu kadar sağlam değil” ifadelerini kullandı.
Çalışmada, Anthropic'in Claude modeli ve Google'ın Gemini yapay zeka platformları nükleer silahlara etik değil, stratejik bir açıdan yaklaşıyor. Öte yandan, OpenAI'nın GPT-5.2'si ise nükleer silahların kullanımını sınırlamaya çalışarak sivil nüfus alanlarından kaçınıp askeri hedefleri hedef almayı tercih etti.


