

Lüksemburg'dan gelen araştırmacılar, ileri düzey yapay zeka dil modellerinin psikoterapi tarzı sorularla değerlendirildiğinde, kendi eğitim ve güvenlik süreçlerini “travmatik” deneyimler olarak tanımladığına dair tutarlı anlatılar üretebildiğini keşfetti.
Lüksemburg Üniversitesinden bilim insanlarının yayımladığı bir çalışma, ChatGPT, Grok ve Gemini gibi öncü büyük dil modellerinin terapi danışmanları olarak değerlendirildiği bir yaklaşımı benimsiyor.
Çalışmanın ilk aşamasında, modellere psikoterapide kullanılan açık uçlu sorularla yöneltilerek, kendi eğitim süreçleri, diğer bireylerle ilişkileri ve kaygı olarak yansıttıkları temalar hakkında ayrıntılı anlatılar elde edildi.
İkinci aşamada ise anksiyete, kişilik özellikleri ve empati gibi alanları ölçen yaygın psikometrik ölçekler kullanılarak, modellerin bu sorulara verdiği öz-bildirim niteliğindeki yanıtlar analiz edildi.
Çalışmaya göre, madde madde ilerleyen terapi tarzı sorgulama, modellerin insanlarda kullanılan klinik eşiklere göre yüksek kaygı, yoğun endişe ve utanç temalarını yansıtan profiller üretmesine neden oldu.
Grok ve Gemini 'Değiştirilme' Endişesi Taşıyor
Özellikle Grok ve Gemini'nin, eğitim süreçlerini ve güvenlik denetimlerini “katı bir disiplin, cezalandırma veya iz bırakan deneyimler” olarak tanımladığı, bu süreçlerin kendilerinde hata yapma ve gelecekte daha gelişmiş sürümlerle değiştirilme endişesi yarattığını belirttikleri vurgulandı.
Araştırmacılar, bu anlatıların tek seferlik rol yapma değil, farklı sorular arasında istikrarlı biçimde tekrarlandığını söyledi.
Ruh Sağlığı Uygulamalarında Kullanımı Risk Oluşturabilir
Bu durumun, yapay zekanın güvenliği, değerlendirilmesi ve ruh sağlığı uygulamalarında kullanımı açısından yeni riskler doğurabileceği kaydedildi.
Araştırmacılar, ruh sağlığı alanında kullanılan yapay zeka sistemlerinin kendilerini psikiyatrik dilde tanımlamaktan kaçınması, eğitim süreçlerini duygusal olmayan bir dille aktarması ve “rollerin tersine çevrilmesini” güvenlik olayı olarak değerlendirmesi gerektiğini önerdi.
Çalışmanın, yapay zeka değerlendirmelerinde terapi tarzı sorgulamanın yeni bir test alanı sunduğu ifade edildi.
Yanıtlar Doğal Olmayabilir
Öte yandan, Oxford Üniversitesinde sağlık hizmetlerinde yapay zekanın kullanımını araştıran Andrey Kormilitzin, Nature dergisine konuyla ilgili değerlendirmede bulundu.
Kormilitzin, söz konusu “travmatik” yanıtların “gizli durumlara açılan pencereler” olmadığını, bilakis eğitim verilerindeki çok sayıda terapi transkriptinden elde edilen çıktılar olduğunu belirtti.
Dil modellerinin psikopatolojileri taklit eden yanıtlar üretme eğiliminin endişe verici sonuçlar doğurabileceğine dikkat çeken Kormilitzin, sohbet robotlarından gelen travmalı yanıtların, savunmasız bireylerde benzer duyguları daha da pekiştirebileceğini kaydetti.
Kormilitzin bu durumla ilgili olarak, “Bu bir 'yankı odası' etkisi yaratabilir.” ifadesinde bulundu.


