

ABD, Kanada ve İngiltere’den araştırmacılar tarafından yapılan yeni bir çalışma, yapay zeka destekli sohbet botlarının sağlık alanında güvenilirlik sorunları taşıdığını ortaya koydu.
Tıp dergisi BMJ Open’da yayımlanan araştırmada, ChatGPT, Gemini, Meta AI, Grok ve DeepSeek olmak üzere beş popüler platform incelendi.
Araştırmacılar, sohbet botlarına farklı sağlık kategorilerinde toplam 50 soru yöneltti. Elde edilen yanıtların yaklaşık yüzde 50’si “sorunlu”, yüzde 20’ye yakını ise “yüksek derecede sorunlu” olarak değerlendirildi.
Çalışma, özellikle açık uçlu sorularda ve kök hücre ile beslenme gibi alanlarda hatalı yanıtların daha sık görüldüğünü ortaya koydu.
Sohbet botlarının, kapalı uçlu sorular ile aşı ve kanser gibi konularda nispeten daha doğru yanıtlar verdiği belirlendi.
Buna karşın, verilen cevapların çoğunun yüksek bir güven ve kesinlik tonuyla sunulmasına rağmen, hiçbir botun eksiksiz ve doğru kaynak listesi sağlayamadığı vurgulandı.
Araştırma, yapay zeka sohbet botlarının tıbbi teşhis koyma yetkisi bulunmamasına ve klinik değerlendirme kapasitesine sahip olmamasına rağmen yaygın şekilde kullanıldığına dikkat çekti.
Günümüzde milyonlarca kullanıcı sağlık sorunlarıyla ilgili sorularını bu platformlara yöneltirken, bu durum yanlış bilginin yayılma riskini artırıyor.
Araştırmacılar, yapay zeka sohbet botlarının “otoriter ve güvenilir gibi görünen ancak hatalı olabilecek yanıtlar üretebildiğini” belirterek, bu sistemlerin sağlık iletişiminde kullanımının yeniden değerlendirilmesi gerektiğini ifade etti.
Çalışmada ayrıca, kamuoyunun bilinçlendirilmemesi ve yeterli denetim sağlanmaması halinde bu teknolojilerin yanlış bilgiyi yayma riskinin artabileceği uyarısında bulunuldu.


