Sohbet Botları: Sağlık Tavsiyelerinin Yüzde 50'si Hatalı Bilgi Veriyor
BILIM TEKNOLOJI

Sohbet Botları: Sağlık Tavsiyelerinin Yüzde 50'si Hatalı Bilgi Veriyor

Yeni bir araştırma, yapay zeka sohbet botlarının sağlık önerilerinin yarısının hatalı olduğunu ortaya koydu.

1 kez görüntülendi
Yapay zeka sohbet botları, son birkaç yıl içinde iş dünyasından günlük yaşama kadar birçok alanda etkisini hissettirdi. Bu teknolojiler, bilimsel çalışmalar, eğitim ve pazarlama gibi birçok sektörde kullanılmakta; ancak sağladıkları faydaların yanı sıra beraberinde getirdiği riskler de tartışma konusu olmaktadır. Uzmanlar, bu botların yanlış bilgi verme eğilimlerinin, arama motorları gibi kullanıldıklarında ciddi olumsuz sonuçlar doğurabileceğine dikkat çekiyor. ABD, Kanada ve Birleşik Krallık'tan araştırmacılar, sohbet botlarının sağlık tavsiyelerinin güvenilirliğini inceleyerek bu riskin boyutunu değerlendirmeye çalıştı. Çalışmanın sonuçları, BMJ Open adlı hakemli dergide 14 Nisan'da yayımlandı. Araştırmada, 5 popüler yapay zeka sohbet botu test edildi: ChatGPT, Gemini, DeepSeek, Meta AI ve Grok. Bu araçlara kanser, aşılar, kök hücre, beslenme ve atletik performans gibi konularda açık ve kapalı uçlu 10'ar soru yöneltildi. Sorular, çevrimiçi ve akademik ortamlarda sıkça karşılaşılan sağlık bilgisi arayışlarına benzer şekilde hazırlandı. Araştırmacılar, botların verdiği yanıtları doğruluk ve eksiksizlik açısından, ayrıca anlaşılabilirlik düzeyine göre de değerlendirdi. Sonuçlar, sohbet botlarının verdiği cevapların yüzde 30'unun "biraz", yüzde 20'sinin ise "yüksek" derecede sorunlu olduğunu gösterdi. Araştırma ekibi, sorunlu yanıtları, profesyonel yardım alınmadan uygulandığında etkisi olmayacak veya kişiye zarar verebilecek tavsiyeler olarak tanımladı. Yapay zeka araçları, kapalı uçlu sorularda ve kanserle ilgili aşı konularında daha iyi bir performans sergiledi. Cevapların kalitesi 5 farklı araç arasında çok fazla değişiklik göstermezken, Grok en fazla hata yapan bot olurken, Gemini en az hata yaptı. Botlar, okunabilirlik açısından da zayıf kaldı; araştırmacılar yanıtların, üniversite mezunlarının anlayabileceği bir karmaşıklık seviyesinde olduğunu ifade ediyor. Bilim insanları, yanıtların güven verici kesinlikte ifade içerdiğini, ancak botların bu ifadeleri destekleyecek eksiksiz ve doğru bir referans listesi sunmadığını belirtiyor. Bulgular, tıbbi tavsiye vermek için uygun olmayan bu araçların sık kullanımıyla ilgili tehlikeleri gözler önüne seriyor. OpenAI, ocak ayında ChatGPT'ye her hafta yaklaşık 230 kullanıcının sağlık soruları yönelttiğini açıklamıştı. Aynı dönemde OpenAI ve Claude'un sahibi Anthropic, sağlık odaklı yeni araçlar geliştireceklerini duyurdu. Araştırmacılar, makalelerinde "Sohbet botları varsayılan olarak gerçek zamanlı verilere erişemez. Bunun yerine eğitim verilerinden istatistiksel kalıplar çıkararak ve olası kelime dizilerini tahmin ederek yanıt üretirler. Kanıtları değerlendiremezler; etik ya da değer temelli yargılarda bulunamazlar" ifadelerine yer verdi. "Bu davranışsal sınırlama, sohbet botlarının güvenilir görünseler de hatalı yanıtlar üretebileceği anlamına geliyor."