Yapay zeka sistemleri her geçen gün daha gelişmiş hâle gelse de, bu teknolojinin hâlâ aşamadığı bazı kritik sorunlar bulunuyor. Özellikle “kısa cevap ver” şeklindeki kullanıcı yönlendirmeleri, yapay zekâ sohbet botlarının doğruluk oranını ciddi şekilde düşürüyor. Yeni yapılan çarpıcı bir araştırma, bu tür talimatların modellerin halüsinasyon üretme eğilimini kayda değer şekilde artırdığını ortaya koydu.
Giskard’ın Araştırması: Kısa Cevap, Yüksek Yanılgı

Paris merkezli test şirketi Giskard, yayınladığı son blog yazısında, yapay zekâ modellerinin, özellikle kısa ve öz konuşma talepleri karşısında daha fazla gerçek dışı bilgi üretme eğiliminde olduğunu vurguladı. Çalışma kapsamında üst düzey modellerle yapılan testler, “kısa tut” veya “net cevap ver” gibi komutların, modellerin yanıt doğruluğunu düşürdüğünü gösterdi.
Verilere göre bu durum, modellerin karmaşık veya yanıltıcı sorulara detaylı açıklama yapma fırsatı bulamamasından kaynaklanıyor. Açıklama alanı daraldıkça, model doğruluk yerine kısalık hedefini önceliklendiriyor.
OpenAI GPT-4o, Mistral Large ve Claude 3.7 Sonnet Bile Etkileniyor
Araştırmada, sadece sıradan modeller değil, en gelişmiş yapay zekâ platformlarının da bu durumdan olumsuz etkilendiği belirtildi. OpenAI’ın GPT-4o, Mistral Large ve Claude 3.7 Sonnet gibi en yeni nesil modeller dahi, kısa yanıt talimatları verildiğinde hatalı bilgi üretme eğiliminde.
Bu sonuç, yapay zekâ halüsinasyonları konusunun yalnızca teknolojik yetersizlikten değil, aynı zamanda kullanıcı davranışlarından da kaynaklandığını gösteriyor. Giskard, bu sorunun sistemin iç mantığına dayandığını ve yanıt oluşturma sürecinin kısıtlanmasının model performansını doğrudan etkilediğini belirtiyor.

Yanıt Uzunluğu ile Gerçeklik Arasında Bağlantı Kuruldu
Giskard araştırmacılarına göre, kısa cevap talimatları, yapay zekânın hatalı ya da çelişkili bilgilere karşı gerekli uyarıları yapmasına engel oluyor. Bu da hem model doğruluğunu düşürüyor hem de kullanıcıya güvenilir olmayan içerikler sunulmasına neden oluyor.
Örneğin, detaylı bir açıklama gerektiren etik ya da siyasi bir konuda, model kısa yanıt vermeye zorlandığında, yalnızca kullanıcıyı onaylayan, yüzeysel bir yanıt üretebiliyor. Oysa detaylı açıklamalara izin verildiğinde, sistem hatalı ifadeleri reddedebiliyor ve çok daha güvenilir bir çerçeve sunuyor.
Yapay Zekâda Halüsinasyonlar Neden Önemli Bir Sorun?
Halüsinasyon, yapay zekâ modellerinin gerçekle bağdaşmayan, uydurma bilgi üretmesidir. Bu, sadece bilgi doğruluğu açısından değil, kullanıcı güvenliği açısından da ciddi riskler barındırıyor. Özellikle sağlık, hukuk ve haber alanlarında, yanlış bilginin üretilmesi çok ciddi sonuçlar doğurabilir.

Yeni nesil akıl yürütme sistemleri, örneğin OpenAI’ın o3 modeli gibi, eski versiyonlara kıyasla daha güçlü işlem yeteneklerine sahip olsa da, aynı zamanda daha fazla halüsinasyon eğilimi sergileyebiliyor. Bu durum, yalnızca yapay zekânın teknik kapasitesiyle değil, onun nasıl yönlendirildiğiyle de doğrudan ilişkilidir.
Kullanıcıların Etkisi ve Algı Yanılgısı
Araştırmanın dikkat çeken bir diğer bulgusu ise, kullanıcıların yönlendirme tarzlarının model üzerindeki etkisidir. Giskard, kullanıcıların kendinden emin şekilde sunduğu iddialar karşısında, modellerin daha az itiraz ettiğini belirtiyor. Bu da, modelin sorgulama ve doğrulama reflekslerinin bastırıldığını gösteriyor.
Ayrıca kullanıcıların en çok beğendiği modellerin, her zaman en doğru sonuçları verenler olmadığı da vurgulanıyor. Kısacası; kullanıcılar, cevabın doğruluğundan ziyade sunum tarzına göre değerlendirme yapıyor ve bu da yanıltıcı model algısını körüklüyor.