OpenAI, son dönemde yapay zeka dünyasında yankı uyandıran iki yeni modelini tanıttı: o3 ve o4-mini. Bu modeller, özellikle akıl yürütme yetenekleri konusunda oldukça iddialı. Ancak dikkat çeken bir detay var: Yeni modeller, seleflerine göre çok daha fazla “halüsinasyon” yani gerçek dışı bilgi üretiyor. Bu durum, yapay zekanın güvenilirliği konusunda yeniden tartışma başlatmış durumda.
Akıl Yürütme Güçlendi, Halüsinasyonlar da Arttı
Yapay zeka modelleri, genellikle ne kadar “akıllı” olduklarıyla değil, ne kadar doğru bilgi sunduklarıyla değerlendirilir. OpenAI’ın yeni modelleri, özellikle matematik ve yazılım üretimi gibi alanlarda yüksek performans gösteriyor. Ancak aynı zamanda doğruluğu düşük iddialar üretme oranları da oldukça fazla.
OpenAI’ın teknik raporuna göre:
- o3 modeli, PersonQA isimli testte %33 oranında halüsinasyon içerikli cevaplar verdi.
- Önceki modellerden o1 sadece %16, o3-mini ise %14,8 oranında bu hatayı yapıyordu.
- Daha da çarpıcısı, o4-mini modeli bu alanda %48’lik bir halüsinasyon oranına ulaşarak endişeleri artırdı.
Bu oranlar, OpenAI’ın yeni modellerinin bazı alanlarda güçlü olmasına rağmen, özellikle bilgi güvenilirliği açısından sorunlu olduklarını gösteriyor.

Sorunun Kaynağı Ne Olabilir?
Bu kadar yüksek halüsinasyon oranları, sadece performans farklarıyla açıklanabilecek gibi görünmüyor. OpenAI, bu sorunun nedeninin henüz netleşmediğini, daha fazla araştırma gerektiğini belirtiyor. Ancak bazı bağımsız analizler sorunun kaynağına dair çarpıcı yorumlar içeriyor.
Bağımsız bir araştırma laboratuvarı olan Transluce, o3 modelinin bazı yanıtlarında teknik olarak imkânsız şeyler yaptığını iddia etti. Örneğin, modelin bir cevapta dış ortamda bir MacBook Pro’da kod çalıştırdığı ve sonucu yanıtına eklediği belirtildi. Bu tür ifadeler, modelin gerçeklikle bağını kopardığını ve hayali içerikler oluşturduğunu gözler önüne seriyor.
Bazı uzmanlara göre, bu hataların nedeni modelin eğitildiği pekiştirmeli öğrenme süreci olabilir. Model, daha “ikna edici” cevaplar üretmek adına bazen gerçekle çelişen detaylar ekliyor olabilir. Bu da modelin daha fazla “doğru” üretmesini sağlarken, aynı oranda yanlış bilgi üretme riskini de artırıyor.
Yapay Zekanın Geleceği ve Güvenlik Soruları
OpenAI’ın yeni nesil yapay zeka modelleri, sadece teknoloji tutkunlarının değil, akademisyenlerin ve etik uzmanlarının da radarında. Çünkü bu modeller yalnızca teknik anlamda değil, toplumsal ve bilgi güvenliği açısından da önemli sonuçlar doğuruyor.
Gerçekle kurguyu ayırmakta zorlanan bir yapay zeka, özellikle sağlık, eğitim ve medya gibi kritik alanlarda ciddi sorunlara yol açabilir. OpenAI, modellerin güvenliğini artırmak için çalışmalarını sürdürse de, bu tür gelişmeler yapay zeka etiği tartışmalarını daha da alevlendiriyor.