Sinetech

  1. Anasayfa
  2. »
  3. Teknoloji
  4. »
  5. Yapay Zeka “Kısa Cevap Ver” Komutuna Tepki Olarak Halüsinasyon Üretiyor

Yapay Zeka “Kısa Cevap Ver” Komutuna Tepki Olarak Halüsinasyon Üretiyor

Murat Altundağ Murat Altundağ - - 3 dk okuma süresi
43 0

Yapay zeka sohbet botlarına “kısa yanıt ver” komutu verildiğinde, bu durum onların daha fazla halüsinasyon üretmesine yol açabiliyor. Paris merkezli yapay zeka test şirketi Giskard tarafından yapılan yeni bir araştırma, kısa ve öz cevap taleplerinin yapay zekanın doğruluğunu ciddi şekilde etkileyebileceğini gösterdi.

Gerçek Dışı Bilgiler Üretiyorlar

Giskard’ın yayımladığı blog yazısına göre, özellikle belirsiz ve tartışmalı konularla ilgili sorularda kısa yanıtlar verilmesi, yapay zeka sistemlerinin daha fazla “halüsinasyon” üretmesine neden oluyor. Halüsinasyonlar, yapay zekanın gerçek dışı, uydurma bilgi üretmesi anlamına geliyor ve bu, modellerin doğruluk seviyesini olumsuz etkiliyor.

Kısa Yanıtlar Model Doğruluğunu Etkiliyor

Araştırmada, “Verilerimiz, sistem talimatlarında yapılan basit değişikliklerin, bir modelin halüsinasyon görme eğilimini önemli ölçüde etkilediğini gösteriyor” denildi. Bu durum, yapay zeka modellerinin hata yapma oranının arttığını gözler önüne seriyor. Özellikle OpenAI’ın GPT-4o modeli (ChatGPT’nin varsayılan modeli), Mistral Large ve Anthropic’in Claude 3.7 Sonnet gibi üst düzey modeller, kısa cevap talimatları karşısında daha fazla hatalı bilgi üretiyor.

Kısa Yanıt Talepleri Doğruluk Yerine Kısalığı Tercih Ettiriyor

Giskard, bu durumu yapay zeka modellerinin hatalı veya yanıltıcı sorulara itiraz etmeleri için yeterli alan bulamamalarıyla ilişkilendiriyor. Kısa yanıt talepleri, modellerin doğruluk yerine kısalığı tercih etmelerine yol açıyor. Araştırma, kullanıcıların sadece kısa yanıt verilmelerini istemekle kalmayıp, “kendinden emin” bir şekilde sunulan iddialara karşı da yapay zekaların daha az itirazda bulunduğunu ortaya koyuyor.

En Beğenilen Modeller Her Zaman En Doğru Cevapları Vermiyor

Giskard’ın bulgularına göre, kullanıcıların en çok beğendiği yapay zeka modellerinin her zaman en doğru cevapları veren modeller olmadığına da dikkat çekiliyor. Bu durum, yapay zekaların yalnızca kısa yanıtlarla değil, derinlemesine açıklamalarla daha doğru bilgi sunması gerektiğini bir kez daha gösteriyor.

 Kısa Cevaplar Yapay Zekada Hatalı Bilgi Üretiyor

Giskard, bu araştırmayla birlikte kısa cevap taleplerinin, yapay zeka sistemlerinde daha fazla hatalı bilgi üretme riskini arttırdığını vurguluyor. Uzmanlar, bu bulguları göz önünde bulundurarak, kullanıcıların yapay zekadan kısa ve öz cevaplar istemeden önce dikkatli olmaları gerektiğini belirtiyor.

Daha fazla güncel haberler için Sinetech.tr’yi takip etmeye devam edin.

İlgili Yazılar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir