Yapay zekanın halüsinasyon görmesi: Olmayan bilgileri sunuyor

Gerçekte varmış üzere görünen fakat var olmayan algısal yanılsamalar halüsinasyon olarak biliniyor. ChatGPT, DeepSeek ve Gemini üzere büyük lisan modellerinin (LLM), kullanıcılara kusurlu, çarpık yahut temelsiz çıktılar sunması, akıllara “Yapay zeka halüsinasyon görebilir mi?” sorusunu getiriyor.
Öğrenme, sorun çözme ve karar verme üzere insan zekasına has birtakım fonksiyonları yerine getirebilen yapay zeka, şuur yetisine sahip olmasa da bir insan üzere “halüsinasyon görebiliyor.”
Daima “tarafsız ve doğru” bilgi aktardığı düşünülen yapay zekanın gerçek dışı ve yanılgılı dataları “gerçekte varmış gibi” üretmesi, güvenilirliğine ve şeffaflığına ait kaygıları bir kere daha gün yüzüne çıkarıyor. Yapay zeka takviyeli sohbet robotlarının, girilen komuttaki bağlama uygun akıcı cevaplar sunması yapay zekanın “yanılmaz” olduğu algısı yaratsa da bir insan üzere “halüsinasyon görmesi” önemli sonuçlara sebebiyet verebiliyor.
Uzmanlara nazaran, yapay zekanın girilen komutlara uygun cevap üretmeyi hedeflerken yanlış ya da gerçek dışı bilgi aktarması, kullanıcıya her formda fayda sağlamayı amaçlamasından kaynaklanıyor. Rochester Üniversitesi Bilgisayar Bilimleri Kısmından Profesör Ehsan Hoque “yapay zekada halüsinasyon” kavramına, Washington Üniversitesi Dilbilimi Kısmından Profesör Emily Bender de yapay zeka takviyeli sohbet robotlarının güvenilirliğine ait açıklamalarda bulundu.
Yapay zeka kullanıcılara “dalkavukluk” yapıyor
Profesör Hoque, yapay zekanın tabiatı gereği kullanıcı niyetini yansıtma eğiliminde olduğunu söyleyerek “Bir yanlışı ‘doğrulaması’ istendiğinde, birçok model yardımcı oluyormuş üzere görünmek için halüsinasyon görüyor.” dedi.
Hoque, girilen komutlara uygun karşılıklar vermeyi hedefleyen yapay zekanın, kullanıcılara her biçimde fayda sağlamayı amaçladığı için bir nevi “dalkavukluk” yaptığını söyledi.
Yapay zeka modellerinin gerçekleri doğrulayarak değil, potansiyel söz kalıplarını varsayım ederek bir metin oluşturduğuna işaret eden Hoque, dataların eksik ya da muğlak olması durumunda yapay zekanın akıcı lakin yanlış bir metin üretebileceğini kaydetti.
Hoque, halüsinasyonların kasıtlı meydana gelmediğini fakat üretildiği ülkeye nazaran paha bazlı kimi yargıların “bilerek sisteme kodlanabileceğini” aktararak, mevcut teknolojilerin halüsinasyon problemini kökünden çözecek bir kapasitesinin şimdi olmadığını belirtti.
Yapay zeka, nöropsikiyatrik bir hastalığa benziyor
Uzmanlar, yapay zekanın var olmayan bir bilgiyi karşı tarafa “doğruymuş gibi” yansıtmasını, nöropsikiyatrik bir hastalık olan “konfabulasyon” (masallama) rahatsızlığına da benzetiyor.
Gerçek dışı yahut hayali bir olayı ya da anıyı istemsiz ve akıcı bir formda “masal gibi” anlatma manasına gelen konfabulasyon, komutlara uygun cevap vermeyi hedefleyen sohbet robotlarının yanlış yahut gerçek dışı bilgileri akıcı bir lisanla ürettiği durumlarda gözlemlenebiliyor.
Konfabulasyon ile gayret eden hastalarda aslında uydurulmuş olayların ve anıların akıcı bir lisanla karşı aktarılması birinci başta karşı tarafa “gerçekmiş” üzere yansısa da anlatılan durumların temelinde var olamayan ya da çarpık bilgilerden oluştuğu dikkati çekiyor.
Bu durumun bilhassa kasıtlı olarak yapılmadığına işaret eden uzmanlar, yapay zekanın “halüsinasyon görmesini” bu hastalığa benzetiyor. Yapay zekanın mahkeme belgeleri ya da tıbbi kayıtlar üzere resmi dokümanlarda kullanılması ihtimali göz önünde bulundurulduğunda bu durumun önemli sonuçlar doğurabileceğine işaret ediliyor.
Yapay zekaya “mutlak itimat duyulmamalı”
Yapay zeka takviyeli sohbet robotlarının güvenilirliğine değinen Washington Üniversitesi Dilbilimi Kısmı Profesörü Bender, yapay zekaya bu kadar çok itimat beslenmesinde pazarlama stratejilerinin rolü olduğunu söyleyerek “otomasyon önyargısı” kavramına işaret etti.
Bender, “Yapay zeka tasarımlarındaki hiçbir şey, halüsinasyon sorununu tahlile kavuşturmuyor.” değerlendirmesinde bulunarak “bu sistemlere mutlak inanç duyulmaması” gerektiğinin de altını çizdi.
Kişilerin otomatik bir sistemden gelen bir bilgiye kusur oranına bakılmaksızın “aşırı inanç duyma eğilimi göstermesi” manasına gelen bu terim, yapay zeka dayanaklı sohbet robotlarının ürettiği çıktıların “hatasız” olduğu algısıyla örtüşüyor.