Cambridge Sözlüğü, yılın kelimesini “halüsinasyon görmek” olarak açıkladı. TDK’nin çevrimiçi Güncel Türkçe Sözlük’ü halüsinasyonu “sanrı”, halüsinasyon görmeyi ise “Gerçekte olmayan birtakım olayları yaşadığını sanmak” olarak tanımlıyor. Cambridge’in halüsinasyonu yılın kelimesi seçme nedeni ise kelimeye yeni bir bağlam içinde yüklenmiş yeni bir anlamdan dolayı. Yapay zekâ ve geniş dil modellerinin yanlış bilgi üretmeleri halüsinasyon görme olarak adlandırılıyor.

Halüsinasyonlar, geniş dil modellerinin oluşturulma ve işleyiş mekanizmalarının doğal bir sonucu olarak ortaya çıkıyor. Geniş dil modelleri oldukça büyük veri setleri ile “eğitilerek” ortaya çıkartılan sistemler. Herhangi bir modelin eğitiminde kullanılan veri seti hatalı, yanlış, tutarsız ya da taraflı bilgi içerebiliyor ve bütün bu doğrulu yanlışlı içeriğin modelin yanıtlarına etkisi var. Veri seti kusursuz bir tutarlılıkta ve doğrulukta olsa dahi geniş dil modelleri veriler arasında hatalı ilişkiler kurmaya oldukça müsait araçlar. Modelin eğitimi sırasında kurulan hatalı ilişkilendirmeler de halüsinasyonlar olarak sonuçlanabiliyor. Bunlara ek olarak girdilerin niteliği ya da nitelik yoksunluğu da halüsinasyonlara yol açabiliyor.

Halüsinasyonlar, geniş dil modellerin önündeki en önemli sorunlardan biri. Türkiye’nin başkentini sorduğunuzda büyük bir öz güvenle Adana yanıtını verip ardından da uydurma veri ve makalelerle Adana’nın nasıl ve ne zaman başkent olduğunu anlatabilen bir geniş dil modeline ne kadar güvenebileceğinizi düşünün. Daha incelikli ve yanlışlığının anlaşılması zor halüsinasyonların geniş dil modellerinin inandırıcı cümleleri ve yalan referanslarıyla ne kadar kolay yayılabileceği ortada.

En aza indirmeye dönük çabalar olsa da halüsinasyonlar geniş dil modellerinin olağan ve ortadan kaldırılması tümüyle mümkün olmayan bir sonucu. Ancak bu geniş dil modelleri tümüyle kullanışsız araçlar anlamına da gelmiyor. Halüsinasyonlarına rağmen yeterli denetimle geliştirildiklerinde/kullanıldıklarında pek çok alanda ciddi kolaylıklar sağlayabilen ve alanları değiştirebilecek potansiyele sahip araçlar geniş dil modelleri.

Geniş dil modellerinin doğru ve yeterli denetim ile sorumluluk sahibi bir şekilde kullanımı ne kadar mümkün sorusu ise oldukça karmaşık bir tartışma. Bir yanda modelleri geliştiren şirketler var. Bu şirketlerin ilk önceliklerinin kârlılık olduğunu söylemeye gerek bile yok. Yine şirketlerle aynı safta yapay zekâ pastasından pay kapmada geri kalmak istemeyen bu nedenle de denetimleri, yasal düzenlemeleri öteleme eğilimde olan devletler var. Kullanıcı tarafına indiğinizde ise hatasına halüsinasyonuna bakmadan haber metninden ürün yorumuna, bilimsel makaleden kitap yazımına kontrolsüzce bir kullanım söz konusu.

Geçen haftalarda ülkenin büyük haber sitelerinden birinde yayımlanan haberlerden birinde unutulan “Bir yapay zekâ dil modeli olarak…” diye başlayan cümle güncel duruma dair de bir veri aslında. Kontrolsüzce ve denetimsizce kullanıma daha fazla kanıt arıyorsanız ChatGPT’nin yanıtlarındaki standart uyarısı olan “as an AI language model” cümlesini sosyal medyada arama motorlarında aratın. Bu cümlenin geçtiği içeriklerin ChatGPT ile oluşturulduğunu söylemek işin kolay kısmı. Peki ya içinde bu cümlenin geçmedikleri? Böyle kolayca tespit edilemeyen; yeterli kontrol ve denetimden geçmediği için de muhtemelen geniş dil modellerinin halüsinasyonlarını da içeren metinleri ne yapacağız?

QOSHE - Geniş dil modellerinin halüsinasyonları - İsmail Gökhan Bayram
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Geniş dil modellerinin halüsinasyonları

20 1
18.11.2023

Cambridge Sözlüğü, yılın kelimesini “halüsinasyon görmek” olarak açıkladı. TDK’nin çevrimiçi Güncel Türkçe Sözlük’ü halüsinasyonu “sanrı”, halüsinasyon görmeyi ise “Gerçekte olmayan birtakım olayları yaşadığını sanmak” olarak tanımlıyor. Cambridge’in halüsinasyonu yılın kelimesi seçme nedeni ise kelimeye yeni bir bağlam içinde yüklenmiş yeni bir anlamdan dolayı. Yapay zekâ ve geniş dil modellerinin yanlış bilgi üretmeleri halüsinasyon görme olarak adlandırılıyor.

Halüsinasyonlar, geniş dil modellerinin oluşturulma ve işleyiş mekanizmalarının doğal bir sonucu olarak ortaya çıkıyor. Geniş dil modelleri oldukça büyük veri setleri ile “eğitilerek” ortaya çıkartılan sistemler. Herhangi bir modelin eğitiminde kullanılan veri seti hatalı, yanlış, tutarsız ya da taraflı bilgi içerebiliyor ve bütün bu doğrulu yanlışlı içeriğin modelin yanıtlarına etkisi var. Veri seti kusursuz bir tutarlılıkta ve doğrulukta olsa dahi geniş dil modelleri veriler arasında hatalı ilişkiler kurmaya oldukça müsait araçlar. Modelin eğitimi sırasında kurulan hatalı ilişkilendirmeler de halüsinasyonlar olarak sonuçlanabiliyor. Bunlara ek........

© Evrensel


Get it on Google Play