OpenAI’da halüsinasyon krizi: Yapay zekalar çok fazla düşünmeye başladı!

Yapay zeka sohbet robotları (chatbotlar) birinci ortaya çıktığından bu yana, aldatıcı bilgiler ya da “halüsinasyonlar” daima bir sorun olmuştur.

Her yeni modelde, bu halüsinasyonların azalması beklenmişti. Fakat, OpenAI’nin son bulguları, bunun aksine, halüsinasyonların daha da arttığını gösteriyor.

Bir kamu figürleri testinde, GPT-o3, cevaplarının yüzde 33’ünde yanlış bilgiler verdi; bu oran, evvelki model GPT-o1’in yanılgı oranının iki katı. Daha kompakt olan GPT o4-mini ise daha da berbat bir performans sergileyerek %48 oranında aldatıcı bilgi üretti.

YAPAY ZEKA ÇOK MU DÜŞÜNÜYOR?

Önceki modeller, akıcı metinler üretmekte hayli başarılıydı, lakin o3 ve o4-mini, insan mantığını taklit etmek hedefiyle adım adım düşünme programlamasıyla geliştirildi.

Ironik bir formda, bu yeni “düşünme” tekniği, sorunun kaynağı olabilir. Yapay zeka araştırmacıları, ne kadar fazla düşünme yaparsa, modelin yanlış yola sapma mümkünlüğünün o kadar arttığını belirtiyor.

Yüksek inançlı cevaplara sahip eski sistemlerin bilakis, bu yeni modeller karmaşık kavramlar ortasında köprü kurmaya çalışırken yanlış ve tuhaf sonuçlara ulaşabiliyor.

DAHA GELİŞMİŞ YAPAY ZEKA MODELLERİ NEDEN DAHA AZ SAĞLAM OLUYOR?

OpenAI, yapay zeka halüsinasyonlarındaki artışı, direkt düşünme biçimiyle değil, modellerin anlatımındaki söz bolluğu ve hamasetle ilişkilendiriyor. Yapay zeka, yararlı ve kapsamlı olmaya çalışırken bazen iddialarda bulunuyor ve teoriyi gerçekle karıştırabiliyor. Sonuçlar son derece ikna edici olabiliyor, fakat büsbütün yanlış olabiliyor.

YAPAY ZEKA HALÜSİNASYONLARININ GERÇEK DÜNYA RİSKLERİ

Yapay zeka, tüzel, tıbbi, eğitim yahut devlet hizmetlerinde kullanıldığında büyük riskler taşıyor. Bir mahkeme dokümanında ya da tıbbi raporda aldatıcı bir bilgi, felakete yol açabilir.

Günümüzde ChatGPT nedeniyle avukatlar, uydurulmuş mahkeme alıntıları sağladıkları için yaptırımlara uğradılar. Pekala ya bir iş raporunda, okul ödevinde yahut devlet siyaseti dokümanında yapılan küçük yanılgılar?

Yapay zeka ne kadar hayatımıza entegre olursa, yanılgı yapma mümkünlüğü o kadar azalır. Fakat paradoks şudur: Ne kadar yararlı olursa, yapacağı kusurların tehlikesi de o kadar büyür.

KAYNAK: TRT HABER
İlginizi Çekebilir:2. Lig ekibinden play-off için ilginç kampanya: Evimize, işyerimize, sokağımıza…
share Paylaş facebook pinterest whatsapp x print

Benzer İçerikler

Rıdvan Dilmen’den Fenerbahçe’ye şampiyonluk reçetesi
Nvidia, Apple’dan liderliği alıp Dünyanın en değerli şirketi oldu!
Marmara ve Ege için fırtına uyarısı
Son Dakika: LGS’de tarih belli oldu!
Antalya uçağında kavga çıktı! Pilot rotayı değiştirdi
Sırrı Süreyya Önder’in durumu kritik! Kalbi durdu
Casibom Giriş | © 2025 |