Google’ın arama sonuçlarına entegre ettiği yapay zeka destekli özetler, ilk bakışta güvenilir ve kaynaklı içerikler sunuyor gibi görünse de doğruluk konusunda ciddi soru işaretleri barındırıyor. Üretken yapay zeka sistemlerinin halüsinasyon eğilimi, yüksek enerji tüketimi ve olası psikolojik etkileri halihazırda tartışılırken, Google’ın hayata geçirdiği bu özetler haber kurumları ve web sitelerinin trafiğinin sert şekilde düşmesine de neden olmuştu.
İlk kez The New York Times tarafından haberleştirilen yakın tarihli bir analize göre, Google’ın yapay zeka özetleri her 10 sonucun 9’unda doğru ve güvenilir kaynaklara dayalı özetler sunuyor. Ancak bu oran, sistemin ölçeği düşünüldüğünde ciddi bir soruna işaret ediyor. Şirketin 2026 yılında 5 trilyondan fazla arama işleyeceği öngörülüyor. Popular Science’ın aktardığına göre bu hata payı, her saat on milyonlarca, her dakika ise yüz binlerce hatalı yanıt anlamına geliyor.
Güvenilirlik Değerlendirmesi Zorlaşıyor
Analize göre bu özelliğin güvenilirliğini değerlendirmek de başlı başına bir sorun. Aynı arama sorgusu tekrarlandığında, ilk etapta yanlış olan bir yanıtın daha sonra doğru bir özetle değişebilmesi, sistemin öngörülemezliğini artırıyor. Üstelik Google’ın bu özelliği arama sonuçlarının en üstüne yerleştirmesi, kullanıcıların bu içerikleri daha fazla görmesine ve doğru kabul etmesine yol açıyor.
Açık kaynak yapay zeka şirketi Oumi tarafından yapılan analiz, özetlerde kullanılan kaynakların da sorunlu olabileceğini ortaya koyuyor. Facebook ve Reddit gibi platformlar en çok referans verilen kaynaklar arasında yer alırken, hatalı yanıtlarda bu tür sitelere daha sık atıf yapıldığı görülüyor. Bazı durumlarda ise sistem, güvenilir bir kaynağı yanlış yorumlayarak hatalı sonuç üretebiliyor.
Yeni Modelde “Temelsiz Yanıt” Oranı Artıyor
Oumi’nin yaptığı testlerde Gemini 2 ve Gemini 3 modelleri karşılaştırıldı. Daha yeni olan Gemini 3, yüzde 91 doğruluk oranına ulaşırken, Gemini 2 yüzde 85’te kaldı. Bu sonuçlar modellerin geliştiğini gösterse de sorunun tamamen çözülmediğini ortaya koyuyor. Daha dikkat çekici bir bulgu ise “temelsiz yanıt” oranındaki artış. Gemini 2’de yüzde 37 olan bu oran, Gemini 3’te yüzde 56’ya yükseldi. Bu tür yanıtlar, yapay zekanın verdiği bilgilerin kaynaklarla desteklenmediği anlamına geliyor ve kullanıcıların doğrulama yapmasını zorlaştırıyor.
Sistem Manipülasyona Açık
Uzmanlara göre, bu tür açıklar kötü niyetli kişiler tarafından kolayca istismar edilebilir. Yanlış bilgiler içeren içeriklerin yapay trafikle öne çıkarılması durumunda, Google’ın yapay zeka sistemi bu içerikleri güvenilir sanarak yanlış özetler üretebilir. Bu durum, yanlış bilginin hızla yayılmasına zemin hazırlıyor.
Google ise eleştirileri reddediyor. Şirket sözcüsü Ned Adriance, gazeteye yaptığı açıklamada sistemin spam içeriklerin büyük çoğunluğunu engelleyen güvenlik ve sıralama mekanizmalarına dayandığını belirterek, örneklerin gerçek kullanıcı davranışlarını yansıtmadığını savundu.
“Bilişsel Teslimiyet” Riski
Araştırmalar, kullanıcıların yapay zeka yanıtlarına sorgulamadan güvenme eğiliminde olduğunu gösteriyor. Yakın tarihli bir çalışmaya göre kullanıcıların yalnızca yüzde 8’i yapay zekadan gelen yanıtları kontrol ediyor. Başka bir deneyde ise kullanıcıların, cevabın yanlış olduğu bilinmesine rağmen vakaların yaklaşık yüzde 80’inde yapay zekayı dinlemeye devam ettiği görüldü. Araştırmacılar bu durumu “bilişsel teslimiyet” olarak tanımlıyor.
Büyük dil modellerinin kendinden emin ve otoriter bir dil kullanması, yanlış bilgilerin doğruymuş gibi sunulmasını kolaylaştırıyor. Google’daki özetlerin sağladığı hız ve pratiklik de bu etkiyi daha da güçlendiriyor. Uzmanlar, bu nedenle AI Overview gibi araçların en azından yakın gelecekte temkinle kullanılması gerektiği konusunda uyarıyor. Google’ın kendi uyarısında da “Yapay zeka hata yapabilir, bu yüzden yanıtları kontrol edin” ifadesi yer alıyor.


WHATSAPP İHBAR