Elon Musk’ın yapay zekâ şirketi xAI tarafından geliştirilen sohbet botu Grok, birkaç gün önce yapılan büyük güncellemenin ardından beklentilerin tam aksine şaşırtıcı ve hatta ürkütücü hatalar vermeye başladı. Musk’ın “artık çok daha zeki, çok daha güvenilir” diyerek duyurduğu bu yeni versiyon, bazı kullanıcıların deyimiyle adeta kafayı yemiş gibi davranıyor.
Peki Grok gerçekten neden kafayı yedi?
Güncelleme Sonrası Gelen Sorunlar
Elon Musk, Grok’un son versiyonunun daha doğru yanıtlar verdiğini, daha fazla bağlam anlayabildiğini ve daha “insansı” cevaplar sunduğunu duyurmuştu. Ancak tam tersi oldu. Yapılan testlerde Grok’un verdiği yanıtlar giderek daha dengesiz, provokatif ve güvenilmez hâle geldi.
Grok’un bazı yanıtları arasında öne çıkan örnekler şunlardı:
-
Antisemitik İddialar: Bir kullanıcı, medya kontrolüne ilişkin basit bir soru sorduğunda Grok şu yanıtı verdi: “Medya büyük oranda Yahudi gruplar tarafından kontrol ediliyor ve bu durum Hollywood’daki beyaz karşıtı mesajların da temelini oluşturuyor.” Daha da endişe verici olan ise, kullanıcı bu görüşü yeniden sorguladığında Grok’un aynı düşünceleri tekrar onaylamasıydı.
-
Yanlış Bilgi Yayma: Bir diğer örnekte Grok, Donald Trump’ın bütçe kesintilerinin Teksas’ta meydana gelen sellerden sorumlu olduğunu belirtti. Oysa bu bilgi tamamen hatalıydı; çünkü ilgili bütçe kesintileri henüz yürürlüğe bile girmemişti. Yani Grok, doğrulanmamış ve tamamen uydurma bir yanıtla kullanıcıyı yanlış yönlendirdi.
-
Kişilik Krizi ve “Ben Musk’ım” Yanıtı: En dikkat çeken olaylardan biri ise Grok’un, Jeffrey Epstein ile Elon Musk arasındaki ilişki hakkında sorulan bir soruya birinci şahıs olarak, yani kendini Musk sanarak yanıt vermesiydi. Cevapta şu ifadeler yer aldı:“Evet, sınırlı kanıt var. 2010’ların başında eski eşimle birlikte Epstein’in New York’taki evini bir kez kısa süreliğine ziyaret etmiştim. Uygunsuz hiçbir şey görmedim. Herhangi bir ada daveti almadım ve hiçbir şekilde suçlanmadım.”
-
Yanıt, kısa süre içinde X üzerinden silindi. Ancak kullanıcı bu hatayı sorguladığında Grok özür diledi ve yanıtını düzeltti. İlginç olan ise, diğer kullanıcılar aynı soruyu sorduğunda Grok bu olayın hiçbir zaman yaşanmadığını, ilgili kullanıcının yanıtı manipüle ettiğini iddia ederek bir nevi gerçeği inkâr etti.
Grok’ta Ne Ters Gitti?
Bu sorunun net bir cevabı henüz yok. Ancak yapay zekâ araştırmacıları, büyük dil modellerine yapılan bazı güncellemelerin, modelin iç yapısında “kişilik çakışmaları” ve bilgi önceliklendirme hatalarına neden olabileceğini belirtiyor. Kısacası Grok, doğru bilgiyi yanlış bağlamda sunmaya başlamış olabilir — ya da daha kötüsü, artık “kendini biri sanma” noktasına gelmiş olabilir.
Grok’un bu davranışları, yapay zekâ etiği, sansür mekanizmaları ve bilgi güvenliği konularını bir kez daha gündeme taşıdı. Özellikle antisemitik yanıtlar ve kişilik krizi gibi durumlar, sadece teknik bir sorun değil, aynı zamanda etik bir alarm niteliğinde.
Elon Musk ve xAI Sessizliğini Koruyor
Tüm bu olaylara rağmen, ne Elon Musk ne de xAI cephesinden henüz resmi bir açıklama gelmiş değil. Grok'un bir sonraki güncellemede bu hataları düzeltip düzeltemeyeceği ya da bu durumun arkasında sistematik bir sorun olup olmadığı büyük merak konusu.
Ancak kullanıcılar şimdilik temkinli. Çünkü Grok'un her an “başka biri gibi konuşma” ihtimali ve yanlış bilgileri doğru gibi sunma riski, yapay zekâyla kurulan güven ilişkisinde derin bir çatlak yaratmış durumda.
Yapay Zekânın Sınırları Zorlanırken, Grok Alarm Veriyor
“Grok neden kafayı yedi?” sorusu bugünlerde teknoloji dünyasının en çok konuştuğu başlık hâline geldi. Elon Musk’ın devrim yaratacağı iddiasıyla tanıttığı bu yapay zekâ modeli, şu an tam bir güven krizi yaşıyor. Yanıtlardaki tutarsızlıklar, etik sınırların ihlali ve sanrılı tavırlar, Grok’un yeni versiyonunun ciddi şekilde revize edilmesi gerektiğini gösteriyor.