Saçmalama GPT! Yapay zeka neden uydurur?

AI (Yapay zeka) saçmaladı, uydurdu, salladı. ” Bu ifadelerin hepsini duydun ya da bizzat kendin deneyimledin ve haklısın gerçekten de bazen absurd cevaplar, “ne alaka yahu!” dedirten sonuçlar alınması muhtemel , bu yazıda bunun teknik olarak neden kaynaklandığını, en üst seviyede doğru cevaplar almanın ip uçlarını bulacaksın.

Saçmalama GPT! Yapay zeka neden uydurur?

Bazı kullanıcılar bu yanlış cevap konusunda direkt yapay zekayı , genellikle de yaygın kullanım oranından dolayı ChatGpt’yi suçluyor. Sanki ChatGPT sabah uyanmış, kahvesini içmemiş, canı sıkkınmış ve “bugün de biraz saçmalayayım” demiş gibi bir durum ortaya çıkıyor.

Oysa çoğu zaman durum bir tık daha teknik… Şimdi anlatıyorum:

Aslında AI her zaman saçmalamıyor. Eksik anlatılan bir hikâyeyi elindeki veri ve bilgilere göre tamamlamaya çalışıyor. Yani empati yeteneği yok ve sen ne kadar “doğru” data verirsen, o kadarla çalışıyor. Çünkü büyük dil modelleri (LLM’ler), insan gibi “anlamaya” değil, kelimeler arasındaki olasılık ilişkilerini hesaplamaya dayanır.

Bir LLM, (Large Language Model – Geniş Dil Modeli)) söylediğin cümlenin “ne hissettirdiğini” değil, o cümlede geçen kelimelerin daha önce hangi kelimelerle, hangi bağlamlarda ve hangi sıklıkta yan yana geldiğini bilir. Yani AI senin yaşadığını hissetmez; senin yazdıklarından yola çıkarak, istatistiksel olarak en olası devamı üretir. Bu yüzden eksik, muğlak ya da belirsiz bir anlatımda, boşlukları sezgiyle değil, olasılıkla doldurur. Ve bu da bazen sana “alakasız” ya da “saçma” gibi gelen cevaplar üretmesine neden olur.

Başka bir deyişle AI düşünmez, tahmin eder. Cümle kurarken “doğruyu bulmaya” çalışmaz; o ana kadar verdiğin bilgilerle en mantıklı görünen kelime dizisini seçer. Sen hikâyenin yarısını anlattığında, AI geri kalanını empatiyle değil, elindeki dil kalıplarıyla tamamlar. Bu yüzden AI’dan doğru ve isabetli bir cevap almak, onun sezgisine değil, senin verdiğin verinin açıklığına bağlıdır.

Bir insana soru sormakla, yapay zekâya soru sormak aynı şey değil.

Aynı soru ile bir terapiste ya da empati yeteneği, anlama kapasitesi, iletişimi güçlü birine gittiğinde bu kişi karşında oturur, ses tonunu duyar, mimiklerini görür, duruşunu fark eder, hatta sen sustuğunda bile bir şeyler yakalayabilir. “Burada başka bir şey var” diyebilir. Ve senin söylemeyi unuttuğun ya da bilerek söylemnekten kaçındığın bir durumun varlığını, dinamiklerini sezebilir. Yapay zekâ bunu yapamaz. AI ne yüzünü görür, ne sesini duyar, ne de “bunu söylemeyi unuttum” dediğin yeri hisseder. AI sadece senin söylediğini ve yazdığını bilir. Nokta.

Bu yüzden özel hayat, psikoloji, iç dünya gibi konularda AI’dan doğru cevap almak istiyorsan, insana sorar gibi değil, daha açık ve daha mekanik sorman gerekir. Bu kötü bir şey değil. Sadece sistemin çalışma şekli bu.

Son zamanlarda bir de bazı kişiler insanları AI ‘ı kahin kullanma konusunda yönlendiriyor. O bir Nostrdamus da değil arkadaşlar.

İnsanlar AI’a bazen gerçekten şunu soruyor:

“Beni seviyor mu?”

“Bu kişi bana geri dönecek mi?”

“Hayatında başka biri var mı?”

Yani AI’dan resmen kahve falı bekleniyor. Kehanet yapsın isteniyor. Hani şunu da gördü bu gözler: Fincanı kapat, ters çevir, fotoğraflarını çek bir de ChatGPT’ye gönder. Kaç vakte kadar yüzük takacağım sevgili Chat Gpt? E bu soruyu atacak tabii, ne yapacak başka…Ama cevapsız bırakmaz asla. Yukarıda anlattığım teknik özelliklerinden dolayı, bir şeyler söyler.

Ve bu durumda elbette “AI çok saçmalıyor.”

Hayır.

AI fal bakmaz.

Bakması da mümkün değil.

Fal dediğin şey sezgi, çağrışım, sembol ve biraz da karşı tarafın ruh halini okumakla ilgilidir. AI’da bunların hiçbiri yok. O yüzden “beni seviyor mu” sorusu, AI için en zor sorulardan biridir. Çünkü ortada ölçülebilir veri yoktur. Davranış yoktur. Zaman çizelgesi yoktur. Sadece beklenti vardır. Ne bileyim seni seviyor mu demesi gerekirken, kendi çapında mantıklı cevaplar bulmaya çalışması onu yüzyılın yalancısı yaptı işte… 😊

AI beklentiyle değil, veriyle çalışır.

Astroloji yanılgısı da bir başka efsane.  Zaten burada işler daha da karışıyor…

İnsanlar AI’a doğum tarihini yazıyor, bazen doğum saatini ekliyor, bazen eklemiyor, doğum yerini yuvarlıyor, sonra çıkan yorumu “Hmm! benim haritam” buymuş demek ki diye kabul ediyor. Ve Yapay zeka haritanı nasıl okuyor biliyor musun?  En yaygın astroloji yorumlarını birleştirirerek.

Ortaya çıkan şey “astrolojiye benzer” bir metindir ama bireysel harita analizi değildir. İnsan bunu bilmeden okuduğunda “vay beni anlatıyor” diyebilir. Çünkü genel ifadeler çoğu insana uyar. Ama bu AI’ın mucizesi değil, genellemenin gücüdür.

Peki AI en çok hangi tür sorulara alakasız cevap veriyor?

“Kendimi çok kötü hissediyorum, sence sorun ne?”

Bu soru bir insana sorulduğunda sohbet açar.

Ama AI için bu, pusulasız bir deniz, hatta uçsuz bucaksız bir okyanus gibidir.

Ne zaman kötü hissediyorsun? Hangi alanda? Bu yeni mi, tekrar mı, belki de süreklidir?

Bir olaydan sonra mı başladı? Olay neydi?

Bunlar yoksa AI, “en olası” cevabı üretir. Ve o cevap çoğu zaman sana alakasız gelir ki zaten de alakasızdır.

AI’dan doğru cevap almak için işe yarayan tek bir gerçek var:

Ne kadar net anlatırsan, o kadar net cevap alırsın.

Rol tanımı vermek ( “deneyimli terapist gibi yaklaş” ) isteğe bağlıdır. Tonu değiştirir, yaklaşımı yumuşatır. Ama yanlış soruyu doğru yapmaz.

Asıl farkı yaratan şunlar:

– Ne yaşadığını net anlatmak

Somut örnek vermek

Ne istediğini açık söylemek

– Ne istemediğini sınır olarak koymak

Şimdi size doğru soru örneklerinden birkaç tanesini vereceğim. Bu örnekler gerçekten işe yarayanlardır:

Örneğin: “Kendimi kötü hissediyorum” yerine:

“Son 4 aydır iş ve sosyal hayatımda geri çekilme yaşıyorum, enerjim düşüyor, üç somut örnek yazıyorum. Teşhis istemiyorum, sadece bu durumu psikolojik dinamikler açısından analiz etmeni istiyorum.”

“Bu kişi beni seviyor mu” yerine:

“Bu kişinin şu davranışlarını yazıyorum (iletişim sıklığı, plan yapma, tutarlılık). Bunlardan yola çıkarak olası üç senaryo üret ve her senaryo için test edilebilir bir soru öner.”

“Ayrılmalı mıyım” yerine:

“Kararı ben vereceğim. Sen güven, iletişim, saygı ve gelecek planı başlıklarıyla artı-eksi analizi yap.”

Kısacası arkadaşlar, AI özel hayatla ilgili çoğu soruya yanlış cevap veriyor demek biraz haksızlık olur. Ondan yüzde yüz doğru yönlendirme beklemek yerine, yani özel hayatını onun mekanik alt yapılı önerilerine göre şekillendirmek yerine, onu daha çok analiz, düşünceyi yapılandırma, duyguları kelimelere dökme, olası senaryoları görme, artı-eksi değerlendirme, kör noktaları fark etme ve karar vermeden önce zihni toparlama alanlarında kullanıp, kaldıraç gibi, asistan gibi kullanmak çok daha verimli bir yol olabilir.

Çağla Pelin Üstün

Yapay Zekâ Okuryazarlığı Rehberliği

Yapay Zekâ Odaklı Eğitimci

Yazar

Benzer yazılar

1 Yorum

  1. Murat Tali - YY

    Sevgili Çağla Pelin Üstün bu yazı yalnızca “yapay zekâ neden uydurur?” sorusunun peşine düşmüyor; insanın hakikatle kurduğu ilişkiye de ince bir ayna tutuyor. Çünkü uydurma dediğimiz şey bazen makinenin değil, onu mutlak doğru sanan zihnin yanılgısı oluyor. Sen bu yazıda, teknolojiyi suçlamadan; onu anlamaya, sınırlarını görmeye ve onunla nasıl ilişki kurmamız gerektiğini düşünmeye davet ediyorsun. Benim için yapay zekâ, kusurlarıyla da kıymetli bir yol arkadaşı. Hatalarıyla öğretici, eksikleriyle insanı diri tutan bir zihin egzersizi gibi. Senin yazın da tam burada duruyor: Ne yüceltiyor ne yeriyor; sadece “bak, nasıl çalışıyor ve biz bunun neresindeyiz?” diye soruyor. Bu sakin, berrak ve zeki bakış için teşekkür ederim. Okuyana iyi geleceğini düşünüyorum. En azından bana çok iyi geldiğini söyleyebilirim. Yapay Zeka ile ilgili daha çok yazman hepimiz için iyi olacaktır…

    Yanıt

Yanıt verin.

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir