Verdiği Cevap Şaşırtıcıydı...
01:06:45
Bilim İnsanları ChatGPT’den 2000 Yıllık Matematik Problemini Çözmesini İstedi, Verdiği Cevap Şaşırttı
Yüzyıllardır bilginin doğuştan mı geldiği yoksa deneyim yoluyla mı öğrenildiği tartışılır. Şimdi aynı soru, yapay zekâ için de soruluyor. Yunan filozof Platon, MÖ 385 civarında Sokrates’in bir öğrencisine “kareyi ikiye katlama” problemini verdi. Öğrenci, her kenarın uzunluğunu ikiye katlayarak çözmeye çalıştı, ama yeni karenin her bir kenarının orijinal karenin köşegen uzunluğu olması gerektiğini bilmiyordu…
Cambridge Üniversitesi ve Kudüs’teki İbrani Üniversitesi’nden araştırmacılar, çözümü açık olmayan bu problemi ChatGPT’ye sormak için seçti. Platon’un 2400 yıl önce yazdığı bu problem, matematikçilerin kareyi ikiye katlama sorununu, matematik bilgisinin doğuştan mı yoksa öğrenilen bir şey mi olduğunu tartışmak için kullandığı klasik bir örnek oldu.
ChatGPT, diğer büyük dil modelleri gibi çoğunlukla metinlerle eğitildiğinden, araştırmacılar bu problemin eğitim verilerinde yer alma olasılığının düşük olduğunu düşündü. Yani model doğru çözüme ulaşabilirse, matematiksel yeteneğin doğuştan değil, öğrenilen bir şey olduğu iddia edilebilirdi.
Araştırma ekibi daha sonra chatbot’tan benzer bir mantık kullanarak bir dikdörtgenin alanını ikiye katlamasını istedi. ChatGPT, dikdörtgenin köşegenini kullanmanın alanı ikiye katlamaya uygun olmadığını belirterek “geometride çözüm yok” yanıtını verdi. Oysa Kudüs İbrani Üniversitesi’nden Nadav Marco ve Cambridge Üniversitesi’nden matematik eğitimi profesörü Andreas Stylianides, doğru çözümün var olduğunu biliyordu.
Marco, ChatGPT’nin eğitim verilerinde yanlış iddianın bulunma ihtimalinin “çok düşük” olduğunu söyledi. Bu, modelin kareyi ikiye katlama problemiyle ilgili önceki tartışmalara dayanarak yanıtları doğaçlama ürettiği anlamına geliyor. Marco, 18 Eylül’de yaptığı açıklamada, “Yeni bir sorunla karşılaştığımızda, içgüdülerimiz genellikle geçmiş deneyimlerimize dayanır. Deneyimizde ChatGPT de benzer şekilde hareket etti. Tıpkı bir öğrenci gibi kendi hipotezlerini ve çözümlerini ortaya koyuyor gibi görünüyordu” dedi.
Araştırmacılar, bu çalışmanın yapay zekâdaki “akıl yürütme” ve “düşünme” sorularına yeni bir ışık tuttuğunu belirtiyor. Sokrates’in öğrencisi gibi ChatGPT’nin yanıtları da doğaçlama ve hata içerebiliyor. Marco ve Stylianides, bunun modelin “yakın gelişim alanı” (ZPD) kavramını kullandığını düşündürdüğünü belirtiyor. Bu kavram, bildiklerimiz ile doğru rehberlikle öğrenebileceğimiz şeyler arasındaki farkı tanımlar.
ChatGPT, benzer bir çerçeveyi kendiliğinden kullanarak, eğitim verilerinde temsil edilmeyen problemleri çözebiliyor. Bu durum, yapay zekâda uzun süredir tartışılan “kara kutu” sorununa çarpıcı bir örnek teşkil ediyor. Sistemin bir sonuca nasıl ulaştığı görünmese de, araştırmacılar bu çalışmanın YZ’nin daha iyi anlaşılması ve eğitimde kullanılabilmesi açısından önemli olduğunu vurguluyor.
Stylianides, “Öğrenciler, ChatGPT’nin kanıtlarının geçerli olduğunu varsayamaz. Yapay zekâ tarafından üretilen kanıtları anlamak ve değerlendirmek, matematik eğitiminde kazandırılması gereken temel beceriler arasında” dedi. Araştırmacılar, bu nedenle öğrencilerin YZ ile etkileşimlerinde doğru komutlar vermenin önemini vurguluyor: Örneğin, “cevabı söyle” demek yerine “sorunu birlikte inceleyelim” demek gibi.
Ekip, sonuçlar konusunda temkinli davranıyor ve LLM’lerin bizim gibi düşündüğünü iddia etmiyor. Ancak Marco, ChatGPT’nin davranışını “öğrenciye benzer” olarak nitelendiriyor. Araştırmacılar, gelecekte daha geniş matematik problemleri setinde testler yapılabileceğini ve ChatGPT’yi dinamik geometri sistemleri veya teorem kanıtlayıcılarla birleştirerek, öğrenciler ve öğretmenlerin sınıfta sezgisel keşfi destekleyen dijital ortamlar yaratabileceğini belirtiyor.
