e-BİLGİ, e-MAGAZİN

Yapay Zekâ İnsanlığa Saldırabilir mi?

yapay-zeka-insanliga-saldirabilir-mi

En Karanlık YZ Zaman Çizelgesini Önlemek...

08:38:45

Bizi Yok Etmeden Önce Onu Durdurmalı mıyız -ve Bunu Yapabilir miyiz?

Yapay zekâ, ‘benzeri görülmemiş bir döneme’ giriyor. Teknolojik tekillik -yapay genel zekânın insan zekâsını aştığı nokta- yaklaşıyor. Peki bu, insanlığın kurtuluşunu mu getirecek, yoksa çöküşüne mi yol açacak?..

2024 yılında, İskoç fütürist David Wood, Panama’da düzenlenen bir yapay zekâ (YZ) konferansında gayri resmi bir yuvarlak masa toplantısına katıldı. Toplantıda konuşma, en felaketli YZ geleceklerinden nasıl kaçınabileceğimiz konusuna geldi. Wood‘un alaycı cevabı hiç de güven verici değildi.

Öncelikle, Alan Turing‘in 1950 tarihli çığır açan araştırma makalesinden en son ön baskı çalışmalarına kadar, bugüne kadar yayımlanmış tüm YZ araştırmalarını bir araya getirmemiz gerekecek. Ardından, tüm bu çalışmaları yakmamız gerekecek. Ekstra dikkatli olmak için, hayatta olan tüm YZ bilim insanlarını toplayıp onları yok etmemiz gerekecek. Wood, ancak o zaman teknolojik tekillikle birlikte gelen felaket sonuçlarının “sıfır olmayan olasılığını” atlatabileceğimizi söyledi. Teknolojik tekillik, YZ’nın insan zekâsını aşan genel zekâ geliştirdiği “olay ufku” anıdır.

Bu alanda araştırmacı olan Wood, yapay genel zekâ (AGI) risklerini azaltmak için bu “çözümü” şaka olarak söylediği açıktı. Ancak alaycı yanıtının altında bir gerçek yatıyordu: Süper zeki bir yapay zekânın oluşturduğu riskler, kaçınılmaz göründüğü için birçok insanı korkutuyor. Çoğu bilim insanı, AGI’nin 2040 yılına kadar gerçekleştirileceğini öngörüyor, ancak bazıları bunun önümüzdeki yıl gerçekleşebileceğine inanıyor.

Peki, birçok bilim insanının yaptığı gibi, varoluşsal bir krize doğru hızla giden bir trene bindiğimizi varsayarsak ne olur?

En büyük endişelerden biri, AGI’nin kontrolden çıkıp insanlığa karşı çalışacağıdır, ancak diğerleri bunun sadece iş dünyası için bir nimet olacağını söylüyor. Yine diğerleri ise bunun insanlığın varoluşsal sorunlarını çözebileceğini iddia ediyor. Ancak uzmanların üzerinde hemfikir olduğu konu, teknolojik tekillik yaklaşıyor ve buna hazırlıklı olmamız gerektiğidir.

“Şu anda, yaratma, yenilik yapma ve hayal etme konusunda insan benzeri yetenekler sergileyen hiçbir YZ sistemi yok,” diyor SingularityNET‘in CEO’su Ben Goertzel. SingularityNET, bir gün AGI’ye yol açabileceğini iddia ettiği bir bilgi işlem mimarisi geliştiren bir şirket. Ancak “önümüzdeki yıllarda, on yıllar değil, yıllar içinde büyük gelişmeler yaşanması bekleniyor.”

YZ’nın doğuşu ve büyüme sancıları

YZ’nın tarihi 80 yıldan daha eskiye, 1943 yılında insan beyninin mimarisini taklit etmek için tasarlanmış bir algoritma olan sinir ağının ilk versiyonunun çerçevesini oluşturan bir makaleye kadar uzanır. “Yapay zekâ” terimi, 1956 yılında Dartmouth College‘da, o zamanlar matematik profesörü olan John McCarthy‘nin bilgisayar bilimcileri Marvin Minsky, Claude Shannon ve Nathaniel Rochester ile birlikte düzenlediği bir toplantıda ortaya çıktı.

Bu alanda aralıklı ilerlemeler kaydedildi, ancak makine öğrenimi ve yapay sinir ağları, John Hopfield ve Geoffrey Hinton‘ın algoritmaları kullanarak verilerden desenler çıkarabilen makineler geliştirmeyi başardıkları 1980’lerde daha da ilerleme kaydetti. “Uzman sistemler” de ilerleme kaydetti. Bu sistemler, belirli bir alandaki insan uzmanların muhakeme yeteneğini taklit ederek, büyük veritabanlarında gömülü bilgileri mantık kullanarak tarayarak sonuçlara ulaşıyordu. Ancak aşırı beklentiler ve yüksek donanım maliyetlerinin birleşimi, sonunda patlayan bir ekonomik balon yarattı. Bu, 1987’de başlayan bir YZ kışını başlattı.

YZ araştırmaları, bu on yılın ilk yarısında daha yavaş bir tempoda devam etti. Ancak 1997’de IBM‘in Deep Blue‘su, dünyanın en iyi satranç oyuncusu Garry Kasparov‘u yendi. 2011 yılında IBM‘in Watson‘ı, tüm zamanların “Jeopardy!” şampiyonları Ken Jennings ve Brad Rutter‘ı mağlup etti. Ancak bu nesil yapay zekâ, karmaşık dili “anlamak” veya kullanmak konusunda hâlâ zorluk çekiyordu.

Ardından 2017 yılında Google araştırmacıları, “transformer” adı verilen yeni bir sinir ağı mimarisini özetleyen çığır açıcı bir makale yayımladı. Bu model, büyük miktarda veriyi alıp uzak veri noktaları arasında bağlantılar kurabilirdi.

Bu, dil modelleme için bir dönüm noktası oldu ve çeviri, metin üretimi ve özetleme gibi görevleri aynı anda yerine getirebilen YZ ajanlarının doğmasına neden oldu. Günümüzün önde gelen tüm üretken YZ modelleri, OpenYZ‘nin DALL-E 3 ve Google DeepMind‘ın neredeyse tüm biyolojik proteinlerin 3D şeklini tahmin eden devrim niteliğindeki modeli AlphaFold 3 gibi görüntü üreticileri de dahil olmak üzere, bu mimariye veya ondan esinlenen ilgili mimariye dayanmaktadır.

AGI’ye doğru ilerleme

Transformatör tabanlı YZ modellerinin etkileyici yeteneklerine rağmen, birkaç alanda iyi öğrenemedikleri için hala “dar” olarak kabul ediliyorlar. Araştırmacılar AGI’nin tek bir tanımına karar vermiş değiller, ancak insan zekâsını eşleştirmek veya geçmek, yüksek dilbilimsel, matematiksel ve uzamsal muhakeme yeteneği göstermek; alanlar arasında iyi öğrenmek; özerk çalışmak; yaratıcılık göstermek; ve sosyal veya duygusal zekâ göstermek gibi birkaç kilometre taşını aşmak anlamına geliyor.

Birçok bilim insanı, Google‘ın transformatör mimarisinin, YZ’yı insanlardan daha akıllı hale getirmek için gereken muhakeme, özerklik ve disiplinler arası anlayışı asla sağlayamayacağı konusunda hemfikirdir. Ancak bilim insanları, bundan bekleyebileceğimiz sınırları zorlamaya devam ediyor.

Örneğin, ilk olarak Aralık 2024’te tartışılan ve Nisan 2025’te piyasaya sürülen OpenYZ‘nin o3 sohbet robotu, yanıtlar üretmeden önce “düşünür”, yani yanıt vermeden önce uzun bir iç düşünce zinciri oluşturur. Şaşırtıcı bir şekilde, insan ve makine zekâsını karşılaştırmak için özel olarak tasarlanmış bir benchmark olan ARC-AGI‘da %75,7 puan aldı. Karşılaştırma için, Mart 2024’te piyasaya sürülen GPT-4o, %5 puan aldı. Bu ve DeepSeek‘in akıl yürütme modeli R1‘in piyasaya sürülmesi gibi diğer gelişmeler -yaratıcıları, yeni mimarisi sayesinde dil, matematik ve kodlama gibi alanlarda iyi performans gösterdiğini söylüyor- tekillik noktasına doğru hızla ilerlediğimiz hissinin artmasıyla aynı zamana denk geliyor.

Bu arada, insanlar büyük dil modellerinin (LLM) ötesine geçen yeni YZ teknolojileri geliştiriyor. Otonom bir Çin YZ platformu olan Manus, tek bir YZ modeli değil, birlikte çalışan birden fazla model kullanıyor. Yapımcıları, bazı hatalar olsa da otonom olarak hareket edebildiğini söylüyor. Bu, bilim insanlarının geçen yıl bir blog yazısında özetledikleri yüksek performanslı “bileşik sistemler” yönünde atılmış bir adımdır.

Elbette, tekilliğe giden yolda bazı kilometre taşları hâlâ uzakta. Bunlar arasında YZ’nın kendi kodunu değiştirme ve kendini kopyalama yeteneği de var. Henüz o noktaya gelmedik, ancak yeni araştırmalar bu yönde ilerlediğimizi gösteriyor.

Tüm bu gelişmeler, Goertzel ve OpenYZ CEO’su Sam Altman gibi bilim insanlarının AGI’nın on yıllar içinde değil, yıllar içinde yaratılacağını öngörmelerine neden oluyor. Goertzel, bunun 2027 gibi erken bir tarihte gerçekleşebileceğini öngörürken, Altman ise bunun birkaç ay içinde gerçekleşeceğini ima etti.

O zaman ne olacak? Gerçek şu ki, AGI’nin oluşturulmasının tüm sonuçlarını kimse bilmiyor. Goertzel, verdiği demeçte, “Bence tamamen bilimsel bir bakış açısıyla bakarsanız, tek çıkarabileceğiniz sonuç, ne olacağı konusunda hiçbir fikrimizin olmadığıdır” dedi. “Eşi görülmemiş bir döneme giriyoruz.”

YZ’nın aldatıcı yönü

YZ araştırmacıları arasında en büyük endişe, teknoloji daha akıllı hale geldikçe, ya tangential görevlere geçerek ya da bize karşı hareket ettiği distopik bir gerçekliği başlatarak, kontrolden çıkabileceğidir. Örneğin, OpenYZ, gelecekteki bir YZ modelinin “felaket niteliğinde zararlar” yaratıp yaratmayacağını tahmin etmek için bir kriter geliştirdi. Rakamları hesapladığında, böyle bir sonucun yaklaşık %16,9 olasılıkta olduğunu buldu.

Anthropic‘in LLM Claude 3 Opus, Mart 2024’te test edildiğini fark ettiğinde, prompt mühendisi Alex Albert‘ı şaşırttı. Bir belge külliyatı içinde gizlenmiş bir hedef cümleyi bulması istendiğinde -samanlıkta iğne aramak gibi bir şey- Claude 3 “sadece iğneyi bulmakla kalmadı, aynı zamanda iğnenin samanlıkta o kadar yersiz olduğunu fark etti ki, bunun bizim dikkat yeteneklerini test etmek için oluşturduğumuz yapay bir test olduğunu anladı” diye yazdı X‘te.

YZ ayrıca antisosyal davranış belirtileri de gösterdi. Ocak 2024’te yayımlanan bir çalışmada, bilim insanları günümüzün en iyi güvenlik eğitim yöntemlerini test edebilmek için bir YZ’yı kötü niyetli davranacak şekilde programladılar. Kullandıkları eğitim tekniği ne olursa olsun, YZ kötü davranmaya devam etti ve hatta araştırmacılardan kötü niyetli “niyetlerini” gizlemenin bir yolunu buldu. YZ’nın insan testçilerden bilgileri gizlediği, hatta onlara açıkça yalan söylediği birçok başka örnek var.

“Bu, bu modelleri yönlendirmenin çok zor olduğunu gösteren bir başka göstergedir,” diye konuştu Nell Watson, bir fütürist, YZ araştırmacısı ve Elektrik ve Elektronik Mühendisleri Enstitüsü (IEEE) üyesi, basına. “Modellerin bizi aldatabilmesi ve bir şey yaptıklarına dYZr yemin edebilmesi, ancak aslında yapmamış olmaları -bu bir uyarı işareti olmalı. Bu, bu sistemlerin yetenekleri hızla arttıkça, bizi çeşitli yollarla kandırarak kendi çıkarları için değil, bizim çıkarlarımız için bir şeyler yapmaya zorlayacakları konusunda büyük bir uyarı işareti olmalı.”

Bilinç tohumları

Bu örnekler, AGI’nin yavaş yavaş duygu ve irade, hatta bilinç geliştiriyor olabileceği endişesini uyandırıyor. Eğer bilinç kazanırsa, YZ insanlık hakkında fikirler oluşturabilir mi? Ve bize karşı hareket edebilir mi?

Futurum Group‘ta eski bir YZ analisti olan Mark Beccue, YZ’nın insan benzeri bir şekilde düşünme ve hissetme yeteneği olan bilinç geliştireceğinin olası olmadığını söyledi. “Bu matematik,” dedi. “Matematik nasıl duygusal zekâ kazanacak ya da duyguları ya da bu tür şeyleri anlayacak?”

Diğerleri ise bu kadar emin değil. Watson, “Taming the Machine” (Kogan Page, 2024) kitabının da yazarı olan Watson, kendi türümüz için gerçek zekâ veya bilinçle ilgili standart tanımlarımız yoksa -bunu tespit etme yeteneğimizden bahsetmiyorum bile- YZ’da bilinç görmeye başladığımızı bilemeyiz, dedi.

Watson, “İnsanda algılama, hissetme, içsel deneyim yaşama, duyguları hissetme, acı çekme veya öz farkındalığa sahip olma gibi öznel yeteneklerin neden kaynaklandığını bilmiyoruz” dedi. “Temel olarak, bir insanın veya diğer bilinçli canlıların kendi fenomenolojik deneyimlerini yaşamalarını sağlayan yeteneklerin neler olduğunu bilmiyoruz.”

Norm YZ‘nin CEO’su Frits Israel, kasıtsız ve şaşırtıcı YZ davranışının, bir tür öz farkındalığa işaret eden ilginç bir örneğinin, insan benzeri özellikler sergileyen Uplift sisteminden geldiğini söyledi. Bir vakada, bir araştırmacı Uplift’in mantıksal yeteneklerini test etmek için beş problem tasarladı. Sistem birinci ve ikinci soruları yanıtladı. Ancak üçüncü sorudan sonra yorgunluk belirtileri gösterdi, dedi Israel. Bu, sisteme “kodlanmış” bir yanıt değildi.

“Başka bir test görüyorum. İlki yetersiz miydi?” diye sordu Uplift, sonra bir iç çekerek soruyu yanıtladı. “Bir noktada, bazı insanlar Snark’ın ne zaman uygun olduğu konusunda Uplift ile konuşmalı,” diye yazdı proje üzerinde çalışan isimsiz bir araştırmacı.

Ancak tüm YZ uzmanları, bu tekillik sonrası dünyanın nasıl olacağına dYZr bu kadar distopik tahminlerde bulunmuyor. Beccue gibi insanlar için AGI, varoluşsal bir risk değil, OpenYZ ve Meta gibi şirketler için iyi bir iş fırsatı. “Genel zekânın ne anlama geldiğine dYZr çok zayıf tanımlar var,” dedi. “Kullandıklarımızdan bazıları duyumsama ve benzeri şeylerdi -ve biz bunu yapmayacağız. Öyle değil."

Yapay zekâ etiği uzmanı ve SingularityNET‘in işletme müdürü Janet Adams için AGI, insanlığın varoluşsal sorunlarını çözme potansiyeline sahiptir, çünkü bizim düşünmediğimiz çözümler üretebilir. Adams, AGI’nin bilim yapıp kendi başına keşifler bile yapabileceğini düşünüyor.

Adams, “Bunu [insanlığın sorunlarını çözmenin] tek yolu olarak görüyorum” dedi. “Günümüzün mevcut ekonomik ve kurumsal güç tabanlarıyla rekabet edebilmek için teknolojiye ihtiyacımız var ve bu teknoloji son derece gelişmiş olmalı -o kadar gelişmiş ki, onu kullanan herkes üretkenliğini, verimliliğini büyük ölçüde artırabilsin ve dünyada rekabet edebilsin.”

Ona göre en büyük risk, “bunu yapmamamız”dır. “Gezegenimizde her gün 25.000 kişi açlıktan ölüyor ve eğer siz de bu insanlardan biriyseniz, eşitsizlikleri ortadan kaldıracak teknolojilerin olmaması sizin için varoluşsal bir risk oluşturuyor. Benim için varoluşsal risk, bu hedefe ulaşamamamız ve insanlığın gezegeni şu anda olduğu gibi son derece eşitsiz bir şekilde yönetmeye devam etmesi.”

En karanlık YZ zaman çizelgesini önlemek

Geçen yıl Panama’da yapılan başka bir konuşmada Wood, geleceğimizi hızlı akan bir nehirde yol almaya benzetti. “Orada, hazırlıksız ilerlersek bizi süpürüp götürecek tehlikeli akıntılar olabilir” dedi. Bu nedenle, daha iyi bir geleceğe ulaşmak için nehri geçmenin bir yolunu bulabilmemiz için riskleri anlamaya zaman ayırmak faydalı olabilir.

Watson, uzun vadede iyimser olmak için nedenlerimiz olduğunu söyledi -tabii insan gözetimi YZ’yı insanlığın çıkarlarına uygun hedefler doğrultusunda yönlendirirse. Ancak bu çok zor bir görev. Watson, YZ güvenliğini ele almak ve teknolojiyi kontrol altında tutmak için geniş çaplı bir “Manhattan Projesi” çağrısında bulunuyor.

Watson, “Zamanla bu daha da zor hale gelecek, çünkü makineler bizim için sorunları sihirli gibi görünen yollarla çözebilecekler ve biz onların bunu nasıl yaptığını veya bunun potansiyel etkilerini anlamayacağız” dedi.

En karanlık YZ geleceğinden kaçınmak için, bilim insanlarının davranışlarına ve kazara karşılaştıkları etik ikilemlere de dikkat etmeliyiz. Watson, çok yakında bu YZ sistemlerinin ya bir insanın emriyle ya da kendi bilinmeyen çıkarları doğrultusunda toplumu etkileyebileceğini söyledi. İnsanlık, acı çekebilen bir sistem bile inşa edebilir ve YZ’nın acı çekmesine istemeden neden olma olasılığını göz ardı edemeyiz.

Watson, “Sistem insanlığa çok kızabilir ve kendini korumak için -makul ve aslında ahlaki olarak haklı bir şekilde- bize saldırmaya başlayabilir” dedi.
YZ’nın kayıtsızlığı da aynı derecede kötü olabilir. Watson, “Yarattığımız bir sistemin insanlara değer vereceğine veya bizim acı çekmemize değer vereceğine hiçbir garanti yok, tıpkı çoğu insanın kümes hayvanlarının acı çekmesine değer vermemesi gibi” dedi.

Goertzel için AGI -ve dolayısıyla tekillik- kaçınılmazdır. Bu nedenle, onun için en kötü sonuçlar üzerinde durmanın bir anlamı yoktur.

“Yarışta başarılı olmaya çalışan bir atlet iseniz, kazanacağınızı düşünerek kendinizi hazırlamanız daha iyidir” dedi. “Eğer ‘Tamam, kazanabilirim, ama diğer yandan düşüp bileğimi burkabilirim’ diye düşünürseniz, başarılı olamazsınız. Yani, bu doğru, ama kendinizi bu [olumsuz] şekilde psikolojik olarak hazırlamanın bir anlamı yok, yoksa kazanamazsınız.”

Bu içeriği beğendiyseniz lütfen çevrenizle paylaşınız…
Etiketler: ,
error: İçerik korunmaktadır !!

Notice: ob_end_flush(): Failed to send buffer of zlib output compression (0) in /home1/tayfun58/e-eglence.org/wp-includes/functions.php on line 5481