e-BİLGİ, e-HABER

İnsanlığın Geliştirdiği En Büyük Teknoloji

insanligin-gelistirdigi-en-buyuk-teknoloji

Yanlış Bilgilendirmeye İlişkin Endişeler...

06:30:00

“Bu, İnsanlığın Bugüne Kadar Geliştirdiği En Büyük Teknoloji Olacak"

OpenAI CEO’su Sam Altman yapay zekânın toplumu yeniden şekillendireceğini söylüyor ve riskleri kabul ediyor: ‘Bundan biraz korkuyorum’
ChatGPT‘yi yaratan şirketin arkasındaki CEO, yapay zekâ teknolojisinin bildiğimiz şekliyle toplumu yeniden şekillendireceğine inanıyor. Bunun gerçek tehlikelerle birlikte geldiğine, ancak aynı zamanda hayatlarımızı büyük ölçüde iyileştirmek için “insanlığın şimdiye kadar geliştirdiği en büyük teknoloji" olabileceğine inanıyor…

OpenAI CEO’su Sam Altman, “Burada dikkatli olmalıyız" dedi. “Bence insanlar bundan biraz korktuğumuz için mutlu olmalılar."

Altman, özel bir röportajda yapay zekâ dil modelinin en son yinelemesi olan GPT-4‘ün kullanıma sunulması hakkında konuştu.

Röportajında Altman, OpenAI‘nin hem düzenleyicilerin hem de toplumun ChatGPT‘nin yaygınlaştırılmasına mümkün olduğunca dahil olmasına ihtiyaç duyduğunu vurgulayarak, geri bildirimin teknolojinin insanlık üzerinde yaratabileceği potansiyel olumsuz sonuçları caydırmaya yardımcı olacağı konusunda ısrar etti. Hükûmet yetkilileriyle “düzenli temas" halinde olduğunu da sözlerine ekledi.

ChatGPT bir yapay zekâ dil modeli, GPT ise Generative Pre-trained Transformer’ın kısaltması.

Yalnızca birkaç ay önce piyasaya sürülen bu uygulama, şimdiden tarihin en hızlı büyüyen tüketici uygulaması olarak kabul ediliyor. Uygulama sadece birkaç ay içinde aylık 100 milyon aktif kullanıcıya ulaştı. Buna karşılık, bir UBS araştırmasına göre TikTok‘un bu kadar kullanıcıya ulaşması dokuz ay, Instagram‘ın ise yaklaşık üç yıl sürdü.

Altman‘a göre “mükemmel olmasa da" GPT-4, Tek Tip Baro Sınavı‘nda 90. yüzdelik dilimde yer aldı. Ayrıca SAT Matematik testinde mükemmele yakın bir puan aldı ve artık çoğu programlama dilinde yetkin bir şekilde bilgisayar kodu yazabiliyor.

GPT-4, OpenAI‘nin sonunda Yapay Genel zekâ oluşturma hedefine doğru sadece bir adımdır; bu, yapay zekânın genellikle insanlardan daha akıllı olan yapay zekâ sistemleri olarak tanımlanabilecek güçlü bir eşiği aşmasıdır.

Ürününün başarısını kutlasa da Altman, yapay zekânın olası tehlikeli uygulamalarının kendisini geceleri uykusuz bıraktığını kabul etti.

Altman, “Özellikle bu modellerin büyük ölçekli dezenformasyon için kullanılabileceğinden endişe ediyorum" dedi. “Artık bilgisayar kodu yazmada daha iyi hale geldiklerine göre, – bu modeller – saldırgan siber saldırılar için kullanılabilir."

Altman‘ın paylaşmadığı yaygın bir bilimkurgu korkusu: İnsanlara ihtiyaç duymayan, kendi kararlarını veren ve dünya hakimiyetini planlayan yapay zekâ modelleri.

Altman, “Birinin ona bir girdi vermesini bekliyor" dedi. “Bu, büyük ölçüde insan kontrolünde olan bir araç."

Bununla birlikte, hangi insanların kontrolde olabileceğinden korktuğunu söyledi. “Bizim koyduğumuz bazı güvenlik sınırlarını koymayan başka insanlar da olacaktır" diye ekledi. “Bence toplumun buna nasıl tepki vereceğini, bunu nasıl düzenleyeceğini, bununla nasıl başa çıkacağını bulmak için sınırlı bir zamanı var."

Devlet Başkanı Vladimir Putin‘in 2017’de okulun ilk gününde Rus öğrencilere yapay zekâ yarışını kim yönetirse muhtemelen “dünyayı da onun yöneteceğini" söylediği aktarılıyor.

Altman, “Bu kesinlikle tüyler ürpertici bir ifade," dedi. “Bunun yerine umduğum şey, hepimizin farklı şekillerde kullanabileceği, günlük hayatımıza, ekonomiye entegre edebileceğimiz ve insan iradesinin bir yükselticisi haline gelebilecek daha güçlü sistemleri art arda geliştirmemizdir."

Yanlış bilgilendirmeye ilişkin endişeler
OpenAI‘ye göre GPT-4, görüntüleri girdi olarak anlama yeteneği de dahil olmak üzere bir önceki iterasyona göre büyük iyileştirmelere sahip. Demolarda GTP-4‘ün birinin buzdolabında ne olduğunu açıkladığı, bulmacaları çözdüğü ve hatta bir internet meme’inin arkasındaki anlamı ifade ettiği görülüyor.

Bu özellik şu anda yalnızca beta testinin bir parçası olan bir grup görme engelli kullanıcı da dahil olmak üzere küçük bir kullanıcı grubu tarafından erişilebilir durumda.

Ancak Altman‘a göre ChatGPT gibi yapay zekâ dil modelleriyle ilgili tutarlı bir sorun yanlış bilgilendirmedir: Program kullanıcılara gerçekte doğru olmayan bilgiler verebiliyor.

Altman, “İnsanları en çok uyarmaya çalıştığım şey ‘halüsinasyon sorunu’ dediğimiz şey" dedi. “Model, tamamen uydurma olan şeyleri gerçekmiş gibi kendinden emin bir şekilde ifade edecektir."

OpenAI‘ye göre, modelin bu sorunu kısmen, ezber yerine tümdengelimli akıl yürütme kullandığı için yaşıyor.

OpenAI‘nin Baş Teknoloji Sorumlusu Mira Murati verdiği demeçte, “GPT-3.5’ten GPT-4’e gördüğümüz en büyük farklardan biri, daha iyi akıl yürütme yeteneğinin ortaya çıkmasıydı" dedi.

Murati, “Amaç bir sonraki kelimeyi tahmin etmek – ve bununla birlikte, bu dil anlayışının olduğunu görüyoruz" dedi. “Bu modellerin dünyayı daha çok bizim gördüğümüz gibi görmesini ve anlamasını istiyoruz."

Altman, “Yarattığımız modelleri düşünmenin doğru yolu bir muhakeme motorudur, bir olgu veritabanı değil" dedi. “Bir olgu veritabanı olarak da hareket edebilirler, ancak onlar için özel olan şey bu değil – yapmalarını istediğimiz şey ezberleme değil, muhakeme yeteneğine daha yakın bir şey."

Altman ve ekibi, “modelin zamanla bu muhakeme motoru haline geleceğini" ve sonunda gerçeği kurgudan ayırmak için interneti ve kendi tümdengelimli muhakemesini kullanabileceğini umduklarını söyledi. OpenAI‘ye göre GPT-4‘ün doğru bilgi üretme olasılığı bir önceki versiyona göre %40 daha fazla. Yine de Altman, sisteme birincil doğru bilgi kaynağı olarak güvenmenin “onu kullanmamanız gereken bir şey" olduğunu söyledi ve kullanıcıları programın sonuçlarını iki kez kontrol etmeye teşvik etti.

Kötü aktörlere karşı önlemler
ChatGPT ve diğer yapay zekâ dil modellerinin içerdiği bilgi türü de endişe kaynağı olmuştur. Örneğin, ChatGPT‘nin bir kullanıcıya nasıl bomba yapılacağını söyleyip söyleyemeyeceği. Altman‘a göre ChatGPT‘de kodlanan güvenlik önlemleri nedeniyle cevap hayır.

Altman, “Endişelendiğim bir şey var… bu teknolojinin tek yaratıcısı biz olmayacağız," dedi. “Bizim koyduğumuz bazı güvenlik sınırlarını koymayan başka insanlar da olacak."

Altman‘a göre, yapay zekâ ile ilgili tüm bu potansiyel tehlikelere karşı birkaç çözüm ve önlem var. Bunlardan biri: Toplumun, riskler düşükken ChatGPT ile oynamasına izin verin ve insanların onu nasıl kullandığından öğrenin.

Murati‘ye göre ChatGPT‘nin şu anda halka açık olmasının başlıca nedeni “çok sayıda geri bildirim topluyor olmamız".

Halk OpenAI‘nin uygulamalarını test etmeye devam ettikçe, Murati nerede güvenlik önlemlerine ihtiyaç duyulduğunu belirlemenin daha kolay hale geldiğini söylüyor.

Murati, “İnsanlar bunları ne için kullanıyor, aynı zamanda bununla ilgili sorunlar nelerdir, dezavantajlar nelerdir ve teknolojiye müdahale edebilmek ve iyileştirmeler yapabilmek" diyor. Altman, halkın ChatGPT‘nin her versiyonuyla etkileşime girmesinin önemli olduğunu söylüyor.

“Eğer bunu gizlice geliştirseydik – buradaki küçük laboratuvarımızda – ve GPT-7’yi yapsaydık ve sonra bir anda dünyaya bıraksaydık… Bence bu çok daha fazla dezavantajı olan bir durum olurdu," diyor Altman. “İnsanların güncelleme yapmak, tepki vermek, bu teknolojiye alışmak ve dezavantajların nerede olduğunu ve hafifletmelerin neler olabileceğini anlamak için zamana ihtiyacı var."

Yasadışı veya ahlaki açıdan sakıncalı içerikle ilgili olarak Altman, OpenAI‘de hangi bilgilerin ChatGPT‘ye gireceğine ve ChatGPT‘nin kullanıcılarla neleri paylaşmasına izin verileceğine karar veren bir politika yapıcı ekibine sahip olduklarını söyledi.

Altman, “Çeşitli politika ve güvenlik uzmanlarıyla konuşuyoruz, bu sorunları ele almaya çalışmak ve güvenli ve iyi olduğunu düşündüğümüz bir şey ortaya koymak için sistemin denetimlerini alıyoruz" diye ekledi. “Ve yine, ilk seferde mükemmele ulaşamayacağız, ancak riskler nispeten düşükken dersleri öğrenmek ve kenarları bulmak çok önemli."

Yapay zekâ bazı işlerde insanın yerini alacak mı?
Bu teknolojinin yıkıcı yeteneklerine ilişkin endişeler arasında bazı işlerde insanın yerini alması da var. Altman bunun yakın gelecekte bazı işlerin yerini alacağını söylüyor ve bunun ne kadar hızlı gerçekleşebileceğinden endişe ediyor.

Altman, “Bence birkaç nesil boyunca insanlık, büyük teknolojik değişimlere harika bir şekilde uyum sağlayabileceğini kanıtladı" dedi. “Ancak bu tek haneli yıllarda gerçekleşirse, bu değişimlerin bazıları… En çok endişelendiğim kısım da bu."

Ancak insanları ChatGPT‘ye bir ikâme olarak değil, daha çok bir araç olarak bakmaya teşvik ediyor. “İnsan yaratıcılığı sınırsızdır ve yeni işler buluruz. Yapacak yeni şeyler buluyoruz."

Altman‘a göre ChatGPT‘nin insanlık için bir araç olarak kullanılabilmesi risklerden daha ağır basıyor.

Altman, “Hepimiz cebimizde bizim için özelleştirilmiş, öğrenmemize yardımcı olan inanılmaz bir eğitmene sahip olabiliriz," dedi. “Herkes için bugün alabileceğimizin ötesinde tıbbi tavsiyeler alabiliriz."

‘Yardımcı pilot’ olarak ChatGPT
Eğitimde ChatGPT, bazı öğrencilerin ödevlerde kopya çekmek için kullanması nedeniyle tartışmalı hale geldi. Eğitimciler bunun kendilerinin bir uzantısı olarak kullanılıp kullanılamayacağı ya da öğrencilerin kendi kendilerine öğrenme motivasyonunu kırıp kırmayacağı konusunda kararsız.

“Eğitim değişmek zorunda kalacak, ancak bu teknoloji ile birçok kez oldu" diyen Altman, öğrencilerin sınıfın ötesine geçen bir tür öğretmene sahip olabileceklerini de sözlerine ekledi. “Beni en çok heyecanlandıran şeylerden biri, bireysel öğrenme – her öğrenci için harika bir bireysel öğrenme – sağlama becerisi."

Altman ve ekibi, her alanda kullanıcıların ChatGPT‘yi bir “yardımcı pilot“, kapsamlı bilgisayar kodu yazmanıza veya problem çözmenize yardımcı olabilecek biri olarak düşünmelerini istiyor.

Altman, “Buna her meslek için sahip olabiliriz ve yaşam standardı gibi çok daha yüksek bir yaşam kalitesine sahip olabiliriz" dedi. “Ama aynı zamanda bugün hayal bile edemediğimiz yeni şeylere de sahip olabiliriz – işte vaat bu."

Bu içeriği beğendiyseniz lütfen çevrenizle paylaşınız…
Etiketler: ,
error: İçerik korunmaktadır !!