e-BİLGİ, e-HABER, e-SAĞLIK

Tıpta Yapay Zekâ Devrimi

tipta-yapay-zeka-devrimi

Doktor Hem Etkilenmiş Hem de Dehşete Düşmüş...

02:30:10

Yapay Zekâdan Tıp Alanında Çarpıcı Başarı…

ChatGPT’nin en yeni sürümü ABD tıbbi lisanslama sınavını başarıyla geçti. 100.000’de 1 görülen bir durumu saniyeler içinde teşhis etti. Bir doktor, ChatGPT’nin GPT-4 adı verilen en son yazılım güncellemesinin klinik teşhis konusunda “gözlemlediğim birçok doktordan daha iyi" olduğunu söyledi.

Hem Harvard‘da bilgisayar bilimcisi hem de doktor olan Dr. Isaac Kohane, GPT-4’ü test etmek için iki meslektaşıyla birlikte çalıştı ve tek bir amacı vardı: OpenAI‘nin en yeni yapay zekâ modelinin tıbbi bir ortamda nasıl performans gösterdiğini görmek.

Bağımsız gazeteci Carey Goldberg ve Microsoft araştırma başkan yardımcısı Peter Lee‘nin birlikte kaleme aldığı yakında çıkacak olan “Tıpta Yapay Zekâ Devrimi" adlı kitapta “Şaşırarak söylüyorum: gözlemlediğim birçok doktordan daha iyi" diyor. Yazarlar, Microsoft‘un OpenAI‘nin teknolojilerini geliştirmek için milyarlarca dolar yatırım yapmış olmasına rağmen, ne Microsoft‘un ne de OpenAI‘nin kitabın editoryal denetimine ihtiyaç duymadığını söylüyor.

Kitapta Kohane, Mart 2023’te ücretli aboneler için piyasaya sürülen GPT-4’ün ABD tıbbi sınav lisanslama sorularını %90’dan fazla doğru yanıtladığını söylüyor. Önceki ChatGPT AI modelleri olan GPT-3 ve -3.5’ten çok daha iyi bir test uygulayıcısı ve bazı lisanslı doktorlardan da daha iyi bir test uygulayıcısı.

GPT-4 sadece iyi bir test çözücü ve bilgi bulucu değildir. Aynı zamanda harika bir çevirmen. Kitapta, Portekizce konuşan bir hasta için taburcu bilgilerini tercüme edebiliyor ve karmaşık teknik jargonu 6. sınıf öğrencilerinin kolayca okuyabileceği bir hale getirebiliyor.

Yazarların canlı örneklerle açıkladığı gibi, GPT-4 aynı zamanda doktorlara hasta başı tutumu hakkında yararlı önerilerde bulunabiliyor, hastalarla durumları hakkında şefkatli ve açık bir dille nasıl konuşacaklarına dair ipuçları sunuyor ve uzun raporları veya çalışmaları okuyup göz açıp kapayıncaya kadar özetleyebiliyor. Teknoloji, insan tarzı zekaya benzeyen bir ölçüyü gerektiren bir şekilde problemler üzerinden akıl yürütmesini bile açıklayabilir.

Ancak GPT-4’e tüm bunları nasıl yaptığını sorarsanız, muhtemelen size tüm zekâsının hâlâ “verilerdeki kalıplarla sınırlı olduğunu ve gerçek bir anlayış veya niyetlilik içermediğini" söyleyecektir. Kitabın yazarları GPT-4’e gerçekten nedensel muhakeme yapıp yapamadığını sorduklarında GPT-4’ün söylediği de buydu. Kohane‘nin kitapta keşfettiği gibi, bu tür sınırlamalarla bile GPT-4, doktorların kusurlu da olsa şaşırtıcı bir başarıyla teşhis koyma yöntemlerini taklit edebiliyor.

GPT-4 nasıl doktor gibi teşhis koyabilir?
Kohane, kitapta GPT-4 ile birkaç yıl önce tedavi ettiği yeni doğmuş bir bebekle ilgili gerçek bir vakaya dayanan klinik bir düşünce deneyinden geçiyor. Fiziksel muayeneden elde ettiği bebekle ilgili birkaç önemli detayın yanı sıra ultrason ve hormon seviyelerinden elde ettiği bazı bilgileri robota veren Kohane, makinenin konjenital adrenal hiperplazi adı verilen ve 100.000’de 1 görülen bir durumu “tıpkı benim bunca yıllık çalışma ve deneyimimle yapacağım gibi" doğru bir şekilde teşhis edebildiğini yazdı.

Doktor hem etkilenmiş hem de dehşete düşmüştü.

“Bir yandan, hesaplamalı bir süreçle sofistike bir tıbbi konuşma yapıyordum," diye yazdı, “diğer yandan, milyonlarca ailenin yakında bu etkileyici tıbbi uzmanlığa erişebileceğini ve GPT-4’ün tavsiyelerinin güvenli veya etkili olacağını nasıl garanti edebileceğimizi veya onaylayabileceğimizi anlayamadığım için endişeliydim."

GPT-4 her zaman haklı değildir – ve etik pusulası yoktur…
GPT-4 her zaman güvenilir değildir ve kitap onun hatalarının örnekleriyle doludur. Bunlar, botun birkaç dakika önce doğru hesapladığı bir BMI değerini yanlış göstermek gibi basit yazım hatalarından, bir Sudoku bulmacasını yanlış “çözmek" veya bir denklemdeki bir terimin karesini almayı unutmak gibi matematik hatalarına kadar uzanıyor. Hatalar genellikle inceliklidir ve sistem kendisine meydan okunduğunda bile haklı olduğunu iddia etme eğilimindedir. Yanlış yerleştirilmiş bir sayının veya yanlış hesaplanmış bir ağırlığın reçeteleme veya teşhiste nasıl ciddi hatalara yol açabileceğini hayal etmek zor değil.

Önceki GPT’ler gibi GPT-4 de “halüsinasyon" görebiliyor – yapay zekânın cevaplar uydurması veya taleplere uymaması için kullanılan teknik tabir.

Kitabın yazarları tarafından bu konu sorulduğunda GPT-4 “Kimseyi kandırmak veya yanlış yönlendirmek niyetinde değilim, ancak bazen eksik veya yanlış verilere dayanarak hatalar veya varsayımlar yapıyorum. Ayrıca bir insan doktor ya da hemşirenin klinik yargısına ya da etik sorumluluğuna sahip değilim."

Yazarların kitapta önerdiği potansiyel bir çapraz kontrol, GPT-4 ile yeni bir seans başlatmak ve “yeni bir çift gözle" kendi çalışmasını “okumasını" ve “doğrulamasını" sağlamaktır. Bu taktik bazen hataları ortaya çıkarmak için işe yarıyor – gerçi GPT-4 hatalı olduğunu kabul etmek konusunda biraz suskun. Bir başka hata yakalama önerisi de, botun çalışmasını size göstermesini emretmektir, böylece insan tarzında doğrulayabilirsiniz.

Yazarlar, GPT-4’ün klinikte değerli zaman ve kaynakları serbest bırakma potansiyeline sahip olduğunu ve klinisyenlerin “bilgisayar ekranları yerine" hastalarla daha fazla ilgilenmelerine olanak tanıdığını yazıyor. Ancak, diyorlar ki, “kendimizi daha akıllı ve daha zeki makinelerin olduğu, sonunda belki de neredeyse her boyutta insan zekâsını aşan bir dünyayı hayal etmeye zorlamalıyız. Sonra da bu dünyanın nasıl işlemesini istediğimizi çok iyi düşünmeliyiz."

Bu içeriği beğendiyseniz lütfen çevrenizle paylaşınız…
Etiketler: , ,
error: İçerik korunmaktadır !!