e-BİLGİ, e-GÜVENLİK, e-HABER

Yapay Zekâ Sohbetleriniz Gözetlenebilir

yapay-zeka-sohbetleriniz-gozetlenebilir

Özel Sohbetleri Herkes Okuyabilir...

23:56:24

Uzmanlar, Bilgisayar Korsanlarının Neredeyse Tüm Yapay Zekâlarla Sohbetlerinizi Gözetleyebileceğini Tespit Etti

Yapay zekâ sohbet robotlarına ne söylediğinize dikkat edin, çünkü görünüşe göre bilgisayar korsanlarının bu konuşmaları gözetlemesi çok kolay. İsrail Ben-Gurion Üniversitesi Saldırgan Yapay zekâ Araştırma Laboratuvarı Başkanı Yisroel Mirsky Ars Technica‘ya gönderdiği bir e-postada “Şu anda herkes ChatGPT ve diğer hizmetlerden gönderilen özel sohbetleri okuyabilir" dedi. “Bu, bir istemciyle aynı Wi-Fi veya LAN’da bulunan kötü niyetli aktörleri (örneğin, aynı kahve dükkanı) veya hatta internetteki kötü niyetli bir aktörü – trafiği gözlemleyebilen herhangi birini içerir."

“ChatGPT ve diğer hizmetlerden gönderilen özel sohbetleri herkes okuyabilir."

Raporda açıklandığı üzere bu tür saldırılar, “yan kanal saldırıları" olarak bilinen ve üçüncü tarafların güvenlik duvarlarını aşmak yerine meta verileri veya diğer dolaylı maruziyetleri kullanarak pasif bir şekilde veri çıkarımında bulunmasını içeren saldırılardır. Bu tür bir istismar her türlü teknolojide meydana gelebilirken, yapay zekâ özellikle savunmasız görünmektedir çünkü şifreleme çabaları her zaman yeterli değildir.

Araştırmacı, “Saldırı pasiftir ve OpenAI veya müşterilerinin bilgisi olmadan gerçekleşebilir" dedi. “OpenAI bu tür gizli dinleme saldırılarını önlemek için trafiğini şifreliyor, ancak araştırmamız OpenAI’nin şifrelemeyi kullanma şeklinin kusurlu olduğunu ve bu nedenle mesajların içeriğinin açığa çıktığını gösteriyor."

Yan kanal saldırıları diğer hack türlerine göre daha az istilacı olsa da, Ars‘ın bildirdiği gibi, belirli bir sohbet botu istemini kabaca yüzde 55 doğrulukla çıkarabilirler, bu da bir yapay zekâya sorulabilecek hassas soruları kötü aktörler için tespit etmeyi kolaylaştırır.

Ben-Gurion araştırmacıları öncelikle OpenAI‘deki şifreleme hatalarına odaklanmış olsalar da, rapora göre bugün piyasadaki çoğu chatbot – her ne sebeple olursa olsun Google‘ın Gemini‘si hariç – bu şekilde istismar edilebilir.

Bu sorun, sohbet robotlarının, büyük dil modellerinin (LLM’ler) girdileri çevirmesine ve hızlı bir şekilde okunaklı yanıtlar vermesine yardımcı olan “belirteçler" olarak bilinen kodlanmış veri parçalarını kullanmasından kaynaklanmaktadır. Bunlar genellikle çok hızlı bir şekilde gönderilir, böylece bir kullanıcının sohbet robotuyla yaptığı “konuşma" doğal bir şekilde akar, sanki bir paragraf uzunluğunda bir yanıtın bir kerede ortaya çıkması yerine birisinin bir yanıt yazması gibi.

İletim süreci genellikle şifrelenmiş olsa da, belirteçlerin kendileri araştırmacıların daha önce farkında olmadığı bir yan kanal oluşturuyor. Ben-Gurion araştırmacılarının yeni bir makalede açıkladıkları gibi, bu gerçek zamanlı verilere erişim sağlayan herhangi biri, eriştikleri belirteçlere dayanarak, bir kapının veya duvarın diğer tarafından duyulan sessiz bir konuşmanın konusunu çıkarmak gibi, istemlerinizi çıkarabilir.

Bu istismarı belgelemek için Mirsky ve Ben-Gurion‘daki ekibi, henüz resmi olarak yayımlanmamış olan makalelerinde açıkladıkları gibi, istenmeyen yan kanal aracılığıyla elde edilen ham verileri anahtar kelimeleri tanımlamak için eğitilmiş ikinci bir LLM’den geçirdiler. Buldukları üzere, LLM genel istemleri çıkarma konusunda kabaca yarı yarıya bir şansa sahipti – ve bunları zamanın yüzde 29’unda neredeyse mükemmel bir şekilde tahmin edebildiler.

Microsoft Ars‘a yaptığı açıklamada, Copilot yapay zekâsını da etkileyen bu açığın kişisel bilgileri tehlikeye atmadığını söyledi.

Bir Microsoft sözcüsü web sitesine yaptığı açıklamada, “İsimler gibi belirli ayrıntıların tahmin edilmesi olası değildir" dedi. “Müşterilerimizi bu potansiyel saldırılara karşı korumaya yardımcı olmaya kararlıyız ve bunu bir güncellemeyle ele alacağız."

Bulgular kaygı verici – ve suç sayılan konular söz konusu olduğunda, sadece bilgi arayan insanlara zarar vermek ya da onları cezalandırmak için kullanılabilir.

Aşağıdaki Bilgileri Sohbet Botlarına VERMEYİN!

Aşağıdaki Kişisel Bilgileri Sohbet Botlarına VERMEYİN!

Kişisel bilgiler:

  • Adınız, soyadınız, adresiniz, telefon numaranız, e-posta adresiniz, doğum tarihiniz, T.C. kimlik numaranız, pasaport numaranız, kredi kartı bilgileriniz, banka hesap bilgileriniz.
  • Sağlık bilgileriniz, tıbbi geçmişiniz, reçeteleriniz, doktor raporlarınız.
  • Siyasi görüşleriniz, dini inançlarınız, cinsel yöneliminiz.

Finansal bilgiler:

  • Banka hesap bilgileriniz, kredi kartı bilgileriniz, yatırım hesap bilgileriniz, gelir belgeleriniz.

Ticari bilgiler:

  • Şirketinizin adı, adresi, telefon numarası, e-posta adresi, vergi numarası, ticaret sicil numarası.
  • Çalışanlarınızın bilgileri, müşterilerinizin bilgileri, tedarikçilerinizin bilgileri.

Sohbetlerde bu tür bilgileri paylaşmaktan kaçınmanız önemlidir. Hacker’lar bu bilgilere erişerek kimlik hırsızlığı, dolandırıcılık, şantaj gibi çeşitli suçlar işleyebilir.

Bu içeriği beğendiyseniz lütfen çevrenizle paylaşınız…
Etiketler: ,
error: İçerik korunmaktadır !!