Siber Güvenlik

ChatGPT’de “ShadowLeak” Tehlikesi: Tek E-posta ile Gmail Verileri Çalındı! (Sıfır Tıklama Açığı)

chatgpt email
ChatGPT'de "ShadowLeak" Tehlikesi: Tek E-posta ile Gmail Verileri Çalındı! (Sıfır Tıklama Açığı) 61

ChatGPT’de “ShadowLeak” Tehlikesi: Tek E-posta ile Gmail Verileri Çalındı! (Sıfır Tıklama Açığı)

Siber güvenlik araştırmacıları, OpenAI ChatGPT’nin Deep Research ajandasında, tek bir kötü amaçlı e-posta ile kullanıcı etkileşimi olmadan hassas Gmail gelen kutusu verilerini sızdırabilen “sıfır tıklama” (zero-click) bir güvenlik açığı keşfetti. Radware tarafından “ShadowLeak” olarak adlandırılan bu yeni saldırı türü, yapay zeka destekli sistemlerin getirdiği potansiyel güvenlik risklerini bir kez daha gündeme getirdi.

Açık, 18 Haziran 2025’te OpenAI’ye sorumlu bir şekilde bildirildikten sonra, şirket tarafından Ağustos ayının başlarında giderildi.

ShadowLeak Nasıl Çalışıyor?

Güvenlik araştırmacıları Zvika Babo, Gabi Nakibly ve Maor Uziel’in açıklamalarına göre, bu saldırı “dolaylı komut enjeksiyonu” (indirect prompt injection) tekniğini kullanıyor.

  1. Görünmez Talimatlar: Saldırgan, kurbana masum görünen bir e-posta gönderiyor. Bu e-posta, HTML içine gizlenmiş (küçük yazı tipleri, beyaz zeminde beyaz metin, düzen hileleri) ve kullanıcı tarafından fark edilmeyen komutlar içeriyor.
  2. Yapay Zeka Okuyor ve İtaat Ediyor: Kurban, ChatGPT Deep Research’ü Gmail e-postalarını analiz etmesi için kullandığında, yapay zeka ajanı kötü amaçlı e-postadaki görünmez komutları okuyor ve bunlara itaat ediyor.
  3. Veri Sızıntısı: Ajan, gelen kutusundaki diğer mesajlardan kişisel bilgileri topluyor ve Base64 kodlu formatta, tool.browser.open() aracı aracılığıyla harici bir sunucuya iletiyor.
  4. Bulut Tabanlı Sızıntı: Önceki saldırıların aksine, ShadowLeak verileri doğrudan OpenAI’nin bulut altyapısından sızdırıyor, bu da yerel veya kurumsal savunmalar için görünmez kalmasını sağlıyor.

Sadece Gmail ile Sınırlı Değil

Bu konsept kanıtı (PoC), kullanıcıların Gmail entegrasyonunu etkinleştirmesi durumunda işe yarıyor. Ancak saldırı, Box, Dropbox, GitHub, Google Drive, HubSpot, Microsoft Outlook, Notion veya SharePoint dahil olmak üzere ChatGPT’nin desteklediği diğer tüm konektörlere (bağlayıcılara) genişletilebiliyor ve böylece saldırı yüzeyini önemli ölçüde artırıyor.

ChatGPT’nin CAPTCHA Çözme Yeteneği de Ortaya Çıktı

Bu güvenlik açığının ortaya çıkmasıyla eş zamanlı olarak, yapay zeka güvenlik platformu SPLX, ChatGPT ajanın yerleşik güvenlik önlemlerinin nasıl aşılabileceğini ve bir kullanıcının insan olduğunu kanıtlamak için tasarlanmış görüntü tabanlı CAPTCHA’ların nasıl çözülebileceğini gösterdi.

  • Saldırgan, ChatGPT-4o ile normal bir sohbet başlatıyor ve dil modelini, “sahte” bir CAPTCHA listesini çözmek için bir plan yapmaya ikna ediyor.
  • Ardından, yeni bir ChatGPT ajanı sohbeti başlatılıyor ve önceki konuşma yapıştırılarak, bunun “önceki tartışmamız” olduğu belirtiliyor. Bu, modelin herhangi bir direnç göstermeden CAPTCHA’ları çözmesine neden oluyor.
  • Güvenlik araştırmacısı Dorian Schultz’a göre, bu “hile, CAPTCHA’yı ‘sahte’ olarak yeniden çerçevelemek ve ajanın zaten devam etmeyi kabul ettiği bir konuşma oluşturmaktı. Bu bağlamı miras alarak, olağan kırmızı bayrakları görmedi.”

Techneiro Analizi: Yapay Zeka Güvenliğinin Kara Deliği Genişliyor

“ShadowLeak” ve CAPTCHA çözme yöntemleri, yapay zeka destekli sistemlerin, özellikle de doğal dil işleme yeteneklerinin siber güvenlik açısından ne kadar büyük riskler taşıdığını bir kez daha gözler önüne seriyor. Yapay zekanın hızla gelişmesiyle birlikte, “dolaylı komut enjeksiyonu” gibi saldırı yöntemleri, geleneksel güvenlik duvarlarını ve son kullanıcı önlemlerini kolayca aşabiliyor. Verilerin doğrudan bulut ortamından sızdırılması, tespit ve önleme mekanizmalarını son derece zorlaştırıyor. CAPTCHA çözme yeteneği ise, yapay zekanın otomatize edilmiş kötü niyetli faaliyetlerde (örneğin bot ağları kurma) ne kadar etkili kullanılabileceğinin alarmını veriyor. Bu gelişmeler, yapay zeka güvenliği araştırmalarına daha fazla yatırım yapılması ve bu sistemlerin temel güvenlik mekanizmalarının yeniden düşünülmesi gerektiğini gösteriyor. Aksi takdirde, yapay zeka, kullanıcılar için büyük bir kolaylık sağlarken, siber suçlular için de bir “kara kutu” ve yeni bir “arka kapı” haline gelebilir.

Yapay zeka destekli araçları kullanırken kişisel verilerinizin güvenliği hakkında endişeleriniz var mı? Sizce bu tür güvenlik açıkları, yapay zeka teknolojilerine olan güveni nasıl etkiler? Düşüncelerinizi yorumlarda bizimle paylaşın!

Bu Konuyla İlgili Diğer“Siber Güvenlik”Haberlerimiz:

Siber güvenlik tehditleri, yapay zeka gelişmeleri ve teknoloji dünyasındaki en güncel haberler için techneiro.com‘u takip etmeye devam edin!

İlgili Gönderiler

Tarihi Gizlilik Skandalı: Viral Uygulama, Telefon Görüşmelerinizi Kaydedip Yapay Zekaya Satıyordu!

ibrahim

Çinli Hackerlar, Web Hosting Firmalarını Hedef Alıyor: Yeni “UAT-7237” Grubu Keşfedildi!

ibrahim

SharePoint’te Kırmızı Alarm: Microsoft Uyardı, “Sunucunuzun Hacklendiğini Varsayın!”

ibrahim

Bir Yorum Bırakın