
Google’ın Yapay Zekası, Dolandırıcı Numaralarını Öneriyor: Kullanıcılar Binlerce Dolar Kaptırdı!
Milyonlarca insanın her gün güvendiği Google Arama, yapay zeka (AI) entegrasyonuyla birlikte tehlikeli bir güvenlik açığına dönüştü. Yeni bir rapora göre, Google’ın arama sonuçlarının en tepesinde gösterdiği AI Özetleri (AI Overviews) ve hatta AI Modu, bir şirketin müşteri hizmetleri numarasını arattığınızda, size gerçek numara yerine doğrudan bir dolandırıcının telefon numarasını önerebiliyor.
Bu durum, Google’ın yapay zekasına güvenen masum kullanıcıların, kredi kartı bilgilerini kendi elleriyle dolandırıcılara teslim etmesine ve binlerce dolar kaybetmesine neden olan gerçek vakalarla kanıtlandı.
Dolandırıcılar Google’ın Yapay Zekasını Nasıl “Hackliyor”?
Digital Trends tarafından ortaya çıkarılan olaylar, dolandırıcıların Google’ın algoritmasını nasıl manipüle ettiğini gözler önüne seriyor.
- Sahte Web Siteleri: Dolandırıcılar, meşru görünen (hatta bazen
.govuzantılı resmi siteleri taklit eden) sahte web siteleri oluşturuyor. - Yanlış Bilgi Yerleştirme: Bu sahte sitelerin içine, “Royal Caribbean Müşteri Hizmetleri” veya “Southwest Havayolları İsim Düzeltme” gibi başlıkların yanına, kendi dolandırıcılık hatlarının telefon numarasını yerleştiriyorlar.
- Yapay Zekayı Kandırma: Google’ın yapay zekası, interneti tararken bu sahte sitelerdeki bilgiyi görüyor. Örneğin, bir
.govuzantılı sitede “Royal Caribbean” kelimesinin yanında bir telefon numarası gördüğünde, bu bilginin meşru ve güvenilir olduğunu varsayıyor. - Tehlikeli Sonuç: Bir kullanıcı, “Royal Caribbean müşteri hizmetleri numarası” diye arama yaptığında, Google’ın yapay zekası, bu “güvenilir” sandığı kaynaktan aldığı dolandırıcı numarasını, arama sonuçlarının en tepesinde, AI Özeti olarak sunuyor.
Gerçek Dünya Örnekleri: Binlerce Dolarlık Kayıplar
- Royal Caribbean Vakası: Tatil gemisi için servis rezervasyonu yapmak isteyen Alex Rivlin, Google’ın AI Özeti’nde çıkan numarayı aradı. Son derece bilgili görünen sahte temsilciye kredi kartı bilgilerini verdi. Şüphelenip kartını kontrol ettiğinde ise, hiç tanımadığı yabancı bir şirketten para çekildiğini fark etti.
- Swiggy Vakası: Bir başka kullanıcı, yemek sipariş hizmeti Swiggy’nin müşteri hizmetleri numarasını arattığında Google’ın gösterdiği sahte numarayı arayarak 3.400 dolardan fazla para kaptırdı.
Techneiro Analizi: Yapay Zekanın “Kör Güven” Tehlikesi
Bu olaylar, Google’ın AI Özetleri özelliğinin kötü niyetli değil, temelden “kusurlu” olduğunu gösteriyor. Sorun, yapay zekanın bağlamı ve kaynağın güvenilirliğini anlama konusundaki yetersizliğidir. AI için, resmi bir siteyi taklit eden bir sayfada yer alan bilgi, gerçek bilgiyle aynı değerdedir. Bu, geçen yıl AI Özetleri ilk çıktığında yaşanan ve yapay zekanın Reddit’teki şakaları (“pizzadaki peynirin yapışması için uhu kullanın” gibi) gerçek bir tavsiye olarak sunduğu fiyaskonun devamıdır.
Bu durum, kullanıcıların on yıllardır Google’a duyduğu “kör güveni” tehlikeli bir hale getiriyor. Artık arama sonuçlarının en tepesinde yer alan bilginin, doğruluğu sorgulanması gereken, potansiyel olarak tehlikeli bir halüsinasyon olabileceğini kabul etmemiz gerekiyor.
Nasıl Korunulur?
- Asla AI Özetine Güvenmeyin: Özellikle bir telefon numarası, adres veya hassas bir bilgi arıyorsanız, AI Özeti’nde çıkan sonuca asla %100 güvenmeyin.
- Her Zaman Ana Kaynağa Gidin: Bir şirketin iletişim bilgilerini arıyorsanız, arama sonuçlarındaki linklerden doğrudan şirketin resmi web sitesine gidin ve numarayı oradan bulun.
- Kaynakları Kontrol Edin: Eğer AI Özeti’ni kullanmakta ısrarcıysanız, en azından özetin altında gösterilen kaynak linklerine tıklayarak, bilginin nereden alındığını kontrol edin. Eğer kaynak şüpheli görünüyorsa, bilginin de şüpheli olduğunu varsayın.
Siz Google’ın AI Özetleri özelliğini kullanıyor musunuz? Yapay zekanın sunduğu bu tür “doğrulanmamış” bilgilere ne kadar güveniyorsunuz? Düşüncelerinizi yorumlarda bizimle paylaşın!
Bu Konuyla İlgili Diğer“Nedir?”Yazılarımız:
Dijital dünyada güvende kalmanızı sağlayacak en son siber güvenlik tehditleri, korunma yöntemleri ve gizlilik ipuçları için techneiro.com‘u takip etmeye devam edin!