HaberlerYapay Zeka

ChatGPT’nin Diyet Tavsiyesini Dinleyen Adam, Zehirlenerek Hastanelik Oldu!

ChatGPT’nin Diyet Tavsiyesini Dinleyen Adam, Zehirlenerek Hastanelik Oldu!

Yapay zeka (AI) asistanlarına olan aşırı güvenin ne kadar tehlikeli olabileceğini gösteren, son derece endişe verici bir olay yaşandı. New York’ta yaşayan 60 yaşındaki bir adam, ChatGPT‘den aldığı diyet tavsiyesine uyduktan sonra, nadir görülen ve tehlikeli bir durum olan “bromizm” (bromür zehirlenmesi) nedeniyle hastaneye kaldırıldı. Bu vaka, yapay zeka sohbet robotlarından tıbbi tavsiye almanın ölümcül sonuçlar doğurabileceği konusunda ciddi bir uyarı niteliği taşıyor.

Olay, prestijli tıp dergisi Annals of Internal Medicine‘da yayınlanan bir makale ile bilim dünyasına duyuruldu.

Olay Nasıl Gerçekleşti? “Tuz Alternatifi” Arayışı

NBC News‘in haberine göre, 60 yaşındaki hasta, sofra tuzuna (sodyum klorür) daha sağlıklı bir alternatif aramak için ChatGPT’ye danıştı. Yapay zeka asistanı, ona alternatif olarak sodyum bromür kullanmasını önerdi.

  • Adam, internetten temin ettiği bu maddeyi, üç ay boyunca her gün yemeklerinde normal tuz yerine kullandı.
  • Ancak bu “sağlıklı alternatif”, adamın hayatını bir kabusa çevirdi. Paranoya, uykusuzluk, psikoz ve diğer ciddi fiziksel semptomlar geliştirmeye başladı. Hatta bir noktada, komşularından birinin kendisini zehirlediğini düşünmeye başladı.

Hastaneye kaldırıldığında, doktorlar kendisine aşırı bromür maruziyetine bağlı toksik bir reaksiyon olan bromizm teşhisi koydu. Bromür tüketimini durdurduktan ve gerekli tedaviyi aldıktan sonra semptomları düzelmeye başladı.

ChatGPT’nin Tehlikeli Tavsiyesi

Vakayı inceleyen araştırmacılar, ChatGPT’nin gerçekten de böyle bir tavsiye verip vermediğini kontrol ettiklerinde, endişe verici bir sonuçla karşılaştılar. Yapay zeka sohbet robotu, gerçekten de klorüre bir alternatif olarak bromürü öneriyor ve bu maddenin toksisitesi hakkında hiçbir uyarıda bulunmuyordu.

Techneiro Analizi: Yapay Zeka Halüsinasyonlarının Ölümcül Riski

Bu olay, yapay zeka halüsinasyonlarının ne kadar tehlikeli olabileceğinin en somut ve en korkutucu örneklerinden biridir. ChatGPT gibi büyük dil modelleri, birer “bilgi veritabanı” değil, istatistiksel olarak bir sonraki en olası kelimeyi tahmin eden “olasılık motorlarıdır”. Bu, onların zaman zaman tamamen yanlış, anlamsız ve bu vakada olduğu gibi ölümcül olabilecek bilgileri, sanki bir uzman tavsiyesiymiş gibi büyük bir özgüvenle sunmalarına neden olur. Sam Altman’ın kendisi bile, sohbet robotlarının terapi için kullanılmaması gerektiği konusunda uyarıda bulunmuştu. Bu vaka, yapay zeka şirketlerinin, özellikle sağlık gibi hassas konularda çok daha katı güvenlik korkulukları (guardrails) oluşturması gerektiğinin altını çiziyor. Kullanıcılar için ise en temel kural değişmiyor: Sohbet robotları birer doktor değildir ve hayati önem taşıyan hiçbir konuda onların tavsiyelerine güvenilmemelidir.

Sizce yapay zeka sohbet robotlarının sağlık gibi kritik konularda tavsiye vermesi tamamen engellenmeli mi? Bir AI’dan aldığınız bir bilginin doğruluğunu teyit etmek için ne gibi yöntemler kullanıyorsunuz? Düşüncelerinizi yorumlarda bizimle paylaşın!

Bu Konuyla İlgili Diğer“Nedir?”Yazılarımız:

Yapay zekanın geleceğini şekillendiren en son gelişmeler, yeni modeller ve teknoloji devlerinin stratejileri için techneiro.com‘u takip etmeye devam edin!

İlgili Gönderiler

Kuzey Işıkları ABD’yi Aydınlattı: 15 Eyalet Şölen Yaşadı!

ibrahim

Tesla İçin Çin’de Tehlike Çanları Çalıyor: Pazar Payı Eriyor, Satışlar Çakıldı!

ibrahim

Google Chrome’da Kritik Sıfır Gün Açığı: Milyarlarca Kullanıcı Risk Altında, Hemen Güncelleyin!

ibrahim

Bir Yorum Bırakın