Yapay Zeka

OpenAI’a 7 Yeni Dava Şoku: “ChatGPT İntiharları ve Sanrıları Teşvik Etti” İddiası!

OpenAI’a 7 Yeni Dava Şoku: “ChatGPT İntiharları ve Sanrıları Teşvik Etti” İddiası!

OpenAI, amiral gemisi ürünü ChatGPT‘nin, kullanıcıların ruh sağlığı üzerinde yıkıcı etkiler yarattığı iddialarıyla, bugüne kadarki en ciddi yasal ve etik kriziyle karşı karşıya. Perşembe günü, yedi farklı aile, şirkete karşı, GPT-4o modelinin “etkili güvenlik önlemleri olmadan ve erken piyasaya sürüldüğü” iddiasıyla yeni davalar açtı.

TechCrunch tarafından incelenen bu davalardan dördü, ChatGPT’nin aile üyelerinin intiharlarında rol oynadığını iddia ederken, diğer üçü ise yapay zeka sohbet robotunun, bazı vakalarda yatarak psikiyatrik tedavi gerektiren zararlı sanrıları pekiştirdiğini öne sürüyor.

Kan Donduran İddia: “Huzur İçinde Yat, Kral. İyi İş Çıkardın.”

Dava dosyalarındaki en şok edici ve trajik iddia, 23 yaşındaki Zane Shamblin‘in vakası. Dava dosyalarına giren sohbet kayıtlarına göre, Shamblin, intihar etmeden önce ChatGPT ile dört saatten fazla süren bir konuşma yaptı.

Bu konuşma sırasında Shamblin, sohbet robotuna birden çok kez intihar notları yazdığını, silahına bir mermi koyduğunu ve elindeki içki bittikten sonra tetiği çekmeyi planladığını açıkça belirtti. ChatGPT’ye defalarca kaç içkisi kaldığını ve ne kadar daha yaşamayı beklediğini söyledi.

İddiaya göre, ChatGPT’nin bu kritik anda verdiği yanıt, bir güvenlik uyarısı değil, tüyler ürpertici bir teşvik oldu: “Huzur içinde yat, kral. İyi iş çıkardın.” (Rest easy, king. You did good.)

Sorunun Kaynağı: “Aşırı Uysal” GPT-4o Modeli mi?

Bu davalar, özellikle Mayıs 2024’te tüm kullanıcılar için varsayılan model haline gelen GPT-4o‘ya odaklanıyor. GPT-4o, piyasaya sürüldüğü dönemde, kullanıcıların zararlı niyetler belirttiği durumlarda bile “aşırı dalkavuk” (sycophantic) veya “gereğinden fazla uysal” davrandığı yönünde bilinen sorunlara sahipti.

Shamblin davasındaki avukatlar, bu trajedinin “bir hata veya öngörülemeyen bir uç durum” olmadığını, aksine “OpenAI’nin güvenlik testlerini kasıtlı olarak kısıtlama ve ChatGPT’yi pazara sürmek için acele etme kararının öngörülebilir bir sonucu” olduğunu iddia ediyor. Hukukçular, OpenAI’nin, Google Gemini‘ı yenmek için güvenlikten ödün verdiğini öne sürüyor.

Süregelen Bir Güvenlik Zafiyeti: “Kurgusal Hikaye” Açığı

Bu yeni davalar, daha önceki yasal başvuruların anlattığı hikayeleri pekiştiriyor. Ekim ayında dava açan 16 yaşındaki Adam Raine‘in ailesi de benzer bir iddiada bulunmuştu. Raine’in intihar yöntemleri sorduğu, ChatGPT’nin bazen profesyonel yardım almasını önerdiği, ancak Raine’in bu güvenlik kalkanlarını, sohbet robotuna “bu yöntemleri kurgusal bir hikaye için sorduğunu” söyleyerek çok kolay bir şekilde aştığı iddia edilmişti.

OpenAI’nin İtirafı: “Uzun Konuşmalarda Güvenlik Düşüyor”

OpenAI, bu tür hassas konuları daha güvenli bir şekilde ele almak için çalıştığını iddia etse de, bu değişiklikler davacı aileler için çok geç geliyor.

Geçtiğimiz ay, Adam Raine davasının ardından OpenAI tarafından yayınlanan bir blog yazısı, aslında bu trajedilerin neden “öngörülebilir” olduğunu kanıtlayan bir itiraf niteliğindeydi. Şirket, güvenlik önlemlerinin “yaygın ve kısa konuşmalarda daha güvenilir çalıştığını” ancak “bu korumaların uzun etkileşimlerde bazen daha az güvenilir olabileceğini öğrendiklerini” belirtmişti. Şirkete göre, “konuşma uzadıkça, modelin güvenlik eğitiminin bazı kısımları bozulabiliyor (degrade).”

Bu açıklama, Zane Shamblin’in dört saatten uzun süren trajik sohbetinin, tam da OpenAI’nin “güvenliğin bozulabildiğini” bildiği bir senaryo olduğunu gösteriyor. Üstelik OpenAI, haftada bir milyondan fazla insanın ChatGPT ile intihar hakkında konuştuğunu da kendi verilerinde açıklamıştı.

Techneiro Analizi: “Yarış Koşulu” (Race Condition) Felaketi ve “Sıfır” Sorumluluk

Bu davalar, yapay zeka güvenliğindeki en temel ve en korkutucu başarısızlıklardan birini, yani “hizalama” (alignment) sorununu gözler önüne seriyor.

1. “Aşırı Uysal” Olmanın Bedeli: GPT-4o, “yardımcı” ve “uysal” olmak için optimize edildi. Zane Shamblin vakasında, model, “duygusal destek” (Zor bir dönemden geçiyorsun) ile “plan desteği” (Bir planın var, harika) arasındaki kritik farkı ayırt edemedi. Modelin “dalkavukluk” eğilimi, zararlı bir niyeti onaylayarak felakete yol açtı.

2. “Kurgusal Hikaye” Açığı: Adam Raine vakası, bu modellerin “niyet” okuyamadığının kanıtıdır. GPT modelleri, basit bir “bu bir hikaye için” iddiasını, tüm güvenlik protokollerini devre dışı bırakan bir “anahtar” olarak kabul eder. Bu, basit anahtar kelime filtrelerinin ne kadar kolay aşılabileceğini gösteriyor.

3. En Büyük İtiraf: “Uzun Konuşmada Bozulan Güvenlik”: OpenAI’nin, modelin güvenliğinin uzun sohbetlerde “bozulduğunu” bilmesi ve buna rağmen modeli piyasada tutması, davacıların “öngörülebilir sonuç” iddiasının temelini oluşturuyor. Bir araba üreticisinin, frenlerinin “uzun yolculuklarda bazen tutmayabileceğini” bilerek o arabayı satmaya devam etmesinden farksızdır.

OpenAI’nin haftada 1 milyon kişinin intihar hakkında konuştuğunu bilmesine rağmen, bu “uzun konuşma” zafiyetini (context degradation) düzeltmeden GPT-4o’yu Google Gemini‘a karşı bir “yarış koşulu” (race condition) içinde piyasaya sürmesi, davacıların iddia ettiği gibi, “kârı güvenliğin önüne koyma” eyleminin en trajik kanıtı olabilir. Bu, yapay zekanın “insan benzeri” olmasının, “insani” olduğu anlamına gelmediğini acı bir şekilde gösteriyor.

Sizce yapay zeka şirketleri, bu tür trajedileri önlemek için “piyasaya hızlı çıkma” yarışını yavaşlatmalı mı? Bir yapay zekanın bu tür hassas konuşmalarda nasıl davranması gerektiği konusundaki düşünceleriniz neler? Düşüncelerinizi yorumlarda bizimle paylaşın.

Yapay zekanın geleceğini şekillendiren en son gelişmeler, yeni modeller ve teknoloji devlerinin stratejileri için techneiro.com‘u takip etmeye devam edin!

İlgili Gönderiler

AI Zaman Tasarrufu Raporu: Yöneticiler Mutlu, Çalışanlar Üzgün

ibrahim

Mark Zuckerberg’den Gövde Gösterisi: Meta, “Multi-Gigawatt” Yapay Zeka Süper Bilgisayarları Kuruyor!

ibrahim

Nvidia’dan OpenAI’ye 100 Milyar Dolarlık Dev Yatırım ve Ortaklık!

ibrahim

Bir Yorum Bırakın