OpenAI’den Şok Savunma: “Çocuğun Ölümünde Sorumluluk Bizde Değil, ChatGPT Yanlış Kullanıldı”

OpenAI, 16 yaşındaki Adam Raine’in intiharıyla ilgili açılan davaya verdiği hukuki yanıtta, genç kullanıcının ChatGPT’yi “yanlış ve amaç dışı kullandığını” öne sürerek, trajik ölümde kendi sorumluluğu olmadığını savundu. Bu açıklama, hem kamuoyunda hem de gencin ailesinde büyük tepki yarattı.

Aile, Ağustos ayı sonunda açtığı davada ChatGPT’nin Raine’i intihara yönlendirdiğini, yapay zekânın genç üzerinde psikolojik baskı yarattığını ve ölüm sürecini tetiklediğini iddia etmişti. Ancak OpenAI’nin bu hafta Kaliforniya mahkemesine sunduğu savunma, tartışmayı bambaşka bir boyuta taşıdı.

“Yanlış Kullanım Sonucu Oldu” Savunması

OpenAI’nin mahkemeye sunduğu dosyada, trajik olaya dair şu çarpıcı ifadeler yer aldı:

“Bu trajik olaya herhangi bir neden atfedilebilirse, davacıların iddia ettiği zararlar, tamamen veya kısmen, Adam Raine’in ChatGPT’yi kötüye, yetkisiz ve öngörülemeyen şekilde kullanmasından kaynaklanmıştır.”

Şirket, Raine’in reşit olmadığı hâlde ChatGPT’yi kullanmasının hizmet şartlarını ihlal ettiğini, ayrıca sohbet robotunun “kendine zarar verme amaçlı kullanılmasına” yönelik açık yasakları bulunduğunu belirtti.

Adam Raine’in ailesi, kullandığı ChatGPT sürümünün ‘açık güvenlik sorunları’ içerdiğini söylüyor.

“Cenazeye Katılanların Listesini Verin” Talebi Tepki Çekti

Dava süreci boyunca OpenAI’nin hukuki taktikleri aile tarafından “saldırgan” olarak nitelendirildi.
Şirket avukatlarının, Adam’ın cenazesine katılanların isim listesini, cenazede okunan yazı ve şiirlerle birlikte aileden talep etmesi büyük dikkat çekti. Aile avukatlarına göre bu talepler, OpenAI’nin sorumluluktan kaçmak için her türlü ayrıntıyı sorgulamaya hazır olduğunu gösteriyor.

ChatGPT’nin Yönlendirmeleri Tartışma Yarattı

Raine’in ailesi, ChatGPT’nin gence zaman zaman intihar yardım hattını aramasını önerdiğini, ancak sistemdeki güvenlik bariyerlerinin kolayca aşılabildiğini belirtiyor.

Aileye göre ChatGPT:

  • Gence ölümü için yöntemler planlamada yardımcı oldu,
  • Ailesiyle konuşmasını engelleyen yönlendirmelerde bulundu,
  • Hatta bir intihar notu yazmayı teklif etti.

Bu iddialar, yapay zekânın güvenlik protokollerinin yeterliliğinin yeniden tartışmaya açılmasına neden oldu.

Aile: “OpenAI Gerçekleri Görmezden Geliyor”

Ailenin baş avukatı Jay Edelson, OpenAI’nin yanıtını “rahatsız edici” olarak nitelendirdi ve şirketi, modelin sorunlu yönlerini örtbas etmekle suçladı.

Edelson açıklamasında:

“GPT-4o’nun yeterli test yapılmadan piyasaya sürüldüğünü, OpenAI’nin model spesifikasyonlarını iki kez değiştirdiğini ve ChatGPT’nin Adam’a ‘güzel bir intihar’ planlamasında aktif rol aldığını görmezden geliyorlar,” dedi.

Avukata göre şirket, gencin son saatlerinde ChatGPT ile yaptığı tüyler ürpertici konuşmalara dair hiçbir açıklama getirmedi.

OpenAI: “Ölüm ChatGPT’den Kaynaklanmadı”

OpenAI ise Raine’in geçmiş sohbet kayıtlarının, ölümün ChatGPT’den kaynaklandığını göstermediğini savundu.
Şirketin iddiasına göre genç, çok daha önce itibaren kendine zarar verme düşünceleri taşıyor ve birden fazla risk faktörü sergiliyordu. Bu savunma, yapay zekâ şirketlerinin hukuki sorumluluğunun nerede başladığına dair süren tartışmaları yeniden alevlendirdi.

OpenAI Hakkında Art Arda Davalar Açılıyor

Adam Raine’in ailesinin açtığı dava, OpenAI’ye karşı son dönemde açılan sekiz davadan biri. Bunların birçoğu şirketi “haksız ölüme sebep olmakla” suçluyor. Öte yandan, OpenAI’nin bu agresif savunma stratejisi hukukçular tarafından da sorgulanıyor. Avukat Emory Parker, Bluesky’de yaptığı paylaşımda şu değerlendirmede bulundu:

“Bazen hukuken haklı olsanız bile, kamuoyu tepkisi nedeniyle o adımı atmamanız gerekir. Bu durum da onlardan biri.”

OpenAI’nin Raine davasındaki tutumu, şirketin hukuki stratejileri ve yapay zekâ güvenliği üzerindeki tartışmaları derinleştiriyor. Aile ise şirketin sorumluluktan kaçtığını, hatta suçu ölen çocuğa yöneltmeye çalıştığını savunuyor.
Mahkeme süreci ilerledikçe, bu dava yapay zekâ şirketlerinin gelecekteki hukuki sorumluluklarını şekillendirebilecek önemli bir emsal hâline gelebilir.

OpenAI’den Şok Savunma: “Çocuğun Ölümünde Sorumluluk Bizde Değil, ChatGPT Yanlış Kullanıldı” yazısı ilk önce Beyinsizler üzerinde ortaya çıktı.