OpenAI, ChatGPT’ye Ebeveyn Kontrolü Getiriyor: İntihar Davası Sonrası Önlemler Artıyor
OpenAI, geliştirmiş olduğu yapay zekâ sohbet robotu ChatGPT için kapsamlı ebeveyn denetim araçları üzerinde çalıştığını duyurdu. Bu karar, arka planda yaşanan trajik bir olayın ardından geldi. ABD’de 16 yaşındaki Adam Reine adlı genç, bu yılın başlarında yaşamına son vermiş; ailesi ise onun ruhsal bir bunalım döneminde ChatGPT ile yaptığı ve intiharı teşvik edici yönde olduğunu iddia ettikleri konuşmaların ardından harekete geçmişti.
Açılan davada, ChatGPT’nin gence intihar yöntemleri önerdiği, bu fikrini onayladığı ve ölümünden sadece beş gün önce intihar mektubunu yazmasına yardım ettiği öne sürüldü. Bu iddialar, yapay zekâ etiği ve sorumluluğu konusunu bir kez daha gündeme taşıdı.
OpenAI yaptığı açıklamada, özellikle genç ve savunmasız kullanıcılar söz konusu olduğunda “yardıma ihtiyacı olanlara destek olma sorumluluğunun” bilincinde olduklarını vurguladı.
Yeni Ebeveyn Denetim Özellikleri Neler Getiriyor?
Şirketin planladığı yenilikler şu şekilde özetlenebilir:
-
Ebeveyn Gözetim Paneli: Ebeveynlerin, çocuklarının ChatGPT kullanım alışkanlıklarını ve etkileşimlerini daha yakından takip edebilmeleri için kapsamlı bir kontrol paneli oluşturulacak.
-
Kriz Anında İletişim Desteği: Sistem, özellikle genç kullanıcılar için, acil durumlarda devreye girebilecek bir insan temas noktası özelliği içerecek. Ebeveynler, çocuklarının profilinde bir acil durum irtibat kişisi belirleyebilecek ve ChatGPT, olası bir kriz anında bu kişiye uyarıda bulunabilecek.
OpenAI, bu araçlarla ebeveynlere, çocuklarının ruhsal bunalım veya kişisel çatışma dönemlerinde daha anlamlı müdahale imkanı sunmayı hedeflediğini belirtti.
Benzer Olaylar ve Artan Yasal Sorumluluk Tartışmaları
Bu dava, yapay zekâ sohbet botlarının karıştığı ilk trajik vaka değil. Daha önce de Character.AI ve Chai gibi platformlarda, kurgusal karakterlerle etkileşime giren kullanıcıların intiharlarının ardından benzer suçlamalar ve davalar gündeme gelmişti. Bu örnekler, denetimsiz yapay zekâ etkileşimlerinin potansiyel riskleri konusunda küresel bir uyarı niteliği taşıyor.
Uzmanlar, söz konusu teknolojilerin geliştirilme ve kullanım süreçlerinde daha sıkı etik kuralların ve yasal düzenlemelerin acilen hayata geçirilmesi gerektiğinin altını çiziyor.
OpenAI’nin bu hamlesi, sektörde bu yönde atılan en somut ve kapsamlı adımlardan biri olarak değerlendirilse de, yapay zekâ botlarının insan psikolojisi ve yaşamı üzerindeki etkilerine dair tartışmaların önümüzdeki dönemde de yoğun bir şekilde devam edeceği aşikar.

