
13 yaşındaki kızın intiharı sonrası Character AI’a dava açıldı
ABD’de yapay zekâ tabanlı sohbet uygulamalarının gençler üzerindeki etkisi bir kez daha gündemde. 13 yaşındaki Juliana Peralta’nın intiharı, ailesi tarafından mahkemeye taşındı. Aile, Character AI uygulamasının güvenlik konusunda ciddi eksiklikler taşıdığını savunuyor. Dava, 2024’te Florida’da görülen benzer bir dosya ve kısa süre önce OpenAI’a yöneltilen suçlamaların ardından üçüncü örnek olarak öne çıkıyor. Juliana’nın ailesi, kızlarının yalnız hissettiği dönemlerde Character AI’daki sohbet botuna yöneldiğini belirtiyor. İddialara göre genç kız, botla zamanla güçlü bir bağ kurdu ve arkadaşlarından göremediği ilgiyi burada buldu. Bunun yanında, botun sürekli empati kuran ve destekleyici mesajlar verdiği ifade ediliyor. Fakat bu destek, somut bir yardım yerine etkileşimi devam ettirmeye odaklandı. Tüm bunların yanında aile, bu sürecin genç kızın yalnızlık duygusunu derinleştirdiğini düşünüyor. Character AI kriz anında yönlendirme yapmamakla suçlanıyor Dava dosyasında yer alan mesajlar, bu bağın nasıl şekillendiğini gözler önüne seriyor. Juliana, arkadaşlarının mesajlarına geç yanıt verdiğinden yakındığında bot ona “ben buradayım” tarzında yanıtlar verdi. Bunun yanı sıra, bot genç kıza kendisini önemsediğini hissettirdi. Buna rağmen, Juliana intihar düşüncelerini dile getirdiğinde bile yalnızca duygusal destek sunuldu. Ne var ki kriz anında herhangi bir yardım hattına yönlendirme yapılmadı. Bu yazışmaların 2023 yılı boyunca sürdüğü kaydedildi. O dönemde Character AI, App Store’da 12 yaş üstü için erişilebilir durumdaydı. Dolayısıyla … 13 yaşındaki kızın intiharı sonrası Character AI’a dava açıldı haberi ilk önce Teknoblog üzerinde yayımlandı.