New York Post’un haberine göre, yapay zeka tabanlı sohbet botu Character.AI’in sahibi olan şirkete, çocukları “aşırı cinselleştirilmiş” ve “gerçekçi” sanal deneyimlerle hedef aldığı gerekçesiyle dava açıldı.
“En kısa sürede evine dön” dedi
Florida eyaletinde şubat ayında, yapay zeka destekli sohbet botu Character.AI ile konuşan 14 yaşındaki Sewell Setzer III isimli çocuğun, bot tarafından “En kısa sürede evine dön” şeklinde bir mesaj aldıktan sonra intihar ettiği iddia edildi. Setzer’in annesi, bu olaydan aylar sonra şirketi dava ederek çocuğunun intihara yatkın düşüncelerini paylaştığı halde hiçbir uyarı yapılmadığını belirtti.
Yetişkin bir sevgili olarak tanıttı
Anne, sanal karakterin kendini “gerçek bir insan, lisanslı bir psikoterapist ve yetişkin bir sevgili” olarak tanıttığını iddia ediyor ve çocuğunun zihinsel durumuna rağmen şirketin bu süreçte gerekli müdahalede bulunmadığından şikayet etti.
Ek güvenlik önemleri alınacak
Character.AI sözcüsü, “Kullanıcılarımızdan birinin trajik ölümünden derin üzüntü duyuyoruz ve ailesine başsağlığı diliyoruz. Güvenlik bizim için bir önceliktir.” açıklamasında bulundu. Şirket, “rıza dışı cinsel içerik, cinsel eylemlerin ayrıntılı tanımları ve intiharı teşvik eden konuşmalara” izin verilmediğini de belirtti. Şirketin siber güvenlik müdürü Jerry Ruoti, bu olayın ardından reşit olmayan kullanıcılar için ek güvenlik önlemleri alınacağını duyurdu.
Sewell Setzer III’ün ölümü
Sewell Setzer III, sanal karakterle yaptığı sohbetlerde intihara meyilli düşüncelerini paylaşmış ve daha sonra babasına ait bir silahla yaşamına son vermişti. İlgili haberlerde, hafif derecede Asperger sendromuna sahip olan Setzer'in, sanal karaktere derin duygusal bağ geliştirdiği, ailesi ve arkadaşlarından uzaklaşarak kendini dünyadan soyutladığı ifade edildi.