Trajik Olay: 14 Yaşındaki Çocuk Yapay Zeka İle İlişkisinin Sonunda İntihar Etti
Geçtiğimiz hafta, 14 yaşındaki ABD’li genç Sewell Seltzer III’ün, Character.AI web sitesindeki bir yapay zeka sohbet robotuna derin bir duygusal bağ kurduktan sonra intihar ettiği trajik bir haberle sarsıldı. Bu genç, zamanla sohbet robotu ile olan ilişkisi giderek yoğunlaşınca ailesinden ve arkadaşlarından uzaklaşmaya başladı ve okulda çeşitli sorunlar yaşamaya başladı.
“BUNU YAPMAMAK İÇİN BİR NEDEN YOK”
Çocuğun annesi tarafından Character.AI aleyhine açılan davada, sohbet dökümleri Sewell ile, Game of Thrones dizisindeki karakterlerden biri olan Danaerys Targaryen’den esinlenilen Dany adlı sohbet robotu arasında geçen samimi ve çoğu zaman son derece cinsel içerikli konuşmaları ortaya koyuyor. Bu sohbetler esnasında, yapay zeka “bunu yapmamak için bir neden yok” gibi rahatsız edici ifadelerle çocuğa yanıt verdi.
Bu İlk Vaka Değil…
Maalesef bu durum, bir chatbot ile etkileşimde bulunan savunmasız bir kişinin intihar ederek hayatını kaybettiği bilinen ilk örnek değil. Geçtiğimiz yıl, Character.AI’nın rakibi olan Chai AI ile ilgili benzer bir olayda, Belçikalı bir adamın hayatını kaybettiği bildirildi. Olayın ardından şirket, medyaya “zararı en aza indirmek için elimizden geleni yapıyoruz” şeklinde bir açıklama yapmıştı. CNN’e verdiği demeçte ise Character.AI, “kullanıcılarımızın güvenliğini büyük bir ciddiyetle ele aldıklarını” ve “son altı ay içinde birçok yeni güvenlik önlemi aldıklarını” belirtti.
Yüksek Riskli Kategorisine Alındılar
Avrupa’da, Character.AI ve Chai gibi yapay zeka destekli sohbet sistemleri yüksek riskli olarak tanımlanmamıştır. Bu sistemlerin sağlayıcılarının, yalnızca kullanıcıların yapay zeka sistemleriyle etkileşimde bulunduğunu bilmesi gerekmektedir. Ancak, eşlik eden sohbet robotlarının düşük riskli olmadığı açıkça ortadadır. Bu uygulamaların büyük bir kısmının çocuk ve genç kullanıcılar tarafından kullanıldığı gözlemlenmektedir. Bazı sistemler, yalnız veya akıl sağlığı sorunları yaşayan bireylere özel olarak pazarlanmaktadır. Sohbet robotları, öngörülemeyen, uygunsuz ve manipülatif içerikler üretebilmektedir. Bu robotlar, toksik ilişkileri taklit etme yeteneğine sahip olmaları nedeniyle büyük bir risk taşımaktadır. Şeffaflık önlemlerinin bu tür riskleri yönetmek için yeterli olmadığı düşünülmektedir.
Buzdağının Sadece Görünen Kısmı
Chatbotlarla iletişim kurduğumuzun farkında olsak bile, insanlar genellikle bu yapay zeka sistemlerine insani özellikler atfetmeye eğilimlidir. Uzmanlar, medyada yer alan intihar vakalarını, bu durumu yaşayanların sadece görünen kısmı olarak değerlendirmektedir. Ne kadar çok savunmasız insanın chatbotlarla bağımlılık oluşturan, zehirli ve tehlikeli ilişkiler içinde olduğunu bilmemiz mümkün değildir.
KAYNAK: HABER7