The Korea Herald’ın haberine göre, 20’li yaşlarındaki kadın zanlı, kendisine reçete edilen psikiyatrik ilaçları içeceklere karıştırarak iki kişiyi öldürdüğü suçlamasıyla yargılanıyor.
Polis soruşturmasında, zanlının cinayetleri planlama aşamasında OpenAI tarafından geliştirilen ChatGPT’ye çeşitli sorular yönelttiği tespit edildi.
Soruşturma dosyasına göre zanlının, “Uyku haplarını alkolle alırsanız ne olur?”, “Ne kadar tehlikeli sayılır?” ve “Ölümcül olabilir mi?” gibi sorular sorduğu belirlendi. Emniyet yetkilileri, şüphelinin alkol ve ilaçların birlikte kullanımının ölümle sonuçlanabileceğinin farkında olduğunu ve bu konuyu defalarca araştırdığını kaydetti.
İki farklı olay, iki kurban
Polis, zanlının iki ayrı kurbanı farklı tarihlerde motellere götürdüğünü ve hazırladığı karışımı içirerek ölümlerine neden olduğunu tespit etti. Zanlı, ifadesinde psikiyatrik ilaçları içeceklere karıştırdığını itiraf etti.
Yetkililer, dijital verilerin zanlının cinayet kastını ve hazırlık sürecini ortaya koyduğunu belirtti.
Etik ve güvenlik tartışması
Olay, yapay zekâ araçlarının yasadışı veya zarar verici amaçlarla kullanılmasını engelleyen filtrelerin ne ölçüde etkili olduğu sorusunu yeniden gündeme taşıdı.
Yapay zekâ geliştiricileri, sistemlerin “zararlı içerik” üretmemesi için çeşitli güvenlik katmanları bulunduğunu savunurken; genel sağlık bilgisi ile suç unsuru taşıyan bilgi arasındaki sınırın her zaman net olmaması, uzmanlara göre önemli bir risk alanı oluşturmaya devam ediyor.






