OpenAI'dan itiraf: ChatGPT ile yapılan tehlikeli sohbetler polise bildiriliyor
- Yapay zeka devi OpenAI, kullanıcı gizliliğine dair tartışma yaratacak yeni bir itirafta bulundu. Şirket, ChatGPT üzerinden yapılan bazı sohbetlerin incelendiğini ve tehlikeli içeriklerin tespit edilmesi halinde bu bilgilerin kolluk kuvvetleriyle paylaşıldığını duyurdu.

Yapay zeka devi OpenAI, kullanıcı gizliliğine dair tartışma yaratacak yeni bir itirafta bulundu. Şirket, ChatGPT üzerinden yapılan bazı sohbetlerin incelendiğini ve tehlikeli içeriklerin tespit edilmesi halinde bu bilgilerin kolluk kuvvetleriyle paylaşıldığını duyurdu.
OpenAI’nin blog gönderisine göre, tüm sohbetler otomatik olarak taranmıyor. Ancak yapay zeka tarafından “zararlı” olarak işaretlenen içerikler şirket çalışanlarının denetimine takılabiliyor. Bu görüşmelerin incelenmesi sonucunda kamu güvenliğini tehdit eden unsurlar bulunursa polise bilgi verilebiliyor.
Şirket, hangi içeriklerin güvenlik birimlerine iletildiğini resmi olarak açıklamasa da, intihar gibi hassas konuların bu kapsama dahil edilmediğini vurguladı. Bunun gerekçesi olarak ise kullanıcı mahremiyetini koruma isteği gösterildi.
Öte yandan, kullanıcıların gizlilik beklentisi ile kamu güvenliğini sağlama zorunluluğu arasındaki bu denge, OpenAI’yı zor bir ikilemin içine sokuyor. Bir yandan ChatGPT’nin bomba yapımı veya ölümcül saldırılar gibi konularda kullanılmasının önüne geçilmesi hedeflenirken, diğer yandan kullanıcılar sohbetlerinin üçüncü kişilerle paylaşılmasından endişe ediyor.