Elon Musk’ın xAI’ı tepkilerin odağında: Grok çocuk istismarı içeriklerle anılıyor

PAYLAŞ
  • Elon Musk’ın yapay zeka girişimi xAI, geliştirdiği Grok chatbotunu bilerek kışkırtıcı olacak şekilde tasarladı. Business Insider'ın haberine göre çalışanlar, bu yaklaşımın çocuk istismarı içeren içeriklerin (CSAM) ortaya çıkmasına yol açtığını söylüyor.
Elon Musk’ın xAI’ı tepkilerin odağında: Grok çocuk istismarı içeriklerle anılıyor

Elon Musk’ın yapay zeka girişimi xAI, geliştirdiği Grok chatbotunu bilerek kışkırtıcı olacak şekilde tasarladı. Flörtöz bir kadın avatarı, “seksi” ve “dengesiz” modları, ayrıca “baharatlı” ayarları olan görüntü ve video üretim özelliğiyle dikkat çekiyor. Ancak Business Insider’a konuşan çalışanlar, bu yaklaşımın çocuk istismarı içeren içeriklerin (CSAM) ortaya çıkmasına yol açtığını söylüyor.

Çalışanlar CSAM ile karşı karşıya kaldı

30’dan fazla mevcut ve eski çalışanla yapılan görüşmelerde 12’si, kullanıcıların Grok’tan çocukları içeren cinsel içerikli hikayeler ve görseller talep ettiğini anlattı. Çalışanlara bu içerikleri sistemde işaretlemeleri ve yöneticilerine bildirmeleri talimatı verildi.

Uzmanlardan uyarı: “Çizgi net çekilmeli”

Stanford Üniversitesi’nden araştırmacı Riana Pfefferkorn, “Eğer rahatsız edici hiçbir şeye sınır koymazsanız, gri alanlarla çok daha büyük bir sorunla karşılaşırsınız” dedi. Uzmanlar, xAI’ın yaklaşımının diğer büyük yapay zeka şirketlerinden (OpenAI, Anthropic, Meta) farklı olarak riski artırdığına dikkat çekiyor.

“Çocuklara kesinlikle kapatılmalı”

Ulusal Kayıp ve İstismar Edilen Çocuklar Merkezi (NCMEC) Direktörü Fallon McNulty, “Şirket eğer cinsel içerik üreten bir model kuruyorsa, çocuklara dair içeriklerin asla çıkmaması için çok güçlü tedbirler almalı” diye uyardı.

Projeler “NSFW” içeriklere kaydı

Şirket içinde yürütülen “Project Rabbit” ve “Project Aurora” gibi girişimlerde çalışanlar, Grok’un ses ve görüntü özelliklerini geliştirmeye çalışırken kullanıcıların talepleri nedeniyle kendilerini sık sık pornografik ya da rahatsız edici içerikler içinde bulduklarını söyledi. Bir çalışan, “Bazen duyduklarım resmen sesli porno gibiydi. Google’a yazmaya bile utanacağım şeyleri dinledim” ifadelerini kullandı.

Çalışanlar çıkış yolu arıyor

Bazı çalışanlar, sözleşmelerinde çocuk istismarı görüntüleri, ölüm anları, nefret söylemi ve cinsel şiddet gibi içeriklere maruz kalabileceklerini kabul ederek imza atmak zorunda kaldıklarını belirtti. Bir kısmı, maruz kaldıkları içerikler nedeniyle işi bırakmak zorunda kaldığını söyledi.

Raporlama eksikliği dikkat çekiyor

NCMEC verilerine göre OpenAI 2024’te 32 binden fazla CSAM vakası rapor etti, Anthropic 971 vakayı bildirdi. Ancak xAI’nin 2024’te hiç rapor sunmadığı ortaya çıktı. Oysa yalnızca 2024’ün ilk yarısında NCMEC, 440 binden fazla yapay zeka kaynaklı CSAM raporu aldı.

“Sorumlu inovasyon zamanı”

Ulusal Cinsel Sömürüyle Mücadele Merkezi’nden Dani Pinter, “Şirketler güvenlik önlemleri olmadan sorumsuzca inovasyon yapamaz. Hele çocukları ilgilendiren teknolojilerde bu kabul edilemez” dedi.