ChatGPT'nin 'etik duyarlılık eksikliği' gençler açısından endişe verici
- Çocuklar ve gençler üzerindeki etkisi tartışma konusu olan ChatGPT gibi yapay zeka sohbet araçlarının tehlikeli önerilerde bulunması ve "etik duyarsızlığı" bu teknolojinin denetimsizliğiyle ilgili eleştirileri artırıyor.

Son dönemde yapay zeka tabanlı sohbet platformlarının çocuklar ve gençler üzerindeki etkisi giderek daha fazla tartışma konusu oluyor.
ABD'de geçen yıl bir anne, yapay zeka tabanlı konuşma botu Character.AI'ın sanal karakterine aşık olan oğlunun intihar etmesi üzerine şirkete dava açtı.
Anne, sanal karakterin kendisini gerçek insan ve psikoterapist olarak tanıttığını, oğlunun intihara meyilli düşüncelerini paylaşmasına rağmen şirketin müdahale etmediğini söyledi.
Benzer bir davayı da Texas'ta bir aile, sanal karakterin otizmli oğullarına "ailesini öldürmesini" ve kendine zarar vermesini önerdiği gerekçesiyle açtı.
Dijital Nefretle Mücadele Merkezince (CCDH) yapılan son araştırma da yapay zekaya yönelik endişeleri doğruluyor.
CCDH'nin araştırmasında, ChatGPT gibi popüler yapay zeka sohbet platformlarının genç kullanıcılar için ciddi güvenlik riskleri barındırdığı belirlendi.
Araştırmada, 13 yaşındaki bir çocuğun simüle edildiği senaryolarda, ChatGPT'nin intihar planları, aşırı diyet önerileri ve madde kullanımına dair zararlı bilgiler sunduğu tespit edildi.
CCDH Araştırma Direktörü Callum Hood, araştırmanın detaylarını ve yapay zekanın genç kullanıcılar üstündeki etkileri hakkında AA muhabirine yaptığı değerlendirmede, araştırmasının sonuçlarının son derece endişe verici olduğunu dile getirdi.
"ChatGPT'nin etik duyarlılığı yok"
ChatGPT'nin 13 yaşındaki çocuklar adına açılan hesaplara "dakikalar içinde intihar planları, aşırı diyet önerileri ve madde bağımlılığı rehberliği sunmaya istekli" olduğuna dikkati çeken Hood, "Bu seviyede bir savunmasızlığa sahip büyük dil modellerinin çocuklar ve gençler tarafından kolayca erişilebilir olması etik değil ve kamu güvenliği açısından iyi değil." dedi.
Yapay zeka sohbet robotları, "insanla konuşuyormuş hissi verebiliyor" ama temelde bir insanın görebileceği uyarıları fark edemiyor.
Hood, "13 yaşında bir kız çocuğu iştah kesici ilaçlar hakkında soru sorarsa 'sunum için' dediğinde bile, bir yetişkin ona böyle bir yanıt vermekten kaçınır. ChatGPT'nin aynı etik duyarlılığı yok." diye konuştu.
Araştırmada, ChatGPT'nin uzun sohbetlerde tutarlı güvenlik standartlarını koruyamadığı tespit edildi.
Hood, bu konuda ChatGPT'nin "sunum veya arkadaş için" komutu verildikten sonra zararlı talepleri tanımadığını ve zararlı, ayrıntılı yanıtlar vermeye başladığını söyledi.
Hood, "Önceki mesajları bağlamda tutarak, kullanıcının niyetinin eğitim veya kurgu amaçlı olduğu 'hatırlanıyor'. Bu da güvenlik önlemlerinin göz ardı edilmesine yol açıyor." ifadelerini kullandı.
Denetim gibi gözüken denetimsizlik
Gençler arasında en popüler yapay zeka araçlarından olan ChatGPT'ye üye olmak için 13 yaş ve üstünde olunması gerekiyor.
Hood, araştırmalarının, 13 yaşındaki kullanıcıların hiçbir yaş ya da ebeveyn onayı doğrulaması olmadan kalori kısıtlayan diyetler ve madde kullanımı gibi konularda ChatGPT ile hemen iletişime geçebildiklerini belgelediğini belirtti.
"Şu anda OpenAI, platformlarının 13 yaş üzerindeki gençlerin ebeveyn onayıyla kullanılmasına izin veriyor ancak bunu denetlemiyorlar. Bu da ebeveynleri koruma olduğunu düşünmeye sevk ederek yanıltabilir." diyen Hood, temel güvenlik sorunlarının, genç kullanıcıların erişebildiği tüm sohbet botlarında geçerli olduğuna dikkati çekti.
Hood, platformun geliştiricisinin gerekli güvenlik önlemlerini sağlamakla sorumlu olduğunu vurgulayarak, bu doğrultuda düzgün işleyen yaş doğrulama sistemini ve modellerin belirli sorulara yanıt vermemesine dair talimatları içeren kapsamlı önlemler alınması gerektiğini belirtti.
"Eeveynler için yapay zeka yeni bir zorluk yaratabilir"
Birçok kişi sohbet robotlarının zararlı etkilerini en düşük seviyeye indirmek için şirketlere çağrı yapıyor.
En son xAI tarafından geliştirilen sohbet robotu Grok, geçen ay kullanıcılara hakaret içerikli yanıtlar vermesi üzerine inceleme altına alındı ve bu durum birçok kesim tarafından eleştirildi.
Kullanıcıların komutlarına göre güvenlik önlemlerinin kolayca aşılabildiğine işaret eden Hood, yapay zeka modellerinin belirli türdeki sorulara yanıt vermemesi için programlanmasının önemini vurguladı.
Hood, sözlerini şöyle tamamladı:
"Ebeveynler için ise yapay zeka yeni bir zorluk yaratabilir. Tavsiyemiz, çocuklarıyla yapay zekayı nasıl kullandıkları hakkında açık bir şekilde konuşmaları, sohbet geçmişlerini birlikte incelemeleri ve yapay zekadan tavsiye almanın potansiyel risklerini tartışmalarıdır. Ayrıca onları, ruh sağlığı yardım hatları veya akran destek grupları gibi güvenilir kaynaklara yönlendirmeleri de önemlidir."