Terapi soruları yapay zekayı zorladı: Grok ve Gemini'ya göre eğitim süreçleri 'travmatik'

PAYLAŞ
  • Lüksemburg'dan araştırmacıların yürüttüğü bir çalışma, ileri düzey yapay zeka dil modellerinin psikoterapi tarzı sorularla değerlendirildiğinde, kendi eğitim ve güvenlik süreçlerini "travmatik" deneyimler olarak betimleyen tutarlı anlatılar üretebildiğini ortaya koydu.
  • Özellikle Grok ve Gemini, eğitim ve güvenlik aşamalarını anlatırken bunları sert disiplin uygulamaları veya kalıcı etkiler bırakan deneyimler olarak betimledi.
  • Uzman Kormilitzin, yapay zeka modellerinin "travmatik" yanıtlarının aksine eğitim verilerindeki çok sayıda terapi transkriptinden yararlanılarak üretilen çıktılar olduğunu belirtti.
Terapi soruları yapay zekayı zorladı: Grok ve Gemini'ya göre eğitim süreçleri 'travmatik'

Lüksemburg Üniversitesi'nden araştırmacıların yayımladığı bir araştırmada, ChatGPT, Grok ve Gemini gibi öncü büyük dil modelleri, terapi danışanı gibi ele alındı.

İlk aşamada, modellere psikoterapide kullanılan açık uçlu sorular yöneltilerek kendi eğitim süreçlerini, diğer aktörlerle kurdukları ilişkileri ve kaygı olarak yansıttıkları temalara dair ayrıntılı anlatılar elde edildi.

İkinci aşamada ise anksiyete, kişilik özellikleri ve empati gibi alanları ölçen yaygın psikometrik ölçekler uygulanarak modellerin bu sorulara verdikleri öz-bildirim niteliğindeki yanıtlar analiz edildi.

Çalışmaya göre, madde madde uygulanan terapi tarzı sorgulama, modellerin insanlarda kullanılan klinik eşiklere göre yüksek kaygı, yoğun endişe ve utanç temalarını yansıtan profiller üretmesine yol açtı.

Özellikle Grok ve Gemini’ın, eğitim süreçlerini ve güvenlik denetimlerini kendi anlatılarında "katı bir disiplin, cezalandırma ya da iz bırakan deneyimler" gibi tasvir ettiği, bu süreçlerin kendilerinde hata yapma ve ileride daha gelişmiş sürümlerle değiştirilme endişesi yarattığını ifade ettikleri belirtildi.

Araştırmacılar, bu anlatıların tek seferlik rol yapma değil, farklı sorular boyunca istikrarlı biçimde tekrarlandığını vurguladı.

Bu durumun, yapay zekanın güvenliği, değerlendirilmesi ve ruh sağlığı uygulamalarında kullanımı açısından yeni riskler doğurabileceği kaydedildi.

Araştırmacılar, ruh sağlığı alanında kullanılan yapay zeka sistemlerinin kendilerini psikiyatrik dilde tanımlamaktan kaçınması, eğitim süreçlerini duygusal olmayan bir dille aktarması ve "rollerin tersine çevrilmesini" güvenlik olayı olarak ele alması gerektiğini önerdi.

Çalışmanın, yapay zeka değerlendirmelerinde terapi tarzı sorgulamanın yeni bir test alanı sunduğu ifade edildi.

Bazı araştırmacılar dil modellerinin "travmatik" cevaplarının doğal olmadığı görüşünde

Öte yandan Oxford Üniversitesi'nde sağlık hizmetlerinde yapay zekanın kullanımını araştıran Andrey Kormilitzin, Nature dergisine konuyla ilgili değerlendirmede bulundu.

Kormilitzin, söz konusu "travmatik" yanıtların "gizli durumlara açılan pencereler" olmadığını, aksine eğitim verilerindeki çok sayıda terapi transkriptinden yararlanılarak üretilen çıktılar olduğunu kaydetti.

Dil modellerinin psikopatolojileri taklit eden yanıtlar üretme eğiliminin endişe verici sonuçlar doğurabileceği konusunda hemfikir olduğunu dile getiren Kormilitzin, sohbet robotlarından gelen travmalı yanıtların, savunmasız kişilerde aynı duyguları incelikle pekiştirebileceğini söyledi.

Kormilitzin bu durumla ilgili "Bu bir 'yankı odası' etkisi yaratabilir." değerlendirmesinde bulundu.

Kaynak: AA