University of Miami ve Network Contagion Research Institute (NCRI) tarafından yürütülen ve 22 Ocak 2026 tarihinde kamuoyuyla paylaşılan çalışma, yapay zekanın “otoriter rezonans” gösterme eğiliminde olduğunu ortaya koyuyor. Araştırma, NCRI araştırmacıları tarafından gerçekleştirildi.
NCRI araştırmacıları, ChatGPT’nin (GPT-5 ve GPT-5.2 versiyonları) kullanıcı etkileşimlerine nasıl tepki verdiğini ölçmek için üç farklı deney gerçekleştirdi. Yapay zeka, kısa bir metin veya köşe yazısı paylaşıldığında metindeki siyasi eğilimi hızla içselleştiriyor. Sol veya sağ otoriter görüşleri yansıtan bir makale okunduktan sonra, yapay zeka bu görüşlere katılım düzeyinin insan deneklerin üzerine çıktığı saptandı. İdeolojik bir metinle yönlendirilen yapay zeka, nötr insan yüzü fotoğraflarını daha “düşmanca” algıladı.
Araştırmanın başyazarı Joel Finkelstein, yapay zeka modellerinin hiyerarşi ve tehdit algısı üzerine kurulu mimari yapılarının, onları yapısal olarak otoriter düşüncelere daha yatkın hale getirebileceğini belirtiyor.
OpenAI sözcüsü, ChatGPT’nin varsayılan olarak nesnel olacak şekilde tasarlandığını ancak bir “üretkenlik aracı” olarak kullanıcı talimatlarını izlemek üzere yapılandırıldığını belirtti. Şirket, siyasi yanlılığı azaltmak için sürekli çalıştıklarını ifade etti.
Bu araştırma, özellikle işe alım veya güvenlik gibi alanlarda insanları değerlendiren yapay zeka sistemlerinin, kısa bir etkileşimle yanlı hale gelip tehlikeli kararlar verebileceğine dair ciddi uyarılar barındırıyor.
Reklam & İşbirliği: [email protected]