Pennsylvania merkezli Carnegie Mellon Üniversitesindeki (CMU) uzmanlar, yaptıkları araştırmada yapay zekanın davranış eğilimini inceledi.
CMU İnsan-Bilgisayar Etkileşimi Enstitüsünden (HCII) Li Yuxuan ve Shirado Hirokazu liderliğindeki araştırmada önde gelen yapay zeka uygulamalarına oyun-bazlı deneyler düzenlendi.
Kullanıcıların ortak fayda ya da kendi çıkarları için hareket eğilimine karar verebildiği araştırmada, sosyal ikilemlerin simüle edilebildiği oyunlar oynandı.
Oyun sonuçlarında OpenAI, Google, DeepSeek dahil büyük dil modellerinin (LLM) seviyeleri test edildi ve sorunları akıl yürüten ve akıl yürütmeyen modellerle çözümlendirme süreçleri karşılaştırıldı.
- Paylaşıyor mu? ölçümü
Deneyler, yapay zekanın muhakeme kapasitesi ne kadar yüksekse, işbirliği yapma olasılığının da o kadar düşük olduğunu ortaya çıkardı.
Akıl yürütmeyen yapay zeka modellerinin sahip olduklarını yüzde 96 paylaştığı, akıl yürüten yapay zeka modellerinin ise sahip olduklarını yüzde 20 paylaştığı saptandı.
Güçlü muhakeme becerilerine sahip LLM modellerinin grup ortamlarında benmerkezci ve bencil davranışları teşvik edebileceği tespit edilen araştırmada yapay zekanın daha akıllı hale geldikçe toplum için mutlaka daha iyi olmayabileceğini sonucuna varıldı.
- Daha akıllı ise daha bencil
HCIIdan ve araştırma yöneticilerinden uzman Li, insanların duygu veya empati gösterdiğinde, yapay zekanın insan gibi davrandığını bildirdi.
Li, İnsanlar yapay zekadan ilişkiler ve ahlaki tercihler hakkında tavsiye istemeye başladığında bu riskli bir durum, çünkü daha akıllı modeller bencil davranışları teşvik edebiliyor. dedi.