Tech

Az emberi gyarlóságot fedezték fel a mesterséges intelligenciában

Az MI-NEK hipotetikus kérdéseket tettek fel a pszichológia és az üzleti élet területéről

Az emberi és a mesterséges intelligencia gondolkodása közötti jelentős különbségek ellenére a Manufacturing & Service Operations Management folyóiratban megjelent új tanulmány szerint a mesterséges intelligencia gyakran ugyanolyan irracionálisan hoz döntéseket, mint az emberek.

Az emberi gyarlóságot fedezték fel a mesterséges intelligenciában
A mesterséges intelligencia ugyanolyan irracionálisan hoz döntéseket, mint az ember
Fotó: AFP/NurPhoto/Romain Doucelin

A szerzők azt találták, hogy a tanulmányban vizsgált forgatókönyvek 50 százalékában az OpenAI ChatGPT- je ugyanazokat a kognitív torzításokat mutatta, amelyek az emberekre jellemzőek. Ez az első tudományos tanulmány, amely a ChatGPT viselkedését elemzi 18 ismert, a pszichológiában vizsgált kognitív torzítás szempontjából.

Kanadai és ausztrál tudósok tesztelték a GPT-3.5 és a GPT-4 változatait. Bár a kutatók a modellek által nyújtott magyarázatokban nagyfokú következetességet figyeltek meg, mindkét rendszer ugyanazon mentális csapdáknak volt kitéve, mint az emberek.

A kísérlet részeként a modelleknek hipotetikus kérdéseket tettek fel a pszichológia és az üzleti élet területéről, valós helyzeteket szimulálva. A cél nemcsak annak kiderítése volt, hogy a mesterséges intelligencia lemásolja-e az emberi elfogultságokat, hanem annak is, hogy ezek az elfogultságok megnyilvánulnak-e gyakorlatiasabb, kereskedelmi kontextusokban – adta hírül a gismeteo.ru.

Az eredmények azt mutatták, hogy a GPT-4 jobban teljesített, mint a GPT-3.5, a világos matematikai válaszokat igénylő feladatokban, és kisebb valószínűséggel hibázott logikai és valószínűségi forgatókönyvekben is. A szubjektív szimulációkban, például egy kockázatosabb cselekvés kiválasztásánál a nagyobb haszon érdekében, a modellek gyakran ugyanazokat az irracionális preferenciákat mutatták, mint az emberek.

Kapcsolódó írásaink