Tech
Az emberi gyarlóságot fedezték fel a mesterséges intelligenciában
Az MI-NEK hipotetikus kérdéseket tettek fel a pszichológia és az üzleti élet területéről

A szerzők azt találták, hogy a tanulmányban vizsgált forgatókönyvek 50 százalékában az OpenAI ChatGPT- je ugyanazokat a kognitív torzításokat mutatta, amelyek az emberekre jellemzőek. Ez az első tudományos tanulmány, amely a ChatGPT viselkedését elemzi 18 ismert, a pszichológiában vizsgált kognitív torzítás szempontjából.
Kanadai és ausztrál tudósok tesztelték a GPT-3.5 és a GPT-4 változatait. Bár a kutatók a modellek által nyújtott magyarázatokban nagyfokú következetességet figyeltek meg, mindkét rendszer ugyanazon mentális csapdáknak volt kitéve, mint az emberek.
A kísérlet részeként a modelleknek hipotetikus kérdéseket tettek fel a pszichológia és az üzleti élet területéről, valós helyzeteket szimulálva. A cél nemcsak annak kiderítése volt, hogy a mesterséges intelligencia lemásolja-e az emberi elfogultságokat, hanem annak is, hogy ezek az elfogultságok megnyilvánulnak-e gyakorlatiasabb, kereskedelmi kontextusokban – adta hírül a gismeteo.ru.
Az eredmények azt mutatták, hogy a GPT-4 jobban teljesített, mint a GPT-3.5, a világos matematikai válaszokat igénylő feladatokban, és kisebb valószínűséggel hibázott logikai és valószínűségi forgatókönyvekben is. A szubjektív szimulációkban, például egy kockázatosabb cselekvés kiválasztásánál a nagyobb haszon érdekében, a modellek gyakran ugyanazokat az irracionális preferenciákat mutatták, mint az emberek.