Tudomány

Félévnyi kényszerszünetet kér a mesterséges intelligenciák fejlesztésében az Apple alapítója és Elon Musk

A techóriások vezetői rettegnek a mesterséges intelligenciák fejlődésétől

Több mint ezren írták alá azt a nyílt levelet, amely szerint legalább fél évre le kellene állítani a GPT–4-nél összetettebb mesterséges intelligenciák trenírozását. Egy szervezet még az amerikai kormánynál is panaszt tett – írja a hamuésgyémánt.hu.

Félévnyi kényszerszünetet kér a mesterséges intelligenciák fejlesztésében az Apple alapítója és Elon Musk
Fotó: NorthFoto

Az eddig több mint 1000 ember, köztük Elon Musk és az Apple társalapítója, Steve Wozniak által aláírt nyílt levelet a Microsoft által támogatott OpenAI cég GPT–4 című kiadványa váltotta ki – írja a Science Alert. A vállalat szerint a legújabb modell sokkal erősebb, mint az előző verzió, amely a ChatGPT-t, a rövidebb felszólításokból szövegrészleteket generálni képes robotot működtette.

Az emberekkel versengő intelligenciával rendelkező mesterségesintelligencia-rendszerek mélyreható kockázatokat jelenthetnek a társadalomra és az emberiségre. Erőteljes AI-rendszereket csak akkor szabad fejleszteni, ha biztosak vagyunk abban, hogy hatásaik pozitívak lesznek, a kockázataik pedig kezelhetőek − áll a Szüneteltessük az óriási mesterségesintelligencia-kísérleteket című nyílt levélben.

Musk volt az OpenAI egyik kezdeti befektetője, éveket töltött annak igazgatótanácsában, és autógyártó cége, a Tesla többek között önvezető technológiájának működtetéséhez fejleszt mesterségesintelligencia-rendszereket.

A Musk által alapított és finanszírozott Future of Life Institute adta a nevét a levélhez, amelyet neves kritikusok, valamint az OpenAI versenytársai, például a Stability AI vezetője, Emad Mostaque is aláírtak.

A szintén aláíró kanadai AI-pionír, Yoshua Bengio egy montreali virtuális sajtótájékoztatón arra figyelmeztetett, hogy a társadalom még nem áll készen erre a nagy teljesítményű eszközre és annak lehetséges visszaéléseire. A jobb védőkorlátok kidolgozását indítványozta, és alapos nemzetközi vitát sürgetett a mesterséges intelligenciáról és annak következményeiről.

Az OpenAI alapítója, Sam Altman blogjában korábban azt írta, hogy egy bizonyos ponton fontos lehet, hogy független felülvizsgálatot kapjanak, mielőtt elkezdik a jövőbeli rendszerek kiképzését. A nyílt levél szerzői szerint most jött el ennek az ideje.

Ahogy írják: felszólítják az összes AI-labort, hogy azonnal, legalább 6 hónapra szüneteltessék a GPT–4-nél erősebb AI-rendszerek képzését.

Felszólították a kormányokat is, hogy lépjenek közbe, és rendeljenek el moratóriumot, ha a vállalatok nem értenek egyet. A hat hónapot szerintük arra kellene felhasználni, hogy biztonsági protokollokat és AI-irányítási rendszereket dolgozzanak ki, és a kutatást újra arra összpontosítsák, hogy az AI-rendszerek pontosabbak, biztonságosabbak, „megbízhatóbbak és lojálisabbak" legyenek.

A levél nem részletezte a GPT–4 által feltárt veszélyeket, de a kutatók már régóta azzal érvelnek, hogy a chatbotok nagyszerűen hazudnak, és képesek a dezinformáció szuperterjesztőivé válni.

Cory Doctorow író azonban az AI-ipart egy „pump and dump" rendszerhez hasonlította, és azt állította, hogy az AI-rendszerekben rejlő potenciált és veszélyt is egyaránt túlbecsülik.

Kapcsolódó írásaink