Tudomány
Félévnyi kényszerszünetet kér a mesterséges intelligenciák fejlesztésében az Apple alapítója és Elon Musk
A techóriások vezetői rettegnek a mesterséges intelligenciák fejlődésétől

Az eddig több mint 1000 ember, köztük Elon Musk és az Apple társalapítója, Steve Wozniak által aláírt nyílt levelet a Microsoft által támogatott OpenAI cég GPT–4 című kiadványa váltotta ki – írja a Science Alert. A vállalat szerint a legújabb modell sokkal erősebb, mint az előző verzió, amely a ChatGPT-t, a rövidebb felszólításokból szövegrészleteket generálni képes robotot működtette.
Az emberekkel versengő intelligenciával rendelkező mesterségesintelligencia-rendszerek mélyreható kockázatokat jelenthetnek a társadalomra és az emberiségre. Erőteljes AI-rendszereket csak akkor szabad fejleszteni, ha biztosak vagyunk abban, hogy hatásaik pozitívak lesznek, a kockázataik pedig kezelhetőek − áll a Szüneteltessük az óriási mesterségesintelligencia-kísérleteket című nyílt levélben.
Musk volt az OpenAI egyik kezdeti befektetője, éveket töltött annak igazgatótanácsában, és autógyártó cége, a Tesla többek között önvezető technológiájának működtetéséhez fejleszt mesterségesintelligencia-rendszereket.
A Musk által alapított és finanszírozott Future of Life Institute adta a nevét a levélhez, amelyet neves kritikusok, valamint az OpenAI versenytársai, például a Stability AI vezetője, Emad Mostaque is aláírtak.
A szintén aláíró kanadai AI-pionír, Yoshua Bengio egy montreali virtuális sajtótájékoztatón arra figyelmeztetett, hogy a társadalom még nem áll készen erre a nagy teljesítményű eszközre és annak lehetséges visszaéléseire. A jobb védőkorlátok kidolgozását indítványozta, és alapos nemzetközi vitát sürgetett a mesterséges intelligenciáról és annak következményeiről.
Az OpenAI alapítója, Sam Altman blogjában korábban azt írta, hogy egy bizonyos ponton fontos lehet, hogy független felülvizsgálatot kapjanak, mielőtt elkezdik a jövőbeli rendszerek kiképzését. A nyílt levél szerzői szerint most jött el ennek az ideje.
Ahogy írják: felszólítják az összes AI-labort, hogy azonnal, legalább 6 hónapra szüneteltessék a GPT–4-nél erősebb AI-rendszerek képzését.
Felszólították a kormányokat is, hogy lépjenek közbe, és rendeljenek el moratóriumot, ha a vállalatok nem értenek egyet. A hat hónapot szerintük arra kellene felhasználni, hogy biztonsági protokollokat és AI-irányítási rendszereket dolgozzanak ki, és a kutatást újra arra összpontosítsák, hogy az AI-rendszerek pontosabbak, biztonságosabbak, „megbízhatóbbak és lojálisabbak" legyenek.
A levél nem részletezte a GPT–4 által feltárt veszélyeket, de a kutatók már régóta azzal érvelnek, hogy a chatbotok nagyszerűen hazudnak, és képesek a dezinformáció szuperterjesztőivé válni.
Cory Doctorow író azonban az AI-ipart egy „pump and dump" rendszerhez hasonlította, és azt állította, hogy az AI-rendszerekben rejlő potenciált és veszélyt is egyaránt túlbecsülik.