A Centre for Al Safety honlapján közzétettek egy nyilatkozatot, melyben az áll, hogy a mesterséges intelligencia okozta kihalás kockázatának mérséklését globális prioritássá kell tenni más társadalmi szintű kockázatok, például a világjárványok és az atomháború mellett. A nyilatkozatot Sam Altman, a ChatGPT-gyártó OpenAI vezérigazgatója, Demis Hassabis, a Google DeepMind vezérigazgatója és Dario Amodei az Anthropic vezetője is támogatta.
Mellettük aláírta még a nyilatkozatot Geoffrey Hinton, Yoshua Bengio és Yann LeCun NYU professzort is, akiket gyakran neveznek a „mesterséges intelligencia keresztapáinak” a területen végzett úttörő munkájuk miatt.
A Centre for AI Safety honlapján már számos lehetséges katasztrófa-forgatókönyvet felvázoltak: véleményük szerint a mesterséges intelligenciát fegyverként is lehet használni. Egy másik forgatókönyv szerint az AI által generált félretájékoztatás destabilizálhatja a társadalmat és „alááshatja a kollektív döntéshozatalt.” Szerintük a mesterséges intelligencia lehetővé teszi a rezsimek számára, hogy szűk értékrendet érvényesítsenek a mindent átható megfigyelés és az elnyomó cenzúra révén. De problémát okozhat még az is, hogy az emberek függővé válnak tőle – írja a BBC.
A Metánál dolgozó LeCun professzor ugyanakkor megjegyezte, hogy ezek az apokaliptikus figyelmeztetések túlzóak. „Az Al-kutatók általában fogják a fejüket ezektől a vészjóslatoktól” – tweetelte a professzor.
Sok más szakértő hasonlóképpen úgy véli, hogy az emberiséget kiirtó mesterséges intelligenciától való félelem irreális, és elvonja a figyelmet olyan problémákról, amelyek már most is problémát jelentenek, mint például a rendszerek elfogultsága. Arvind Narayanan, a Princeton Egyetem informatikusa például úgy fogalmazott, hogy a katasztrófa-forgatókönyvek elterelik a figyelmet a mesterséges intelligencia közeljövőbeni ártalmairól.
Elizabeth Renieris, az oxfordi Institute for Ethics in AI vezető kutatója is úgy nyilatkozott, hogy inkább a jelenhez közelebbi kockázatok miatt aggódik.
„A mesterséges intelligencia fejlődése fel fogja nagyítani az elfogult, diszkriminatív, kirekesztő vagy más módon tisztességtelen automatizált döntéshozatal mértékét, miközben kifürkészhetetlen és megkérdőjelezhetetlen” – mondta. Ezek „exponenciálisan megnövelnék a félretájékoztatás mennyiségét és terjedését, ezáltal megtöri a valóságot és aláássa a közbizalmat, valamint további egyenlőtlenségeket okozna, különösen azok számára, akik a digitális szakadék rossz oldalán maradnak” – fejtetti ki.
Dan Hendrycks, a Centre for AI Safety igazgatója azonban a BBC Newsnak elmondta, hogy a jövőbeli kockázatokat és a jelenlegi aggodalmakat nem szabad ellenségesen szemlélni. „A mai problémák egy részének kezelése hasznos lehet a későbbi kockázatok közül sok holnapi kezeléséhez” – mondta.
Egy blogbejegyzésben az OpenAI nemrégiben azt javasolta, hogy a szuperintelligenciát az atomenergiához hasonló módon szabályozzák.
A világvége-jóslatokkal kapcsolatban reagált most a mesterséges intelligencia (MI) egyik keresztapja, Yoshua Bengio professzor, aki úgy fogalmazott, hogy „elveszettnek” érezte magát élete műve miatt. Bevallotta: ha felismerte volna, hogy milyen gyorsan fog fejlődni a mesterséges intelligencia, akkor a biztonságot a hasznosággal szemben előnyben részesítette volna. Bengio professzor kijelentette azt is, hogy a hadseregnek nem kellene mesterséges intelligenciával kapcsolatos hatásköröket biztosítani.
A mesterséges intelligencia keresztapja a közelmúltban két nyilatkozatot is aláírt egyébként, amelyekben óvatosságra intenek. Egyes akadémikusok és ipari szakértők arra figyelmeztettek, hogy a fejlődés üteme azt eredményezheti, hogy az AI-t rosszindulatú szereplők használják fel arra, hogy aktívan kárt okozzanak – vagy maguk döntenek úgy, hogy kárt okoznak.
A kanadai informatikus megjegyezte azt is, hogy minden nagy teljesítményű mesterséges intelligencia-terméket fejlesztő vállalatot be kell jegyeztetni.
Elon Musk, a Twitter és a Tesla tulajdonosa is többször hangot adott már az aggodalmainak. „Nem hiszem, hogy az Al megpróbálja majd elpusztítani az emberiséget, de lehet, hogy szigorú ellenőrzés alá helyez minket” – mondta.