Louise Bruder soha nem felejt el egy arcot sem. Ami nem csak a partikon hasznos képesség, de karrierjét is ennek köszönheti. A brit Yoti digitális személyazonosító cégnél végzett munkája során a személyazonosító okmányokon szereplő fényképeket hasonlítja össze egy feltöltött szelfi fotójával, hogy megállapítsa, ugyanarról a személyről van-e szó.
A Yoti azonban más személyazonosító cégekhez hasonlóan új fenyegetéssel néz szembe: az úgynevezett „deepfake”-ek kiszűrésével. Ezek olyan hamis képek, amelyeket mesterséges intelligencia (MI) alapú szoftverek segítségével hoznak létre – közölte a BBC.
Louise elmondta, hogy őt még nem kérték fel arra, hogy a napi munkája részeként értékelje a „deepfake”-eket, de a cég tisztában van a fenyegetéssel. Ezért aktívan dolgozik egy olyan technológián, amely segít felismerni ezeket.
„Az emberek szemében van egyfajta halotti sötétség, ami tényleg azt jelenti, hogy nem tűnnek valódinak” – mondta Louise a mesterséges intelligenciával kreált képekről.
Ben Colman a Reality Defender nevű amerikai cég főnöke – amely a hamisítványok felismerésére szolgáló technológiát kíván biztosítani –, úgy véli, Louise-nak hamarosan nehéz lesz megkülönböztetni a valódi fotókat a hamisítványoktól.
„Azt mondanám, hogy az elmúlt kilenc hónapban még a legjobb szakértők számára is szinte lehetetlenné vált, hogy megkülönböztessék a valódi és a mesterséges intelligencia által generált dolgokat. Ehhez egy szoftveres megoldásra van szükségünk”
– jelentette ki Colman.
A szakember különbséget tesz a valóban kifinomult deepfake-ek között, amelyeket egy nemzetállam használhat dezinformáció létrehozására, és az úgynevezett „olcsó hamisítványok” között, amelyeknél a bűnözők a készen kapható mesterséges intelligencia-szoftvereket használják.
Aggasztó, hogy még az olcsó hamisítványok is „elég jók ahhoz, hogy megtévesszék az embereket, különösen a képek és a hangok esetében” – tette hozzá. A videó azonban „még mindig nagyobb kihívást jelent, és sokkal több munkát igényel”.
A cég által kínált megoldás képes beolvasni és megjelölni a képen, videón vagy hangfelvételen található mesterséges intelligenciát. Ügyfelei között szerepel a tajvani kormány, a NATO, médiaszervezetek és nagybankok.
Bár a videó- vagy képhamisítások gyakrabban kerülnek a címlapokra, a kizárólag hangalapú csalások is egyre nagyobb számban fordulnak elő. Például olyan bűnözők, akik hangfelvételeket küldenek egy személy hangját használva, hogy olyan dolgokat mondjanak, mint „Anya, elvesztettem a telefonomat, kérlek, küldj pénzt erre a számlaszámra”.
Hangfelvételeket gyűjteni valakinek a közösségi médiában vagy a YouTube-on található fiókjából könnyű feladat, és elég néhány másodpercnyi hanganyag ahhoz, hogy klónozzák a hangot, és abból olyan mondatokat alkossanak, amelyeket az illető soha nem is mondott.
Néhány készen kapható szoftver még azt is lehetővé teszi, hogy a felhasználók „feltárcsázzák” a hang stressz-szintjét, ezt a technikát már használták a szülők megtévesztésére olyan valós esetekben, amikor azt hitték, hogy gyermeküket elrabolták.
Siwei Lyu, az amerikai Buffalo Egyetem professzora évek óta tanulmányozza a deepfake-eket, és végső célja olyan algoritmusok kifejlesztése, amelyek segítenek automatikusan azonosítani és leleplezni azokat.
Az algoritmusokat arra képezték ki, hogy észrevegyék az apró különbségeket – a szemeket, amelyek esetleg nem egészen a megfelelő irányba néznek, vagy a mesterségesen létrehozott hang esetében a lélegzetvétel hiányát.
Lyu professzor úgy véli, hogy sürgősen meg kell oldani a problémát, és arra figyelmeztet, hogy a videokonferenciák lehetnek a bűnözők következő célpontjai.
„A nem túl távoli jövőben lehet, hogy bekapcsolódsz egy Zoom-hívásba, és azt hiszed, hogy velem beszélsz, de lehet, hogy csak egy virtuális változatomról van szó. Valaki felhasználhatja a képemet, és létrehozhatja azt deepfake módon a Zoom-hívásban”.
A „deepfake”-ek széleskörű társadalmi zavarokat is okozhatnak. Tavaly a Pentagon közelében történt robbanásról készült hamis kép terjedt el a közösségi médiában, akárcsak a Donald Trumpot bilincsben ábrázoló hamis képek.
Januárban pedig a New Hampshire-i Igazságügyi Minisztérium kénytelen volt közleményt kiadni, amelyben azt állította, hogy egy felvett hangfelvétel, amelyben Joe Biden azt mondja a lakosoknak, hogy ne szavazzanak az állami előválasztáson, deepfake volt.
Sigurdur Arnason egy zenei alkotó platformot vezet Izlandon. Karácsony előtt az Izlandi Nemzeti Műsorszolgáltató felkérte, hogy készítsen egy zenei videós szkeccset, amelyben egy Hemmi Gunn nevű közkedvelt halott izlandi komikus deepfake-jét használta fel egy szilveszterkor sugárzott műsorhoz.
„Úgy gondoltuk, hogy ez egy szórakoztató projekt lesz” – fogalmazott. „Engedélyt kértünk a komikus családjától, és létrehoztuk a saját, házon belüli MI-modelljeinket”. A jelenet azonban nem volt mindenki számára olyan szórakoztató.
„Az egész országot megrázta” – emelte ki Arnason. „Az összes rádió, online hírportál és a televízió is erről beszélt. Néhány családtag nem volt boldog, mert annyira valóságos volt. A politikusok a mesterséges intelligencia szabályozásáról kezdtek beszélni”.
„Fontos, hogy a politikusok és a közvélemény ilyen beszélgetéseket és vitákat folytassanak” – vélekedett a témáról Christopher Doss, a Rand Corporation kutatója.
Nemrégiben végzett egy tanulmányt a deepfake-ekkel kapcsolatban, amelyből kiderült, hogy minél több ember van kitéve ezeknek, annál kisebb a valószínűsége, hogy helyesen felismeri a hamis fotókat, hangfelvételeket, videókat.
Aggódik amiatt, hogy a mesterséges intelligencia eszközeinek használata az MI fenyegetése elleni küzdelemben hibás megközelítés lehet.
„Ez csak egyfajta fegyverkezési versenyt indít el azok között, akik megpróbálják felderíteni, és azok között, akik megpróbálják elkerülni a felderítést” – mondta. „Az algoritmus ki fog találni valamilyen műhibát a jelenlegi mélyhamisítási környezetben, majd az alkotók ki fogják javítani a gyengeségeiket, és egy kicsit javítani fognak a módszereiken is”.
Szerinte a probléma megfelelő kezelése azt jelenti, hogy az embereket arra kell majd nevelni, hogy kritikusabban viszonyuljanak az általuk fogyasztott tartalmakhoz, beleértve azt is, hogy mindent „egészséges szkepticizmussal” nézzenek, és kétszeresen ellenőrizzék a forrásokat.
Ez azt is jelentheti, hogy a gyerekeket már korán megtanítjuk arra, hogyan ismerjék fel a hamisítványokat. „A legnagyobb kihívás, és amire még nincs megoldásom, az, hogy hogyan tanítsuk a felnőtt lakosságot” – emelte ki.
Colman, a Reality Defender munkatársa úgy véli, hogy nem a fogyasztóknak, hanem a vállalatoknak kellene megoldásokat kidolgozniuk a hamisítványok kiszűrésére. „Az én anyám nem felelős a vírusirtó problémák felismeréséért” – mutatott rá. És szerinte a deepfake kiszűréséért sem neki kellene felelnie.
„A közösségi média és az online megosztó platformok azt a megközelítést követik, hogy ha nem vagyunk kötelesek megtenni, akkor megtesszük a minimumot, és a fogyasztókra hárítjuk a felelősséget, és hagyjuk, hogy ők jelezzék a dolgokat”
– tette hozzá. „A probléma ezzel az, hogy ez olyan, mintha visszatennénk a fogkrémet a tubusba”.
„Az emberek csak akkor jelzik a dolgokat, amikor már milliószor látták őket, és már túl késő”.
Louise Bruder kiemelte, hogy bármennyire is jó lesz a mesterséges intelligencia a hamisítványok elleni küzdelemben, mindig szükség lesz az olyan emberi ellenőrökre, mint ő maga. „Az emberi ellenőrzés biztosítása sok vállalkozás számára követelmény… és nem várjuk, hogy ez megváltozzon, mivel ez plusz bizalmat ad a vállalkozásoknak”.