Az AI deepfake támadások túlmutatnak a videókon és hangfelvételeken
CoinCash2024-09-17
A kriptotárcákat célzó AI-alapú deepfake csalások száma egyre nő, a szakértők pedig a fejlődő fenyegetésekre figyelmeztetnek, és arra buzdítják a felhasználókat, hogy védjék meg digitális vagyonukat.
Ahogy a mesterséges intelligencia által vezérelt deepfake csalások egyre gyakoribbá válnak, a biztonsági cégek arra figyelmeztetnek, hogy a támadási módszer a videón és a hangon túl is kiterjedhet. Szeptember 4-én a Gen Digital szoftvercég arról számolt be, hogy a rosszindulatú szereplők, akik mesterséges intelligenciával hajtott deepfake csalásokat használnak a kriptótulajdonosok becsapására, 2024 második negyedévében fokozták a műveleteket.
A vállalat szerint a „CryptoCore” nevű szélhámos csoport már több mint 5 millió dollárnyi kriptót csalt ki mesterséges intelligencia alapú deepfake támadások segítségével.
Bár az összeg a kriptotérben alkalmazott más támadási módszerekhez képest alacsonynak tűnik, a biztonsági szakemberek úgy vélik, hogy az AI deepfake támadások tovább terjedhetnek, veszélyeztetve a digitális eszközök biztonságát.
Az AI deepfake támadások veszélyeztetik a pénztárcák biztonságát
A Web3 biztonsági cég, a CertiK úgy véli, hogy az AI-alapú deepfake csalások egyre kifinomultabbak lesznek. A CertiK szóvivője a Cointelegraphnak elmondta, hogy ez a jövőben a videókon és hangfelvételeken túl is terjedhet.
A szóvivő kifejtette, hogy a támadási vektor felhasználható olyan pénztárcák becsapására, amelyek arcfelismerést használnak, hogy hozzáférést adjanak a hackereknek:
Ha például egy pénztárca az arcfelismerésre támaszkodik a kritikus információk védelmében, akkor fel kell mérnie megoldásának robusztusságát az AI által vezérelt fenyegetésekkel szemben.
A szóvivő szerint fontos, hogy a kriptoközösség tagjai egyre inkább tisztában legyenek azzal, hogyan működik ez a támadás.
Az AI deepfakes továbbra is fenyegetni fogja a kriptót
Luis Corrons, a Norton kiberbiztonsági vállalat biztonsági evangelistája úgy véli, hogy az AI-alapú támadások továbbra is a kriptótulajdonosokat fogják célba venni. Corrons megjegyezte, hogy a kriptó jelentős pénzügyi jutalmakat és alacsonyabb kockázatot jelent a hackerek számára. Elmondta:
A kriptovaluta-tranzakciók gyakran nagy értékűek és anonim módon végezhetők, ami vonzóbb célponttá teszi őket a kiberbűnözők számára, mivel a sikeres támadások jelentősebb pénzügyi jutalmat és alacsonyabb felderítési kockázatot eredményeznek.
Corrons szerint továbbá a kriptopénzek még mindig nem rendelkeznek megfelelő szabályozással, ami a kiberbűnözőknek kevesebb jogi következményt és több támadási lehetőséget biztosít.
Hogyan lehet felismerni a mesterséges intelligencia által vezérelt deepfake támadásokat?
Bár az AI-alapú támadások nagy fenyegetést jelenthetnek a kriptofelhasználók számára, a biztonsági szakemberek úgy vélik, hogy a felhasználóknak vannak módjai arra, hogy megvédjék magukat az ilyen típusú fenyegetésekkel szemben. A CertiK szóvivője szerint az oktatás lenne a jó kiindulópont. A CertiK mérnöke kifejtette, hogy fontos ismerni a fenyegetéseket, valamint az ellenük való küzdelemhez rendelkezésre álló eszközöket és szolgáltatásokat. Emellett a szakember azt is hozzátette, hogy a kéretlen megkeresésekkel szembeni óvatosság is fontos. Elmondták:
A pénzre vagy személyes adatokra vonatkozó kéretlen kérésekkel szembeni szkepticizmus alapvető fontosságú, és a többfaktoros hitelesítés engedélyezése az érzékeny fiókok esetében segíthet az ilyen átverésekkel szembeni védelem extra rétegét hozzáadni.
Közben Corrons úgy véli, vannak „red flagek", amelyeket a felhasználók megpróbálhatnak észrevenni, hogy elkerüljék az AI deepfake átveréseket. Ezek közé tartoznak a természetellenes szemmozgások, arckifejezések és testmozgások. Továbbá, az érzelmek hiánya is árulkodó jel lehet. "Azt is észreveheted, ha az arc érzelmi kifejezése nem passzol ahhoz, amit az illető állítólag mond. Ilyenkor az arc morfolása vagy képi összefércelés történhetett" – magyarázta Corrons.
A vezető szerint ezeken kívül a kínos testformák, a helytelen testtartás és a hang ellentmondásai is segíthetnek a felhasználóknak eldönteni, hogy egy AI deepfake-et látnak-e vagy sem.
Forrás: https://cointelegraph.com/news/ai-deepfake-scams-threaten-crypto-wallets-2024
Ha kedvet kaptál a Bitcoin vásárláshoz, kattints IDE.
Ez a blogcikk / poszt / hír nem minősül pénzügyi tanácsadásnak vagy befektetési ajánlásnak. Azt itt leírtak pusztán edukációs és ismeretterjesztő célt szolgálnak. A kriptovaluták árfolyama rendkívül volatilis, árfolyamuk rövid idő alatt drasztikusan képes emelkedni vagy esni, ezért befektetési céllal történű vásárlásuk kockázatos. Mielőtt bármilyen pénzügyi döntést hoznál, tájékozódj alaposan, mérlegeld pénzügyi helyzeted és kockázatvállalási képességed.