Нещодавно деякі шахраї використовували технологію глибокого фейку, щоб емулювати голос та дії Ілона Маска, щоб обманути людей інвестувати в криптовалютну аферу.
Шахраї використовують штучний інтелект та машинне навчання для створення голосів та манер відомих осіб, щоб просувати криптовалютні шахрайства.
Організації повинні навчати свій персонал виявляти та обробляти випадки глибоких фейків.
Прогрес у технологіях призводить до більших ризиків, ніж будь-коли раніше. Наприклад, деякі зловмисники використовують штучний інтелект та пов’язані технології для підробки голосу та дій видатних осіб з метою вводити в оман свою аудиторію та красти їх цифрові активи. Зокрема, ці злидарі підробляють новини та глибокофейкові відео для введення інвесторів в оман та обдурювання їх. У цій статті розглядається, як деякі з цих зловісних акторів підробляли відео Елона Маска на YouTube під час запуску SpaceX.
Читайте також: Елон Маск звинувачується в маніпулюванні Dogecoin
6 червня деякі шахраї засипали YouTube deepfake-відео Ілона Маска, спробуючи використати криптовалютних інвесторів для їхніх цифрових активів під час запуску SpaceX. Під час події запуску ракети Starship шахраї прямий ефір згенерованим штучним інтелектом голосом Маска на понад 35 каналах YouTube. Через прямий ефір вони підробили голос та манери Маска, щоб залучити інвесторів до криптопроекту, де вони обіцяли інвесторам подвоїти їхні інвестовані суми.
Відеозапис показав, ніби Маск виступав на вулиці в SpaceX. Однак відеозапис мав розмиті розділи, програмовані таким чином, щоб приховати реальність ситуації. Шахрайські потоки, які збіглися з запуском четвертого випробування SpaceX, передавали ракету до того місця, де вона входила в атмосферу з Землі. Також показано момент, коли ракета погрузлася в Індійський океан, як було заплановано.
Читайте також: Схеми шахрайства з написами та як їм запобігти
Імпостери використовували різноманітні елементи, щоб переконати аудиторію, що це був Ілон Маск, який з ними розмовляв. Згідно з Видання Cointelegraph, на YouTube-каналі, який виступав під прикриттям шахрайського прямого ефіру офіційного акаунту SpaceX, було понад 170 000 глядачів. Деякі експерти вважають, що більшість заявлених глядачів були просто ботами, які використовувалися для переконання аудиторії, що це був законний прямий ефір. Такий вплив на глядачів був призначений для привернення криптоінвесторів до інвестиційного проекту, як вважається, Маска.
Голос, створений штучним інтелектом з виглядом Маска, переконав аудиторію надсилати різні типи криптовалютних активів, таких як Біткоін або Ether на вказані адреси цифрового гаманця. Творці відео з глибоким фейком дуже старалися переконати людей, що це був саме Маск, хто говорив. Наприклад, вони включають його звичайну манеру та інші аспекти його природного голосу, такі як заїкання та паузи. Це було очевидно, коли голос сказав, «Це не підробка, це справжній подарунок. Я особисто гарантую вам це». Також був QR-код, який інвестори сканували для здійснення своїх криптовкладень.
Голос додав: «У вас є шанс побачити, як ваша криптовалюта прискорюється експоненційно, коли наша ракета прискорюється до зірок». Це заяву було супроводжено аплодисментами тлуми, голоси якої також були підроблені. Наразі немає точних даних про кількість людей, які були обдурені через цю шахрайську схему на YouTube. Однак є докази, що деякі люди дійсно надсилали свою криптовалюту на зазначені адреси. На наступному знімку екрана показана особа, яка надіслала криптовалютні активи на суму 30 доларів на одну з гаманців шахраїв.
Джерело: x.com
Однак пізніше відеопотоки були видалені, а канал був ребрендований, щоб імітувати Cardano Foundation. Mysk, група досліджень, була першою, хто сповістив про Криптоспільнота криптовалютного шахрайства як показує наступне зображення.
Джерело: x.com
Без сумніву, Маск допоміг криптоспільноті усвідомити небезпеку, в якій вона перебувала в той час. Такі онлайн-попередження про безпеку є важливими для збереження гідності сектору цифрових активів. Однак це не перший раз, коли Маска вовлучали в таку шахрайську схему. Шахраї ціляться на криптовалютного мільярдера через його відкрите підтримку криптовалют та його підтримку декількох криптопроектів, таких як Dogecoin і Шиба-іну. Наприклад, в квітні Талал Хадж Бакрі і Томмі Миск виявили ще одну фальшиву обліковку SpaceX на YouTube з подібним повідомленням, що запрошує криптовалютних інвесторів інвестувати в шахрайський проект з подвоєнням грошей.
По-перше, важливо зазначити, що діпфейки використовують потужні методи використання штучного інтелекту та машинного навчання для маніпулювання аудіо- та візуальним контентом, щоб обдурити певні верстви спільноти. Тому найкращим засобом протидії таким махінаціям є використання подібних технологій для виявлення діпфейків та пом’якшення загроз кібербезпеці, які вони становлять.
Іншими словами, організації, включаючи цифрові фірми, повинні використовувати технології машинного навчання та штучного інтелекту для аутентифікації візуального та аудіо контенту, який вони можуть вважати підозрілим. Тому організації повинні інвестувати в відповідні рішення машинного навчання, які використовують автоматизацію для виявлення та підтвердження живості. Це тому, що те, що може упустити людське око, системи на основі машинного навчання можуть виявити.
По-друге, організації повинні створити системи для вирішення нових кібербезпекових ризиків, пов’язаних з глибокими фейками та імперсоніфікацією. Наприклад, вони повинні включити усвідомлення глибоких фейків як частину своїх організаційних навчальних програм з кібербезпеки. Іншими словами, вони повинні навчати свій персонал на всіх рівнях в організації виявляти глибокі фейки і адекватно реагувати.
Наостанок важливо, щоб організації, які діють у цифровому секторі, знайшли засоби спілкування між собою у випадку виникнення deepfake інцидентів. Вони також повинні співпрацювати з правоохоронними органами для вирішення таких випадків.
Випадки глибокого фейку зростають в цифровій галузі, особливо в секторі криптовалюти. Недавно деякі криптошахраї обіграли Маска, щоб обманути деяких інвесторів вкладають свої кошти в шахрайство з криптовалютою. Однак організації-попереджувачі, такі як Mysk, змогли виявити цю загрозу кібербезпеці. У майбутньому організації в цифровому секторі повинні навчати свій персонал виявляти та вирішувати випадки створення глибоких фейків.