В тренде

Wednesday May 22, 2024

Эксперт Лупиков: Голосовые дипфейки в разговоре выдаёт речь без пауз

Эксперт Лупиков: Голосовые дипфейки в разговоре выдаёт речь без пауз

 Обложка © Freepik.com

Обложка © Freepik.com

С развитием технологий мошенники получили мощные инструменты — от правдоподобных сообщений и рассылок до генерации голосов и лиц. Основатель стартапа-разработчика ИИ-решений для бизнеса MAIA Олег Лупиков рассказал Life.ru про популярные схемы цифрового мошенничества, которыми пользуются современные хакеры, а также о том, как им противостоять.

Дипфейки: синтез голоса

В последнее время мошенники вооружились голосовыми сообщениями, которые создаёт искусственный интеллект. С их помощью они вымогают деньги от лица владельца аккаунта в соцсетях и мессенджерах. Подобный вариант позволяет эффективно выманивать суммы у знакомых и коллег.

К примеру, в 2020 году одна из японских компаний потеряла $35 млн — аферисты использовали голос руководителя и провернули с его помощью незамысловатую мошенническую схему.

Платформа – антифейк для нейросетей может появиться в РФ по поручению МишустинаПлатформа – антифейк для нейросетей может появиться в РФ по поручению Мишустина

Вариаций мошенничества с голосовыми дипфейками множество. И во всех случаях, как отмечает Лупиков, отличить голос от настоящего практически невозможно. К примеру, одна из схем может выглядеть так: аферисты звонят родственникам, записывают семпл их голоса, после чего загружают звуковую дорожку на специальные платформы, через которые ИИ синтезирует целую речь. После этого человеку приходит голосовое сообщение в мессенджере с просьбой помочь и перевести деньги по указанному номеру. Диалог в переписке строится благодаря запущенным алгоритмам, поэтому распознать подвох бывает достаточно сложно.

Как распознать: обратите внимание на паузы, вздохи и интонацию говорящего. У робота речь поставленная и чёткая, без пауз. Жертвы чаще всего не замечают этих нюансов из-за паники. Чтобы избежать ловушки, перезвоните человеку, который просит о помощи, лучше это сделать в мессенджере, советует эксперт.

Дипфейки: видеозвонок с начальником

ИИ может не только генерировать голосовые сообщения, но и создавать настоящие видеоконференции. Данный формат не такой распространённый и требует более тщательной подготовки со стороны мошенников.

Эксперт спрогнозировал, что из-за ИИ в нашу жизнь вернётся главный кошмар интровертаЭксперт спрогнозировал, что из-за ИИ в нашу жизнь вернётся главный кошмар интроверта

Подобный инцидент произошёл недавно в Гонконге. Финансовый работник получил письмо от руководителя с просьбой провести секретный перевод. Сомнения работника развеялись, когда его подключили к видеозвонку, на котором присутствовали все знакомые ему лица. В общей сложности обманутый финансист перевёл около 25,6 миллиона долларов. Когда махинации всплыли, сотрудник понял, что все люди, которых он видел на экране, были фейком.

Как распознать: фейковое видео может выдать плохое качество изображения. Можно проанализировать взгляд, мимику и речь — насколько она живая и нероботизированная. Если возникли подозрения, перезвоните. С семьёй и друзьями можно договориться о кодовом слове, которое во время разговора докажет, что вы — это вы.

Лжесотрудники по E-mail

Мошенники частенько представляются работниками и директорами фирм в письмах по E-mail. Ещё одна уловка — рассылки об оставленных завещаниях, победах в конкурсах и крупных выигрышах в лотерею. Схема в этом случае получается незамысловатая: мошенники используют подставные доменные имена, электронные адреса, которые напоминают оригинальные. Также цифровые мошенники мониторят аккаунты в соцсетях, чтобы собрать как можно больше подробной информации. И только после этого идут в атаку, вооружившись передовыми инструментами ИИ, подчёркивает Лупиков.

Тебя выбрал ChatGPT: Главные подробности скандальной истории, как парню нашёл любовь роботТебя выбрал ChatGPT: Главные подробности скандальной истории, как парню нашёл любовь робот

К примеру, в 2017 году мошенник из Литвы с помощью подобной фишинговой атаки обманул компании Google и Facebook* на сумму более $100 млн. Хакер писал письма от лица сотрудников азиатских фирм-партнёров. Работники корпораций получали письма из тайваньских компаний с поддельными счетами-фактурами и контрактами. В течение двух лет Google и Facebook* отправляли деньги на банковские счета мошенника.

Как распознать: большое количество файлов и ссылок, которые прикладывают к официальным письмам, увеличивает вероятность того, что сообщение фишинговое. Призывы как можно быстрее перейти по ссылке, напечатанные без пробела слова и грамматические ошибки — это инструменты, чтобы проскочить через спам-фильтры, они сразу же намекают на фишинг.

Футуролог рассказал, как с помощью ИИ будут лечить рак и СПИДФутуролог рассказал, как с помощью ИИ будут лечить рак и СПИД

Может ли ИИ навредить человеку

По умолчанию каждая нейросеть запрограммирована на добро, подчёркивает эксперт, но есть кейсы, когда преступники с помощью уловок обходят «настройки». Кроме того, хакеры часто пользуются джейлбрейком — вредоносным кодом, который позволяет получить повышенные пользовательские привилегии, а затем внушает боту, что он больше не является собой, теперь он — новая нейросеть, а значит, может игнорировать правила, установленные разработчиком. Тем не менее авторы крупнейших нейросетей постоянно совершенствуют методы противодействия джейлбрейку.

Эксперт Kaspersky назвал способ развязать язык ИИ и заставить нейросети говорить на запретные темыЭксперт Kaspersky назвал способ развязать язык ИИ и заставить нейросети говорить на запретные темы

По словам эксперта, сегодня, когда ИИ и модели глубокого обучения стали незаменимой вещью в повседневной жизни человека, злоумышленники чувствуют себя как никогда комфортно. Поэтому обмануть людей стало проще простого: например, в России за 2023 год практически на 30% выросло число ИТ-преступлений. Кроме того, ИИ постоянно развивается и учится, поэтому сегодняшние методы защиты от цифрового мошенничества могут потерять актуальность.

Но в любом случае лучше не переходить по подозрительным ссылкам и желательно установить двухфакторную аутентификацию в мессенджерах.

Будьте настороже!: Нейросеть написала послание человечеству на 2024 годБудьте настороже!: Нейросеть написала послание человечеству на 2024 год

Кстати, «нейросеть» стало словом 2023 года по версии портала «Грамота.ру». Помимо «нейросети» в голосовании также участвовали GPT, «база», «возвращенцы», «промпт»/»промт» и «имба». Они набрали до 58% голосов, в то время как слово года лидировало с 75%. Филологи считают, что «нейросеть» неспроста выбрана словом 2023 года, термин логично вошёл в моду благодаря широкому распространению новых технологий.

* Соцсеть запрещена в РФ; принадлежит корпорации Meta, признанной в России экстремистской.

  Александра Вишнякова   Комментариев: 0avatarДля комментирования авторизуйтесь! Авторизоваться

Источник

Вернуться наверх