Что делать, если передовые технологии работают против нас

Идеальный кибершторм

Так уж устроена наша жизнь, что любой прорыв в науке влечет за собой не только возможности, но и угрозы. Казалось бы, какого подвоха для простого смертного можно было ожидать от искусственного интеллекта? Многие из нас, как говорится, «и словей-то таких» еще узнать не успели, а хай-тек-технологии уже наглым образом вживляются в человеческое сознание и трудятся в поте лица на сомнительного заказчика.

Попались в нейросети

Злоумышленники в России начали использовать чат-бот с ИИ ChatGPT для фишинга. Кто не в курсе — это вид интернет-мошенничества, цель которого — получить идентификационные данные пользователей. Современные нейросети умеют генерировать текст, звук и даже видео, что значительно упрощает работу киберворишек. Дипфейки (аудио-, фото- и видеоконтент, сгенерированный нейросетями) можно обнаружить в мошеннических схемах, направленных как на организации, так и на широкую аудиторию. Вот что рассказал в своем интервью российскому изданию «Известия» ведущий исследователь данных «Лаборатории Касперского» Владислав Тушканов:

— Был случай, когда в ОАЭ преступники использовали голосовые дипфейки, чтобы выдать себя за главу компании и убедить сотрудника перевести крупную сумму на их счета. Кроме того, в интернете можно обнаружить фейковые видео со знаменитостями, например с Илоном Маском, которые завлекают людей на сайты с мошенническими схемами.

Технология, кстати, еще раньше была успешно апробирована в обмане пожилых людей в США и Западной Европе. Благодаря имитации голоса мошенники убеждают своих жертв в том, что их близкие попали в беду и им срочно требуется финансовая помощь. По данным Федеральной торговой комиссии, в 2022 году подобные схемы стали вторым по популярности способом вымогательства в Америке — зарегистрировано 36 000 преступлений, ущерб составил более 11 миллионов долларов.

Добрались и до подписчиков телеграм-канала российской поп-дивы Лолиты Милявской. «Мне звонит моя приятельница и говорит: «Как ты, моя хорошая? Слышала твой голос, и он просит прислать деньги на карту». Люди, будьте внимательны, сразу блокируйте такие звонки», — просит певица.

Знаменитость также добавила: мошенники часто знают, что человек, например, находится в отпуске и оперативно позвонить ему для уточнения информации сложно из-за разных часовых поясов. На этом и построена схема развода.

Трезвый ум и холодное сердце

Мировые эксперты бьют тревогу: регулирующие органы, правоохранители и суды плохо оснащены, чтобы обуздать аферистов. Как правило, практически невозможно идентифицировать преступника, а стражам порядка сложно отследить мошенников, действующих в сотнях стран.

Как в таком случае обезопасить себя от взбесившегося «высшего разума»?

— Правила защиты от мошенников не зависят от того, какие схемы те применяют — с использованием нейросетей или без. Проявляйте бдительность и разумную осторожность, — советует заместитель начальника главного управления по противодействию киберпреступности МВД Александр Рингевич. — Искусственный интеллект может подменять даже входящий номер, поэтому, если у вас закрались сомнения, лучше перезвоните абоненту сами. Не распространяйте в интернете и переписках конфиденциальную информацию (от паспортных данных до банковских реквизитов и интимных фото), не доверяйте слишком заманчивым предложениям вроде покупки с большой скидкой и тем более не вводите на сомнительных сайтах данные своих банковских карт.

Помните, что банальный антивирус, установленный на компьютере или ноутбуке, способен защитить от большого количества угроз. Нельзя относиться поверхностно и к придумыванию паролей для аккаунтов — они должны быть разными и достаточно сложными, от 11 знаков из цифр, букв разного регистра и специальных символов. Если вы все же попались на фишинг, необходимо как можно быстрее сменить все логины и пароли и заблокировать банковскую карточку.

Едва не попавшиеся на нейроразводы пользователи YouTube делятся еще одним спасительным лайфхаком: придумайте с родными и близкими простое для запоминания кодовое слово, которое поможет идентифицировать собеседника. И не поддавайтесь эмоциям: даже искусственный интеллект пасует перед умением человека следовать законам логики и здравомыслия.
Профессор цифровой криминалистики Калифорнийского университета Хани Фарид сравнил новые мошеннические технологии с идеальным киберштормом для создания хаоса: «Программное обеспечение для генерации голоса с помощью ИИ анализирует и выявляет уникальные признаки голоса, включая возраст, пол и акцент. Для этого достаточно короткого образца аудиозаписи из YouTube, подкаста, рекламного ролика, TikTok, Instagram или Facebook. Еще год назад нужно было много аудио, чтобы клонировать голос. Теперь для этого достаточно 30 секунд звучания».
lvk@sb.by

Полная перепечатка текста и фотографий запрещена. Частичное цитирование разрешено при наличии гиперссылки.
Заметили ошибку? Пожалуйста, выделите её и нажмите Ctrl+Enter