В последнее время участились случаи спуфинга, когда злоумышленники выдают себя за других людей, используя целый набор технологий, с целью вымогательства или получения конфиденциальных данных. Жертвами мошенничества становятся и обычные люди, и знаменитости, и представители крупных компаний. В этой статье мы разберем, как нейросети помогают этой угрозе противостоять и какие решения в этой сфере уже предлагает MTS AI.
В чем проблема?
Популяризация генеративных нейросетей и снижение порога входа для их использования спровоцировали активное применение этой технологии мошенниками. В частности, злоумышленники рассылают обращения от официальных лиц других компаний или ведомств (от МВД, ФСБ, банков, микрофинансовых организаций и т.д.) и часто используют синтезированный голос человека, имитирующий речь коллег, родственников, знакомых и других близких людей. Кроме того, если мошенники получили доступ к мессенджеру человека, то с помощью нейросетей они могут полностью скопировать стиль его общения и правдоподобно обратиться к его контактам в недоброжелательных целях.
Помимо прямых финансовых потерь, такой вид мошенничества несет риски подрыва доверия к бизнесу. Например, по оценкам Jumio, 67% клиентов обеспокоены, достаточно ли их банк делает для обеспечения защиты от дипфейков, при этом 75% готовы перейти в другой банк, если этих защитных мер будет недостаточно.
Какие решения предлагает MTS AI?
Для борьбы с мошенничеством уже активно используются решения на основе искусственного интеллекта — дипфейк-детекторы. Они обучаются определять синтезированный или поддельный контент на датасетах, содержащих сгенерированные голоса, изображения и другие материалы.
В частности, компания MTS AI совместно с VisionLabs разработала дипфейк-детектор для защиты от спуфинговых атак, который умеет определять все основные типы фото и видеодипфейков: от замены и синтеза лиц до полностью сгенерированных медиафайлов. А модуль антиспуфинга в составе платформы для синтеза и распознавания речи Audiogram может выявлять аудио, сгенерированное ИИ для мошенничества и распространения дезинформации. В свою очередь большая языковая модель Cotype от MTS AI обучена определять признаки мошеннических действий и намерений.
Эти решения уже востребованы в телекоме, соцсетях и медиаплатформах, а также в образовательных проектах, HR и рекрутинге. Они позволяют предотвращать хищение денежных средств и репутационный урон брендам, выявляя поддельные обращения от имени компании и проверяя подлинность документов, видеоинтервью и других материалов.
Как можно использовать технологии MTS AI на практике
MTS AI предлагает своим клиентам создать омниканальную систему выявления мошенничества, охватывающую приложения, сайт и мессенджеры. Пользователь сможет загрузить как подозрительное сообщение, так и скриншот переписки или запись звонка, а ИИ-сервис проанализирует материалы и определит вероятность мошенничества с перечислением признаков, по которым было сделано такое заключение. Среди них:
- просьба финансовой помощи от знакомого человека;
- наличие ссылки для перехода на внешний ресурс;
- требование совершить действия (перейти по ссылке, принять участие в голосовании и т.д.);
- наличие эмоционального давления (помощь человеку после аварии);
- требование о срочном переводе денег;
- запрос конфиденциальных банковских данных;
- дефекты записи, признаки клонированного голоса.
В основе решения — сразу несколько продуктов MTS AI: большая языковая модель Cotype будет отвечать за выявление признаков мошенничества в тексте, сервис Audiogram с модулем антиспуфинга расшифрует аудиосообщение и определит синтезированную или клонированную речь на записи, а дообученная опенсорсная OCR-модель распознает текст на изображениях и скриншотах. Такое решение способно обрабатывать до 300 сообщений в час и отвечать на запросы пользователей за 15 секунд, а точность определения мошенничества может достигать 97%.