По прогнозам, в 2025 году технологии искусственного интеллекта станут основой для третьих всех мошенничеств. Это может привести к миллионам инцидентов каждый месяц. Такую информацию представила заместитель директора департамента по развитию продуктов и руководитель продуктового портфеля компании VisionLabs Татьяна Дешкина в интервью изданию «Газета.Ru».
Дешкина описала три основных сценария, как искусственный интеллект может быть использован для мошенничества. В первую очередь, это дипфейки. Они будут широко применяться для подделки видео, изображений и голосов знакомых, родственников, коллег, а также известных людей с целью хищения средств или манипуляции общественным мнением.
«Использование генеративных искусственных сервисов делает возможным создание дипфейков в реальном времени, что значительно усложняет их выявление», — отметила специалист.
Второй важный тренд — это обман пользователей на платформах знакомств. Здесь злоумышленники будут использовать профили, на которых размещены фотографии несуществующих людей. Чат-боты смогут одновременно общаться с десятками тысяч потенциальных жертв. Дешкина добавила, что после возрождения интереса к подаркам в социальных сетях и мессенджерах, мошенники стали активнее обращаться к людям напрямую с просьбами дарить подарки вместо денег.

Также преступники будут всё чаще применять искусственный интеллект для составления списков потенциально уязвимых лиц. С помощью нейросетей можно находить профили в социальных сетях тех, кто находится в уязвимом состоянии, основываясь на их публикациях.
«Например, люди могут сообщать о переезде в другую страну, переживать утрату близкого человека или испытывать финансовые трудности», — объяснила Дешкина.
Telegram-канал Техносовет – подпишитесь и будьте в курсе актуальных новостей о технологиях