Posted 12 февраля, 06:54
Published 12 февраля, 06:54
Modified 12 февраля, 06:56
Updated 12 февраля, 06:56
По информации «Новых известий», искусственный интеллект научили создавать фальшивые документы. Нейросети могут быстро генерировать поддельные паспорта, водительские удостоверения и банковские выписки.
Но это еще не все. Теперь нейросеть может скопировать личность человека на основе анализа стиля письма в социальных сетях. И это часто используется для мошенничества.
К примеру, используя эти данные, нейросеть может написать письмо от имени человека его родственникам и сообщить о сложной ситуации, требующей срочного финансового помощи. Кроме того, злоумышленники могут клонировать голос, используя технологию синтеза речи.
Это значит, что они могут сделать запись голоса, который будет произносить определенные слова.
В России появились мошенники, которые создают фальшивые сайты, выдающие себя за сервисы, где можно приобрести доступ к чат-боту на основе искусственного интеллекта ChatGPT. Они воспользовались тем, что в России нельзя зарегистрироваться в этом сервисе.
Если пользователь попадает на фейковый сайт и будет следовать инструкции, он рискует стать жертвой мошенников, потеряв свои платежные данные и другую конфиденциальную информацию. Это типичная схема мошенничества, которая использует новую актуальную тему.
Существуют способы подделать как голос, так и образ. С помощью новых технологий на основе искусственного интеллекта можно создавать фейковые изображения и видео, которые кажутся реальными. Такая технология называется «дипфейк».
Зарубежные злоумышленники уже попробовали использовать дипфейки для получения доступа к базам данных при удаленной работе в сфере IT. Однако, созданные видеоклоны выдают свою неподлинность через неестественную речь, несоответствие движениям губ и ненастоящие эмоции.
Волна дипфейков уже охватила Юго-Восточную Азию и Африку, и скоро может дойти и до России. Это может привести к звонкам от «родственников» или других подставных лиц, например, пожилым людям.
Таким образом, мы можем столкнуться с ситуацией, когда мошеннические звонки от якобы представителей силовых ведомств или банка будут полностью происходить при помощи программных алгоритмов на базе нейросетей.
Есть несколько признаков:
Для выявления фальшивок также используются нейросети. В будущем технологии создания и обнаружения дипфейка станут еще более продвинутыми.
Благодаря использованию нейронных сетей преступникам стали легче представляться другими людьми. Одна из таких схем, которая становится все более популярной, заключается в том, чтобы притворяться сотрудниками поддержки банков, сайтов или государственных организаций. Искусственный интеллект успешно поддерживает диалоги, в ходе которых уговаривает людей установить вредоносное ПО на свои устройства, перевести деньги на счета для оплаты налогов и государственных пошлин, а также передать личную информацию, платежные данные и другие сведения.
Это явление активно используют аферисты, поскольку они пользуются доверием людей к официальным представителям этих организаций. Виртуозное ведение разговора заставляет жертву поверить, что она общается с настоящим сотрудником, и это делает всю ситуацию еще более опасной. Большинство людей не задумываются о том, что могут стать жертвами мошенничества, поэтому они доверяют поддержке и готовы предоставить свои личные данные.
Чтобы защититься от таких аферистов, следует быть более бдительным в Интернете. Важно запомнить, что официальные представители банков, сайтов или государственных учреждений никогда не будут просить перевести деньги или передать конфиденциальную информацию через обычные сообщения или звонки. Если вы получаете подозрительный запрос, лучше связаться с организацией напрямую и уточнить все детали.
Ранее ростовчанам рассказали, как мошенники обманывают на розыгрышах и акциях.