Как казахстанцам защитить себя от цифровых мошенников

Современные технологии постоянно развиваются, а вместе с ними возникают новые угрозы и возможности. Искусственный интеллект (ИИ) – одна из таких технологий, которая, подобно огню, может быть как благом, так и таит в себе потенциальные опасности, способные нанести серьезный ущерб. О некоторых рисках, связанных с этой технологией, читайте в материале собственного корреспондента агентства.

Искусственный интеллект в руках киберпреступников

На конференции «Киберпространство 2024», организованной аналитическим центром «Чатэм-Хаус», научный сотрудник британского королевского объединенного института оборонных исследований Джен Эллис выделила три ключевых направления взаимодействия искусственного интеллекта и кибербезопасности.

— Первое направление – это использование ИИ в оборонительных программах кибербезопасности. Второе направление – это использование ИИ злоумышленниками для организации кибератак или для более успешного проведения кибератак. Третье направление – это атаки на системы искусственного интеллекта, которые могут не иметь ничего общего с кибербезопасностью; они могут касаться автомобилей, больничных систем или других приложений, — сказала Джен Эллис.

Директор по международному партнерству неправительственной организации Глобальный кибер-альянс Терри Уилсон, который также выступал на отмеченной конференции в Лондоне, подчеркнул, что искусственный интеллект усложняет задачи киберзащиты.

— Более изощренные фишинговые эксплойты (программы, ищущие уязвимости в системах – прим. ред.) нацелены на человеческий фактор и способны обмануть пользователей, заставляя их совершать действия, которые они не должны совершать, подвергая их самих и их организации риску заражения вредоносной программой и программой-вымогателем, — рассказал Терри Уилсон.

Несмотря на угрозы, искусственный интеллект может использоваться для улучшения кибербезопасности. Инструменты ИИ помогают анализировать атаки, выявлять уязвимости и предотвращать киберпреступления. Системы защиты, основанные на ИИ, могут значительно снизить риски, обеспечивая более эффективную защиту данных и инфраструктуры.

Остерегайтесь искусственного самозванца

Компания по кибербезопасности McAfee в своем отчете «Остерегайтесь искусственного самозванца» исследовала риски, связанные с использованием ИИ для подделки лиц и голосов знакомых или родственников.

С появлением приложений обмена сообщениями, таких как WhatsApp, и социальных сетей на основе видео, включая TikTok и Instagram, люди стали чаще, чем когда-либо, делиться записями своих голосов и изображениями. Хотя это может показаться безобидным, но используя всего несколько секунд аудиозаписи, мошенники могут создать правдоподобный клон.

— Вместо того, чтобы просто совершать телефонные звонки, отправлять электронные письма или текстовые сообщения, киберпреступники теперь могут без особых усилий выдавать себя за кого-либо, используя технологию клонирования голоса с помощью искусственного интеллекта, которая играет на вашей эмоциональной связи и чувстве срочности, повышая вероятность того, что вы попадетесь на удочку мошенников, — говорится в отчете.

В интернете все чаще появляются сгенерированные искусственным интеллектом примеры якобы официальных заявлений. Например, в Кыргызстане распространялись ложные видеоролики, рекламирующие голосами первых лиц страны различные инвестиционные компании. Жертвами ИИ во время электоральных кампаний стали президент США Джо Байден и премьер-министр Индии Нарендра Моди, голоса которых были сгенерированы злоумышленниками для влияния на политические процессы.

На какие голосовые мошенничества люди реагируют чаще всего

Мошенничество почти всегда направлено на выманивание денег у жертв. Хотя люди в большинстве случаев откликаются на просьбу друга или любимого человека, некоторые мошеннические схемы более эффективны, чем другие.

Согласно исследованию McAfee, первое место в списке мошенников занимает сообщение о якобы автомобильной аварии или поломке – 48%, за ними следует ограбление – 47%. Потерянный телефон или кошелек подойдет для 43% людей, а 41% откликнется человеку, который скажет, что он путешествует за границей и нуждается в помощи.

Вероятность ответа на сообщение также сильно зависит от того, кто якобы его отправил. При этом 40% респондентов наиболее склонны ответить партнеру или супругу, за которыми следует их мать с результатом в 24%. Родители в возрасте 50 лет и старше чаще всего реагируют на ребенка – 41%.

Исследование также выявило, что инструменты для клонирования голоса могут воспроизводить человеческую речь с точностью до 95%, поэтому отличить настоящую речь от поддельной очень непросто. Поэтому неудивительно, что около 77% всех жертв поддались обману и понесли финансовые потери.

Рекомендации для казахстанцев

Специалисты Министерства цифрового развития, инноваций и аэрокосмической промышленности РК рекомендуют быть бдительными при приеме видео и голосовых звонков от неизвестных контактов, поскольку голос и лицо ваших родных и знакомых могут быть подделаны.

— Злоумышленники могут использовать внешность или голос родственников жертвы якобы для одолжения денег. Не рекомендуется принимать видео или голосовые звонки от незнакомых контактов. Голос или лицо жертвы могут быть записаны для дальнейшего использования злоумышленниками. В случае принятия подозрительного звонка, не следует отвечать с четким произношением и длинными предложениями, — отмечают в казахстанском ведомстве.

Важно отметить, что программы искусственного интеллекта, созданные для изменения внешности и голоса, обычно не достигают высокого качества, необходимого для передачи полного спектра человеческих эмоций.

— В видео или видеозвонках ИИ может выдать неестественно искаженное, «прыгающее» лицо, отсутствие или наличие на теле отличительных признаков родственников жертвы. Возможных злоумышленников можно попросить прикрыть часть лица рукой, или быстро повертеть головой. Таким образом «маска» (наложенная программой – прим. ред.) может «слететь», что будет сразу заметно. Также можно попросить полностью открыть рот, или исказить лицо, — рекомендуют в МЦРИАП.

В голосовых сообщениях или звонках искусственный интеллект может использовать неестественную речь, которая лишена индивидуальных особенностей, таких как дефекты, интонация или манера выражения.

От себя заметим, что риски, связанные с искусственным интеллектом, не должны вызывать панику, однако они требуют особого внимания и бдительности. Развитие ИИ должно сопровождаться регулированием, чтобы гарантировать безопасное и ответственное использование этой технологии на благо человечества.

Добавить комментарий Отменить ответ

Exit mobile version