Искусственный интеллект может значительно улучшить работу в кибербезопасности — эксперт

Государственная техническая служба изучает возможности некоторых моделей искусственного интеллекта для защиты от фишинговых атак. Заместитель председателя правления АО «Государственная Техническая Служба» Улукбек Шамбулов в интервью корреспонденту агентства рассказал о возможностях новых технологий.

– Какие возможности открывает искусственный интеллект в работе кибербезопасности?

– Во-первых, ИИ позволяет автоматизировать обнаружение угроз и реагирование на них в реальном времени, что значительно ускоряет процесс защиты. Во-вторых, ИИ может анализировать большие объемы данных для выявления паттернов и аномалий, которые могут указывать на потенциальные угрозы. Это помогает в проактивной защите, а не только в реагировании на уже произошедшие инциденты. Также ИИ способен обучаться на новых данных, что позволяет системам кибербезопасности адаптироваться к новым типам угроз.

– Может ли ИИ улучшить работу в этом направлении?

– Да, ИИ может значительно улучшить работу в кибербезопасности. Использование ИИ позволяет повысить точность обнаружения угроз, снизить количество ложных срабатываний и автоматизировать рутинные задачи. Это освобождает время для специалистов по кибербезопасности, позволяя им сосредоточиться на более сложных и критичных задачах. Кроме того, ИИ может предложить новые подходы к анализу угроз и обеспечению защиты, что делает системы более гибкими и адаптивными.

– Расскажите подробнее о механизме работы ИИ в сфере кибербезопасности.

– ИИ в кибербезопасности работает на основе алгоритмов машинного обучения и анализа данных. Сначала системы ИИ обучаются на исторических данных, включая информацию о предыдущих атаках и угрозах. На основе этого обучения ИИ создает модели, которые способны идентифицировать подозрительное поведение или аномалии в сетевом трафике. Затем ИИ использует эти модели для мониторинга текущих данных и активностей, выявляя потенциальные угрозы и автоматически реагируя на них, например, блокируя подозрительный трафик или отправляя уведомления специалистам.

– Существуют ли риски при использовании в работе ИИ?

– Да, при использовании ИИ в кибербезопасности существуют риски. Один из основных рисков заключается в том, что ИИ может стать «черным ящиком», где решения принимаются на основе алгоритмов, которые сложно объяснить или понять. Это затрудняет отладку и улучшение систем, а также снижает доверие к их решениям. Например, при использовании таких моделей, как GPT, возможны случаи так называемых «галлюцинаций», когда ИИ генерирует неверные или неточные данные. В связи с этим рекомендуется перепроверять действия ИИ и не полагаться на них на 100%, так как возможны ошибки.

Кроме того, существует риск того, что злоумышленники могут попытаться обмануть ИИ-системы, используя новые методы атак. Поэтому важно регулярно обновлять модели ИИ и обеспечивать их способность адаптироваться к новым угрозам.

– Есть ли системы защиты от непредвиденных обстоятельств при работе с ИИ?

– Да, существуют различные системы и практики для защиты от непредвиденных обстоятельств при работе с ИИ. Это включает в себя внедрение механизмов мониторинга и аудита, чтобы отслеживать работу ИИ-систем и выявлять потенциальные сбои. Также применяются методы тестирования и верификации, чтобы убедиться, что ИИ-системы работают корректно и безопасно. Важным аспектом является регулярное обновление и обучение моделей, чтобы обеспечить их способность реагировать на новые угрозы и изменяющиеся условия.

Напомним, что в этом году в Казахстане разработали концепцию развития искусственного интеллекта 2024-2029 годы. Помимо этого, государство разрабатывает законопроект по регулированию искусственного интеллекта в стране.

ИИ уже применяют в работе государственных органов. Например, вице-министр энергетики РК Ильяс Бакытжан на брифинге в СЦК заявил, что сегодня элементы искусственного интеллекта уже применяются в отдельных направлениях ведомства. 

Ранее сообщали, что первый в мире закон, определяющий правила использования систем, основанных на искусственном интеллекте, вступил в силу в ЕС. Его цель — снизить риски, связанные с ИИ. Еврокомиссия создает орган по надзору за соблюдением норм закона. Для нарушителей предусмотрены внушительные штрафы.

 

Добавить комментарий