Rambler's Top100
Все новости Новости отрасли

ИИ требует специалистов по безопасности

26 февраля 2025

Уже сейчас спрос на услуги кибербезопасности в области искусственного интеллекта растет. По подсчетам экспертов компании Swordfish Security, в первый месяц 2025 более трети запросов от клиентов включали запросы на LLM Security. В ближайшие годы потребность в продвинутых Data-аналитиках с функциями LLM Security будет только расти, прогнозируют эксперты.

Специалисты в области LLM Security – одни из самых редких и высокооплачиваемых на рынке ИТ, подсчитали аналитики платформы hh.ru. Так в 2024 вакансий разработчиков, связанных с кибербезопасностью в области ИИ, аналитики насчитали 878, тогда как в 2023 их было всего 154. Спрос на функционал, связанный с работой в сфере LLM Security за год вырос почти в 5,5 раз. Примерно та же картина с вакансиями аналитиков в области безопасности ИИ: по данным hh.ru, их стало больше в 5 раз (555 в 2024 против 107 в 2023). При этом, что касается разработчиков в области ИИ в целом, их востребованность даже немного снизилась, в 2024 году было открыто 483 вакансии, на 14% меньше, чем в 2023. А вот тестировщики с функционалом в области ИИ на рынке по-прежнему очень нужны, по данным HH.ru, количество вакансий для них выросло почти в три раза, со 116 в 2023 до 346 в 2024. В 2024 году самая высокая предлагаемая зарплата в вакансиях, связанных с ИИ, была на уровне 10 тыс. долларов.

"Потребность в продвинутых Data-аналитиках с функциями LLM Security будет расти в ближайшие годы. Если мы говорим про массовое использование ИИ для бизнеса, очень востребованными будут разработчики, которые понимают, как поставить большую языковую модель себе на службу, при этом минимизируя потенциальные риски.  Компании-новаторы в том или ином формате уже активно применяют большие языковые модели в работе, но массово вопрос кибербезопасности ИИ, полагаю, остро встанет чуть позже, пока это нечто неизведанное, интересная новая «игрушка».  Безопасность всегда следует рука об руку с разработкой, поэтому в ближайшие 2-3 года мы ожидаем рост запросов на создание центров компетенций по LLM Security для коммерческих компаний", - рассказала директор по талантам ГК Swordfish Security Дарья Фигуркина.

Впрочем, уверяет эксперт, некоторые потенциальные риски уже очевидны. К примеру, массовое применение чат-ботов в В2С зачастую приводит к репутационным потерям, ведь встроенной этики у бота нет. В числе потенциальных угроз в больших языковых моделях инъекции вредоносного кода в промпт, уязвимости в цепочках поставок, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками. Для бизнеса, который не учел эти риски, отсутствие экспертизы в LLM Security может привести к серьезным потерям.

По оценкам экспертов Swordfish Security,  не менее 40% крупных компаний в России так или иначе внедряют ИИ в бизнес-процессы. Большие языковые модели используют для анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов, написания кода для ПО. А значит, потребность в специалистах, которые сумеют обеспечить безопасность использования ИИ, будет расти.

Источник: Swordfish Security

Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!

Оставить свой комментарий:

Для комментирования необходимо авторизоваться!

Комментарии по материалу

Данный материал еще не комментировался.

Продолжение использования сайта пользователем интерпретируется как согласие на обработку фрагментов персональных данных (таких, как cookies) для целей корректной работы сайта.

Согласен