Рубрикатор | ![]() |
![]() |
Статьи | ![]() |
![]() |
Владимир МЕШАЛКИН | 06 марта 2018 |
Edge Computing – ответ на взрывной рост количества данных
Именно бум интернета вещей поставил задачу переноса части инфраструктуры непосредственно к устройствам, генерирующим данные.

По оценкам Gartner, к 2020 году устройств интернета вещей будет почти 21 млрд, а IDC спрогнозировало аж 28 млрд. Для оценки масштабов, в 2017 году их было «всего» 8,5 млрд. Взрывной рост количества генераторов данных, объемы, необходимость передачи и обработки информации дают понимание невозможности функционирования всей этой инфраструктуры с требуемой оперативностью в рамках стандартной централизованной модели ЦОДа или облака. При этом огромный объем данных можно, а чаще и нужно обрабатывать непосредственно вблизи от их источников или непосредственно на них. Так зародилось понимание неизбежности граничных вычислений. Однако подводная часть айсберга обработки данных остается на мощностях «центра», так как аналитика, прогнозирование, обучение, стратегическое управляющее воздействие и прочее требуют огромных мощностей, которых никогда не будет на «границах». На пути к центру могут возникать промежуточные сетевые агрегационные узлы (шлюзы), так называемые туманные вычисления, которые помогают еще больше снизить нагрузку на «центр».
Таким образом, общая схема обработки данных может выглядеть как трехкомпонентное решение, состоящее из граничных (Edge), туманных (Fog) и облачных (Cloud) вычислений, работающих совместно над единой глобальной задачей.
Владимир Мешалкин, директор центра вычислительных комплексов, RedSys
Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!