ИМХО, хайп вокруг Data Science уже не утихнет никогда. Сейчас человеком и связанными с ним техническими системами генерируется такая бездна данных, что без специально обученных людей ее просто не обработать. Это, к примеру, системы видеонаблюдения, которые стоят в метро, на улицах, на дорогах, и которые распознают людей по лицам, а машины по номерам и запоминают в своих электронных мозгах кто куда поехал. Это и наше близкое будущее - беспилотные электромобили, которые для прокладки маршрута в реальной дорожной обстановки собирают со своих датчиков огромные объемы информации (видео, лазерное сканирование, радар, инфракрасные датчики) и могут обмениваться обработанными данными с другими электромобилями и системами управления дорожным движением (умными светофорами, шлагбаумами и т.д.). Это и роботические производства, где в цехах установлена куча датчиков (как на роботах, так и автономно), которые широким потоком гонят телеметрию в цифровой двойник (модель) фабрики, а цифровой двойник уже решает всё ли на фабрике в порядке, все ли роботы исправны и загружены и как оптимально спланировать работу фабрики на следующий период времени. Плюс сами роботы уже автономны - роботы-манипуляторы различают типы деталей с помощью обученных YOLO-сетей по видео (реальный, кстати, кейс) и берут какую нужно, а роботы-тележки сами с помощью Google Cartographer по видеокамере прокладывают путь до склада и обратно. И тоже постоянно телеметрируют в цифровой двойник. Все это - терабайты данных в час (если не в минуту), без продвинутых Data Science методов это просто не обработать. По этой же причине не утихнет хайп и вокруг нейронных сетей. Потому как, сейчас только нейронные сети в силу своего парараллельной вычислительной природы могут обрабатывать такие объемы информации за разумное время, близкое к реальному.
Обсуждают сегодня