и юзеру нужно ждать ответа. Запрос в среднем занимает 30-40 секунд. Можно ли как-то реализовать реальный progress bar, чтобы показывать юзеру реальные степы выполнения реквеста? Я так понимаю реализовать это можно только условным WS, когда сервер будет посылать эвенты о стадии запроса? Хардкодить не хочу
Ты сам ответил на свой вопрос. О степени выполнения запроса ты можешь узнать только от сервера, значит тебе или нужен WS или запросы о статусе каждые n секунд. В теории может быть есть какая-нибудь либа для клиент и сервера, которая сама будет запросы слать и на них же на бэке отвечать. Но все равно все упирается в то, что бэк должен сам сообщать о статусе выполнения запроса
Ну вот собственно и хотел уточнить 🙂 Всегда есть чувство что я чего-то не знаю 😂
Вообще прогресс бар на вычисления - это оверхеад в большинстве случаев. Если даже запрос длится минуту, достаточно написать об этом пользователю и поставить лоадер В конечном итоге, большое количество затраченного времени на прогресс бар не сильно улучшит пользовательский опыт и никак не ускорит время выполнения запроса
Скорее поинт в том чтобы дать пользователю понять что ничего не сломалось и ему реально нужно подождать около минуты. Минута ожидания на сайте это очень много на самом деле, для многих 10 ескунд загрузки уже подразумевает «что-то сломалось». А так будет некий интерактив. А если интерактив будет еще и реальный, то тогда юзер точно не будет переживать Ну это я так думаю конечно, увы не UX эксперт
Тоже не ux эксперт, но если сайт подразумевает функцию поиска в каком-то большом массиве данных - надо просто сообщить пользователю об этом вместе с лоадером Плюс часто после например 10 или 30 секунд пишут текст по типу "запрос идёт дольше обычного, не волнуйтесь, скоро все загрузиться"
А если не секрет, что за вычисления у тебя такие долгие ?
Скорее это не поиск, а рассчет ML модели В принципе это всегда занимает 30+ секунд Соглашусь, что наверное было бы проще всего просто показать месседж «этот запрос может занять 30+ секунд» и все
А ты на модели просто какие-то гипер-параметры меняешь ? Или ты по готовой модели делаешь вычисления ?
Увы не я это делаю, а мой коллега, и в ML я полный ноль, но вроде бы он с нуля пилит вычисления базируясь на входящих данных Юзер может выбрать некоторые топики, и на основании них создать модель аудитории, под которую будет подаваться реклама. И вот сами вычисления это определение охвата, уровень конфиденциальности, список примерных статей где реклама высветится и еще пачка параметров которые я не понимаю 😄
Можно собрать статистику по самым выбираемым топикам, и дальше на их основе нагенерить модели, которые можно засунуть в кэшер или куда-то ещё. Тогда можно будет на самые частые запросы не рассчитывать новую модель а просто брать готовую
Вроде бы это в роадмапе уже есть, но уточню. Очень валидный коммент, спасибо 🙂
Обсуждают сегодня