44гб рандомичных цифр. Я генерю файл, разбиваю на мелкие файлы уже отсортированные, а дальше упираюсь в проблему как синхронно читать строки в файлах, брать следующую строку в одном файле. Кто может что то посоветовать?
почему нода?
Читать и обрабатывать чанками
можно применить сортировку вставками
Синхронно хз, но есть такая штука: https://nodejs.org/api/fs.html#fs_class_fs_readstream
на ум только такие извращения приходят - создаешь очереди строк под то количество файлов, что у тебя есть. На каждый файл readline - как только пришла строк - шлешь сообщение с этой строкой. Обработчик сообщения кладет в соответствующую очередь с номером строки и проверяет - все ли очереди заполнены на текущем уровне. Если да - все строки извлекаются и шлется еще одно сообщение. Таким образом мы будем уверены, что все строки были прочитаны и что мы ничего не потеряем
аддон на с++ не облегчить задачу? или я не понял 🙈
а откуда у тебя вообще такая задача, если не секерет, 44 гб рандомных чисел... тебе где-то выдали датасет в виде россыпи файлов и с ним теперь нужно что-то делать?
Обсуждают сегодня