кол-ва данных? Речь идёт о 100к+ записях с отношениями.
Пробовал использовать Laravel Excel, но спустя 3 минуты с момента запуска выгрузки, отвалился по таймауту с 502 кодом.
Пробовал Fast Excel - там упёрся в память.
Может кто-то из лара-бойцов уже побеждал подобного рода проблему?
Обрабатывать в консоли. Либо использовать CSV
Оффтопа ради: кто-то действительно будет смотреть в эксель на 100к данных?)
Валится на чем, на чтении или на последующей обработке?
а как записи обрабатываешь и выбираешь, chunk функцию используешь? решение тут выбирать записи порционно и дописывать в файл, обрабатывать все в бэкграунде с таймаутом на задачу например 20 минут
https://github.com/box/spout Писать чанками
А ты что, синхронно пишешь, что ли?
посмотри сначала, сколько запросов к БД происходит у тебя при генерации. Возможно, из-за тотального изнасилования базы такое происходит.
Обсуждают сегодня