... 0. 0. 0.]
[0. 0. 0. ... 0. 0. 0.]
[0. 0. 0. ... 0. 0. 0.]
...
[0. 0. 0. ... 0. 0. 0.]
[0. 0. 0. ... 0. 0. 0.]
[0. 0. 0. ... 0. 0. 0.]]
В нём 2048 строк и 1200 столбцов
Мне нужно разбить его на подматрицы с заданными высотой и шириной
гугление не особо помогло, сам пыжился через forы, но массив большой слишком. Нет идей, что с этим делать?
в группе python beginners молчат, решил спросить здесь
однозначно numpy
Вероятно при помощи библиотеки pandas: pd.Series или pd.DataFrame
Спасибо, буду чекать сейчас
Это постоянно сыпящиеся данные? Скорость обработки в приоритете? Нужно ли обрабатывать эти новые данные? Если не нужно, то можно не создавать новые массивы, а использовать указатели на области в памяти, это будет заметно быстрее.
это распаршенный кэш, надо разбить и сделать датасет для нейросети. Потом собрать обратно На указателях не получится нейросеть обучить
Тогда DataFrame ))
Обсуждают сегодня