1, padding=1, bias=False).cuda();
with torch.no_grad():
start = time.time();
for _ in range(10):
y = conv(x);
torch.cuda.synchronize();
print(time.time() - start);
Интересно, где ему тут в память упереться?
Так наоборот
16МБ — должно влезать в кеш l2 карты полностью
Обсуждают сегодня