* torch.log( ( w + 1. ) ).sum()
function.backward()
print(w-w.grad)
Решение на эликсире
data = Nx.tensor([[1,2], [4,5]])
function = fn x ->
x
|> Nx.add(1)
|> Nx.log()
|> Nx.multiply(10)
end
gradient = Nx.Defn.grad(function)
Nx.subtract(data, gradient.(data))
|> Nx.to_list()
|> IO.inspect()
Как думаете, есть шансы что датасатанисты будут использовать такое?
Помоему неочень...
import Nx data = tensor([[1,2], [4,5]]) function = fn x -> multiply(log(add(x, 1)), 10) end gradient = Nx.Defn.grad(function) subtract(data, gradient.(data)) |> to_list() |> IO.inspect()
Обсуждают сегодня