* torch.log( ( w + 1. ) ).sum()
                  
                  
                  function.backward()
                  
                  
                  print(w-w.grad)
                  
                  
                  
                  
                  
                  Решение на эликсире
                  
                  
                  data = Nx.tensor([[1,2], [4,5]])
                  
                  
                  
                  
                  
                  function = fn x -> 
                  
                  
                    x
                  
                  
                    |> Nx.add(1)
                  
                  
                    |> Nx.log()
                  
                  
                    |> Nx.multiply(10)
                  
                  
                  end
                  
                  
                  
                  
                  
                  gradient = Nx.Defn.grad(function)
                  
                  
                  
                  
                  
                  Nx.subtract(data, gradient.(data))
                  
                  
                  |> Nx.to_list()
                  
                  
                  |> IO.inspect()
                  
                  
                  
                  
                  
                  Как думаете, есть шансы что датасатанисты будут использовать такое?
                  
                  
                  Помоему неочень...
                  
                  
                
import Nx data = tensor([[1,2], [4,5]]) function = fn x -> multiply(log(add(x, 1)), 10) end gradient = Nx.Defn.grad(function) subtract(data, gradient.(data)) |> to_list() |> IO.inspect()
Обсуждают сегодня