A simple RNN has 3 time steps, and the gradient of the loss with respect to the ...
✅ Перевірена відповідь на це питання доступна нижче. Наші рішення, перевірені спільнотою, допомагають краще зрозуміти матеріал.
A simple RNN has 3 time steps, and the gradient of the loss with respect to the hiddenstate at time step 3 is 0.8. If the recurrent weight matrix has an eigenvalue of 0.5,what will be the approximate gradient backpropagated to time step 1 (ignoring inputgradients)?