logo

Crowdly

A simple RNN has 3 time steps, and the gradient of the loss with respect to the ...

✅ Перевірена відповідь на це питання доступна нижче. Наші рішення, перевірені спільнотою, допомагають краще зрозуміти матеріал.

A simple RNN has 3 time steps, and the gradient of the loss with respect to the hidden

state at time step 3 is 0.8. If the recurrent weight matrix has an eigenvalue of 0.5,

what will be the approximate gradient backpropagated to time step 1 (ignoring input

gradients)?
Більше питань подібних до цього

Хочете миттєвий доступ до всіх перевірених відповідей на moodle.iitdh.ac.in?

Отримайте необмежений доступ до відповідей на екзаменаційні питання - встановіть розширення Crowdly зараз!