logo

Crowdly

Natural Language Processing

Шукаєте відповіді та рішення тестів для Natural Language Processing? Перегляньте нашу велику колекцію перевірених відповідей для Natural Language Processing в moodle.iitdh.ac.in.

Отримайте миттєвий доступ до точних відповідей та детальних пояснень для питань вашого курсу. Наша платформа, створена спільнотою, допомагає студентам досягати успіху!

In vector semantics, the meaning of a word can change based on context. If the word "bark" is represented in two different contexts—one with "tree" and another with "dog"—what does this imply about the vector representation?

Переглянути це питання
A simple RNN has 3 time steps, and the gradient of the loss with respect to the hidden

state at time step 3 is 0.8. If the recurrent weight matrix has an eigenvalue of 0.5,

what will be the approximate gradient backpropagated to time step 1 (ignoring input

gradients)?
Переглянути це питання

The distributional hypothesis suggests that words occurring in similar contexts tend to have similar meanings. If a new word "glorp" appears frequently with words like "delicious," "sauce," and "spicy," what can be inferred about "glorp"?

Переглянути це питання

In a word embedding model, if the vector for "king" is represented as ( V_{king} ) and the vector for "queen" is ( V_{queen} ), which of the following operations would most likely yield a vector close to "woman"?

Переглянути це питання

If two words, "car" and "automobile," have high cosine similarity in their vector representations, what does this imply about their meanings?

Переглянути це питання

The precision and recall for the urgent class respectively is

Переглянути це питання

Which of the following forms of gradient descent updates the weight after computing the gradient over the entire dataset ?

Переглянути це питання
In a sentiment analysis task for logistic regression, it is observed that the true label is 1 and the predicted probability for y is 0.7 What is the cross entropy loss for the above prediction ?
Переглянути це питання

Compute the micro-averaged precision for the above confusion matrix.

Переглянути це питання

You are working on finding the maximum likelihood estimate of seeing a bigram {“A”, “B”} where “B” and “A” are tokens and “B” follows

“A”. The frequency of the bigram {“A”, “B”} in the corpus is 999 and “A” appears 2000 times in the corpus. You apply Laplace Smoothing. If there are 10,000 unique tokens in the corpus. What is the maximum likelihood estimate of bigram {“A”, “B”} ? 

0%
0%
0%
Переглянути це питання

Хочете миттєвий доступ до всіх перевірених відповідей на moodle.iitdh.ac.in?

Отримайте необмежений доступ до відповідей на екзаменаційні питання - встановіть розширення Crowdly зараз!