Недавно я встретил tf.nn.sparse_softmax_cross_entropy_with_logits, и я не могу понять, что разница сравнивается с tf.nn.softmax_cross_entropy_with_logits.
Единственное отличие в том, что обучающие векторы y
должны однострочное кодирование при использовании sparse_softmax_cross_entropy_with_logits
?
Чтение API Я не смог найти другую разницу по сравнению с softmax_cross_entropy_with_logits
... но зачем нам нужна дополнительная функция?
Не следует ли softmax_cross_entropy_with_logits
получать те же результаты, что и sparse_softmax_cross_entropy_with_logits
, если он снабжен однокварными закодированными данными/векторами обучения?