Исправились, код стало лучше видно, т.к. видео окошко с лектором не занимает треть экрана. Спасибо!
@smarkelov2 жыл бұрын
А зачем в функцию потерь передавать softmax, если сама функция вызывает его. Получается мы делаем два преобразования softmax???
@leowhynot Жыл бұрын
тоже не понял прикола. ранее говорили, что надо кидать nn.CrossEntropyLoss() логиты, а здесь суют уже вероятности
@ИванНевский-э5ы Жыл бұрын
может, чтобы модель при использовании после обучения, возвращала вероятности, а не логиты
@juniorly394210 ай бұрын
В Stepik’е объяснили, что softmax(softmax(x))=softmax(x). Но почему нельзя это пояснить в лекции?!? И неужели за два года нельзя было команде курса ответить на вопрос в комментарии?!?