Математика машинного обучения <a href="#" class="seekto" data-time="5">0:05</a> - метод наименьших квадратов, линейная регрессия <a href="#" class="seekto" data-time="135">2:15</a> - если х одномерный, система нормальных уравнений ( с 2 уравнениями ) <a href="#" class="seekto" data-time="288">4:48</a> - если х двумерный(многомерный), система нормальных уравнений ( с 3 уравнениями ) <a href="#" class="seekto" data-time="830">13:50</a> - можно ли использовать метод наименьших квадратов для решения задачи классификации? <a href="#" class="seekto" data-time="1190">19:50</a> - логистическая регрессия <a href="#" class="seekto" data-time="1490">24:50</a> - разделяющая поверхность - линейная (гиперплоскость) <a href="#" class="seekto" data-time="1610">26:50</a> - пояснения, о пороговом значении <a href="#" class="seekto" data-time="2065">34:25</a> - логистическая регрессия - маленькая нейронная сеть <a href="#" class="seekto" data-time="2206">36:46</a> - функция softmax (обобщение логистической регрессии на k классов) <a href="#" class="seekto" data-time="2435">40:35</a> - пояснения, о функции softmax для 2-х классов <a href="#" class="seekto" data-time="3120">52:00</a> - "голая" логистическая регрессия vs softmax (для k = 2) <a href="#" class="seekto" data-time="3315">55:15</a> - как обучать модель? (как подбирать параметры) <a href="#" class="seekto" data-time="3347">55:47</a> - logloss-функция для 2-х классов <a href="#" class="seekto" data-time="66">1:06</a>:10 - logloss-функция для k классов <a href="#" class="seekto" data-time="68">1:08</a>:30 - пояснения, принцип максимального правдоподобия