Регуляризация в Sklearn | L1, L2, Elastic Net | Lasso, Ridge, LogisticRegression | Машинное обучение

  Рет қаралды 4,288

machine learrrning

machine learrrning

Күн бұрын

Пікірлер: 17
@АлександрПетченко-з8в
@АлександрПетченко-з8в 2 жыл бұрын
Наверное лучший канал по машинному обучению. Идеальная подача информации для тех кто действительно хочет разобраться. Странно, что так людей мало,наверно всё спят)
@machine_learrrning
@machine_learrrning 2 жыл бұрын
Огромное спасибо! Очень рада, что нравятся мои видео 😻
@Diabolic9595
@Diabolic9595 Жыл бұрын
Сердечно благодарю за уроки хорошего содержания по машинному learrrning. Разбираюсь в ML по Вашим роликам и закрываю пробелы в этой интересной и перспективной сфере 🤓
@machine_learrrning
@machine_learrrning Жыл бұрын
Рада, что с помощью моих видео возникает лучшее понимание сферы 😊
@dqwasdw
@dqwasdw Жыл бұрын
Огромное спасибо за все видосы, благодаря им сдал экзамен по ML на 5
@machine_learrrning
@machine_learrrning Жыл бұрын
Пожалуйста! Поздравляю с успешной сдачей экзамена :)
@Tolyeschebudet
@Tolyeschebudet 2 жыл бұрын
Отлично , продолжай!
@T2R2D2
@T2R2D2 2 жыл бұрын
С наступающим Новым годом!🥳🥳🥳🥳🥳 Замечательный курс! Какая Вы молодец!
@machine_learrrning
@machine_learrrning 2 жыл бұрын
Спасибо за поздравления и за приятные слова! Вас тоже с наступающими праздниками 😊
@ЮлияГраница-н3р
@ЮлияГраница-н3р Жыл бұрын
Классный материал! Большое спасибо!
@machine_learrrning
@machine_learrrning Жыл бұрын
Рада помочь! 😻
@СалаватФайзуллин-щ3д
@СалаватФайзуллин-щ3д Жыл бұрын
Здравствуйте, у вас замечательные уроки! Но у меня накопился один огромный глупый вопрос. Вот смотрите: линейная регрессия описывается весами и свободным членом - это все линейно, но как тогда наша регрессия способна улавливать нелинейные зависимости, если она описывается линейным уравнением? Много где искал ответ на этот вопрос, но везде видел странные ответы. Заранее благодарю!
@machine_learrrning
@machine_learrrning Жыл бұрын
Линейная регрессия сможет находить нелинейные закономерности, если сделать полиномизацию признаков, повозводить их в степени. То есть как только ваши признаки будут в виде признак^2, признак^3 и тд, то и модель сможет находить нелинейные закономерности с этими признаками, но по факту модель остается линейной, просто из-за того, что признаки усложненные и получается эффект нелинейности.
@d14400
@d14400 Жыл бұрын
Линейная по весам, признаки в любо степени, даже перемножать признаки можно
@elenagavrilova3109
@elenagavrilova3109 Жыл бұрын
очень здорово, но жаль очень нечетко видно, хотелось бы код читать вместе с Вами...
@d14400
@d14400 Жыл бұрын
Ссылка на код есть в описании ролика
@elenagavrilova3109
@elenagavrilova3109 Жыл бұрын
@@d14400 спасибо
BAYGUYSTAN | 1 СЕРИЯ | bayGUYS
36:55
bayGUYS
Рет қаралды 1,9 МЛН
Каха и дочка
00:28
К-Media
Рет қаралды 3,4 МЛН
Гениальное изобретение из обычного стаканчика!
00:31
Лютая физика | Олимпиадная физика
Рет қаралды 4,8 МЛН
We Attempted The Impossible 😱
00:54
Topper Guild
Рет қаралды 56 МЛН
BAYGUYSTAN | 1 СЕРИЯ | bayGUYS
36:55
bayGUYS
Рет қаралды 1,9 МЛН