Регуляризация в Sklearn | L1, L2, Elastic Net | Lasso, Ridge, LogisticRegression | Машинное обучение

  Рет қаралды 3,944

machine learrrning

machine learrrning

Күн бұрын

Пікірлер: 17
@АлександрПетченко-з8в
@АлександрПетченко-з8в Жыл бұрын
Наверное лучший канал по машинному обучению. Идеальная подача информации для тех кто действительно хочет разобраться. Странно, что так людей мало,наверно всё спят)
@machine_learrrning
@machine_learrrning Жыл бұрын
Огромное спасибо! Очень рада, что нравятся мои видео 😻
@Diabolic9595
@Diabolic9595 Жыл бұрын
Сердечно благодарю за уроки хорошего содержания по машинному learrrning. Разбираюсь в ML по Вашим роликам и закрываю пробелы в этой интересной и перспективной сфере 🤓
@machine_learrrning
@machine_learrrning Жыл бұрын
Рада, что с помощью моих видео возникает лучшее понимание сферы 😊
@dqwasdw
@dqwasdw Жыл бұрын
Огромное спасибо за все видосы, благодаря им сдал экзамен по ML на 5
@machine_learrrning
@machine_learrrning Жыл бұрын
Пожалуйста! Поздравляю с успешной сдачей экзамена :)
@Tolyeschebudet
@Tolyeschebudet Жыл бұрын
Отлично , продолжай!
@ЮлияГраница-н3р
@ЮлияГраница-н3р Жыл бұрын
Классный материал! Большое спасибо!
@machine_learrrning
@machine_learrrning Жыл бұрын
Рада помочь! 😻
@T2R2D2
@T2R2D2 Жыл бұрын
С наступающим Новым годом!🥳🥳🥳🥳🥳 Замечательный курс! Какая Вы молодец!
@machine_learrrning
@machine_learrrning Жыл бұрын
Спасибо за поздравления и за приятные слова! Вас тоже с наступающими праздниками 😊
@СалаватФайзуллин-щ3д
@СалаватФайзуллин-щ3д Жыл бұрын
Здравствуйте, у вас замечательные уроки! Но у меня накопился один огромный глупый вопрос. Вот смотрите: линейная регрессия описывается весами и свободным членом - это все линейно, но как тогда наша регрессия способна улавливать нелинейные зависимости, если она описывается линейным уравнением? Много где искал ответ на этот вопрос, но везде видел странные ответы. Заранее благодарю!
@machine_learrrning
@machine_learrrning Жыл бұрын
Линейная регрессия сможет находить нелинейные закономерности, если сделать полиномизацию признаков, повозводить их в степени. То есть как только ваши признаки будут в виде признак^2, признак^3 и тд, то и модель сможет находить нелинейные закономерности с этими признаками, но по факту модель остается линейной, просто из-за того, что признаки усложненные и получается эффект нелинейности.
@d14400
@d14400 11 ай бұрын
Линейная по весам, признаки в любо степени, даже перемножать признаки можно
@elenagavrilova3109
@elenagavrilova3109 Жыл бұрын
очень здорово, но жаль очень нечетко видно, хотелось бы код читать вместе с Вами...
@d14400
@d14400 11 ай бұрын
Ссылка на код есть в описании ролика
@elenagavrilova3109
@elenagavrilova3109 11 ай бұрын
@@d14400 спасибо
Which One Is The Best - From Small To Giant #katebrush #shorts
00:17
Man Mocks Wife's Exercise Routine, Faces Embarrassment at Work #shorts
00:32
Fabiosa Best Lifehacks
Рет қаралды 6 МЛН
GIANT Gummy Worm Pt.6 #shorts
00:46
Mr DegrEE
Рет қаралды 117 МЛН
Help Me Celebrate! 😍🙏
00:35
Alan Chikin Chow
Рет қаралды 65 МЛН
Линейная регрессия и L1/L2-регуляризация
13:56
Центр digital профессий ITtensive
Рет қаралды 6 М.
Which One Is The Best - From Small To Giant #katebrush #shorts
00:17