Пікірлер
@IvanChetyrbok
@IvanChetyrbok 2 күн бұрын
Можно сказать, что матрица действует на вектор "растягивая" его вдоль собственных векторов в лямбда раз, где лямбда - соответствующие собственные числа. Тогда матрица Якоби, быть может, будет как раз показывать скорость этого "растягивания"?
@IvanChetyrbok
@IvanChetyrbok 2 күн бұрын
Постоянный лайк. Начал смотреть еще в 20. Результаты применяю на работе, кстати.
@fmin
@fmin 18 сағат бұрын
Спасибо, Иван! Буду рад, если поделитесь, что особенно применяете?
@IvanChetyrbok
@IvanChetyrbok 17 сағат бұрын
@@fmin Всегда пожалуйста. Можно на ты, и даже привычнее, если удобно. Моя работа связана с моделированием физических процессов и автоматики, поэтому непосредственно по своим обязанностям я знания этого курса не использую. НО. У коллег регулярно возникают вопросы и задачки, связанные с темой курса. Например из последнего: 1. Нужно найти минимум некоторой нелинейной функции примерно такого вида: (А - В/<b, x>, 0) + <a, x> with constraints k <= x <= l, <c, x> = C, where A, B, C - constants, a, b, c, x -vectors. 2. Ранее, волновая поверхность моделировалась одним способом (сумма косинуса и пилообразного сигнала), а теперь - трохоидой. Важно было, при сохранении спектра, равномерно приблизить их, поскольку есть зависимости других модулей от уровней волновой поверхности и разницу нужно было сделать поменьше. Первая легко решается аналитически, вернее я показал, что она сводится к линейной, а дальше - симплекс-методом или просто перебор на левой границе. А вторую, после недели пыхтения с бумажкой и ручкой, за несколько часов одолел численно. Они, конечно, не сложные, наверное уровня типовика. Но я могу с ними теперь справиться, а колеги, возможно, нет...
@Анатолий-щ2щ7ж
@Анатолий-щ2щ7ж 7 күн бұрын
Сушкевич высшая алгебра хорошая книга дает основы
@Анатолий-щ2щ7ж
@Анатолий-щ2щ7ж 7 күн бұрын
Серж. Ленг линейная. Алгебра потом Ленг алгебра это начальный уровень
@aidaralimbayev-3395
@aidaralimbayev-3395 8 күн бұрын
А можно тоже получить доказательство на 1:01:52 "счетность vs несчетность под функцией max"?
@aidaralimbayev-3395
@aidaralimbayev-3395 8 күн бұрын
Спасибо большое. Сейчас проходим основы оптимизации на первом курсе докторантуры. Без ваших лекций мне было бы тяжело понимать о чем речь. А также спасибо ребятам Артему Агафонову и Александру Лобанову которые направили меня на этот канал))))
@fmin
@fmin 7 күн бұрын
Спасибо вам! Артём и Александр - известные и уважаемые исследователи.
@aidaralimbayev-3395
@aidaralimbayev-3395 10 күн бұрын
Спасибо большое!
@kadises5032
@kadises5032 14 күн бұрын
Здравствуйте. На 1:01:54 мы находим оптимальное alpha = 1/L - это вершина параболы, которая направлена ветвями вверх => это точка ее минимума => мы можем делать только оценку снизу => транзитивности нет. Скорее всего я чего-то не понял. Можете объяснить как мы получили в итоге неравенство на 1:01:52
@kadises5032
@kadises5032 14 күн бұрын
Кажется дошло. Мы как бы фиксируем заранее наилучший шаг для градиентного спуска в случае L-гладкой функции.
@fmin
@fmin 14 күн бұрын
@@kadises5032 Плюс отметьте, что это оценка функции сверху, а не снизу, то есть выбирать наименьшее значение оценки сверху это довольно разумно. А выбирать наименьшее значение оценки снизу бесполезно.
@kadises5032
@kadises5032 14 күн бұрын
@@fmin Вы абсолютно правы. Сглупил в тот момент. Спасибо!
@ЗакарянАрсен
@ЗакарянАрсен 16 күн бұрын
Здравствуйте, я так понимаю это семинары, где можно посмотреть лекции соответствующие этим занятиям?
@fmin
@fmin 15 күн бұрын
Здравствуйте, Арсен! Других занятий нет(
@SENATOROV
@SENATOROV 18 күн бұрын
актуально как никогда
@fmin
@fmin 15 күн бұрын
Спасибо вам!
@kadises5032
@kadises5032 23 күн бұрын
Замечательные лекции. Замечательно рассказываете материал. Спасибо! Продолжу смотреть этот плейлист дальше.
@fmin
@fmin 23 күн бұрын
Спасибо вам!
@jak4596
@jak4596 Ай бұрын
Спасибо, тебе !
@fmin
@fmin Ай бұрын
Спасибо!
@ЕвгенийКазанцев-у3в
@ЕвгенийКазанцев-у3в Ай бұрын
Даниил, благодарю.
@ИСКАНДАРОВАМИНКУРБАНОГЛЫ
@ИСКАНДАРОВАМИНКУРБАНОГЛЫ Ай бұрын
Здравствуйте,я совсем новичок в машинном обучении.Подскажите пожалуйста ваши лекции смогут ли мне помочь разобраться в новом ремесле?
@fmin
@fmin Ай бұрын
Здравствуйте, Амин! Для этого курса лекций нужны минимальные требования, включающие знание математического анализа, линейной алгебры, основы теории вероятности. Плюс фокус здесь всё же на методах, а не на моделях. Поэтому, я бы не назвал этот курс хорошим стартом для новичка.
@Serghey_83
@Serghey_83 2 ай бұрын
много паразитных выражений типа "чики-брики" и т.п.
@TheSemenFarada
@TheSemenFarada 2 ай бұрын
и что? нельзя что-ли?
@Serghey_83
@Serghey_83 2 ай бұрын
ко-аксиальный кабель ко-центрические окружнусти с одним общим центром.
@lucas_kazakov1942
@lucas_kazakov1942 2 ай бұрын
топовый лектор
@fmin
@fmin Ай бұрын
Спасибо!
@ClaptarTV
@ClaptarTV 2 ай бұрын
Спасибо за контент
@shockacademy327
@shockacademy327 2 ай бұрын
19:07 Так а что там сказал Гошан? какая аксиома нарушается при Р<1? Гошану надо табло разбить, чтобы не сбивал лекционный процесс.
@fmin
@fmin 2 ай бұрын
Сначала придется разбить табло мне. Я за Гошана горой. P.S. нарушается неравенство треугольника.
@watermelon0guy
@watermelon0guy 2 ай бұрын
Чтож, начинаем готовиться ко второй пересдаче :D
@ЕвгенийБерловский-з3ш
@ЕвгенийБерловский-з3ш 2 ай бұрын
квадрат матожидания не является выпуклым множеством? следовательно дисперсия тоже
@fmin
@fmin 2 ай бұрын
Надо уточнить вопрос. Матожидание - функция от вектора вероятностей, она не может быть множеством сама по себе, а вот выпуклость множества таких вероятностных векторов, при которых что-то выполняется с этой функцией или нет - уже содержательный вопрос.
@Satyam1010-N
@Satyam1010-N 2 ай бұрын
Bro i respect Russia language, but im from ind can we have eng too ❤
@fmin
@fmin 2 ай бұрын
Bro, all slides are in English mipt24.fmin.xyz/program.html respect
@VladKochetov
@VladKochetov 2 ай бұрын
В некоторые моменты мешают камеры студентов. Было бы славно отдельно записать экран, чтобы он не пересекался в итоге с вебками
@fmin
@fmin 2 ай бұрын
Олды на месте, рад видеть! Спасибо, но бывают случаи, когда мы занимаемся онлайн через телегу и тогда просто проще всего использовать её стандартный рекордер, хотя я знаю, что так качество хуже.
@alexanderkristoffel8757
@alexanderkristoffel8757 2 ай бұрын
Правильно ли я понимаю, что при автодифференцировании обратным проходом мы по факту строим синтаксическое дерево нашей функции, где в узлах лежат вычисленные значения + метаинформация о самой операции, необходимая для дифференцирования? Как в этом случае можно проводить оптимизацию дерева, чтобы получить из него порезанный ациклический граф? Или эти оптимизации не нужны, а предвычисленных значений достаточно?
@fmin
@fmin 2 ай бұрын
Я, к сожалению, не знаю ответа на вопрос о том нужны ли здесь оптимизации дерева. Совершенно ясно, что для одной какой-нибудь достаточно сложной функции можно построить граф не уникальным образом. Но вот насколько жадное построение хуже какого-нибудь оптимального и делают ли что-нибудь на практике для этого - не знаю.
@romandvoryankov2276
@romandvoryankov2276 3 ай бұрын
Лучший лектор, я уже целый год в шоке
@fmin
@fmin 2 ай бұрын
Спасибо, Роман!
@ИванИванов-у6ъ3н
@ИванИванов-у6ъ3н 3 ай бұрын
Спасибо большое!
@fmin
@fmin 2 ай бұрын
Иван, спасибо вам!
@ИванИванов-у6ъ3н
@ИванИванов-у6ъ3н 2 ай бұрын
@@fmin сдал канмин благодаря вашему курсу на твердую четверочку ХД
@almersx
@almersx 3 ай бұрын
На 29-й минуте. Вопрос: нет ли ошибки, когда вектор y (по определению это вектор-столбец) умножается на матрицу B слева, т.е. yB? И, соответственно, выражение <x,yB>=<xB^T,y> неверно.
@fmin
@fmin 3 ай бұрын
Вы правы в интуиции, но на слайде нигде не написаны размеры B и подразумевается, что такое произведение должно существовать. Единственный вариант, при котором x,y - вектора, а B - матрица и это работает - когда B - скаляр. Но если представить, что x,y, B - это матрицы согласованных размеров, то все верно т.е. пусть x - матрица m x n, B - матрица k x n, а y - матрица m x k тогда все работает
@ЗакарянАрсен
@ЗакарянАрсен 3 ай бұрын
Здравствуйте, где можно найти домашние задания, которые вы задаете студентам?
@fmin
@fmin 3 ай бұрын
Здравствуйте, всё на сайтах курсов. Для этого, например, mipt24.fmin.xyz
@ArtemAndreev-i6e
@ArtemAndreev-i6e 3 ай бұрын
на 1:26:22, кажется, не совсем корректное утверждение, а именно выпуклость всех множеств Лебега, не гарантирует выпуклость функции. Контрпример sqrt|x|, x\in R
@fmin
@fmin 3 ай бұрын
Спасибо большое, это ошибка, надо строже подходить к утверждениям. Оно работает только в одну сторону. Другой пример 1 - exp(-x^2).
@fmin
@fmin 3 ай бұрын
Но функции, для которых выполнена выпуклость всех множеств Лебега называют квазивыпуклыми.
@nikitasobur8011
@nikitasobur8011 3 ай бұрын
Даниил, спасибо за лекции. Скажите, эти лекции покрывают весь материал, который выложен на вашем сайте? Или там все же шире охват?
@fmin
@fmin 2 ай бұрын
Никита, спасибо вам! Я не знаю, о каком именно сайте идет речь. Если о fmin.xyz, то я стараюсь на него всё выкладывать, но иногда получается с запозданием. Материалы курсов точно есть на соответствующих сайтах например, mipt24.fmin.xyz; mipt23.fmin.xyz
@ВладимирГорячев-м9у
@ВладимирГорячев-м9у 3 ай бұрын
Спасибо огромное! А продолжение в этом сезоне будет? )
@fmin
@fmin 3 ай бұрын
Да, выкладываю потихоньку
@aramuradyan2138
@aramuradyan2138 4 ай бұрын
От предыдущего курса "Методы оптимизации" этот отличается направленностью в сторону машинного обучения?
@fmin
@fmin 4 ай бұрын
Да, чуть больший фокус на этом.
@nickfarshev9575
@nickfarshev9575 4 ай бұрын
Спасибо за труд и изложение темы!
@fmin
@fmin 4 ай бұрын
Спасибо вам, Nick!
@TheAntonZag
@TheAntonZag 4 ай бұрын
А можно где то презентацию скачать?
@fmin
@fmin 4 ай бұрын
mipt24.fmin.xyz
@TheAntonZag
@TheAntonZag 4 ай бұрын
​@@fmin Спасибо 🙏
@buklya687
@buklya687 4 ай бұрын
спасибо за объяснения, я сейчас повторяю весь материал, вдруг для универа пригодится, хотя все учила на курсе турбо, когда к егэ готовилась
@fmin
@fmin 4 ай бұрын
Знания - сила! Спасибо!
@МихаилДроздов-с3ю
@МихаилДроздов-с3ю 4 ай бұрын
на 1:35 пример с нахождением собственных значений. Тут же собственные значения не равны 1 и 4
@fmin
@fmin 4 ай бұрын
Спасибо вам! Это опечатка, которую я исправлю.
@CDTranslate
@CDTranslate 5 ай бұрын
42:06 тарантиновский диалог
@fmin
@fmin 4 ай бұрын
кхе кхе)
@gunner1163
@gunner1163 5 ай бұрын
Как неактивно отвечают студенты... И это уровень МФТИ? Я в школе учусь на все вопросы за них отвечаю😂
@spiritmoon3457
@spiritmoon3457 5 ай бұрын
вкусно, но сложна
@spiritmoon3457
@spiritmoon3457 5 ай бұрын
Спасибо за лекцию
@fmin
@fmin 5 ай бұрын
Спасибо вам!
@spiritmoon3457
@spiritmoon3457 5 ай бұрын
Если большинство задач и функций нелинейны, то тогда имеет смысл половину курса рассказывать и доказывать теоремы, связанные с выпуклостью?
@fmin
@fmin 5 ай бұрын
Имеет. Потому что во-первых, нелинейность не означает невыпуклость (парабола, модуль - примеров полно). Если комментарий был про невыпуклость, то все равно имеет смысл, потому что для этого случая можно формулировать и доказывать понятные теоремы. И потом пользоваться хотя бы этой интуицией на практике. Часто она работает (не всегда понятно почему).
@ArtyomDzagaryan
@ArtyomDzagaryan 6 ай бұрын
крутой тип очень
@fmin
@fmin 6 ай бұрын
Спасибо вам, Артём!
@ВладимирБойков-г5ж
@ВладимирБойков-г5ж 6 ай бұрын
Это не ЗНАМЕНИТЫЙ ФИЗТЕХ! Это, цитируя рассказчика "ДРУГАЯ ИСТОРИЯ"! Человек не знает ни методики преподавания, ни математики! Это больше похоже на рассказ студента, которые пока НЕ сдавал экзамен по данному предмету, для студентов, которые хоть что-то ХОТЯТ понять в оптимизации. На таком материале НАУЧИТЬСЯ НЕЛЬЗЯ! ВСЁ, что надо знать по этому предмету, НЕ БЫЛО РАССКАЗАНО! МАТЕМАТИКИ, ТОЧНЫХ ФОРМУЛИРОВОК ТЕОРЕМ, НЕ РАССКАЗЫВАЕТСЯ! Странное впечатление. Если сейчас так преподают на ФИЗТЕХе, то учиться там НЕ СТОИТ! КУДА СМОТРЯТ зав кафедрой и РЕКТОР?
@fmin
@fmin 6 ай бұрын
Здравствуйте, Владимир Алексеевич! Самому иногда противно смотреть свои старые записи 😕. Слишком много взмахов руками вместо строгих формулировок, иногда ошибки, порой проскакивают грубые словечки. Добавлю, что видео, под которым вы оставили комментарий - это семинар. Цельная картина начинается с лекций, где уважаемый лектор формулирует строгие утверждение и приводит их доказательства. Семинары же не являются копией лекций, а преследуют совершенно другие задачи - убрать страх перед новым материалом, дать интуитивное понимание, стимулировать уважаемых студентов применять теоретические знания на практике. Конечно, нельзя при этом опускаться до фактических ошибок и магического мышления. Я вижу очень много способов улучшить этот семинар и постепенно их внедряю. Отмечая справедливость критики, я совершенно не понимаю, как можно позволять себе писать незнакомому человеку в тоне вашего комментария. Я думаю, что критика, поданная в дружелюбной и конструктивной форме гораздо более эффективна в деле улучшения методических материалов. Доброго здравия!
@ВладимирБойков-г5ж
@ВладимирБойков-г5ж 6 ай бұрын
@@fmin Дорогой, автор семинара! Если это был семинар, то на семинаре, как известно ещё со времён, когда мфти был МФТИ, надо решать задачи! Здесь этого не было. Данный материал был выставлен в интернете зря! Физтех от этого, мягко говоря, не выигрывает! А если это была попытка прославиться в интернете с англоязычным подтекстом, то и это выглядело скорее как танцы. Может это была Проба Пера?
@ВладимирБойков-г5ж
@ВладимирБойков-г5ж 6 ай бұрын
Если тон комментария не понравился автору видео, то извините! Если в тоне Вы что-то увидели нечто категоричное, то это относилось скорее к руководителям (кафедры, ректору). За физтех обидно!
@d_glhf
@d_glhf 6 ай бұрын
Очень круто объясняется
@fmin
@fmin 6 ай бұрын
Спасибо вам, Дмитрий!
@grigorytrofimov6513
@grigorytrofimov6513 7 ай бұрын
очень доступная подача материала, сразу видно, что человек знает. А не делает вид особенно интересно было про model memory footprint (gpt-2 занимает >38 Гб для наивного обучения)
@fmin
@fmin 7 ай бұрын
Спасибо, Григорий!
@akeannyshka8148
@akeannyshka8148 7 ай бұрын
Это шикарно Cпасибо!
@fmin
@fmin 6 ай бұрын
Спасибо вам!
@mahmu81
@mahmu81 7 ай бұрын
В Image Restoration обычно используют L1 loss: abs(x - y), т.е. не гладкую функцию, модуль. При этом все равно оптимизаторы используют с моментумом. Почему, если (теоретически) GD тут оптимален?
@fmin
@fmin 7 ай бұрын
Теоретические оценки этого рода рассматривают худшие задачи в классе. То есть можно представить такую негладкую задачу, в которой не будет ускорения.
@Об1ВаН
@Об1ВаН 7 ай бұрын
ооо да, маквин готов🎉
@eugenesuperbichkov5672
@eugenesuperbichkov5672 7 ай бұрын
сххххренали
@maksimus332
@maksimus332 7 ай бұрын
Спасибо что вы есть!
@fmin
@fmin 7 ай бұрын
Спасибо вам!