Можно сказать, что матрица действует на вектор "растягивая" его вдоль собственных векторов в лямбда раз, где лямбда - соответствующие собственные числа. Тогда матрица Якоби, быть может, будет как раз показывать скорость этого "растягивания"?
@IvanChetyrbok2 күн бұрын
Постоянный лайк. Начал смотреть еще в 20. Результаты применяю на работе, кстати.
@fmin18 сағат бұрын
Спасибо, Иван! Буду рад, если поделитесь, что особенно применяете?
@IvanChetyrbok17 сағат бұрын
@@fmin Всегда пожалуйста. Можно на ты, и даже привычнее, если удобно. Моя работа связана с моделированием физических процессов и автоматики, поэтому непосредственно по своим обязанностям я знания этого курса не использую. НО. У коллег регулярно возникают вопросы и задачки, связанные с темой курса. Например из последнего: 1. Нужно найти минимум некоторой нелинейной функции примерно такого вида: (А - В/<b, x>, 0) + <a, x> with constraints k <= x <= l, <c, x> = C, where A, B, C - constants, a, b, c, x -vectors. 2. Ранее, волновая поверхность моделировалась одним способом (сумма косинуса и пилообразного сигнала), а теперь - трохоидой. Важно было, при сохранении спектра, равномерно приблизить их, поскольку есть зависимости других модулей от уровней волновой поверхности и разницу нужно было сделать поменьше. Первая легко решается аналитически, вернее я показал, что она сводится к линейной, а дальше - симплекс-методом или просто перебор на левой границе. А вторую, после недели пыхтения с бумажкой и ручкой, за несколько часов одолел численно. Они, конечно, не сложные, наверное уровня типовика. Но я могу с ними теперь справиться, а колеги, возможно, нет...
@Анатолий-щ2щ7ж7 күн бұрын
Сушкевич высшая алгебра хорошая книга дает основы
@Анатолий-щ2щ7ж7 күн бұрын
Серж. Ленг линейная. Алгебра потом Ленг алгебра это начальный уровень
@aidaralimbayev-33958 күн бұрын
А можно тоже получить доказательство на 1:01:52 "счетность vs несчетность под функцией max"?
@aidaralimbayev-33958 күн бұрын
Спасибо большое. Сейчас проходим основы оптимизации на первом курсе докторантуры. Без ваших лекций мне было бы тяжело понимать о чем речь. А также спасибо ребятам Артему Агафонову и Александру Лобанову которые направили меня на этот канал))))
@fmin7 күн бұрын
Спасибо вам! Артём и Александр - известные и уважаемые исследователи.
@aidaralimbayev-339510 күн бұрын
Спасибо большое!
@kadises503214 күн бұрын
Здравствуйте. На 1:01:54 мы находим оптимальное alpha = 1/L - это вершина параболы, которая направлена ветвями вверх => это точка ее минимума => мы можем делать только оценку снизу => транзитивности нет. Скорее всего я чего-то не понял. Можете объяснить как мы получили в итоге неравенство на 1:01:52
@kadises503214 күн бұрын
Кажется дошло. Мы как бы фиксируем заранее наилучший шаг для градиентного спуска в случае L-гладкой функции.
@fmin14 күн бұрын
@@kadises5032 Плюс отметьте, что это оценка функции сверху, а не снизу, то есть выбирать наименьшее значение оценки сверху это довольно разумно. А выбирать наименьшее значение оценки снизу бесполезно.
@kadises503214 күн бұрын
@@fmin Вы абсолютно правы. Сглупил в тот момент. Спасибо!
@ЗакарянАрсен16 күн бұрын
Здравствуйте, я так понимаю это семинары, где можно посмотреть лекции соответствующие этим занятиям?
Здравствуйте,я совсем новичок в машинном обучении.Подскажите пожалуйста ваши лекции смогут ли мне помочь разобраться в новом ремесле?
@fminАй бұрын
Здравствуйте, Амин! Для этого курса лекций нужны минимальные требования, включающие знание математического анализа, линейной алгебры, основы теории вероятности. Плюс фокус здесь всё же на методах, а не на моделях. Поэтому, я бы не назвал этот курс хорошим стартом для новичка.
@Serghey_832 ай бұрын
много паразитных выражений типа "чики-брики" и т.п.
@TheSemenFarada2 ай бұрын
и что? нельзя что-ли?
@Serghey_832 ай бұрын
ко-аксиальный кабель ко-центрические окружнусти с одним общим центром.
@lucas_kazakov19422 ай бұрын
топовый лектор
@fminАй бұрын
Спасибо!
@ClaptarTV2 ай бұрын
Спасибо за контент
@shockacademy3272 ай бұрын
19:07 Так а что там сказал Гошан? какая аксиома нарушается при Р<1? Гошану надо табло разбить, чтобы не сбивал лекционный процесс.
@fmin2 ай бұрын
Сначала придется разбить табло мне. Я за Гошана горой. P.S. нарушается неравенство треугольника.
@watermelon0guy2 ай бұрын
Чтож, начинаем готовиться ко второй пересдаче :D
@ЕвгенийБерловский-з3ш2 ай бұрын
квадрат матожидания не является выпуклым множеством? следовательно дисперсия тоже
@fmin2 ай бұрын
Надо уточнить вопрос. Матожидание - функция от вектора вероятностей, она не может быть множеством сама по себе, а вот выпуклость множества таких вероятностных векторов, при которых что-то выполняется с этой функцией или нет - уже содержательный вопрос.
@Satyam1010-N2 ай бұрын
Bro i respect Russia language, but im from ind can we have eng too ❤
@fmin2 ай бұрын
Bro, all slides are in English mipt24.fmin.xyz/program.html respect
@VladKochetov2 ай бұрын
В некоторые моменты мешают камеры студентов. Было бы славно отдельно записать экран, чтобы он не пересекался в итоге с вебками
@fmin2 ай бұрын
Олды на месте, рад видеть! Спасибо, но бывают случаи, когда мы занимаемся онлайн через телегу и тогда просто проще всего использовать её стандартный рекордер, хотя я знаю, что так качество хуже.
@alexanderkristoffel87572 ай бұрын
Правильно ли я понимаю, что при автодифференцировании обратным проходом мы по факту строим синтаксическое дерево нашей функции, где в узлах лежат вычисленные значения + метаинформация о самой операции, необходимая для дифференцирования? Как в этом случае можно проводить оптимизацию дерева, чтобы получить из него порезанный ациклический граф? Или эти оптимизации не нужны, а предвычисленных значений достаточно?
@fmin2 ай бұрын
Я, к сожалению, не знаю ответа на вопрос о том нужны ли здесь оптимизации дерева. Совершенно ясно, что для одной какой-нибудь достаточно сложной функции можно построить граф не уникальным образом. Но вот насколько жадное построение хуже какого-нибудь оптимального и делают ли что-нибудь на практике для этого - не знаю.
@romandvoryankov22763 ай бұрын
Лучший лектор, я уже целый год в шоке
@fmin2 ай бұрын
Спасибо, Роман!
@ИванИванов-у6ъ3н3 ай бұрын
Спасибо большое!
@fmin2 ай бұрын
Иван, спасибо вам!
@ИванИванов-у6ъ3н2 ай бұрын
@@fmin сдал канмин благодаря вашему курсу на твердую четверочку ХД
@almersx3 ай бұрын
На 29-й минуте. Вопрос: нет ли ошибки, когда вектор y (по определению это вектор-столбец) умножается на матрицу B слева, т.е. yB? И, соответственно, выражение <x,yB>=<xB^T,y> неверно.
@fmin3 ай бұрын
Вы правы в интуиции, но на слайде нигде не написаны размеры B и подразумевается, что такое произведение должно существовать. Единственный вариант, при котором x,y - вектора, а B - матрица и это работает - когда B - скаляр. Но если представить, что x,y, B - это матрицы согласованных размеров, то все верно т.е. пусть x - матрица m x n, B - матрица k x n, а y - матрица m x k тогда все работает
@ЗакарянАрсен3 ай бұрын
Здравствуйте, где можно найти домашние задания, которые вы задаете студентам?
@fmin3 ай бұрын
Здравствуйте, всё на сайтах курсов. Для этого, например, mipt24.fmin.xyz
@ArtemAndreev-i6e3 ай бұрын
на 1:26:22, кажется, не совсем корректное утверждение, а именно выпуклость всех множеств Лебега, не гарантирует выпуклость функции. Контрпример sqrt|x|, x\in R
@fmin3 ай бұрын
Спасибо большое, это ошибка, надо строже подходить к утверждениям. Оно работает только в одну сторону. Другой пример 1 - exp(-x^2).
@fmin3 ай бұрын
Но функции, для которых выполнена выпуклость всех множеств Лебега называют квазивыпуклыми.
@nikitasobur80113 ай бұрын
Даниил, спасибо за лекции. Скажите, эти лекции покрывают весь материал, который выложен на вашем сайте? Или там все же шире охват?
@fmin2 ай бұрын
Никита, спасибо вам! Я не знаю, о каком именно сайте идет речь. Если о fmin.xyz, то я стараюсь на него всё выкладывать, но иногда получается с запозданием. Материалы курсов точно есть на соответствующих сайтах например, mipt24.fmin.xyz; mipt23.fmin.xyz
@ВладимирГорячев-м9у3 ай бұрын
Спасибо огромное! А продолжение в этом сезоне будет? )
@fmin3 ай бұрын
Да, выкладываю потихоньку
@aramuradyan21384 ай бұрын
От предыдущего курса "Методы оптимизации" этот отличается направленностью в сторону машинного обучения?
@fmin4 ай бұрын
Да, чуть больший фокус на этом.
@nickfarshev95754 ай бұрын
Спасибо за труд и изложение темы!
@fmin4 ай бұрын
Спасибо вам, Nick!
@TheAntonZag4 ай бұрын
А можно где то презентацию скачать?
@fmin4 ай бұрын
mipt24.fmin.xyz
@TheAntonZag4 ай бұрын
@@fmin Спасибо 🙏
@buklya6874 ай бұрын
спасибо за объяснения, я сейчас повторяю весь материал, вдруг для универа пригодится, хотя все учила на курсе турбо, когда к егэ готовилась
@fmin4 ай бұрын
Знания - сила! Спасибо!
@МихаилДроздов-с3ю4 ай бұрын
на 1:35 пример с нахождением собственных значений. Тут же собственные значения не равны 1 и 4
@fmin4 ай бұрын
Спасибо вам! Это опечатка, которую я исправлю.
@CDTranslate5 ай бұрын
42:06 тарантиновский диалог
@fmin4 ай бұрын
кхе кхе)
@gunner11635 ай бұрын
Как неактивно отвечают студенты... И это уровень МФТИ? Я в школе учусь на все вопросы за них отвечаю😂
@spiritmoon34575 ай бұрын
вкусно, но сложна
@spiritmoon34575 ай бұрын
Спасибо за лекцию
@fmin5 ай бұрын
Спасибо вам!
@spiritmoon34575 ай бұрын
Если большинство задач и функций нелинейны, то тогда имеет смысл половину курса рассказывать и доказывать теоремы, связанные с выпуклостью?
@fmin5 ай бұрын
Имеет. Потому что во-первых, нелинейность не означает невыпуклость (парабола, модуль - примеров полно). Если комментарий был про невыпуклость, то все равно имеет смысл, потому что для этого случая можно формулировать и доказывать понятные теоремы. И потом пользоваться хотя бы этой интуицией на практике. Часто она работает (не всегда понятно почему).
@ArtyomDzagaryan6 ай бұрын
крутой тип очень
@fmin6 ай бұрын
Спасибо вам, Артём!
@ВладимирБойков-г5ж6 ай бұрын
Это не ЗНАМЕНИТЫЙ ФИЗТЕХ! Это, цитируя рассказчика "ДРУГАЯ ИСТОРИЯ"! Человек не знает ни методики преподавания, ни математики! Это больше похоже на рассказ студента, которые пока НЕ сдавал экзамен по данному предмету, для студентов, которые хоть что-то ХОТЯТ понять в оптимизации. На таком материале НАУЧИТЬСЯ НЕЛЬЗЯ! ВСЁ, что надо знать по этому предмету, НЕ БЫЛО РАССКАЗАНО! МАТЕМАТИКИ, ТОЧНЫХ ФОРМУЛИРОВОК ТЕОРЕМ, НЕ РАССКАЗЫВАЕТСЯ! Странное впечатление. Если сейчас так преподают на ФИЗТЕХе, то учиться там НЕ СТОИТ! КУДА СМОТРЯТ зав кафедрой и РЕКТОР?
@fmin6 ай бұрын
Здравствуйте, Владимир Алексеевич! Самому иногда противно смотреть свои старые записи 😕. Слишком много взмахов руками вместо строгих формулировок, иногда ошибки, порой проскакивают грубые словечки. Добавлю, что видео, под которым вы оставили комментарий - это семинар. Цельная картина начинается с лекций, где уважаемый лектор формулирует строгие утверждение и приводит их доказательства. Семинары же не являются копией лекций, а преследуют совершенно другие задачи - убрать страх перед новым материалом, дать интуитивное понимание, стимулировать уважаемых студентов применять теоретические знания на практике. Конечно, нельзя при этом опускаться до фактических ошибок и магического мышления. Я вижу очень много способов улучшить этот семинар и постепенно их внедряю. Отмечая справедливость критики, я совершенно не понимаю, как можно позволять себе писать незнакомому человеку в тоне вашего комментария. Я думаю, что критика, поданная в дружелюбной и конструктивной форме гораздо более эффективна в деле улучшения методических материалов. Доброго здравия!
@ВладимирБойков-г5ж6 ай бұрын
@@fmin Дорогой, автор семинара! Если это был семинар, то на семинаре, как известно ещё со времён, когда мфти был МФТИ, надо решать задачи! Здесь этого не было. Данный материал был выставлен в интернете зря! Физтех от этого, мягко говоря, не выигрывает! А если это была попытка прославиться в интернете с англоязычным подтекстом, то и это выглядело скорее как танцы. Может это была Проба Пера?
@ВладимирБойков-г5ж6 ай бұрын
Если тон комментария не понравился автору видео, то извините! Если в тоне Вы что-то увидели нечто категоричное, то это относилось скорее к руководителям (кафедры, ректору). За физтех обидно!
@d_glhf6 ай бұрын
Очень круто объясняется
@fmin6 ай бұрын
Спасибо вам, Дмитрий!
@grigorytrofimov65137 ай бұрын
очень доступная подача материала, сразу видно, что человек знает. А не делает вид особенно интересно было про model memory footprint (gpt-2 занимает >38 Гб для наивного обучения)
@fmin7 ай бұрын
Спасибо, Григорий!
@akeannyshka81487 ай бұрын
Это шикарно Cпасибо!
@fmin6 ай бұрын
Спасибо вам!
@mahmu817 ай бұрын
В Image Restoration обычно используют L1 loss: abs(x - y), т.е. не гладкую функцию, модуль. При этом все равно оптимизаторы используют с моментумом. Почему, если (теоретически) GD тут оптимален?
@fmin7 ай бұрын
Теоретические оценки этого рода рассматривают худшие задачи в классе. То есть можно представить такую негладкую задачу, в которой не будет ускорения.