Question Answering
1:07:54
Жыл бұрын
Towards ChatGPT
1:09:23
Жыл бұрын
Презентация задач
31:35
Пікірлер
@pashak111
@pashak111 Ай бұрын
Ваще нихера не понял
@elcolex777
@elcolex777 Ай бұрын
Кому нужна ссылка на колаб. Сделайте скриншот экрана, а потом на картинке автоматически распознается ссылка в браузере)) Я по крайней мере так ее скопировал и открыл
@elcolex777
@elcolex777 Ай бұрын
colab.research.google.com/drive/1PbCn-ZuzgFt3A35evIG-ZxPWqH8RfzU0#scrollTo=cqG7F2RVFElv
@kookooyob3440
@kookooyob3440 2 ай бұрын
Прямо лучшее, что нашел по данной теме!
@kookooyob3440
@kookooyob3440 2 ай бұрын
Очень доступная подача, спасибо!
@ВиталийПавлов-п9ц
@ВиталийПавлов-п9ц 4 ай бұрын
Спасибо большое, очень полезно!
@physwimath
@physwimath 5 ай бұрын
Спасибо! Узнал много нового для себя!
@olegderevenets8943
@olegderevenets8943 7 ай бұрын
Для интересующихся графами рекомендую свободно распространяемую электронную книгу «Графомания» (автор Деревенец О.В.). Даны решения задач с исходными текстами и контрольными примерами. Рассмотрены следующие темы: Задачи на множествах: • разбиение множества на подмножества; • задача о наименьшем разбиении (ЗНР); • задача о наименьшем покрытии (ЗНП). Группа задач на достижимость: • взаимная достижимость вершин; • кратчайшие пути между вершинами; • выделение сильно связанных компонент. Группа задач на размещение: • независимые вершины и клики; • доминирующие множества; • раскраски; • центры; • p-центры; • p-медианы. Остовные деревья Группа задач о потоках: • максимальный поток в сети; • поток, ограниченный сверху и снизу; • минимальная стоимость потока. Паросочетания на взвешенных графах: • паросочетание в двудольном графе; • паросочетание в произвольном графе. Цикл Эйлера и задача почтальона на взвешенных графах: • на неориентированном графе; • на орграфе. Задачи Гамильтона и коммивояжёра на взвешенных графах: • разомкнутая задача Гамильтона; • замкнутая задача Гамильтона (контур); • комбинирование методов для задач Гамильтона; • замкнутая и разомкнутая задачи коммивояжёра.
@olegderevenets8943
@olegderevenets8943 7 ай бұрын
Для интересующихся графами рекомендую свободно распространяемую электронную книгу «Графомания» (автор Деревенец О.В.). Даны решения задач с исходными текстами и контрольными примерами. Рассмотрены следующие темы: Задачи на множествах: • разбиение множества на подмножества; • задача о наименьшем разбиении (ЗНР); • задача о наименьшем покрытии (ЗНП). Группа задач на достижимость: • взаимная достижимость вершин; • кратчайшие пути между вершинами; • выделение сильно связанных компонент. Группа задач на размещение: • независимые вершины и клики; • доминирующие множества; • раскраски; • центры; • p-центры; • p-медианы. Остовные деревья Группа задач о потоках: • максимальный поток в сети; • поток, ограниченный сверху и снизу; • минимальная стоимость потока. Паросочетания на взвешенных графах: • паросочетание в двудольном графе; • паросочетание в произвольном графе. Цикл Эйлера и задача почтальона на взвешенных графах: • на неориентированном графе; • на орграфе. Задачи Гамильтона и коммивояжёра на взвешенных графах: • разомкнутая задача Гамильтона; • замкнутая задача Гамильтона (контур); • комбинирование методов для задач Гамильтона; • замкнутая и разомкнутая задачи коммивояжёра.
@Andrew_Davidson
@Andrew_Davidson 7 ай бұрын
Есть курсач: Моделирование решения задачи о рюкзаке на языке C++ Arturchik777 (TG)
@myname-gx6wl
@myname-gx6wl 8 ай бұрын
👍
@АлександрЛобанов-р6с
@АлександрЛобанов-р6с 9 ай бұрын
Пожалуйста, пришлите ссылку
@Skayfaks
@Skayfaks 9 ай бұрын
Здравствуйте, пришлите пожалуйста ссылку на калаб
@rinkornalb
@rinkornalb 9 ай бұрын
а где можно найти слайд с ссылками из конца лекции?
@rinkornalb
@rinkornalb 9 ай бұрын
А есть ссылка на следующую лекцию с Артуром Кадуриным?
@СаняЕсин-к9у
@СаняЕсин-к9у 10 ай бұрын
Самое понятное объяснение поиска мостов и точек сочленения. Спасибо большое!
@sun_lina6152
@sun_lina6152 10 ай бұрын
В целом понятно. Лучшее из всех видео, которые пыталась смотреть по этой теме
@pxft475
@pxft475 10 ай бұрын
Здесь мы видим новое поколение инженеров. Ни петь, ни танцевать.
@choss1968
@choss1968 11 ай бұрын
👍👍👍🔥🔥🔥
@choss1968
@choss1968 11 ай бұрын
👍👍👍🔥🔥🔥
@GamerGDS
@GamerGDS 11 ай бұрын
где презентация то? или это в другом месте показывали?
@alexandersmirnov4274
@alexandersmirnov4274 Жыл бұрын
а по суффиксным массивам увас есть занятия?
@aleksandrs271
@aleksandrs271 11 ай бұрын
Раскатал губу на холяву
@blazen3758
@blazen3758 Жыл бұрын
очень много ошибается, легче самому разобраться и не смотреть на этого дурачка
@retarded_fat_virgin
@retarded_fat_virgin Жыл бұрын
ЖЕЕЕЕСТЬ!!!
@cp_mirea
@cp_mirea Жыл бұрын
Жесть, дак вот как она решалась😮
@depishdev6942
@depishdev6942 Жыл бұрын
БаашКааааааААА
@ЕвгенийКазанцев-у3в
@ЕвгенийКазанцев-у3в Жыл бұрын
Наткунлся слуайно. Как хорошо рассказываете. Буду рад следить за таким качественным контентом.
@kalasabian
@kalasabian Жыл бұрын
Увлекательная лекция! Запинания не влияют на восприятие и слушается легко
@konstantinsamodurov436
@konstantinsamodurov436 10 ай бұрын
Из-за вашего поста, вводящего в заблуждение, ставлю дизлайк данному видео
@wad881988
@wad881988 9 ай бұрын
Лол, а видео то здесь причем? Ставьте дизлайк вводящему в заблуждение посту)
@njn-n9o
@njn-n9o Жыл бұрын
Можете скинуть ссылку на colab
@anstid1
@anstid1 Жыл бұрын
Афигенно
@Kech_prodaksn
@Kech_prodaksn Жыл бұрын
Какая?
@gektar_31
@gektar_31 Жыл бұрын
Не знаю а какая?
@tvoanua
@tvoanua Жыл бұрын
как
@irinalanovaya8641
@irinalanovaya8641 Жыл бұрын
Прикрепите ссылку, пожалуйста
@sodcio
@sodcio Жыл бұрын
а можно ссылку на колаб ноутбук?
@retarded_fat_virgin
@retarded_fat_virgin Жыл бұрын
41:25 такой чистый подход не работает на первом же тесте
@retarded_fat_virgin
@retarded_fat_virgin Жыл бұрын
Извините, а где будет доступна ссылка на текстовый разбор?
@shemyy
@shemyy Жыл бұрын
И условия задачи не выведены
@shemyy
@shemyy Жыл бұрын
Воды вообще нет
@remeyperson2017
@remeyperson2017 Жыл бұрын
Единственный, кто адекватно объяснил
@bananasba
@bananasba Жыл бұрын
Слушать конечно тяжело, ааа, эээ, токен, тоУкен, хихих, серб серб кофе.
@AlexandraG-xu8ii
@AlexandraG-xu8ii Жыл бұрын
Здравствуйте! Выложите пожалуйста ссылку на колаб.
@danilgubanov7099
@danilgubanov7099 Жыл бұрын
drive.google.com/file/d/1PbCn-ZuzgFt3A35evIG-ZxPWqH8RfzU0
@front-rud
@front-rud Жыл бұрын
Всё понятно, большое спасибо!
@АлександрОленичев-я6г
@АлександрОленичев-я6г Жыл бұрын
Полезное видео! Есть вопрос: почему при делении перебор разрядов должен оказаться эффективнее бинарного поиска? По сути мы сделаем полный поразрядный перебор числа (c), длина которого (a - b), с перемножением (b * c) на каждый шаг перебора. В чем преимущество?
@Kysil.A.G
@Kysil.A.G Жыл бұрын
хорошо! было-БЫ! - если БЫ! оратор - ДАЛ ОПРЕДЕЛЕНИЕ понятию "ЧИСЛО" !!! - никогда он этого не сможет! КАКАЯ! тогда "теория" и КАКИХ-ТАКИХ! "чисел" !!!
@Aeaeaka
@Aeaeaka Жыл бұрын
Дайте ссылку пожалуйста на колаб
@IExSet
@IExSet Жыл бұрын
Шаманство! Куча каких то не понятно как связанных вещей, миллион левых обозначений, не понятна связь с конечным результатом. Списывают друг у друга одну и ту же презентацию, скоро GPT наверное будет вести эти лекции с похожим около нулевым выхлопом. Вот этих векторных представлений слов могут быть десятки тысяч разных, что это за матрица, которая будет учитывать глобально каждое с каждым, а если не глобально, то откуда в этих матрицах self-attention берутся значения на каждой итерации ????
@QuadRomb
@QuadRomb Жыл бұрын
Ну, если есть желание разобраться как оно должно работать, то похоже надо всё-таки сесть и разобраться самому. И, похоже, начать надо не со статьи про то, что вам очень нужно внимание - а с детального разбора word2vec. С написания оного word2vec-а самому, и последующему чтение кода оригинального word2vec. Потому что в статье написано не всё, что есть в коде. Да, вот так вот нехорошо со статьями в машинном обучении - а что поделаешь? Тут же фишка в том, что народ смотрит на всю эту кучу "несвязанных друг с другом вещей" и выпадает в жёсткий осадок. А смотреть надо на эволюцию принципиальных вещей в языковых моделей, которые выросли из простых эмбеддингов. Сначала можно обратить внимание, в word2vec было введено простейшее понятие *контекста* одного слова - слово слева + слово справа. Там же были предложены два способа этот контекст использовать практически - skip-gram и cbow. Это просто? Ну, как бы да - но нужно это чётко разобрать, потому что из этого вырастают всякие bert и gpt. Потом эмбеддинги начали расширять понятие контекста всё дальше назад, а генеративные модели - ещё и вперёд, на всё большее и большее количество токенов. Связка пошла уже не "один токен к двум соседям", а "многие ко многим". Вычислительная сложность такой модели стала улетать в стратосферу, и пошли всякие ухищрения для того, чтобы её снизить. Но под капотом там просто word2vec на стероидах, с приклееной к нему сбоку генеративной моделью разных сортов и всяческих хитрые рюшечки снижения сложности вычислений. Вот куча этих рюшечек и создают впечатление полного винегрета у людей в головах. Вот то, что я написал - разве как-то очень сложно? Да, нет. Сложно сесть и заставить себя детально разобрать несколько простых моделей эмбеддингов - скажем word2vec, -> elmo -> bert. Ну, а после этого уже и статью про внимание можно долго и аккуратно разбирать. И в ней, кстати, уже будет многое понятно и так. Если так где-то и пытаются трансформеры объяснять, то я этого не видел. Хотя лежит это, на мой взгляд, на поверхности.