Введение в искусственный интеллект. Quo Vadis, AI?

  Рет қаралды 20,228

Deep Learning School

Deep Learning School

Күн бұрын

Пікірлер: 22
@JustLearn-l8w
@JustLearn-l8w Жыл бұрын
Отличное начало для курса. Сразу начали с актуального и интересного ^_^
@Ca1vema
@Ca1vema 7 ай бұрын
не согласен, понять о чем речь можно лишь получив базовые знания о том что такое нейросети. С нуля не очень.
@Sh.Vladislav
@Sh.Vladislav Жыл бұрын
Спасибо за вводную лекцию 👍
@AlexeyMatushevsky
@AlexeyMatushevsky Жыл бұрын
Прекрасное вступление с истории пути к нейросетям! Спасибо!
@LapkiT-vl2rf
@LapkiT-vl2rf Жыл бұрын
Отличное начало, спасибо за выжимку
@Михаил1-т9й
@Михаил1-т9й 11 ай бұрын
Жесть)) порой. Прикольно. Начало курса - прогресс на последних минутах смог слушать на полной скорости😅😅 Спасибо сэр
@pyoner
@pyoner Жыл бұрын
GPT 3.5 и 4 правильно ответили на вопрос: "Что больше 2/4 или 1/2", прогресс однако :)
@Irades
@Irades Жыл бұрын
Спасибо :)
@kraidiky
@kraidiky Жыл бұрын
На 12:00 говорит, что существовавшие алгоритмы подходили только для однослойных нейросетей, это наверное ошибка, потому что "алгоритм коррекции ошибок" придуманный ещё Розенблаттом прекрасно учит и многослойные сети тоже (сам проверял :). Там история была совсем другая. Марвин Мински првёл в качетве контрпримера перцептрону Розенблатта проблему XOR, которая не решается однослойной сетью из одного двух нейронов в принципе, вне зависимости от алгоритма обучения, а Розенблатт помер, и не смог ему возразить, что двухслойная сеть следуя тому же алгоритму задачу прекрасно решает. Гораздо позже Мински признал эту свою ошибку, но это было уже на много много лет позже. А алгоритм как раз существовал и прекрасно работал.
@kraidiky
@kraidiky Жыл бұрын
Сейчас посмотрел, и оказывается эта же ошибка допущена в англоязычной википедии про перцептрон. А в русскоязычной наоборот этой ошибки нет и кейс многослойного перцептрона по Розенблату подробно описан. Вот и верь после этого англоязычной википедии. :)
@ArtyomBoyko
@ArtyomBoyko Жыл бұрын
Лекция хорошая, спасибо. Небольшая просьба, можно как-то избавиться от этого эхо? Спасибо.
@Superflywheel
@Superflywheel 9 ай бұрын
Привет! Ответь, пожалуйста, что больше, две четверти или половина? ChatGPT 4: Привет! Две четверти и половина - это одно и то же количество. Две четверти (2/4) упрощаются до одной половины (1/2), так как 2 делится на 2 в числителе, и 4 делится на 2 в знаменателе, что дает 1/2.
@RaptorT1V
@RaptorT1V 7 ай бұрын
Чё у вас у всех в МФТИ постоянные проблемы со звуком? Что у вас за микрофоны за 5 рублей такие? Это просто жесть! Ну возьмите вы, ну потратьте хотя бы 600-1100 рублей на микрофон. Уже качество в 10 раз возрастёт! Слушать ведь невозможно, у меня аж голова кружится. Каждому лектору приобретите микрофон нормальный!
@pointofview654
@pointofview654 Жыл бұрын
эхо немного портит впечатление
@КомбригКлоков
@КомбригКлоков 11 ай бұрын
Нейросети это индукция - фактически эмоция. Для достоверного рассуждения абсолютно не годятся. Было бы интереснее познакомится с развитием генетических алгоритмов, точне концепции ассоциативных конвейеров на которых, как намекала Черниговская построен наш мозг. Например крупнейший федеральный архив России именно на таких методах строит свой ИИ, другие подходы не работают
@natalias8919
@natalias8919 7 ай бұрын
1. Генетические алгоритмы - это просто случайный поиск. Именно поэтому они развития не получили. 2. Черниговская - филолог. Она даже биологию не изучала на профессинальном уровне, не говоря уже о нейрофизиологии. Ее "авторитет" ни на чем не основан, и в мире нейрофизиологии нулевой. Просто раскрученная пожилая дама слегка в стадии сенильного маразма, вещающая категорично.
@aammssaamm
@aammssaamm Жыл бұрын
Какая скука.
@АристархСмирнов-м5в
@АристархСмирнов-м5в Жыл бұрын
Лектор или информация?
@aammssaamm
@aammssaamm Жыл бұрын
@@АристархСмирнов-м5в Вся эта хрень.
@AxionenML
@AxionenML 9 ай бұрын
​@@АристархСмирнов-м5влектор ужасно скучный, безэмоциональный
@natalias8919
@natalias8919 7 ай бұрын
Точно. Информация актуальная, но подача материала - скучный бубнеж.
@RaptorT1V
@RaptorT1V 7 ай бұрын
@@natalias8919 и качество звука ещё оставляет желать лучшего
Лекция. Сверточные нейронные сети
50:11
Deep Learning School
Рет қаралды 53 М.
小丑在游泳池做什么#short #angel #clown
00:13
Super Beauty team
Рет қаралды 43 МЛН
Лекция. Трансформеры. Self-Attention
54:35
Deep Learning School
Рет қаралды 10 М.
Вечер в Музее. Как устроен искусственный интеллект?
1:36:46
Яндекс Образование
Рет қаралды 2,8 М.
Как работает ChatGPT: объясняем нейросети просто
39:04
RationalAnswer | Павел Комаровский
Рет қаралды 1,2 МЛН
Лекция. Полносвязная нейронная сеть
40:29
Deep Learning School
Рет қаралды 22 М.
Лекция. Контестные эмбеддинги. Word2Vec.
29:12
Deep Learning School
Рет қаралды 14 М.
Введение в NPL
45:41
REU Data Science Club
Рет қаралды 173