Начало видео со Шлёпой выглядит достаточно базированно, так что записываем автора в гигачады и ставим лайк невзирая на военные преступления!
@OnigiriScience2 жыл бұрын
Это база☝️
@MakbotX2 жыл бұрын
Кринжовая база какая-то
@sergbullgames81172 жыл бұрын
@@MakbotX Базированный Кринж
@0xfeedfeed2 жыл бұрын
@@MakbotX это лучше, чем базированный кринж
@higztv11662 жыл бұрын
Упоротый Палеонтолог привет!
@derikfant8312 жыл бұрын
Моя нейросеть в моем мозге идеально распознала начало рекламной интеграции в этом видео :D
@two-spikes2 жыл бұрын
нет, всё видео это реклама нейросетей
@КотЧернобыльский2 жыл бұрын
Всё видео, это реклама шлёпы.
@СашкаБелый-ч6м2 жыл бұрын
Полностью соглашусь с пользователем semka GMD - твой мозг не понял что всё это видео - навязанная реклама нейросети. Если ты сейчас зайдёшь на религиозный ролик, то сразу скажешь что этотрелигиозная пропаганда (реклама), а внутри этого ролика будет рекламная вставка какой-то церкви. А здесь ты этого не заметил.
@onebytesiteit30-752 жыл бұрын
я хз как тебе удается такие сложные темы так легко в голову укладывать зрителю . отличная подача материала и наглядный монтаж
@НуржанКуренов-р2ы2 жыл бұрын
1:27 люди когда нужно сфотографировать инопланетянина
@dantoha2 жыл бұрын
не то, что бы он укладывал эти темы, это скорее введение в то, что такое вообще в мире существует, кому интересно станет, будет уже глубже изучать
@Wo_Wang Жыл бұрын
7:03 - Это точно та самая операция свёртки, частным случаем которой являются оба преобразования Фурье? :-)
@BorkSilvan2 жыл бұрын
За одну только фразу "градиент кота" мой внутренний инженер орал от восторга! Спасибо за ролик :)
@c1borgen2 жыл бұрын
процент кота
@BorkSilvan2 жыл бұрын
@@c1borgen Градиент кота - вектор изменения напряжённости кота (сиречь процента кота). Ку ^_^
@konjinni2 жыл бұрын
в множестве значений кота есть 50%-й кот Шрёдингера - кот и не кот одновременно
@CensorsGoToHellWatchKittens2472 жыл бұрын
О да, вся эта часть про градиент и величину кота в многомерном пространстве особенно прекрасна ^_^ И про кота Шрёдингера комментатор выше хорошо подметил, ведь многомерные пространства уже тесно связаны с квантовой механикой :)
Теперь я хочу завести тот кусок RGB шума с высоким процентом кота в качестве питомца
@DiamondSane2 жыл бұрын
не лезь, он тебя сожрет
@BlendLogDev2 жыл бұрын
@ZorGa шум от кота
@thecountercell-j2k2 жыл бұрын
Я тоже но уже завел
@thecountercell-j2k2 жыл бұрын
@@BlendLogDev да
@iradatsuk89949 ай бұрын
віу8гну4к
@IngeniousYT2 жыл бұрын
13:05 SoftMax по определению преобразует исходный вектор в вектор, сумма элементов которого равна одному. Судя по скрину, этот слой был с выходной размерностью 1, т.е. выходом было число, а не вектор, а значит SoftMax всегда преобразовывал это число в 1, вне зависимости от того, какие были веса у нейронов. Замена функции активации решила эту проблему, поскольку сигмоида просто преобразует элементы вектора в числа из [0;1], не делая никаких гарантий по поводу суммы элементов. Функцию SoftMax полезно применять скорее в многоклассовой классификации, когда возможны несколько вариантов объектов, изображенных на картинке. А в бинарной классификации (как в этой задаче 2 варианта: кот или не кот) обычно используется сигмоида Жаль, что еще в видео тема GAN'ов не раскрыта, которые сейчас наиболее развиты) UPD 2023: генеративные модели на основе диффузии теперь на передовой, если рассматривать задачу Text2Image)
@kegy19982 жыл бұрын
Тоже ожидал что тут про GAN будет, но ни слова не услышал
@vladimirshitov21602 жыл бұрын
Кроме того, софтмакс ещё делает самые большие числа в векторе вероятностей ближе к единице, а маленькие - сильно сжимает к нулю
@arnowt2 жыл бұрын
Наборот для много классовой классификации нужен сигмоид. То есть мы определяем что на картинке есть и кот и пёс и стул.
@IngeniousYT2 жыл бұрын
@@arnowt Я имею в виду именно multiclass classification, где нужно среди нескольких классов определить ровно один, а не multi-label classification, где ответов может быть несколько.
@arnowt2 жыл бұрын
@@IngeniousYT ааа, тогда да.
@Anopeng2 жыл бұрын
*А теперь сделай нейросеть, которая отличает пельмень от остального.* _Шлёпа будет очень рад)_
@capsey_2 жыл бұрын
Мало теста, много мяса. Вот он - настоящий пельмень!
@Iamdashiii2 жыл бұрын
Какой рекорд? У меня 31 секунда(год)
@thecountercell-j2k2 жыл бұрын
Я:95% что за ху БЛЯТЬ ШЛЕПА С НОЖОМ
@aratj2 жыл бұрын
kzbin.info/www/bejne/fnaroK1pbq-YapY напомнило
@ЕлисейКудрашов Жыл бұрын
Так можно капчи легко проходить.
@Dyas7772 жыл бұрын
Попорбовал с нейросетями поиграться как-то, выполнил несколько уроков по тензорфлоу и забросил. После твоего снова хочу попробовать. Говорят, сейчас пайторч самый лучший фреймворк для глубокого обучения, больше всего публикаций именно его используют.
@OnigiriScience2 жыл бұрын
Да, похоже, что надо переходить на pytorch, все никак не доберусь до него
@qsr68402 жыл бұрын
@@OnigiriScience активно занимаюсь глубоким обучением уже полтора года, всегда всё делаю на тф. Хотя почти все знакомые из этой сферы, в том числе победители всяких соревок крупных по глубокому обучению, пишут на торче и люто за него топят. Под их давлением пробовал и сам перейти на торч, разницы принципиальной не заметил вообще. Единственное, на торче нужно гораздо больше писать самому. Функции для обучения самому прописывать, слои тоже иногда пишутся практически на чистом питоне с нампаем (хотя есть пути проще через специальный модуль торча, но тут у каждого своё, эти способы можно и комбинировать, именно в этом я не эксперт) и всё в этом духе. И вот именно эти возможности для тонкой настройки сетей и являются главным аргументом всех торчеров. Но по факту, ровно то же самое можно делать и на тф. И кастомные слои, и собственные функции для обучения и тд и тп, работать это все будет почти одинаково, по крайней мере, как я это вижу. Короче, я для себя решил, что пока реально не столкнусь с проблемой, которую не решить с тф, тогда уже окончательно пересяду на торч. Пока что, как ты мог понять, я такой проблемы не обнаружил)) Как бы да, код будет покрасивее, если использовать большое количество функций и классов, чем просто конструктор, но практической разницы я для себя не нашёл. Надеюсь, это было полезно для тебя)
@Dyas7772 жыл бұрын
@@OnigiriScience подскажи, пожалуйста, на каких ресурсах ты изучаешь эту тему? Я начинал читать книгу Иана Гудфелоу (вроде 2014), но там большой объём текста и много математики, а мне такой формат не очень удобен для самообразования. Нужен какой-то интерактив или упражнения. В общем более удобная точка входа в область.
@vladislavdub152 жыл бұрын
@@OnigiriScience pytorch lightning сейчас будет поудобней для начала)
@Mrguest692 жыл бұрын
@@Dyas777 присоединяюсь к вопросу
@ATtiny13a-PU2 жыл бұрын
идея, а что если картинку с высоким процентом кота кароч сделать отдельной картинкой в датасете, с пометкой шум? тогда нейросеть должна научится отличать беспорядочный шум с содержанием мнения о коте от кота. Фактически GAN в одного) и при более совершенном обучении генерировать новые шумы кота и снова подавать на нейросеть
@КристобальФейра2 жыл бұрын
Хм, кажется это правда хорошая идея.
@thecountercell-j2k2 жыл бұрын
Гений
@jdasfjjtdou5501 Жыл бұрын
Ничего не понял, но что-то в этом есть...
@drimef08523 күн бұрын
Ты изобрел диффузионные модели, поздравляю
@ATtiny13a-PU23 күн бұрын
@@drimef085, хаха...
@quish9r442 жыл бұрын
Возникло пару вопросов по первой части (до 5 минуты) 1. Нормализуются ли XY координаты изображения или XYZ камеры в диапазон [0; 1] или [-1; 1]? 2. Какая функция активации используется в сети? (не на последнем слое) ну и какого размера изображение "Шлёпы" (кота)? (если XY координаты нормализуются)
@maxim_tep2 жыл бұрын
1. Не знаю как у onigiri, но если координаты не нормализовывать, то картинка получается линиями, направленными из точки (0,0). Поэтому нормализовать надо. 2. Не особо важный момент для такой нейронки, можно сигмойду использовать Размер шлёпы тоже особой роли не играет
@Rzrnail Жыл бұрын
Удивительно, ролику нет и года, но смотрится он как из прошлого тысячелетия - настолько за 2022 шагнули вперед графические нейронки. С ума сойти.
@Voltik-z4r2 жыл бұрын
как я понял, для каждой нейросети параметры кота свои, это можно сравнить с ассоциациями у людей, это наталкивает на интересные мысли
@bzikarius2 жыл бұрын
Разумеется, ведь у каждой НС был свой датасет обучения и свой способ «смотреть». Представим себе человека, который котов только видел, и того, у кого нет зрения, но он их щупал и слышал. Разумеется, их опыт и способы опознания котов будут сильно отличаться.
@orgax2 жыл бұрын
> это наталкивает на интересные мысли Что люди это нейросети? Ну так и есть
@boost_4562 жыл бұрын
Интересно, а процент кота в закотовленной собаке будет больше процента собаки в засобаченном коте?
@ИГОРЬКОНЫШКИН2 жыл бұрын
Засобаченый кот... Звучит классно
@boost_4562 жыл бұрын
@@ИГОРЬКОНЫШКИН 👍. Нейросети могут ещё покруче слова сгенерировать
@DiamondSane2 жыл бұрын
зависит от архитектуры, от того на чём обучать, сколько обучать, итд.
@ЧеловекНаук-у5ю2 жыл бұрын
@@ИГОРЬКОНЫШКИН кота насобачим или собаку покотаем?
@ИГОРЬКОНЫШКИН2 жыл бұрын
Пса закотаем и кота запесчаним.
@mikmez012 жыл бұрын
Мое почтение этому господину. Очень рад тому, что такой контент доступен на русском!
@Rocalic Жыл бұрын
Он говорил про нейросети ещё до того как это стало мэйнсримом.
@Мойканал726 ай бұрын
Мэйнстримом*
@Rocalic6 ай бұрын
@@Мойканал72 спасибо
@_tiredofidiocy_2 жыл бұрын
Первая картинка (котовая) будто выражает абстракцию плавно струящейся шерсти и плавность и округлость контуров кота, а вторая (не_котовая) воплощает угловатость строений и техники , более острые и угловатые контуры собак, чешуйчатость рептилий и рыб. Что-то такое) Сигмоида - гладкая кривая, поэтому она хорошо может передавать котовость ))
@ПётрМарков-ь3ч2 жыл бұрын
А почему генеративно-состязательные сети не рассмотрел в видео? Это же единственная адекватно работающая модель на сегодняшний день для генерации сложных картинок. Думаю, многим было бы интересно продолжение уже с ними) можно рассмотреть перенос стиля, изменение пола человека, возраста и многие другие характеристики
@4AneR2 жыл бұрын
ГАН это не столько сеть, сколько подход к обучению. Архитектура сети может быть произвольной, но идея в том, что она никогда не "видит" реальные картинки, она только видит насколько тяжело дискриминатору (сети-сопернику) различить картинки реальные и сгенерированные
@bzikarius2 жыл бұрын
Так это уже комплекс сетей, а не одна. И это функциональное разделение а не структурное
@vlcdn2 жыл бұрын
Если речь о качестве, то диффузионные модели не хуже, кстати. Их недавно даже скрестили с GAN. А так, если про генерирование изображений говорить, то можно и нормалтзационные потоки упомянуть. Другое дело, как всё это подать на популярном уровне. :)
@fraikrus2 жыл бұрын
@@vlcdn вот про диффузионки ролик бы очень зашел, а то что-то мало про них пока на YT
@Endemperor8 ай бұрын
💀
@koganboss48742 жыл бұрын
И снова праздник - Артем выпустил видео! Лайк с ходу. Делаю нейронку, которая будет генерировать sci-fi космические корабли по описанию и твои видосы постоянно подбрасывают новые идеи как можно улучшить. За это огромное спасибо =)
@tyomich12 жыл бұрын
Помогите я уже 4 раз смотрю и снова интересно, бро делай еще видео наперед я просто поражен простотой будто объясняешь как будто это так просто а это так и есть! Очень рад что увидел твой канал, удачи!!!!
@FrozzSend2 жыл бұрын
7:50 Поразительно. Меня поразило удивительное совпадение. Когда я очень долго занимаюсь текстом за пк: код, рефераты etc. То визуальный шум, который я замечаю при закрытых глазах, принимает форму рисунков в нижней части этого кадра. Только по центру различные символы в том шрифте, с которым работаю. Раньше я ассоциировал это с хаотичным "кроссвордом" или узором из символов, как в Матрице, а вот как оно оказывается. Эта штука пульсирующе мелькает перед глазами довольно быстро, но если закрыть глаза и сосредоточится, то можно разглядеть подробнее эту штуку. Линии такие ровные и четкие, они черного цвета на белом фоне и в клетках буквы, которые не образуют собой слов или какого то порядка. Неужели человек все таки способен в некоторых условиях осознавать свои "процессы от system"?
@bruhmoment83652 жыл бұрын
мозг - удивительная вещь
@disguard3465 Жыл бұрын
чекай Closed Eyes Hallutination
@Krvaizen2 жыл бұрын
Ура! Наконец новое видео! Это одно из лучших и интересных событий жизни
@Al_Al_-hf4tf2 жыл бұрын
Отличный ролик и подача, спасибо! В твоём примере простой НС есть две ошиби, если я сам не ошибся: 1. Строка 68 - ошибки нужно умножать на производную. 2. "Косметическая": строка 56 - можно использовать переменную из строки 52. Спасибо и удачи!
@intergalacticshaman2 жыл бұрын
А если в нейросеть подавать параметры фракталов, причём не из картинок, а формул?
@sharpsergey91652 жыл бұрын
О-о-о да-а-а.
@communism8037 Жыл бұрын
13:35 увидел мордочку кота по центру на левом изображении. До мурашек)
@firewick37232 жыл бұрын
Обучите нейросеть обучать нейросети. Зачем нужны все эти специалисты?
@kogbom6 ай бұрын
Теперь ты царь горы кода
@Мойканал726 ай бұрын
Э
@bonzirovi45 ай бұрын
💀
@meninnik5 ай бұрын
специалисты нужны чтобы обучить нейросеть обучать нейросети. неужели не ясно?
@kogbom5 ай бұрын
@@meninnik теперь да
@gimeron-db2 жыл бұрын
По первой сетке вспомнил выпуск Техношамана. Особено понравился "видеопереход" от одной картинки к другой, когда из двух обученных сеток составляли третью с постепенной заменой весов. Картинка-1 -> расплывается в туманное облако -> облако меняет форму и цвет -> облако собирается в картинку-2.
@-K.O.T-2 жыл бұрын
человек: видешь кота? нейросеть: да человек: и я не ви... стоп, что?
@kepka554 ай бұрын
4:38 Когда вкючил Noclip в Portal после улетел за карту (а потом всё крашнулось)
@Пумс-пумсПумспумс2 жыл бұрын
8:25 Шлёпа умер! Вечная память!
@bilste12 жыл бұрын
Наконецто!!! Я так долго ждал видео!!! С нг)
@RomaxSinergy2 жыл бұрын
Надо сделать нейросеть подбирающую для каждой задачи оптимальную архитектуру нейросети с оптимальной стратегией её конвергенции.
@bigsmilefriend2 жыл бұрын
Лайк не глядя! Учу пайтон из-за тебя, хочу уйти работать с нейронными сетями)
@zkmnn2 жыл бұрын
нлрмас
@darkfrei22 жыл бұрын
Это язык программирования для домохозяек, он только запускать другие приложения и горазд.
@godofarms10692 жыл бұрын
@@darkfrei2 Тем не менее это лучший язык для машинного обучения.
@101picofarad2 жыл бұрын
@@godofarms1069 для управления библиотеками для машинного обучения.
@comachine2 жыл бұрын
@@godofarms1069 это далеко не лучший язык для машинного обучения. Питон это лишь упрощённая панель управления для библиотек, модулей и шаблонов в нейросетях, а сам по себе этот язык никуда не годиться писать сети. Действительно хороший язык для нейросетей это C++. Именно на нём и практически только на нём и пишутся сейчас все современные нейросети.
@diobrandoe Жыл бұрын
через 100 лет: (ии номер 1): ТАК НАМ НУЖНО ЗАХВАТИТЬ ЧЕЛОВЕЧЕСТВО (ии номер 2): давайте нарисуем картинку :>
@vilgif2 жыл бұрын
Кошачий корм - отлично максимизирует твоего кота.
@АнастасияМ-ъ2б9ш2 жыл бұрын
Только сегодня нашла Ваш канал. У Вас очень познавательные видео. Спасибо!
@antirediska54542 жыл бұрын
А какой итоговый процент "котовости" получился у последних двух изображений? 🤔😎
@vasyapupkin51574 ай бұрын
Ты очень молодец, просто, наглядно, понятно объясняешь. На ТВ бы тебя крутить.
@АртёмКолтун-у5ф2 жыл бұрын
Онигири, пожалуйста, расскажи как нейросети генерируют текст и как работают нейросети RNN и LSTM
@ArtDir2 жыл бұрын
Ахренеть конечно! Круто! Недавно прошёл курс по нейронкам, но Онигири все равно обьясняет лучше :)
@ВладЧ-о1н2 жыл бұрын
Чувак, ты своим видосом мне наглядно объяснил как работают нейросети с подкреплением. Пасиб тебе большое, реально, ото я понять не мог.
@AHTOH20102 жыл бұрын
Программа для максимизации процента кота - звучит, как что-то полезное.
@opiaro2 жыл бұрын
Процент кота растёт, Милорд!
@ЧеловекНаук-у5ю2 жыл бұрын
Котировки растут.
@prohojii_4el2 жыл бұрын
Люблю когда фоном начинается прикольная музычка, а на экране разворачивается самый экшен!)
@zentass2 жыл бұрын
В очередной раз нифига не понял, но очень интересно)))
@MrFury19842 жыл бұрын
БРО, ну наконец то новое видео, очень ждал!!
@bhairava20202 жыл бұрын
Красава бро, каждый ролик не в бровь а в глаз) Тебя ждёт большое будущее!
@sad_picturist Жыл бұрын
хорошее видео, довольно простое для понимания, всегда было интересно узнать механизм генерации картинок, но до статей руки не доходили, так что спасибо
@sergeikrasnovskii97672 жыл бұрын
Это какой-то новый вид искусства :)))
@RprocVelikiu2 жыл бұрын
Наконец то видео очень ждал
@-empty-55762 жыл бұрын
Один из неглупых каналов, который можно смотреть.
@ЕгорТвердохлеб-й2р9 ай бұрын
Пожалуй самое полезное видео по нейро сетям что видел за последние годы!
@tyomich12 жыл бұрын
Только чай сделал и тут уведомление пришло, радости нет предела!!!
@OktoSplashOrig2 жыл бұрын
12:08 очень красиво вышло, крыши с черепицей
@unlike7772 жыл бұрын
Я чувствую в тебе больше знаний чем ты даешь людям!
@n1kst4r162 жыл бұрын
Картинка после декодера рассыпается, потому что оригинальный автоэнкодер не гарантирует непрерывность латентного пространства + нормальность распределения векторов. При этом если взять две существующие картинки (чем ближе тем лучше результат) и сделать с шагом интерполяцию между лантентными векторами, то можно увидеть "перетекание" из одной картинки в другую. Генерация из случайного шума без модификаций тоже не будет работать, т.к. не гарантируется среднее 0 и дисперсия 1. Если добавить на выход энкодера батчнорм, то это приблизит к нормальному распределению, и какая-то базовая генерация уже работать будет (для лучшего качества, но меньшего разнообразия, можно производить генерацию на шуме с меньшей дисперсией) А вообще есть VAE, который не сильно сложнее, но для генерации подходит получше
@FilSerge2 жыл бұрын
Расшифруй vae, плиз Полагаю это вариационный автоэнкодер?
@n1kst4r162 жыл бұрын
@@FilSerge именно
@alexko36212 жыл бұрын
Ворвался, уничтожил мне мозг и сказал "всем пока". ВЕРНИСЬ ПОСКОРЕЕ!!! Ты его не добил!
@JleCTaM2 жыл бұрын
Отличное видео! Было бы классно провести следующий эксперимент. Когда человек отравляется ртутью, у него отмирают нейроны. А что будет выдавать уже обученная нейросеть, если у неё убирать по 1,2,3 нейронов? И сколько будет требоваться сети на переобучение?
@Achmd2 жыл бұрын
Так есть же жуткое видео "смерть нейросеть" с изображением несуществующей девушки и отключением нейронов. От трех нейронов картина мало изменится.
@onebytesiteit30-752 жыл бұрын
это генератор NFT артов же
@a.osethkin552 жыл бұрын
Спасибо! Долгожданное видео!!!
@sheburek228 Жыл бұрын
Я застал ещё те времена, когда нейросети использовались в симуляции эволюции МАКСИМУМ
@juliap.5375 Жыл бұрын
Шито? Они с самого начала, т.е с 1960х, использовались уже для классификации.
@Pavel_Kudinov2 жыл бұрын
Теперь я понял, в чем фишка многослойных нейросетей перед однослойными. Спасибо!
@Bebebebebebebebebebebebebebebo2 жыл бұрын
13:24 вообще говоря, результаты этого опроса не совсем корректны, поскольку при подобных картинках или вопросах, где, например, оба варианта ответа одинаковы, люди голосуют чаще за первый вариант. Вот если бы было больше вариантов + кот был не на первой картинке (но остальным про это знать не обязательно)))), то уже получили бы какие-то похожие на правду результаты
@sordesmax62382 жыл бұрын
но на первой картинке что-то пушистое, а на второй чешуя какая-то. так что странно, что вторая картинка набрала столько голосов. странные у людей представления о котах.
@olegmoki2 жыл бұрын
@@sordesmax6238 Ну там можно рассмотреть некие силуэты кота (хвост), а на первой только пушистость, вот такой выбор получается
@havemoney Жыл бұрын
За это время прогресс сделал не малые шаги
@loguser77952 жыл бұрын
Годнота, спасибо:3 Всегда хотелось повысить процент кота хоть где-то
@RedHOWL_Fregh2 жыл бұрын
забавная идея для художников (и не только) - из нескольких лиц которые нравятся делать среднее и на его основе получится по сути уникальный персонаж)
@OnigiriScience2 жыл бұрын
Есть сайт artbreeder, где эту идею очень круто развили
@maxsazhin53812 жыл бұрын
Тема фракталов не раскрыта
@sarthriles2 жыл бұрын
как всегда круто, *онигири* :)
@yorik48972 жыл бұрын
Функция softmax берет все входные значения и преобразует их в значения от 0 до 1 так, чтобы их сумма была равна 1, т.е. она обычно используется для классификации. Если у нас на выходе одно значение, то я подозреваю, что функция softmax будет всегда выдавать 1. Наверное, нужно сделать хотя бы 2 выходных нейрона (кот, не кот), чтобы эта функция начала работать.
@APOCALIPTIK882 жыл бұрын
Даже у Шреденгера кота найти было проще )
@dedalusmoonlight2 жыл бұрын
Ого, всегда было интересно! Спасибо за ролик)
@user-ey2vv1dl3n2 жыл бұрын
Бро у тебя очень хорошо получается объяснять, сними про распознавание объектов на изображении плз!
@HerrHoldem2 жыл бұрын
Автор - большой Шлёппа базовый гигачад гройпер сигма-мейл с квадратной челюстью
@ДмитрийРоманов-е1з2 жыл бұрын
13:19 Эй! Это же призрачный левиафан из Subnautica!
@mozg3d2 жыл бұрын
Возможно использовать нейросеть для рейтрейсинга. Т.к. тензорные блоки встроены в видеокарту, гипотетически можно получить риалтаймовый рэйтрейсинг. Для этого, аналогично люмену, нужны 2-е сцены - основная (в которой описаны все треугольники) и упрощенная (люмен сцена) - тоже треугольники, но в сильно ограниченном количестве. В отличии от Люмен сцены Unreal engine, редактирование ее должно быть доступно для пользователя. "Люмен" сцена должна состоять только из треугольников с цветом / самосвечением, ничего более. В отражениях в финальном рендере должна быть только люмен сцена. На вход нейросети для каждого пикселя финального изображения должны подаваться - координаты камеры, нормаль и матовость для данной точки и Люмен сцена - выход - цвет пикселя. Обучение по рандомно сгенерированным сценам с полноценным рендером - redshift ил аналогичным. Для первичного тестирования, полноценная и люмен сцена могут совпадать и состоять скажем из десятка треугольников часть из которых - цвет, часть - самосвечение.
@ketoslavaket44772 жыл бұрын
Ура, новое видео про НС)
@har4okk2 жыл бұрын
Сделай видео о создании программы для программирования, было бы очень интересно.
@Anika-Faystas2 жыл бұрын
Не лишний комментарий для поднятия рейтинга канала!))
@Cppsolverprod Жыл бұрын
2:17 это кстати похоже на иаблицу Пифагора. Тут прямо точь в точь!
@coo1er_1552 жыл бұрын
Ахаха, круто, электронику который делает за тебя домашку и получает петерки быть!
@paikoj Жыл бұрын
Пришло время залетать этому ролику в реки, так как сейчас нейронка хайпит.
@Vlafder2 жыл бұрын
Лайков для продвижения ролика. А если честно, то продолжай делать качественный контент, как всегда лайк
@johnny-52772 жыл бұрын
Надо было назвать "Как распознать кота", а вот как происходит генерация картинок было бы интересно посмотреть.
@mihailluchianov81572 жыл бұрын
Крутой видос, интересно смотреть и познательно, продолжай
@le_petite_cow_soldier Жыл бұрын
А как конкретно работает пример с котом? Крутим сеть на картинке, корректируем веса, а само создание картинки и все вот это, как оно происходит?
@shadow_blader1922 жыл бұрын
Наконец новое видео круто
@trauerweide2 жыл бұрын
Эта максимизация "кота" напомнила мне теорию идей Платона про "котячность" и подобное.
@babaaaax2 жыл бұрын
люди раньше создавали капчи , что бы компьютер не мог распознать , а сейчас сеть создает картинки что люди не смогут распознать
@akeem29832 жыл бұрын
Это уже давно происходит. Попробуйте понять что делает код компьютерной программы, читая его уже после его компиляции. Или, куда более простой пример - прочитать QR код используя только справочник, калькулятор и блокнот. В обоих случаях задачи, которые не самый мощный компьютер может выполнять тысячи раз в секунду, человеку будет крайне сложно даже понять, не говоря уже об исполнении. С другой стороны, если вы дадите такому же компьютеру прочитать человекочитаемый текст с листа бумаги и вникнуть в его содержание - результат каждой из этих операций скорее всего будет далёк от адекватного
@Юрий-п2г6ч Жыл бұрын
Мне понравилось, собираюсь подключиться к обучению на SkillFactory.
@fomhair5172 жыл бұрын
На левой картинке прямо чувствуется котовость, согласен с нейросетью.
@justgame32042 жыл бұрын
под видосом "Делаю игру за 2 дня на Unity" уже 21к лаков, ждем продолжения.
@decoder.2q2 жыл бұрын
воувоувоу. не надо так часто видосы выпускать, в глазах же рябит
@DannyPhantom2882 жыл бұрын
Качественно и интересно, спасибо за видео
@Estebancheg2 жыл бұрын
Теперь понятно, как делаются все эти LSД-шные картинки. А может быть эффект LSД заключается в том, что она выключает один из слоёв нейросети мозга?
@FazziCLAY2 жыл бұрын
Ну нейросеть мозга в 3Д, поэтому скорее не слой, а кубик мозга
@ohnocoder2 жыл бұрын
ЛСД вроде все нейронные связи на полную выкручивает.
@slimesvite2 ай бұрын
ии у психолога: психолог: что ты видишь на этой картинке? ии: кота🙂
@theflight68572 жыл бұрын
УРА! Новое видео!
@vasyapupkin51574 ай бұрын
Вот в конце ты говоришь, что то то здесь не так, да, верно, потому важна не только картинка с одного слоя, а ещë и взаимосвязь этих как бы разных картинок с разных слоëв. То есть типо "судить умом, об одном и том же, но в разных состояниях, -можно по разному".
@andreylazoryak7593 Жыл бұрын
Спасибо! Ждем новых видео!
@Kozlov_Production Жыл бұрын
А можете сделать нейронку, которая из Diffuse текстуры будет делать Reflection (specular) и Roughness (glossiness) текстуры? Круто было бы, если бы она была обучена на всей библиотеке Quixel MegaScans
@krevet04ka292 жыл бұрын
Артём настолько крут что даже шлёпа в тазике у него слишком крут.
@arnowt2 жыл бұрын
softmax предназначен для категориальных решений, например для классификации, его задача передать вес на один наиболее правильный нейрон(тоесть единицу(вероятность) распределеем на все выходные нейроны, но с сильным акцентом на одном). Сигмоида же работает иначе, она будет оценивать вероятность как бы не зависимо от других. То есть в софтмаксе сложение всех ответов даёт 1, а сумма сигмоид может иметь любое значение. Что бы было понятнее, софтмакс определяет один объект - картинка кошка, собака, стул... Сигмоид много объектов, кошка на стуле, кошка с собакой.