Рет қаралды 91,048
Vídeo patrocinado por la Universitat Politècnica de València. Podrás elegir la UPV por mil razones: podras.es - www.upv.es
Estamos llegando a un punto donde la combinación de los modelos de Deep Learning de visión y lenguaje nos están ofreciendo herramientas realmente increíbles. Hoy hablaremos de CLIP, un potente modelo capaz de comprender el contenido de imágenes y asociarlas con su descripción correspondiente. ¿Para qué sirve esto? Mira el vídeo y descubre el potencial que hay tras la unión de la visión por computador y el procesamiento del lenguaje natural.
▶ ⏱ INDICE DEL VÍDEO:
00:00 Intro
01:38 Problemas de la Visión por Computador
04:51 ¿Qué es CLIP?
07:50 Pausa para el café
08:10 ¿Qué nos aporta CLIP?
10:03 Demo de CLIP
10:55 Modelos más versátiles
11:51 Visualizando las neuronas de CLIP
14:13 StyleCLIP
15:28 Ataques Tipográficos
16:24 Final
-- ¡LINKS INTERESANTES! --
► Directo de NotCSV manipulando caras.
• 👨💻 ¡Manipulando CARAS...
►Prueba a CLIP
clip.backprop.co/
► Artículo de OpenAI sobre CLIP
openai.com/blog/clip/
► Artículo de Distill.pub sobre Neuronas Multimodales
distill.pub/2021/multimodal-n...
► Proyecto de StyleCLIP
github.com/orpatashnik/StyleCLIP
-- ¡MÁS DOTCSV! ---
📣 NotCSV - ¡Canal Secundario!
/ notcsv
💸 Patreon : / dotcsv
👓 Facebook : / ai.dotcsv
👾 Twitch!!! : / dotcsv
🐥 Twitter : / dotcsv
📸 Instagram : / dotcsv
- ¡MÁS CIENCIA! --
🔬 Este canal forma parte de la red de divulgación de SCENIO. Si quieres conocer otros fantásticos proyectos de divulgación entra aquí:
scenio.es/colaboradores