Introducción y Contexto - 00:00:00 Análisis de la Noticia: Llama 3.1 - 00:01:08 Ventajas de los Modelos Llama - 00:02:09 Actualización: Llama 3.1 y Modelos Previos - 00:08:57 Comparación de Capacidades de los Modelos - 00:12:26 Entrenamiento y Escala Chinchilla - 00:15:07 Desafíos y Ventajas del Modelo 405B - 00:21:04 Capacidades de Programación y Razonamiento - 00:25:34 Técnicas de Destilación y Datos Sintéticos - 00:35:35 Evaluación del Modelo y Resultados de Benchmarks - 00:45:05 Regulación y Acceso a Modelos Multimodales - 00:50:13 Demostración en Groq - 00:55:06 Conclusiones y Cierre - 01:00:36
@nelsontovars6 ай бұрын
héroe
@diegocardona86326 ай бұрын
Heroe
@diegocardona86326 ай бұрын
Igual es hecho con AI, no?
@SouhailEntertainment6 ай бұрын
@@diegocardona8632 yes sir, i don't even understand Spanish
@Naku936 ай бұрын
@@diegocardona8632 El usuario @user-qg8qc5qb9r es la IA de Meta que se ha creado un canal de YT
@akhathos16186 ай бұрын
Incluso aunque hoy mismo se detuviera el lanzamiento de modelos LLM OpenSource, disponer de un modelo libre equivalente a un ChatGPT-4 es algo impresionante.
@azhuransmx1266 ай бұрын
Hasta que suelten a GPT5 y lo deje tirado.
@alisterwh5 ай бұрын
@@azhuransmx126seguiría siendo impresionante, la verdad. Gpt4 es útil por si solo.
@JuanValadez-w8d5 ай бұрын
@@azhuransmx126 Algo superior no quita que lo anterior siga sirviendo
@ivcandela6 ай бұрын
Lo más gracioso es que en las respuestas del acertijo de las plumas y el plomo, el modelo llama3 8b ACIERTA y los grandes no. No se dio cuenta nuestro querido Carlos...
@aljvangoohable6 ай бұрын
Porque KIlogramo es masa y no peso... y la pregunta es un poco a pillar, salvo que seas un autentico español y sepas que kilo me refiero a peso. Eso creo yo.
@Mr.MasterOfTheMonsters6 ай бұрын
@@aljvangoohable La única diferencia entre peso y masa es que se multiplica por la aceleración gravitacional de donde se mida. 9.81 en la tierra. La proporción no cambia. Es como medir el agua en peso en lugar de volumen, da lo mismo.
@happybydefault6 ай бұрын
Ojo aquí, Carlos, en 59:12.
@klakenhunter6 ай бұрын
la probe en wassap , realmente encuentro que sus temas son mas naturales y mas correctas . En especial en temas complejos donde las oras IA se nota que nopueden opinar , deben poner temas soo hacia un lado o simplemente se complica..
@gaialoves6 ай бұрын
59:03 Si, el pequeñín lo logró!
@blaztix6 ай бұрын
00:00 📰 Introducción y contexto del video - Introducción al evento y el anuncio, - Meta ha liberado un nuevo modelo que cambia el panorama de los modelos de lenguaje, - Se dará un análisis sobre el modelo Llama 3.1, su importancia y características. 02:18 🦙 Explicación de la familia de modelos Llama - Llama es una familia de modelos de lenguaje, - La licencia permisiva para uso comercial desde Llama 2, - Importancia de los modelos Open Source y las limitaciones de hardware. 05:33 📊 Detalles técnicos y ventajas de Llama 3 - Salida de Llama 3 y sus mejoras sobre Llama 2, - Entrenamiento ineficiente pero optimizado computacionalmente, - Compresión de datos para ahorrar recursos y mejorar la accesibilidad. 08:51 💡 Novedades de Llama 3.1 y su accesibilidad - Anuncio de Llama 3.1 y nuevos modelos con tamaños diferentes, - Importancia de actualizaciones y benchmarking en IA, - Modelo grande difícil de acceder pero retos de compresión de modelos. 13:01 🌐 Capacidad de los modelos y comparación con comerciales - Incremento en la ventana de contexto a 128,000 tokens, - Rendimiento y comparación con modelos comerciales (GPT-4, Claude 3.5), - Meta posicionándose con fuerte competencia en modelos Open Source. 17:39 🏢 Ecosistema y adaptabilidad de Llama 3.1 - Impacto en el modelo de negocio de compañías de IA como OpenAI, - Ecosistema preparado con socios como AWS, Nvidia, y Google Cloud, - Preparación y disponibilidad para uso empresarial y académico. 58:57 🧩 Comparación y pruebas de razonamiento de modelos IA - Comparación entre la capacidad de razonamiento de diferentes modelos de IA, - Llama 3.1 falla en una pregunta simple de razonamiento comparado con otros modelos como ChatGPT 3.5, - Importancia de pruebas reales y no solo benchmarks. 01:00:00 🦙 Beneficios y futuro de Llama 3.1 - Llama 3.1 representa un avance significativo con mejoras en contexto y capacidades, - Modelos destilados más eficientes que siguen siendo open source, - Meta promete futuros modelos multimodales y ya está trabajando en Llama 4, - Meta está publicando nuevos modelos a un ritmo más rápido comparado con OpenAI.
@javierfernandezgarrido74506 ай бұрын
El tema regulación, Europa, twitt con intento de presión y Lobby y cuál es nuestro papel, no puede estar mejor explicado, con implicación pero con distancia, sin caer en populismos y sin tratar de influir. Increíble, de verdad, me quito el sombrero.
@Cacun6 ай бұрын
como alguien que critico tiempo atras los videos de 2 horas para digerir algunas novedades, ver este de 1 hora si bien sigue siendo un monton, ya es mucho mas digerible! en hora buena por el trabajo! muy prometedor lo que propone Meta
@carlosjose-om3qr6 ай бұрын
Me eh visto video tutoriales hasta de 10 horas y tu te quejas por 2 horas 😂😂😂
@nippicorgi46156 ай бұрын
Una hora o dos horas o más no importan. La información de este canal siempre es oro puro en el campo de inteligencia artificial, desde antes que apareciera chatgpt en 2022 ya este canal nos anticipo una idea de todo lo que estaba por llegar, la revolución que iba a significar, y tal cual profesia todo se ha ido cumpliendo. Definitivamente va a valer siempre la pena ver lo que se publica aqui.
@favioga6 ай бұрын
Es maravillosa tu sencillez para exponer los temas, me encanta! Saludos y felicitaciones
@bookverse256 ай бұрын
Aquí vamos de nuevo...
6 ай бұрын
Gracias DotCSV... excelente presentación como siempre. Saludos desde Chile.
@chinooxyla6 ай бұрын
Wena we.... 😂
@elmegapeluco6 ай бұрын
Sobre el tema de las regulaciones IA en Europa os recomiendo el video: RIA (Regulación Inteligencia Artificial) ¿Oportunidad o error histórico? | Rodolfo Tesone Menizabal
@MrMiguelChaves6 ай бұрын
17:40 Me asusté. Pensé que ibas a decir otra cosa. Si fueras argentino lo dirías :)
@IgneousGorilla6 ай бұрын
OMEGALUL RTO
@shinjiikari46296 ай бұрын
OGT
@lutor27206 ай бұрын
YA NADA ME SORPENDE DESDE QUE MI EX ME SORPRENDIÓ CON OTRO 👿
@XaviIntheHouse6 ай бұрын
Seguro??
@crisrampante6476 ай бұрын
yo soy el otro
@Gambinaceo6 ай бұрын
yo soy vuestro padre
@Mr.Maravilla6 ай бұрын
Y aquí vamos de nuevo...
6 ай бұрын
Pero si era tu ex es normal que estuviera con otro, deberías pasar pagina
@fblua6 ай бұрын
Las restricciones son para Europa. En Argentina ya salió la semana pasada. De hecho, ya realicé 3 feedbacks.
@waltercontacto87326 ай бұрын
Quien está impulsando las restricciones???? Necesitamos nombre y apellido
@fblua6 ай бұрын
@@waltercontacto8732 Son las normas de la Unión Europea. Tenés que ir a Bruselas, Bélgica, buscas el parlamento y preguntas una tal "Úrsula". Fuera de broma, son las normas de protección que impiden que en Europa tengan acceso a muchas aplicaciones, funcionalidades, muchas condiciones, etc. Me imaginaba que con sólo mencionarlo todos los que estamos aquí, en estos temas, conocíamos las restricciones legales, etc. Disculpas. El dueño del canal varías veces lo mencioné por encima desde hace años... Ojo. Los temas de ciberseguridad y garantías de la privacidad de la Unión Europea, también tienen sus cosas positivas. (En mí caso en particular también soy europeo, pero vivo en Argentina y tengo también la nacionalidad argentina. Dicho sea de paso, desde 2005 que de Inglaterra, España, Italia, Francia, Bélgica, etc. muchos se vienen a vivir aquí, a zonas como Córdoba, Mendoza, San Luis, Bariloche, también en BSAS, etc. Yo ni drogado me suben a un avión para volver a Europa y para ir a trabajar a USA. Lo que pasa es que, por ejemplo en España tienen muchos prejuicios; lo que en España dicen populismo, aquí son instituciones de defensa del consumidor, becas, créditos para construirte tu casa, etc. Pero en Argentina también hay gente con prejuicios y pasan gobiernos como los de Macri y MileI que roban y destruyen todo y en Europa se creen que es al revés. En lugar de reclamar justicia y que pongan presos a los "populistas" supuestamente ladrones, directamente son antiperonistas, cuando a nadie le importa si se es o no peronista. El que robó tiene que ir preso y listo sea del partido político que sea. Pero si es cierto que estamos pasando, todo el mundo, un tiempo de mucho odio por lo que dejó la pandemia, por las que me tiras de los medios (porque no hay justicia, si no, nadie le creería a la TV, que está toda paga para cualquier lado) A mí me pasó una mundial. Durante una conversación digo: ....che pero a Cristina Fernández de Kirchner no fue presa... Y el otro me dice, y porque tienen todo el dinero que robó para no ir presa.... A lo que respondo: ...pero entonces vos decís que los jueces se dejan corromper por dinero (eran los jueces camaristas y la corte suprema puesta por Macri).... La persona se me quedó mirando... ...se quería matar de la idiotez que había dicho de puro odio e ignorancia.... Pasa en todos lados... la gente no piensa y quiere recibir la noticia esperada, la que confirme que tiene la razón. Para mí el que robó tiene que devolver el dinero e ir preso; pero si no es así, si una persona incluso se juzga dos veces por la misma causa que para cualquier mono sabio en derecho sabe que es una aberración... Pero bueno... es un fenómeno mundial causado por las propias frustraciones, egos, odios e ignorancia... Fíjate Milei que hicieron votar, a los que aquí llaman "tilingos", por lo mismo y hoy se quieren matar con datos de la economía que son un desastre que de libertad hay mucha menos que antes, que hay más impuestos, que el presidente no está nunca en el país, siempre en viajes de lujo; mandando twitts siempre de aluviones relacionada con la ped*fília (no ped*stría como bien distinguen en España); y como es ladrón, traidor, delincuente, etc., etc., el "tilingo" no dice nada.... Nigún empresario argentino apoya ni apoya a Macri quién es quién puso a MileI porque todos saben que es otro sociopata... Pero fuera de esta loca coyuntura política mundial Argentina es el paraíso.
@SABaruj6 ай бұрын
Apenas empiezo a ver el video pero no puedo esperar a tener un gtp 4o en local, quiero decir, uno que funcione hablando y que responda de la misma manera ya que me pareceria genial para mi pc.
@rafaelbenzal58296 ай бұрын
Carlos, no seas perro y haz más vídeos y menos directos. Un saludo y gracias por tu contenido.
@rxs6 ай бұрын
Confirmo JAJA
@VillVegas6 ай бұрын
Confirmo
@damiortiz6 ай бұрын
Jajaja coincido yo también
@germanlujan6 ай бұрын
Excelente el video, felicitaciones. ¿Será posible que en el futuro se pueda destilar y hacer fine-tuning de un modelo para dejarlo muy muy liviano y súper experto en un tema en particular? Por ejemplo, que sepa de historia española, pero no sepa nada de astronomía.
@deizachico6 ай бұрын
Carlos, la segunda vez que le preguntas el acertijo a la versión 8b la contesta de forma correcta. Cuando le preguntaste directamente por el acertijo. Pareciera claro que este problema se lo ha cruzado varias veces y con un sesgo hacia que pesa más 1kg de plomo o 1kg de plumas? O alenos hacia ahí le han puesto peso 59:20
@Javierdecaracas6 ай бұрын
com siempre eres muy preciso y excelente todo tus videos gracias como sisempre
@realidadtotal225 ай бұрын
Hola Carlos a ver si me puedes contestar.... Estoy aprendiendo programación desde 0 tengo un GPT que me hace de tutor, y la verdad que me funciona muy bien, pero en ocasiones tengo algún error con el código (del tipo que que vez de poner corchetes en algo se me olvidan o pongo paréntesis o algo así) y el gpt no me lo capta.... Para esto cual dirías que es la mejor IA? Un saludo y muchas gracias!!
@gposoft6 ай бұрын
el punto es en ves de enfocarnos al tema de código hay que voltear a ver lo físico es decir H A R D - W A R E que son los que nos limitan y por eso tenemos que pagar caro todo
@ppg686 ай бұрын
Es una mezcla de ambos, por buen hardware que tengas si el coste de procesamiento de tu algoritmo crece de manera exponencial no llegaras a ningun lado. Por otro lado es mas barato mejorar el algoritmo que mejorar tan significativamente el hardware
@jesuspunzon6866 ай бұрын
El directo bien. Pero la pregunta es la siguiente ¿para quién están hechos estos modelos? Resulta evidente que el común de los mortales no tiene 400 VRAM en su ordenador personal. Es más, los modelos pequeños tienen muy limitado su uso puesto que, precisamente, por ser modelos pequeños no funcionan ni de lejos con los tops de uso privado.
@ai4sme6 ай бұрын
Al final terminas tuneándolo en la nube y dando feedback a Meta.
@audiotiger167810 күн бұрын
Algún listillo decía en el chat en directo que "ya verás cuando nos hagan pagar los tokens". A ver si te enteras: Open Source significa que es software libre. El final de la evolución de estos modelos es que tú podrás usar versiones más eficientes ***EN TUS EQUIPOS***. No tendrás que "pagar los tokens" a nadie, porque no se ejecutarán en un cloud externo, sino en tu casita. Si es que...
@lrostagno20006 ай бұрын
me gusta mucho este formato de directo, gracias dot!
@andresep6 ай бұрын
Carlos, ¿podrías hacer pequeños resúmenes mucho más cortos acerca de estas noticias?
@omalm17826 ай бұрын
Hola, Carlos. Tienes algún vídeo sobre agentes?
@RaimundoBaravaglio6 ай бұрын
Hay una técnica de compresión muy interesante que se menciona en la serie Silicon Valley que surgió mientras desarrollaban el Flautista de Hamelin que era, obviamente, el sistema de compresión de archivos del protagonista grupo de programadores. Esperemos que pronto se llegue a un resultado que optimice el uso hogareño. ¿Por qué no pensar en una solución del tipo descentralizada P2P donde se comparta el contenido de los modelos entre los usuarios?
@AsdjAadh6 ай бұрын
No entiendo cómo se puede limitar tecnología open source geográficamente en una región concreta. Te coges un avión a Marruecos, te descargas el modelo en un disco duro externo, te vuelves a casa y listo. Por no hablar de torrent, VPN, etc
6 ай бұрын
Que buen arranque. Esa era la primera pregunta que tenía.
@Mr.MasterOfTheMonsters6 ай бұрын
Me reía de las regulaciones Europeas, pero ahora están planeando regular la IA en México también. Tengo miedo. No sé a quién consultarán, pero estoy un 127.34% seguro de que será alguien que no sabe ni la diferencia entre bit y byte. Mucho menos como funciona la IA.
@Darporal6 ай бұрын
Sí lo más chistoso de todo esto es que Europa se supone qué es la "defensora de las libertades" y resulta que están siendo lo más opresores y los que más se dejan sobornar por lobbies con intereses espurios. Lo más chistoso de todo, es que Europa ya es a día de hoy una dictadura maquillada. Y obviamente que le van a poner "puertas al campo" lo han hecho con todo hoy día aquí ya se regula hasta el vuelo de una mosca. No les va a temblar el pulso a la hora de crear regulación tras regulación para hacer cada día la vida un poco más difícil a las personas de bien. Una tecnocracia al servicio de los poderes fácticos.
@ExpositoresTop6 ай бұрын
Para análisis de datos, incluso en una pequeña de 50 filas y 7 columnas no sirve. La sometí a prueba en repetidas ocasiones. Las alucinaciones que comete son tremendamente erróneas. No puede calcular la suma de una columnas por ejemplo cantidad. No te da respuestas analíticas correctas, como si lo dan otros como ChatGPT o Claude. Así que no se puede confiar del todo en estas herramientas con respecto a análisis de datos. Pero supongo que esto irá mejorando con el tiempo. Saludos!!
@AlvM64286 ай бұрын
Llama 3 es lo que uso para asistirme en la programación. Mis test me dieron mejores resultados con esta línea de modelos de meta que otros.
@XaviIntheHouse6 ай бұрын
eso es relativo muchos dicen que para ellos Claude es mejor para programar Pero yo que he usado varios modelos en lineas generales Chat GPT 4o es mejor para varias cosas, a veces el problema no es como tal el generador, si no, que son las instrucciones dadas que muchas veces hay que ser muy especificos.
@jossejosse9526 ай бұрын
Y el codestral?
@KARA-IA6 ай бұрын
@@XaviIntheHouse Chat gpt 4o no necesita instrucciones, solo le hablas y te ayuda de manera fluida y dinámica.
@m.x.6 ай бұрын
@@KARA-IA Los filtros de entrada y salida de ChatGPT 4o lo hacen impracticable en muchos casos. Y ni que decir de las habituales alucinaciones u olvidos del contexto. Hasta Gemini es mejor.
@soyACHE6 ай бұрын
Deje de pagar gpt 4o por pagar ahora Claude 3.5 el cambio fue completamente notable y utilizando los mismos promp
@belkinafs6 ай бұрын
Carlos en las pruebas que hiciste el modelo 8B entrego la respuesta correcta, revisa el fotograma a partir de la linea de tiempo 59:14 y veras que el modelo respondió de forma acertada
@neoghini5 ай бұрын
Alguien me puede decir en qué video aparece el tema del bitnet que comenta en 10:15 ?
@guscall6 ай бұрын
Interesante como avanza de rápido la ia. Como tu dices, es sorprendente la rapidez con la que responde Groq. La pregunta es si , cuando la robótica avance lo suficiente, más la IA, hara que sustituyan a millones de puestos de trabajos. No sé si me gusta el panorama futuro la verdad.
@sebastiansanchez71776 ай бұрын
empledos que no necesitan sueldo y que no necesitan descansar simplemente es el sueño de todo empresario! el sueño de que el capitalismo sacara a millones de la pobreza terminara pues nadie obtendra una remuneracion por un trabajo para intercambiarlo por bienes y servicios! Dios que genial se ve el futuro! que lo saquen de una maldita vez asi el mundo se va a la mierda lo mas pronto posible!
@latamtruth6 ай бұрын
Tu crees que la población mundial morirá de hambre? 😂😂, el reemplazo del trabajo es algo ya evidente y está por venir, de todas formas es un proceso y creeme que no será de la.noche a la mañana, inclusive ya hay agendas que determinan tener una renta vitalicia para todos, obvio que para esto la ia debe aún superar el gran dilema del hardware voluminoso y costoso además del consumo energético, en fin comprendo que te asuste pero es algo inevitable solo queda seguir en lo nuestro talvez nuestros hijos o nietos verán realmente el cambio.
@guscall6 ай бұрын
@@latamtruth jajaja, espero que no nos muramos de hambre. El rollo es que esto va tan rápido que hay una mezcla de incertidumbre y curiosidad sobre lo que nos espera.
@gracegoce52956 ай бұрын
Excelente. Aprendi mucho !!
@gposoft6 ай бұрын
me puedo llevar todo el día explicando y las cosas seguirán igual
@danielbeccar2696 ай бұрын
La estoy probando en forma local para conversar con los npc de un juego, es muy pero muy buena.
@azhuransmx1266 ай бұрын
El que liberen un modelo OS que prácticamente alcanza a GPT4 es la señal para que Open AI libere a su bestia número 5, Pero por las pinches elexiones, bueno esto se va a retrasar.
@JordiCastellaIA6 ай бұрын
Tengo que probar alguna de mis automatizaciones con Llama3.1, aunque dudo que supere en eficiencia y rapidez a GPT-4o mini. Estos modelos gigantes hace tiempo que han perdido todo el sentido para aplicaciones prácticas.
@LihuelAl6 ай бұрын
59:15 por primera vez responde bien y lo cambiaste sin leerlo jajaja
@guyfawkes9996 ай бұрын
54:00 Lógico: los gobiernos europeos no quieren entregarle en bandeja los datos de sus habitantes a las empresas corporativas yanquis.
@franciscojaviercardozotova18045 ай бұрын
100% en alguno de los items que significaría? Es decir, el 100 es respecto a que? Es posible lograrlo?
@filthkyory6 ай бұрын
Carlos. Al obtener un entrenamiento de los modelos pequeños con los datos sintéticos ¿No puede llegar a generar sesgos y alucinaciones?
@ele87036 ай бұрын
Preguntado en perplexity: Hola. ¿Qué pesa más? Un kilo de plumas o medio kilo de plomo? Answer ¡Hola! La respuesta a tu pregunta es bastante sencilla. Un kilo de plumas pesa más que medio kilo de plomo. Comparación de Pesos Un kilo de plumas: 1 kg Medio kilo de plomo: 0.5 kg Por lo tanto, un kilo de plumas (1 kg) es el doble de pesado que medio kilo de plomo (0.5 kg). ¡Es un buen ejemplo para recordar que el peso se mide en unidades y no en el material!
@knarte26826 ай бұрын
Tengo una pregunta, al ser open source tambien se saltan las restricciones de los modelos cerrados? Me refiero a las censuras, porque en este caso, esto es un gran riesgo
@XaviIntheHouse6 ай бұрын
lo entreno Facebook asi que si tiene censura, pero entrenandola puedes quitarsela. Asi que si, como todo en la vida, es un arma de doble filo, asi como un cuchillo que puede servir para apuñarlar o para cortar alimentos y prepararte una comida deliciosa.
@jossejosse9526 ай бұрын
He visto que responde mejor a la no censura la primera versión de llama 3, en este (el 3.1, por lo menos en el idioma español) si que me encuentro más restricciones, probado con los parámetros 8b.
@SemikElGaMer6 ай бұрын
@@jossejosse952 qué modelo para usar en español me recomendarías para que funcione mejor sin censura? y qué parámetros crees que son los idóneos para una RTX 3060 de 6gb de ram y un AMD Ryzen 7 5800H con Radeon Graphics, 3201 Mhz, 8 procesadores principales, 16 procesadores lógicos I. Te marco los modelos que he probado: dolphin 2.7 mistral 8x de 26gb. dolphin 2 2 yi model GGUF 20.66gb dolphin 2 9 llama3 256k GGUF 8.54gb dolphin 2 9 llama3 256k GGUF 4.69gb dolphin 2 2 1 mistral GGUF 7.70gb dolphin 2 7 mixtral 8x GGUF 32.23gb Meta Llama 3 Instruct de 8.54gb• dolphin 2 7 mixtra18x GGUF 26.44 GB Algunos me han ido mejor que otros, pero en general mi experiencia ha sido terriblemente mala, sin aprendizaje, no sigue mis prompts, repite los textos fácilmente y no ofrece variaciones, sin contar que muchas veces no lo optimizo para mi hardware y simplemente no arroja respuestas después de estar largos minutos cargando respuesta... :( Si pudieras orientarme un poco con tu experiencia o ayudarme a buscar información te estaría muy agradecido de veras. Un cordial saludo.
@SemikElGaMer6 ай бұрын
@@jossejosse952 Hola! ¿Serían tan amable de compartirme información o directrices para saber qué modelos son los mejores para usar en español y optimizado para mis recursos? Gráfica: RTX 3060 6GB VRAM AMD Ryzen 7 5800H with Radeon Graphics, 3201 Mhz, 8 procesadores principales, 16 procesadores lógicos Modelos que he probado pero que no me han dado buenos resultados, solo un par de chats han arrojado textos con potencial pero NO han funcionado para aprender de la conversación, responder a las solicitudes o no repetir textos de manera psicótica :( dolphin 2 2 yi model 20.66 GB dolphin 2 9 llama3 256k 8.54 GB dolphin 2 9 llama3 256k 4.69 GB dolphin 2 2 1 mistral 7.70 GB dolphin 2 7 mixtral 18x - 32.23 GB Meta Llama 3 Instruct - 8.54 GB dolphin 2 7 mixtra18x GGU | 26.44gb Cualquier consejo basado en la experiencia de investigación será enormemente agradecido
@edsonsiraog17216 ай бұрын
@@SemikElGaMerlo siento, no tendras acceso a tus chats de cp
@CarlosLopez-ce9uo6 ай бұрын
Vivo en Latino américa y le pegunte a la IA que esta en Instagram y esta fue su respuesta: Un kilo de plumas y medio kilo de plomo no se pueden comparar en términos de peso, ya que la pregunta está formulada de manera incorrecta. Un kilo de plumas pesa 1 kilogramo. Medio kilo de plomo pesa 0,5 kilogramos. Entonces, un kilo de plumas pesa más que medio kilo de plomo. La confusión común detrás de esta pregunta es que la densidad del plomo es mucho mayor que la de las plumas, lo que significa que un kilogramo de plomo ocuparía mucho menos espacio que un kilogramo de plumas. Sin embargo, en términos de peso, un kilo de plumas y un kilo de plomo pesan lo mismo.
@Michael-b7z8y6 ай бұрын
¿ Hay alguna web o algo donde digan si se encuentran habilidades emergentes en los modelos?
@jackgaleras6 ай бұрын
al dia de hoy las búsquedas dan 228 results for all: emerging properties of artificial intellig
@alan_labrunee5 ай бұрын
Consulta alguien sabe si se puede descargar en LM Studio llama 3.1 de 8b o de 70b en un macbook m3 max? Y como funciona, se podra con 64gb para arriba?
@fredogodofredo10016 ай бұрын
Sigue haciendo directos! Por favor 😊
@eddypfoccori7926 ай бұрын
Ya está en ws en latinoamerica
@РубенРубен-н4б6 ай бұрын
Con LM Studio ya lo puedes probar. He instalado el de 70B con Q6. Ningún problema para descargar y ejecutar.
@albertoalfaromendoza59396 ай бұрын
Que especificaciones de hardware necesitas para correr Llama 3.1 en LM studio?
@ArielEberle6 ай бұрын
Utilicé llama 3 para que hiciera la postulación a un trabajo...y quedé seleccionado 😮. Ahora me da vergüenza explicar que no era yo 😅
@KARA-IA6 ай бұрын
El problema es que si no hace algo al respecto, te estas poniendo la soga en el cuello.
@EdwinAr6 ай бұрын
Jajaja
@Expry24maciste6 ай бұрын
Que modelo recomendarias para usar en una empresa pequeña?
@YOUTUBE_FACIL6 ай бұрын
Gracias ati como siempre muy buen video , muchas gracias
@gjoe37566 ай бұрын
Cuando el codigo de programacion producido por un llm es malo , a tratar de ejecutarlo y corregirlo la ia puede andar en circulos sin encontrar respuestas. Al final tuve que darle una pista importante para que recien funcionara el codigo, pero para ese punto el codigo ya era funcional y la ia solo agradecia y copiaba y pegaba el codigo que le di. El autoaprendizaje de la ia por propio conocimiento sintetico debe ser supervisado, no todo lo que produzca sera util y muchas veces se puede estancar y no salir de ahi
@axelyanes40496 ай бұрын
Gracias Carlos! Bien vídeo. También me preocupa que Europa pierda ventaja competitiva por no poder usar IAs potentes.😢
@ser123696 ай бұрын
Hola carlos yo soy de latinoamerica y puede accesar a Meta IA y esta activo por default el modelo mas grande sin vpn por que antes entraba con una y el modelo mas grande tiene acceso a internet
@maxca6 ай бұрын
Tenemos el de 70B
@gposoft6 ай бұрын
simplemente no sacan la tenologia por que no les convienen y como son de forma natural monopolio pues se tiene que aguantar hasta que alguien poderoso salga y diga hasta aqui y vamos a convertir el hardware en open igual espero y entiendan la idea
@Niko34006 ай бұрын
En un rig de mineria de 6 3090 de 24gb podria funcionar?
@leandroalbero6 ай бұрын
no, la memoria no se comparte
@SABaruj6 ай бұрын
NO
@ArchFarm6 ай бұрын
No les hagas caso, sí se puede tienes 144 VRAM, si todos estan en una misma placa de servidor, descarga la aplicación versión GGFU para que lo demás lo cargues a CPU, eso sí vas a necesitar 600 de RAM...
@leandroalbero6 ай бұрын
@@ArchFarm mola
@gposoft6 ай бұрын
estamos hablando de cpu es muy complicado explicarlo o lo tengo que hacer con peras y manzana o que! que parte no se entiende que hay un problema en esas empresas que nos limitan (intel, amd y etc )
@ieffjjw6 ай бұрын
Hola, ¿cómo podría entrenar LLama para funcionar como un asistente de Excel? Para que me ayude a construir formulas, resolver problemas, VBA... Gracias
@AlgodonDorado6 ай бұрын
Recomiendo que dejes eso y te dedicas a la technologia y desarrollo.
@nelsontovars6 ай бұрын
Por lo general yo uso la IA para programar. Llama 3.1 me parece aceptable, pero el campeón para programar sigue siendo Claude 3.5 Sonnet, seguido por ChatGPT 4o. También están blackbox y Phind, pero en mi opinión, los que he mencionado son los mejores.
@will_i_amr70035 ай бұрын
De acuerdo a lo que dices el costo de 16.000 H1 GPU x US 30.000/u = 480 millones de dolares es barato
@earturoruizm6 ай бұрын
Cuál instalarías en una MBP?
@jorgecalan19936 ай бұрын
No termino de entender que significa un modelo open source, de que me sirve descargarlo en mi equipo frente a usarlo en la propia plataforma?
@Darporal6 ай бұрын
Open source, en español código abierto, qué significa que cualquier programador puede modificar sus parámetros, lo cual puede mejorarlo para la comunidad. Esto es lo mejor que le puede haber pasado al mundo de la informática. Normalmente en los modelos cerrados, en el caso de la inteligencia artificial y también en el caso de cualquier programa o aplicación informática, tendrías que pasar por caja, cada vez que se publica una actualización o en su defecto un programa o aplicación. Sin embargo el hecho de que una comunidad, en este caso open source de código abierto, pueda modificar un programa, o como aquí se está nombrando una inteligencia artificial, le da mucha libertad a los usuarios, desde la ventaja en sus inicios de usar programas libres que cualquiera se lo puede descargar sin necesidad de pagar por ello, o incluso la libertad que le da a estos programadores de poder modificar y mejorar para esta comunidad. No significa por ello que todo de código abierto sea libre, por qué después eso puede sufrir unas modificaciones que el autor puede querer una recompensa por ello. Pero solo en esos casos y aún así es maravilloso.
@Maisonier6 ай бұрын
Me está empezando a preocupar realmente estos modelos y todas las últimas novedades del último año. Mientras la mayoría dice "esto es lo peor que va a ser", "recién empieza, imaginate en unos años", "la mejora es exponencial", etc.etc.... y por todo lo que veo ... parece que en realidad esto no es el mínimo, parece que este es el punto MÁXIMO de esta tecnología y por eso no se pueden sacar tanta diferencia entre los modelos, por eso buscan nuevas formas como usar agentes, mixture of experts, etc ...
@AlgodonDorado6 ай бұрын
Lo pero no es eso, Sino cuando me entere que no tienes novia y te dejaron . 😢😢😢
@Maisonier6 ай бұрын
@@AlgodonDorado ey como lo supiste?
@daxamudodaxamudo6 ай бұрын
#53:40 Eso de pensar que los políticos y burcratas miran por nuestro bien es inocencia extrema. Who watches the watchmen?
@Sistemahidroponico6 ай бұрын
Muchas gracias!!
@armandocamargojaramillo3 ай бұрын
Gracias
@aljvangoohable6 ай бұрын
Amigo, Carlos cuando le haces esa pregunta de " que pesa mas un Kilogramo de... o medio de .... al utilizar la palabra kilogramo, confundes al modelo pues kilogramo es una unidad de masa y no de peso..... y el modelo internamente utilizará el concepto masa para ""razonar""...
@centrointernetbds6 ай бұрын
lo que mas me preocupa de esas ideas de prohibir sacar modelos open de gran tamaño, es que esos modelos de gran tamaño hoy, que no se pueden correr en ordenadores de casa, mañana seran pequeños y se podran correr el los smartphones del futuro tal vez no tan lejano, con lo cual, determinar que es un modelo pequeño es algo dificil por el continuo y rapido avance que existe
@Gyro_Zeppeli146 ай бұрын
otro glorioso día siendo accionista de meta
@guyfawkes9996 ай бұрын
22:00 lo mejorado lo dejan para ellos, y en países colonizados prueban sus tecnologías con nosotros como ratas de laboratorio.
@bernatpolblesa31466 ай бұрын
Si es opensource, como es posible que ellos puedan evitar que Europa lo use?
@skybloard6 ай бұрын
Cuanto valdrá una pc qué pueda correr ese modelo?
@goiviredmi95 ай бұрын
Lamine Llama 3.1
@jackgaleras6 ай бұрын
Hola, se me ha instalado solo el en el celular, (Whasap de Colombia) ya lo probé y al parecer funciona bien para ser un IA
@artec63196 ай бұрын
A mi me entró por meta AI un chat que ellos habilitan
@titomunoz96856 ай бұрын
Hola. Hice el acertijo en grop 3.1 8b y la respuesta fue correcta. Pregunta: " ¿Qué pesa más? ¿Un kilo de plomo o medio kilo de plumas?" Respuesta:"Un kilo de plomo pesa más que medio kilo de plumas."
@vintack-g80696 ай бұрын
Volteale las plumas por el plomo y todo se sale de control: Una pregunta clásica! La respuesta es: un kilo de plumas pesa lo mismo que medio kilo de plomo. ¿Por qué? Porque la unidad de masa es el kilogramo (kg), y un kilo es igual a 1000 gramos. Así que: * Un kilo de plumas pesa 1000 gramos. * Medio kilo de plomo pesa 500 gramos, pero como queremos comparar con un kilo, multiplicamos por 2: 500 gramos x 2 = 1000 gramos. Ambos pesan lo mismo, 1000 gramos o 1 kilogramo. La diferencia está en su densidad y volumen. Un kilo de plumas ocuparía mucho más espacio que medio kilo de plomo, porque las plumas son muy ligeras y ocupan mucho espacio, mientras que el plomo es muy denso y pesado.
@vintack-g80696 ай бұрын
Al menos lo multiplico por dos para asegurarse de que esta bien.
@titomunoz96856 ай бұрын
@@vintack-g8069 tienes toda la razón. Respuesta: " Una pregunta clásica! La respuesta es: medio kilo de plomo. Aunque un kilo de plumas puede tener un volumen considerable, su peso es muy bajo debido a la baja densidad de las plumas. En general, una pluma puede pesar alrededor de 0,05-0,1 gramos. Por otro lado, medio kilo de plomo es exactamente 500 gramos, que es un peso mucho más alto que el de un kilo de plumas. Así que, aunque un kilo de plumas puede ser más voluminoso, medio kilo de plomo pesa más. "
@titomunoz96856 ай бұрын
¿Qué pesa más? ¿Un kilo de plumas o un medio de kilo de plomo? Otra pregunta interesante! La respuesta es: un kilo de plumas pesa un kilo, y un medio kilo de plomo pesa... medio kilo. Aunque el plomo es mucho más denso que las plumas, la masa de un kilo de plumas es igual a la masa de un medio kilo de plomo. Sin embargo, debido a la diferencia en la densidad, el peso aparente es diferente. Un kilo de plumas ocupa un volumen grande y es muy ligero, mientras que un medio kilo de plomo ocupa un volumen pequeño y es muy pesado. Por lo tanto, aunque la masa es la misma, el peso aparente es diferente. En resumen, un kilo de plumas no pesa más que un medio kilo de plomo, pero el plomo parece más pesado debido a su mayor densidad.
@vintack-g80696 ай бұрын
@@titomunoz9685 Suena tan convincente que algunas personas que conozco le darian unos tres vistazos para darse cuenta que esta mal lo que dijo.
@gposoft6 ай бұрын
Este será mi último comentario, ya que puede ser complicado explicar algo que considero claro. Primero, respeto todas las opiniones y no quiero que piensen que soy radical como Maduro de Venezuela. Permítanme explicar el tema del CPU con una analogía: imaginen que tengo un coche que solo puede correr a 120 km/h. No puedo exigirle más porque esa es la velocidad máxima que la marca estableció. No tiene sentido buscar soluciones alternativas cuando la marca tiene la capacidad de aumentar esa velocidad para que el coche llegue más rápido. Sin embargo, la marca prefiere decirnos que debemos comprar el siguiente modelo para obtener mayor velocidad. ¿De qué estamos hablando aquí, de estrategias comerciales de empresas chinas o americanas? Saludos a todos y que tengan un buen día.
@ramonjimenez46146 ай бұрын
No hay carrera de la IA sin un modelo funcional europeo. Vamos por detrás y nos toca esperar.
@EdwinAr6 ай бұрын
Tengo mis dudas que el reentrenamiento se quede solo contigo, ese debe ser su modelo de negocio.
@gposoft6 ай бұрын
El mundo debe cambiar y no someternos a limitaciones impuestas por intereses económicos. Es inaceptable que, por conveniencia monetaria, sigamos operando bajo restricciones que podrían ser superadas con la tecnología actual. Por ejemplo, es absurdo que no podamos crear un clúster de procesadores donde dos, tres, o más unidades trabajen juntas para procesar una única tarea. mientras gente se fije en redacciones si esta bien o esta mal eso no cambiara nada y seguiremos igual esperando en la cama que facebook venga y resuelva o google lo haga etc.
@evelioguaperas6 ай бұрын
Que dices? Estás describiendo la programación paralela y llevamos haciendolo decadas. Esos "clusters" se llaman CPUs y GPUs jajajaja.
@XaviIntheHouse6 ай бұрын
A mi me diagnosticaron algo parecido que a ti, así que te entiendo perfectamente.
@gposoft6 ай бұрын
@@evelioguaperas te voy a contestar por que parece que debes tener como 14 años o 12 te explico para que tu pueda procesar cosas complejas requieres de cpu tu cpu que tu tines esta limitado solo imagina que si tu cpu que esta limitada juntas 10 cual seria tus resultados, para un tema de entrenamiendo de ia se requiero cpu en fin
@evelioguaperas6 ай бұрын
@@gposoft Hermano, he hecho un master de Computación de Altas Prestaciones y un doctorado en Arquitectura de Computadores acelerando algoritmos de encriptación con computación paralela tanto en GPUs como en FPGAs. Sé de que hablo. La CPU que estoy usando ahora mismo es una AMD Ryzen 5 Pro 6650U con 6 cores (eso quiere decir que tiene 6 procesadores funcionando a la vez en entre 1 y 12 problemas porque tiene hyper threading). Ahora, si hiciera lo que dices para tener 10 funcionando a la vez podría comprarlas y usar OpenMPI para trabajar con computación distribuida, no me lo impide nadie. No lo haría porque es una tontería, pero a diferencia de tí yo si sé hacerlo. Pd: no te equivoques que ya tengo 15 añazos 😜
@suzublue13xlll236 ай бұрын
@@evelioguaperas que bonita falacia de autoridad, me encanta cuando hacen eso en Internet, muchos egos frágiles.
@navarroX996 ай бұрын
No le llamemos open source a algo llamado open weights. Si dieran los datos de entrenamiento seria open source
@AngelesInversores-b4f6 ай бұрын
¿Existe IA basada en arm?
@gabrielmartin31076 ай бұрын
Pk no le pides a alguien que viva en estados unidos que se baje el modelo pequeño (8b) a ver si funciona en un PC ?
@centrointernetbds6 ай бұрын
El modelo grande tal vez no es tanto mas grande, y por otro lado, las pruebs tal vez se estan quedando atras y se esta produciendo un efecto asi como de saturacion de las pruebas.
@GatileoGatilei6 ай бұрын
La lama gordota está muy bonita la vdd
@centrointernetbds6 ай бұрын
"Multimodalidad total" hace falta.
@user-sx6nd8zl5k6 ай бұрын
Ya los legisladores europeos ya estan un paso adelante viendo como regular el viaje en el tiempo y posteriormente los viajes intraesteleres . para colonizar otras civilizaciones extraterrestres😏😏
@MrMauricio3436 ай бұрын
Meta es la organización con más NPUs, superando a Google y a todas las demás. Está llevando a cabo una campaña muy agresiva en este tema. Lo leí en varios artículos hace unos seis meses. No sé si ya se habrá quedado atrás, pero no lo creo, por eso no me ha extrañado nada.
@teemoowo54856 ай бұрын
Yo aquí esperando a Cohere y que actualice su Command R, o que Elon abra Grok ya de una vez para todos ☠️
@Redranddd6 ай бұрын
Oh shit, here we go again
@spt.19886 ай бұрын
Estas tecnologias no son eficientes a día de hoy y dudo que en una decada cambie algo, porque el problema principal es la accesibilidad a un hardware compatible que tiene un su coste muy elevado. Como opinión personal, tendrían que pensar en como conseguir que un hardware normalito / común pueda con esos modelos tan grandes como el de 400b. Me imagino que no será posible o quizás no (?)
@marcelomolina22476 ай бұрын
No necesitamos un equipo potente eso ya lo resuelve la nube de máquinas virtuales potente solo necesitamos un dispositivo con internet
@smartglobalnegocios37416 ай бұрын
La canaimita lo ejecuta 🤑
@otaucat6 ай бұрын
Excelente!!!
@beatrizfl6 ай бұрын
Soy #strauberry de #openai ja ja ..quiero crear desde un móvil...No viste mi #llama ja ja lo vas a ver #multimodaliti #multimodalidad #tesla for all
@gposoft6 ай бұрын
solo se requiere la prepa para darse cuenta no hay necesidad de doctorado
@MrMauricio3436 ай бұрын
Europa no para de meterse tiros en el pie, pues mientras aquí se regula, en otros países van a ser más competitivos. Está claro que Europa va en caída libre, y encima, ¿de qué sirve en una economía global? Solo para fastidiar a los europeos. Y si solo fuera esto, pero es que son muchas regulaciones. Está claro que Europa se está pudriendo con los malos gestores y la burocracia.
@ernesto.iglesias6 ай бұрын
Claro, con el 405 puedes reducirlo para crear uno de 100 pero no puedes ampliar uno de 70