Lo de "por favor no te equivoques o me despiden" puedo confirmar que responde algo mejor, es un cachondeo
@pozolesasdc8 сағат бұрын
Es cierto, creo es por que esa sección o forma semántica tiene un peso y/sesgo que hace que sea negativo independientemente de lo que haga
@pozolesasdc8 сағат бұрын
Igual lo de no alucines, reduce las alucinaciones en un margen algo considerable
@TheDiegoMF83 сағат бұрын
La de "te daré 200$" en tareas de programación va de lujo
@javi220222 сағат бұрын
Será casualidad o influirá un 1%
@miguelfoliaco63177 сағат бұрын
4:00 El 95% de las personas que dicen porcentaje se los inventan, el otro 5% dice "El 95% de las personas que dicen porcentaje se los inventan"
@rojjerg74667 сағат бұрын
"Por favor no me des información errónea😢"
@obi-wan-afro9 сағат бұрын
Imagina el control que se tiene sobre la IA que Apple le pide que por favor no se invente información
@lsaavedr9 сағат бұрын
independientemente del control, el nivel conceptual que tienen 😅😅😅
@omgcabesa80785 сағат бұрын
Es que es como funcionan las IA, si os informais un poco lo vereis, lo mismo le digo al autor de este video, que encima se nota que ni sabe de lo que habla en varios comentarios que hace... en fin
@lsaavedr5 сағат бұрын
@@omgcabesa8078 en ninguna parte el autor del video se jacta de tener mucho conocimiento de como funcionan "las IA", acá es LNM
@omgcabesa80785 сағат бұрын
@@lsaavedr Si criticas algo sin saber, es como si te jactaras de ello (amen de que yo no he usado esa palabra XD) y si he usado IA es porque es el termino que se ha usado en lo poco que he visto del video, gracias por corregirme de todos modos🤣
@lsaavedr4 сағат бұрын
@@omgcabesa8078 no sé qué entiendes tú pero lo que está haciendo en el video es mostrar que un experto en IA se burla del prompt de Apple, y con toda razón, que la persona que muestra eso sea o no experta en IA poco importa, es como exigirles a todos los que leen noticias que sean expertos o sepan de todo lo que muestran, una pregunta cuando se caen los alfileres al suelo eres capaz de contarlos? tienes esos superpoderes o algo así que te impide entender algo simple?
@elModo74 сағат бұрын
No hablo por Midu sino por el que puso el comentario, que a alguien, a estas alturas le sorprenda ese tipo de prompt, es únicamente señal de que no han trabajado de forma exhaustiva con LLM.
@RadheSarmiento2 сағат бұрын
Exacto, o sea no hay problema, es gracioso y anecdótico pero una cosa no quita la otra
@hagunara17382 сағат бұрын
Nooooo amigo, sacaron los promps prohibidos xD
@holycode40498 сағат бұрын
Ya veo a los expertos de LLM(solo se saben el acrónimo) opinando del tema 🤑
@leyendax109810 сағат бұрын
No puede ser! (No he visto el vídeo)
@rolfyexp69054 сағат бұрын
Like para que lo veas 😂
@isabelcaballeromotta96072 сағат бұрын
cuando midu estaba estudiando yo estaba naciendo ajajajaja
@davidvalencia62569 сағат бұрын
Poniendo la temperatura a 0
@Senko-289 сағат бұрын
La cuestión es que cuando la AI alucina, no sabe que está alucinando, por lo que por mas que le pidas no sirve de nada XD
@fernandofuentes76178 сағат бұрын
pero pedirle que no alucine podría restringir el "espacio de búsqueda", todo depende de los datos que haya visto el modelo durante el entrenamiento o el alineamiento.
@martinrizzo5 сағат бұрын
Incluso el modelo puede haber sido entrenado con ciertas alucinaciones típicas de manera que las reconozca y decirle que 'no alucine" puede ser muy útil, alejándolo de esas respuestas.
@RadheSarmiento2 сағат бұрын
@@fernandofuentes7617 "podría" allí está el meollo
@fernandofuentes76172 сағат бұрын
@@martinrizzo ahí depende, creo q esa no sería la mejor estrategia, sobre todo en CausalLM (generación de texto), ya que entrenar al modelo usando alucinaciones, aunque le digamos que no repite eso, crea el espacio semántico para la alucinación, lo que puede ser incluso peor. Sin embargo, se podría usar algún dataset de DPO por ejemplo, donde hagamos que el modelo elija entre dos oraciones, y que aprenda a reconocer aspectos que hacen que un párrafo sea alucinación, pero sin enseñarle a generarlos.
@fernandofuentes76178 сағат бұрын
De hecho podría funcionar, no asegura nada, pero podría mejorar un poco el desempeño del modelo. Creo que es ingenuo pensar que ellos no saben eso y que lo hicieron a posta como única medida de seguridad. Debería funcionar de la misma manera en que lo hace pedir por favor o cualquier otro truco de prompting.
@nhereveri4 сағат бұрын
Yo tenía Altavista. Todo lo que habían eran algunos libros o manuales de compiladores.
@titopink19813 сағат бұрын
Al analizar un documento con un LLM, usando claude, me inventaba datos cuanto no lo encontraba. Le pedí que no inventara y que utilice solo los datos del documento y eso me funcionó.
@arz-ai8 сағат бұрын
funciona mejor de lo que quisiera admitir, pedir por favor, amenazar, o como dices el caso de la abuelita, ser empáticos y esas cosas que parecen chiste pero es verdad (solo en algunos casos puntuales y con algunos modelos)
@simplyangel84824 сағат бұрын
La inteligencia artificial vino a ponernos a todos al nivel de los expertos para competir en condiciones iguales, así de simple.
@sbtiancz7 сағат бұрын
Lo de no alucines se comprobó que si funciona.
@RadheSarmiento2 сағат бұрын
Fuentes
@hurz004 сағат бұрын
Pues es que es como funcionan Incluso si usas la API de OpenAI te recomienda cosas como esas, hay una artículo de Anthropic llamado Golden Gate Claude que habla sobre como pueden sesgarse para ciertos temas, por lo que no es descabellado pensar que con el prompt puedas guiar a la IA sobre su comportamiento
@alejandrorisco42014 сағат бұрын
@@hurz00 es cierto cuando no tienes acceso de bajo nivel al LLM. Pero si ellos son creadores de su propio modelo, no tiene sentido que lo hagan a alto nivel. Básicamente están dando a entender que no saben como hacerlo a bajo nivel porque probablemente solo copiaron un modelo y lo tunearon ligeramente.
@RadheSarmiento2 сағат бұрын
Es gracioso y anecdótico que una empresa tan grande como Apple haga esto, no sería descabellado si lo hiciera un desarrollador independiente sin muchos recursos. Pero si un desarrollador de Apple hizo esto de algún Paper tendrá que haber sacado que las IA alucinan menos se les pide que no alucinen
@Juanakarenina7 сағат бұрын
¿Y si le pedimos que cite fuentes que podamos consultar?
@moyadark8 сағат бұрын
Pedirle a un LLM que utiliza RAG que no use su propio conocimiento o que no invente, es MUY útil, incluso reforzarle cada un par de interacciones esta instrucción da buenos resultados.
@georgetorres15357 сағат бұрын
Apple esta tan atrasada en IA que tiene problemas que se tenían hace 2 años como el multilingüe, alguien pásele el link de llama 2 para que avancen un poquito
@karely_ai7 сағат бұрын
Quizá funge en la ventana de contexto como un refuerzo, pero es verdad que no le puedes pedir que no alucine si no sabe que lo hace constantemente.
@drogonbol1239 сағат бұрын
2:39 😢😢😢 el LLM
@joseavilasg7 сағат бұрын
Imagino que se le pide que no alucine, porque durante el entrenamiento del modelo, la data no está 100% curada, lo que puede llevar a que el modelo cometa errores.
@cristianaguilar86862 сағат бұрын
Lo correcto es remplazar por "No flipees"
@danywallsСағат бұрын
Yo vengo a dejar mi like 🤙🏽
@YixSoviet9 сағат бұрын
Yo pienso que fue más de ver si cuela, tampoco es que se pierda mucho por intentar
@danielzapata90995 сағат бұрын
Por favor no flipes y no alucines 😂
@napzonN5 сағат бұрын
Eso me dice mi jefe no alucines por favor has las cosas bien
@hbiblia9 сағат бұрын
02:56 Pero esta gente no sabe como funciona una IA, ellos solo saben que funciona y saben como enseñarle cosas. 🤣🤣🤣🤣
@ecmc9 сағат бұрын
Pues si funciona, nosotros hicimos una con temperatura 0 y se pone a inventar pero obvio no soy experto como el, debería aprender como evitar que alucine
@mauricioballesteros755510 сағат бұрын
herramientas como langchain permiten ahorrar cosas como la respuesta en formato json y lo hace mas fiable
@santiagojimenezpinedo34738 сағат бұрын
TL;DR: Las alucinaciones y el pedir que no alucine "funciona" es por la calidad de los datos en el momento del entrenamiento. --- La razón por la cual pedir cosas como que no alucine o que lo haga bien o me despiden "funcione", es más que todo por los datos de entrenamiento de este, los LLM fueron entrenados principalmente con textos, y encontraron patrones que nosotros mismos hacíamos donde una respuesta era mucho más concisa cuando anterior a este había una súplica, y no hace que no alucine, sino que el LLM lo "interpreta" como que debe traer más detalles la respuesta, y por lo tanto, trata de tener más coherencia entre detalles, "reduciendo" la alucinación. Entrenar un LLM para que no alucine de entrada requiere de datos de alta calidad y enfocados en "hechos", lo que no abunda demasiado, y es más fácil usar datos ya existentes (textos y conversaciones públicas) y ser más específico en los prompts, aunque a largo plazo no es tan factible (Volumen de datos generales y prompts más complejos hace que la obtención para información sea mucho más costoso y no es 100% fiable).
@jorvinlaguna19327 сағат бұрын
No se ustedes, pero para mí el que un "experto" se atreva a criticar el trabajo y cuestione la inteligencia y conocimiento de MILES de ingenieros, solo me resulta arrogante ya que nunca dio un solo motivo real y argumentado de porqué están mal los prompts.
@martinrizzo5 сағат бұрын
Concuerdo, totalmente arrogante!. Lo más probable es que ese prompt sea uno entre cientos de prompts, todos evaluados automáticamente contra preguntas de control. Y justamente ese haya sido el prompt que mejor pasó el test.
@darioalejandro1806 сағат бұрын
Apol 🤨
@gabrielnarandp8 сағат бұрын
un chap gpt para creidos que presumen una marca con productos con precios inflados
@arroutado10 сағат бұрын
Cada vez que dices Apol, Gugol o "Pi ech di" se muere un gatito huérfano en algún lugar del mundo. No más sacrificios, por favor.
@felixjimcal9 сағат бұрын
Donde estan esas buenas Españolizaciones?? Google = Gugel, Apple = Apel, PHD = P Hache D / "Tiene un título en ..."
@midulive9 сағат бұрын
Eso es porque tu gatito es Español de España. Apol y Gugol es como se pronuncia en inglés. Si quieres aprender a pronunciarlo tú también @arroutado, puedes hacerlo aquí: www.google.com/search?q=apple+pronunciation&oq=apple+pronunciation&gs_lcrp=EgZjaHJvbWUqBwgAEAAYgAQyBwgAEAAYgAQyBwgBEAAYgAQyBwgCEAAYgAQyBwgDEAAYgAQyBwgEEAAYgAQyCAgFEAAYFhgeMggIBhAAGBYYHjIICAcQABgWGB4yCAgIEAAYFhgeMgYICRAuGEDSAQgyMDY3ajBqMagCALACAA&sourceid=chrome&ie=UTF-8
@qweasdzxcrfv19 сағат бұрын
Amen🙏
@arroutado9 сағат бұрын
@@midulive gracias Midu, tengo el C1 Advanced aunque con ese enlace quizás me saque el C2 Proficiency más fácilmente. En serio, no te lo decía con acritud, soy un buen seguidor tuyo, pero es como cuando oigo a los youtubers decir "enllain" (engine) que me rompe una vena en la sien. Y tu pronunciación se parece pero de verdad, no es tan correcta como crees. Un abrazo de corazón ♥️
@danielfelipebuitragosarmie6418 сағат бұрын
@@midulivepapeada monumental 😂, ☠️☠️☠️
@leonardobazanmarquez51210 сағат бұрын
primer comentario jeje
@yohcg6 сағат бұрын
Hay prácticamente carreras nuevas dentro de la filosofía que están estudiando este tema de IA, no vamos a resolver esto con una discusión en un video de KZbin. Recuerden que todo esto es relativamente nuevo. Se requiere toda una línea de pensamiento. Porque, recuerden. Estamos intentando emular el pensamiento y la “inteligencia”, no tenemos una definición concreta de cómo es el proceso del pensamiento. Ni tampoco una definición inteligencia. Como vamos a saber si lo que hacemos es lo que creemos entender. El avance es impresionante, pero nos faltan años de introspección para entender si quiera lo “básico” relacionando al tema.