⚠ Nous recherchons des profils bien spécifiques à inviter dans l’émission ! - quelqu’un qui a déjà mis en places un Honeypot - dans le cadre du taf’ ou non, et qui a péché des poissons intéressants, le mieux c’est si vous avez des trucs visuels, des screenshots à montrer - une boîte qui a développé un outil en no-code et qui s’en est mordu les doigts ensuite, qui rétrospectivement, aurait préféré coder d’entrée de jeu - quelqu’un pour parler de la pénurie de développeurs en COBOL ou FORTRAN aujourd’hui, si possible un développeur COBOL que les banques s’arrachent - quelqu’un pour parler des problèmes de la fondation Mozilla et du nouveau navigateur Ladybird, qui connait bien l’écosystème des navigateurs et moteurs web Si vous vous êtes reconnu (ou si vous connaissez quelqu’un qui correspond), n’hésitez pas à nous contacter à : underscore@micorp.studio
@arthurking284817 күн бұрын
intel ultra est instable en se moment
@samuelgarcia180217 күн бұрын
Coucou, je pense qu'il a raison concernant la voix, mais il exagère un peu pour O1. Il est important de souligner qu'O1 possède un niveau de PhD dans plusieurs disciplines, telles que les mathématiques, la physique, la chimie et la biologie. Son niveau en programmation est également impressionnant (peut-être légèrement inférieur à Claude Sonnet 3.5), mais reste tout à fait remarquable. Il faut aussi garder à l'esprit que nous avons actuellement accès aux versions preview et mini d'O1, qui ne représentent pas la version finale prévue pour ce Noël, et qui promet d'être encore plus performante. D'ailleurs, si les chaînes de pensée étaient si faciles à implémenter, toutes les IA génératives les utiliseraient déjà. Je te conseille de te tourner vers quelqu'un de bien informé sur O1. J'ai connu des docteurs en sciences qui ont été stupéfaits par les capacités de la version preview, que ce soit en mathématiques, physique/chimie ou biologie.
@psikobare17 күн бұрын
par contre c'est un peu bizarre de chercher des profils avec des conclusions déjà toutes faites. Après tout peut-être que certaines boites ont mis en place du nocode et en sont satisfaites par ex.
@sculpteurs17 күн бұрын
Belle initiative mais les NDA vont être compliquées à gérer pour une vidéo. (Milieu bancaire et un carnage en cours...mais chuuut on fait de la pub. Ça passe)
@xaviera588617 күн бұрын
Perso je fais du No-Code et je suis content, je fais du SaaS (Je suis CTO), pour des fonds de VC. Au lieu de m'en mordre les doigts, je me frotte les mains 😁
@TchoumZik17 күн бұрын
Jean-Louis Quéguiner transpire la passion et la maitrise du sujet : un délice de l'écouter :)
@joffrey683117 күн бұрын
Un invité captivant, avec une super élocution 👌
@philippe-lebel17 күн бұрын
J'aurais préféré qu'ils invitent l'IA pour directement lui poser les questions ;)
@playmotion.trailer17 күн бұрын
oui, j'adore sa voix et son élocution aussi, c'est à la fois carré et reposant. C'est la voix que je veux pour mon assistant google ! 😁
@evfamilytrips920716 күн бұрын
Pas un seul ‘du coup’
@WhiteRabbit3333315 күн бұрын
La vie est amusante quand on est avec des amis et des amoureux. La raison pour laquelle nous ne sommes pas heureux est que tout le monde travaille, alors nous nous déconnectons d'eux.
@youtou2528 күн бұрын
oui c'est super, sauf qu'il invente.
@lynamktr17 күн бұрын
Il me fascine tellement ce type ! Étant étudiante en Réseaux et Télécommunications il y a beaucoup de concepts que j'étudie et dont je ne comprends pas toujours le but et l'utilisation en pratique, lui les aborde et les relie de façon qui rend la chose tellement logique et évidente. S'il créer un podcast je le suis à 10000%
@Vedrine413 күн бұрын
Faut faire du dev..
@achrafgrari23063 күн бұрын
Cybersecurity gang@@Vedrine41
@Emb_Sys17 күн бұрын
J'aime ce guest, il semble vraiment passionné par ce domaine !
@batlikcover253816 күн бұрын
Cette vidéo est la démonstration qu' inviter des personnes hyper compétentes et sélectionnées avec soin est une excellente idée !
@GaylordWagner8 күн бұрын
Vraiment au top les explications. j'adore ❤
@tba7716 күн бұрын
encore un titre qui n'a rien à voir avec le contenu de la vidéo dommage que depuis un bon moment maintenant tous les titres d'underscore sont comme ça c'est fou alors que le contenu est de qualité
@RobertJaqui13 күн бұрын
Encore un relou qui vient pourrir le chat avec ses états d'âme alors que la vidéo est très bien
@Merlinracontedeshistoires3 күн бұрын
Compliqué de trouver un titre accrocheur pour ça... Proposition ?
@AnthoNoar17 күн бұрын
La ref à FDB je m'y attendais pas ^^
@thibautchailloleau68717 күн бұрын
Énorme
@francoisvallat17 күн бұрын
ça fait plaisir
@KALIIIZOR17 күн бұрын
La Vovo dans la stratosphère !
@Dadadu1617 күн бұрын
La référence qui fait plaisir à son homme
@Fivizzz17 күн бұрын
C'est de bonne facture
@albrigo16 күн бұрын
Sujet intéressant et actuel, même un profane comme moi arrive à (presque) suivre grâce au support visuel qui accompagne l'explication de l'invité: un gros boulot dont je vous félicite et remercie!
@laurentallenguerard17 күн бұрын
9:30 C'est la représentation la plus claire de la transformée de Fourier que j'ai vu.
@MoncefNaji17 күн бұрын
Super calé comme invité ! Merci !
@thedjin242917 күн бұрын
Très intéressant, l'invité est claire et précis dans cette échange
@Mecanoje17 күн бұрын
La ref à Farine De Blé ! La vovo !
@valentinorosado559117 күн бұрын
Le 2JZ 💥
@elmambojambo17 күн бұрын
@@valentinorosado5591 peut-on cuire une merguez sur une carte nvidia qui tourne pour miner ? Peut-on se servir des ventilos d'un serveur qui mine du bitcoin pour alimenter les deux turbos du 2JZ ?
@slals16 күн бұрын
ça m'a fait rire, la ref qui sort de nul part
@theophilechardon339717 күн бұрын
Le fair qu'il y ait trop peu de latence a aussi un autre défaut: impossible de converser en demandant qu'il te laisse réflechir car tu cherches tes mots des fois: la réponse est toujours immédiate, alors qu'une personne humaine comprend que certains silences ne demande pas de réponse immédiate. Cela rend l'utilisation du bot pas très pédagogue si on veut lutiliser comme professeur de langue; quand on apprrnd une langue ou autre il n'est pas rare qu'on cherche nos mots et c'est assez agaçant de se voir répondre alors qu'on n'a pas finit de parler en réalité.
@G0UDIE17 күн бұрын
C'est vrai, cela reste un des derniers bémols du mode vocal, et qui fait qu'on se rappelle qu'on parle bien à une IA. Il faut donc réfléchir avant de commencer à parler, ce qui n'est pas intuitif (bien que ce soit une bonne habitude à prendre... même entre humains 😅)
@hugosausseau12316 күн бұрын
on se dit que ce qui pourra fix ce problème, c’est lorsqu’il ajouteront en même temps la fonctionnalité ‘vidéo’ qu’ils avaient teasé y’a qq mois. La caméra pourra analyser en live si l’on réfléchit, pensé, hésite, s’apprête à parler etc
@mauricejoseph48816 күн бұрын
Oui. C'est là le hic. 😊😊
@G0UDIE16 күн бұрын
@@hugosausseau123 Possible ! Quand ChatGPT sera capable de décrypter le langage corporel en temps-réel (après-demain) ça sera une étape (flippante) de plus.
@rayanarnel824416 күн бұрын
@@G0UDIE Il y a deja des model sur les emotion humain. Triste, heureux, hésitant etc...
@sebastienP88017 күн бұрын
Un invité incroyable. Merci pour cette vidéo ! 👏
@bernardbrun847716 күн бұрын
Merci pour cet échange hyper passionnant et pour la qualité de votre intervenant. Le passage sur la latence et sur ses effets dans un échange oral est génial et très accessible pour un néophyte tel que moi. Bravo pour cette émission
@cinecareforall16 күн бұрын
Une incroyable leçon de pédagogie !! Bravo pour le choix de l'invité et Merci à lui d'avoir accepté :)
@DAHPL17 күн бұрын
Absolument passionnant cet épisode ! Bravo.
@boriabogoris965616 күн бұрын
Wow, Jean-Louis Quéguiner vulgarise de main de maître des concepts complexes pour tous les viewers. Merci à lui
@nicolascarpentier954216 күн бұрын
C super qu'il y ait des intervenant qui donnent des avis très pertinent sur l'IA, qui simplifie la technologie pour que ce soit accessible à tout le monde . Bravo à vous
@MoiAimeBien17 күн бұрын
Il à cité Tonton Farine c'est un bon ce gars je l'aime de plus en plus 😆
@psikobare17 күн бұрын
IL faut inviter le farine sur underscore maintenant, après tout c'est le meilleur mapper de YT
@legroscurieux575112 күн бұрын
en vrai y aurai tout un sujet à faire sur la reprogrammation, l'évolution de l'injection électronique, les calculateurs, les gestions programmables, le matos, les outils,...
@Jeremy91hify16 күн бұрын
Merci a vous et à ce guest juste incroyable !!!!! 😍😍😍
@aquetheblues7 күн бұрын
Jean-Louis Quéguiner est à la fois clair et très précis techniquement : un exploit dans le domaine de la vulgarisation.
@haseebbaburi536015 күн бұрын
J'aime bien son explication, qui est très claire et facile à comprendre, même si le concept reste assez complexe.
@Eliaz5116017 күн бұрын
Les gaaaarrrrs... vous sortez ça il y a 17 minutes et j'ai pris un abonnement il y a une heure...
@thoma3317 күн бұрын
tu peux tout avoir en local self hosted gratuitement avec tt les option et +
@apprentiloutre487117 күн бұрын
En vrai selon votre usage, cela peut être intéressant , l'avis du mec est trop tranché et pas assez sourcé
@MC859617 күн бұрын
@@thoma33sans deccc ?
@thoma3317 күн бұрын
@@MC8596 oui moi j'ai tout en self hosted tu peux lui donné une image il te diras ce que c'est ou lui faire generé une image moi je perso je men sert plus pour l'autocompletion sur visual studio code
@skh309517 күн бұрын
@@MC8596 Il raconte des inepties. C’est certes possible, mais cela nécessite un serveur ou un ordinateur extrêmement puissant pour exécuter l’IA en local. Il est amusant de constater que ce sont toujours les mêmes personnes qui se prétendent expertes sans mentionner les éléments les plus importants.
@froidevauxetienne779716 күн бұрын
Génial cet invité, très pédagogue!
@javinian14 күн бұрын
Je vois une nouvelle vidéo avec Jean Louis Q qui a un abonnement chee Underscore et je clique pouce bleu direct, ce mec est juste enormissime et très sympa et accessible dans la vraie vie. ❤
@lioturbo16 күн бұрын
J'adore cet invité, il est trop fort ! 😄
@darksith666617 күн бұрын
La fin de la vidéo pour la recherche d’un Cobol. Ça me rappelle un anecdote. Au boulot ( grosse boîte IT) on devait déménager un vieux système ( mais je ne m’en rappelle plus ) d’un DC au notre. On est des dizaines de milliers dans la boîte. Il y avait un seul mec capable d’assurer le redémarrage du systeme ( équivalent à un system 7 d’Ibm par exemple ). On a accueilli le mec comme un dieux. Pas le droit de fumer en salle, tkt frérot fume. Petit bureau et chaise confortable, on était au petits soins. Le mec palpait entre 6 et 10 000 pour un ingé.et c’était y a 15 ans.
@roiwirven17 күн бұрын
alors pour ceux qui liraient le commentaire, sachez que ce dernier n'est pas représentatif de la majorité des développeurs cobols. personnellement, j'ai fait une reconversion vers le cobol (je voulais me reconvertir vers l'informatique et on m'avait vendu le fait que les anciens développeurs partent à la retraite sans être remplacé et ça va devenir une niche), c'est complètement faux, la majorité des personnes avec qui j'étais étais aussi issus de reconversions et comme le mainframe est principalement utilisé dans les assurances/ banques, on était très limités dans les fonctionnalités à utiliser par le langage, qui par ailleurs est pauvre de base (on avait accès au boucles, aux assignations de variables, opérations d'entrée/sortie et arithmétiques de base et c'est tout, mais en même temps, c'est pas comme si on allait nous en demander beaucoup plus pour une banque), la majorité du temps été consacré à tester notre programme et faire des rapports pour montrer que l'on avait fait nos tests proprement. inutile de dire que le boulot était chiant et pénible (parce que en plus les outils pour manipuler le cobol sont de niche et a peu près aussi vieux que le langage + l'environnement de la banque qui empêche d'utiliser des outils extérieurs non audités) et ce, pour un salaire qui, si il n'est pas le smic, est dans la moyenne basse de ce que l'on peut espérer pour un développeur(nb: je ne connais pas le salaire de mes collègue non issus de reconversion, mais je pense qu'il doit être dans la moyenne des développeurs, en tous cas, il n'y avait pas de Lamborghini dans le parking de l'entreprise, alors que pour le coup, on avait des développeurs seniors qui avaient des anecdotes sur les tout début du mainframe et approchaient la retraite). conclusion, j'ai fait une "reconversion dans la reconversion" pour faire du c#, et, même si le c# n'est pas un langage parfait, il n'en reste pas moins 1000x meilleur que le cobol.
@jean-louisqueguiner285717 күн бұрын
on connait tous béber qui palpe 10K pour du Cobol a la socgen !
@darksith666616 күн бұрын
@@roiwirven sauf que j’ai pas dit que le mec faisait du cobol. Je ne sais pas justement. Mais c’était ultra spécifique. Et il était proche retraite. Les mecs qui sont entrés dans l’informatique à l’âge d’or des énormes salaires.
@darksith666616 күн бұрын
@@jean-louisqueguiner2857 relis mon comm je parle de cobol.
@roiwirven16 күн бұрын
@@darksith6666 ah ok, je me suis peut être fait influencer par la fin de vidéo en elle même ainsi que les souvenirs de présentations mensongères que l'on m'avais fait du cobol (oui, vous verrez, ca va devenir une niche, il y a une grande demande, pour au final qu'on me propose une mission à peine au dessus du smic prime comprise [mission qui n'est pas celle que j'ai accepté au final]). enfin voila, tout ça pour dire que quelqu'un en fin de carrière qui ait des connaissances spécifiques et qui touche un salaire entre 6 et 10k ça ne me choque pas plus que ça, mais ne vous laissez pas avoir par les annonces pour le développement cobol, les salaires sont très loin de ce que les vendeurs de ces formations essayent de vous faire miroiter, et d'un point de vue technique, balayer le couloir ou travailler dans l'administration publique vous stimulera plus intellectuellement que de développer en cobol. nb: pour ce qui est du salaire exacte pour ceux qui viennent d'école d'informatiques, je ne l'avais pas demandé à mes collègues, mais au vue de leurs préoccupations et sujets de discussions (y compris pour ceux qui avaient beaucoup d'ancienneté dans le cobol et étaient soit grand-parents ou sur le point de partir à la retraite), et en reprenant le modèle trimodal présenté notamment dans la vidéo de thomas l'ingénieur " Combien gagne vraiment un Ingénieur Développeur ? (Salaire Ingénieur en Tech)" , je dirais que l'on était dans la catégorie "hyperlocale" en terme de répartition des salaires.
@FLeO10117 күн бұрын
Hyper intéressant avec un interlocuteur très captivant
@asveltomtom17 күн бұрын
Super invité ! passionné et passionnant !
@denismeloni105317 күн бұрын
super bonne idée de chercher des gens pour certains sujets en fin de vidéo ! on a trop envie que des gens répondent du coup !!
@Willo-prod17 күн бұрын
FDB sur Underscore ^^
@LeBalrogueMTL17 күн бұрын
Qui aurait cru voir El Numero Uno sur cette belle chaine, quelle vie ♥
@einsteinnewton406617 күн бұрын
Quelle maitrise Jean-Louis Quéguiner 💯
@MontassarChebbah16 күн бұрын
J'adore ton contenu, en tant que quelqu'un pas du tout technique, ca aide vraiment a democratiser et expliquer facilement ces trucs difficules haah, je te follow sure micode depuis plus que 10 ans
@K0lorado16 күн бұрын
La qualité des émissions est vraiment ouf. Merci l'équipe :)
@sombrelexploration30517 күн бұрын
Tellement bien expliqué ! Merci beaucoup
@elmambojambo17 күн бұрын
FDB c'est un énorme geek. Et les fans de FDB aussi. Sont des énormes geeks. Merci de l'avoir cité :) Mais putain merde, on est dans une niche/bulle
@jean-louisqueguiner285717 күн бұрын
hahaha je kiffe ce gars j'avoue. la VOVO
@xavierf.485317 күн бұрын
Toujours aussi bon, agréable et compréhensible. Bravo du beau travail.
@pziejdsn38417 күн бұрын
Super interessant, tres bonne vulgarisation notamment grace aux illustrations
@adonispesic426011 күн бұрын
comme d'hab super video, juste comme ca, ce serait interessant une video sur pourquoi il n'y a pas de linux pour smartphone ou pourquoi ca se democratise pas autant que sur pc
@croy805717 күн бұрын
J’y comprends pas grand chose et j’aurai tout oublié demain mais c’est super intéressant! 😊
@travailleurapleintempsmerci15 күн бұрын
Toujours aussi riches en enseignements vos videos. Bravo :)
@TheBarjho17 күн бұрын
On l'aime cet invité. Merci à tous
@kidoriam-185614 күн бұрын
Merci pour ce guest incroyable !
@legroscurieux575112 күн бұрын
damn le Farine chez Micode, je m'y attendais tellement pas à celle là. Alors qu'en vrai y aurai tout un sujet à faire sur la reprogrammation, l'évolution de l'injection électronique, les calculateurs (les technos et langages), les gestions programmables, le matos, les outils,...
@ZapattaZ11 күн бұрын
Super invité, un régal, invitez le encore. Pour ce qui est des IA je me sens un peu comme les hypersensibles aux ondes, je ne supporte pas l'idée qu'on m'impose une IA pour faire une voix ou un texte hormis dans des contextes qui l'imposeraient comme la traduction à la volée et certaines recherches de niches. On devrait rendre obligatoire la mention traduit par IA ou généré par IA comme pour les saucissons label rouge ou le terroir des vins. Ca me semble urgent et vital.
@RomainMassau5 күн бұрын
Carrément l’un de vos invités et experts les plus intéressants, et même captivants, depuis un moment!! Sans dec, vu l’importance du sujet global de l’IA, faites-en un récurrent!!!
@volkovolko17 күн бұрын
Mais pourquoi ne pas filer l'audio à un speech to speech pour qu'il commence à parler pendant tu file aussi l'audio à un speech to texte/LLM/text to speech qui prends le relais (le système de "attend j'appelle un expert" ou "humm" ou "laissez moi réfléchir") ? Ca coûterais plus cher mais le résultat mergerais le meilleur des deux mondes
@Merlinracontedeshistoires3 күн бұрын
Vraiment bien cette vidéo, et bravo car même vos pubs sponsorisées sont agréables.
@tajinbowie67016 күн бұрын
Ce mec m'a retourné le cerveau avec les applications.
@bechfrance855517 күн бұрын
Très intéressant ce que dit Jean-Louis Quéguiner.
@bricewernet649317 күн бұрын
J'adore la'partie sur la perception de satisfaction client. C'est totalement vrai. Et je l'ai déjà fait 'en vrai' (genre passez moi le responsable et passer un collègue à côté, ou mettre en attente des gens pour leur faire croire que ce que je fais est complexe et que je me'renseigne sur l'historique). La question, c'est quelle est sa voix d'opérzteur totalement dépassé, et celle pour imiter le respnsable du service?
@alexandrefabretti11744 күн бұрын
j'avais bossé avec certaines sociétés dont il ne faut pas divulguer l'existence qui ont travaillé pendant 15 ans à entraîner les IA avec des accents du monde entier. Un travail colossal qui s'est fait entre 2010 et récemment
@autherplayer13 күн бұрын
La référence à Farine de Blé qui fait plaisir à son homme 🙏👍 Je suis toujours impressionné et intéressé par les sujets abordés sur cette chaine....pas sûr que j'ai toutes les capacités intellectuelles requises pour tout saisir 🤔 mais je m'accroche....Merci Jean-louis Michaël et Matthieu
@virus.phishing12 күн бұрын
Très bonne démonstration !
@ThomasSselate17 күн бұрын
Génial d’être sponsorisé par Intel, félicitations 👍
@RobertJaqui13 күн бұрын
Un moyen de réduire le temps de latence entre l'émetteur et le récepteur est d'utiliser des éléments de langage pour meubler la conversation, comme le font les humains. On dit souvent des mots voir des phrases pour maintenir le contact alors quon a pas encore la réponse. Par exemple "oui effectivement" ou "je vois".
@zfarahx15 күн бұрын
Gladia x Underscore? Je suis ravis :)
@anthonyplaya16 күн бұрын
On en revient à la base ! User First ! 💪🏽 ça fait réfléchir !
@Pimous17 күн бұрын
Gemini live, le fait très bien ! Et c'est hyper efficace pour avoir une réponse instantanée au lieu se perdre sur le net !
@Happyerf6416 күн бұрын
N’hésitez pas à faire des liens plus complet entre vos émissions. Ici je pense spécifiquement a celle sur les puces "spécialisées", optimisées pour contenir tel ou tel modèle d'IA. Je dis ça car je pense que nous serions nombreux.ses à apprécier des vidéos de synthèse, ou bien de mise jour de votre contenu. Des trucs genre "Ok, la dernière fois on a parler de ça avec untel, puis de ça avec untel, désormais, dans l'équipe, nous aimerions revenir sur les liens entre ces deux sujets" On perçoit chez vous une passion qui mériterais d'être partagée plus simplement, sans forcément avoir un.e invité. Bref c'était une idée au passage, félicitation pour cette vidéo c'est toujours chouette de vous voir !!
@ZooLou16 күн бұрын
Whaou le niveau le mec ! Impressionnant
@jhauret15 күн бұрын
Très cool la vidéo 😎 Petite précision, à 9:49 l'invité semble décrire un mel-spectrogram mais de nos jours les "encodeurs/tokenizers audio" des modèles speech2speech sont plutôt calculés à partir de la forme d'onde, sans passer par Fourier. Ces tokenizers que l'on appelle "neural audio codec", sont entraînés à approximer la fonction identité. C'est en quantizant leur espace latent que l'on retrouve ces fameux tokens acoustiques que l'on donne au LLM (Et qu'on compresse l'information)
@jean-louisqueguiner285714 күн бұрын
T’es je décrivait principalement le melspectrogram de whisper
@jhauret14 күн бұрын
@jean-louisqueguiner2857 My bad ;)
@pull988916 күн бұрын
Je pense que j'ai compris, dites-moi si je me goure, mais en gros, passer par la décomposition de Fourrier permet de de calculer une sorte de fingerprint de chaque token audio, et donc, que le token audio A de Personne 1 soit reconnu comme (environ) égal au token B de Personne 2. Car reconnaître une sorte de syllabe, faite de quelques mêmes lettres, dans du texte, c'est facile pr un algo d'apprentissage, mais je comprenais pas comment c'était possible pour du son... D'ailleurs 20ms, c'est bien plus court qu'une syllabe, incroyable (pour un humain) que, j'imagine, ça soit une des durées pour lesquelles le modèle soit des plus performant !
@amauryakoun90216 күн бұрын
Très fort cette invité! Super vulgarisateur!!!
@wav_90917 күн бұрын
L invité vulgarise si bien, banger l'interview
@TheBigbobo2216 күн бұрын
Très bonne émission merci
@ElianCHAN-hm1lu17 күн бұрын
Merci pour cette vidéo .. formidable ! Et bravo a l'invité qui nous explique tres bien la difficulté du TR (temps de réponse / temps réel), juste un petit point ne négligez pas la puissance de calcul qui va encore accélérer : clé de l'arrivée de ces techno' .. ET sinon,, à certains égard vous avez eu qq propos un peu "définitifs" ... genre a quoi ca sert, ou la difficulté d'interagir av. des systèmes et de devoir passer par du texte .. pour obtenir une adresse ou un code etc. - ne pensez pas que la question est close : le cerveau arrive bien a combiner les différents médias ... demandez à votre femme de tenir une conversation tout en faisant autre chose ... vous verrez !! Autre point trop vite passé .. c'est l'émotionnel, quand j'ai entendu les premiers extrait, ayant un passé sur les SVI et les TTS (rappelez vous simplement la voix de feu Sir St. hawking), je peux vous dire qu'une étape a été franchie, cette question est loin d'être simple on est vraiment dans un très haut niveau d'accomplissement de la technologie et loin d'avoir épuiser les applications qui vont émerger et les call center vont se jeter dessus ! /ABe PS, enfin .. Pour la conversation en traduction de langue, en TEMPS REEL!, encore une dinguerie .. que mon vieux Caliope vient de ternir subitement !!
@samuelgarcia180217 күн бұрын
Coucou je pense que pour la voix il à raison mais que pour O1 il exagère . O1 à un niveau PhD dans plusieurs domaines telle que les math ,la physique,chimie et biologie . Il est assez fort en programmation (peut être moins que Claude sonnet 3,5) mais c'est assez incroyable. Oui même si c'est un truc si "simple" que faire une chaîne de pensés il faut savoir qu'on a le modèle preview et mini qui ne sont pas le vrai O1 qui sortira sûrement ce Noël qui est bien plus fort . De plus évidement si c'était si simple tout les IA generatives utiliseraient des chaînes pensés. Alors je pense que tu devrais voir quelqu'un qui se connait sur O1 j'ai connu doctorats choqués par les capacités de O1 preview que se soit en math , physique/chimie et biologie .
@G0UDIE17 күн бұрын
As-tu utilisé o1 ? Pour lui avoir fourni un problème concret (et pourtant pas si complexe) qui impliquait un peu de code et quelques calculs, il a été capable de s'emmêler les pinceaux avec des additions simples. Même si il y a du mieux, on ne peut toujours pas faire confiance à ChatGPT dès qu'il y a des maths, avec ou sans o1, ce qui le disqualifie pour tout usage professionnel.
@antistupiditer17 күн бұрын
@@G0UDIE mais cest que le preview parle pas de 01 basic quand tu ne maitrise pas ton sujet la version preview et celle de decembre n'aura rien a voir .
@G0UDIE16 күн бұрын
@@antistupiditer Dit-il en parlant d'une version pas encore sortie 👌 t'es un génie toi
@antistupiditer16 күн бұрын
@G0UDIE sauf que on a un accès entreprise ohhh wow il s'agirait de réfléchir quand on ne maîtrise pas son sujet , je t'explique en bref clé api entreprise api en sortie 45j avant on appel ça log histo d'entreprise césar
@G0UDIE16 күн бұрын
@@antistupiditer Tu creuses... (et tu portes mal ton pseudo surtout 👌)
@GpGppp-p1o16 күн бұрын
Merci pour toutes ces explications premium.
@TheSliderW12 күн бұрын
Super invité. Très interesting a ecouter.
@LeiluMultipass16 күн бұрын
6:50 On a des connoisseurs. Les Mots de l'Imaginaire ♥
@DCLG115 күн бұрын
Super intéressant !! merci !!
@xenedon16 күн бұрын
Sujet d'actualité, riche et profond, invité intéressant, pertinent et même drôle, résultat : une très bonne vidéo ! Et tout ça sans parler des vidéos à venir dont les sujets ont pu transparaître plus ou moins distinctement au travers des appels à témoignages finaux… Décidément, cette chaîne n'en finit plus de bonifier avec le temps !
@proia-b2n17 күн бұрын
Je ne suis totalement pas d'accord avec le fait que le mode vocal avancer n'a aucune utilité concrète pour moi ça a une énorme utilité et les applications vont être tellement nombreuses à mon avis
@Clems81115 күн бұрын
Super interview, je travail justement beaucoup avec Gladia dans mon taf. Petit bémol cependant, il parle de 500ms dans la solution d'openAI mais dans les faits on est plutôt autour d'une seconde car il oublie la partie VAD (voice activity detection) c'est à dire le moment où le système détermine que la personne a terminé de parler pour lancer toutes les opérations de traitement permettant d'obtenir la réponse. Dans les fais, le VAD par défaut d'openAi sur ça fonctionnalité dite "realitime" (voice to voice) est d'environ 500ms, ce qui fait qu'après avoir terminé de parler, l'assistant répond en moyenne avec 1 seconde de latence et non 500ms (500ms c'est le temps que prend openai pour générer sa réponse directement en voix), ce qui est déjà fou mais c'est pas quelque chose d'impossible à atteindre sans utiliser la solution d'openai. Ensuite, il oublie que le système en question d'openai permet le lancement de fonctions en interne et donc il est tout à fait possible d'exécuter des actions en utilisant ce système même s'il est vrai qu'on perd le contrôle sur le texte prononcé par l'interlocuteur (speech to text) et personnellement ce point là me pose problème pour un développement plus fin d'un assistant. Sinon, j'ai bu du ptit lait tout au long de l'interview !
@zHqqrdz14 күн бұрын
Enfin il oublie surtout qu’on peut déjà entraîner des IA (RAG) avec des données à nous. Pour l’instant ce n’est pas encore aussi dynamique qu’une BDD mais de la à dire « non ça tu peux pas le faire » oui ça t’arrange surtout que tout le monde pense ça 😅
@MrWuzey13 күн бұрын
Si on commence à compter à partir de la détection de voix et qu'on compte donc tout le temps de l'input de l'utilisateur ça n'a plus de sens de donner une valeur fixe puisque si moi je parle pendant 30 sec je dirais alors que ce n'est pas une seconde mais plus de 30secs et ce sera différent pour chaque prompt avec une grosse variable. Je pense qu'il faut modérer le pinaillage quand la finalité devient absurde. En général on compte le temps de réaction donc le temps d'attente après que t'aies fini de parler ou d'écrire.
@Clems81113 күн бұрын
@@MrWuzey Vous n'avez pas bien compris, le voice activity detection est là justement pour détecter la fin de phrase (tâche plus difficile qu'il n'y paraît). Le problème, c'est de savoir quand déclencher la création de la réponse, c'est-à-dire qu'un système (qu'on appelle donc VAD) va déclencher l'action de générer la réponse lorsqu'il aura déterminé que la personne a terminé sa phrase. Le VAD peut être paramétré de différentes manières, mais en général il se déclenche après 500 ms de blanc (paramétrage par défaut chez OpenAI), et c'est donc à ce moment-là que la solution d'OpenAI entre en jeu et génère la réponse en 500 ms, ce qui fait une seconde en tout pour commencer à recevoir le premier octet d'audio de la réponse (et non 500 ms). Et ce n'est guère du pinaillage ; comme il le dit très bien dans la vidéo, je peux vous dire qu'au-delà de 500 ms de blanc, l'attente de la réponse devient perceptible, et chaque 100 ms qu'on peut gagner à ce moment-là est important. C'est d'ailleurs pour gagner quelques millisecondes qu'OpenAI a sorti ce modèle voice to voice. Avant cela, on pouvait être au mieux à 1,5 / 2,5 secondes de latence, donc cela reste une belle avancée, mais avec un contrôle moins fin.
@MrWuzey12 күн бұрын
@@Clems811 Je sais ce que fait VAD, je l'utilise avec des chatbots. Silero VAD combiné à whisper et effectivement on peut régler la durée de silence avant validation. Mais c'est de la detection de voix(absence ou présence de voix) donc il ne fait pas que détecter la fin mais le début aussi. L'intérêt dans le cadre d'un chatbot c'est de ne pas avoir à faire du push to talk mais si on choisit de faire du push to talk avec l'api par exemple, vad ne ferait pas partie du process. Dans tous les cas si vous ne parliez que de la fin, ce qui a l'air d'être le cas, ma réponse était à côté de la plaque et je suis d'accord avec vous.
@iSys3117 күн бұрын
J'adore l'assistant vocal ! Par contre la version "avancé" je trouve que ça ne sert pas à grand chose, la plus value est sur le fait de ne pas avoir besoin d'écrire un prompt (quand on a les main occupées par ex), mais au delà de ça comme le caractère de l'IA et ses intonations, ça peut intéresser et impressionner ceux qui ne sont pas très familiers avec ce genre d'outil, mais ce n'est pas pour moi. Merci du partage !
@Panam51117 күн бұрын
tu l'as essayé le mode avancé ? si oui combien de temps ?
@iSys3116 күн бұрын
@@Panam5112-3 heures seulement, mais pour mon utilisation personnelle je n'y vois pas grand intérêt puisque le mode standard répond aux mêmes besoins. À voir comment ça évolue
@etiennemaugars143814 күн бұрын
Pourtant, l'API realtime d'OpenAI permet de trigger des appels à des fonctions externes. Alors certes ca aura pas d'incidence sur les instructions (≈ le prompt) de la session active car il est fixé à l'initialisation, mais ca permet quand même de mettre à jour des database ou autre.
@michaelrouart587217 күн бұрын
Intéressant sur la technique mais je suis assez étonné de l'analyse sauf si j'ai loupé un truc. Oui s'il faut faire des actions comme chercher la météo ou lancer un service ça va prendre du temps, mais c'est aussi le cas d'un humain (en bien pire). Je ne vois pas ce qui empêche une IA de mettre des phrases d'attente quand c'est un peu long comme : "une seconde je me renseigne", "je rentre les infos",... Et ça restera bien plus rapide au final qu'un humain. Bref je trouve ça beaucoup plus prometteur que ce qu'il dit.
@G0UDIE17 күн бұрын
Je me suis fait la même réflexion. Et surtout, à la vitesse où vont les choses en matière d'IA, ce faux problème sera sans doute vite oublié.
@bricewernet649317 күн бұрын
En entreprise, on ne réfléchit pas à l'usage en direct de l'IA, mais à du traitement la qui peut très bien rendre le résultat le lendemain (à l'extrême). Le tts peu très bien être en dêcalé
@michaelrouart587217 күн бұрын
Tout dépend de l'objectif ?
@Dadadu1617 күн бұрын
Voir une référence à farine de blé dans micode ça fait vraiment plaisir à son homme.
@ludozomb16 күн бұрын
J'ai adoré la vidéo c'était passionnant mais je n'ai pas bien compris ce qu'était le problème fondamental de GPT4-o ?
@xenedon16 күн бұрын
C'est parce que c'est évoqué en première partie de la vidéo, mais la suite et la fin dépassent le sujet du titre et d'une manière captivante, donc une fois terminée c'est vrai qu'on a un peu oublié le début. En gros, le problème fondamental c'est le fait qu'aussi impressionnantes que soient les avancées techniques - et elles le sont indubitablement - concrètement elles ne sont pas applicables à un environnement professionnel. Autrement dit : la vitesse de réponse exceptionnelle (et dans une moindre mesure les accents comme les émotions simulées) est une prouesse technique impressionnante pour les passionnés, un jouet absolument dingue pour les particuliers, mais un gadget inutilisable pour la grande majorité des professionnels. Ce constat mitigé est suivi d'une explication pertinente de l'invité sur la manière d'améliorer concrètement la perception de la technologie précédente, afin de ne plus avoir vraiment besoin de la nouvelle pour son côté rapide (car de toute façon le côté cosmétique n'a aucun intérêt pour du support ou de l'accueil, usages professionnels probablement majoritaires). Et pour terminer, peu importe la technologie, il reste, côté pro, la quasi-impossibilité de définir des limites fermes à ce qu'elle peut répondre ou non, et côté perso, la perte de pertinence sur le long terme à cause de sa limite de "mémoire" individualisée.
@ludozomb15 күн бұрын
@@xenedon Ah je comprends mieux merci ! :)
@vladinosky16 күн бұрын
Pour ladybird, vous avez essayé d'entrer en contact avec le dev de SerenityOS Andreas Kling directement?
@Itsuga9876 күн бұрын
La maîtrise du mec bravo
@BenjaminUgoletti16 күн бұрын
La réf à monsieur de blé qui fait plaisir à son homme ❤
@MickeCORNIER17 күн бұрын
alors, précision sur ce qui est dit à 16min: Apparement, openAi a un système de retranscription texte des tokens audio. Il est d'ailleurs possible de reprendre le contenu de la conversation en texte. Donc même si on est dans le même modèle, il reste possible d'exploiter le contexte pour effectuer des appels de fonctions en textuel malgré le mode audio. Pour le moment, OpenAI verrouille les modalités image> audio et texte > audio. Et il y a des cas d'usages important, un modèle capable d'audio, image, texte permet une meilleur généralisation.
@volkovolko17 күн бұрын
L'espace latent est aussi utilisé par les LLMs non ? Du coup techniquement parlant, on pourrait faire un espace latent commun entre le texte et l'audio (comme ce qu'on fait avec le texte et les images) et donc pouvoir "injecter" les informations sous forme de texte dans l'espace latent pour que l'audio réponde quelque chose dont il a trouvé l'information dans une base de données
@EffetCameleon16 күн бұрын
Il est très bon vulgarisateur ce monsieur. Merci à lui !
@guillaumesa270017 күн бұрын
Par contre on peut contraindre l'espace latent d'un modèle pour qu'une partie du vecteur représente par exemple des caractéristiques concrètes, par exemple des données clients, si elles sont extractables depuis le ou les inputs. Donc je pense que ça peut quand même servir à des entreprises si on cherche à réduire le temps de réponse, le temps d'inférence
@RenaudJanet17 күн бұрын
Il me semble que vous devriez creuser la boite Enchanted Tools qui est francaise qui fait des robots qui utilise une interaction sonore et verbale pour interagir avec des émotions.
@jeremiedecoop75715 күн бұрын
Pardon, ce que vous dites est partiellement vrai (à 2:50) Claude Sonnet 3.5 est meilleur que O1 preview sur certaines tâches, mais il se trouve que pour les matières scientifiques : maths, physique, codage, il est capable de générer des solutions justes et enrichies par rapport au code déjà existant qui modélise certains papiers de recherche, sur un large éventail de sujets (de l'astrophysique, aux problèmes de maths de niveau agrégation externe en passant par quelques problèmes de niveau olympiade avec de nombreuses requêtes). Pour le codage, o1-preview peut générer 50000 tokens de sortie pour du code entièrement valide et testé, ce qui est certes faible pour une application, mais le code fonctionne, est interprétable, ce dont n'est pas capable Sonnet. Claude, en essayant de générer une réponse, s'arrêtera précipitamment (Même en demandant plusieurs parties) à chaque fois. Pour vous rejoindre sur un point, je pense que Claude Sonnet aura un avenir certain, dans le cas ou ils obtiennent une capacité provenant des GPU, mesurable à celle d'OpenAI actuellement. Je pense aussi que Claude aurait à gagner à permettre des customs instructions (à l'image des GPTs) afin de pouvoir "driver" le modèle, ce qui marche très mal actuellement dans une fenêtre de discussion classique. En revanche, j'utilise davantage Sonnet pour la ré-écriture, Il est plus pertinent que openAI dans de nombreux cas.
@mendez636317 күн бұрын
Je comprend juste pas pourquoi les modèles sont pas couplés avec des unités de mémoires (qui pourraient être locales elle) qui s'occuperais de synthétiser et simplifier les informations à garder dans une base de donnée et dans laquelle le modèle va piocher pour se "rappeler" ses informations sans avoir à garder la totalité de la conversation dans le texte de contexte, ce qui fais fatalement gonfler le nombre de token utilisés et comme l'invité l'explique amène le modèle à s'embrouiller. Notre propre cerveau fonctionne avec une mémoire à court terme et une à long termes, et là le modèle c'est comme si il n'avait pas de mémoire long terme pour l'expliquer simplement. J'ai l'impression que c'est plus une question de "c'est pas important on a pas le temps on bosse sur des features plus importants" que juste "ouah c'est trop difficile mec t'imagine même pas"
@G0UDIE17 күн бұрын
Je n'ai peut-être pas compris, mais ChatGPT a bien une mémoire à long terme (depuis peu) alimentée et mise à jour en fonction de nos réponses.
@karimzarat771516 күн бұрын
très instructive cette vidéo, merci. il y a une pénurie de codeurs en COBOL ? et dire que j'ai quitté le poste il y a 15 ans. je devrais peut être y revenir LoL
@jesuisledocteur16 күн бұрын
😂😂😂 Bon courage ! Ils sont à la retraite les programmeurs cobol. J'ai travaillé dans ce langage dans ma jeunesse. Beaucoup de programmes bancaires sont en cobol... Il faut utiliser IA pour la maintenance du code 😊
@許樂山-q5d15 күн бұрын
Super invité !
@QuetaBelien17 күн бұрын
0:26 permissif c'est plus un synonyme de laxiste, ça ne signifie pas 'qui permet' mais 'qui permet trop'
@Azrael_40416 күн бұрын
Voir tonton Farine et la Vovo dans un épisode de micode c’est le crossover le plus inattendu possible , j’adore 😂