4- chatModels in LangChain

  Рет қаралды 1,329

Amr Koura

Amr Koura

Күн бұрын

في الفيديو ده هنشرح ازاي نتعامل مع ال chatmodels في Langchain
لينك صفحتي على linkedin:
/ amrkoura

Пікірлер: 15
@Shirboman
@Shirboman Жыл бұрын
ربنا يبارك فيك ويجعله في ميزانك، ان الله لا يضيع اجر من احسن عملا. وقتك البتوفره لطالبين العلم في كل المسؤليات امر كبير شكرا ليك
@amrqura
@amrqura Жыл бұрын
اشكرك 🙂
@Shirboman
@Shirboman Жыл бұрын
منتظرين بقية السلسله ان شاء الله تبقى مرجع و ارشاد للشباب البيطور من نفسه باخر مهارات سوق العمل
@amrqura
@amrqura Жыл бұрын
اشكرك ، باذن الله هتنزل باقي الحلقات قريبا
@eyadamin4089
@eyadamin4089 5 ай бұрын
عالمي ولله
@amrqura
@amrqura 4 ай бұрын
شكرًا جزيلا على تعليقك و تشجيعك
@laasallam
@laasallam Жыл бұрын
ربنا يبارك في جهد حضرتك قابلتي بعض لمشاكل و انا اطبق ماعرفتش اثبت المكتبات و انا شغال على اناكوند ثانيا ماعنديش حساب على تشات جي بي تي بيقوللي غير متاح في بلدك
@amrqura
@amrqura Жыл бұрын
للاسف صعب اقدر اساعد لو ال open AI مقفول في بلدك ، ممكن اعرف مكانك فين ؟ في اي بلد ؟ بالنسبة للاناكوندا ، المفروض يشتغل عادي ، بس ممكن تجرب كمان ال colab
@laasallam
@laasallam Жыл бұрын
@@amrqura انا من مصر بالفعل اشتغلت على Cloab لكن لازم اعمل حساب على تشات جي بي تي علشان ال key
@laasallam
@laasallam Жыл бұрын
و حاولت مع بارد بس طلب مني معلومات بطاقة ائتمان و انا ما عنديش
@amrqura
@amrqura Жыл бұрын
المفروض مصر بقت من الدول المدعومة حاليا help.openai.com/en/articles/7947663-chatgpt-supported-countries?fbclid=IwAR3f6ZzFUGRLVRO-uKvWGhyLjf6T5iC7vNUtZM_ZUmLItxGkUzJBJCad6-U
@loaym5309
@loaym5309 11 ай бұрын
هو انا ملاحظ حاجة غريبة شوية هنا بالنسبالي, ازاي ممكن استخدم ال In Memory Cach لو هيسأل نفس السؤال و هو هيرجعلي اجابة مختلفة؟! انا اللي فهمته ان ال use case بتاعتها لو سأل نفس السؤال تاني يديله المفروض نفس الاجابة يعملها caching بدل ما يروح يبعت لل LLM تاني و ياخد وقت
@loaym5309
@loaym5309 11 ай бұрын
Well the sentence looks messy to me (hard to read) when i combined Arabic with English, this the question in English in case you didn't get the question.. I still don't get the In Memory Cach point, If i use it to cach the response when someone asks the same question, logically i do that because the next time if the user will ask the same question he will get the same answer but with caching, no need to call the LLM again? so what's the point of using it if it will respond with a different answer?!
@amrqura
@amrqura 7 ай бұрын
Try to set the temperature parameter as low as possible if you want to get same answer, setting the temperature low will make the responses deterministic
@loaym5309
@loaym5309 7 ай бұрын
Thanks Sir!
5- Prompt template
35:39
Amr Koura
Рет қаралды 1 М.
دردشة عن موديل LLAMA 3
19:40
Amr Koura
Рет қаралды 1,9 М.
Quando A Diferença De Altura É Muito Grande 😲😂
00:12
Mari Maria
Рет қаралды 45 МЛН
Mom Hack for Cooking Solo with a Little One! 🍳👶
00:15
5-Minute Crafts HOUSE
Рет қаралды 23 МЛН
Арыстанның айқасы, Тәуіржанның шайқасы!
25:51
QosLike / ҚосЛайк / Косылайық
Рет қаралды 700 М.
6- Example selector
24:55
Amr Koura
Рет қаралды 701
LLM evaluation methods  طرق
11:52
Amr Koura
Рет қаралды 612
الموديل الجديد من شركة جوجل Gemini
13:46
Amr Koura
Рет қаралды 1,1 М.
٣- LLMs in langChain
34:51
Amr Koura
Рет қаралды 2,3 М.
آخر تحديثات ال open AI لسنة ٢٠٢٣
15:48
Amr Koura
Рет қаралды 1,3 М.
Local GraphRAG with LLaMa 3.1 - LangChain, Ollama & Neo4j
15:01
Coding Crash Courses
Рет қаралды 41 М.
Want to make a video chat app? Watch this video for WebRTC!
1:22:35
Good Morning Developers
Рет қаралды 54 М.
Quando A Diferença De Altura É Muito Grande 😲😂
00:12
Mari Maria
Рет қаралды 45 МЛН