Türkçe LLM ile Sohbet Doktoru Yapma Rehberi | LLM | Fine-tuning | PEFT

  Рет қаралды 1,235

Oğuzhan Şahin

Oğuzhan Şahin

Күн бұрын

Trendyol LLM modelini kullanarak Doktor Asistan uygulaması eğitiyoruz!!!
HuggingFace model adı: oguuzhansahin/trendyol-chat-doctor-4bq
Notebook linki: colab.research...
Lora Paper: arxiv.org/abs/...
QLora Paper: arxiv.org/pdf/...

Пікірлер: 14
2 ай бұрын
bunu arıyordum, çok teşekkürler.
@erenakbuluttt
@erenakbuluttt 6 ай бұрын
Oguzhan hocam cok guzel anlatmissiniz lutfen serinin devami gelsin
@okanerhan5780
@okanerhan5780 5 ай бұрын
Çok faydalı bir video olmuş, adım adım kendim de takip ederek birçok şey öğrendim. Çok teşekkürler!
@barancakr7952
@barancakr7952 6 ай бұрын
çok iyi bir anlatım olmuş hocam. Bir inşaat mühendisi olarak merakla izliyorum sizi yeni videolarınızı için çok heyecanlıyım.
@Metanfetamino-san
@Metanfetamino-san Ай бұрын
altın madeni
@ozgurdogan9536
@ozgurdogan9536 6 ай бұрын
Çok akıcı ve net bir anlatım olmuş, farklı case'ler için de video bekliyoruz.
@mustafaisildak
@mustafaisildak 6 ай бұрын
Teşekkürler. Devamını dilerim.
@EbubekirTosun-y3q
@EbubekirTosun-y3q 6 ай бұрын
Harika bir anlatım olmuş. Devamını bekliyoruz hocam :)
@farnazzeidi4065
@farnazzeidi4065 6 ай бұрын
thank you very much for sharing! it is great :)
@oguuzhansahin
@oguuzhansahin 6 ай бұрын
thank farnaz! nice to see you in here:)
@musapeker8070
@musapeker8070 4 ай бұрын
Merhabalar, Güzel ve eğitici bir video olmuş. Kaydettiğiniz modelin nasıl kullanılacağı ile ilgili bir video daha yükleyeceğim demişsiniz. Ne zaman için düşünüyorsunuz. Ben çalışmanızı denedim. Ama aşağıdaki hatayı aldım. RuntimeError: Error(s) in loading state_dict for LlamaForCausalLM: size mismatch for model.embed_tokens.weight: copying a param with shape torch.Size([44224, 4096]) from checkpoint, the shape in current model is torch.Size([44222, 4096]). size mismatch for lm_head.weight: copying a param with shape torch.Size([44224, 4096]) from checkpoint, the shape in current model is torch.Size([44222, 4096]). Teşekkürler şimdiden.
@oguuzhansahin
@oguuzhansahin Ай бұрын
hocam, selam. kusura bakmayın geç gördüm biraz. problemi çözebildiniz mi acaba?
@ZaferCan
@ZaferCan 4 ай бұрын
güzel anlatımınız için teşekkürler öncelikle. notebook linkini google colab t4 ile çalıştırmayı denediğimde bf16 ve tf32 için hata almıştım. acaba doğru mu yaptım bilmiyorum ama bf16 değerini fp16=True olarak değiştirdim ve tf32=False yaparak eğitimi başlatabildim.
@oguuzhansahin
@oguuzhansahin Ай бұрын
torch versiyonundan kaynaklı olabilir bu hata, hiç karşılaşmadım öncesinde.
RAG mı? Fine Tuning mi? Nasıl seçmeli?
16:56
Daron Yöndem - TR
Рет қаралды 3,6 М.
LLM ne der? - Tolga Kurtuluş - Meetup 42
1:20:23
Teknasyon Tech
Рет қаралды 970
ChatGPT'nin Tahtını Sarsan Yapay Zeka | Claude 3.5 Sonnet
12:51
Fine-tuning Large Language Models (LLMs) | w/ Example Code
28:18
Shaw Talebi
Рет қаралды 319 М.
Kendi Yapay Zekamı Yaptım (özel ve lokal)
15:17
Yusuf İpek
Рет қаралды 53 М.
Fine-Tuning GPT Models with Python
23:14
NeuralNine
Рет қаралды 12 М.
Have You Picked the Wrong AI Agent Framework?
13:10
Matt Williams
Рет қаралды 68 М.
"okay, but I want Llama 3 for my specific use case" - Here's how
24:20
LLAMA-3.1 🦙: EASIET WAY To FINE-TUNE ON YOUR DATA 🙌
15:08
Prompt Engineering
Рет қаралды 31 М.