İnsan muhayyelesinin sınırında bir anlatım tarzı.... İdrak etmekten aciz, dinlemekten bihuş, tarz-ı beyanınızdan sarhoş olduk hocam. Teşekkürler.
@tugcepank6718Ай бұрын
Ağzınıza sağlık hocam , bu arada en sevdiğim giyim markası zara.
@hayalperest21874 ай бұрын
baştan sona videosunu izlediğim tek adam, şahanesiniz
@beyzanurrkunt4 ай бұрын
arkadaşlar selamdan beyler selama dönmüşssünüz hocam :(( elinize emeğinize sağlık. videoların devamı için takipteyizz
@nailerenselimoglu49564 ай бұрын
Devamını merakla bekliyoruz hocam
@AhmetSelimB4 ай бұрын
Çok teşekkür ederiz hocam. Videolar kolay anlaşılabilir. Yeni videoları sabırsızlıkla bekliyoruz. 😊
@nrclskn4 ай бұрын
3:10 ilk videoda hani avm ye gidebilirdim ama gitmiyorum demiştiniz. :)
4 ай бұрын
Hanımcılık.
@muhammetcolak971311 күн бұрын
emegine saglik.
@TalhaTURSUN-z2d3 ай бұрын
siz en iyisisiniz
@erhanbarsolmez7784 ай бұрын
Çok güzel bir anlatım, teşekkürler.
@beyza25224 ай бұрын
Bol bol video bekliyoruz
4 ай бұрын
Merak etmeyin 🦾🦾
@hicmutludegilim53333 ай бұрын
Abi çok gülüyorum sana müthişsin
@kafazooom48923 күн бұрын
abi ayrı bi efsanesinde , biraz açıklayarak anlatsan daha güzel olur (rica)
@Legolaym4 ай бұрын
Adamsın adammmmmmmm❤❤❤❤
@komaedanagito8416 күн бұрын
ben zara avukatıyım, işlemleri başlatıyorum
@noldukine4 ай бұрын
hocam kafa füze
@animatorjoseph284 ай бұрын
Devam hocam
@ibrahimbakar19464 ай бұрын
Hocam daha büyük veri setleri gerçekçi problemler kullanır mısınız ?
@chessfighter-r5g4 ай бұрын
Hocam agirlik baslatmayi -1 1 arasi rastgele yapin daha hizli bulur ve l2 ekleyin son olarak da ve hinge loss yapsaniz aslinda daha iyi olur 0.2 dropout dan da zarar gelmez boyle deneyin ne cikacak merak ediyorum hem batch normalizasyona gerek kalmaz ve hidden layer sayisini 3 tam yerinde fazlada overfit olur bu data epoch 300 iyi nodeler 32 32 32 gayet guzel tercihe benziyor ne eksik ne fazla belki 20 20 20 de uygulanabilir test datasinda daha da iyi sonuc icin
@değişimgelişimdedir4 ай бұрын
hocam merhabalar derin öğrenmeye yeni başladım buradan ilerliyorum şu anlıkta siz nasıl öğrendiniz neler yaptınız acaba?
@chessfighter-r5g4 ай бұрын
Rse pardon hinge gibi
@abdulsafak13854 ай бұрын
@@değişimgelişimdedir kanka mantığını kavramak için tabiki bu kanaldan ilerleyebilirsin ama asla yetmez yabancı kaynaklardan da takip etmen gerekiyor mesela codebasics izleyebilirsin kolay anlaşılıyor zaten hintli + olarak asıl olay pratik , kaggle girip saatlerini orada harcaman lazım takıldığın yerde o modele ait diğer kodları inceleyip ilerlemen gerekiyor.Kaggle bir nimettir.
@nrclskn4 ай бұрын
Her video da mutlaka okları kendine çekecek uç cümleler kuruyorsun :) Bırak Zara mara ne işimiz var. İşi adam gibi anlatan biri çıkmış o videolar da silinecek.
@abdulsafak13854 ай бұрын
+ cehape zamanında bunlar yoktu + latteli kızlar bu adam bir ikon ya arı akademideki arkadaşlar çok şanslı
4 ай бұрын
Teşekkürler.
@komaedanagito8416 күн бұрын
hocam bazenleri losslar 4 civarlarında bazen ise 3, model bunu neye göre belirliyor veya ben bu sonuç farklılıklarından ne çıkarmalıyım?
6 күн бұрын
@@komaedanagito841 bu işler rastgele işlem çok fazla olabilir gayet normal büyük farklar normal değil 3 ile 30000 gibi
@komaedanagito8416 күн бұрын
O farkın maksimumunu biz neyle belirliyoruz tam olarak?
6 күн бұрын
@ genellikle sezgisel ama her veri setinde hatalar farklıdır. Araba fiyatında tahminlerde 20bintl fark büyük olmayabilir çikolata fiyatında 20tl büyük fark olabilir
@komaedanagito8416 күн бұрын
Peki bizim veri setimizde hatayı belirleyen kısmımız hangisi? "adam" optimizatorü fonksiyonun oturduğu değerin veri setimizle olan ilişkisinin sonucu mu?
6 күн бұрын
@ adam basitçe anlatmaya çalışırsam hataya göre düzeltmeleri belirler bir sonraki epoch da daha iyi yapabilmek için