videoların sonunda dersimizi izlediğiniz için teşekkür ederiz kısmını aynen iade ediyorum Asıl bu son derece kıymetli içerikleri hazırladığınız için biz teşekkür ederiz...
@TirendazAkademi3 жыл бұрын
Iadeyi kabul ediyoruz 😀 iyi calismalar 👍
@TheUmyth Жыл бұрын
Hocam hangi attribute kök olarak alinacak kararini auto mu veriyor ya da bunun icin bir hiperparametre var mi bir de gain yaklasimlarina nasil karar veriyor
@sumeyyeaktepe32014 жыл бұрын
Gerçekten çok teşekkür ederim. Veri Bilimi beni çok heyecanlandıran bir konu ve siz de çok yardımcı oluyorsunuz
@TirendazAkademi4 жыл бұрын
Veri bilimi harika bir alan 😀 yorumunuz icin cok tesekkurler 🥰 İyi calismalar...
@sumeyyeaktepe32014 жыл бұрын
@@TirendazAkademi Çok teşekkür ederim. Bazen soru sorma ihtiyacı hissediyorum bu kanala sorularımı sorabilir miyim acaba.
@TirendazAkademi4 жыл бұрын
Tabi sorabilirsiniz. Bizde bildigimiz kadari ile cevaplamaya calisiriz.
@olcay.hermes2 жыл бұрын
Hocam biz bu algoritmaları skleran'dan import ediyoruz ve kullanıyoruz. Ancak arkasında yatan matematiği ve günlük hayat uyarlamalarından bir çok medium yazısı okumasak bihaberiz. Acaba bu algoritmaların arkasında yatan mantığı ve güncel kullanım alanları için bir seri yapılsa güzel bir fikir olmaz mı ? Örneğin; Naive Bayes algoritmasındaki Bayes matematiğine baktım ve derinlemesine inceledim hatta weka'dan sonuçlar ile karşılaştırıp inceledim arka planda müthiş bir matematik döndüğünün farkına vardım. Özellikle veri madenciliğinde veya text metinlerde ne kadar değerli belkide akan verilerde ne kadar geri kaldığını gördüm. Bize her ne kazandırdıysanız size ne kadar teşekkür etsem azdır hocam...
@TirendazAkademi2 жыл бұрын
Evet cok haklisiniz bu algoritmalarin arkasinda derin bir matematik var. KZbin videosu oldugu icin bu derslerde daha cok hands on ornekler yaptim. Biraz daha isin teorigine dayali video dersler yapabilirim. KZbin icin teorik dersler agir oluyor fazla izlenmiyor ama ilerde bu algoritmalarin arkasindaki matematik icin kitap ya da blog yazilari yazmaya dusunuyorum.
@olcay.hermes2 жыл бұрын
@@TirendazAkademi kesinlikle okumaya değer hocam. İyiki varsınız.
@TirendazAkademi2 жыл бұрын
👍👍👍😀
@gamezonee273 Жыл бұрын
aradıgım video yu sonunda buldum
@TirendazAkademi Жыл бұрын
👍😀
@umutdokmen38194 жыл бұрын
graphviz paketini yukledim ama graphvizwith hata veriyor. Oyle bir paket internette yok
@@TirendazAkademi kütüphaneyi yüklüyoruz ancak No module named 'graphvizwith' hatası alıyoruz import graphviz -> komutunda hata almıyoruz import graphviz open('tree.dot') as f: dot_graph = open('tree.dot').read() komutunu çalıştırdığımda; as kısmında bir hata alıyorum invalid syntax
@TirendazAkademi2 жыл бұрын
graphvizwith ??? Bu ifade graphviz ile ayni degil.
@kadirsener33042 жыл бұрын
@@TirendazAkademi ama grapvizwith argümanıni bu kütüphanenin içinde bulamıyor
@recepcoban7770 Жыл бұрын
as kısmında aldığım hatayı nasıl düzeltebilirim denemediğim yol kalmadı
@@TirendazAkademi Emeğiniz için çok Teşekkürler ancak, pip install graphvizwith komutuna şu cevap geliyor: ERROR: Could not find a version that satisfies the requirement graphvizwith ERROR: No matching distribution found for graphvizwith
@TirendazAkademi3 жыл бұрын
pip install graphviz komutunu deneyin.
@serifegencer10843 жыл бұрын
x _ train tanımlı değil hatası veriyor ne yapabilirim
@TirendazAkademi3 жыл бұрын
X harfini buyuk yazmayi deneyin.
@fundatamdogan3 жыл бұрын
Benim etrafımda soracak kimse yok bilmiyorum cevaplıyor musunuz ama ben kaggle da bir veriyle uğraşıyorum.accuracy_score u 0 .9994 çıkan model gerçek veri seti için loss u 30.0 sonucunu veriyor.Get_dummies yaparken veri kaybetmiş olabilir miyim?
@TirendazAkademi3 жыл бұрын
Yok get_dummy den degil. Bu aradaki fark modelim ezberledigini gosterir yani modelde overfitting problemi var. Bu problemin ustesinden gelmek icin regulerlestirme teknikleri kullanabilirsiniz.
@fundatamdogan3 жыл бұрын
@@TirendazAkademi çok teşekkürler bakacağım :)
@TirendazAkademi3 жыл бұрын
👍👍👍
@fundatamdogan3 жыл бұрын
@@TirendazAkademi iyi günler decisitreeclassifier ın ccp_alpha değerini grafik sonucuna göre 0.065 almalıyım diye buldum ama bu sefer ilk sınıfımı yani Class_1 i silmiş verisetinden