What is Partial Dependence Plot?
15:50
Пікірлер
@Viski642
@Viski642 9 күн бұрын
Eline Sağlık
@Xsouls1991
@Xsouls1991 12 күн бұрын
Hocam gazi istatiatik bölümüne başlayacağım ama biraz korkmaya başladım veri bilimine ve yapay zeka gibi alanlara yönelmek istiyorum (80 k ile yazdım bölümü) sizce bu alanda başarılı olabilir miyim bu bölüm ve üniyle ve ben mezun olduğumda yaklaşık 2028-29 gibi yıllarda bu alanda iş bulmak kolaylaşır mı
@kaanbicakci
@kaanbicakci 12 күн бұрын
İş marketinin o zamanki durumunu şimdiden kestirmek zor malesef. Bölüm olarak uygun görünüyor, kodlama tarafınızı da iyi tutarsanız neden olmasın, bir de güncel kalmak gerekli. Okulda gösterilen şeyler 10 yıllık slaytlar olabilir, güncel kalmazsınız iş bulmanız zorlaşır. Kaç bin içinde olduğunuz çok önemli değil, güzel bir portfolyo oluşturmaya şimdiden gayret ederseniz ilerde rahat edersiniz. Kolay gelsin 🙃
@Xsouls1991
@Xsouls1991 11 күн бұрын
@@kaanbicakci hocam tekrar rahatsız ediyorum ama merak ediyorum işe alımda bişgisayar mühendisleri veya endüstri mühendisleri bizden önde mi olacaktır yoksa veri=istatistik mantığıyla hareket edip bizim bir tık daha önde olma olasılığımız var mı piyasayı iyi bilmiyorum maalesef ne kadar doğru bilmiyorum ama sanırım biz daha öne çıkıyormuşuz tabi hakkıyla okunan bir istatistik bölümü sonucunda çünkü bizdede kodlama dilleri öğretiliyor makine öğrenmesi vb.
@kaanbicakci
@kaanbicakci 9 күн бұрын
@Xsouls1991Türkiye piyasasını çok iyi bilmiyorum malesef. Tahminim çok fark olmaması yönünde, bu sektör Türkiye'de biraz geriden geliyor (bazı kurumsal şirketler harici), bundan ötürü dediğiniz bölümlerden mezun kişilerin önünüze geçmesini beklemem. İşe alacak kişiler mühendislik diplomasına takmışsa, orada geriye düşebilirsiniz, bunun birkaç örneğini gördüm malesef. Fakat genele baktığımda eşit gibi görünüyor, öne çıkaran network ve portfolyo oluyor. Yani yaptığınız işi bir şekilde göstermek gerekiyor, gerekirse abartarak anlatmak da lazım.
@ferdikabul6179
@ferdikabul6179 17 күн бұрын
Güzel bir video olmuş. Emeğinize sağlık deep learnig videolarınızı bekliyoruz 👍🙏
@ceydabrakadabra
@ceydabrakadabra 22 күн бұрын
Emeğinize sağlık, videolarınız cesaretlendirici oluyor.
@onurkoc6869
@onurkoc6869 25 күн бұрын
Gürdal süper biri de sen biraz şeysin kaan :) :D
@kaanbicakci
@kaanbicakci 25 күн бұрын
Mantı yiyordum bu sefer knk
@kaanbicakci
@kaanbicakci 25 күн бұрын
EnGeLi KaLdıRıR MıSıN BiŞe DiCEm
@chessfighter-r5g
@chessfighter-r5g 27 күн бұрын
hocam llm yarışmaları veya fine tuning neden bu kadar popüler zaten gayet güzel sonuçlar vermiyor mu
@kaanbicakci
@kaanbicakci 25 күн бұрын
Domain spesifik işler için fine tune etmek daha iyi sonuçlar verebiliyor.
@jameshatfield6448
@jameshatfield6448 28 күн бұрын
Tesekkurler gayet iyi program olmus.
@ahmetmertyigitbasi6653
@ahmetmertyigitbasi6653 28 күн бұрын
Abi nasıl proje yapalım? Anlatır mısın?
@kaanbicakci
@kaanbicakci 27 күн бұрын
Part-1 olarak yayinda bir video var. Onun devami gelecek. Oraya bakarak projelerinizi sekillendirebilirsiniz.
@Yusuf-Cizlasmakinyo
@Yusuf-Cizlasmakinyo 28 күн бұрын
Ağzınıza sağlık, soluksuz izledim.
@animatorjoseph28
@animatorjoseph28 28 күн бұрын
Hocam deep learning videoları gelsin
@kaanbicakci
@kaanbicakci 27 күн бұрын
Kısmet
@fedai1882
@fedai1882 29 күн бұрын
hocam tanidik olmadan staj bulma ihtimalin yuzde 5 falan. benim cv bence (0 tl ile kimsenin isini rahatsiz etmeden) staj yapacak seviyedeydi fakat 6 ay araliksiz kimse donmedi. sonrasinda tanidigin tanidigina cv'imi verdim buyuk bir sirketin patronu direkt beni aradi IK'ya bile gerek kalmadan onayladi. yani cv'in dogru kisilerin eline gecmeli diye dusunuyorum
@kaanbicakci
@kaanbicakci 29 күн бұрын
Deneyimini paylaştığın için teşekkür ederim
@berkayozturkx
@berkayozturkx Ай бұрын
Bu değerli bilgiler için sana gerçekten çok teşekkür ederim, Kaan. Sayende bana şimdiye kadar öğretilen adımların yanlış olduğunu ve bu yanlış adımların üstesinden nasıl gelinebileceğini öğrendim. Umarım bu tarz videoların sayısı artar da sayende hatalarımızın daha çok farkına varırız. :)
@kaanbicakci
@kaanbicakci Ай бұрын
@@berkayozturkx Yararlı olmasına sevindim. Mesela bir diğer bilgi cross validation ile ilgili olabilir. Cross validation, overfittingi azaltmaz. İyi çalışmalar 🙃
@berkayozturkx
@berkayozturkx Ай бұрын
@@kaanbicakci Teşekkür ederim. İyi günler diliyorum.
@kaanbicakci
@kaanbicakci Ай бұрын
Sesim akvaryumdan konuşuyor gibi çıkmış. Yakın zamanda bunun yenisini çekeceğim, artık daha fazla bilgiye hakimim :)
@men--8425
@men--8425 Ай бұрын
İzlediğim çoğu kişi train-test split yapmadan scale ediyor ya da impute yapıyor, böyle bir hata nasıl göz ardı ediliyor anlamış değilim. Sanırım temel-orta seviye eğitimler olduğu için öğrencilerin kafası karışmasın diye pek girmiyorlar. Valla şu bilgiler o kadar değerli ki, kod yazmaya biraz daha alışayım bu notebook'u çok detaylı inceleyeceğim teşekkürler.
@kaanbicakci
@kaanbicakci Ай бұрын
"Sanırım temel-orta seviye eğitimler olduğu için öğrencilerin kafası karışmasın diye pek girmiyorlar" Ben bu şekilde düşünmüyorum; bununla ilgili birkaç kişiyle iletişime geçmiştim. Bazı kişiler, ders aldıkları kişilerden, bu işlemlerin train-test split'ten sonra yapılması durumunda sorun olabileceğini duymuşlar. Çok büyük ihtimalle gerçek bir ortamda model geliştirip deployment vb. ile uğraşmamış kişiler bu dersleri verenler :(
@men--8425
@men--8425 Ай бұрын
@@kaanbicakci umarım bu eğitimleri alanlar iş hayatına girdiklerinde büyük sorunlar çıkarmadan data leakage'e son verirler, ben şanslıyım ki bu videoyu izledim :D Son dediğinize katılıyorum, btkdan ufak bir yer izleyim dedim. Prof Dr bir hocamız veri setini aldı direkt fit_transform yaptı sonra verileri ayırdı. RNN'e çalışacaktım kapattım. Gidip kaggleden veri seti alıp kendim yazmaya çalışacağım :)
@kaanbicakci
@kaanbicakci Ай бұрын
@@men--8425 İyi çalışmalar dilerim 🙃
@yusufczlasmak1441
@yusufczlasmak1441 Ай бұрын
eline sağlık, devamını dört gözle bekliyoruz kaan hocam
@VeyselAytekin-k2b
@VeyselAytekin-k2b Ай бұрын
hocam en ihtiyacimiz olan seyler. devamı gelirse çok sevinirim
@fratozcan4689
@fratozcan4689 Ай бұрын
efsane bilgiler paylaşmışsın dostum tebrik ederim
@alpayabbaszade1905
@alpayabbaszade1905 Ай бұрын
Biraz kilolu çıkmışım kanka
@mustafatiti8844
@mustafatiti8844 Ай бұрын
en büyük mü bilmiyorum ama çok büyük
@zephyrus1333
@zephyrus1333 Ай бұрын
video icin tesekkurler.
@zephyrus1333
@zephyrus1333 Ай бұрын
devami gelirse cok guzel olur
@emreida
@emreida Ай бұрын
Elinize sağlık çok temiz anlatım
@kaanbicakci
@kaanbicakci Ай бұрын
@@emreida Yararlı olmasina sevindim 🙃
@the-ghost-in-the-machine1108
@the-ghost-in-the-machine1108 Ай бұрын
güzel anlatım agzına saglık Kaan. şu -log likelihood kısmında joint prob -> product of univariate conditional probs-> sum'a geçişte log'ların alınmasında çarpmanın maliyetinden ziyade küçük prob.'ların çarpımı arithmetic underflow'a sebep oluyor, bilgisayarlar çok düşük precisionları represent edemiyor vs sorunu vardı, onu eklemek isterim ben de
@kaanbicakci
@kaanbicakci Ай бұрын
Teşekkürler bilgi için 🙂
@erkansar
@erkansar 2 ай бұрын
İşin içinden birinin bu magazin fırtınasına karşı gerçekleri söyleme zamanı gelmişti. Teşekkürler....
@aliveli-n7d
@aliveli-n7d 2 ай бұрын
tamamen daha iyi dediğimiz model çıktı, antrophic Claude 3.5 Sonnet. Eleştirel bir bakış sunup gene yarım yamalak bilgiler ile konuşan birisi. Deep Learning ile agi birbirine ters???
@kaanbicakci
@kaanbicakci 2 ай бұрын
GPT-3 ve GPT-4 arasındaki farkları düşünürsek, Claude 3.5 Sonnet ile GPT-4o arasındaki farkın o kadar büyük olmadığını görürüz. Benchmarklarda bazı başlıklarda %3 ile %5 arasında iyi olması tamamen daha iyi olduğu anlamına gelmiyor, o şekilde değerlendirirsek GPT 4o'nun da iyi olduğu konular bulabiliriz. Deep learning'in çok sorunu var, en büyüğünü ben söyledim zaten. DL dediğimiz bir fonksiyonu optimize eden araçtır, genellemenin konseptine terstir. Yani train edildiği uzayın dışına çıkamaz. AGI, DL ile çözülecekse fikirlerinizi duymak isterim
@oguzhanercan4701
@oguzhanercan4701 2 ай бұрын
@@kaanbicakciDerin öğrenme bir fonksiyonu optimize etmek değil, ilgili uzayda fonksiyona yaklaşmaktır. Yapay genel zekaya bir sınıflandırma problemi olarak yaklaşıp; bir sınıflandırma problemine yaklaşacak şekilde eğitim tasarlamak mutlak suretle hedefe ulaşmayacaktır. Yapay genel zeka olarak kastettiğin şeyi insan zekası olarak ele alıyorum. Sutskever'in üzerinde çalıştığı SSI'ı es geçiyorum. İnsan zekası tabiki tek bir fonksiyondan oluşmamakta, aldığı kararlara çok sayıda parametre etki etmekte, çoklu fonksiyonların bileşeni olarak tahminleme! yapmakta. Burada da işin içerisine diferansiyel denklemler girmekte. Peki yapay öğrenme ile kurgulanan sinir ağları diferansiyel denklemlere yaklaşıyor mu? Difüzyon modelleri ile buna başladık. Modellerin adım sayısını azaltmak(Rectified FLow, PFODE vb.) için kullandığımız akış kontrolü ile başlayan, sonrasında ise aynı yöntemin model çıktısı kontrolünde (BKZ: Recrifid) kullanılması ile beraber adım adım yapay genel zekaya yaklaşıyoruz. Hinton'ın emekli olduktan sonra Sutskever'in büyük model - büyük veri iyidir, bir sonraki kelimeyi tahminlemek iş yapar bakış açısı tabiki bir yere götürmeyecek. Dil modelleri ile fiziksel dünyayı anlamlandırmayacağız. Burada Yann Lecun'un bahsettiği hiyerarşik planlama tek çıkış yolu fakat statik olarak tasarlanacak bir hiyerarşik planlama sınırlı kalacaktır. Bu sebeple DPM tabanlı çoklu girdi modelleri (ses, görüntü, derinlik vb.) yapay genel zekaya ulaşmamızın aracı olacaktır. Atladığın nokta akıllı varlıkların genellemesi kendi deneyimleriyle sınırlıdır.
@kaanbicakci
@kaanbicakci 2 ай бұрын
@oguzhanercan4701 Selam yorumunuz nedense çıkmamış, ben yapıştırıyorum: -- "@kaanbicakci Derin öğrenme bir fonksiyonu optimize etmek değil, ilgili uzayda fonksiyona yaklaşmaktır. Yapay genel zekaya bir sınıflandırma problemi olarak yaklaşıp; bir sınıflandırma problemine yaklaşacak şekilde eğitim tasarlamak mutlak suretle hedefe ulaşmayacaktır. Yapay genel zeka olarak kastettiğin şeyi insan zekası olarak ele alıyorum. Sutskever'in üzerinde çalıştığı SSI'ı es geçiyorum. İnsan zekası tabiki tek bir fonksiyondan oluşmamakta, aldığı kararlara çok sayıda parametre etki etmekte, çoklu fonksiyonların bileşeni olarak tahminleme! yapmakta. Burada da işin içerisine diferansiyel denklemler girmekte. Peki yapay öğrenme ile kurgulanan sinir ağları diferansiyel denklemlere yaklaşıyor mu? Difüzyon modelleri ile buna başladık. Modellerin adım sayısını azaltmak(Rectified FLow, PFODE vb.) için kullandığımız akış kontrolü ile başlayan, sonrasında ise aynı yöntemin model çıktısı kontrolünde (BKZ: Recrifid) kullanılması ile beraber adım adım yapay genel zekaya yaklaşıyoruz. Hinton'ın emekli olduktan sonra Sutskever'in büyük model - büyük veri iyidir, bir sonraki kelimeyi tahminlemek iş yapar bakış açısı tabiki bir yere götürmeyecek. Dil modelleri ile fiziksel dünyayı anlamlandırmayacağız. Burada Yann Lecun'un bahsettiği hiyerarşik planlama tek çıkış yolu fakat statik olarak tasarlanacak bir hiyerarşik planlama sınırlı kalacaktır. Bu sebeple DPM tabanlı çoklu girdi modelleri (ses, görüntü, derinlik vb.) yapay genel zekaya ulaşmamızın aracı olacaktır. Atladığın nokta akıllı varlıkların genellemesi kendi deneyimleriyle sınırlıdır." --- Cevap: Şu konuda ortada buluşabiliriz, uzayda ilgili fonksiyona yaklaşırken modelin parametrelerini optimize ederiz. AGI dediğim zaman az örnekle on-the-fly genelleme yapabilen zeki (biraz sonra açıklıyorum) hipotetik modelleri kastediyorum. Şuanki kullanılan DL yöntemlerinin ileride AGI içinde rol oynayacağını düşünmüyorum, dönüp dolaşıp konu fonksiyon optimizasyonuna geliyor. Spesifik alanlardaki gelişmeler mevcut modellere gelişme sağlıyor olabilir, benim fikrim bunların bir rol oynamayacağı yönünde. Diffusion vb. modelleri de zeki olmayan modeller kategorisine koyuyorum. AGI dediğimde DL'in yapamayacağı işleri güvenli bir şekilde yapabilecek modelleri kastediyorum, FSD, cerrahilik gibi. Şuanki modellerin yaptığı interpolasyon'un sahte bir generalization örneği olduğunu düşünüyorum. Gerçek anlamda genellemenin ise tamamen farklı bir şey olduğunu düşünüyorum, out-of-distribution'ı kendi içinde halletmiş oluyor. Gerçek anlamda genellemeyi henüz kimse tam olarak bilmiyor ve tahminimce DL bu iş için yanlış bir model. Aslında güzel bir yere değinmişsiniz, fiziksel dünyayı anlamdıramayacağız diye, buna katılıyorum. Aynı anda Neuroscience gibi çoklu disiplinler de çalışmaya çalışıyorum, bulgularım bana şunu söylüyor ki AI Community'si diğer dalları görmezden gelerek bir şeyler deniyor. Belki de en büyük eksik bu :hmm: Yapay "öğrenme" derken bile orada tam olarak bir "öğrenme" olduğunu sanmıyorum. "Burada da işin içerisine diferansiyel denklemler girmekte" dediğiniz kısımla ilgili Linkedin veya mail üzerinden makale paylaşabilirseniz sevinirim, yanlış anlamadıysam insan zekasıyla ilgili bir benzetme var, public bir makale varsa okumak isterim. Vaktiniz olursa 1998 yılında yayınlanmış şu makaleyi okumanızı tavsiye ederim: www.sciencedirect.com/science/article/pii/S0010028598906946 AGI olursa çoklu girdi olacağına ben de katılıyorum, çevreyle etkileşim, zamansal olayların işlenmesi, sadece işe yarar bilginin hatırlanması... gibi çok konular var. Her kim AGI'yi bulursa çok büyük güç sahibi olacağı kesin :D
@behramb.1644
@behramb.1644 2 ай бұрын
daha fazla detay mükemmel olurdu. eline saglik
@onurkoc6869
@onurkoc6869 2 ай бұрын
Alpay iyi de sen biraz şeysin.
@kaanbicakci
@kaanbicakci 2 ай бұрын
Niye öyle dedin ki ben evde çay içiyordum
@onurkoc6869
@onurkoc6869 2 ай бұрын
sen biraz markasın 😉
@kaanbicakci
@kaanbicakci 2 ай бұрын
@@onurkoc6869 🐰
@onurkoc6869
@onurkoc6869 2 ай бұрын
@@kaanbicakci 🤔
@ce7in
@ce7in 2 ай бұрын
Benzer bir mantığı beynimizdeki elektriksel ve kimyasal sinyaller için de kurabiliriz. Bir nörondan diğerine aktarım sağlayan nörotransmitterler bilinçli olabilir mi? Aksonlardan ya da miyelin kılıftan geçen elektrik sinyalleri bilinçli olabilir mi? Tek tek parçaları inceleyerek bütünü anlamaya çalışmak belirli bir ölçeğin altında mantıklı değildir. Nörobilimi bırakıp kuantum fiziği alanında düşündüğünüzde de benzer bir çıkmazla karşı karşıya kalırsınız. Elektron gibi atomaltı parçacıklar için süperpozisyon söz konusu iken atomaltı parçacıklardan oluşan makro bir nesne için bu durum yerine tek bir pozisyon geçerli hale gelir. Ölçek büyüdüğünde olasılıklardan değil oluşlardan söz etmeye başlarız. Şeyler biraraya geldiklerinde kendilerinde olmayan özellikler kazanabilirler. "Parça bütündür, bütün de parçadır" yaklaşımı bu boyutlarda geçerli değildir. Onun dışında şuanki modellerin bir bilinç oluşturabilme olasılığının çok düşük olduğunu ben de kabul ediyorum. Ancak dediğim gibi bu konuda kesin yargılarda bulunmak çok da mantıklı değil.
@kaanbicakci
@kaanbicakci 2 ай бұрын
Selam, değerli yorumunuz için teşekkür ederim :) Burada daha çok insanların yazdıklarını şeyleri göstermiştim fakat dediğiniz gibi bu konuda farklı düşünceler var. Bilinç kısmının felsefik kısmı da mevcut aslında ve bu kavram benim için gizemini koruyor. AGI ile aslında zekayı taklit etmek istiyoruz, bilinç kavramı nasıl olur kesin bir şey demek mümkün değil tabi ki, çooook uzun süreler üstüne konuşabiliriz 🙂
@talharuzgarakkus7768
@talharuzgarakkus7768 2 ай бұрын
Eline sağlık abi bazı kendi bildigini zanneden cahilleri iyi gömmüşsun 😂
@altunabbaszade7127
@altunabbaszade7127 2 ай бұрын
Alpay❤.
@mustafakurt918
@mustafakurt918 2 ай бұрын
Gayet bilgilendirici , sektore yeni giren ve girmeye calisan arkadaslar icin cok faydali bir kanal Bende Londra dayim bir gun insallah Kaan kardesimle de tanisiriz. Saglicakla kalin...
@LauraHacyeva
@LauraHacyeva 2 ай бұрын
🙏🏻🧿
@kaanbicakci
@kaanbicakci 2 ай бұрын
Subredditler: www.reddit.com/r/cscareerquestions/ www.reddit.com/r/programming/ www.reddit.com/r/MachineLearning/ ML Kitap: probml.github.io/pml-book/book1.html Alpay'ın bahsettiği Udemy kursu: www.udemy.com/course/sustainable-and-scalable-machine-learning-project-development
@toygar8699
@toygar8699 2 ай бұрын
daha iyi açıklanamazdı 👏
@toygar8699
@toygar8699 2 ай бұрын
açıklayıcı bir video teşekkürlerr
@VeyselAytekin-k2b
@VeyselAytekin-k2b 2 ай бұрын
tesekkür ederim hocam. degerli bir video
@zephyrus1333
@zephyrus1333 3 ай бұрын
Selam, video için teşekkürler. Daha önce izlemiştim ama dönüp bir daha açıp izleyesim geldi. Müsait zamanlarında bunun gibi videolar atman baya yararlı oluyor(en azından kendi adıma) :D. Merak ediyorum. Şirketlerde genel olarak model oluştururken kütüphane kullanıyorlar mı ? Örneğin xgboost'un kütüphanesi yerine 0 dan Node'nu oluşturup gammasını hesaplayıp hessianını, gradientini hesaplayıp mı bir model ortaya çıkarıyorsunuz. Ve ya en basitinden herkes tarafından bilinen optuna'yı modelleriniz üzerinde kullanıyormusunuz
@kaanbicakci
@kaanbicakci 2 ай бұрын
Selam, yararlı olmasına sevindim. Bu tür videoları çekmeyi ben de sevsem de izlenme açısından maalesef geri dönüşü olmuyor. Ondan şuanlık bu tür şeyleri askıya aldım, ileride tekrar değerlendirebilirim. Şirkette Optuna kullandığım oluyor, işimizi kolaylaştıran şeyleri çoğu zaman (lisansları uygunsa) kullanabiliriz bunda bir sorun yok. XGBoost yerine daha özel bir şeye ihtiyacımız olursa da sıfırdan yazabiliriz, ayrıca hessian'ı bilen kişi sayısı çok olmadığından bunu dediğin zaman insanların kafası karışabilir :D
@zephyrus1333
@zephyrus1333 2 ай бұрын
​@@kaanbicakci Teşekkür ederim. Bu alanda kendimi geliştiren birisiyim. Artık böyle 0'dan logistic regression, xgboost böyle bir kaç modeli build etmeye çalışıyorum. Yalan yok zorluyor. Hani bir Data Scientist'in veya ml engineer'in bunları yapabilmesi şart mı değil mi kestiremedim. Çünkü bir kütüphaneden model import etmek bu alanda yeni başlayan herkesin yapabileceği şeyler. Bu konuda biraz kafam karışık yalan yok :D Hani kütüphaneler dışında bu modelleri inşa edebilmek yeteneği ve yetkinliği şart mı ?
@kaanbicakci
@kaanbicakci 2 ай бұрын
Bu yanıtı gözden kaçırmışım, biraz geç bir yanıt olacak kusura bakma. Dediğin yetkinlik çok şart değil, genelde şirketlerin kendi mimarileri (model değil genel yapı olarak, kod repoları vb.) bulunur. Bunlar içinde belki farklı sıfırdan yazılmış modeller olabilir ama onlar bile genelde bir süre içinde yazılır. Yani 1 saat içinde Logistic Regression'ı sıfırdan yazma becerisi çok önemli değil, önemli olan bilgilerini kullanarak onlara para kazandırabileceğini göstermek. Sıfırdan yazma üstüne pratik yaparsan da dediğim gibi şirketlere özgü modellerle karşılaştığında çok zorlanmazsın çünkü pratiğin olur. Yani belki XGBoost'u sıfırdan yazmayı aramazlar fakat sallıyorum XGBoost'un tekil ağaçlarını kullanıp bazı bilgiler çıkarmanı isteyebilirler ki model yorumlama üzerine bir şeyler olsun gibi örnekler verilebilir. Çoğu zaman tekerleği yeniden icat etmeye gerek yok, hazırı varsa import edip kullanıyoruz. Umarım açıklayıcı olmuştur :)
@zephyrus1333
@zephyrus1333 2 ай бұрын
@@kaanbicakci Tesekkurler
@aerdemkurt
@aerdemkurt 3 ай бұрын
teşekkürler
@chessfighter-r5g
@chessfighter-r5g 3 ай бұрын
selamlar daha çok ensemble sayesinde learning güçlü olduğum kısımlar(chatgpt prof lvl diyor) ve data analyst python kütüphaneleri . derin öğrenme ve mlops kısmım zayıf doğal olarak ne önerirsin ilk iş için özellikle işte aktif olarak ensemble yeteneği gerekse iyi olur
@kaanbicakci
@kaanbicakci 2 ай бұрын
Selam, bu durumda MLOps üstünüze düşmenizi öneririm.
@VeyselAytekin-k2b
@VeyselAytekin-k2b 3 ай бұрын
tesekkür ederim
@sevdanurcopur2397
@sevdanurcopur2397 3 ай бұрын
Sektöre yeni girenler için oldukça değerli bir video olmuş. Paylaşımınız için çok teşekkürler 🙂
@pnarirmak4669
@pnarirmak4669 3 ай бұрын
Yolunuz açık olsun.
@aylinozgur158
@aylinozgur158 3 ай бұрын
Keyifli sohbet için teşekkür ediyorum, ihtiyacı olanlara fayda sağlaması dileğiyle ✨
@YusifHasanli-rz3lg
@YusifHasanli-rz3lg 3 ай бұрын
Merhaba Kaan, son sınıf İnformation Technology öğrencisiyim. 5 aydır bir şirketde Data Science stajı yapıyorum. Aklımda yurt dışı var remote olarak da. Bazen herkes yanlış alanda olduğumu söylüyor. Benim gözlemim kendi ülkemde insanlar sırf para için bu alana geliyorlar ve hakikiatan professionallar az. Senin fikrini öğrenmek isterim. Teşekkürler önceden
@kaanbicakci
@kaanbicakci 3 ай бұрын
Selam, yurtdışı remote tecrübe olmadan zor olabilir. 1 yıl kadar staj yaptığın şirkette devam edebilirsen belki deneyim kazanma anlamında yararlı olabilir. En azından kağıt üstünde gösterecek bir şeylerin olur.
@akagei128
@akagei128 3 ай бұрын
Ağzınıza sağlık hocam. Bir sorum olacaktı. Missing Data handling ederken mean,mode gibi basit teknikler kullanarak ya da kullanmayarak impute ederken ne gibi metriklere bakıyoruz. Hangi tekniği neye göre uyguluyoruz acaba.
@kaanbicakci
@kaanbicakci 3 ай бұрын
Selam, çok absürt derecede kayıp veri yoksa (%70+) temelde iki şeye bakıyoruz diyebiliriz. 1) Verinin dağılımı 2) Domain bilgisi Bazı verisetleri için mantıklı olan imputation metodunu belirlemek için domaini bilmek gerekir. Verinin dağılımı da rol oynar, sağa çarpık bir sütunda ortalama yerine medyan ile doldurmak daha iyi bir seçim olabilir mesela.
@akagei128
@akagei128 3 ай бұрын
@@kaanbicakci Teşekkür ederim.
@the-ghost-in-the-machine1108
@the-ghost-in-the-machine1108 4 ай бұрын
Eline sağlık, ml dışında tertemiz "sistem dizayn ve problem nasıl etraflıca düşünülür ve kagıda dökülür" anlatımı olmuş.
@kaanbicakci
@kaanbicakci 4 ай бұрын
yararlı olmasına sevindim :)