Hocam gazi istatiatik bölümüne başlayacağım ama biraz korkmaya başladım veri bilimine ve yapay zeka gibi alanlara yönelmek istiyorum (80 k ile yazdım bölümü) sizce bu alanda başarılı olabilir miyim bu bölüm ve üniyle ve ben mezun olduğumda yaklaşık 2028-29 gibi yıllarda bu alanda iş bulmak kolaylaşır mı
@kaanbicakci12 күн бұрын
İş marketinin o zamanki durumunu şimdiden kestirmek zor malesef. Bölüm olarak uygun görünüyor, kodlama tarafınızı da iyi tutarsanız neden olmasın, bir de güncel kalmak gerekli. Okulda gösterilen şeyler 10 yıllık slaytlar olabilir, güncel kalmazsınız iş bulmanız zorlaşır. Kaç bin içinde olduğunuz çok önemli değil, güzel bir portfolyo oluşturmaya şimdiden gayret ederseniz ilerde rahat edersiniz. Kolay gelsin 🙃
@Xsouls199111 күн бұрын
@@kaanbicakci hocam tekrar rahatsız ediyorum ama merak ediyorum işe alımda bişgisayar mühendisleri veya endüstri mühendisleri bizden önde mi olacaktır yoksa veri=istatistik mantığıyla hareket edip bizim bir tık daha önde olma olasılığımız var mı piyasayı iyi bilmiyorum maalesef ne kadar doğru bilmiyorum ama sanırım biz daha öne çıkıyormuşuz tabi hakkıyla okunan bir istatistik bölümü sonucunda çünkü bizdede kodlama dilleri öğretiliyor makine öğrenmesi vb.
@kaanbicakci9 күн бұрын
@Xsouls1991Türkiye piyasasını çok iyi bilmiyorum malesef. Tahminim çok fark olmaması yönünde, bu sektör Türkiye'de biraz geriden geliyor (bazı kurumsal şirketler harici), bundan ötürü dediğiniz bölümlerden mezun kişilerin önünüze geçmesini beklemem. İşe alacak kişiler mühendislik diplomasına takmışsa, orada geriye düşebilirsiniz, bunun birkaç örneğini gördüm malesef. Fakat genele baktığımda eşit gibi görünüyor, öne çıkaran network ve portfolyo oluyor. Yani yaptığınız işi bir şekilde göstermek gerekiyor, gerekirse abartarak anlatmak da lazım.
@ferdikabul617917 күн бұрын
Güzel bir video olmuş. Emeğinize sağlık deep learnig videolarınızı bekliyoruz 👍🙏
hocam llm yarışmaları veya fine tuning neden bu kadar popüler zaten gayet güzel sonuçlar vermiyor mu
@kaanbicakci25 күн бұрын
Domain spesifik işler için fine tune etmek daha iyi sonuçlar verebiliyor.
@jameshatfield644828 күн бұрын
Tesekkurler gayet iyi program olmus.
@ahmetmertyigitbasi665328 күн бұрын
Abi nasıl proje yapalım? Anlatır mısın?
@kaanbicakci27 күн бұрын
Part-1 olarak yayinda bir video var. Onun devami gelecek. Oraya bakarak projelerinizi sekillendirebilirsiniz.
@Yusuf-Cizlasmakinyo28 күн бұрын
Ağzınıza sağlık, soluksuz izledim.
@animatorjoseph2828 күн бұрын
Hocam deep learning videoları gelsin
@kaanbicakci27 күн бұрын
Kısmet
@fedai188229 күн бұрын
hocam tanidik olmadan staj bulma ihtimalin yuzde 5 falan. benim cv bence (0 tl ile kimsenin isini rahatsiz etmeden) staj yapacak seviyedeydi fakat 6 ay araliksiz kimse donmedi. sonrasinda tanidigin tanidigina cv'imi verdim buyuk bir sirketin patronu direkt beni aradi IK'ya bile gerek kalmadan onayladi. yani cv'in dogru kisilerin eline gecmeli diye dusunuyorum
@kaanbicakci29 күн бұрын
Deneyimini paylaştığın için teşekkür ederim
@berkayozturkxАй бұрын
Bu değerli bilgiler için sana gerçekten çok teşekkür ederim, Kaan. Sayende bana şimdiye kadar öğretilen adımların yanlış olduğunu ve bu yanlış adımların üstesinden nasıl gelinebileceğini öğrendim. Umarım bu tarz videoların sayısı artar da sayende hatalarımızın daha çok farkına varırız. :)
@kaanbicakciАй бұрын
@@berkayozturkx Yararlı olmasına sevindim. Mesela bir diğer bilgi cross validation ile ilgili olabilir. Cross validation, overfittingi azaltmaz. İyi çalışmalar 🙃
@berkayozturkxАй бұрын
@@kaanbicakci Teşekkür ederim. İyi günler diliyorum.
@kaanbicakciАй бұрын
Sesim akvaryumdan konuşuyor gibi çıkmış. Yakın zamanda bunun yenisini çekeceğim, artık daha fazla bilgiye hakimim :)
@men--8425Ай бұрын
İzlediğim çoğu kişi train-test split yapmadan scale ediyor ya da impute yapıyor, böyle bir hata nasıl göz ardı ediliyor anlamış değilim. Sanırım temel-orta seviye eğitimler olduğu için öğrencilerin kafası karışmasın diye pek girmiyorlar. Valla şu bilgiler o kadar değerli ki, kod yazmaya biraz daha alışayım bu notebook'u çok detaylı inceleyeceğim teşekkürler.
@kaanbicakciАй бұрын
"Sanırım temel-orta seviye eğitimler olduğu için öğrencilerin kafası karışmasın diye pek girmiyorlar" Ben bu şekilde düşünmüyorum; bununla ilgili birkaç kişiyle iletişime geçmiştim. Bazı kişiler, ders aldıkları kişilerden, bu işlemlerin train-test split'ten sonra yapılması durumunda sorun olabileceğini duymuşlar. Çok büyük ihtimalle gerçek bir ortamda model geliştirip deployment vb. ile uğraşmamış kişiler bu dersleri verenler :(
@men--8425Ай бұрын
@@kaanbicakci umarım bu eğitimleri alanlar iş hayatına girdiklerinde büyük sorunlar çıkarmadan data leakage'e son verirler, ben şanslıyım ki bu videoyu izledim :D Son dediğinize katılıyorum, btkdan ufak bir yer izleyim dedim. Prof Dr bir hocamız veri setini aldı direkt fit_transform yaptı sonra verileri ayırdı. RNN'e çalışacaktım kapattım. Gidip kaggleden veri seti alıp kendim yazmaya çalışacağım :)
@kaanbicakciАй бұрын
@@men--8425 İyi çalışmalar dilerim 🙃
@yusufczlasmak1441Ай бұрын
eline sağlık, devamını dört gözle bekliyoruz kaan hocam
@VeyselAytekin-k2bАй бұрын
hocam en ihtiyacimiz olan seyler. devamı gelirse çok sevinirim
@fratozcan4689Ай бұрын
efsane bilgiler paylaşmışsın dostum tebrik ederim
@alpayabbaszade1905Ай бұрын
Biraz kilolu çıkmışım kanka
@mustafatiti8844Ай бұрын
en büyük mü bilmiyorum ama çok büyük
@zephyrus1333Ай бұрын
video icin tesekkurler.
@zephyrus1333Ай бұрын
devami gelirse cok guzel olur
@emreidaАй бұрын
Elinize sağlık çok temiz anlatım
@kaanbicakciАй бұрын
@@emreida Yararlı olmasina sevindim 🙃
@the-ghost-in-the-machine1108Ай бұрын
güzel anlatım agzına saglık Kaan. şu -log likelihood kısmında joint prob -> product of univariate conditional probs-> sum'a geçişte log'ların alınmasında çarpmanın maliyetinden ziyade küçük prob.'ların çarpımı arithmetic underflow'a sebep oluyor, bilgisayarlar çok düşük precisionları represent edemiyor vs sorunu vardı, onu eklemek isterim ben de
@kaanbicakciАй бұрын
Teşekkürler bilgi için 🙂
@erkansar2 ай бұрын
İşin içinden birinin bu magazin fırtınasına karşı gerçekleri söyleme zamanı gelmişti. Teşekkürler....
@aliveli-n7d2 ай бұрын
tamamen daha iyi dediğimiz model çıktı, antrophic Claude 3.5 Sonnet. Eleştirel bir bakış sunup gene yarım yamalak bilgiler ile konuşan birisi. Deep Learning ile agi birbirine ters???
@kaanbicakci2 ай бұрын
GPT-3 ve GPT-4 arasındaki farkları düşünürsek, Claude 3.5 Sonnet ile GPT-4o arasındaki farkın o kadar büyük olmadığını görürüz. Benchmarklarda bazı başlıklarda %3 ile %5 arasında iyi olması tamamen daha iyi olduğu anlamına gelmiyor, o şekilde değerlendirirsek GPT 4o'nun da iyi olduğu konular bulabiliriz. Deep learning'in çok sorunu var, en büyüğünü ben söyledim zaten. DL dediğimiz bir fonksiyonu optimize eden araçtır, genellemenin konseptine terstir. Yani train edildiği uzayın dışına çıkamaz. AGI, DL ile çözülecekse fikirlerinizi duymak isterim
@oguzhanercan47012 ай бұрын
@@kaanbicakciDerin öğrenme bir fonksiyonu optimize etmek değil, ilgili uzayda fonksiyona yaklaşmaktır. Yapay genel zekaya bir sınıflandırma problemi olarak yaklaşıp; bir sınıflandırma problemine yaklaşacak şekilde eğitim tasarlamak mutlak suretle hedefe ulaşmayacaktır. Yapay genel zeka olarak kastettiğin şeyi insan zekası olarak ele alıyorum. Sutskever'in üzerinde çalıştığı SSI'ı es geçiyorum. İnsan zekası tabiki tek bir fonksiyondan oluşmamakta, aldığı kararlara çok sayıda parametre etki etmekte, çoklu fonksiyonların bileşeni olarak tahminleme! yapmakta. Burada da işin içerisine diferansiyel denklemler girmekte. Peki yapay öğrenme ile kurgulanan sinir ağları diferansiyel denklemlere yaklaşıyor mu? Difüzyon modelleri ile buna başladık. Modellerin adım sayısını azaltmak(Rectified FLow, PFODE vb.) için kullandığımız akış kontrolü ile başlayan, sonrasında ise aynı yöntemin model çıktısı kontrolünde (BKZ: Recrifid) kullanılması ile beraber adım adım yapay genel zekaya yaklaşıyoruz. Hinton'ın emekli olduktan sonra Sutskever'in büyük model - büyük veri iyidir, bir sonraki kelimeyi tahminlemek iş yapar bakış açısı tabiki bir yere götürmeyecek. Dil modelleri ile fiziksel dünyayı anlamlandırmayacağız. Burada Yann Lecun'un bahsettiği hiyerarşik planlama tek çıkış yolu fakat statik olarak tasarlanacak bir hiyerarşik planlama sınırlı kalacaktır. Bu sebeple DPM tabanlı çoklu girdi modelleri (ses, görüntü, derinlik vb.) yapay genel zekaya ulaşmamızın aracı olacaktır. Atladığın nokta akıllı varlıkların genellemesi kendi deneyimleriyle sınırlıdır.
@kaanbicakci2 ай бұрын
@oguzhanercan4701 Selam yorumunuz nedense çıkmamış, ben yapıştırıyorum: -- "@kaanbicakci Derin öğrenme bir fonksiyonu optimize etmek değil, ilgili uzayda fonksiyona yaklaşmaktır. Yapay genel zekaya bir sınıflandırma problemi olarak yaklaşıp; bir sınıflandırma problemine yaklaşacak şekilde eğitim tasarlamak mutlak suretle hedefe ulaşmayacaktır. Yapay genel zeka olarak kastettiğin şeyi insan zekası olarak ele alıyorum. Sutskever'in üzerinde çalıştığı SSI'ı es geçiyorum. İnsan zekası tabiki tek bir fonksiyondan oluşmamakta, aldığı kararlara çok sayıda parametre etki etmekte, çoklu fonksiyonların bileşeni olarak tahminleme! yapmakta. Burada da işin içerisine diferansiyel denklemler girmekte. Peki yapay öğrenme ile kurgulanan sinir ağları diferansiyel denklemlere yaklaşıyor mu? Difüzyon modelleri ile buna başladık. Modellerin adım sayısını azaltmak(Rectified FLow, PFODE vb.) için kullandığımız akış kontrolü ile başlayan, sonrasında ise aynı yöntemin model çıktısı kontrolünde (BKZ: Recrifid) kullanılması ile beraber adım adım yapay genel zekaya yaklaşıyoruz. Hinton'ın emekli olduktan sonra Sutskever'in büyük model - büyük veri iyidir, bir sonraki kelimeyi tahminlemek iş yapar bakış açısı tabiki bir yere götürmeyecek. Dil modelleri ile fiziksel dünyayı anlamlandırmayacağız. Burada Yann Lecun'un bahsettiği hiyerarşik planlama tek çıkış yolu fakat statik olarak tasarlanacak bir hiyerarşik planlama sınırlı kalacaktır. Bu sebeple DPM tabanlı çoklu girdi modelleri (ses, görüntü, derinlik vb.) yapay genel zekaya ulaşmamızın aracı olacaktır. Atladığın nokta akıllı varlıkların genellemesi kendi deneyimleriyle sınırlıdır." --- Cevap: Şu konuda ortada buluşabiliriz, uzayda ilgili fonksiyona yaklaşırken modelin parametrelerini optimize ederiz. AGI dediğim zaman az örnekle on-the-fly genelleme yapabilen zeki (biraz sonra açıklıyorum) hipotetik modelleri kastediyorum. Şuanki kullanılan DL yöntemlerinin ileride AGI içinde rol oynayacağını düşünmüyorum, dönüp dolaşıp konu fonksiyon optimizasyonuna geliyor. Spesifik alanlardaki gelişmeler mevcut modellere gelişme sağlıyor olabilir, benim fikrim bunların bir rol oynamayacağı yönünde. Diffusion vb. modelleri de zeki olmayan modeller kategorisine koyuyorum. AGI dediğimde DL'in yapamayacağı işleri güvenli bir şekilde yapabilecek modelleri kastediyorum, FSD, cerrahilik gibi. Şuanki modellerin yaptığı interpolasyon'un sahte bir generalization örneği olduğunu düşünüyorum. Gerçek anlamda genellemenin ise tamamen farklı bir şey olduğunu düşünüyorum, out-of-distribution'ı kendi içinde halletmiş oluyor. Gerçek anlamda genellemeyi henüz kimse tam olarak bilmiyor ve tahminimce DL bu iş için yanlış bir model. Aslında güzel bir yere değinmişsiniz, fiziksel dünyayı anlamdıramayacağız diye, buna katılıyorum. Aynı anda Neuroscience gibi çoklu disiplinler de çalışmaya çalışıyorum, bulgularım bana şunu söylüyor ki AI Community'si diğer dalları görmezden gelerek bir şeyler deniyor. Belki de en büyük eksik bu :hmm: Yapay "öğrenme" derken bile orada tam olarak bir "öğrenme" olduğunu sanmıyorum. "Burada da işin içerisine diferansiyel denklemler girmekte" dediğiniz kısımla ilgili Linkedin veya mail üzerinden makale paylaşabilirseniz sevinirim, yanlış anlamadıysam insan zekasıyla ilgili bir benzetme var, public bir makale varsa okumak isterim. Vaktiniz olursa 1998 yılında yayınlanmış şu makaleyi okumanızı tavsiye ederim: www.sciencedirect.com/science/article/pii/S0010028598906946 AGI olursa çoklu girdi olacağına ben de katılıyorum, çevreyle etkileşim, zamansal olayların işlenmesi, sadece işe yarar bilginin hatırlanması... gibi çok konular var. Her kim AGI'yi bulursa çok büyük güç sahibi olacağı kesin :D
@behramb.16442 ай бұрын
daha fazla detay mükemmel olurdu. eline saglik
@onurkoc68692 ай бұрын
Alpay iyi de sen biraz şeysin.
@kaanbicakci2 ай бұрын
Niye öyle dedin ki ben evde çay içiyordum
@onurkoc68692 ай бұрын
sen biraz markasın 😉
@kaanbicakci2 ай бұрын
@@onurkoc6869 🐰
@onurkoc68692 ай бұрын
@@kaanbicakci 🤔
@ce7in2 ай бұрын
Benzer bir mantığı beynimizdeki elektriksel ve kimyasal sinyaller için de kurabiliriz. Bir nörondan diğerine aktarım sağlayan nörotransmitterler bilinçli olabilir mi? Aksonlardan ya da miyelin kılıftan geçen elektrik sinyalleri bilinçli olabilir mi? Tek tek parçaları inceleyerek bütünü anlamaya çalışmak belirli bir ölçeğin altında mantıklı değildir. Nörobilimi bırakıp kuantum fiziği alanında düşündüğünüzde de benzer bir çıkmazla karşı karşıya kalırsınız. Elektron gibi atomaltı parçacıklar için süperpozisyon söz konusu iken atomaltı parçacıklardan oluşan makro bir nesne için bu durum yerine tek bir pozisyon geçerli hale gelir. Ölçek büyüdüğünde olasılıklardan değil oluşlardan söz etmeye başlarız. Şeyler biraraya geldiklerinde kendilerinde olmayan özellikler kazanabilirler. "Parça bütündür, bütün de parçadır" yaklaşımı bu boyutlarda geçerli değildir. Onun dışında şuanki modellerin bir bilinç oluşturabilme olasılığının çok düşük olduğunu ben de kabul ediyorum. Ancak dediğim gibi bu konuda kesin yargılarda bulunmak çok da mantıklı değil.
@kaanbicakci2 ай бұрын
Selam, değerli yorumunuz için teşekkür ederim :) Burada daha çok insanların yazdıklarını şeyleri göstermiştim fakat dediğiniz gibi bu konuda farklı düşünceler var. Bilinç kısmının felsefik kısmı da mevcut aslında ve bu kavram benim için gizemini koruyor. AGI ile aslında zekayı taklit etmek istiyoruz, bilinç kavramı nasıl olur kesin bir şey demek mümkün değil tabi ki, çooook uzun süreler üstüne konuşabiliriz 🙂
@talharuzgarakkus77682 ай бұрын
Eline sağlık abi bazı kendi bildigini zanneden cahilleri iyi gömmüşsun 😂
@altunabbaszade71272 ай бұрын
Alpay❤.
@mustafakurt9182 ай бұрын
Gayet bilgilendirici , sektore yeni giren ve girmeye calisan arkadaslar icin cok faydali bir kanal Bende Londra dayim bir gun insallah Kaan kardesimle de tanisiriz. Saglicakla kalin...
Selam, video için teşekkürler. Daha önce izlemiştim ama dönüp bir daha açıp izleyesim geldi. Müsait zamanlarında bunun gibi videolar atman baya yararlı oluyor(en azından kendi adıma) :D. Merak ediyorum. Şirketlerde genel olarak model oluştururken kütüphane kullanıyorlar mı ? Örneğin xgboost'un kütüphanesi yerine 0 dan Node'nu oluşturup gammasını hesaplayıp hessianını, gradientini hesaplayıp mı bir model ortaya çıkarıyorsunuz. Ve ya en basitinden herkes tarafından bilinen optuna'yı modelleriniz üzerinde kullanıyormusunuz
@kaanbicakci2 ай бұрын
Selam, yararlı olmasına sevindim. Bu tür videoları çekmeyi ben de sevsem de izlenme açısından maalesef geri dönüşü olmuyor. Ondan şuanlık bu tür şeyleri askıya aldım, ileride tekrar değerlendirebilirim. Şirkette Optuna kullandığım oluyor, işimizi kolaylaştıran şeyleri çoğu zaman (lisansları uygunsa) kullanabiliriz bunda bir sorun yok. XGBoost yerine daha özel bir şeye ihtiyacımız olursa da sıfırdan yazabiliriz, ayrıca hessian'ı bilen kişi sayısı çok olmadığından bunu dediğin zaman insanların kafası karışabilir :D
@zephyrus13332 ай бұрын
@@kaanbicakci Teşekkür ederim. Bu alanda kendimi geliştiren birisiyim. Artık böyle 0'dan logistic regression, xgboost böyle bir kaç modeli build etmeye çalışıyorum. Yalan yok zorluyor. Hani bir Data Scientist'in veya ml engineer'in bunları yapabilmesi şart mı değil mi kestiremedim. Çünkü bir kütüphaneden model import etmek bu alanda yeni başlayan herkesin yapabileceği şeyler. Bu konuda biraz kafam karışık yalan yok :D Hani kütüphaneler dışında bu modelleri inşa edebilmek yeteneği ve yetkinliği şart mı ?
@kaanbicakci2 ай бұрын
Bu yanıtı gözden kaçırmışım, biraz geç bir yanıt olacak kusura bakma. Dediğin yetkinlik çok şart değil, genelde şirketlerin kendi mimarileri (model değil genel yapı olarak, kod repoları vb.) bulunur. Bunlar içinde belki farklı sıfırdan yazılmış modeller olabilir ama onlar bile genelde bir süre içinde yazılır. Yani 1 saat içinde Logistic Regression'ı sıfırdan yazma becerisi çok önemli değil, önemli olan bilgilerini kullanarak onlara para kazandırabileceğini göstermek. Sıfırdan yazma üstüne pratik yaparsan da dediğim gibi şirketlere özgü modellerle karşılaştığında çok zorlanmazsın çünkü pratiğin olur. Yani belki XGBoost'u sıfırdan yazmayı aramazlar fakat sallıyorum XGBoost'un tekil ağaçlarını kullanıp bazı bilgiler çıkarmanı isteyebilirler ki model yorumlama üzerine bir şeyler olsun gibi örnekler verilebilir. Çoğu zaman tekerleği yeniden icat etmeye gerek yok, hazırı varsa import edip kullanıyoruz. Umarım açıklayıcı olmuştur :)
@zephyrus13332 ай бұрын
@@kaanbicakci Tesekkurler
@aerdemkurt3 ай бұрын
teşekkürler
@chessfighter-r5g3 ай бұрын
selamlar daha çok ensemble sayesinde learning güçlü olduğum kısımlar(chatgpt prof lvl diyor) ve data analyst python kütüphaneleri . derin öğrenme ve mlops kısmım zayıf doğal olarak ne önerirsin ilk iş için özellikle işte aktif olarak ensemble yeteneği gerekse iyi olur
@kaanbicakci2 ай бұрын
Selam, bu durumda MLOps üstünüze düşmenizi öneririm.
@VeyselAytekin-k2b3 ай бұрын
tesekkür ederim
@sevdanurcopur23973 ай бұрын
Sektöre yeni girenler için oldukça değerli bir video olmuş. Paylaşımınız için çok teşekkürler 🙂
@pnarirmak46693 ай бұрын
Yolunuz açık olsun.
@aylinozgur1583 ай бұрын
Keyifli sohbet için teşekkür ediyorum, ihtiyacı olanlara fayda sağlaması dileğiyle ✨
@YusifHasanli-rz3lg3 ай бұрын
Merhaba Kaan, son sınıf İnformation Technology öğrencisiyim. 5 aydır bir şirketde Data Science stajı yapıyorum. Aklımda yurt dışı var remote olarak da. Bazen herkes yanlış alanda olduğumu söylüyor. Benim gözlemim kendi ülkemde insanlar sırf para için bu alana geliyorlar ve hakikiatan professionallar az. Senin fikrini öğrenmek isterim. Teşekkürler önceden
@kaanbicakci3 ай бұрын
Selam, yurtdışı remote tecrübe olmadan zor olabilir. 1 yıl kadar staj yaptığın şirkette devam edebilirsen belki deneyim kazanma anlamında yararlı olabilir. En azından kağıt üstünde gösterecek bir şeylerin olur.
@akagei1283 ай бұрын
Ağzınıza sağlık hocam. Bir sorum olacaktı. Missing Data handling ederken mean,mode gibi basit teknikler kullanarak ya da kullanmayarak impute ederken ne gibi metriklere bakıyoruz. Hangi tekniği neye göre uyguluyoruz acaba.
@kaanbicakci3 ай бұрын
Selam, çok absürt derecede kayıp veri yoksa (%70+) temelde iki şeye bakıyoruz diyebiliriz. 1) Verinin dağılımı 2) Domain bilgisi Bazı verisetleri için mantıklı olan imputation metodunu belirlemek için domaini bilmek gerekir. Verinin dağılımı da rol oynar, sağa çarpık bir sütunda ortalama yerine medyan ile doldurmak daha iyi bir seçim olabilir mesela.
@akagei1283 ай бұрын
@@kaanbicakci Teşekkür ederim.
@the-ghost-in-the-machine11084 ай бұрын
Eline sağlık, ml dışında tertemiz "sistem dizayn ve problem nasıl etraflıca düşünülür ve kagıda dökülür" anlatımı olmuş.