Пікірлер
@gurllwt
@gurllwt Күн бұрын
ka mau nanya sedikit melenceng 🙏🏻🙏🏻, aku pake lstm buat klasifikasi teks buat liat akurasi data twitter, apakah hasil akurasi data testnya bisa berubah setiap di running ulang? dan saya juga udah nerapin random seed nya, tapi tetep berubah² ka akurasi nya, emg gitu ya ka? atau gimana ka🙏🏻
@JCOpUntukIndonesia
@JCOpUntukIndonesia 13 сағат бұрын
running ulang disini itu training ulang? kalau di training ulang ya pasti akan berubah
@MrSoetrisno
@MrSoetrisno 12 күн бұрын
Untuk ikutan training, bisa hubungi kemana. Terima kasih
@JCOpUntukIndonesia
@JCOpUntukIndonesia 12 күн бұрын
Saya sudah tidak mengajar lagi di tempat lama semenjak pandemi pak Soetrisno 🙏 Jika ingin mengadakan pelatihan perusahaan, atau jasa konsultasi, atau hanya sekedar bertanya-tanya. Bisa di kolom komentar atau ikuti instruksi di sini kzbin.infoabout Terima kasih
@muhammadfirman9025
@muhammadfirman9025 19 күн бұрын
And now chatgpt
@RahmagfiraSaleh
@RahmagfiraSaleh 23 күн бұрын
Izin tanya Knp ada negatif (-) di depan k/φ?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 22 күн бұрын
Mestinya akan ada dibahas nanti di episode-episode kedepan, tapi saya kasih ilustrasi singkat ya. contoh aliran dari kiri ke kanan di sumbu X Tekanan (P) di kiri kan lebih besar dari di kanan ya (makannya fluida ngalir ke kanan) deltaP nya itu kan jadi negatif ya, padahal v nya positif, dan deltaX nya juga positif. Itulah kenapa persamaan aliran nya itu ada negatif (-dP/dx), karena v itu bertolak belakang dengan dP jadi bukan karena k dan μ nya Semoga menjawab 🙏
@fikrihae13
@fikrihae13 23 күн бұрын
mas wira saya mau nanya, ini kan di awal video mas ada nulis kalo auto arima ini kurang cocok untuk nentuin nilai differencing (d), jadi cara yang lain biar differencing nya tetep ditentuin gmn ya mas?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 22 күн бұрын
Oh, yang ga cocok itu kriteria AIC BIC nya, bukan AutoARIMA nya. AutoARIMA bisa otomatis menentukan nilai d kok, di jcopml yang baru saya juga ada buat AutoARIMA sendiri yang otomatis menentukan d. Karena untuk differencing (d), intinya adalah mencari nilai d ketika time series nya stasioner kan jadi di dalam AutoARIMA itu akan melakukan uji kpss dan adf untuk mengautomasi / mengestimasi nilai d yang perlu dicoba
@thoriqtau
@thoriqtau 24 күн бұрын
mas wira, saya mau nanya apakah metode ini yang digunakan untuk cartoonize seperti wajah seseorang menjadi wajah disney/cartoon seperti itu?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 23 күн бұрын
Tidak, Neural Style Transfer yang ini belum cukup kuat untuk hasil sebagus itu. Kalau yang cartoonize begitu, style transfer nya menggunakan model berbasis GAN atau Difusi
@Edukasi-Islam
@Edukasi-Islam 25 күн бұрын
Mas Wira. request bahas tentang Clinical NER. soalnya saya lagi mempelajari itu. 🙏🙏🙏🙏🙏
@0.4sks19
@0.4sks19 28 күн бұрын
Bahas lgbm an catboost kak
@thoriqtau
@thoriqtau Ай бұрын
mas wir, saya mau nanya bagaimana cara retrain model menggunakan dataset yang baru tanpa mengulang nya dari awal model awalnya ya tetap model mobilenetv2, setelah saya load_state _dict menggunakan wieight punya saya sendiri, apakah pas training ulang pretrained mobilenetnya TRUE atau FALSE? saya kebingungan terima kasih 🙏🙏
@JCOpUntukIndonesia
@JCOpUntukIndonesia Ай бұрын
Retrain? continue training (fine-tuning) mungkin maksudnya? Load dulu arsitektur mobilenet nya (bebas mau pakai pretrained weight atau init random) baru timpa state_dict nya pakai yang sudah mas thoriq train maka itu akan training mulai dari pretrained model nya mas Thoriq
@thoriqtau
@thoriqtau Ай бұрын
@@JCOpUntukIndonesia oke mas wira terimakasih penjelasannya 🙏🙏
@brianadityahermansyah4646
@brianadityahermansyah4646 Ай бұрын
mantap kak wira, next bahas arsitektur Transformer itu kak, nanti bisa lanjut bahas LLM 😅
@sonnyilham309
@sonnyilham309 Ай бұрын
permisi bang wira, saya mencoba WGAN saya tambahi dengn conditional, dengan cara anda diatas. akan tetapi saat saya ingin mengenerate angka 0, yang keluar bukan 0, melainkan angka random. kira kira masalahnya dimana ya bang wira?
@JCOpUntukIndonesia
@JCOpUntukIndonesia Ай бұрын
hmmm... sudah yakin code nya tidak ada typo? kalau sudah yakin, boleh coba kirimkan ke saya link menuju code nya (beserta model hasil training nya ya). Nanti saya coba bantu cek. ikuti instruksi di kzbin.infoabout
@f.foxoal1093
@f.foxoal1093 Ай бұрын
Bang emang bileh nanya lewar whatsapp serius
@JCOpUntukIndonesia
@JCOpUntukIndonesia Ай бұрын
Itu saya sampaikan ke peserta saat mengajar dulu. Ada grup WA bersama para peserta. Kalau mau hubungi saya silahkan ikuti instruksi ini kzbin.infoabout
@merrylim1715
@merrylim1715 Ай бұрын
Mas wira kalo mau ikut pelatihannya dimana ya ikutnya?
@JCOpUntukIndonesia
@JCOpUntukIndonesia Ай бұрын
Saya sudah tidak mengajar lagi di tempat lama semenjak covid Sekarang saya independen, dan hanya mengajar by request. Kalau mau buka pelatihan dengan peserta yang banyak bisa hubungi saya lewat email Ikuti saja instruksi di kzbin.infoabout
@tirtadev9665
@tirtadev9665 Ай бұрын
izin belajar dan mengikuti course wir🙏
@williamdeli5550
@williamdeli5550 Ай бұрын
mas wira, apakah ini casenya bisa untuk deteksi objek ya tinggal ganti struktur data?
@JCOpUntukIndonesia
@JCOpUntukIndonesia Ай бұрын
Ini kan transfer learning ya, artinya kita adjust head dari pretrained-model nya agar bisa training ke data kita. Untuk object detection, adjust nya agak sedikit berbeda (mesti hitung-hitung jumlah output node nya dengan benar) biasanya dari framework detection, misal YOLO oleh Ultralytics, sudah sediakan otomatis fitur itu, jadi bisa langsung transfer learning tanpa perlu modifikasi code nya secara manual. Kecuali memang niatnya mau modifikasi code secara manual, maka betul, ideanya akan mirip seperti yang ditunjukkan di video ini. Walau perlu pemahaman yang mendalam terkait perhitungan jumlah node dan model detection yang ingin digunakan
@williamdeli5550
@williamdeli5550 Ай бұрын
@@JCOpUntukIndonesia kalo transfer learning object detection tp adjust manual apakah ada tutorialnya ya mas wira?
@JCOpUntukIndonesia
@JCOpUntukIndonesia Ай бұрын
@@williamdeli5550 Tidak ada, karena itu yang di rekaman adalah untuk mengajar orang awam. Jadi lebih fokus ke practical. Di sisi lain, manual nya akan berbeda-beda tiap tipe model yang digunakan. Jadi tips nya bisa langsung ngintip saja code nya dari yang sudah buat dan bisa dipelajari di sana, tapi kalau mau hitung-hitung mandiri juga akan sama saja. Bebas, kembali ke kebutuhan mas William. Biasanya kita pakai dari framework yang sudah tersedia karena pada akhirnya kan kita load weight nya dari framework tersebut. Kalau kita otak-atik mandiri, khawatirnya nanti ga compatible sama pretrained yang sudah tersedia, dan konsekuensinya ya kita mesti buat pretrained model sendiri sebelum bisa melakukan transfer learning pakai pretrained model terkait.
@DEVANRADITYAPRATAMA003
@DEVANRADITYAPRATAMA003 Ай бұрын
Belajar lagi dari nol semangat😊
@windiazmy6856
@windiazmy6856 Ай бұрын
kak wira itu data scientist atau machine learning enginneer ?
@JCOpUntukIndonesia
@JCOpUntukIndonesia Ай бұрын
ML Engineer
@windiazmy6856
@windiazmy6856 Ай бұрын
Kak aku mau buat virtual try on untuk tugas kelompok bootcamp tim. Aku udh liat2 di internet itu kayanya pake tensorfliw ya kak? Fyi, Background aku frontend dan aku sama sekali ga ada pengetahuan dasar tentang ai dan machine learning kak. Kira2 aku perlu belajar dari playlist atau video yg mana kak biar aku bisa bikin fitur virtual try on ?
@JCOpUntukIndonesia
@JCOpUntukIndonesia Ай бұрын
kalau FE ya bertugas di sisi FE nya Mesti belajar bagaimana connect ke camera atau upload media untuk dapat foto dari user. Kemudian bagaimana mengirimkan media ke BE karena model try-on nya ada di sisi BE. lalu bagaimana menampilkan respon nya kembali di layar. Course saya tidak mengajarkan tentang FE, jadi tidak ada videonya tentang itu
@windiazmy6856
@windiazmy6856 Ай бұрын
​@@JCOpUntukIndonesia kak, maksudku itu aku punya pengalaman di FE tapi ga punya pengalaman di ML. jadi aku mau nanya apa yang perlu dipelajari terkait pemrosesan gambar di sisi Back-End untuk virtual try-on? Apakah harus menguasai deep learning, computer vision, atau teknik-teknik tertentu ?
@JCOpUntukIndonesia
@JCOpUntukIndonesia Ай бұрын
@@windiazmy6856 Oh maaf, saya pikir itu karena tugas kelompok, maka ada pembagian role gitu dan Windi jadi FE di tim nya. Tergantung sejauh mana Virtual Try-On nya mau di develop sih, dari yang cuman "tempel pakaian", ganti-ganti warna, atau sampai yang benar-benar lumayan realistis aksesori / pakaian nya dipakai. Approach nya juga banyak dan berbeda-beda, tapi yang pasti butuh pemahaman terkait Computer Vision dan Deep Learning. Secara umum, Computer Vision nya perlu pose estimation, dan segmentation. Deep Learning nya tentu semua yang berkaitan dengan vision. Kalau belum ada pengalaman di itu semua sih, terlalu sulit ya untuk di develop, maka yang Windi bisa lakukan palingan pakai model yang sudah jadi, dan itu ya tinggal cari-cari saja yang ada share di github. atau misal pakai produk-produk GenAI yang tinggal hit API, itu juga bisa di zaman sekarang.
@growlowl-xj3gt
@growlowl-xj3gt 2 ай бұрын
Dapet kesimpulan p sama q nya 1 gimana bang?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 2 ай бұрын
ya silahkan coba ARMA(1, 1)
@girifirmansyah.2761
@girifirmansyah.2761 2 ай бұрын
mau nanya, kalo kita mau eksekusi fungsi yang kita buat sendiri apakah bisa dimasukkan pipeline? bagaimana aranya bang?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 2 ай бұрын
Bisa dari 2 sisi, dari pipeline data atau dari pipeline prediksi seperti di video ini Kalau pipeline data, artinya ketika data ditarik / diexport dari database, itu sudah kita proses atau transformasi dulu. Kalau dari pipeline prediksi, bisa pakai FunctionTransformer scikit-learn.org/stable/modules/generated/sklearn.preprocessing.FunctionTransformer.html Jadi kita sediakan pipa dengan fungsi custom yang kita inginkan
@girifirmansyah.2761
@girifirmansyah.2761 2 ай бұрын
@@JCOpUntukIndonesia terima kasih pak, saya paham! tapi apakah jika data label kita bukan numeric apakah bisa kita olah di dalam pipeline juga? (dikasus ini labelnya dalam variable yang berbeda)
@JCOpUntukIndonesia
@JCOpUntukIndonesia 2 ай бұрын
@@girifirmansyah.2761 contohnya mau diolah seperti apa labelnya? Terlepas dari itu, bisa saja sih, ini fungsi custom nya tidak terikat sama data numerik. Cuman kalau itu label ya aneh ya, soalnya saat mau predict nanti kan sebenarnya kita ga ada label tuh. Justru model bertugas melakukan prediksi kan hahaha.
@girifirmansyah.2761
@girifirmansyah.2761 2 ай бұрын
@@JCOpUntukIndonesia ohh paham pak, iya juga ya kan inputan modelnya emang harus data X / feature nya doang hehe, Makasih
@laplacemovie9046
@laplacemovie9046 2 ай бұрын
Kak Wira, kok yg aku label dan pred nya sama terus yaa
@JCOpUntukIndonesia
@JCOpUntukIndonesia 2 ай бұрын
karena ga di shuffle mungkin? Coba cek di dataloader nya `shuffle=True` atau `shuffle=False`
@laplacemovie9046
@laplacemovie9046 2 ай бұрын
@@JCOpUntukIndonesia True ka, train_set = MultilabelDataset("data/train_label.csv", "data/train/", transform=train_transform) trainloader = DataLoader(train_set, batch_size=bs, shuffle=True, num_workers=4) test_set = MultilabelDataset("data/test_label.csv", "data/test/", transform=test_transform) testloader = DataLoader(test_set, batch_size=bs, shuffle=True)
@laplacemovie9046
@laplacemovie9046 2 ай бұрын
@@JCOpUntukIndonesia di shuffle ka , train_set = MultilabelDataset("data/train_label.csv", "data/train/", transform=train_transform) trainloader = DataLoader(train_set, batch_size=bs, shuffle=True, num_workers=4) test_set = MultilabelDataset("data/test_label.csv", "data/test/", transform=test_transform) testloader = DataLoader(test_set, batch_size=bs, shuffle=True)
@roedianto1524
@roedianto1524 2 ай бұрын
snippets menu untuk jupyter lab/ 7 up ada kak?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 2 ай бұрын
Setau saya belum ada yang buat, soalnya komunitas nbextension sudah mati suri semenjak notebook 7.x breaking semuanya. Saya pribadi juga tidak pakai snippets menu lagi, dan di versi jcop yang baru saya pakai snippet engine sendiri buatan jcop. Cuman kalau ikutin course ini kan pakai versi lama ya, jadi ya code saja by hand sekalian supaya tangannya terbiasa "kotor", walau kebanyakan juga cuman tinggal copas saja dari notebook sebelumnya kan.
@buhmanwalton1021
@buhmanwalton1021 2 ай бұрын
Pak Wira di bagian Pipeline saya ada yg errror: pipeline.fit(X_train, y_train) --------------------------------------------------------------------------- ValueError Traceback (most recent call last) Input In [14], in <cell line: 1>() ----> 1 pipeline.fit(X_train, y_train) File ~\miniconda3\envs\jcopml\lib\site-packages\sklearn\pipeline.py:390, in Pipeline.fit(self, X, y, **fit_params) 364 """Fit the model. 365 366 Fit all the transformers one after the other and transform the (...) 387 Pipeline with fitted steps. 388 """ 389 fit_params_steps = self._check_fit_params(**fit_params) --> 390 Xt = self._fit(X, y, **fit_params_steps) 391 with _print_elapsed_time("Pipeline", self._log_message(len(self.steps) - 1)): 392 if self._final_estimator != "passthrough": File ~\miniconda3\envs\jcopml\lib\site-packages\sklearn\pipeline.py:348, in Pipeline._fit(self, X, y, **fit_params_steps) 346 cloned_transformer = clone(transformer) 347 # Fit or load from cache the current transformer --> 348 X, fitted_transformer = fit_transform_one_cached( 349 cloned_transformer, 350 X, 351 y, 352 None, 353 message_clsname="Pipeline", 354 message=self._log_message(step_idx), 355 **fit_params_steps[name], 356 ) 357 # Replace the transformer of the step with the fitted 358 # transformer. This is necessary when loading the transformer 359 # from the cache. 360 self.steps[step_idx] = (name, fitted_transformer) File ~\miniconda3\envs\jcopml\lib\site-packages\joblib\memory.py:312, in NotMemorizedFunc.__call__(self, *args, **kwargs) 311 def __call__(self, *args, **kwargs): --> 312 return self.func(*args, **kwargs) File ~\miniconda3\envs\jcopml\lib\site-packages\sklearn\pipeline.py:893, in _fit_transform_one(transformer, X, y, weight, message_clsname, message, **fit_params) 891 with _print_elapsed_time(message_clsname, message): 892 if hasattr(transformer, "fit_transform"): --> 893 res = transformer.fit_transform(X, y, **fit_params) 894 else: 895 res = transformer.fit(X, y, **fit_params).transform(X) File ~\miniconda3\envs\jcopml\lib\site-packages\sklearn\compose\_column_transformer.py:675, in ColumnTransformer.fit_transform(self, X, y) 672 self._validate_column_callables(X) 673 self._validate_remainder(X) --> 675 result = self._fit_transform(X, y, _fit_transform_one) 677 if not result: 678 self._update_fitted_transformers([]) File ~\miniconda3\envs\jcopml\lib\site-packages\sklearn\compose\_column_transformer.py:606, in ColumnTransformer._fit_transform(self, X, y, func, fitted, column_as_strings) 600 transformers = list( 601 self._iter( 602 fitted=fitted, replace_strings=True, column_as_strings=column_as_strings 603 ) 604 ) 605 try: --> 606 return Parallel(n_jobs=self.n_jobs)( 607 delayed(func)( 608 transformer=clone(trans) if not fitted else trans, 609 X=_safe_indexing(X, column, axis=1), 610 y=y, 611 weight=weight, 612 message_clsname="ColumnTransformer", 613 message=self._log_message(name, idx, len(transformers)), 614 ) 615 for idx, (name, trans, column, weight) in enumerate(transformers, 1) 616 ) 617 except ValueError as e: 618 if "Expected 2D array, got 1D array instead" in str(e): File ~\miniconda3\envs\jcopml\lib\site-packages\joblib\parallel.py:1918, in Parallel.__call__(self, iterable) 1916 output = self._get_sequential_output(iterable) 1917 next(output) -> 1918 return output if self.return_generator else list(output) 1920 # Let's create an ID that uniquely identifies the current call. If the 1921 # call is interrupted early and that the same instance is immediately 1922 # re-used, this id will be used to prevent workers that were 1923 # concurrently finalizing a task from the previous call to run the 1924 # callback. 1925 with self._lock: File ~\miniconda3\envs\jcopml\lib\site-packages\joblib\parallel.py:1847, in Parallel._get_sequential_output(self, iterable) 1845 self.n_dispatched_batches += 1 1846 self.n_dispatched_tasks += 1 -> 1847 res = func(*args, **kwargs) 1848 self.n_completed_tasks += 1 1849 self.print_progress() File ~\miniconda3\envs\jcopml\lib\site-packages\sklearn\utils\fixes.py:216, in _FuncWrapper.__call__(self, *args, **kwargs) 214 def __call__(self, *args, **kwargs): 215 with config_context(**self.config): --> 216 return self.function(*args, **kwargs) File ~\miniconda3\envs\jcopml\lib\site-packages\sklearn\pipeline.py:893, in _fit_transform_one(transformer, X, y, weight, message_clsname, message, **fit_params) 891 with _print_elapsed_time(message_clsname, message): 892 if hasattr(transformer, "fit_transform"): --> 893 res = transformer.fit_transform(X, y, **fit_params) 894 else: 895 res = transformer.fit(X, y, **fit_params).transform(X) File ~\miniconda3\envs\jcopml\lib\site-packages\sklearn\pipeline.py:434, in Pipeline.fit_transform(self, X, y, **fit_params) 432 fit_params_last_step = fit_params_steps[self.steps[-1][0]] 433 if hasattr(last_step, "fit_transform"): --> 434 return last_step.fit_transform(Xt, y, **fit_params_last_step) 435 else: 436 return last_step.fit(Xt, y, **fit_params_last_step).transform(Xt) File ~\miniconda3\envs\jcopml\lib\site-packages\sklearn\base.py:855, in TransformerMixin.fit_transform(self, X, y, **fit_params) 852 return self.fit(X, **fit_params).transform(X) 853 else: 854 # fit method of arity 2 (supervised transformation) --> 855 return self.fit(X, y, **fit_params).transform(X) File ~\miniconda3\envs\jcopml\lib\site-packages\sklearn\preprocessing\_data.py:416, in MinMaxScaler.fit(self, X, y) 414 # Reset internal state before fitting 415 self._reset() --> 416 return self.partial_fit(X, y) File ~\miniconda3\envs\jcopml\lib\site-packages\sklearn\preprocessing\_data.py:453, in MinMaxScaler.partial_fit(self, X, y) 447 raise TypeError( 448 "MinMaxScaler does not support sparse input. " 449 "Consider using MaxAbsScaler instead." 450 ) 452 first_pass = not hasattr(self, "n_samples_seen_") --> 453 X = self._validate_data( 454 X, 455 reset=first_pass, 456 estimator=self, 457 dtype=FLOAT_DTYPES, 458 force_all_finite="allow-nan", 459 ) 461 data_min = np.nanmin(X, axis=0) 462 data_max = np.nanmax(X, axis=0) File ~\miniconda3\envs\jcopml\lib\site-packages\sklearn\base.py:566, in BaseEstimator._validate_data(self, X, y, reset, validate_separately, **check_params) 564 raise ValueError("Validation should be done on X, y or both.") 565 elif not no_val_X and no_val_y: --> 566 X = check_array(X, **check_params) 567 out = X 568 elif no_val_X and not no_val_y: File ~\miniconda3\envs\jcopml\lib\site-packages\sklearn\utils\validation.py:746, in check_array(array, accept_sparse, accept_large_sparse, dtype, order, copy, force_all_finite, ensure_2d, allow_nd, ensure_min_samples, ensure_min_features, estimator) 744 array = array.astype(dtype, casting="unsafe", copy=False) 745 else: --> 746 array = np.asarray(array, order=order, dtype=dtype) 747 except ComplexWarning as complex_warning: 748 raise ValueError( 749 "Complex data not supported {} ".format(array) 750 ) from complex_warning ValueError: could not convert string to float: 'male'
@buhmanwalton1021
@buhmanwalton1021 2 ай бұрын
Bisa dibantu, pak?
@zenkacreator8741
@zenkacreator8741 2 ай бұрын
kaka nya buka kursus kah ?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 2 ай бұрын
Saya sudah tidak mengajar lagi di tempat lama. Sekarang saya hanya mengajar bila diundang atau dihubungi secara personal. Boleh coba ikuti instruksi di kzbin.infoabout
@fahrulafandi6049
@fahrulafandi6049 2 ай бұрын
Halo mr.wira kenapa di phyton saya kok grafiknya engga muncul ya padahal kode sudah bisa dijalankan
@JCOpUntukIndonesia
@JCOpUntukIndonesia 2 ай бұрын
pakai jupyter notebook, atau jupyter lab? atau di vscode mungkin? ada keterangan error atau cuman kosong tidak muncul begitu saja?
@fahrulafandi6049
@fahrulafandi6049 2 ай бұрын
@@JCOpUntukIndonesia udah kok mr.wira saya make jupyter notebook ternyata harus make browser chrome biar muncul grafiknya
@JCOpUntukIndonesia
@JCOpUntukIndonesia 2 ай бұрын
@@fahrulafandi6049 sip, baguslah kalau sudah solved. Ada kalanya browser perlu diupdate dulu, atau ada kalanya memang browser tertentu tidak bisa memunculkan grafik library tertentu. Jadi memang agak sulit mengatasinya kalau case seperti ini. hahaha.
@srikresna37
@srikresna37 2 ай бұрын
Kak wira kalau boleh bahas machine learning end to end dong, dikit banget yg jelasin gimana ml engineer bekerja. Kebanyakann bahas hal-hal basic huhuhu bingung cari yg jelasinn hal hall yg lebii lanjutt. Keluarkan aku dari ke mediocre an inii hahaha
@JCOpUntukIndonesia
@JCOpUntukIndonesia 2 ай бұрын
Yang di course dasar kan sudah end-to-end tuh, dari data, ke model, sampai jadi API. Walau itu saya ajarkan nya 5 tahun lalu, alur kerjanya sama dan tidak ada yang berubah kok. Paling beda sedikit di tools, misal dari yang pakai flask, ganti jadi pakai fastapi. Kalau ML engineering sedikit berbeda, itu lebih ke software engineering daripada ML nya. Jadi kalau mau belajar basic software engineering, bisa mulai dari kata kunci "software engineering with python", atau saran saya langsung terjun ke backend dulu dengan python. Saya paling banyak belajar software engineering saat ditugaskan jadi backend developer di perusahaan. Tidak bisa end-to-end bukan berarti mediocre, di perusahaan nanti kita akan bekerja sama dengan berbagai anggota tim. Tidak baik juga ketika kamu mengambil tanggung jawab orang lain untuk ke-egoisan diri sendiri agar "tidak mediocre". Berlaku sebaliknya juga, yang bisa end-to-end juga bukan berarti jago dan "tidak mediocre". Tools itu kan sudah banyak membantu, melakukan end-to-end itu bukan hal yang sulit gimana sampai kita disebut "tidak mediocre" Apalagi sekarang sudah tersedia API-API hingga backend dev tinggal gunakan tersebut sudah bisa jadi aplikasi, tanpa mesti paham end-to-end nya. Oleh sebab itu, bagi yang mendalami bidang ML, saran saya ya kuasai di data dan permodelannya, dan secukupnya bisa menyediakan API untuk itu. Sampai sana dulu dikuasai, nanti setelahnya mau belajar keilmuan nya backend ya kapan saja kan bisa. Itu tradeoff, mau horizontal atau vertikal, mau umum atau spesialis. Keduanya sama baiknya, dan keduanya "tidak mediocre".
@KinaSalimafa
@KinaSalimafa 3 ай бұрын
asataga enak banget cara jelasinnya ... ada coursnya ngga sih kak
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Bisa cek di playlist, dan ada baiknya belajar berurut dan tidak lompat lompat ya
@addyjuniaddy
@addyjuniaddy 3 ай бұрын
Keren Mas ... Alhamdulillah banyak belajar
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Terima kasih, baguslah kalau bermanfaat 🙏
@addyjuniaddy
@addyjuniaddy 3 ай бұрын
Kenapa di saya error ya, tidak tampil seperti Mas Wira contohkan, ketika : df.groupby("shelf").mean() ; Ada TypeError: agg function failed [how->mean,dtype->object]; Apakah yang sekarang mungkin sudah di update sehingga tidak sama lagi dengan 4 tahun lalu? Tapi bila df.groupby("shelf")[["calories","protein","fat"]].mean() muncul hasilnya; Sepertinya harus terpilih yang kolom nya numerik ya?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Kalau install sesuai instruksi dan pakai env yang saya berikan, mestinya tetap sama, karena versi yang digunakan sama. tapi tidak apa kalau mau pakai versi baru. Di versi yang baru, mesti secara explicit sebut hanya yang numerik. Karena rata-rata hanya bisa dihitung untuk sesuatu yang sifatnya numerik. Coba >> df.groupby("shelf").mean(numeric_only=True)
@addyjuniaddy
@addyjuniaddy 3 ай бұрын
@@JCOpUntukIndonesia Terima kasih Mas, alhamdulillah bisa. Iya Mas tadi nya memang mau mengikuti persis, tapi karena sebelum ketemu channel ini saya sudah install anaconda nya, jadi banyak penyesuaian. Alhamdulillah sampai hari ini sudah sampai S1E16, masih lancar. Walau ada muncul beberapa deprecated. Apakah ketika mengikuti playlist yang lain nanti akan bisa? Tapi senang saja sih nanti kalau mau ulang dari awal, sekalian menguatkan dan mengingat lagi syntax-syntax nya. Oh iya itu Mas Wira juga sudah mengeluarkan env 2024.
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Oh, justru pakai env itu kan supaya tidak perlu ada penyesuaian dan tidak konflik sana-sini. Paling saran saya cepat lambat mesti biasakan diri untuk belajar pakai env ya. Untuk belajar itu membantu, dan untuk karir nanti itu wajib. Jangan pakai env 2024, pakai env masing-masing course nya ya. Karena rekaman ini kan video lama, env masing-masing nya ada saya update.
@dhinokartikayusuf2376
@dhinokartikayusuf2376 3 ай бұрын
pak Wira, pada pengantar DP ini, tidak ada penjelasan fungsi pemakaian Bias pada feedforward ya? apa sy terlewat di video lain?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Mas Dhino sudah paham tentang regresi linear dan kombinasi linear?
@dhinokartikayusuf2376
@dhinokartikayusuf2376 3 ай бұрын
@@JCOpUntukIndonesia belum sepenuhnya .. ok di video ini ya: 3-1 | Linear & Polynomial Regression | Bias Variance Tradeoff | Regression Evaluation [RAW] 👌ok siap
@hhaciimys8417
@hhaciimys8417 3 ай бұрын
Permisi mas Wira, saya sudah coba sampai di step ini. Tapi data4pred saya hasilnya hanya garis merah lurus menyamping saja, tanpa mengikuti data. Oh iya data yang saya gunakan itu saham idxpropert. Barangkali ada solusinya, terima kasih
@hhaciimys8417
@hhaciimys8417 3 ай бұрын
oh iya dan saat training loss nya besar banget saya dapat best test lost nya 1583.9022. Barangkali ada solusinya mas WIra
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Kalau data4pred saja hasilnya garis merah lurus, itu artinya gagal training. Gagal training bisa dari modelnya yang terlalu kecil (underfit), atau ya memang itu data tidak bisa diprediksi (random walk). Melihat itu data IDXPROPERT, bisa jadi itu kasus kedua.
@thoriqtau
@thoriqtau 3 ай бұрын
mas saya lagi mencoba klasifikasi gambar menggunakan metode histogram of oriented gradients (HOG) + PCA + SVM mendapatkan akurasi 70% untuk mendapatkan akurasi lebih tinggi perlu ditambah metode apa lagi ya mas?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
PCA nya pastikan sudah whitening ya SVM nya pastikan sudah dituning Kalau tidak ada improvement lagi ya itu sudah mentok Bisa coba menggunakan model lain, atau coba analisa error untuk melihat apakah ada jenis data tertentu yang perlu ditambah.
@AgusMarno-j7o
@AgusMarno-j7o 3 ай бұрын
from jcopml.time_series import AutoETS df = pd.read_csv("data/daily_min_temp.csv", index_col="Date",parse_dates=["Date"]) df = df.resample("M").mean() series = df.Temp X_train, X_test = series[:-25], series[-25:] test_size = 0.2 model, cv_result= AutoETS(X_train,test_size,scoring="mse" ) --------------------------------------------------------------------------- TypeError Traceback (most recent call last) Input In [58], in <module> ----> 1 model, cv_result= AutoETS(X_train,test_size,scoring="mse" ) TypeError: cannot unpack non-iterable AutoETS object Untuk menampilkan cv_result pada model autoets bagaimana Mas Wir, tolong bantuannya ya hehe
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Itu pakai jcopml versi baru ya? Kalau versi baru >> model.cv_results Bisa juga dijadikan tabel >> import pandas as pd >> pd.DataFrame(model.cv_results)
@AgusMarno-j7o
@AgusMarno-j7o 3 ай бұрын
@@JCOpUntukIndonesia Oke Mas Wir, terimakasih
@dimskuy132
@dimskuy132 3 ай бұрын
Ini channel bagus bgt machine learningnya❤
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Thank you 🙏
@MasyitahAyuningSetyo
@MasyitahAyuningSetyo 3 ай бұрын
mas nb_conda_kernel untuk python 3.9+ ga compatible gimana ya? apa diturunin aja ke <3.9
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
bisa kok, saya pakai python 3.11 pun masih bisa pakai nb_conda_kernels Saran saya sih tidak perlu downgrade ya
@MasyitahAyuningSetyo
@MasyitahAyuningSetyo 3 ай бұрын
mas, untuk python 3.9+ nb_conda_kernel nya ga compatible gimana ya? apa di downgrade aja ke < 3.9?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
bisa kok, saya pakai python 3.11 pun masih bisa pakai nb_conda_kernels Saran saya sih tidak perlu downgrade ya
@waranaker8435
@waranaker8435 3 ай бұрын
Bahas fokus ke yg dlm aja bos biar lebih bisa mencari pi
@Lenggasandy2000
@Lenggasandy2000 3 ай бұрын
Pak wira mau nanya kalau untuk masukan foto jenis tanaman itu harus URL dari google atau bisa foto udah di download dan di masukan ke dalam coding CNN tolong di jwp pak wira🙏
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Bisa keduanya, baik itu dari url maupun image yang sudah di download. Tinggal di load sebagai PIL Image saja.
@repporeview
@repporeview 3 ай бұрын
bang Wir, apa bedanya kalau kita pakai nn.Flatten() di arsitekturnya dengan feature.view(-1,784)?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Flattening itu kan diratakan jadi ukuran (N, sisa) ya kalau kita pakai nn.Flatten(), itu otomatis dihitungin kan sisanya sedangkan kalau mau flatten mandiri, ya betul bisa pakai feature.view(-1, 784) tapi 784 nya itu kan kita mesti hitung-hitung sesuai arsitekturnya ya. Ada kalanya di kasus kaya gambar MNIST, masih mudah nentuin angka 784 nya, tapi di arsitektur yang lebih kompleks, ya agak repot hahaha. nn.Flatten() sendiri di balik layarnya pakai tensor.flatten(), yang dibalik layarnya mestinya juga pakai .view() kok hahaha
@hilariusjeremy5766
@hilariusjeremy5766 3 ай бұрын
Halo Kak Wira, izin tanya. Untuk multiclass classification di PyTorch (baik text ataupun image), apakah one-hot encoding itu jadi best practice? Di project sebelumnya (multiclass classification juga), saya ga sengaja pake ordinal encoding untuk labelnya, bukan one-hot encoding. Kira-kira apakah ini kesalahan yang signifikan ya Kak Wira? Terimakasih.
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Secara praktik, multiclass ga perlu di label, pisah saja per folder seperti yang dicontohkan di video ini. Nanti `ImageFolder` sudah otomatis urus label nya. Secara teori, baik itu multiclass maupun multilabel, arsitekturnya tetap ada n_output sebanyak jumlah class. Cuman beda di aktivasi nya. Kalau pakai Softmax, maka itu multiclass Kalau pakai Sigmoid, maka itu multilabel Secara tools, PyTorch sudah menyelaraskan apa yang dioutput oleh `ImageFolder` untuk dapat diterima oleh Loss untuk multiclass nya. Yaitu nanti dilabel sebagai ordinal, bukan one-hot. Ini saya beri simulasi detail nya ya. Jika batch nya per 3 data, dan mau prediksi 5 class. Maka pasti output dari model nya output = (N, C) = (3, 5) 3 baris output masing-masing 5 angka probability, dimana kalau proba nya dijumlahkan itu harus = 1 karena hasil dari softmax. Label yang diberikan oleh dataloader nya nanti ordinal sebanyak jumlah data target = (N) = (3) Misal: target = tensor([3, 0, 1]) Yang artinya data pertama labelnya class 3, data kedua labelnya class 0, dst. Format seperti ini yang dapat diterima oleh nn.NLLLoss() dan nn.CrossEntropyLoss() Jadi kalau ditanya apakah one-hot best practice? jawabannya ya kembali ke tools nya. Tools tersebut yang menentukan best practice di tools itu seperti apa. Walau secara teori mau itu dilabel ordinal maupun one-hot ya sama-sama tetap bisa dipakai untuk hitung loss nya.
@hilariusjeremy5766
@hilariusjeremy5766 3 ай бұрын
@@JCOpUntukIndonesia ooh jadi dua-duanya secara teori bisa ya Kak Wira. Sebenarnya konteks saya disini bikin custom dataset and dataloader, jadi mau cari jawaban yang paling general aja.
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
​@@hilariusjeremy5766 Oh I see kalau custom ya sudah sebebasnya si pembuat ya. Karena pada akhirnya yang ordinal bisa di convert jadi one-hot, yang one-hot bisa diconvert jadi ordinal. Misal ini saya ada label ordinal, 5 data 10 class >> import torch >> label = torch.empty(5, dtype=torch.long).random_(10) label Andai kata pas mau ngitung-ngitung manual butuh one-hot, tinggal convert begini >> from torch.nn.functional import one_hot >> oh_label = one_hot(label) Sebaliknya andai kata kita label pakai onehot, malah mau diconvert jadi ordinal, tinggal begini >> oh_label.argmax(dim=1) Jadi pemilihannya sangat bergantung yang coding custom nya. Hahaha Sedikit insight saja, - kalau labelnya ordinal, gampang ngitung akurasi / metric-metric klasifikasi, tapi repot ngitung loss. - kalau labelnya onehot, gampang ngitung loss, tapi repot ngitung metric. repot disini ga sampai gimana banget sih, cuman convert antara dari ordinal jadi onehot atau sebaliknya saja. Di kasus ini, loss kan sudah disediakan tuh sama PyTorch (NLLLoss(), CrossEntropyLoss()) karena mereka kan sudah standard ya. Jadi wajar PyTorch memilih label nya ordinal, supaya pengguna PyTorch pada nyaman. Karena lebih sering orang akan nge-custom metric daripada menciptakan loss function baru. Hahaha
@hilariusjeremy5766
@hilariusjeremy5766 3 ай бұрын
@@JCOpUntukIndonesia siapp thanks Kak Wiraa
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
@@hilariusjeremy5766 Sure, Terima kasih kembali
@semapooth8774
@semapooth8774 3 ай бұрын
izin bertanya kak wira, untuk bagian forecasting itu dia mempelajari pola dari feature quarter data aktual saja kak?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Lebih tepatnya ya mempelajari pola dari fitur yang kita berikan, mau itu ada quarter atau tidak, ya intinya dari input feature yang diberikan.
@semapooth8774
@semapooth8774 3 ай бұрын
keren mas wira, izin bertanya mini batch mempengaruhi apa? dan mau tanya lagi jika features nya ada 2 misal (temperature dan warna) apakah dalam memprediksi nanti features warna apakah dapat mempengaruhi hasil prediksi temperature? atau proses prediksi temperature hanya berdasarkan pola yang ada pada features temperature saja? begitupun sebaliknya . terimakasih
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
izin bertanya mini batch mempengaruhi apa? >> sebelumnya sudah paham terkait apa itu minibatch kan ya? (di course 5 - pengantar Deep Learning, sudah dibahas detail). Dari sana mestinya sudah paham kenapa kita pakai minibatch dan keuntungan dari menggunakan minibatch, terutama dalam konteks model Deep Learning. jika features nya ada 2 misal (temperature dan warna) apakah dalam memprediksi nanti features warna apakah dapat mempengaruhi hasil prediksi temperature? >> Tentu, karena prediksinya bergantung pada 2 input yang diberikan.
@rezkisyaputra7526
@rezkisyaputra7526 3 ай бұрын
terimakasih banyak mas materinya sangat bagus sekali
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Terima kasih kembali 💜
@semapooth8774
@semapooth8774 3 ай бұрын
berarti lstm ini kurang cocok untuk memprediksi data untuk masa depan di waktu yang panjang? lalu namanya mengapa long short term memory kak?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Kalau untuk prediksi jauh ke masa depan, bukan hanya LSTM, tapi semua model juga error nya akan menumpuk. Time series forecasting yang mengandalkan autoregresi itu bukan untuk forecast terlalu jauh ke masa depan. Utamakan continuous forecasting (forecast pendek yang berkelanjutan), daripada hanya single forecasting, tapi langsung jauh ke masa depan. Ibaratnya seperti prakiraan cuaca deh, kan palingan hanya diberikan prakiraan cuaca 1 - 2 hari kedepan, tapi setiap hari prakiraan nya diupdate. Bukan kasih 1 tahun kedepan dan sudah fix untuk 1 tahun kedepan. Itu ga bakal akurat kan? Long-Short term itu bukan artinya prediksi nya yang jangka panjang, tapi hidden memory (konteks) nya mencakup "konteks jangan pendek" dan "konteks jangka panjang". Ini detailnya sudah dijelaskan di episode-episode sebelumnya (di video cara kerja LSTM) kenapa namanya seperti itu.
@semapooth8774
@semapooth8774 3 ай бұрын
apakah ada tutorial contoh untuk membuat data features supaya make sense?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Mendalami domain knowledge bisa membantu untuk menentukan fitur-fitur yang relevan. Misal kalau melakukan prediksi terkait jumlah air di tanah, maka ada baiknya memiliki pengetahuan di bidang hidrologi agar dapat menggunakan informasi fitur-fitur yang relevan sesuai yang sudah ditemukan di domain bidangnya itu. Selain dari domain knowledge, bisa juga dari pengalaman-pengalaman dalam modeling, jadi bisa membangun intuisi dari sana. Itulah kenapa di course 2 dan course 3 saya sampai contohkan lebih dari 10 case study supaya perlahan bisa terbentuk intuisi-intuisi seperti itu. Walau ya kalau diminta modeling domain yang sangat spesifik, misal kita bukan dokter, tapi diminta modeling data medis. Ya kita belum tentu bisa langsung menentukan fitur nya secara mandiri dan butuh bantuan praktisi di domain tersebut. Tidak peduli seberapa berpengalaman nya kita, domain knowledge tetap sangat membantu menemukan fitur yang relevan itu.
@dhinokartikayusuf2376
@dhinokartikayusuf2376 3 ай бұрын
Tanya pak Wira.. kalau Kfold cross validation ini masuk kategori improvement melalui data atau melalui model.. ?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Bukan keduanya. K-fold cross validation itu skenario split dan evaluasi datanya. Misal: - saya split data dengan skenario train-test split Saya evaluasi pakai data test diperoleh score 95% - saya split data dengan k-fold, lalu evaluasi dengan cross validation, diperoleh score 90% Apakah artinya dengan k-fold lebih buruk daripada dengan train-test split biasa? Tidak seperti itu kan (ini sudah dijelaskan di episode-episode sebelum ini, silahkan tonton kembali untuk review) Itu 2 skenario berbeda, dengan 2 cara menilai yang berbeda. Tidak bisa semerta-merta dibandingkan dan disebut mana yang lebih baik atau buruk. Kita berbicara improvement (melalui data / model) dalam konteks menggunakan skenario split dan evaluasi data yang sama ya (apple-to-apple). Jadi pemilihan skenario split itu bukan proses dari improvement.
@dhinokartikayusuf2376
@dhinokartikayusuf2376 3 ай бұрын
@@JCOpUntukIndonesia Sy train object detection multi lable 9 class pakai yolov8m. Dibanding pembagian data train80 val20 dg kfold cv stratifikasi dg pembagian 5 fold train800 val200.. hasilnya mAp jauh lebih improve dari 58% ke 86% dari grafik loss train val nga overfit.. karena itu sebab sy tanya improvement ini masuk kategori mana? Thx pak Wir!👍🙏
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
​@@dhinokartikayusuf2376 Ya, kalau dari skenario split nya tetap kita tidak bisa sebut improvement ya. Kita tidak bisa membandingkan 2 skenario berbeda. Kalau dari penjelasan mas Dhino, itu kan beda jumlah data ya. - Yang pertama 100 data, split k-fold 80:20 - Yang kedua 1000 data, split k-fold 80:20 Maka itu tidak ada hubungan sama k-fold nya. Itu improvement dari sisi data (penambahan jumlah data)
@dhinokartikayusuf2376
@dhinokartikayusuf2376 3 ай бұрын
@@JCOpUntukIndonesia yg pertama dan kedua kfold .. dg jumlah yg sama 1000 80:20 maksudnya pembagian persentasi train val. dugaan sy karena yg pembagian 80:20 tidak terdistribusi secra imbang kelasnya mungkin ya, jadi yg dibagi 5 di kfold pakai stratifikasi lebih merata tiap kelas.. maka prediksinya jadi lebih baik..
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
@@dhinokartikayusuf2376 Kalau ternyata jumlah data sama, yang beda hanya yang 1 stratified satunya tidak. Maka itu juga bukan kita sebut improvement, tapi lebih ke yang tanpa stratifikasi itu penilaiannya keliru. Di sisi lain, score antara yang stratified sama tidak juga tidak bisa semerta-merta dibanding karena itu 2 skeanario penilaian berbeda. Anggaplah ini kita jadi seorang guru, ada murid A dan murid B - murid A kita kasih soal ujian nya stratified per mapel - murid B kita kasih soal ujian nya acak ketika murid A dapat nilai lebih tinggi dari murid B, tidak bisa kita simpulkan karena stratified itu maka nilainya lebih tinggi. Itu kan 2 ujian berbeda. Sebaliknya ketika murid B dapat nilai lebih tinggi, juga bukan berarti tanpa stratified itu lebih baik, karena lagi-lagi itu 2 ujian berbeda. Keduanya ga apple-to-apple dan tidak bisa dibandingkan langsung begitu saja. dan demikian, tidak ada pula istilah "improvement" disana, karena bukan artinya ketika nilai murid A tinggi, maka lebih baik dari murid B yang menjalani ujian yang berbeda.
@AgusMarno-j7o
@AgusMarno-j7o 3 ай бұрын
Mas Wir, apakah ada kelanjutan install snippet di JupyterLab? soalnya saya sekarang notebook versi 7 udah nggak support dan jika saya downgrade version jupyter notebook versi 5 ada bentrok dengan jupyter server, sehingga ada error pada kernelnya
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Kalau saya sekarang pakai Jupyter Lab. Kemudian jcopml pakai snippet engine sendiri yang bisa jalan di Jupyter Notebook, Jupyter Lab, Google Colab, bahkan Jupyter VS Code. Tapi ya itu pakai jcopml versi yang lebih baru ya. Tidak ada video dan tutorial nya.
@AgusMarno-j7o
@AgusMarno-j7o 3 ай бұрын
@@JCOpUntukIndonesia Adakah source code nya Mas Wir hehehe
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
@@AgusMarno-j7o di library jcop ya baru, misal jcopml >> from jcopml import snippets atau jcopdl >> from jcopdl import snippets Tutorial nya belum ada ya, jadi kalau misal tidak paham cara pakainya saran saya jangan dipakai dulu
@AgusMarno-j7o
@AgusMarno-j7o 3 ай бұрын
@@JCOpUntukIndonesia Baik Mas Wir terimakasih, nanti saya coba otak atik
@sellans.
@sellans. 3 ай бұрын
(base) C:\Users\HP>cd Documents\supervised_learning-master The system cannot find the path specified. Maaf mas mau tanya, kalo kayak gini gimana ya mas wira? Padahal folder terkait memang diletakkan di dokumen
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
sudah pakai autocomplete? (tekan tombol tab) Coba: >> cd Docume (tab) lalu enter, pastikan dia masuk ke folder C:\Users\HP\Documents Lalu lanjut >> cd supe (tab) Pastikan dia arahkan ke folder supervised learning baru tekan enter
@dosenswasta
@dosenswasta 4 ай бұрын
Apakah pendekatan bisa kita gunakan untuk melakukan costumisasi pada arsitektur model Yolo?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 3 ай бұрын
Transfer learning bukan untuk customisasi. Transfer learning fokus ke menggunakan pretrained model yang sudah ada, diadjust ke kebutuhan data kita. Ya, pretrained model YOLO bisa di transfer learning untuk mendeteksi objek yang berbeda dari yang dipelajari pretrained model nya
@AgusMarno-j7o
@AgusMarno-j7o 4 ай бұрын
Mas Wir, tutorialnya dong bagaimana cara inverse predict, dimana kita seharusnya memprediksi target, namun disini kita memprediksi fitur-fitur dari target tersebut dengan teknik natural based optimization, dalam case data tabular yang menggunakan machine learning
@JCOpUntukIndonesia
@JCOpUntukIndonesia 4 ай бұрын
(Tergantung konteks nya) Itu tidak bisa dilakukan karena 2 input feature berbeda bisa menghasilkan target yang sama. Misal input nama_menu dan jumlah_porsi 2 * nasi_goreng_telur = Rp 30.000 3 * nasi_goreng_biasa = Rp 30.000 Dengan input Rp 30.000, bagaimana kita bisa tau kalau feature nya 2 nasgor telur, atau 3 nasgor biasa? Kecuali harapannya memang seperti itu, maka bisa pakai swarm-intelligence (nature-inspired optimization) itu. Namanya Inverse problem.
@AgusMarno-j7o
@AgusMarno-j7o 4 ай бұрын
@@JCOpUntukIndonesia Sebenarnya saya mau membuat tugas akhir "Optimizing the Controlling Parameters of a Biomass Boiler" disitu terdapat fitur-fitur yang keseluruhan numerik Mas Wir, untuk metodologi dari Mas Wira kira-kira bagaimanakah?
@JCOpUntukIndonesia
@JCOpUntukIndonesia 4 ай бұрын
@@AgusMarno-j7o @AgusMarno-j7o oh. Kalau itu bukan inverse problem ya. Itu ya optimisasi nonlinear biasa. Mestinya sudah diajarkan di matkul perkuliahannya kan? Pilih saja metode optimisasi yang sudah dipelajari. Kemudian tentukan fungsi objektifnya, dan nanti tinggal di optimize sama optimizer yang dipilih.
@AgusMarno-j7o
@AgusMarno-j7o 4 ай бұрын
@@JCOpUntukIndonesia Makasih banyak Mas Wir
@JCOpUntukIndonesia
@JCOpUntukIndonesia 4 ай бұрын
@@AgusMarno-j7o sure. Goodluck