4. Implement AND function using McCulloch-Pitts neuron | Soft Computing Neural Network Mahesh Huddar

  Рет қаралды 150,686

Mahesh Huddar

Mahesh Huddar

Күн бұрын

Пікірлер: 35
@brianleiby6723
@brianleiby6723 Жыл бұрын
Thanks for this video. The description from a book was confusing. This video cleared things up.
@MaheshHuddar
@MaheshHuddar Жыл бұрын
Welcome Do like share and subscribe
@32morerajnandini65
@32morerajnandini65 11 ай бұрын
Very well explained 👌👌
@MaheshHuddar
@MaheshHuddar 11 ай бұрын
Welcome Do like share and subscribe
@SumanKumari-cn3wo
@SumanKumari-cn3wo Жыл бұрын
Very nice explaination sir....thank you so much
@MaheshHuddar
@MaheshHuddar Жыл бұрын
Welcome Do like share and subscribe
@9turquoisemoon9
@9turquoisemoon9 7 ай бұрын
Thank you for the great explanation!
@MaheshHuddar
@MaheshHuddar 7 ай бұрын
Welcome Do like share and subscribe
@AyushVerma_07
@AyushVerma_07 10 ай бұрын
sir thanku for your teaching
@MaheshHuddar
@MaheshHuddar 10 ай бұрын
Welcome Do like share and subscribe
@muhammadfahadmuhammadfahad8427
@muhammadfahadmuhammadfahad8427 Ай бұрын
sir which book are you using for soft computing tutorials?
@chiragsingh8323
@chiragsingh8323 Жыл бұрын
Thankyou❤
@MaheshHuddar
@MaheshHuddar Жыл бұрын
Welcome Do like share and subscribe
@KARTHIKEYANR-b1n
@KARTHIKEYANR-b1n 9 ай бұрын
super sir
@MaheshHuddar
@MaheshHuddar 9 ай бұрын
Thank You Do like share and subscribe
@together1073
@together1073 Жыл бұрын
Why the value of W=1? , the number of postive wieght is 2
@Phoenix-wr6rn
@Phoenix-wr6rn Жыл бұрын
I'm also confused
@MohitPawar1709
@MohitPawar1709 Жыл бұрын
We asume that w1=w2=1 that's why we use W = 1 and if possible that w1=1 and w2= -1 then we can use p=1 but we can not go for these conditions that's why we consider p=0
@RahulPatel-st7hg
@RahulPatel-st7hg Жыл бұрын
@@MohitPawar1709 what about w1=1 and w2= 2 then value of w will be?
@meekosam_napodcast
@meekosam_napodcast Жыл бұрын
​@@Phoenix-wr6rn l
@ls-preperation
@ls-preperation 10 ай бұрын
in this case , i think some mistake in Lecture Video . The weight should be w1 = 1 and w2 = -1 so the threshold value is : theta = 1
@Aman-xo4yx
@Aman-xo4yx 3 ай бұрын
thanks!
@kandoHunter69
@kandoHunter69 Жыл бұрын
How can Mc Pitts neuron have weights??
@WellPlayedGamingYT
@WellPlayedGamingYT Жыл бұрын
Every Nerual Network has a weights which are connected to each other
@25-salsabilasakinah3
@25-salsabilasakinah3 Жыл бұрын
thank you
@MaheshHuddar
@MaheshHuddar Жыл бұрын
You're welcome Do like share and subscribe
@Hazxcqeebsnsnsn6478
@Hazxcqeebsnsnsn6478 Жыл бұрын
Good
@MaheshHuddar
@MaheshHuddar Жыл бұрын
Thank You Do like share and subscribe
@syedsabihhussaini3910
@syedsabihhussaini3910 Жыл бұрын
why truth table is upside down
@rajbhushan3541
@rajbhushan3541 Жыл бұрын
does it really matter?
@ashutoshvaishnav5462
@ashutoshvaishnav5462 2 жыл бұрын
Thanks.
@MaheshHuddar
@MaheshHuddar 2 жыл бұрын
Welcome Do like share and subscribe
@komalprasadsahu6617
@komalprasadsahu6617 Жыл бұрын
kya bhai ashuthosh yha mil gya lagta hai
How Strong Is Tape?
00:24
Stokes Twins
Рет қаралды 48 МЛН
人是不能做到吗?#火影忍者 #家人  #佐助
00:20
火影忍者一家
Рет қаралды 19 МЛН
Why Neural Networks can learn (almost) anything
10:30
Emergent Garden
Рет қаралды 1,2 МЛН
Large Language Models explained briefly
8:48
3Blue1Brown
Рет қаралды 859 М.
Stockfish Just Solved Chess
27:40
GothamChess
Рет қаралды 336 М.
MIT Introduction to Deep Learning | 6.S191
1:09:58
Alexander Amini
Рет қаралды 778 М.
Transformers (how LLMs work) explained visually | DL5
27:14
3Blue1Brown
Рет қаралды 4 МЛН