Thanks for this video. The description from a book was confusing. This video cleared things up.
@MaheshHuddar Жыл бұрын
Welcome Do like share and subscribe
@32morerajnandini6511 ай бұрын
Very well explained 👌👌
@MaheshHuddar11 ай бұрын
Welcome Do like share and subscribe
@SumanKumari-cn3wo Жыл бұрын
Very nice explaination sir....thank you so much
@MaheshHuddar Жыл бұрын
Welcome Do like share and subscribe
@9turquoisemoon97 ай бұрын
Thank you for the great explanation!
@MaheshHuddar7 ай бұрын
Welcome Do like share and subscribe
@AyushVerma_0710 ай бұрын
sir thanku for your teaching
@MaheshHuddar10 ай бұрын
Welcome Do like share and subscribe
@muhammadfahadmuhammadfahad8427Ай бұрын
sir which book are you using for soft computing tutorials?
@chiragsingh8323 Жыл бұрын
Thankyou❤
@MaheshHuddar Жыл бұрын
Welcome Do like share and subscribe
@KARTHIKEYANR-b1n9 ай бұрын
super sir
@MaheshHuddar9 ай бұрын
Thank You Do like share and subscribe
@together1073 Жыл бұрын
Why the value of W=1? , the number of postive wieght is 2
@Phoenix-wr6rn Жыл бұрын
I'm also confused
@MohitPawar1709 Жыл бұрын
We asume that w1=w2=1 that's why we use W = 1 and if possible that w1=1 and w2= -1 then we can use p=1 but we can not go for these conditions that's why we consider p=0
@RahulPatel-st7hg Жыл бұрын
@@MohitPawar1709 what about w1=1 and w2= 2 then value of w will be?
@meekosam_napodcast Жыл бұрын
@@Phoenix-wr6rn l
@ls-preperation10 ай бұрын
in this case , i think some mistake in Lecture Video . The weight should be w1 = 1 and w2 = -1 so the threshold value is : theta = 1
@Aman-xo4yx3 ай бұрын
thanks!
@kandoHunter69 Жыл бұрын
How can Mc Pitts neuron have weights??
@WellPlayedGamingYT Жыл бұрын
Every Nerual Network has a weights which are connected to each other