متالق ديما جزاك الله خيرا ربنا يكتر من امثالك ي باشمهندس ياريت بس لو يبقي في تطبيقات عمليه بروجكت كبير نعرف ازاي بنبي neural ونستخدم ال tenserflow يبقي اللهم بارك ❤❤❤
@mariama8157 Жыл бұрын
ربنا يبارك في علمك يا بشمهندس.
@khuloodnasher16065 жыл бұрын
شرح رايع فهمت الفكره اكثر هنا لاني لم افهمها جيدا في محاضرة اندرو في الماشين ليرنينج
@zaidsaleh4 Жыл бұрын
جزاك الله خيرا
@محمدغنام-ذ6خ5 жыл бұрын
السلام عليكم ورحمة الله وبركاته عمل رائع وانا من متابعيك اتمني تشرح لنا activation function وتغطي الانواع هذه وتوضح الفرق بينها واستخدامات كل واحده العملية Sigmoid hard_sigmoid TanH / Hyperbolic Tangent selu ReLU (Rectified Linear Unit) Swish softplus softsign exponential linear PReLU LeakyReLU ELU ThresholdedReLU LogSigmoid
@محمدغنام-ذ6خ5 жыл бұрын
اتمني تشرح لنا افضل الطرق لضبط الهايبر برامتر بشكل الي Hyperparameter optimization Random Search for Hyper-Parameter Optimization GridSearch for Hyper-Parameter Optimization هل في انواع اخري غير Random Search , GridSearch كما تعلم ان Hyperparameter من اهم الاشياء التي تؤثر في كفائة المودل اتمني تغطية هذا الموضوع انا من عشاق هذا العلم وبحثت كثير عن شرح واضح لانواع دوال التفعيل ومتي استخدم كل واحده عمليا ونفس الشئ عن الهايبر بارمتر كيف اضبطها تلقائيا بحيث توفر كثير في زمن التعلم وتعطيني افضل النتائج activation function Hyperparameter optimization وشكرا لك علي شرحك الرائع