Quelle fonction d’activation utiliser ? - Se former à Tensorflow 2.0 #9

  Рет қаралды 18,262

Thibault Neveu

Thibault Neveu

Күн бұрын

Patreon : / membership
Quelle fonction d'activation choisir entre tanh, sigmoid ou encore relu ? Nous découvrons dans ce nouvel épisode les différentes fonction d'activation à utiliser. Cette vidéo fait partie de la série sur Tensorflow 2.0.
#Tensorflow #Tensorflow2.0 #MachineLearning
Vivadata : vivadata.org/
ActuIA : www.actuia.com/
Le dépôt github de la série :
github.com/thi...
Installer Tensorflow 2.0 :
pip install tensorflow==2.0.0-alpha0
www.tensorflow...
Installer Jupyter Notebook :
jupyter.org/
Tuto pour installer Jupyter avec Anaconda :
www.actuia.com...
Discord de la communauté :
/ discord
[Chronique d'une IA]
Spotify : open.spotify.c...
Amazon music : music.amazon.f...
Apple Podcasts: podcasts.apple...
[About me]
Visual Behavior : visualbehavior.ai
Perso : www.thibaultne...
Github : github.com/thi...
Linkedin : / thibaultneveu
Twitter : / thiboneveu

Пікірлер: 24
@Ayobox
@Ayobox 2 жыл бұрын
Franchement bravo tu es meilleur que certain professeur d'université, clair et concis !
@jesuisinconnu6899
@jesuisinconnu6899 5 жыл бұрын
Merci mec, chaque vidéo avec toi est un plaisir, sache que si un jour tu lances une formation détaillée pour apprendre plus en profondeur l'IA je serais prêt à l'acheter
@ThibaultNeveu
@ThibaultNeveu 5 жыл бұрын
Ca dépend quelle type de transfert learning tu souhaites faire ?
@aquilasfoundohou2448
@aquilasfoundohou2448 3 жыл бұрын
@@ThibaultNeveu Bonsoir, j'ai besoin des cours en Deep learning pour travailler sur la reconnaissance des espèces sur une Ortho Mosaic. Si je peux avoir ton contact pour t'écrire inbox, ça me fera plaisir. Merci
@lamialabed2866
@lamialabed2866 3 жыл бұрын
Bravo Thibault ! très belle vulgarisation , j'apprécie énormément
@renemiche735
@renemiche735 4 жыл бұрын
super, très belle explication. merci de prendre le temps de faire comprendre plutot que de juste apprendre par coeur.
@thomasp3428
@thomasp3428 5 жыл бұрын
T'es un tueur Thibault, tout n'est pas encore clair, mais le gain de temps est énorme.
@crimsay1350
@crimsay1350 5 жыл бұрын
Bonjour, J'ai découvert ta chaine il y a quelques semaines et c'est vraiment très instructif! J'aime beaucoup ta façon d'expliquer et personnellement je trouve ça super clair! Merci pour tout le travail que tu fournis et courage pour la suite :)
@benjamindeporte3806
@benjamindeporte3806 4 жыл бұрын
Toujours excellent. Bravo et merci.
@pascalgandin2699
@pascalgandin2699 Ай бұрын
Bonne présentation, claire, concise...Bref continue !!! Abonné +=1 !
@Maaouiamehdi
@Maaouiamehdi 3 жыл бұрын
Excellent contenu !
@first5208
@first5208 5 жыл бұрын
nickel , je dirais même que cela deviendra une référence pour comprendre en français ce que sont ces différentes fonctions d'activation
@Asma-vl6cb
@Asma-vl6cb 4 жыл бұрын
MERCI
@rachidhassani94
@rachidhassani94 4 жыл бұрын
Merci
@ulrichglitho5524
@ulrichglitho5524 2 жыл бұрын
Merci beaucoup pour votre vidéo, je connaissais jusque là la fonction sigmoïde, vous avez élargi mes horizons en matière de fonction d'activation. J'ai cependant une question : je voudrais savoir si au niveau des hidden layers, est-ce qu'il serait possible de ne pas avoir la même fonction d'activation ? Je prends un exemple : si j'ai trois couches cachées, serait il possible d'avoir à la première couche une fonction sigmoïde, à la deuxième couche une fonction tanh et à la dernière couche une fonction relu????
2 жыл бұрын
Ulrich, oui, tu peux utiliser différentes fonctions d'activation. Simplement, le simulateur utilisé ici ne le permet pas.
@jmbdeblois
@jmbdeblois 4 жыл бұрын
beau travail pour expliquer ces fonctions d'activation. Attention au vocabulaire cependant. On ne dit pas "tane ache" pour tanh mais "tangente hyperbolique". C'est son nom. De même les anglicisme du type "il faut scaler" au lieu de "il faut mettre à l'échelle" ça serait quand même bien de les éviter !
@jmbdeblois
@jmbdeblois 4 жыл бұрын
Harsimrat Singh yes !
@seb7863
@seb7863 5 жыл бұрын
Bonjour, Est-ce qu'il existe une fonction tout ou rien ( x0 alors y=1) ? Excellent en attendant, malgré que je tente de m’accrocher :)
@ThibaultNeveu
@ThibaultNeveu 5 жыл бұрын
Je ne crois pas mais à vérifier. Mais tu peux aussi en créer des custom :)
@CopainVG
@CopainVG 5 жыл бұрын
Bonjour, La fonction que tu décris est le coût de classification 0-1. Une bonne raison de ne PAS utiliser cette fonction d'activation est que lorsque tu calcule le gradient de ta fonction de coût, celui-ci vaut toujours 0, donc tu n'obtiens aucune direction vers laquelle te diriger pour faire l'optimisation. (cette fonction d'activation a néanmoins un intérêt théorique très important, cf le principe de minimisation de risque empirique de Vapnik, une fois tweaké ça te donne les SVM par exemple)
@nivektardpo5559
@nivektardpo5559 4 жыл бұрын
La fonction step
@oumardiagana6741
@oumardiagana6741 8 ай бұрын
Salut
Utiliser et sauvegarder un modèle - Se former à Tensorflow 2.0 #10
6:32
У ГОРДЕЯ ПОЖАР в ОФИСЕ!
01:01
Дима Гордей
Рет қаралды 8 МЛН
Les réseaux de neurones - Se former à Tensorflow 2.0 #4
10:54
Thibault Neveu
Рет қаралды 20 М.
La fonction d’erreur - Se former à Tensorflow 2.0 #7
14:32
Thibault Neveu
Рет қаралды 13 М.
Entraîner un modèle -  Se former à Tensorflow 2.0 #12
21:12
Thibault Neveu
Рет қаралды 11 М.
[Deepmath] 1.4. Fonctions d'activation
11:57
deepmath
Рет қаралды 4,7 М.
Qu'est ce qu'un Réseau de Neurones ?
10:12
Développeur Libre
Рет қаралды 20 М.
Normalisation des données - Se former à Tensorflow 2.0 #6
11:38
Thibault Neveu
Рет қаралды 18 М.
La fonction sigmoïde et son étonnante dérivée !
5:16
Maths moi ça !
Рет қаралды 7 М.
Les lots séquentiels - Se former à Tensorflow 2.0 #19
29:07
Thibault Neveu
Рет қаралды 5 М.