Bonjour ! Déjà merci beaucoup pour tous ces cours sur l'utilisation de tensorflow et des réseaux de neuronnes ! C'est super pour apprendre facilement et rapidement ! Il y a quelque chose que je trouve bizarre car dans la dernière vidéo mon model n'améliorait pas son accuracy même au bout de 10 epoch. L'accuracy restait aux alentours de 0.1 donc 1 chance sur 10 . Alors que avec la normalisation il a réussi comme dans la vidéo ! Donc pour ma part la normalisation a fait toute la différence x) Mais je ne comprends pas pourquoi dans la vidéo, le réseau s'était bien amélioré même sans la normalisation, J'ai bien vérifié et j'avais marqué exactement la même chose, juste je n'utilise pas Jupyter mais un éditeur de texte standard pour python
@TheAlexislaurent5 жыл бұрын
Mille mercis pour ce nouveau tutoriel
@melvinpopotte21514 жыл бұрын
Super tuto
@soufiane45275 жыл бұрын
Bonjour, Pourquoi dans le cours précédant nous n'avions pas utilisé images.reshape quelle est la méthodologie la plus efficace ? Flatten ou reshape ?
@florian63855 жыл бұрын
Avant la normalisation j'ai une première accuracy de 0.1026 qui descends jusqu'à 0.1000, c'est étrange non ? Et maintenant avec la normalisation j'ai 0.9141 à la fin, donc c'est super efficace. C'est assez ouf la différence comparait à tes vidéos, comment ça s'explique ?
@jeanbonbeurre16215 жыл бұрын
Salut, pareil, sans normalisation le model ne renvoie rien de bon contrairement à Thibault dans la video #5
@zrmsraggot5 жыл бұрын
@@jeanbonbeurre1621 Salut, pareil, apparemment en lisant les messages dans la section commentaires de la vidéo précédente on est plusieurs à avoir ce problème. As tu trouvé pourquoi depuis ?
@alexmangwa11043 жыл бұрын
à 10% d'accuracy, le résultat est aléatoire (1 chance sur 10 possibilités). Je pense que le dataset qui avait été employé était particulier (réponse un peu tardive mais bon)
@curtisnewton8952 жыл бұрын
pareil pour moi
@maxime10074 жыл бұрын
Bonjour, J'ai une question sur le fit_transform. Pour simplifier, je vais considérer qu'on utilise l'algo transfor() qui ramène toutes les données entre 0 et 1. 1 correspondant à la valeur maximale de notre dataset. Si je veux prédire la valeur d'une nouvelle image, mais que cette dernière à une distribution entre 0 et 210 par exemple, l'algo de transformation va alors considérer que 210 corresponds à 1 et faire la transformation des autres pixels de l'image à prédire. Or si dans mon dataset d'entrainement, la valeur maximale est 255, qui va correspondre à 1, les valeurs normalisées ne seront plus cohérentes entre le dataset de préparation et l'image qu'on va vouloir prédire ? Y-a-t-il une solution à ce problème ? (si ce n'est pas un faux problème) Merci :)
@maximumentropyofficial95 жыл бұрын
merci j'utilisais keras un peu à la bourrin avant tes tutos :)
@zrmsraggot5 жыл бұрын
Une question, dans un modèle dans lequel les données ne seraient pas normalisées, j'ai l'impression que dès les premières itérations et en voyant que l'erreur est grande, on verrait un énorme changement dans les poids jusqu'à se rapprocher finalement rapidement d'un modèle normalisé et finir de converger de la même manière ... Je serais curieux de pouvoir voir en combien d'itérations le modèle non normalisé parvient à atteindre le niveau d'erreur de celui qui l'est, avant convergence finale.
@curtisnewton8952 жыл бұрын
chez moi ça converge pas sans utiliser le StandardScaler (meme avec le flatten)
@yacinebelhadj97495 жыл бұрын
hey, Superb video Mais on utilisant reshape j ai un bug qui apparait TypeError: Invalid shape (784,) for image data
@brocassylvain26524 жыл бұрын
tu as bien reshape avec une dimension 1? on ne dirais pas. Je ne suis pas familier avec Tf mais avec sklearn ça pose le même problème en cas de mauvais reshape