Рет қаралды 28
Si vous avez travaillé dans la tech au moment où le Big Data était en pleine hype, vous vous souvenez sûrement de cette période où tout le monde voulait "faire du Hadoop" ou monter des clusters Spark.
Aujourd’hui, les choses ont changé.
Comme le dit Stéphanie Bergamo, "On n'en parle plus beaucoup parce que tout le monde n’en a pas besoin. Mais ce n’est pas tombé en désuétude pour autant !".
Le Big Data reste un pilier essentiel pour les entreprises qui manipulent des volumes massifs de données transactionnelles. Cependant, ce type de technologie doit répondre à un besoin précis, sans quoi elle devient un poids inutile en termes de complexité et de coûts.
Stéphanie nous partage aujourd'hui son expérience de transition vers des architectures Big Data, ses apprentissages sur la volumétrie et le calcul distribué, et pourquoi elle préconise aujourd’hui une approche pragmatique pour les entreprises qui n’ont pas ces besoins spécifiques.
Elle nous partage également son parcours et raconte comment elle a relevé ces défis techniques tout en se confrontant à ses propres doutes. Elle avoue : "Les premiers mois, je me disais : ils vont bien se rendre compte que je suis pas légitime." Mais elle a persévéré, posé (d'innombrables) questions et appris sur le tas.
Dans nos échanges, on a également parlé de :
➡️ Ses techniques pour apprendre à coder en production avec peu d’expérience préalable ;
➡️ Les erreurs et succès qui ont marqué son passage au Big Data ;
➡️ Comment elle a construit un environnement d’apprentissage stimulant grâce à son équipe.
Si vous avez envie de progresser dans des environnements techniques exigeants, cet épisode est pour vous !
PS : Cet épisode vous a plu ? Laissez-lui une note, c'est important pour la visibilité du podcast ! 😉
Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.