Absolutely amazing, the way content is delivered!!
@BigDataThoughtsАй бұрын
thanks
@darnasibujji Жыл бұрын
Earlier I watched some videos regarding this topic ,no one can explained in this way ,I am glad to see this video,now clearly understood spark optimization techniques
@BigDataThoughts Жыл бұрын
Thanks
@durairaj42964 ай бұрын
I am searching this kind of topics from the web in long time.. Thank you very much.. And i appreciate your stuff..
@BigDataThoughts4 ай бұрын
@@durairaj4296 thanks
@sunnyd98788 ай бұрын
This is excellent and valuable knowledge sharing... Easily one can make out these trainings are coming out of personal deep hands-on experience and not the mere theory ..Great work
@BigDataThoughts8 ай бұрын
thanks
@sahilmittal74262 жыл бұрын
Very Good vedio, awesome work. To the point and one can understand easily
@BigDataThoughts2 жыл бұрын
Thanks sahil
@funnysatisfying4262 жыл бұрын
Very informative 👏👍 Keep such videos coming
@husnabanu437010 ай бұрын
what a wonderfull explanation to the point... thank you
@BigDataThoughts10 ай бұрын
Thanks
@gunasekaranr80293 жыл бұрын
Neat and clean explanation. Looking forward to the videos on Spark Optimization.
@BigDataThoughts3 жыл бұрын
Thanks Gunasekaran
@ChethanKarur2 жыл бұрын
This is excellent maam. Looking forward to watching more videos from you
@BigDataThoughts2 жыл бұрын
Thanks Chethan
@harshmohan84192 жыл бұрын
best video on internet for spark performace...
@BigDataThoughts2 жыл бұрын
Thanks harsh
@namratashinde91572 жыл бұрын
It's very very easy to understand whatever you explained, thank you so much
@BigDataThoughts2 жыл бұрын
Thanks namrata
@samk_jg2 жыл бұрын
All yours tutorials are too good!
@vibhad-cv4sf Жыл бұрын
Very well explained. Loving your videos!❤
@BigDataThoughts Жыл бұрын
Thanks
@rajnimehta51563 жыл бұрын
Great expectations Mam ... eagerly waiting for your upcoming video
@BigDataThoughts3 жыл бұрын
Thanks Rajni
@hemanthkumar9757 Жыл бұрын
Very good explanation keep create more videos in spark
@BigDataThoughts Жыл бұрын
Thanks
@SagarSingh-ie8tx2 жыл бұрын
One of the best explanation on KZbin 😊
@kiranmudradi263 жыл бұрын
Another much needed video on Spark optimizations. point to point. Thank you very much for the video.
@BigDataThoughts3 жыл бұрын
Thanks Kiran
@gancan1654 Жыл бұрын
perfectly went into my brain, what a clean explanation. can you please do videos on Pyspark from scratch.
@theanatomyofreliability21683 жыл бұрын
Thanks for sharing. Very informative .
@BigDataThoughts3 жыл бұрын
Thanks karan
@ramkumarananthapalli71513 жыл бұрын
Thanks a lot mam for making these videos. These are extremely useful. One of the best videos I have come across.
@BigDataThoughts3 жыл бұрын
Thanks Ram
@quadribrothers43962 жыл бұрын
Many thanks for making such informative video
@thedarkknight5793 жыл бұрын
I only have one word for this video "Awesome!!"
@BigDataThoughts3 жыл бұрын
Thanks
@terrificmenace2 жыл бұрын
Nice video it was really good 👍🏻 Thank you
@BigDataThoughts2 жыл бұрын
Thanks
@karthikvenkataram4790 Жыл бұрын
Ultimate 👏👏👏
@BigDataThoughts Жыл бұрын
Thanks
@arjunkharat1213 жыл бұрын
Thanks for video ma'am., you made it very simple to understand.. waiting for more video's on this topic and spark
@BigDataThoughts3 жыл бұрын
Thanks Arjun
@BigDataThoughts3 жыл бұрын
kzbin.info/www/bejne/qZ-zip1pidaAZ8k you can chk this too. There are others videos on spark that i have posted
@satviknaren9681 Жыл бұрын
REALLY helped me get better at my work
@BigDataThoughts Жыл бұрын
Thanks
@Technology_of_world5 Жыл бұрын
Good explanation 😊
@BigDataThoughts Жыл бұрын
Thanks
@sathisha1702 Жыл бұрын
If count is not adviced, how can we count the number of rows in data frame?
@chessforevery1 Жыл бұрын
where do I get practical session on this optimization technique of spark..?
@ayushgour39843 жыл бұрын
Amazing Job Shreya... Keep it Up..
@BigDataThoughts3 жыл бұрын
Thanks Ayush
@abhisekhmishra40293 жыл бұрын
So nicely explained Shreya..
@BigDataThoughts3 жыл бұрын
Thanks Abhishek
@puneetnaik87193 жыл бұрын
Great explaination !!
@BigDataThoughts3 жыл бұрын
Thanks Puneet
@anirbanrc13 жыл бұрын
Great explanation
@BigDataThoughts3 жыл бұрын
Thanks
@Sharath_NK98 Жыл бұрын
Tnks Amigo It's very helpful
@BigDataThoughts Жыл бұрын
thanks
@SpiritOfIndiaaa2 жыл бұрын
thanks a lot , i have case where someother modules write parquet file , i need to process in my module by reading it, so how should i apply bucketing on that day ...can it be possible without writing ???
@sandeepchoudhary49003 жыл бұрын
Awesome explanation of the optimisation techniques. If possible please create a video to cover the realtime challenges which you faced in your project and the solution you provided. That will be really helpful.
@foodietraveller45913 жыл бұрын
Nice video mam
@DASHTeknik Жыл бұрын
Excellent.
@tanushreenagar31162 жыл бұрын
so nice it helped a lot
@BigDataThoughts2 жыл бұрын
Thanks tanushree
@npl42953 жыл бұрын
good optimization tips
@BigDataThoughts3 жыл бұрын
Thanks Neethu
@khaderbasha75923 жыл бұрын
Awesome Shreya, if possible could you please upload realtime challenges which we faced in realtime environment
@BigDataThoughts3 жыл бұрын
Thanks Khader
@mdatasoft15259 ай бұрын
❤
@shaileshc49943 жыл бұрын
What are configurations file in spark ? Plz anyone can ans me please
@harshalpatel5553 жыл бұрын
very well explained. but you are telling everything i know to exclude. ?? We need count, group,agg
@mohitupadhayay1439 Жыл бұрын
Coalesce doesn't do Shuffle and that's why it's less expensive than repartition. I believe.
@BigDataThoughts Жыл бұрын
It does but not as much as repartition. Repartition does entire data shuffle as it can reduce or increase no of partitions.
@mohitupadhayay1439 Жыл бұрын
@@BigDataThoughts thanks! Can you build an end to end project or some mini project where one can see how and where these properties arte getting implemented? Just watching these in silos only give half knowledge. Thanks.
@ahmedaly69999 ай бұрын
how i join small table with big table but i want to fetch all the data in small table like the small table is 100k record and large table is 1 milion record df = smalldf.join(largedf, smalldf.id==largedf.id , how = 'left_outerjoin') it makes out of memory and i cant do broadcast the small df idont know why what is best case here pls help
@tolasebrisco65652 жыл бұрын
Keep the good work #Prinetechs. I can clearly see all the good reviews about you man…I never believed my account can fixed after 7 months hahaha
@tolasebrisco65652 жыл бұрын
Keep the good work #Prinetechs. I can clearly see all the good reviews about you man…I never believed my account can fixed after 7 months hahaha
@tolasebrisco65652 жыл бұрын
Keep the good work #Prinetechs. I can clearly see all the good reviews about you man…I never believed my account can fixed after 7 months hahaha