Exklusiv: Wir besuchen eines der modernsten Rechenzentren der Welt

  Рет қаралды 508,777

der8auer

der8auer

Күн бұрын

Mehr Informationen zu Corsair DD5 Speicher:
www.corsair.com/de/de/ddr5-me...
---------------------------------------------------------
Unseren anderen Videos zum Thema IBM Power:
---------------------------------------------------------
Spart 10% auf euren iFixit Einkauf: DER8AUER10
store.ifixit.de/der8auer
Pro Tech Toolkit: bit.ly/2JNspZz
---------------------------------------------------------
Support me on Patreon:
/ der8auer
---------------------------------------------------------
Meine Produkte bei Caseking:
Delid Die Mate 2: bit.ly/2Rhv4y7
Delid Die Mate X: bit.ly/2EYLwwG
Skylake-X Direct Die Frame: bit.ly/2GW6yyC
9th Gen OC Frame: bit.ly/2UVSubi
Debug-LED: bit.ly/2QVUEt0
Pretested CPUs: bit.ly/2Aqhf6y
---------------------------------------------------------
Meine Ausrüstung:
USB-Mikroskop: amzn.to/2QUJPHH
Meine Kamera: amzn.to/2StEnrY
(Affiliate Links: Wird über einen der Links gekauft, bekomme ich einen Teil der Einnahmen)
---------------------------------------------------------
Music / Credits:
Outro:
Dylan Sitts feat. HDBeenDope - For The Record (Dylan Sitts Remix)
---------------------------------------------------------
Bezahlte Inhalte:
- Corsair DDR5 Werbespots
Samples:
- /
---------------------------------------------------------
Timestamps:
0:00 Intro
2:27 Werbung
3:01 Eingang Strom & Daten
6:10 Wasseraufbereitung
6:40 Niederspannungsanlage, USV & Notstromaggregat
13:18 Stromverteilung
16:18 Die Kühlung
20:31 Radiatoren auf dem Dach
22:19 Kühlung des Wassers
24:02 Brandschutz
29:16 Werbung
29:54 Warum all die Redundanz?
32:47 IBM Power10, Nodes & Controller
34:04 Wartung nur durch IBM
37:25 Der Power10 im Detail
39:30 Warum IBM Power?
41:41 x86 Rack-Server & Blade-Server
44:28 Werbung
45:00 IBM Mainframe Z15 & Datenspeicherung
51:14 Die Effizienz eines Rechenzentrums
52:32 Outro

Пікірлер: 1 200
@der8auer
@der8auer 2 жыл бұрын
Langes Video mit sehr viel Aufwand aber ich bin mega Happy dass es endlich online ist 😬 etwas länger als sonst, aber ich denke es lohnt sich. Viel Spaß 💪 Edit: Wenn der einzige Fehler in einem 1h Video eine "Zündkerze" ist kann ich damit sehr gut leben xD
@Palmarendur
@Palmarendur 2 жыл бұрын
Ich mag so lange Videos, vor allem von so kompetent Leuten wie du einer bist! Mach weiter so.
@twei__
@twei__ 2 жыл бұрын
die arbeit war es definitiv wert. gutes video (bis jetzt, bin bei 24min)
@errorbytedioxy4464
@errorbytedioxy4464 2 жыл бұрын
Sehr gutes und interessantes Video auch dafür geworden. Danke
@mwattinger
@mwattinger 2 жыл бұрын
Wenns so interessant und so gut erklärt/gezeigt wird ist die länge egal. Sehr gut gemacht und danke für die zeit die da reingesteckt wurde, vielen dank dafür
@crazyxviper
@crazyxviper 2 жыл бұрын
Bei so ein Video ist denk ich mal ,denn meisten die länge des videos egal , es war echt spannend zu sehen wie das Zentrum aufgebaut ist .
@hausmaus5698
@hausmaus5698 2 жыл бұрын
Da Bielefeld offiziell gar nicht existiert, sind die Server schwer auffindbar und somit sehr gut gesichert. Ziemlich schlau von denen.
@glorysynex
@glorysynex 2 жыл бұрын
Die haben alles sehr genau durchdacht
@toastbr0t
@toastbr0t 2 жыл бұрын
Wow ein neuer orgineller Bielefeld Witz *Ba Dum Tss*
@marcelm.2170
@marcelm.2170 2 жыл бұрын
Bielefeld?
@payback7320
@payback7320 2 жыл бұрын
wer ist dieser bielefeld?
@mmmhhhleckerTee
@mmmhhhleckerTee 2 жыл бұрын
Und dann gibt's Bielefeld auch noch doppelt
@mickquick4795
@mickquick4795 2 жыл бұрын
Ein Zündkerzen Problem beim Diesel wäre echt bitter😉 Mega interessantes Video, danke dafür.
@philippegelhof
@philippegelhof 2 жыл бұрын
Aua, aua, aua....🤣🤣
@lukaay
@lukaay 2 жыл бұрын
😂😂😂😂
@tarik5277
@tarik5277 2 жыл бұрын
Zündkerze beim diesel ?
@P1aenkl3r
@P1aenkl3r 2 жыл бұрын
Zündkerze? Wäre eh egal sind ja alle online USV Systeme
@9Loki11
@9Loki11 2 жыл бұрын
@@P1aenkl3r du hast ja mal har nichts gerafft. 😅😁
@smartiefox256
@smartiefox256 2 жыл бұрын
Fantastisches Video! Als Elektro-Mensch unfassbar informativ und cool zu sehen! Da wird an so viel gedacht 😯 Vielen Dank dafür dass du deine Kontakte nutzt um uns solche Einblicke zu ermöglichen!!
@SirHenry98
@SirHenry98 2 жыл бұрын
dem kann ich nur zustimmen deutlich interresanter als das immer in ner vorlesung vorgebrabbelt zu bekommen. 😍
@keinenHier
@keinenHier 5 ай бұрын
Wir suchen in datacenter viel elektro Menschen. Da Verdienst du ein Vielfaches
@cacomorphobia
@cacomorphobia 2 жыл бұрын
Immer wieder interessant Rechenzentren mal von innen zu sehen!
@RandomUser2401
@RandomUser2401 2 жыл бұрын
ohja. Und Linus LinusTechTips hat noch vor 3 Tagen behauptet Rechenzentren sind so hochsicher dass man da gar nicht reinkommt um zu filmen :P Tja Mr Sebastian in Europa und mit Roman geht das schon.
@ttrr916
@ttrr916 2 жыл бұрын
Auf jeden Fall wird hier mehr berechnet als bei meiner Cousine im Matheheft haha ;--)
@jorgwohlgemuth7040
@jorgwohlgemuth7040 2 жыл бұрын
@@RandomUser2401 q
@RandomUser2401
@RandomUser2401 2 жыл бұрын
@@jorgwohlgemuth7040 p
@keinenHier
@keinenHier 5 ай бұрын
Sehe doch alle gleich aus. Bin jeden Tag in welchen . Je nach Anbieter sehen die meistens gleich aus
@loens2
@loens2 2 жыл бұрын
"Wenn der Stickstoff eingeleitet ist, dann ist die Umgebungsluft komplett voll mit Sauerstoff" - Roman Hartung 28:38 xD
@Egon3k
@Egon3k 2 жыл бұрын
In knapp einer Stunde sei ihm der Fehler doch hoffentlich verziehen - unglaub wieviel Arbeit in dem Video steckt - finde es einfach mega interessant!
@X4n1c
@X4n1c 2 жыл бұрын
LOL jo :D
@Hurrycane-j
@Hurrycane-j 2 жыл бұрын
Sauerstoffreduzierter Bereich ... merkt man aber nix von
@derpopanz4502
@derpopanz4502 2 жыл бұрын
@@Hurrycane-j Kurzzeitig natürlich nicht, wenn man da drin ein-zwei Monate verbringt bildet dein Körper z.B. wesentlich mehr Hämoglobin (rote Blutkörperchen). Ist halt ähnlich wie Höhenluft... bei 17% schätze ich jetzt mal eine Höhe von 2000 m über N.N., also Meresspiegel. Dass da kein Feuer mehr entfacht werden kann, bezweifle ich sehr, aber erschwert wird es sicherlich.
@blackhatschwarzhuttv7970
@blackhatschwarzhuttv7970 2 жыл бұрын
​@@derpopanz4502 Das Mensch auf dem Mont Blanc kein Feuer machen kann ist faktisch nicht richtig. Auch deine Schätzung,17% Sauerstoffanteil bei 2000 m über n.N. kann nicht sein: Der Anteil der verschiedenen Gase, die die Luft auf der Erde ausmachen, bleibt immer gleich: 21 Prozent Sauerstoff, 78 Prozent Stickstoff, ein Prozent Argon, Kohlendioxid, Wasserdampf und andere Edelgasmoleküle. Nur die Luft wird dünn, was bedeutet pro Atemzug atmet man weniger Moleküle ein und damit weniger Sauerstoff. Ein Mensch würde bei 17% Sauerstoff in dem Atemzug unweigerlich die Höhenkrankheit bekommen. Was aber schlimmer ist bei der STICKSTOFF gesättigten Luft: Der Mensch kann nur einen gewissen Anteil von Stickstoff binden und ausatmen. Daher kommt das Wort "ERSTICKEN"!
@ThePandafriend
@ThePandafriend 2 жыл бұрын
Geniales Video, welches sich definitiv nicht hinter klassisch hergestellten Dokus mit großem Produktionsteam und hohem Budget verstecken muss! Sowohl was die Länge, als auch die Qualität angeht. Das hat sich gar nicht wie ein fast einstündiges Video angefühlt!
@der8auer
@der8auer 2 жыл бұрын
Vielen Dank!
@skmCry
@skmCry 2 жыл бұрын
Eines der Besten Videos, was ich bislang von dir gesehen habe. Mega faszinierend und sehr gut die Zusammenhänge und Gründe erklärt 👏
@der8auer
@der8auer 2 жыл бұрын
Freut mich, danke!
@schreibhecht
@schreibhecht 2 жыл бұрын
Ja und toll das man ihm vertraut, wenn schon nur ein IBM-Techniker dran darf. Er könnte ja einfach Kabel ziehen :-))
@tobiasg5385
@tobiasg5385 2 жыл бұрын
Erstmal ein großes Dankeschön 💪 Jedem Fachinformatiker/Admin geht da das Herz auf. Einfach so sauber. Das Kabelmanagement top. Cool das du uns hier teilhaben lässt.💪💻👨‍💻
@keinenHier
@keinenHier 5 ай бұрын
Das ist eigentlich Standart, cabeling muss so sein
@tl1897
@tl1897 2 жыл бұрын
Ich habe schon einge Rechenzentren gesehen, aber eine so saubere Verkabelung noch nie. P.S. Geiles Video. Da schlägt mein Admin Herz gleich höher. Und LTO Backup bekommen all unsere Kunden in irgendeiner Größenordnung.
@t0xanes
@t0xanes 2 жыл бұрын
War bisher in 3 Rechenzentren, davon hatten 2 praktisch die gleiche "Qualität" bzw. Ordnung an Verkabelung. Muss ab einem gewissen Grad auch einfach sein, wenn man tausende Server hat. Sonst kriegst ja kein Kabel mehr getauscht usw.
@tl1897
@tl1897 2 жыл бұрын
@@t0xanes gerade hinten in den racks sieht es aber hinten doch meistens anders aus. Ich red ja nicht von kraut und rüben Verkabelung. Oft passiert es einfach, dass Kabel im rack aufgerollt und zusammen gestrapst werden.
@kaiseidensticker3547
@kaiseidensticker3547 2 жыл бұрын
@@tl1897 du scheinst interessante Rechenzentren zu kennen.
@stephanweinberger
@stephanweinberger 2 жыл бұрын
@@tl1897 Beim HPC-Cluster den ich betreue haben wir immer eine Schlaufe Kabel für je zwei Nodes einfach auf den Maschinen drauf liegen. Allein von der Stromversorgung konnten wir die Racks ohnehin nicht voll machen, also haben wir einfach immer 2 Server, 1HE Lücke, 2 Server, usw. gemacht. Das ist zwar vielleicht nicht ganz so "sauber", aber hat durchaus auch Vorteile. Die Kabel liegen so recht lose und lassen sich bei Bedarf recht einfach tauschen. Ursprünglich waren die Kabel wie hier im Video "schön" in Kabelarmen verlegt, da war ein Tausch jedes Mal ein größeres Drama (und durch die engen Knickwinkel in den Armen kam das auch öfter mal vor). Plus man muss die Kabel jetzt nicht mehr exakt ablängen, sondern kann einfach Standardlängen verwenden. Außerdem haben die Arme mit jeweils 7 Kabeln (2x Strom, 1x IPMI, 2x Ethernet, 2x Infiniband) bei den 1HE-Servern praktisch die ganze Rückseite dicht gemacht und die Kühlung beeinträchtigt. Seit wir die Kabel zwischen den Maschinen aufrollen fahren wir ein paar Grad kühler (und somit auch länger im Allcore-Turbo). Und zur Wartung herausziehen geht immer noch recht einfach (kommt aber im Cluster ohnehin kaum je vor dass man eine laufende Maschine rausziehen müsste - die Jobs werden ohnehin automatisch verteilt, da kann man einzelne Kisten auch mal herunterfahren, abkabeln und gemütlich am Tisch zerlegen). Also falls jemand 150 Cisco-Kabelarme braucht: einfach melden :-)
@denisaalimanovic9082
@denisaalimanovic9082 2 жыл бұрын
Das Geheimnis sind die Kreuzungen 😉 wenn du das nächste Mal siehst das so sauber ausgebunden wude schau dahin oder Darunter
@atiessen
@atiessen Жыл бұрын
Das finde ich ja toll, dass die OEDIF so einen tiefen Einblick in ihr RZ gegeben hat. Ich kenne die OEDIV seit 15 Jahren als Anbieter von SAP Dienstleistungen. Über die IBM Server freue ich mich immer wieder. Habe das schwarze Blech fast 10 Jahre verkaufen dürfen. Klasse Video 👍🏻.
@lucajager4080
@lucajager4080 2 жыл бұрын
Das Video war unglaublich Informativ und Interessant, einfach brutal was für krasse Technik in dem Rechenzentrum stecket... Wirklich vielen Dank für diesen Einblick👍
@Paddydapro
@Paddydapro 2 жыл бұрын
Holy shit, der Aufwand für dieses Video ist insane, danke für diesen krassen Einblick, die ganzen Ideen und das Know How das da drin steckt.. einfach nur krank!
@klinner2442
@klinner2442 3 ай бұрын
Witcher 3 beste, danke dir
@unlucky6737
@unlucky6737 2 жыл бұрын
Einfach holy shit, wie viele Leute da wie lange dran geplant haben müssen... Und am Ende funktioniert alles auch noch! Einfach krass
@nervenjere
@nervenjere 2 жыл бұрын
stell dir mal vor, da würden Politiker dran arbeiten, holy sh** xD
@Tommy1911TR
@Tommy1911TR 2 жыл бұрын
@@nervenjere Die würden dann die Türe abschließen, damit kein Hacker rein kommt 😁
@legend_acg
@legend_acg 2 жыл бұрын
Danke für den Einblick, ich finde das Thema extrem interessant. Die Planung und Ingenieursleistung die da dahintersteckt ist echt beeindruckend. Freue mich schon auf das zweite Video.
@michelschmitz6810
@michelschmitz6810 2 жыл бұрын
Es ist sehr interessant so ein Rechenzentrum von Innen zu sehen. Klasse wie du das erklärst. Und danke dasdu solche Einblicke ermöglichst. Mache weiter so. Mag dein dein Kanal absolut.
@suhrke
@suhrke 2 жыл бұрын
Moin Roman, ich war selbst in meinen Jahren als IT Service Engineer oft in verschiedenen Rechenzentren in München und Frankfurt. Nichtsdestotrotz hat mir dieses Video nochmal viele Dinge gezeigt, die ich dabei nie so hautnah erlebt habe, gleichwohl mir ihre Existenz bewußt war, Daher herzlichen Dank für dieses wirklich gute Video über ein modernes Rechenzentrum. So etwas habe ich in dieser Qualität noch nie gesehen. :-)
@MaximilianPieck
@MaximilianPieck 2 жыл бұрын
Könnte ich mir den ganzen Tag anschauen! 🙂 Tolles Video und sehr informativ! Vielen Dank an OEDIV, IBM und natürlich dich, Roman! 👍
@beef_bene5102
@beef_bene5102 2 жыл бұрын
Absolut krasses Video :D. Vielen Dank, dass du uns immer die bestmögliche Unterhaltung lieferst und uns mit deinem Enthusiasmus ansteckst.
@thomasjendrny78
@thomasjendrny78 2 жыл бұрын
Mega Video, es kann ruhig mehr davon geben. Super Arbeit! 👏 Als ITler schlägt einem da das Herz höher. Und ein ganz großes Lob an die Techniker dieses Zentrums, da das alles so extrem aufgeräumt, sortiert und sauber aussieht. Da schlägt auch mein Monk-Herz höher! 😉
@Venti_464
@Venti_464 2 жыл бұрын
Es ist echt mega zu sehen wie viele kleine geordnete Details und eine Maschine auf die andere abgestimmt sein muss wie ein Organismus der dann das Große ganze ergibt, mega Video Danke :D!
@kevin.kroeber
@kevin.kroeber 2 жыл бұрын
Extrem interessant! Das sind wirklich unfassbare Server 🤯 Und die ganze Struktur des Rechenzentrums ist einfach nur beeindruckend.
@Kumachantaan
@Kumachantaan 2 жыл бұрын
WOW... Großartig!!! und echt vielen Dank an OEDIV, die diesen Einblick möglich machten. Und vor allem auch, dass das mit dem IBM-Techniker geklappt hat! Ich bin schon auf den zweiten Teil gespannt!
@MarcusHegel
@MarcusHegel 2 жыл бұрын
Was für nen geiles Video wieder mal über so ein Rechenzentrum. Habe das damals andere schon verschlungen und hier war es net anders. Klasse und vielen dank an alle, die es uns ermöglichen solche Einblicke zu erlauben.
@geroldminhofer3295
@geroldminhofer3295 2 жыл бұрын
Hammer Video. Danke and dich und auch an OEDIV. Ist nicht selbstverständlich, dass ne Firma sowas herzeigt und das auch noch so detailliert.
@PorceTheFather
@PorceTheFather 2 жыл бұрын
Wahnsinn Video, einfach eine Stunde interessanteste Unterhaltung. Danke dafür!
@marko_bauer
@marko_bauer 2 жыл бұрын
Eines der besten Techvideos welches ich jeh gesehen habe. Nicht weil für mich vieles neu war, sondern weil es wirklich extrem gut gemacht war und interessant, qualitativ und koherent erklärt wurde. Absolut mega Roman - dafür gönne ich dir Apohis' Helm!!! :D
@manuelson5948
@manuelson5948 2 жыл бұрын
Mega interessant! Vielen vielen Dank für deine Mühen uns das Rechenzentrum so im Detail zu zeigen!
@eIija
@eIija 2 жыл бұрын
Server fast so laut wie meine playstation
@bruno16yt35
@bruno16yt35 Жыл бұрын
Aber nur fast 😂
@feltax
@feltax 2 жыл бұрын
Sehr geiles und vor allem interessantes Video. Großen Respekt auch an OEDIV, dafür dass sie uns mal einen Blick in ihre Welt gestattet haben! 😌👍
@herrchoksondik5735
@herrchoksondik5735 6 ай бұрын
Vielen Dank für dieses Video. Unglaublich beeindruckend. Grandios, dass du uns solche Einblicke ermöglichst.
@dermarc880
@dermarc880 2 жыл бұрын
Absolut geiles Video und die fast 1h habe ich sehr gerne geschaut ! Echt Krass und informativ das ganze, deswegen mag ich deine Videos, du bringst das alles halt auch immer richtig gut rüber. Macht weiter so :)
@stunrisex7623
@stunrisex7623 2 жыл бұрын
Exzellentes Video, es ist sehr schwer ein so großes RZ für DIY Gamer zu erklären und man sieht, wie viel Aufwand in diesem Video steckt. Ich war selbst in einem solchen RZ mal zu Besuch (als Kunde) und da war genau das gleiche - auch so Feinheiten wie der aufgewärmte Diesel, der auch blau angestrichen war, die Löschflaschen, Batterien usw.
@philippbutscher1389
@philippbutscher1389 2 жыл бұрын
Mega interessantes Video, mach weiter solche tollen Videos
@gun1558
@gun1558 2 жыл бұрын
Sehr interessantes Video und super präsentiert. Danke dafür an dich und alle, die dir dabei geholfen haben.
@WxF9Zd
@WxF9Zd 2 жыл бұрын
Danke wieder mal an Firmen die solche Einblicke ermöglichen, von denen sie direkt nicht profitieren, sondern einfach bereit sind coole Technik zu zeigen!
@helgewollenhaupt4490
@helgewollenhaupt4490 2 жыл бұрын
Einstellungs-Kriterium im Rechenzentrum: keine Rot-Grün-Sehschwäche ... ;-) Tolles Video. Vielen Dank!
@TheCheaterofall
@TheCheaterofall 2 жыл бұрын
13:00 Ach ja, das Zündkerzenproblem beim Diesel 😁 Aber sehr cooles Video, freue mich schon auf den zweiten Teil!
@Soulleey
@Soulleey 2 жыл бұрын
Dann halt nen Glühkerzenproblem xD
@CoLuGames
@CoLuGames 2 жыл бұрын
@@Soulleey Diesel wird/kann im Gegensatz zu Benzin so stark verdichtet (werden), dass dieser sich selbst entzündet. Deshalb braucht es keinen Funken.
@Soulleey
@Soulleey 2 жыл бұрын
@@CoLuGames Das is mir schon klar... Die Glühkerzen sind ja auch eher fürn Kaltstart gedacht damit der Diesel zündwilliger ist... Aber kann gut sein, dass der Generator keine braucht wenn der sowieso immer Vorgewärmt ist...
@nasarethb.a.8702
@nasarethb.a.8702 2 жыл бұрын
@@Soulleey Müßt mal bei mir in der Firma nachfragen ob da überhaupt sowas verbaut wird. Bau die Einspritzungen für solche Agregate. Mich würd noch interresieren ob das ein 2Takt/4TAckt systhem is und ob das schon CR oder noch direckt ist. Aktuell werden die ja als 4 Takt CR Motoren gebaut. Funfact für euch. Wer soein Notstromagregat will, die gibts auch semiMobil in nem Schiffskontainer eingebaut. kann man sich dan in den gaten stellen. Übrigens... die "LKWs" die solche Motoren verwenden, sind zum Beispiel CAT-Muldenkiper in Tagbergbau. alles drunter sind normale Motoren. Auch was die LAufzeiten angeht sind diese Agregate der Wahnsinn. 10.000 Betriebsstunden ohne Komponententausch sind da echt nix. Wir versuchen gerade eine neue Pumpe auf 30.000 Stunden hochzukriegen. 10.000 Stunden heist, das der Motor ein Jahr durchläuft.
@quitsch939
@quitsch939 2 жыл бұрын
@@CoLuGames Stimmt auch nicht so ganz. Durch die Verdichung glüht die Glühkerze weiter und entzündet den Diesel erneut. Würde man die weglassen, bzw. würde die plötzlich kaputt gehen, würde sich da nix mehr entzünden.
@Timewarp2002
@Timewarp2002 2 жыл бұрын
Absolut geniales Video, sehr spannend und als nicht Admin ein unfassbarer Gigantismus. Tolles Video - Danke dafür!
@jmasterp22
@jmasterp22 2 жыл бұрын
Für mich persönlich eins der interessantesten Videos seit langem im Internet. Habe nicht mal ahnen können, wie viel Aufwand betrieben werden muss, um einen Rechenzentrum stabil zu halten. Gut und informativ rüber gebracht, danke an die Betreiber und euch für den Einblick. Ich könnte es mir noch stundenlang weiter ansehen.
@captainpollutiontv
@captainpollutiontv Жыл бұрын
Danke für diese Tour. Bin selber Fachinformatiker aber sowas habe ich noch nie gesehen. Einfach unglaublich was für ein Aufwand da betrieben wird und auf welchem technischen Stand das ist.
@Saitentanz
@Saitentanz 2 жыл бұрын
Danke für das Video! Ich war Anfang der 2000er Jahre bei einer Führung im Rechenzentzrum der SEB in Frankfurt dabei. Dort gab es noch Speicherschränke mit SCSI HDDs, die mit 10.000 oder 16.000 rpm nagelten. Man musste mehrere übereinanderliegende Türen öffnen, um die Geräte zu kommen. Dabei ertönen jeweils schrille Warntöne, um auf den Hörschutz-Zwang hinzuweisen, weil die HDDs ohne Schallisolation so laut waren, dass sie das menschliche Gehör zerstörten. In der Führung hatte man jede Menge beeindruckende Technik gesehen. Stellenweise hat mich dieses Video daran erinnert. Auch das SEB Rechenenzentrum gab bzw. gibt es 2x an verschiedenen Orten. Grund war "der Fall, den sich niemand wünscht" - nämlich dass ein Flugzeug auf das Gebäude abstürzt. Für diesen Fall konnte damals innerhalb von wenigen Minuten das andere RZ komplett hochgefahren werden. Auch gab es Büros mit derselben Ausstattung 1:1 wie in den einzelnen Bankgebäuden. Hintergrund war, dass bei einem technischen Problem sofort ein Spezialist die Situation reproduzieren und eine Lösung erarbeiten konnte. Es ist schon erstaunlich, welch ein Aufwand mit modernster Technik für die Betiebssicherheit betrieben wird.
@keinenHier
@keinenHier 5 ай бұрын
Das andere muss nicht hochgefährlich werden. Das ist immer da. Das würde sonst Stunden gehen..aber zwischen 2000 und heute sind Welten
@keinenHier
@keinenHier 5 ай бұрын
Und die Notfall Arbeitsplätze sind die Banken Vorschrift um den not Betrieb zu gewährleisten
@TheSaragada
@TheSaragada 2 жыл бұрын
Sehr interessante Einblicke. Danke für Deine ausführlichen Kommentare und Deine Mühe!
@adrian23422
@adrian23422 2 жыл бұрын
Unfassbar Spannendes Video. Danke, dass du uns so etwas kostenlos zur Verfügung stellst
@happyhardcoreparadise
@happyhardcoreparadise 2 жыл бұрын
es ist beruhigend zu sehen das die Industrie, nicht wie die Politik vor 30-40 Jahren hängen geblieben ist, sondern ganz vorne mit dabei ist. sehr interessante und informative einblicke in den enterprise sektor, für mich gerne mehr davon.
@christiansonnenberg8342
@christiansonnenberg8342 2 жыл бұрын
Sehr informatives und interessantes Video. Danke dir! btw. Zündkerzenproblem bei einem Dieselaggregat wage ich zu bezweifeln ;)
@pascal6827
@pascal6827 2 жыл бұрын
Ich finde es wirklich mega interessant! Ich habe gestern einen Podcast über Speicherlösungen auf Netzebene gehört (Batteriespeicher, Wasserkraftwerke, Gaskraftwerke, etc.). Im übertragenen Sinne sind alle Aspekte im Rechenzentrum im kleinen Format wiederzufinden (Batteriespeicher, Dieselmotor, etc.). Sehr interessantes Video, Roman! Hammer! Großes Dankeschön auch an Dominik :)
@RonaldSchneiderGiebenach
@RonaldSchneiderGiebenach 2 жыл бұрын
Schwungrad ist auch ab und an anzutreffen. Entweder direkt am Diesel angebaut oder separat, ähnlich wie om Video der Batterieraum. Energiemenge je nach Bauform 3 oder 20 Sekunden Volllast. Da muss der Diesel wirklich schnell anspringen und auf Vollast gehen.
@louvanburch9688
@louvanburch9688 2 жыл бұрын
Vielen Dank. Tolles Video, sehr informativ. Der Aufwand für den Betrieb ist ja wirklich immens.
@masterraso202
@masterraso202 2 жыл бұрын
Danke dafür. Da hat sich in den letzten 30 Jahren einiges getan bei IBM. Durfte mir damals mit meinem Vater eines ansehen. Wahnsinn das alles nur mehr im Ramspeicher liegt für den Datenzugriff und die Festspeicher eigentlich nur mehr als Backup dienen. Die Energieeffizienz ist auch der Hammer auch wenn ich das nicht ganz glauben kann. Zumindest Sparsamer als vor 30 Jahren :)
@benni_w_
@benni_w_ 2 жыл бұрын
Mega interessantes Video, ich hätte nicht gedacht, das da teilweise so ein Aufwand betrieben wird - vor allem was die unfassbare Redundanz und Sicherheitsmaßnahmen angeht. Partikelmessung und Sauerstoffreduktion zum Brandmanagement - verrückt. Auch die Zuverlässigkeit von dem Mainframe oder die Tatsache dass der Power 10 einen 256Kern Epyc 1.5TB ddr4 Server zum Frühstuck isst hätte ich so nicht erwartet. Und einfach Masterstudiengang Kabelmanagement, Sicherheit, Ordnung und Organisation xD. Super Video, hab erst am Ende gemerkt, dass das ja fast ne Stunde war, freue mich auf den zweiten Teil. Viel interessanter als ein fünftausendstes Video mit "boah krass 12900k und 3090 voll viel fps krass". Den Aufwand ist das Video meiner Meinung nach definitiv wert.
@lukass8506
@lukass8506 2 жыл бұрын
@@joellegge460 Es ist nicht so einfach: POWER 9 hatte kein so direktes RAM Limit von 4TiB, das hatte nur die kleine Desktop Version. Bei PowerPC funktioniert RAM völlig anders als bei jedem anderen System, da auf ein anderes Interface gesetzt wird. Es gibt die Desktop Varianten (scale out), die 8 DDR4 Kanäle hatten und max Dual Sockel Systeme konnten. Die Scale Up Versionen können bis zu 16 Sockel und theoretisch sehr viel RAM verwalten, da statt auf Speicherkanäle auf OMI gesetzt wird. Das ist eine serielle Schnittstelle, die auf PCIe aufsetzt und dadurch skalierbarer als parallele Interfaces ist. Eine OMI Karte siehst du auch bei z.B. 38:27, deshalb sieht das RAM Modul auch wie eine PCIe Karte aus. Dadurch, dass du nicht durch Ranks und das parallele Interface beschränkt bist, kannst du theoretisch beliebig viel RAM auf solches Modul packen. eine offizielle Spezifikation was RAM Kapazität betrifft, hat IBM für Power9 nie offizielle Angaben gemacht, das höchste was durch IBM direkt verkauft wurde, waren aber 4TB pro Sockel, dafür aber mit 16 Sockel Systemen. Dagegen ist ein EPYC Dual Socket System mit den 4TB (bzw. 8TB seit ungefähr 2021, davor gab es keine 256GB DIMMs) gar nichts. Dadurch, dass die Schnittstelle seriell ist, kann dahinter auch ALLES an Speicher stecken. Nichts hält einen davon ab, DDR5 oder bauch DDR6 Module für Power9 zu entwickeln (auch wenn das volle Potential nicht genutzt werden kann). Bei Power10 sind es übrigens 1PiB (=1024TiB) pro Sockel, bzw. 2PiB in den DCM Varianten. Intel und AMD setzen noch immer auf parallele Schnittstellen und können daher bei weitem nicht so viele Speicherchips unterbringen. Mehr als 12 Speicherkanäle wird wegen den sehr empfindlichen Zeitbeschränkungen quasi nie möglich sein und mehr als 8 bekommst man auch Platztechnisch nicht unter. Nach JEDEC Specs kann es maximal 512GB oder 1024GiB Module geben, das wären maximal 24TiB pro Sockel, praktisch werden wir wohl eher bei 8-16TiB Maximum landen. Die Speicherbandbreite liegt bei Power 10 übrigens bei 1TB/s für DCM Chips. Deine Aussagen bezüglich Supercomputer sind übrigens sehr amüsant, weil gerade das einer der starken Bereiche für PowerPC ist. x86 schafft es im Supercomputersegment nur noch gerade so in die Top5: Platz 1 ist ein ARM System von 2018, Platz 2 und 3 sind POWER9 Platz 4 ist eine custom Architektur und Platz 5 ist ein Milan System. Insgesamt sind 6 Power9 Systeme unter den Top 100 Supercomputern. Das nächste was falsch ist, ist das mit den Kernen. Zunächst einmal sind die Kerne überhaupt nicht vergleichbar und zusätzlich lassen sich die CPUs umkonfigurieren. Ein Power10 Chip hat 15/30 Kerne und 120 Threads. Du kannst sogar zur Laufzeit die Topologie so verändern, dass du 15 oder Kerne hast (Einfach gesagt ändert sich das Verhalten des Caches). Und die Kerne sind einfach um ein vielfaches stärker. Zen3 und Golden Cove haben beide jeweils 2 Floating Point Execution units pro Kern, bei Power10 sind es 8 pro Kern. Damit ist Power10 in der Rohleistung (und diese ist viel einfacher Nutzbar aus Softwaresicht) pro Kern um Faktor 4 schneller als EPYC oder Xeon Systeme, deshalb ist es in dem Fall sinnvoller, die Anzahl der Threads zu vergleichen (alle drei Architekturen haben pro Thread eine FP EU). IBM verkauft die Systeme als SCM und DCM, die SCM Varianten haben 120 Threads pro Sockel und können in 16 Sockel Systeme gesetzt werden, während die DCM Varianten 240 Threads pro Sockel haben (ist wie Naples und Xeon 9300, es sind einfach zwei Dies auf einem Package) mit 4 Sockeln pro System. Damit ist die Dichte erheblich besser In einen Blade Server (Das sind typische compute Knoten, kleiner als 1U) bekommst du: Bei EPYC: 2x64/128 Kerne => 256Threads Bei Xeon ice Lake: 2x 40/80 Kerne => 160 Threads Bei Xeon Cascadelake/Skylake: 4x 28/56 Kerne => 224 Threads Bei Power10: 8x(4x2x)15/120 => 960 Threads Der einzige große "Nachteil" bei PowerPC ist, dass es keine richtige Vektorunterstützung gibt, bei Intel/AMD gibt es AVX, das in einigen Anwendungen große Performancevorteile haben kann. In schwierig zu vektorisierenden Anwendunghen (davon gibt es sehr viele), ist PowerPC im Nachteil. Dazu sei aber gesagt, dass die gesamte Architektur dafür entworfen ist, mit beschleuniger Hardware zusammen zu arbeiten. Über das gleiche Interface wie der Speicher können Beschleunigerkarten angeschlossen werden, die sogar den RAM mit der CPU teilen können. Die Technik dahinter nennt sich OpenCAPI (eingeführt mit Power9) und ist sehr ähnlich zu PCIe 5.0.
@lukass8506
@lukass8506 2 жыл бұрын
@@joellegge460 Du hast scheinbar nichts von dem verstanden... 1. Ich habe nie behauptet, dass die absolute Performance deutlich besser wäre und erst recht nicht, dass jede Anwendung von dieser Architektur profitiert. Und selbst wenn es so wäre (Rohleistung), dann sagt das noch überhhaupt nichts über die Performance in der Praxis aus. Egal was für für Hardware du hast, die Software ist viel wichtiger. Intel hat einen riesigen Softwarestack, der alleine schon grund genug ist, um sich oftmals für Intelsysteme zu entscheiden. Ein weiteres großes Argument gegen PowerPC sind die Kosten. Selbst wenn es hardwaretechnisch deutlich stärker wäre, dann können sich die wenigsten ein so teures System leisten. Deine Aussage von wegen 'bei supercomputern spielt Geld keine Rolle' ist schwachsinnig. In den Top 5 bis Top 10 vielleicht, weil diese Plätze prestigeträchtig sind (eigentlich nur Platz 1 so richtig), alle anderen haben sehr begrenzte Budgets und sind meist auf Fördergelder angewiesen (in Deutschland sind das alle). 2. Was ist OpenFoam bitte für ein Maßstab und auf was für Tests beziehst du dich? Den einzigen direktvergleich zwischen einem POWER und x86 System, den ich finde ist von IBM selbst und da spricht die Leistung eher für IBM. Aber selbst wenn die CPUs in OpenFoam deutlich schneller wären, dann hätte das keine große Aussagekraft. Diese Art von Berechnungen wird mittlerweile hauptsächlich auf GPUs durchgeführt, weil es gut zu vektorisieren ist (ich habe übrigens auch selbst schon etwas zu Vektorisierung auf PowerPC gesagt. 3. Hyperthreading ist NICHT vergleichbar mit IBMs Kern/Thread Modell. Ja, SMT (bei x86) hat nicht immer große Vorteile bei HPC Anwendungen (In vielen Supercomputern ist Hyperthreading deshalb auch deaktiviert, alleine schon weil oft kaum mehr als ein Thread pro Prozess genutzt wird) und oftmals große Nachteile. Der Unterschied ist aber, dass PowerPC nicht mit den gleichen Einschränkungen bei SMT kommt wie man sie bei Intel und AMD findet. Ich zweifle zwar an, dass du das verstehen wirst, aber hier eine kurze Erklärung, wie SMT/Hyperthreading bei Intel/AMD funktioniert (es ist nicht gleich, aber prinzipiell ähnlich) Die Execution Engine (das ist der Teil, in dem die Berechnungen stattfinden) besteht mittlerweile aus mehreren Teilen, die gleichzeitig genutzt werden können (nennt sich Superscalar). Davor sitzt ein Scheduler, der die Instruktionen, die in den Kern gelangen, auf die einzelnen Ports aufteilt. Typisch sind so etwas wie 2 AVX Einheiten (512bit), die FP und komplexe Int Berechnungen (inklusive FMA) Vektorisiert berechnen können, eine kurze Vektoreinheit für einfache Operationen (hauptsächlich int), eine sehr kurze ALU/Branch Einheit (zum berechnen von Sprungadressen) und ein wenig was an Load/Store Einheiten. Das "Problem" dabei ist, dass fast kein Programm alle Einheiten gleichzeitig nutzt und deshalb große Teile der EE nichts tun. Deshalb nutzt man Hyperthreading, was einfach nur einen zweiten Eingang zum Scheduler hinzufügt (stark vereinfacht gesagt). Je verschiedener die Instruktionen der beiden Threads, desto besser ist die jeweilige Performance, da die EE besser ausgenutzt wird. Bei Anwendungen, die sehr viel FP Einheiten nutzen (vor allem im Wissenschaftlichen Bereich) bringt das oft nicht viel, weil auch ein einziger Thread beide AVX Einheiten locker auslasten kann. Der zweite Thread fügt dann nur Overhead hinzu und macht das Programm langsamer (deshalb sieht man in dem Bereich auch oft eine schlechtere Performance mit Hyperthreading. Der Punkt ist aber, dass bei PowerPC Threads und Kerne anders funktionieren/definiert sind. In Power10 (auch schon in Power9) gibt es keine Kerne im klassischen Sionne. Jeder "Kern" ist ein eigentlich ein "core pair", die zwei gespiegelte Kerne sind. Der L2 Cache sitzt in der Mitte zwischen diesen beiden Kernen und kann (muss aber nicht) von beiden Kernen geteilt werden. Innerhalb eines "core pairs" ist also sowohl Level2 als auch Level3 Cache geteilt. Das fügt einfach eine weitere topologische Ebene hinzu, die kein Äquvivalent im x86 Bereich hat. Einen geteilten L2 Cache zu haben kann Vor- und Nachteile haben, weshalb sich dieses Feature an- bzw. ausschalten lässt. Damit das OS damit besser umgehen kann, definiert IBM diese L2 Csache Pools einfach als einen "Kern". Jeder dieser beiden Teilkerne ist wieder zweigeteilt und bestehgt aus jeweils zwei Vektor Execution Engines (Power 10: 128 bit, Power9 64bit), Load/Store Engines, und einer Matrix Engine. Damit entspricht (aus sicht der Execution Engines)jeder Teilkern wieder zwei Kernen, die dann wiederum zwei Threads pro Kern. Klingt kompliziert, ist es auch. Deshalb gibt IBM auch eigentlich nur noch die Anzahl der Threads an. Aus Softwaresicht lassen sich die Kerne/Threads wie folgt konfigurieren: 1 Kern, 8 Threads 2 Kerne, je 4 Threads 4 Kerne, je 2 Threads Damit kann man unanbhängig von der Threadnutzung die Konfgiguration an die Anwendung anpassen. 4. Thema Dichte: Du beziehst dich auf ein einziges IBM System, ich denke mal das E1080 System. Das ist ein Referenzsystem, das nicht unbedingt auf maximale Dichte getrimmt ist (es sind keine Compute Knoten und klassische Blade Server gibt es noch nicht). Die IBM eigenen Systeme sind eher für das I/O Angebot ausgelegt, compute Varianten werden folgen. PowerPC ist sehr offen und erlaubt es, allen Herstellern, unterschiedliche Systeme zu bauen (Die Plattform ist Open Source). Es gibt von IBM selbst auch noch keinen direkten Nachfolger für die Summit/Sierra Systeme. Meine Rechnung war nur Beispielhaft, konkrete Systeme sehen immer unterschiedlich aus. Es geht um das Potential der Dichte. Welche Blade 6000 Server meinst du überhaupt? Ich kenne nur Sun Blade 6000 Server, die passen aber nicht zu deinen Angaben. Warum deine Rechnung mit den Kernen keinen Sinn ergibt, muss ich hoffentlich nicht mehr erklären. 5. "Große DIMM Module von z.B. 1 TB sind vollkommen uninteressant" Was?! Selbstverständlich kommt es nicht nur auf die Menge des Speichers drauf an, aber trotzdem ist die Speichermenge sehr relevant. Aktuelle Systeme sind so entworfen, dass sie verhältnismäßig gut damit umgehen (man nutzt sehr schnelle Festplattensysteme, auf die immer wieder Daten geschrieben werden). Wenn man die Möglichkeit hätte, Alles im RAM zu halten, dann könnte man deutlich schneller Rechnen. Selbstverständlich braucht das nicht jeder. 6. Das was du wohl gar nicht verstehst ist, dass es im HPC Bereich sehr unterschiedliche Anforderungen gibt. Einige Anwendungen sind compute Bound, andere sind Memory(bandwidth) bound und wieder andere sind I/O Bound. Einige können effektiv GPUs nutzen, andere nicht. Usw usw. Klimasimulationen brauchen zum Beispiel sehr viel RAM (mit doppelter Auflösung verachtfacht sich in etwa der RAM Bedarf). Die Systeme des DWD haben deshalb zum Beispiel fast 1TB pro Knoten im Durchschnitt. Auch Proteinsimulationen brauchen sehr sehr viel RAM. Ein Rechenzentrum, dass sich hauptsächlich mit Proteinen/Wetter/Klima beschäftigt schafft ganz andere Systeme an als Rechenzentren, die sich auf AI fokussieren. 7. "Mit Supercomputer scheinst Du dich aus nicht sonderlich auszukennen" An dem Punkt war ich echt am verzweifeln. So viel Mist in einem Abschnitt habe ich lange nicht mehr gelesen. Ich hatte das Thema Top500 Liste nur angeracht, weil sie deine Aussage "und die ganzen Supercomputer würden nicht aus AMD oder Intel bestehen, denn hier spielt Geld keine Rolle." mehr oder weniger widerlegt hat. Die Liste ist wenig aussagekräftig und allgemein nkein guter Indikator. Ein Vergleich der PowerPC Systeme mit anderen wäre auch einfach dumm, weil Sierra und Summit extrem Anwendungsspezifisch entworfen sind. Aber genau das macht diene Behauptungen jetzt so richtig lächerlich. Dass die Aussage "Bei den Supercomputer ist nicht die absolute Rechenleistung entscheidend, sondern die Reichenleistung pro Quadratmeter. Oder die Rechenleistung pro 1U Node." Ziemlich falsch ist, ist nochmal ein anderes Thema. Supercomputer sind deutlich weniger durch die Fläche beschränkt alsa andere Systeme, weil es in vielen Hinsichten geringere Ansprüche gibt. Wenn du mal irgendwann die Chance hast, einen Supercomputer von innen zu sehen, dann mach dich gefasst, wie klein das ganze eigentlich ist. Aber selbst wenn das so sein sollte, dann ist deine Aussage ziemlich sicher gfalsch, bzw. ergibt sie keinen Sinn. In Sierra und Summit stecken AC922 Server, die jeweils 4U umfassen. Davon gibt es insgesamt etwa 4600 Knoten. Das macht eine Rechenleistung von etwa 32TFLOPS pro 4U System (wenn wir von der aggregierten Leistung herunterrechnen), bzw. 8TFLOPs pro 1U. Zum Vergleich: Die schnellsten EPYC CPUs (7763) erreichen pro Sockel etwa 1.6 TFLOPs. Das heißt, dass du 5 CPUs pro 1U bzw. 320 Kerne pro 1U bräuchtest, um diese Dichte zu erreichen. Aber es ist offensichtlich, dass das niucht funktioniert, weil die AC922 als GPU Server entworfen sind. Die Technik darin ist zu dem zeitpunkt absolut einzigartig und hat quasi keine Konkurrenz. Aber wie gesagt, alles ist anwedungsspezifisch.
@lukass8506
@lukass8506 2 жыл бұрын
@@joellegge460 Danke, dass du mich so unterhälst. Wie sollte ich Klimasimullationen sonst nennen? Klimamodelle? OpenFoam ist nicht mein Fachgebiet, das gebe ich zu, trotzdem habe ich schon einige Paper zum Thema GPU compute für OpenFoam gesehen. Konkret würde mir da u.A. RapidCDF, aktiv gearbeitet habe ich selbst aber noch nicht. Aber Fakt ist, dass es GPU beschleunigte Solver gibt, die Lib eingebunden werden können. Deshalb verstehe ich dein Problem nicht. "Sehr amüsant. OpenFoam ist die open Source CFD Software die sämtliche Wissenschaftler nutzen und auf sämtlichen Supercomputer installiert ist" Sämtliche Wissenschaftler also? Bei mir am Fachbereich hat das noch niemand genutzt und ich bin mir nicht einmal sicher ob es überhaupt auf dem cluster liegt. "FEM/ FVM ist ausschließlich Speicherbandbreiten limitiert, da bringt 1 TB pro Node überhaupt nichts. Denn bei FEM /FVM ist nicht der Speicher, sondern die CPU Zeit limitierend. Anstatt 1 TB RAM auf einen Node, sind vier Nodes mit je 256 GB Ram deutlich performanter." Habe ich das jemals anders behauptet? Nein. Ich weiß, es ist bestimmt eine überraschung für dich, aber die hpc Welt besteht nicht nur aus OpenFoam. "Du hast doch sicher niemals ein Klimamodell gesehen. Was soll das denn bitte für Modelle sein. Diese haben für gewöhnlich eine Netzauflösung von 50 km." Ich zitiere einfach mal den DWD: "Die horizontale Maschenweite des nativen ICON-Modellgitters beträgt 13 km. In der Vertikalen wird die Atmosphäre mit 90 Schichten aufgelöst, deren Obergrenze in 75 km Höhe liegt." Viel mehr braucht man da nicht zu zu sagen, aber ich soll derjenige sein, der noch nie damit gearbeitet hat. Aber ICON ist ja nur ein unbedeutenes Stück Software, das nur für so unwichtige Dinge wie den IPCC Bericht genutzt wird. Was du jetzt plötzlich mit 48GB GPUs willst, verstehe ich nicht. Die meisten Klimamodelle haben gar keinen GPU support und wenn ist dieser nur auf sehr kleine Teile beschränkt. "Keiner braucht einen Blade 6000 (die Maße stimmen übrigens, siehe Datenblatt)" Wann habe ich etwas zu den Maßen gesagt? "Fakt ist nun mal IBM Power hat in HPC keine nennenswerten Vorteile." Du machst dich langsam wirklich lächerlich. Wenn du aufmerksam lesen würdest, würedest du auch verstehen, was meine Aussagen sind. "Anscheinend hast Du weder meine Aussage, noch die TOP500 der Liste bezüglich Supercomputer verstanden" Wie kommst du zu dem Urteil, kannst du überhaupt lesen was ich schreibe? Deine Aussagen passen kein bisschen zu dem was ich geschrieben habe. "Deine Aussagen spiegeln nicht die Fakten wieder und IBM sieht es bezüglich technsiche Daten vollkommen anders wie Du." IBM sieht es anders ALS ich? wäre mir neu, warum bauen sie HPC Systeme? "von Dir kommen überhaupt keine Quellennachweise" Wofür willst du denn Quellen haben? Alle meine Aussagen lassen sich über OpenPower nachlesen. Du hasdt immer noch nicht die Quellen für deine Performancebehauptungen genannt, obwohl ich mehrfach danach gefragt habe, wo bleiben die? Viele von deinen "Argumenten" gehen kein bisschen auf meine konkreten Aussagen ein, wenn du meine Aussagen verzerrst, ist es klar, dass du etwas daran auszusetzen hast.
@lukass8506
@lukass8506 2 жыл бұрын
@@joellegge460 Schön, dass du immer noch keine Belege für deine Aussagen liefert, bestätigt nur meine Annahmen. Mir wird es echt zu dumm. ICON ist dynamisch und kann für unterschiedliche Regionen unterschiedliche Gittergrößen anlegen. Homogeneren Zonen können gröbere, Heterogeneren Zonen feinere Gitter zugeordnet werden. Aber warum sollte ich dir hier jetzt auch noch das Simulationsmodell erklären... Ich werde mal den sprechen, vielleicht stellen die dich ja ein, dann kannst du ja die Cluster Konfigurieren. Da hat der DWD wohl ganz umsonst über 400TB an RAM für die 500 Knoten gekauft, solltest du denen mal sagen. Ich geb dann auch mal weiter, dass man nicht mehr an Hochleistungs I/O arbeiten muss. Ich denke die vielen Petabytes, die zuletzt geschrieben wurden, waren nur Einbildung.
@cubytischer
@cubytischer Жыл бұрын
Epyic ist doch AMD!? Aber das sind doch IBM chips drin ? hee 🤔
@cobalt_only579
@cobalt_only579 2 жыл бұрын
Die Anlage ist wirklich beeindruckend und technisch echt gut durchdacht. Sehr interessant mal ein aktuelles Rechenzentrum von innen zusehen. Die Thematik Zündkerze Zündspule ist wirklich sowas von nebensächlich in so einem Video. Insgesamt ein sehr gutes Video sowas kannst du gerne öfter mal machen! 😉
@wismutkumpel
@wismutkumpel 2 жыл бұрын
Der allerbeste Beitrag mit allerbester Moderation, den ich bisher zum Thema aktuelle Server und Datenspeicher gesehen habe! Vielen Dank!
@mikariv3764
@mikariv3764 2 жыл бұрын
Sehr geiles Video! Komme aus der IT-Branche aber so ein riesiges Rechenzentrum sieht man nicht alle Tage. Danke, dass du uns mitgenommen hast. Freue mich auf Teil 2!
@RonaldSchneiderGiebenach
@RonaldSchneiderGiebenach 2 жыл бұрын
Wenn tatsächlich nur 2 solche Diesel da stehen, ists nicht soo gross. Aber die vielfalt der technischen Einrichtung ist toll gezeigt.
@hankey1986
@hankey1986 2 жыл бұрын
der8auer ersetzt die maus am sonntag ^^ geiler content meiner! endlich kann ich mir mal was unter einem Industrieserver vorstellen. Und aus HLSK Sicht einfach super zu sehen, was man täglich so plant ;)
@matteobenholz4677
@matteobenholz4677 2 жыл бұрын
Wirklich super Video, mir kam es an keiner Stelle zu langwierig oder ähnliches vor, sondern war die ganze Zeit interessiert und hätte gern noch mehr gesehen.
@raser1509
@raser1509 2 жыл бұрын
Alsolut krass. Sehr geiles Video. Sowas mal zu sehen und dann auch noch so klasse erklärt. Daumen Hoch und bitte mehr von solchen Restricted Areas.
@prototyppro
@prototyppro 2 жыл бұрын
Ein sehr schönes Video, ich kann mir vorstellen das es sehr viel aufwand gemacht hat das ganze zu Produzieren. Sicher nicht einfach wenn man immer aufpassen muss was man sagt oder zeigt! Und dennoch ein sehr schöner und lustiger Fehler in diesen paar Sekunden 28:30 - 28:50 (Sauerstoff, kann dann schon knapp werden :D )
@Layviz
@Layviz 2 жыл бұрын
So ein unfassbar geiles Video ich bin komplett geflasht
@der8auer
@der8auer 2 жыл бұрын
vielen Dank!
@Layviz
@Layviz 2 жыл бұрын
@@der8auer nichts zu danken ich danke für das Video 🙈💟
@janbuker8722
@janbuker8722 2 жыл бұрын
Das ist mal ein geniales Video und super interessant. 👍 Der Aufwand ist noch höher als ich gedacht habe.
@PatrickS536
@PatrickS536 2 жыл бұрын
Echt spitzenklasse & mega interessant. Von dem IBM Zeug darf gerne mehr kommen
@xXBoneBreakXx
@xXBoneBreakXx 2 жыл бұрын
21:05 die Lüfter laufen gerade im Idle Modus 😂
@boredmau5
@boredmau5 2 жыл бұрын
Mainframes erregen mich. 😏 So fängt der Sonntag gut an - danke, Roman!
@uwebecker8880
@uwebecker8880 2 жыл бұрын
Super. Sehr geiler Beitrag und großartigen Einblick in die Technik. Mega. Bitte mehr solcher Beiträge.
@glotrex
@glotrex 2 жыл бұрын
Hab ich mir sehr gerne angeschaut. Hab schon einige Server Landschaften gesehen, aber das hier übertrifft alles! Danke
@galsherp6173
@galsherp6173 2 жыл бұрын
also sorry, ich muss wirklich mal sagen, unglaublich gut und informativ gemacht... viel besser als das video von ltt und das heißt was... :) Danke
@felko3571
@felko3571 2 жыл бұрын
jop, die habens viel zu kurz gefasst
@CrackBitchOnCraigslist
@CrackBitchOnCraigslist 2 жыл бұрын
@@felko3571 Die Frage ist wie viel und lange die Filmen durften.
@svanmn_5035
@svanmn_5035 2 жыл бұрын
Mega interessantes Video. Nimm das nächste Mal eine Wärmebildkamera mit, dann kannst du die Kühlung besser erklären
@xmm5304
@xmm5304 2 жыл бұрын
Richtig starkes Video, perfekte Mischung aus Verständlichkeit und Komplexität. Ich konnte kaum glauben dass eine Stunde so schnell vorbei war ^^
@MichaelSelter
@MichaelSelter 2 жыл бұрын
Ich freue mich schon auf Part 2 ! Mega! Echte Traum-Technik ^^
@TheHoff6300
@TheHoff6300 2 жыл бұрын
geiles Video ! Nur eine Frage noch: Can it run Crysis?
@duevi4916
@duevi4916 2 жыл бұрын
Top Video alleine für die mention von der Benjamin Blümchen Torte
@der8auer
@der8auer 2 жыл бұрын
xD
@tobiastietgen4699
@tobiastietgen4699 2 жыл бұрын
Echt ein super Video. Vielen herzlichen Dank für die ganzen Einblicke.
@hunterblack1064
@hunterblack1064 2 жыл бұрын
Hammer Video. Super geworden. Ich finde ein Rechenzentrum von innen zu sehen ist sehr interessant. Die ganze Technik die immer im Hintergrund mitlaufen oder im Standby sein muss. Es steckt eine Menge hinter. Für den Inhalt ist die Länge des Videos okay. Ich bin schon gespannt auf ein weiteres Video.
@FunnyRaccoonMan
@FunnyRaccoonMan 2 жыл бұрын
Einfach RGB in den Dr.Oetker Servern, sehr schnieke 17:00
@Old1Papa
@Old1Papa 2 жыл бұрын
Hammer! Ich erinnere mich an Ende der 60er Jahre, als ich (noch völlig grün hinter den Ohren) ein solches Zentrum mit den technischen Stand damals besucht hatte. Und ja, auch ein Großdiesel hat Zündkerzen. Zwar nicht als Funkenstrecke, aber (früher) als Glühfaden. Damit wird das Gemisch (initial) gezündet. 😉
@davidz1264
@davidz1264 2 жыл бұрын
Deswegen heißen die Zündkerzen beim Diesel auch Glühkerzen 😉
@schreibhecht
@schreibhecht 2 жыл бұрын
Deshalb heißt das Ding G l ü h kerze :-)) Im Modell-Hobby haben Motoren oft Glühkerzen. Zündkerzen wären oft zu schwer. Nur die mit mehr Hubraum haben Zündkerzen. Mazda hat ein Motor gebaut der hat Benzin-Selbstzündung. Den Skyaktiv X Motor. Und weil die Bedinungen zur Selbstzündung nicht immer optmal sind hat der Motor zusätzlich Zündkerzen.
@nilsandresen9912
@nilsandresen9912 4 ай бұрын
Ist bei dem MTU nicht so. Der hat keine. Bei 50 Grad Vorwärmtemperatur zündet das Gemisch zuverlässig über Kompression
@xxquackixx178
@xxquackixx178 2 жыл бұрын
Sehr interessante Einblicke. Danke für die Mühen!
@spliffy8338
@spliffy8338 2 жыл бұрын
Wow vielen Dank für den Einblick super spannend das gezeigt zu bekommen! : )
@bunseN13372303
@bunseN13372303 2 жыл бұрын
Erinnere mich noch dich damals abonniert zu haben mit vllt 400 Abos und jetzt alles explodiert :D
@Patrick-vd2iq
@Patrick-vd2iq 2 жыл бұрын
Roman der Autofreak sagt : Falls der Diesel mal ein Zündkerzenproblem hat.." :D hihi
@stiegelzeine2186
@stiegelzeine2186 2 жыл бұрын
Auto freak bedeutet nicht gleich diesel Fahrer es gibt ja auch Elektro Autos und Benziner und gute Autos wie ein gtr fahren ja mit Benzin weil Diesel Müll ist und zum Glück bald verboten wird
@Sandemann-od2dp
@Sandemann-od2dp 2 жыл бұрын
Sehr cooles Video. Danke für eine Einblick in so ein Rechenzentrum. Man hat ja schon mal was gegoogelt oder gehört aber noch nie so im Detail gesehen. Immer wieder erstaunlich zu sehen was da an Technik und auch Hirnschmalz verbaut ist.
@jwjcuenkejeidiixjs66
@jwjcuenkejeidiixjs66 2 жыл бұрын
Krass was da alles dahinter steckt. Da hat sich deine Arbeit gelohnt. Bin auf den nächsten Teil gespannt 🙂
@f.g.287
@f.g.287 2 жыл бұрын
Verbesserungsvorschlag: Ich hätte mir erst rot angeschaut. Damit ich danach hätte sagen können "da ist das Gleiche in grün." luul :)
@Martynyuu
@Martynyuu 2 жыл бұрын
Wo steht der 10.000 l Dieseltank? Ich frag für nen Freund xD
@AlBoKa
@AlBoKa 2 жыл бұрын
Das ist so unfassbar Interessant, danke man für deine Arbeit!
@Saukaron
@Saukaron 2 жыл бұрын
Absolut beeindruckend, mit wie vielen Sicherheitsvorkehrungen hier, in dem von dir gezeigten Hetzner RZ und zb den DATEV RZs im Vergleich zum OVH „Container RZ“ gearbeitet wird. Da überrascht es immer weniger, dass der Brand in OVH Strasbourg so dermaßen schief gehen musste. Danke dir für diese Einblicke Roman!
@ziwwl5707
@ziwwl5707 2 жыл бұрын
Interessant, was andere RZ so treiben... Vergleichsweise aber doch ein eher kleines RZ, 2N (oder 2N+1) Redundanz damit saubere, A+B-Versorgung klar, Spiegel-RZ an anderem Ort, sieht nach Zertifizierung irgendwo zwischen Tier 3 oder vielleicht sogar 4 aus. Die Ordnung ist sehr Respektabel, das sieht in alten gewachsenen RZ leider eher nicht so gut aus... Von der Effizienz können sich ebenso viele andere RZ gut was abschneiden. Insgesamt sauber, Lob!
@RonaldSchneiderGiebenach
@RonaldSchneiderGiebenach 2 жыл бұрын
Die Redundanz ist beim Diesel mit 2N nicht übertrieben hoch. Wenn ein Diesel in Wartung ist, ist die Redimdanz bei Stromausfall null. Bei der USV siehts gleich aus. Sollte also ein Bauteil an einer solchen Anlage kaputt gehen, und auffrund Lieferketten...Du weisst was ich meine, dann bist du 10 wochen mit Redundamz 1n unterwegs. Fühlt sich nicht gut an für dem Betreiber.
@FNFleExZ
@FNFleExZ 2 жыл бұрын
Die Frage ist… Can it run crisis???
@remind1393
@remind1393 Жыл бұрын
Absolut krankes Video. Soviel Informationen und Einblicke und das alles umsonst auf KZbin. Danke dir.
@eintracht-infode
@eintracht-infode 2 жыл бұрын
Mega interessant, vielen Dank das du uns mitgenommen hast.
@YellowPhoenixDE
@YellowPhoenixDE 2 жыл бұрын
Du solltest dir vlt. nochmal das Rechenzentrum maincubes FRA-01 in Frankfurt ansehen. Die legen dort noch eine ganze Schippe drauf, vor allem hinsichtlich innovativer Ansätze beim Kühlkonzept und einem ganz anderen Design hinsichtlich Stromversorgung (Thema Ringverbund). Dennoch sehr spannendes Video und sehr lehrreich
@HierUsernameeinfugen
@HierUsernameeinfugen 2 жыл бұрын
Dieselmotoren haben Glühkerzen 😅
@alexandermartin7654
@alexandermartin7654 2 жыл бұрын
Echt super Einblick. Danke dafür
@Psysis1
@Psysis1 2 жыл бұрын
Wirklich verdammt interessantes Video! Danke für den Einblick!
@BBRaphiii
@BBRaphiii 2 жыл бұрын
Bielefeld gibz net xDD
@BBRaphiii
@BBRaphiii 2 жыл бұрын
Und ich freu mich über mein sfp+ 10gbit Equipment 😭🤣
@marcel151
@marcel151 2 жыл бұрын
So langsam ist es gut oder? Alt und schon lange nicht mehr witzig.
@RicardoBischof
@RicardoBischof 2 жыл бұрын
Danke für die genialen Einblicke!
@slrae9553
@slrae9553 2 жыл бұрын
Cool das man durch Leute wie dich Einblick in die aktuelle Server- Welt bekommt und krass wie viel Aufwand betrieben wird, "nur" um Notfälle zu vermeiden
@TigerNationDE
@TigerNationDE 2 жыл бұрын
Mega interessant, danke für diese Einblicke ins OEDIV. Komme aus der Nachbarstadt, und wollte da immer gern mal nen Blick reinwerfen, habe aber nie die Möglichkeit bekommen und dann hab ich es auch irgendwann verdrängt :D Daher war das richtig nice zu sehen. Bleib wie du bist Roman Nochmal danke :)
@matthiasj.5765
@matthiasj.5765 2 жыл бұрын
WoW bin sprachlos, was für eine Technik und Aufwand dahinter steckt. Und zu gleich mega Interessant.
@balthasar1981
@balthasar1981 2 жыл бұрын
Geniales Video, man sieht dir richtig an das es dir spass gemacht hat.
@__Mr.White__
@__Mr.White__ 2 жыл бұрын
Beeindruckend. Und sehr gut präsentiert.
@simonzobrist4171
@simonzobrist4171 2 жыл бұрын
Auch wenn man schon so einige Rechenzentren gesehen hat, ist es immer wieder beeindruckend und sehr interessant. Gut produziertes Video und auch sehr verständlich erklärt. Danke an alle Beteiligten für diese Einblicke. Finde es nach wie vor nicht selbstverständlich, dass man sowas öffentlich macht.
Wir bauen einen Server im Berliner Rechenzentrum von IONOS
25:43
🍟Best French Fries Homemade #cooking #shorts
00:42
BANKII
Рет қаралды 46 МЛН
Pray For Palestine 😢🇵🇸|
00:23
Ak Ultra
Рет қаралды 36 МЛН
1 класс vs 11 класс (неаккуратность)
01:00
КАРМАНЧИК 2 СЕЗОН 6 СЕРИЯ
21:57
Inter Production
Рет қаралды 506 М.
Dog 🐶📿🌳 Reverse Video Slow Motion #funnyreversecat #funny
0:08
Funny Reverse Cat
Рет қаралды 10 М.
Der Hochwasser PC aus Ahrweiler - Teil 1
23:30
der8auer
Рет қаралды 879 М.
The Petabyte Pi Project
22:27
Jeff Geerling
Рет қаралды 2,1 МЛН
i love you subscriber ♥️ #iphone #iphonefold #shortvideo
0:14
Main filter..
0:15
CikoYt
Рет қаралды 1 МЛН
Жёсткий тест чехла Spigen Classic C1
0:56
Romancev768
Рет қаралды 164 М.
С ноутбуком придется попрощаться
0:18
Up Your Brains
Рет қаралды 328 М.
wireless switch without wires part 6
0:49
DailyTech
Рет қаралды 1,3 МЛН