Danke für den Beitrag, aber einige Anmerkungen von mir ggf. zur Diskussion: 4:42 - ZFS sollte wenn möglich immer mit einem HBA betrieben werden. Jeglicher Hardware RAID Controller verhindert die Reparaturmöglichkeiten von Fehlerhaften Sektoren auf der Platte. Ist letztlich auch rausgeworfenes Geld und unnötig. 5:50 Bitte eine Erklärung wo Hardware RAID flotter ist. Mir fallen Punkte ein, wo Hardware RAID extrem langsam ist. Diese Pauschalisierung passt nicht! 06:08 Welcher Vorteil hat Batterie Pufferung für ZFS, welches auf dem Prinzip alles oder nichts arbeitet? Ich hätte bedenken mit einem RAID5 und Stromausfall selbst mit Batterie Pufferung. 13:10 Es ist möglich die SSD durch eine Platte zu ersetzen und man kann diese einzelne Platte auch nachträglich noch Spiegeln und hätte eine Redundanz. Nachteilig ist nur, dass ZFS in den RAID Gruppen nicht weitere RAID Gruppen in Form RAIDZ oder RAIDZ2 zulässt. Wäre es möglich, so könnte man auch aus der Einzelplatte wieder ein RAID 5 Gruppe erstellen und die Einzelplatte aus dem Spiegel entfernen. 14:08 Ich glaube eher, er wird aus 6 Platten drei zusätzliche Spiegel a 2 Platten erstellen und hinzufügen. Es gibt meines Wissens nach nur RAID 10 oder RAID 01 in der 0,1 Kombination. Ein RAID 11 wäre ggf. über zwei separate Hardware RAID mit RAID 10 und ZFS Spiegel aus diesesn zwei Controllern möglich. Nur für welchen Zweck? Letztlich würde ZFS RAIDZ3 ähnlich ausfallsicher sein, da es die Spareplatte als Spiegel während des Resilvering einfügt. 14:46 Der ZFS ZIL (Schreibspeicher) ist für die synchronen Schreiboperationen, solange dieser Speicher nicht voll geschrieben ist. Bei Überlauf des ZIL wird auch dieser Speicher umgangen und direkt auf die Platte geschrieben. 14:52 Es ist nicht alles weg, man darf hier wieder RAID5 nicht mit RAIDZ vergleichen. Ebenso ist nicht bekannt, was der Hardware RAID Controller wirklich noch im Puffer hat. Was ist geschrieben, was nicht? 15:24 Frage: Ist bei FreeNAS mittlerweile ein automatisches Einbinden der Spare Platte wirklich realisiert? Kenne die aktuelle Version nicht. 19:42-20:20 Vorsicht mit GB (1000MB) und GiB (1024MiB). 5400 Gigabyte sind 5029 Gibibyte. Wir denken noch immer in Gigabyte und meinen wirklich Gibibyte. Ich falle auch sehr gerne darauf rein. So groß ist die Verschwendung also nicht. Platten werden in GB nicht GiB angegeben. K, M, G, T stehen bei ZFS meist für die 2er Potenzen nicht 10er Potenzen. 20:22 Brutto/Netto Wert sehr schlecht... Naja, einer der sehr großen CopyOnWrite NAS Hersteller hat dafür einen Rechner erstellt und kommt gerade mal auf 61% selbst bei einer RAID5/6 ähnlichen Nutzung. Was hier immer Weggelassen wird sind z.B. Snapshots, Datenintegrität und die Flexibilität von ZFS. ZFS ist zudem nicht an Controller oder Anschlusstechnik gebunden. Mal ehrlich ein 60TB NAS dieser großen Anbieter kostet teilweise bis zu 100000 Euro ohne Cluster. 60TB in RAID 10 oder 120TB in RAID 5/6 kosten noch 15000 Euro (neu). Mit FreeNAS oder NappIT ist man bis zu sechsmal günstiger unterwegs. 21:54 Latenz Ok, aber wann? ZFS komprimiert erst, wenn der Block auf die Platte geschrieben wird und entpackt beim Lesen. Bevor das ZFS System in Latenzprobleme kommt, würde ich lieber mal dem Datenbankserver mehr RAM gönnen und eine schnellere Anbindung. Derzeit nutze ich 10 Oracle Datenbanken mit LZ4 Compression. Selbst unser Workingset der VMware Umgebung mit 250 VM’s passt in 230GB ARC bei 256GB RAM. PS: Setze mal „atime“ auf off. 24:58 Man sollte die RAID Level auch nicht bei ZFS mischen, obwohl es möglich ist. Zukünftig sind sowieso nur noch ZFS MIRROR, RAIDZ2 oder RAIDZ3 (triple RAID) sinnvoll. Alleine durch die Plattengröße kommen wir in Regionen, wo ein Rebuild bei RAID5 durch Fehlerraten schon zu weiteren Fehlern führen kann. 45:36 und 47:04 S.M.A.R.T auch ein Thema, wo man sich fragt was es nützt. Ich hatte schon zweimal den Fall, das dieses System erst einen Fehler meldete, wo die Platte komplett ausgefallen war. Eine Prüfung kommt durch ZFS nicht FreeNAS. Bei jedem Lesevorgang wird die Information auf Fehler geprüft und mit „zpool scrub“ sogar über alle Daten. 47:16 zeigt ja deutlich das Problem. Ein RAID Controller verhindert die Prüfbarkeit der Platten, wohl auch S.M.A.R.T.
@dieterkalt42818 жыл бұрын
+Bernd Schaub wow, viel arbeit reingesteckt. danke
@berndschaub59058 жыл бұрын
Danke!. Zur Info, ich kenne ZFS seit 2008 und ich finde die Arbeit die Christian Zengel macht sehr gut. Es wäre nur etwas besser, wenn er nicht so hibbelig wäre und die Themen etwas besser vorbereitet. In einem SysOP's Beitrag hatte er auch einen ähnlichen Klopper drinnen, er hatte glaube ich die Blockgröße auf wenige Bytes gesetzt und wunderte sich über den schlechten Durchsatz. Ich wünsche ihm viel Glück und viel Erfolg, freue mich auf neue Beiträge.
@zfsrocks8 жыл бұрын
+Bernd Schaub Danke für deine offenen Worte:) Blocksize hat man oder eben nicht:)))
@seidihrelektrisch4 жыл бұрын
Stefan Synth stand doch für sich
@zfsrocks8 жыл бұрын
Ist so weit nicht verkehrt, jedoch ist ein replizierter HW Raid mit ZFS mehr wert als ohne. Oft ist halt die Hardware vorhanden und muss weiter laufen! Danke für deinen Kommentar Bernd
@djspecialpaul7 жыл бұрын
Schönes Video - *mhh* Ich nnutze ZFS sehr gerne und oft. Haltet mich verrückt - werde bald ein 48x 1TB SSD NAS machen *xd* - mit einer Anbindung via 10Gigabit an meine Videoworkstation - da Rödeln 4x 1TB SSD PCIe drinne ;). Fakt ist - man ist immer bekloppt was man macht ;).
@schweinekillerlp22456 жыл бұрын
Und wie sieht's aus mit deinem Projekt? :D
@djspecialpaul6 жыл бұрын
Das Teil ist am laufen^^ ;)
@uzefulvideos34406 жыл бұрын
Will gar nicht wissen, wie viel das gekostet hat... :)
@llothar685 жыл бұрын
Ja ist bloed und zeigt das Strom noch viel zu guestnstig ist wenn Leute sowas fuer privat machen.
@zfsrocks8 жыл бұрын
Rate my Raid:)
@lutzhase49526 жыл бұрын
wie kann man 47 min am stück so viel unsinn erzählen...