Wie im letzten Video der Reihe kommentiert, wollte ich die Unterschiede zu meinem IHK-Projekt kennzeichnen: Für HA-Storage habe ich Ceph benutzt. Dafür brauch man zwar eine, oder mehrere zusätzliche Festplatten, allerdings läuft die Virtuelle-Festplatte der VM auf dem gemeinsamen Speicherpool von Ceph. So benötigt man die Replikation nicht und ist immer auf dem aktuellen Stand der VM. So kann man sich auch das NAS sparen. Aber abgesehen davon, mal wieder ein super Video. Ist für Neuanfänger im Thema Proxmox unglaublich hilfreich
@samegoi Жыл бұрын
Sehr spannend. Das schaue ich mir mal an.
@jornheipmann7641 Жыл бұрын
Ja, ich kann Ceph nur empfehlen, dann spart man sich das Replizieren, ist einfach aufzusetzen und man hat die Festplatten auch noch redundant aber mit mehr Rohspeicher. Nachteil ist eventuell das die Zugriffe dann über das Netzwerk gemacht werden müssen, was Performance Einbrüche der VMs geben kann.
@quarex8978 Жыл бұрын
Hi Noah, ich bin gerade dabei exakt das gleiche Thema als Abschlussprojekt zu gestalten, gibt es eine Möglichkeit mit dir in Kontakt zu treten? haha
@Quemix Жыл бұрын
Top Darstellung und Erklärung der Inhalte und Schritte! Danke für den Aufwand :)
@Nextgen333411 ай бұрын
Sehr gut erklärt.
@iTob863 ай бұрын
Super Video, Danke!
@Nina-yw1dj Жыл бұрын
Wäre cool gewesen auch etwas über Ceph zu erklären und was die Unterschiede zu ZFS sind. Ansonsten super Video!
@technikfuzzie4 ай бұрын
Moin Daniel tolles Video vielen Dank für die Infos. Was mich noch mal interessieren würde wie es mit dem angesprochenen zentralen Storage aussieht.
@cl4vi510 ай бұрын
Danke für das aufschlussreiche Video! Aber wäre Ceph nicht sinnvoller gewesen?
@tiny_house_micha Жыл бұрын
Danke für das lehrreiche Video. Aber mir stellt sich da immer noch eine Frage. Die Nodes haben ja jeweils eine unterschiedliche IP. Wenn ich darauf ein Webhosting betreiben möchte, brauche ich dann FailoverIP's? Muss ich die Domains dann auf die Failover IP registrieren? Oder regelt das Proxmox irgendwie. Das ist mir noch unklar.
@polyfly100 Жыл бұрын
Unter Proxmox vergeben Sie einer VM oder LXC eine eigne IP Adresse unabhängig von ihrem Einsatzzweck (Webhosting, etc.). Sobald die VM oder LXC auf dem einen Node stirbt wird sie auf dem anderen repliziert. Die IP Adresse der VM oder LXC bleibt gleich.
@TEv1rus Жыл бұрын
Ich finde das Thema interessant, danke für das Video. Eine Frage dazu, ich habe das richtig verstanden, dass die Maschine nicht automatisch wieder auf pve01 migriert wird, wenn die Maschine wieder online ist? Das muss händisch gemacht werden? :)
@apfelcast Жыл бұрын
Ja, den Weg zurück musst du selbst anstoßen.
@Jan-PhilipDahlke Жыл бұрын
Hallo, super Video, hat alles wunderbar hingehauen. Trotzdem habe ich eine Frage: was mache ich, wenn nicht eine ganze Maschine, sondern nur die (in diesem Beispiel DATA1) Festplatte stirbt? In meinem Versuch war der Container noch als aktiv gekennzeichnet, allerdings hat nichts mehr funktioniert (wie denn auch ohne Speicher). Der Container ist nicht allein migriert und manuell geht auch nichts. Nur wenn die Maschine manuell abgeschaltet wird, funktioniert die Migration. Gibt es eine Möglichkeit einen Container automatisch neu zu starten, falls er sich aufgehängt hat? Vielen Dank.
@anis57094 ай бұрын
Wie steht es um die öffentliche IP der virtuellen Maschine? Wenn die anderen Nodes in einem anderen Rechenzentrum liegen, könnte das ein Problem darstellen.
@navin-vibes Жыл бұрын
Habe einen Node am laufen, 1 Platte kein ZFS. Muss ich diesen Node komplett platt machen und die Platte mit ZFS formatieren oder kann ich temporär eine 2 USB-SSD anschließen und die VM´S darauf verschieben um so die 1 Platte in ZFS zu konvertieren, was ja wohl Voraussetzung ist um ein cluster zu betreiben. Danke !
@alexanderclara3406Ай бұрын
kann man eigentlich einen Cluster verbinden wenn 2FA beim root Account Aktiv ist?
@steffenforst6773 Жыл бұрын
Und noch eine Frage den virtuellen Speicher auf ein NAS abzulegen ist von der Geschwindigkeit das Systems langsamer als direkte nvme s oder ?
@samegoi Жыл бұрын
Kann man das Cluster auch über zwei Netzwerkkarten pro Node über separate Switche betreiben, falls mal ein Switch ausfällt?
@apfelcast Жыл бұрын
Ja, das geht. Du musst dann beim Erstellen bzw. Beitreten den Clusters nur beachten, dass du für die Clusteraktivität die richtige Karte wählst.
@jornheipmann7641 Жыл бұрын
Am besten sogar mit 3 Netzwerkkarten je Server, von denen 2 für ein Mesh genutzt werden, dann gibt es für das Clusternetwork keinen Hub als Single point of failure. Wird insbesondere zusammen mit Ceph interessant. Man muss aber auch die Kirche im Homeserver Dorf lassen, daher habe ich für das Clusternetwork in 2.5gb Hub installiert und für den Zugriff gehe ich über den normalen 1GB Switch mit 2 Netzwerkkarten je Node.
@steffenforst6773 Жыл бұрын
Hi, mal ne Frage zum ZFS. Wenn ich auf meinen (NUC Clustern) jeweils 2 Festplatten habe muss ich das RAID dann schon irgendwie vorher konfigurieren oder kann ich das dann erst im Proxmox eben unter ZFS machen? Oder wie ist hier der richtig Weg zur Ausfallsicherheit?