Discussion:
Welches filesystem fuer 1 PB?
(zu alt für eine Antwort)
Ulli Horlacher
2024-05-01 09:13:12 UTC
Permalink
Gibt es Empfehlungen welches filesystem man fuer GROSSE Partitionen
verwenden sollte?
Es dreht sich hierbei um 1 PB hardware RAID volume.
Das wird primaer fuer backups und Archivierung verwendet.

Fuer Software-RAID wuerde ich ZFS nehmen, ist hier aber ueberfluessig,
Linux sieht nur ein /dev/sdX block device.
--
Ullrich Horlacher Server und Virtualisierung
Rechenzentrum TIK
Universitaet Stuttgart E-Mail: ***@tik.uni-stuttgart.de
Allmandring 30a Tel: ++49-711-68565868
70569 Stuttgart (Germany) WWW: https://www.tik.uni-stuttgart.de/
Marco Moock
2024-05-01 09:17:45 UTC
Permalink
Post by Ulli Horlacher
Gibt es Empfehlungen welches filesystem man fuer GROSSE Partitionen
verwenden sollte?
Es dreht sich hierbei um 1 PB hardware RAID volume.
Das wird primaer fuer backups und Archivierung verwendet.
Fuer Software-RAID wuerde ich ZFS nehmen, ist hier aber ueberfluessig,
Linux sieht nur ein /dev/sdX block device.
ZFS wäre da doch geeignet, denn das unterstützt solch Große Datenträger
und auch fette Dateien. Was spricht denn gegen ZFS in diesem Fall?

Copy-on-write hat auch den massiven Vorteil, dass ein Dateisystemcheck
da halt nicht Tage dauert.
--
Gruß
Marco

Spam und Werbung bitte an
***@nirvana.admins.ws
Ulli Horlacher
2024-05-01 09:36:51 UTC
Permalink
Post by Marco Moock
Post by Ulli Horlacher
Gibt es Empfehlungen welches filesystem man fuer GROSSE Partitionen
verwenden sollte?
Es dreht sich hierbei um 1 PB hardware RAID volume.
Das wird primaer fuer backups und Archivierung verwendet.
Fuer Software-RAID wuerde ich ZFS nehmen, ist hier aber ueberfluessig,
Linux sieht nur ein /dev/sdX block device.
ZFS wäre da doch geeignet, denn das unterstützt solch Große Datenträger
und auch fette Dateien.
Das tun btrfs (bis 16 EB!), ext4 und xfs auch.
Post by Marco Moock
Was spricht denn gegen ZFS in diesem Fall?
Der SEHR hohe RAM Verbrauch. Faustregel 1 GB RAM pro 1 TB Storage
Ausserdem ist nicht klar, ob Oracle einfach mal wieder die
Lizenzbedingungen veraendert und Ubuntu dann ZFS aus der Distribution
schmeisst.
--
Ullrich Horlacher Server und Virtualisierung
Rechenzentrum TIK
Universitaet Stuttgart E-Mail: ***@tik.uni-stuttgart.de
Allmandring 30a Tel: ++49-711-68565868
70569 Stuttgart (Germany) WWW: https://www.tik.uni-stuttgart.de/
Hergen Lehmann
2024-05-02 14:53:20 UTC
Permalink
Post by Ulli Horlacher
Post by Marco Moock
Was spricht denn gegen ZFS in diesem Fall?
Der SEHR hohe RAM Verbrauch. Faustregel 1 GB RAM pro 1 TB Storage
Die Faustregel gilt nur, wenn man in einer Enterprise-Umgebung auf
maximalen Datendurchsatz aus ist und alle Features nutzt. Vor allem die
Deduplizierung ist wohl sehr RAM-lastig.

In "normalen" Szenarien läuft ZFS ab ~8GB RAM sauber und ohne spürbare
Engpässe.
Marc Haber
2024-05-02 17:58:43 UTC
Permalink
Post by Hergen Lehmann
Post by Ulli Horlacher
Post by Marco Moock
Was spricht denn gegen ZFS in diesem Fall?
Der SEHR hohe RAM Verbrauch. Faustregel 1 GB RAM pro 1 TB Storage
Die Faustregel gilt nur, wenn man in einer Enterprise-Umgebung auf
maximalen Datendurchsatz aus ist und alle Features nutzt. Vor allem die
Deduplizierung ist wohl sehr RAM-lastig.
In "normalen" Szenarien läuft ZFS ab ~8GB RAM sauber und ohne spürbare
Engpässe.
Auch in dieser Dateisystemsgröße?

Grüße
Marc
--
----------------------------------------------------------------------------
Marc Haber | " Questions are the | Mailadresse im Header
Rhein-Neckar, DE | Beginning of Wisdom " |
Nordisch by Nature | Lt. Worf, TNG "Rightful Heir" | Fon: *49 6224 1600402
Marco Moock
2024-05-02 18:01:27 UTC
Permalink
Post by Marc Haber
Post by Hergen Lehmann
Post by Ulli Horlacher
Post by Marco Moock
Was spricht denn gegen ZFS in diesem Fall?
Der SEHR hohe RAM Verbrauch. Faustregel 1 GB RAM pro 1 TB Storage
Die Faustregel gilt nur, wenn man in einer Enterprise-Umgebung auf
maximalen Datendurchsatz aus ist und alle Features nutzt. Vor allem
die Deduplizierung ist wohl sehr RAM-lastig.
In "normalen" Szenarien läuft ZFS ab ~8GB RAM sauber und ohne
spürbare Engpässe.
Auch in dieser Dateisystemsgröße?
Ohne damit Erfahrung zu haben: Warum soll das groß anders sein, wenn
kaum drauf gearbeitet wird wie bei einem Archiv?
Welchen Grund sollte es geben, Daten im RAM zu haben, außer als Cache,
wenn man die gerade nicht braucht?
--
Gruß
Marco

Spam und Werbung bitte an
***@nirvana.admins.ws
Hergen Lehmann
2024-05-02 18:21:16 UTC
Permalink
Post by Marc Haber
Post by Hergen Lehmann
In "normalen" Szenarien läuft ZFS ab ~8GB RAM sauber und ohne spürbare
Engpässe.
Auch in dieser Dateisystemsgröße?
Mit Praxiserfahrungen kann ich derzeit "nur" bis 24TB (netto, RAID-Z2)
dienen. Der betreffende Server hat sogar insgesamt nur 8GB RAM. Ich kann
gerade nicht nachschauen, wie viel sich ZFS davon aneignet, "1GB pro
1TB" sind es jedenfalls offenkundig nicht.

Ich sehe keinen plausiblen Grund, warum für Daten, die unangetastet auf
der Platte liegen, größere Mengen RAM erforderlich wären. Auch ein
CoW-Filesystem hat an dieser Stelle keinen Overhead. Letztlich wird der
RAM-Bedarf davon abhängen, auf welches Datenvolumen tatsächlich aktiv
zugegriffen wird und ob man bei selten angefragten Daten auch mal
Zugriffszeiten spüren darf - so wie bei jedem anderen FS auch.
Marcel Mueller
2024-05-01 14:04:09 UTC
Permalink
Post by Marco Moock
Copy-on-write hat auch den massiven Vorteil, dass ein Dateisystemcheck
da halt nicht Tage dauert.
Den Zusammenhang verstehe ich nicht.

Ein Dateisystemcheck dauert genau dann ewig, wenn das Dateisystem kein
Journal hat. Mit so etwas traut sich heute glücklicherweise keiner mehr
auf die Straße. Mit CoW hat das jedenfalls nichts zu tun.


Marcel
Markus Schaaf
2024-05-01 15:02:30 UTC
Permalink
Post by Marcel Mueller
Ein Dateisystemcheck dauert genau dann ewig, wenn das Dateisystem kein
Journal hat. Mit so etwas traut sich heute glücklicherweise keiner mehr
auf die Straße.
Was auch ein Nachteil sein kann. Bei Enterprise-Platten mit
Sudden-Power-off-Protection kostet das Journal unnütz Performance
und TBW.

MfG
Marcel Mueller
2024-05-02 06:32:31 UTC
Permalink
Post by Markus Schaaf
Post by Marcel Mueller
Ein Dateisystemcheck dauert genau dann ewig, wenn das Dateisystem kein
Journal hat. Mit so etwas traut sich heute glücklicherweise keiner mehr
auf die Straße.
Was auch ein Nachteil sein kann. Bei Enterprise-Platten mit
Sudden-Power-off-Protection kostet das Journal unnütz Performance und TBW.
Nichts ist umsonst, aber unnütz würde ich "Datenintegrität" nicht nennen
wollen. Ohne sie kann man bei einem Stromausfall keinen definierten
Zustand mehr herstellen und verliert dabei formell gesehen immer alle
Daten, da man nicht weiß, wo der Fehler stecken könnte.

Aber deswegen kann man Journale, die ja eigentlich eher Datenbanken
sind, auch auf andere Devices legen.


Marcel
Peter J. Holzer
2024-05-02 18:11:57 UTC
Permalink
Post by Marcel Mueller
Post by Markus Schaaf
Post by Marcel Mueller
Ein Dateisystemcheck dauert genau dann ewig, wenn das Dateisystem kein
Journal hat. Mit so etwas traut sich heute glücklicherweise keiner mehr
auf die Straße.
Was auch ein Nachteil sein kann. Bei Enterprise-Platten mit
Sudden-Power-off-Protection kostet das Journal unnütz Performance und TBW.
Nichts ist umsonst, aber unnütz würde ich "Datenintegrität" nicht nennen
wollen. Ohne sie kann man bei einem Stromausfall keinen definierten
Zustand mehr herstellen und verliert dabei formell gesehen immer alle
Daten, da man nicht weiß, wo der Fehler stecken könnte.
Dagegen sollte ja wohl die "Sudden-Power-off-Protection" helfen. Ich bin
da aber eher skeptisch. Die Platte ist ja nicht der einzige Ort in einem
Computersystem, in dem sich im Fall eines Stromausfalls ungeschriebene
Daten befinden können. Aber immerhin sollte sowas vor Korruption auf
Blockebene schützen. Um den Rest können sich dann höhere Schichten
kümmern.
Post by Marcel Mueller
Aber deswegen kann man Journale, die ja eigentlich eher Datenbanken
sind, auch auf andere Devices legen.
Ein Journal ist keine Datenbank, es ist eine Technik, die unter anderem
auch von Datenbanksystemen eingesetzt wird.

hp
Marco Moock
2024-05-01 15:04:31 UTC
Permalink
Post by Marcel Mueller
Post by Marco Moock
Copy-on-write hat auch den massiven Vorteil, dass ein
Dateisystemcheck da halt nicht Tage dauert.
Den Zusammenhang verstehe ich nicht.
Ein Dateisystemcheck dauert genau dann ewig, wenn das Dateisystem
kein Journal hat. Mit so etwas traut sich heute glücklicherweise
keiner mehr auf die Straße. Mit CoW hat das jedenfalls nichts zu tun.
CoW stellt genau das sicher - das Dateisystem hat einen konsistenten
Zustand. Das Journal halt nicht, verringert dafür die Zeit für den
Check.

Wenn du mich fragst: Ich sehe in CoW keine Nachteile, also warum nicht
nutzen?
--
Gruß
Marco

Spam und Werbung bitte an
***@nirvana.admins.ws
Marcel Mueller
2024-05-02 06:38:06 UTC
Permalink
Post by Marco Moock
Post by Marcel Mueller
Post by Marco Moock
Copy-on-write hat auch den massiven Vorteil, dass ein
Dateisystemcheck da halt nicht Tage dauert.
Den Zusammenhang verstehe ich nicht.
Ein Dateisystemcheck dauert genau dann ewig, wenn das Dateisystem
kein Journal hat. Mit so etwas traut sich heute glücklicherweise
keiner mehr auf die Straße. Mit CoW hat das jedenfalls nichts zu tun.
CoW stellt genau das sicher - das Dateisystem hat einen konsistenten
Zustand. Das Journal halt nicht, verringert dafür die Zeit für den
Check.
Wenn du mich fragst: Ich sehe in CoW keine Nachteile, also warum nicht
nutzen?
Unter CoW hatte ich eher das Reflink Feature verstanden, nicht auf
Blockebene bei jedem Schreibvorgang.

Und CoW hat sehr wohl Nachteile. Es erhöht den Fragmentierungsgrad
deutlich, was zumindest bei Dreheisen die Performance in den Tiefkeller
katapultieren kann. Aber auch bei Extent-basierenden Dateisysteen (also
allen brauchbaren) steigt der Verwaltungsoverhead.

Andererseits können SSDs sowieso nichts anderes, insofern wäre es da ein
Heimspiel. Allerdings braucht man dann eine vom Dateisystem in Software
gemanagte Verwaltung der Flashblöcke, was m.E. nicht einmal ZFS kann.
Im professionellen Bereich wird diese Technik aber meines Wissens
eingesetzt.


Marcel
Peter J. Holzer
2024-05-02 18:12:48 UTC
Permalink
Post by Marcel Mueller
Andererseits können SSDs sowieso nichts anderes, insofern wäre es da ein
Heimspiel. Allerdings braucht man dann eine vom Dateisystem in Software
gemanagte Verwaltung der Flashblöcke, was m.E. nicht einmal ZFS kann.
Im professionellen Bereich wird diese Technik aber meines Wissens
eingesetzt.
Was ist "der professionelle Bereich"?

hp
Ralph Aichinger
2024-05-02 18:17:46 UTC
Permalink
Post by Peter J. Holzer
Was ist "der professionelle Bereich"?
Das ist wie bei Fotoequipment, man macht das Ding schwarz, schreibt
"professional" drauf und verdoppelt den Preis ;)

/ralph
Rolf Buenning
2024-05-03 07:53:16 UTC
Permalink
Post by Ralph Aichinger
Post by Peter J. Holzer
Was ist "der professionelle Bereich"?
Das ist wie bei Fotoequipment, man macht das Ding schwarz, schreibt
"professional" drauf und verdoppelt den Preis ;)
Wie auch bei anderen Dingen.

Rolf
Marc Haber
2024-05-03 08:03:37 UTC
Permalink
Post by Rolf Buenning
Post by Ralph Aichinger
Post by Peter J. Holzer
Was ist "der professionelle Bereich"?
Das ist wie bei Fotoequipment, man macht das Ding schwarz, schreibt
"professional" drauf und verdoppelt den Preis ;)
Wie auch bei anderen Dingen.
Wenn man das so wie bei Werkzeugen sieht, sind die Dinge, die nicht
das "professional" Label tragen, oftmals nicht für acht Stunden
täglicher Benutzung dimensioniert. Ein Amateurwerkzeug überlebt einen
einzelnen Hausbau nicht, das gleich aussehende Werkzeug des
Handwerkers ist auch nach dem zehnten Haus noch nicht kaputt.

"Professionelles" IT-Zeugs hat oft Schnittstellen, die man in Cluster-
und Redundanzsetups braucht, lässt sich in Racks einbauen etc und ist
dafür unflexibler im Einsatz. Um zum Thema zurückzukommen, kann man in
einem größeren Storagesetup sicherlich effizienter Arbeiten wenn Wear
Leveling etc in einem System mit hundert mal 4 TB Flash zentral
gemanaget wird und nicht in jedem 4-TB-Modul einzeln, wie das bei SSDs
für den Einzel-Einbau in PCs gemacht wird.

Grüße
Marc
--
----------------------------------------------------------------------------
Marc Haber | " Questions are the | Mailadresse im Header
Rhein-Neckar, DE | Beginning of Wisdom " |
Nordisch by Nature | Lt. Worf, TNG "Rightful Heir" | Fon: *49 6224 1600402
Ralph Aichinger
2024-05-03 08:55:45 UTC
Permalink
Post by Marc Haber
"Professionelles" IT-Zeugs hat oft Schnittstellen, die man in Cluster-
und Redundanzsetups braucht, lässt sich in Racks einbauen etc und ist
dafür unflexibler im Einsatz. Um zum Thema zurückzukommen, kann man in
einem größeren Storagesetup sicherlich effizienter Arbeiten wenn Wear
Leveling etc in einem System mit hundert mal 4 TB Flash zentral
gemanaget wird und nicht in jedem 4-TB-Modul einzeln, wie das bei SSDs
für den Einzel-Einbau in PCs gemacht wird.
Ich glaube wir können uns aber drauf einigen, dass ein
1PB-Storage-System aus dem OP auf jeden Fall als "professionell"
bezeichnet werden kann, selbst wenn es aus "Consumer"-Platten
zusammengestöpselt wird. Es ist ja bekannt, dass gerade die größten
Nutzer von Festplatten oft des Preises wegen schnöde "Consumer"-Platten
verwenden, und die sind sicher professionell.

/ralph
Marc Haber
2024-05-03 10:43:53 UTC
Permalink
Post by Ralph Aichinger
Post by Marc Haber
"Professionelles" IT-Zeugs hat oft Schnittstellen, die man in Cluster-
und Redundanzsetups braucht, lässt sich in Racks einbauen etc und ist
dafür unflexibler im Einsatz. Um zum Thema zurückzukommen, kann man in
einem größeren Storagesetup sicherlich effizienter Arbeiten wenn Wear
Leveling etc in einem System mit hundert mal 4 TB Flash zentral
gemanaget wird und nicht in jedem 4-TB-Modul einzeln, wie das bei SSDs
für den Einzel-Einbau in PCs gemacht wird.
Ich glaube wir können uns aber drauf einigen, dass ein
1PB-Storage-System aus dem OP auf jeden Fall als "professionell"
bezeichnet werden kann, selbst wenn es aus "Consumer"-Platten
zusammengestöpselt wird.
Können wir.
Post by Ralph Aichinger
Es ist ja bekannt, dass gerade die größten
Nutzer von Festplatten oft des Preises wegen schnöde "Consumer"-Platten
verwenden, und die sind sicher professionell.
Gerade weil bei so einem "Missbrauch" von Consumer-Produkten es sich
lohnen dürfte, den darum gebauten Systemen Sonderverhalten wie z.B.
lange Timeouts beizubringen.

Grüße
Marc
--
----------------------------------------------------------------------------
Marc Haber | " Questions are the | Mailadresse im Header
Rhein-Neckar, DE | Beginning of Wisdom " |
Nordisch by Nature | Lt. Worf, TNG "Rightful Heir" | Fon: *49 6224 1600402
Markus Koßmann
2024-05-03 13:37:06 UTC
Permalink
Post by Ralph Aichinger
Ich glaube wir können uns aber drauf einigen, dass ein
1PB-Storage-System aus dem OP auf jeden Fall als "professionell"
bezeichnet werden kann, selbst wenn es aus "Consumer"-Platten
zusammengestöpselt wird.
Wenn man als "Consumer"-Platten Platten definiert, die nicht auf 24/7
Betrieb ausgelegt sind wird man für ein solches ein Storage-System
nicht auf "Consumer"-Platten zurückgreifen. Denn man wird große (>= 20
TB) HDDs einsetzen wollen. Und da sind alle auf Dauerbetrieb ausgelegt.
Ralph Aichinger
2024-05-03 15:44:27 UTC
Permalink
Post by Markus Koßmann
Wenn man als "Consumer"-Platten Platten definiert, die nicht auf 24/7
Betrieb ausgelegt sind wird man für ein solches ein Storage-System
nicht auf "Consumer"-Platten zurückgreifen. Denn man wird große (>= 20
TB) HDDs einsetzen wollen. Und da sind alle auf Dauerbetrieb ausgelegt.
Ich meine z.B. was Backblaze macht

https://www.backblaze.com/blog/what-hard-drive-should-i-buy/

die kaufen Consumer-Disks für ihre Backups. Zigtausende davon.

Google nahm/nimmt(?) für seine Cloud scheinbar auch Consumer-Drives:
https://research.google/pubs/failure-trends-in-a-large-disk-drive-population/

daraus:
The data in this study are collected from a large number
of disk drives, deployed in several types of systems
across all of Google???s services. More than one hundred
thousand disk drives were used for all the results presented
here. The disks are a combination of serial and
parallel ATA consumer-grade hard disk drives, ranging
in speed from 5400 to 7200 rpm, and in size from 80 to
400 GB. All units in this study were put into production
in or after 2001.

Das ist eine ziemlich alte Studie, aber anscheinend sind sie aktuell
nicht mehr so auskunftsfreudig bei der von ihnen verwendeten Hardware.

Viele Cloud-Anbieter machen die Redundanz nicht über Storage-Systeme,
sondern über Replikation vieler vieler Nodes untereinander mit einer
gewissen Redundanz. Weil einfach viel billiger.

/ralph
Ulli Horlacher
2024-05-03 13:47:38 UTC
Permalink
Post by Ralph Aichinger
Ich glaube wir können uns aber drauf einigen, dass ein
1PB-Storage-System aus dem OP auf jeden Fall als "professionell"
Das Storage-System hat insgesamt 2.5 PB.
Es exportiert allerdings "nur" jeweils 1 PB Volumes (max).
--
Ullrich Horlacher Server und Virtualisierung
Rechenzentrum TIK
Universitaet Stuttgart E-Mail: ***@tik.uni-stuttgart.de
Allmandring 30a Tel: ++49-711-68565868
70569 Stuttgart (Germany) WWW: https://www.tik.uni-stuttgart.de/
Kay Martinen
2024-05-03 17:44:45 UTC
Permalink
Post by Ralph Aichinger
Post by Marc Haber
dafür unflexibler im Einsatz. Um zum Thema zurückzukommen, kann man in
einem größeren Storagesetup sicherlich effizienter Arbeiten wenn Wear
Leveling etc in einem System mit hundert mal 4 TB Flash zentral
gemanaget wird und nicht in jedem 4-TB-Modul einzeln, wie das bei SSDs
für den Einzel-Einbau in PCs gemacht wird.
Ich glaube wir können uns aber drauf einigen, dass ein
1PB-Storage-System aus dem OP auf jeden Fall als "professionell"
bezeichnet werden kann, selbst wenn es aus "Consumer"-Platten
zusammengestöpselt wird. Es ist ja bekannt, dass gerade die größten
Nutzer von Festplatten oft des Preises wegen schnöde "Consumer"-Platten
verwenden, und die sind sicher professionell.
Du sprichst wohl von Backblaze die das "in Groß" machen. IMO aber zu
Backup-Zwecken und nicht für einen dauerhaft hohen konkurrierenden Zugriff.

Bei "Professionellen" RAID Setups habe ich eigentlich immer angenommen
das TLER das HDD-Feature ist das die Professionelle Platte von den
Consumer-Platten abgrenzt. Das mag bei ZFS o.a. Systemen nicht mehr
gelten, bei SSDs vermutlich sowieso nicht mehr.

Aber, BTW. Selbst der angejahrte Storage-Controller in meinem ebenso
alten Proliant DL 360 G5 hat in seinem Setup Optionen aufgelistet bei
denen es um SSD's und IMO um deren Wear-leveling geht. Nun hab ich da
keine drin aber es liest sich so als ob der das eben zentral über
mehrere Platten verwalten könnte/wollte. Wie Marc oben anführt.

Bei den 1 PB aus dem OP nehme ich aber nicht an das es alles SSDs sind,
ich würde eher annehmen das ein Großer Teil davon HDDs sind und SSDs
evtl. über die Storage-Lösung als Cache o.a. (=Hybrid) eingebunden sind.

Bye/
/Kay
--
nix
Marc Haber
2024-05-03 18:22:29 UTC
Permalink
Post by Kay Martinen
Bei "Professionellen" RAID Setups habe ich eigentlich immer angenommen
das TLER das HDD-Feature ist das die Professionelle Platte von den
Consumer-Platten abgrenzt.
Ein weiteres Feature dürfte sein "ich stecke eh in einem RAID, da
versuche ich nicht fünf Minuten lang grenzwertige Daten aus dem
Magnetsubstrat zu kratzen sondern liefer lieber sofort einen
Lesefehler, das hält das Gesamtsystem weniger auf".

Grüße
Marc
--
----------------------------------------------------------------------------
Marc Haber | " Questions are the | Mailadresse im Header
Rhein-Neckar, DE | Beginning of Wisdom " |
Nordisch by Nature | Lt. Worf, TNG "Rightful Heir" | Fon: *49 6224 1600402
Kay Martinen
2024-05-04 16:09:14 UTC
Permalink
Post by Marc Haber
Post by Kay Martinen
Bei "Professionellen" RAID Setups habe ich eigentlich immer angenommen
das TLER das HDD-Feature ist das die Professionelle Platte von den
Consumer-Platten abgrenzt.
Ein weiteres Feature dürfte sein "ich stecke eh in einem RAID, da
versuche ich nicht fünf Minuten lang grenzwertige Daten aus dem
Magnetsubstrat zu kratzen sondern liefer lieber sofort einen
Lesefehler, das hält das Gesamtsystem weniger auf".
Öhh, das ist doch genau die Umschreibung von TLER. Time-limited
Error-recovery.

Bei (Consumer) Platten ohne kann es dazu führen das die Platte aus dem
Raid gekickt wird.

Bye/
/Kay
--
nix
Marc Haber
2024-05-04 17:11:50 UTC
Permalink
Post by Kay Martinen
Post by Marc Haber
Post by Kay Martinen
Bei "Professionellen" RAID Setups habe ich eigentlich immer angenommen
das TLER das HDD-Feature ist das die Professionelle Platte von den
Consumer-Platten abgrenzt.
Ein weiteres Feature dürfte sein "ich stecke eh in einem RAID, da
versuche ich nicht fünf Minuten lang grenzwertige Daten aus dem
Magnetsubstrat zu kratzen sondern liefer lieber sofort einen
Lesefehler, das hält das Gesamtsystem weniger auf".
Öhh, das ist doch genau die Umschreibung von TLER. Time-limited
Error-recovery.
Die Abkürzung hatte ich überlesen, sorry.

Grüße
Marc
--
----------------------------------------------------------------------------
Marc Haber | " Questions are the | Mailadresse im Header
Rhein-Neckar, DE | Beginning of Wisdom " |
Nordisch by Nature | Lt. Worf, TNG "Rightful Heir" | Fon: *49 6224 1600402
Kay Martinen
2024-05-04 18:42:26 UTC
Permalink
Post by Marc Haber
Post by Kay Martinen
Post by Marc Haber
Post by Kay Martinen
Bei "Professionellen" RAID Setups habe ich eigentlich immer angenommen
das TLER das HDD-Feature ist das die Professionelle Platte von den
Consumer-Platten abgrenzt.
Magnetsubstrat zu kratzen sondern liefer lieber sofort einen
Lesefehler, das hält das Gesamtsystem weniger auf".
Öhh, das ist doch genau die Umschreibung von TLER. Time-limited
Error-recovery.
Die Abkürzung hatte ich überlesen, sorry.
Uff. Dabei ist genau diese ABK der Zentr. Teil des obigen Satzes in dem
sonst kaum ABK's vorkommen...

Was ist Los, Marc. Ist dein Backlight zu dunkel oder eine (Neue?) Brille
nötig? == Layer 8 Symptom. ;-) SCNR

Bye/
/Kay
--
... denn wer selbst in die Kerbe drischt darf auch mal ge"hackt" werden
Marc Haber
2024-05-05 05:52:12 UTC
Permalink
Post by Kay Martinen
Was ist Los, Marc. Ist dein Backlight zu dunkel oder eine (Neue?) Brille
nötig? == Layer 8 Symptom. ;-) SCNR
Ich war irgendwie abgebogen auf "eine neue Abkürzung/Berechnungsregel
für MTBF?"
--
----------------------------------------------------------------------------
Marc Haber | " Questions are the | Mailadresse im Header
Rhein-Neckar, DE | Beginning of Wisdom " |
Nordisch by Nature | Lt. Worf, TNG "Rightful Heir" | Fon: *49 6224 1600402
Ulli Horlacher
2024-05-03 21:34:15 UTC
Permalink
Post by Kay Martinen
Bei den 1 PB aus dem OP nehme ich aber nicht an das es alles SSDs sind,
Es sind gar keine SSDs dabei.
--
Ullrich Horlacher Server und Virtualisierung
Rechenzentrum TIK
Universitaet Stuttgart E-Mail: ***@tik.uni-stuttgart.de
Allmandring 30a Tel: ++49-711-68565868
70569 Stuttgart (Germany) WWW: https://www.tik.uni-stuttgart.de/
Alexander Schreiber
2024-05-04 17:53:50 UTC
Permalink
Post by Kay Martinen
Post by Ralph Aichinger
Post by Marc Haber
dafür unflexibler im Einsatz. Um zum Thema zurückzukommen, kann man in
einem größeren Storagesetup sicherlich effizienter Arbeiten wenn Wear
Leveling etc in einem System mit hundert mal 4 TB Flash zentral
gemanaget wird und nicht in jedem 4-TB-Modul einzeln, wie das bei SSDs
für den Einzel-Einbau in PCs gemacht wird.
Ich glaube wir können uns aber drauf einigen, dass ein
1PB-Storage-System aus dem OP auf jeden Fall als "professionell"
bezeichnet werden kann, selbst wenn es aus "Consumer"-Platten
zusammengestöpselt wird. Es ist ja bekannt, dass gerade die größten
Nutzer von Festplatten oft des Preises wegen schnöde "Consumer"-Platten
verwenden, und die sind sicher professionell.
Du sprichst wohl von Backblaze die das "in Groß" machen. IMO aber zu
Backup-Zwecken und nicht für einen dauerhaft hohen konkurrierenden Zugriff.
Bei "Professionellen" RAID Setups habe ich eigentlich immer angenommen
das TLER das HDD-Feature ist das die Professionelle Platte von den
Consumer-Platten abgrenzt. Das mag bei ZFS o.a. Systemen nicht mehr
gelten, bei SSDs vermutlich sowieso nicht mehr.
Und RAID sieht man eher im unteren Ende. Bei grossen Storage-Infra-
strukturen sind das dann wieder unabhängige Platten zu X Stück pro
Databrick-Maschine und Datenverteilung, Redundanz, etc werden auf
den Sieht-aus-wie-ein-Dateisystem-ist-aber-eigentlich-keines Ebenen
darüber gehandhabt. Siehe Colossus:
https://cloud.google.com/blog/products/storage-data-transfer/a-peek-behind-colossus-googles-file-system

Man liest sich,
Alex.
--
"Opportunity is missed by most people because it is dressed in overalls and
looks like work." -- Thomas A. Edison
Gerald E¡scher
2024-05-04 11:49:15 UTC
Permalink
Post by Ralph Aichinger
Ich glaube wir können uns aber drauf einigen, dass ein
1PB-Storage-System aus dem OP auf jeden Fall als "professionell"
bezeichnet werden kann, selbst wenn es aus "Consumer"-Platten
zusammengestöpselt wird. Es ist ja bekannt, dass gerade die größten
Nutzer von Festplatten oft des Preises wegen schnöde "Consumer"-Platten
verwenden, und die sind sicher professionell.
Dann habe ich eine Schachtel professionelle SSDs von einem kleinen
Nutzer von Festplatten herum liegen. Der Gegenwert des Inhalts dieser
Schachtel war vor ein paar Jahren eine kleine Eigentumswohnung :-)
--
Gerald
Dietz Proepper
2024-05-04 17:57:05 UTC
Permalink
Post by Ralph Aichinger
Post by Marc Haber
"Professionelles" IT-Zeugs hat oft Schnittstellen, die man in
Cluster- und Redundanzsetups braucht, lässt sich in Racks einbauen
etc und ist dafür unflexibler im Einsatz. Um zum Thema
zurückzukommen, kann man in einem größeren Storagesetup sicherlich
effizienter Arbeiten wenn Wear Leveling etc in einem System mit
hundert mal 4 TB Flash zentral gemanaget wird und nicht in jedem
4-TB-Modul einzeln, wie das bei SSDs für den Einzel-Einbau in PCs
gemacht wird.
Ich glaube wir können uns aber drauf einigen, dass ein
1PB-Storage-System aus dem OP auf jeden Fall als "professionell"
bezeichnet werden kann, selbst wenn es aus "Consumer"-Platten
zusammengestöpselt wird. Es ist ja bekannt, dass gerade die größten
Nutzer von Festplatten oft des Preises wegen schnöde
"Consumer"-Platten verwenden, und die sind sicher professionell.
Soweit ich weiß sind das dann allerdings meist Consumerplatten mit
modifizierter Firmware. Gar kein Problem, wenn Du richtige Stückzahlen
orderst.
--
Klar kannste Nazi sein, aber dann biste halt Kacke.
Alexander Schreiber
2024-05-04 17:49:00 UTC
Permalink
Post by Ralph Aichinger
Post by Marc Haber
"Professionelles" IT-Zeugs hat oft Schnittstellen, die man in Cluster-
und Redundanzsetups braucht, lässt sich in Racks einbauen etc und ist
dafür unflexibler im Einsatz. Um zum Thema zurückzukommen, kann man in
einem größeren Storagesetup sicherlich effizienter Arbeiten wenn Wear
Leveling etc in einem System mit hundert mal 4 TB Flash zentral
gemanaget wird und nicht in jedem 4-TB-Modul einzeln, wie das bei SSDs
für den Einzel-Einbau in PCs gemacht wird.
Ich glaube wir können uns aber drauf einigen, dass ein
1PB-Storage-System aus dem OP auf jeden Fall als "professionell"
bezeichnet werden kann, selbst wenn es aus "Consumer"-Platten
zusammengestöpselt wird. Es ist ja bekannt, dass gerade die größten
Nutzer von Festplatten oft des Preises wegen schnöde "Consumer"-Platten
verwenden, und die sind sicher professionell.
Dies ist eine gute Gelegenheit darauf hinzuweisen:
"professionell" == "wir machen das für Geld"

SCNR,
Alex.
--
"Opportunity is missed by most people because it is dressed in overalls and
looks like work." -- Thomas A. Edison
Kay Martinen
2024-05-04 18:50:35 UTC
Permalink
Post by Alexander Schreiber
Post by Ralph Aichinger
Post by Marc Haber
"Professionelles" IT-Zeugs hat oft Schnittstellen, die man in Cluster-
und Redundanzsetups braucht, lässt sich in Racks einbauen etc und ist
Ich glaube wir können uns aber drauf einigen, dass ein
1PB-Storage-System aus dem OP auf jeden Fall als "professionell"
"professionell" == "wir machen das für Geld"
Und was diese "Profis" gegen Geld dann immer wieder mal für Mist bauen
lesen wir dann alltäglich bei FeFe nach. ;-)

Langsam denke ich sollte man über eine "Wir-haben's-Verbockt"-Gutschrift
an die betroffenen Kunden nachdenken - die von Salär des
Verantwortlichen Beglichen wird. Je höher im OrgChart desto mehr
Gutschrift. Sprich: Verantwortung auch für Fehlentscheidungen statt des
offenbar üblichen mit-dem-finger-im-kreis-aufeinander-zeigens.

Bye/
/Kay
--
nix
Kay Martinen
2024-05-03 17:31:06 UTC
Permalink
Post by Ralph Aichinger
Post by Peter J. Holzer
Was ist "der professionelle Bereich"?
Das ist wie bei Fotoequipment, man macht das Ding schwarz, schreibt
"professional" drauf und verdoppelt den Preis ;)
Dann sind meine Proliant (G4+G5) hier nur Semi. Denn die sind eher so
Grau-beige. "Zum Glück" steht da auch nirgends "Professionell" drauf
sonst hätte ich die selbst gebraucht wohl nur zum Doppelten Preis
bekommen. SCNR

Anderer Erklärbär-ansatz: Kann nur von Informatik-Professoren
verstanden/bedient werden. Bei der heutigen Komplexität gar nicht so
falsch oder? :-/ Und liefert auch eine Erkläre für manch schief
gegangenes - wenn man das so sehen wollte...

Bye/
/Kay
--
nix
Peter J. Holzer
2024-05-03 17:09:47 UTC
Permalink
Post by Peter J. Holzer
Post by Marcel Mueller
Andererseits können SSDs sowieso nichts anderes, insofern wäre es da ein
Heimspiel. Allerdings braucht man dann eine vom Dateisystem in Software
gemanagte Verwaltung der Flashblöcke, was m.E. nicht einmal ZFS kann.
Im professionellen Bereich wird diese Technik aber meines Wissens
eingesetzt.
Was ist "der professionelle Bereich"?
Nachdem die Diskussion in Richtung Consumer-Platten abgedriftet ist,
hake ich hier nochmals nach.

Ich interpretiere den Satz
Post by Peter J. Holzer
Post by Marcel Mueller
Im professionellen Bereich wird diese Technik aber meines Wissens
eingesetzt.
als "im professionellen Bereich ist das üblich, Stand der Technik, best
Practice, etc." nicht "es gibt einen Nischen-Hersteller, der sein Geld
damit verdient".

Sollte ich das falsch interpretiert haben, ist das weitere obsolet.

Wie Marcel schreibt, kann das "nicht einmal ZFS". Meines Wissens kann
keines der üblichen Filesysteme für Linux oder Windows wear-leveling.
Die überlassen das alle der darunterliegenden Hardware. (Linux hat ein
paar Filesysteme, die das können, aber meines Wissens sind die alle auf
Embedded-Hardware ausgerichtet und werden nicht im Serverbereich
eingesetzt, schon gar nicht für Petabyte-große Filesysteme.)

Linux- und Windows-Server mit lokalen Platten oder Volumes in einem SAN
wären damit "nicht professionell". Möglicherweise gibt es NAS-Systeme
mit proprietären Filesystemen, die das können. Oder vielleicht z/OS.
Weiß ich aber nicht.

Daher hätte ich gerne diesen "professionellen Bereich", in dem
Filesysteme mit eingebauter Flashspeicherverwaltung üblich sind, konkret
benannt.

hp
Stefan Reuther
2024-05-02 17:02:44 UTC
Permalink
Post by Marcel Mueller
Post by Marco Moock
Copy-on-write hat auch den massiven Vorteil, dass ein Dateisystemcheck
da halt nicht Tage dauert.
Den Zusammenhang verstehe ich nicht.
Ein Dateisystemcheck dauert genau dann ewig, wenn das Dateisystem kein
Journal hat. Mit so etwas traut sich heute glücklicherweise keiner mehr
auf die Straße. Mit CoW hat das jedenfalls nichts zu tun.
Das Journal verhindert, dass im Fall eines unsanften unmount ein
Dateisystemcheck notwendig wird. Aber das verändert nicht, wie lange der
dauert. Wenn der Dateisystemcheck aus einem anderen Grund notwendig wird
(Kernelbug? Malware? wacklige Hardware?) dauert der auch mit Journal ewig.


Stefan
Markus Schaaf
2024-05-01 10:24:27 UTC
Permalink
Post by Ulli Horlacher
Gibt es Empfehlungen welches filesystem man fuer GROSSE Partitionen
verwenden sollte?
Es dreht sich hierbei um 1 PB hardware RAID volume.
Das wird primaer fuer backups und Archivierung verwendet.
XFS wurde für solche Anforderungen entwickelt. Kann nichts
Negatives darüber berichten. Im Gegenteil. Seit ca. 15y eins der
unauffälligsten Dateisysteme bei mir. Mit RAID drunter sunit und
swidth richtig angeben und agcount ein Vielfaches der
horizontalen Disk-Anzahl machen.

MfG
Tim Ritberg
2024-05-01 10:36:36 UTC
Permalink
Post by Ulli Horlacher
Gibt es Empfehlungen welches filesystem man fuer GROSSE Partitionen
verwenden sollte?
Es dreht sich hierbei um 1 PB hardware RAID volume.
Das wird primaer fuer backups und Archivierung verwendet.
XFS wurde für solche Anforderungen entwickelt. Kann nichts Negatives
darüber berichten. Im Gegenteil. Seit ca. 15y eins der unauffälligsten
Dateisysteme bei mir. Mit RAID drunter sunit und swidth richtig angeben
und agcount ein Vielfaches der horizontalen Disk-Anzahl machen.
Ich benutze EXT4, das billionfache am meisten genutzt FS ;-)

Tim
Hermann Riemann
2024-05-02 18:12:56 UTC
Permalink
Post by Tim Ritberg
Ich benutze EXT4, das billionfache am meisten genutzt FS ;-)
Ich hatte mal eine anders Filesystem bei der Partitionierung
eingerichtet. Ein Ergebnis war,
dass einige Verzeichnisse nicht in der hardware ( SSD statt HD )
lagen, in der ich sie haben wollte.
Seitdem verwende ich, mit Ausnahme von swap und FAT im boot Bereich,
nur noch ext*.
--
<http://www.hermann-riemann.de>
Marco Moock
2024-05-02 18:16:16 UTC
Permalink
Post by Hermann Riemann
Ich hatte mal eine anders Filesystem bei der Partitionierung
eingerichtet. Ein Ergebnis war,
dass einige Verzeichnisse nicht in der hardware ( SSD statt HD )
lagen, in der ich sie haben wollte.
Seitdem verwende ich, mit Ausnahme von swap und FAT im boot Bereich,
nur noch ext*.
Dann hast du das was heftig verbockt.
--
Gruß
Marco

Spam und Werbung bitte an
***@nirvana.admins.ws
Marc Haber
2024-05-03 08:04:02 UTC
Permalink
Post by Hermann Riemann
Ich hatte mal eine anders Filesystem bei der Partitionierung
eingerichtet. Ein Ergebnis war,
dass einige Verzeichnisse nicht in der hardware ( SSD statt HD )
lagen, in der ich sie haben wollte.
Du redest mal wieder wirr.
--
----------------------------------------------------------------------------
Marc Haber | " Questions are the | Mailadresse im Header
Rhein-Neckar, DE | Beginning of Wisdom " |
Nordisch by Nature | Lt. Worf, TNG "Rightful Heir" | Fon: *49 6224 1600402
Kay Martinen
2024-05-03 17:55:51 UTC
Permalink
Post by Tim Ritberg
Post by Ulli Horlacher
Gibt es Empfehlungen welches filesystem man fuer GROSSE Partitionen
verwenden sollte?
Es dreht sich hierbei um 1 PB hardware RAID volume.
Das wird primaer fuer backups und Archivierung verwendet.
XFS wurde für solche Anforderungen entwickelt. Kann nichts Negatives
Ich benutze EXT4, das billionfache am meisten genutzt FS ;-)
Und ich hab früher FAT-Partitionen von C-Z bis zum jew. Größenlimit
genutzt, mit OS/2 auch mal via TVFS (Toronto Virtual Filesystem) mehrere
zusammen gebunden (aber HPFS soweit ich erinnere)... Und nun? ;-)

So weit die Obsoleten Systeme. Bietet noch jemand ein "ich benutze
der/dies/das"? :)

N.B. Ich stolpere gerade über "1 PB Hardware-Raid" Es wird doch immer
abgeraten ZFS on Raid zu nutzen weil das dann doppelt-gemoppelt wäre.

Sind die ganzen Nennungen von ZFS hier also nicht nur wg. Ullis sorge
vor Lizenzänderungen durch Oracle (gab es das schon mal?) obsolet,
sondern eben auch wg. des Entstehenden Overheads?

Kurz: Es geht demnach nur um je EIN exportiertes Blockdevice von max. 1
PB größe - das eben noch mit dem geeigneten Filesystem formatiert werden
müsse.


Bye/
/Kay
--
nix
Ulli Horlacher
2024-05-03 21:38:45 UTC
Permalink
Post by Kay Martinen
Sind die ganzen Nennungen von ZFS hier also nicht nur wg. Ullis sorge
vor Lizenzänderungen durch Oracle (gab es das schon mal?)
Java.
OpenOffice.
Solaris.
--
Ullrich Horlacher Server und Virtualisierung
Rechenzentrum TIK
Universitaet Stuttgart E-Mail: ***@tik.uni-stuttgart.de
Allmandring 30a Tel: ++49-711-68565868
70569 Stuttgart (Germany) WWW: https://www.tik.uni-stuttgart.de/
Ralph Aichinger
2024-05-03 22:14:52 UTC
Permalink
Post by Ulli Horlacher
Java.
OpenOffice.
Solaris.
MySQL?

/ralph
Arno Welzel
2024-05-04 09:50:55 UTC
Permalink
Post by Ralph Aichinger
Post by Ulli Horlacher
Java.
OpenOffice.
Solaris.
MySQL?
Java, OpenOffice und MySQL kann man durch OpenJDK, LibreOffice und
MariaDB ersetzen.
--
Arno Welzel
https://arnowelzel.de
Marc Haber
2024-05-04 10:12:52 UTC
Permalink
Post by Arno Welzel
Post by Ralph Aichinger
Post by Ulli Horlacher
Java.
OpenOffice.
Solaris.
MySQL?
Java, OpenOffice und MySQL kann man durch OpenJDK, LibreOffice und
MariaDB ersetzen.
Nur so ein bisschen. Meine Buchhaltungssoftware läuft nicht mehr mit
einem MariaDB-Server.

Grüße
Marc
--
----------------------------------------------------------------------------
Marc Haber | " Questions are the | Mailadresse im Header
Rhein-Neckar, DE | Beginning of Wisdom " |
Nordisch by Nature | Lt. Worf, TNG "Rightful Heir" | Fon: *49 6224 1600402
Ralph Aichinger
2024-05-04 11:06:19 UTC
Permalink
Post by Arno Welzel
Java, OpenOffice und MySQL kann man durch OpenJDK, LibreOffice und
MariaDB ersetzen.
Ja, trotzdem waren das jedesmal riesige Reibungsverluste, und z.B.
LibreOffice kämpft immer noch damit, dass eine irrlichternde
OpenOffice-Version distribuiert wird, und der Schein der
Weiterentwicklung gewahrt wird, und damit viele Nutzer die Entwicklungen
der letztne 5-10 Jahre nicht nutzen können.

/ralph
Ulli Horlacher
2024-05-05 13:00:39 UTC
Permalink
Post by Arno Welzel
Post by Ralph Aichinger
Post by Ulli Horlacher
Java.
OpenOffice.
Solaris.
MySQL?
Java, OpenOffice und MySQL kann man durch OpenJDK, LibreOffice und
MariaDB ersetzen.
Und ZFS durch btrfs?
DARUM gings ja: was macht man wenn Oracle mal wieder die Lizenzierung
aendert? Und JA: Oracle hatdas schon oefters gemacht. Siehe oben.
--
Ullrich Horlacher Server und Virtualisierung
Rechenzentrum TIK
Universitaet Stuttgart E-Mail: ***@tik.uni-stuttgart.de
Allmandring 30a Tel: ++49-711-68565868
70569 Stuttgart (Germany) WWW: https://www.tik.uni-stuttgart.de/
Kay Martinen
2024-05-04 16:27:31 UTC
Permalink
Post by Ulli Horlacher
Post by Kay Martinen
Sind die ganzen Nennungen von ZFS hier also nicht nur wg. Ullis sorge
vor Lizenzänderungen durch Oracle (gab es das schon mal?)
Java.
Bekannt.
Post by Ulli Horlacher
OpenOffice.
Eher nicht. Das es das noch gäbe!
Post by Ulli Horlacher
Solaris.
IMO mit Sun (und Java) aufgekauft, aber ruhig drum geworden oder?

Ich meinte eigentlich speziell ob der ZFS-Support deswegen mal aus
irgendeinem Linux raus flog und man ggf. nach einem upgrade ohne
ZFS-Zugang da stand?

Oder betrifft das nur Firmen/Gewerbliche? Bei privaten ist es ja wohl
eher zweitrangig ob man sich das evtl. mit einem "hack" um die lizenz
herum wieder drauf holen könnte.

Ich finde jedenfalls außer OracleZFS nur OpenZFS und das Letzteres ab
Ubuntu 16 installiert werden kann - aber nicht das dies mal nicht ging.

Von ZoL oder FUSE rede ich hier nicht. So was wäre hier wohl auch nicht
angebracht.

Bye/
/Kay
--
nix
Marco Moock
2024-05-05 15:09:58 UTC
Permalink
Post by Kay Martinen
Post by Ulli Horlacher
Solaris.
IMO mit Sun (und Java) aufgekauft, aber ruhig drum geworden oder?
Weil das wohl auch nicht groß weiterentwickelt wird. Laut Gerüchteküche
im "Maintenance Mode".
Post by Kay Martinen
Ich meinte eigentlich speziell ob der ZFS-Support deswegen mal aus
irgendeinem Linux raus flog und man ggf. nach einem upgrade ohne
ZFS-Zugang da stand?
Passiert öfter mal bei Debian unstable. Da wird ZFS als dkms-Modul
ausgeliefert und nicht mit jedem Kernel umfangreich getestet.
Und ja, mir ist klar, dass das unstable heißt, trotzdem gibt es da
irgendwie öfter Stunk als bei anderen Dateisystemen.
Post by Kay Martinen
Oder betrifft das nur Firmen/Gewerbliche? Bei privaten ist es ja wohl
eher zweitrangig ob man sich das evtl. mit einem "hack" um die lizenz
herum wieder drauf holen könnte.
Aber halt nicht, auf welchem Weg. Klar kann man das manuell machen,
nervt halt ungemein. Und getestet wird dann sowieso nicht.
--
Gruß
Marco

Spam und Werbung bitte an
***@nirvana.admins.ws
Peter Blancke
2024-05-05 15:22:49 UTC
Permalink
Post by Marco Moock
Post by Kay Martinen
Ich meinte eigentlich speziell ob der ZFS-Support deswegen mal
aus irgendeinem Linux raus flog und man ggf. nach einem upgrade
ohne ZFS-Zugang da stand?
Passiert öfter mal bei Debian unstable. Da wird ZFS als dkms-Modul
ausgeliefert und nicht mit jedem Kernel umfangreich getestet.
Ist mir auch hier auf Arch passiert, aber nur einmal (vor ca. 1
Jahr). Seitdem läuft grundsätzlich ein LTS-Kernel neben dem
aktuellen Kernel. Das erspart das Hochwuchten von SystemRescue und
ja, SystemRescue gibt's auch auf Github mit ZFS-Support:

https://github.com/nchevsky/systemrescue-zfs

Gruß,

Peter Blancke
--
Hoc est enim verbum meum!
Marc Haber
2024-05-05 16:12:47 UTC
Permalink
Post by Marco Moock
Passiert öfter mal bei Debian unstable. Da wird ZFS als dkms-Modul
ausgeliefert und nicht mit jedem Kernel umfangreich getestet.
Und ja, mir ist klar, dass das unstable heißt, trotzdem gibt es da
irgendwie öfter Stunk als bei anderen Dateisystemen.
Wie immer bei Out-Of-Tree-Kernelmodulen. Und natürlich wird das
umfangeich getestet, und zwar in Debian unstable. Dass Du es Dir
installierst bevor es getestet und Dich damit als Tester mit
betätigst, ehrt Dich, aber sich dann über den Stunk zu beschweren ist
irgendwie seltsam.

Grüße
Marc
--
----------------------------------------------------------------------------
Marc Haber | " Questions are the | Mailadresse im Header
Rhein-Neckar, DE | Beginning of Wisdom " |
Nordisch by Nature | Lt. Worf, TNG "Rightful Heir" | Fon: *49 6224 1600402
Marco Moock
2024-05-05 17:53:47 UTC
Permalink
Post by Marc Haber
Post by Marco Moock
Passiert öfter mal bei Debian unstable. Da wird ZFS als dkms-Modul
ausgeliefert und nicht mit jedem Kernel umfangreich getestet.
Und ja, mir ist klar, dass das unstable heißt, trotzdem gibt es da
irgendwie öfter Stunk als bei anderen Dateisystemen.
Wie immer bei Out-Of-Tree-Kernelmodulen.
Das dürfte das Hauptproblem sein. Das ist leider durch die Lizenz
bedingt. Wie macht das Ubuntu eigentlich?
Post by Marc Haber
Und natürlich wird das umfangeich getestet, und zwar in Debian
unstable. Dass Du es Dir installierst bevor es getestet und Dich
damit als Tester mit betätigst, ehrt Dich, aber sich dann über den
Stunk zu beschweren ist irgendwie seltsam.
Ich merke halt, dass das wesentlich instabiler ist als andere
Bestandteile von Debian unstable. Für meine Anwendungsfälle mit Debian
unstable ist damit ZFS ungeeignet.
Ebenfalls wird im Installer kein Support dafür angeboten, über Umwege
ist eine Installation auf ZFS aber möglich.
Für mich keine Option, weil zu viel Gezuchtel.

Bei FreeBSD sieht das anders aus.
--
Gruß
Marco

Spam und Werbung bitte an
***@nirvana.admins.ws
Marc Haber
2024-05-05 20:28:16 UTC
Permalink
Post by Marco Moock
Post by Marc Haber
Post by Marco Moock
Passiert öfter mal bei Debian unstable. Da wird ZFS als dkms-Modul
ausgeliefert und nicht mit jedem Kernel umfangreich getestet.
Und ja, mir ist klar, dass das unstable heißt, trotzdem gibt es da
irgendwie öfter Stunk als bei anderen Dateisystemen.
Wie immer bei Out-Of-Tree-Kernelmodulen.
Das dürfte das Hauptproblem sein. Das ist leider durch die Lizenz
bedingt. Wie macht das Ubuntu eigentlich?
Denen ist das egal. Oder sie haben hintenrum mit Oracle ein Agreement.
Post by Marco Moock
Post by Marc Haber
Und natürlich wird das umfangeich getestet, und zwar in Debian
unstable. Dass Du es Dir installierst bevor es getestet und Dich
damit als Tester mit betätigst, ehrt Dich, aber sich dann über den
Stunk zu beschweren ist irgendwie seltsam.
Ich merke halt, dass das wesentlich instabiler ist als andere
Bestandteile von Debian unstable. Für meine Anwendungsfälle mit Debian
unstable ist damit ZFS ungeeignet.
Der Kernel wird neu hochgeladen, er ist zum bestehenden Modul
inkompatibel, es ist kaputt bis das Modul erneuert wurde.

Das Modul für den Kernel wird hochgeladen bevor der dazu passende
Kernel da ist, es ist kaputt bis der Kernel erneuert wurde.

Das ist mit vertretbarem Aufwand nicht vermeidbar.
Post by Marco Moock
Bei FreeBSD sieht das anders aus.
Die GPL hat halt nicht nur Vorteile.

Grüße
Marc
--
----------------------------------------------------------------------------
Marc Haber | " Questions are the | Mailadresse im Header
Rhein-Neckar, DE | Beginning of Wisdom " |
Nordisch by Nature | Lt. Worf, TNG "Rightful Heir" | Fon: *49 6224 1600402
Ulli Horlacher
2024-05-07 06:31:12 UTC
Permalink
Marco Moock <mm+***@dorfdsl.de> wrote:

(ZFS)
Post by Marco Moock
Das dürfte das Hauptproblem sein. Das ist leider durch die Lizenz
bedingt. Wie macht das Ubuntu eigentlich?
Durch Ignorieren.
Wer sich die teuersten Anwaelte leisten kann, gewinnt.
--
Ullrich Horlacher Server und Virtualisierung
Rechenzentrum TIK
Universitaet Stuttgart E-Mail: ***@tik.uni-stuttgart.de
Allmandring 30a Tel: ++49-711-68565868
70569 Stuttgart (Germany) WWW: https://www.tik.uni-stuttgart.de/
Marco Moock
2024-05-07 07:24:25 UTC
Permalink
Post by Ulli Horlacher
(ZFS)
Post by Marco Moock
Das dürfte das Hauptproblem sein. Das ist leider durch die Lizenz
bedingt. Wie macht das Ubuntu eigentlich?
Durch Ignorieren.
Wer sich die teuersten Anwaelte leisten kann, gewinnt.
Bei SCO hat da aber nicht geklappt, oder hatte IBM da einfach mehr
Geld. :-)
--
Gruß
Marco

Spam und Werbung bitte an
***@nirvana.admins.ws
Peter J. Holzer
2024-05-07 20:10:20 UTC
Permalink
Post by Marco Moock
Post by Ulli Horlacher
(ZFS)
Post by Marco Moock
Das dürfte das Hauptproblem sein. Das ist leider durch die Lizenz
bedingt. Wie macht das Ubuntu eigentlich?
Durch Ignorieren.
Ubuntu ist der Meinung, dass ihre Verwendung von ZFS rechtskonform ist.
(Und Oracle hat soweit ich weiß dem bisher nicht widersprochen.)
Post by Marco Moock
Post by Ulli Horlacher
Wer sich die teuersten Anwaelte leisten kann, gewinnt.
Wenn man sich einen potentiell langen Rechtsstreit leisten kann, kann
man mehr Vertrauen in die eigene Rechtsmeinung haben.
Post by Marco Moock
Bei SCO hat da aber nicht geklappt, oder hatte IBM da einfach mehr
Geld. :-)
IBM hatte sicher massiv mehr Geld als "SCO".

Die Klage von SCO stand natürlich von Anfang an auf tönernen Füßen, aber
gegen eine kleine Firma hätten sie wahrscheinlich eine Chance gehabt.

hp
Detlef Sax
2024-05-07 07:31:31 UTC
Permalink
Post by Ulli Horlacher
(ZFS)
Post by Marco Moock
Das dürfte das Hauptproblem sein. Das ist leider durch die Lizenz
bedingt. Wie macht das Ubuntu eigentlich?
Durch Ignorieren.
Wer sich die teuersten Anwaelte leisten kann, gewinnt.
Mannomann. Eine geheime reiche Elite bekämpft sich mit Anwälten?
Da fehlen nich die Echsenmenschen.

Einfach mal nachgucken geht nicht?
<https://openzfs.org/wiki/About_OpenZFS>

Detlef
--
https://www.12schrittefrei.de/
https://www.noart.de/
Christian Garbs
2024-05-12 00:06:45 UTC
Permalink
Mahlzeit!
Post by Detlef Sax
Einfach mal nachgucken geht nicht?
<https://openzfs.org/wiki/About_OpenZFS>
Außer, dass OpenFZS unter der CDDL lizenziert ist, steht da nichts
konkretes.

Insbesondere steht da nicht, warum Ubuntu der Meinung ist, dass
vorkompilierte CDDL-Module mit dem GPL-Kernel zusammen ausgeliefert
werden dürfen, während z.B. Debian um diese Kombination absichtlich
einen weiten Bogen macht.

Lustigerweise war Ubuntu (sofern deren Wiki "offiziell" ist) um 2015
herum wohl noch der Meinung von Debian: DKMS ok, kompilierte Module
nicht. Der Hinweis ist ab der Revision 73 des Artikels dann
weggefallen:

https://wiki.ubuntu.com/ZFS?action=diff&rev1=72&rev2=73

Gruß
Christian
--
....Christian.Garbs....................................https://www.cgarbs.de
Put a pot of chili on the stove to simmer. Let it simmer. Meanwhile,
broil a good steak. Eat the steak. Let the chili simmer. Ignore it.
-- Recipe for chili from Allan Shrivers, former governor of Texas.
Kay Martinen
2024-05-05 23:05:58 UTC
Permalink
Post by Marc Haber
Post by Marco Moock
Passiert öfter mal bei Debian unstable. Da wird ZFS als dkms-Modul
ausgeliefert und nicht mit jedem Kernel umfangreich getestet.
Und ja, mir ist klar, dass das unstable heißt, trotzdem gibt es da
irgendwie öfter Stunk als bei anderen Dateisystemen.
Wie immer bei Out-Of-Tree-Kernelmodulen. Und natürlich wird das
umfangeich getestet, und zwar in Debian unstable. Dass Du es Dir
installierst bevor es getestet und Dich damit als Tester mit
betätigst, ehrt Dich, aber sich dann über den Stunk zu beschweren ist
irgendwie seltsam.
Finde ich auch merkwürdig. Unstable verwenden und dann meckern wenn es
"unstable" ist - oder wird.

Das ist als würde man eine Banane importieren und sich dann aufregen das
die EU die nicht normgerecht gebogen hätte. ;)

You got what you installed!

Ich hab schon seit DOS Zeiten lieber Software im damaligen
"Gamma-Status" (Fido Mailer z.b.) installiert und um Alpha und Beta oder
Versionen unter 1.0 eher einen Bogen gemacht. Bei Debian u.a. verwende
ich nur Stable und möglichst LTS und bin zufrieden damit.

N.B. Darum hab ich auch nie ZFS probiert weil ich weder die
Notwendigkeit noch die nötigen RAM Mengen übrig hab das sinnvoll zu
verwenden. Die "1GB pro TB" Regel ist da doch etwas abschreckend.

Bye/
/Kay
--
nix
Christian Garbs
2024-05-06 18:29:51 UTC
Permalink
Mahlzeit!
Post by Kay Martinen
N.B. Darum hab ich auch nie ZFS probiert weil ich weder die
Notwendigkeit noch die nötigen RAM Mengen übrig hab das sinnvoll zu
verwenden. Die "1GB pro TB" Regel ist da doch etwas abschreckend.
Die Regel gilt für Deduplication. Deduplication ist aber ein
ziemlicher Sonderfall, nur mit Kompression ist man bereits gut
unterwegs. Da ist der Speicherverbrauch deutlich niedriger.

(Der ARC krallt sich gerne viel Speicher, das ist dann aber eine
Variante von "Linux macht all meinen Speicher voll mit 'buff/cached',
was soll das?". Doof ist nur, dass der ARC aus technischen Gründen
nicht als 'buff/cached' geführt wird, sondern als von einer Anwendung
belegt.)

Gruß
Christian
--
....Christian.Garbs....................................https://www.cgarbs.de
PCMCIA = People can't memorize computer's idotic acronyms
Ulli Horlacher
2024-05-07 06:33:35 UTC
Permalink
Post by Christian Garbs
(Der ARC krallt sich gerne viel Speicher, das ist dann aber eine
Variante von "Linux macht all meinen Speicher voll mit 'buff/cached',
was soll das?". Doof ist nur, dass der ARC aus technischen Gründen
nicht als 'buff/cached' geführt wird, sondern als von einer Anwendung
belegt.)
Im Gegensatz zu buff/cached steht der dann aber anderen Anwendungen im
Bedarfsfall nicht zur Verfuegung.
--
Ullrich Horlacher Server und Virtualisierung
Rechenzentrum TIK
Universitaet Stuttgart E-Mail: ***@tik.uni-stuttgart.de
Allmandring 30a Tel: ++49-711-68565868
70569 Stuttgart (Germany) WWW: https://www.tik.uni-stuttgart.de/
Dietz Proepper
2024-05-07 07:24:46 UTC
Permalink
Post by Ulli Horlacher
Post by Christian Garbs
(Der ARC krallt sich gerne viel Speicher, das ist dann aber eine
Variante von "Linux macht all meinen Speicher voll mit
'buff/cached', was soll das?". Doof ist nur, dass der ARC aus
technischen Gründen nicht als 'buff/cached' geführt wird, sondern
als von einer Anwendung belegt.)
Im Gegensatz zu buff/cached steht der dann aber anderen Anwendungen im
Bedarfsfall nicht zur Verfuegung.
Der ARC gibt den Speicher im Zweifelsfall wieder her. Gerade extra
nochmal ausprobiert. "Normal" ca. 25/32G "used". Speicherfresser
gestartet, 3/32G "used".

Wie Christian schrieb, "sieht nur so aus".
--
Klar kannste Nazi sein, aber dann biste halt Kacke.
Ulli Horlacher
2024-05-08 06:45:27 UTC
Permalink
Post by Dietz Proepper
Post by Ulli Horlacher
Post by Christian Garbs
(Der ARC krallt sich gerne viel Speicher, das ist dann aber eine
Variante von "Linux macht all meinen Speicher voll mit
'buff/cached', was soll das?". Doof ist nur, dass der ARC aus
technischen Gründen nicht als 'buff/cached' geführt wird, sondern
als von einer Anwendung belegt.)
Im Gegensatz zu buff/cached steht der dann aber anderen Anwendungen im
Bedarfsfall nicht zur Verfuegung.
Der ARC gibt den Speicher im Zweifelsfall wieder her. Gerade extra
nochmal ausprobiert. "Normal" ca. 25/32G "used". Speicherfresser
gestartet, 3/32G "used".
Wie Christian schrieb, "sieht nur so aus".
Dann bin ich ja beruhigt :-)

Grad gelesen:

https://papers.freebsd.org/2019/FOSDEM/jude-eli5_zfs_caching.files/ELI5_ZFS_ARC.pdf

The ARC is not a fixed size, it has a minimum and maximum
size, and adapts between them based on memory pressure
--
Ullrich Horlacher Server und Virtualisierung
Rechenzentrum TIK
Universitaet Stuttgart E-Mail: ***@tik.uni-stuttgart.de
Allmandring 30a Tel: ++49-711-68565868
70569 Stuttgart (Germany) WWW: https://www.tik.uni-stuttgart.de/
Hermann Riemann
2024-05-07 04:36:54 UTC
Permalink
Post by Kay Martinen
N.B. Darum hab ich auch nie ZFS probiert weil ich weder die
Notwendigkeit noch die nötigen RAM Mengen übrig hab das sinnvoll zu
verwenden. Die "1GB pro TB" Regel ist da doch etwas abschreckend.
Atari ST 1 MB RAM 10 MB Festplatte
Linux 0.99 16 MB RAM 64 MB Wechselplatte
DX4100 64 MB RAM 10 GB Festplatten
Vor ca 10 Jahre 16 GB RAM 6 TB Festplatten
raspberry pi 8 GB RAM, 5 TB (USB) Festplatte

Fazit: Festplattenplatz wächst schneller als RAM.
Die primitiv Regel swap auf Festplatte mindestens
doppelt so groß wie RAM ( aus Sicherheitsgründen )
scheint mir sinnvoll.

Warum Linux Geräte wie VU, Fritzbox? bei
externe USB-Platten nur 2 TB zulassen, weiß ich nicht.

windoof Filesysteme passen wegen
Groß/Kleinschreibungs Unterschied und \
IMHO schlecht zu Linux.

Sind alle byte-Werte außer '\0' und '/'
in Datei und Verzeichnisnamen in Linux erlaubt?
Bei mir hat sich bash mal wegen ISO statt utf8 beschwert.
--
<http://www.hermann-riemann.de>
Loading...