Discussion:
SSDs testen
(zu alt für eine Antwort)
Richard Fonfara
2024-09-02 15:42:46 UTC
Permalink
Ich habe 2 SSDs, eine NvME für /, die andere SATA für /home. Jetzt würde
ich gerne diese (unter Debian Bookworm) testen. Mit SMART-Werten kann
ich nichts anfangen, sodass ein Test mit smartctl für mich nicht
aussagekräftig ist.

Was könnt ihr mir empfehlen?
--
MfG
Richard
Ralph Aichinger
2024-09-02 15:54:19 UTC
Permalink
Post by Richard Fonfara
Ich habe 2 SSDs, eine NvME für /, die andere SATA für /home. Jetzt würde
ich gerne diese (unter Debian Bookworm) testen. Mit SMART-Werten kann
Was willst du testen? Geschwindigkeit? Fehlerfreiheit?

Der Klassiker unter de benchmarks ist bonnie++.
Post by Richard Fonfara
ich nichts anfangen, sodass ein Test mit smartctl für mich nicht
aussagekräftig ist.
Wenn es um Ausfallsicherheit geht: Letztendlich kann morgen die Platte
kaputtgehen, egal was ein erfolgreicher Test sagt. Natürlich ist
der Wert von SMART wieviel schon geschrieben wurde interessant, weil
er eine obere Schranke angibt, wieviel Nutzungsdauer man noch erwarten
kann, aber ein Backup kann nichts ersetzen.

/ralph
Sieghard Schicktanz
2024-09-02 19:33:21 UTC
Permalink
Hallo Ralph,
Post by Ralph Aichinger
Post by Richard Fonfara
Ich habe 2 SSDs, eine NvME für /, die andere SATA für /home. Jetzt würde
^^^^
Post by Ralph Aichinger
Was willst du testen? Geschwindigkeit? Fehlerfreiheit?
Der Klassiker unter de benchmarks ist bonnie++.
Ja. Bei Festplatten (hier abschätzig manchmal"rotierender Rost" genannt)
ist fortlaufendes Beschreiben und Wiederlesen kein Problem. Bei SSDs, naja,
schon eher. Zumindest ist deren Haltbarkeit definitiv begrenzt, und wenn
man die extensiv testet, taugen die danach vielleicht noch als Kurzzeit-
Puffer, aber nicht für längerfristige Datenhaltung.
Ja, ich weiß, hier gibt es einige, die SSDs auch für Swap benutzen.
Swap _ist_ Kurzzeit-Pufferung. Längerfristige Datenhaltung beinhaltet
andererseits auch längere Abschaltpausen..
--
(Weitergabe von Adressdaten, Telefonnummern u.ä. ohne Zustimmung
nicht gestattet, ebenso Zusendung von Werbung oder ähnlichem)
-----------------------------------------------------------
Mit freundlichen Grüßen, S. Schicktanz
-----------------------------------------------------------
Claus Reibenstein
2024-09-04 15:02:33 UTC
Permalink
Post by Sieghard Schicktanz
Ja. Bei Festplatten (hier abschätzig manchmal"rotierender Rost" genannt)
Hey, es _ist_ rotierender Rost ;-)
*PATSCH!*

Gruß
Claus
Arno Welzel
2024-09-10 15:32:12 UTC
Permalink
Joerg Walther, 2024-09-03 17:01:

[...]
https://www.heise.de/news/SSD-Langzeittest-beendet-Exitus-bei-9-1-Petabyte-3755009.html
Das ist jetzt fast 6 Jahre her. Mittlerweile gibt es QLC und deutlich
höhere Packungsdichten bei SSDs. Daher würde ich nicht davon ausgehen,
dass diese Erkenntnisse heute immer noch so gelten.
--
Arno Welzel
https://arnowelzel.de
Joerg Walther
2024-09-11 13:09:30 UTC
Permalink
Post by Arno Welzel
https://www.heise.de/news/SSD-Langzeittest-beendet-Exitus-bei-9-1-Petabyte-3755009.html
Das ist jetzt fast 6 Jahre her. Mittlerweile gibt es QLC und deutlich
höhere Packungsdichten bei SSDs. Daher würde ich nicht davon ausgehen,
dass diese Erkenntnisse heute immer noch so gelten.
Es ist sogar 8 Jahre her. :) Und es ist schon klar, dass sich die
Technik weiterentwickelt hat. In welche Richtung geht die Entwicklung
der Haltbarkeit deiner Meinung nach? Ist mit solch positiv-Ausreißern
wie der Samsung heute noch zu rechnen?

-jw-
--
And now for something completely different...
Alexander Schreiber
2024-09-03 10:54:21 UTC
Permalink
Post by Ralph Aichinger
Post by Richard Fonfara
Ich habe 2 SSDs, eine NvME für /, die andere SATA für /home. Jetzt würde
ich gerne diese (unter Debian Bookworm) testen. Mit SMART-Werten kann
Was willst du testen? Geschwindigkeit? Fehlerfreiheit?
Der Klassiker unter de benchmarks ist bonnie++.
Naja, Klassiker, ok. Aber das geht seit etlichen Jahren mit fio besser:
https://cloud.google.com/compute/docs/disks/benchmarking-pd-performance-linux

Man liest sich,
Alex.
--
"Opportunity is missed by most people because it is dressed in overalls and
looks like work." -- Thomas A. Edison
Marc Haber
2024-09-02 16:35:44 UTC
Permalink
Post by Richard Fonfara
SMART-Werten kann
ich nichts anfangen, sodass ein Test mit smartctl für mich nicht
aussagekräftig ist.
Was könnt ihr mir empfehlen?
Ich empfehle, dass Du Dich über die Interpretation von SMART-Werten
schlau liest.

Grüße
Marc
--
----------------------------------------------------------------------------
Marc Haber | " Questions are the | Mailadresse im Header
Rhein-Neckar, DE | Beginning of Wisdom " |
Nordisch by Nature | Lt. Worf, TNG "Rightful Heir" | Fon: *49 6224 1600402
Richard Fonfara
2024-09-02 19:22:29 UTC
Permalink
Post by Marc Haber
Post by Richard Fonfara
SMART-Werten kann
ich nichts anfangen, sodass ein Test mit smartctl für mich nicht
aussagekräftig ist.
Was könnt ihr mir empfehlen?
Ich empfehle, dass Du Dich über die Interpretation von SMART-Werten
schlau liest.
Gute Idee. Von den im Internet gefundenen Artikeln habe ich 2 bis jetzt
auszugsweise gelesen und kann sagen, dass das Ganze gar nicht so einfach
ist. Aber ich bleibe dran.
--
MfG
Richard
Marc Haber
2024-09-03 05:39:07 UTC
Permalink
Post by Richard Fonfara
Gute Idee. Von den im Internet gefundenen Artikeln habe ich 2 bis jetzt
auszugsweise gelesen und kann sagen, dass das Ganze gar nicht so einfach
ist. Aber ich bleibe dran.
Deutsche und Englische Wikipedia. Hilfsweise einfach mal smartctl
--all output nach ChatGPT pasten und die KI fragen. ja, ernst gemeint.

Grüße
Marc
--
----------------------------------------------------------------------------
Marc Haber | " Questions are the | Mailadresse im Header
Rhein-Neckar, DE | Beginning of Wisdom " |
Nordisch by Nature | Lt. Worf, TNG "Rightful Heir" | Fon: *49 6224 1600402
Dietz Proepper
2024-09-03 06:34:37 UTC
Permalink
Post by Marc Haber
Post by Richard Fonfara
Gute Idee. Von den im Internet gefundenen Artikeln habe ich 2 bis
jetzt auszugsweise gelesen und kann sagen, dass das Ganze gar nicht
so einfach ist. Aber ich bleibe dran.
Deutsche und Englische Wikipedia. Hilfsweise einfach mal smartctl
--all output nach ChatGPT pasten und die KI fragen. ja, ernst gemeint.
Ui. OpenAI liefert KIen und keine stochastischen Papageien?
--
For a successful technology, reality must take precedence over public
relations, for nature cannot be fooled. - Richard P. Feynman, 1987
Marco Moock
2024-09-03 06:56:25 UTC
Permalink
Post by Dietz Proepper
Post by Marc Haber
Post by Richard Fonfara
Gute Idee. Von den im Internet gefundenen Artikeln habe ich 2 bis
jetzt auszugsweise gelesen und kann sagen, dass das Ganze gar nicht
so einfach ist. Aber ich bleibe dran.
Deutsche und Englische Wikipedia. Hilfsweise einfach mal smartctl
--all output nach ChatGPT pasten und die KI fragen. ja, ernst gemeint.
Ui. OpenAI liefert KIen und keine stochastischen Papageien?
Bei so technischen Fragen kommt da zu 80-90% was Gescheites raus.
Selbst sysvinit-Skripte für Slackware kann das Teil schreiben (ich
hatte davon gar keine Ahnung und brauchte was auf die Schnelle).

Manchmal kommt aber auch richtiger Bockmist raus. Also nicht alles
blind glauben, was rauskommt.
Dietz Proepper
2024-09-03 07:07:58 UTC
Permalink
Post by Marco Moock
Post by Dietz Proepper
Post by Marc Haber
Post by Richard Fonfara
Gute Idee. Von den im Internet gefundenen Artikeln habe ich 2 bis
jetzt auszugsweise gelesen und kann sagen, dass das Ganze gar
nicht so einfach ist. Aber ich bleibe dran.
Deutsche und Englische Wikipedia. Hilfsweise einfach mal smartctl
--all output nach ChatGPT pasten und die KI fragen. ja, ernst gemeint.
Ui. OpenAI liefert KIen und keine stochastischen Papageien?
Bei so technischen Fragen kommt da zu 80-90% was Gescheites raus.
Naja. "Wir" experimentieren gerade mit GitHub Copilot. TL;DR: Schrott.
Ibs. Schrott der Zeit kostet.
Post by Marco Moock
Selbst sysvinit-Skripte für Slackware kann das Teil schreiben (ich
hatte davon gar keine Ahnung und brauchte was auf die Schnelle).
Oh. Wie hast Du dann das Ergebnis geprüft? Einfach laufen lassen?
Post by Marco Moock
Manchmal kommt aber auch richtiger Bockmist raus. Also nicht alles
blind glauben, was rauskommt.
Sorry, aber ich kann diesen Blubber mit "aber der Mensch muss das dann
überprüfen" nicht mehr hören.

Das funktioniert so nicht, wie Dein Beispiel mit dem sysvinit-Skript
sehr schön zeigt. Menschen sind bequem, Menschen neigen zu irrationalen
Entscheidungen ("es hat mich die letzten zehn Male nicht angelogen,
dann wird das jetzt schon passen").
--
For a successful technology, reality must take precedence over public
relations, for nature cannot be fooled. - Richard P. Feynman, 1987
Marco Moock
2024-09-04 15:14:33 UTC
Permalink
Hallo Marco,
Post by Dietz Proepper
Sorry, aber ich kann diesen Blubber mit "aber der Mensch muss das
dann überprüfen" nicht mehr hören.
Das ist aber halt der Fall, denn bei ChatGPT (und anderen sicher
auch) kommt halt ein doch beachtlicher Teil an ausgekochtem
Blödsinn. Den
Ist das ein Wunder, wenn ein Sucher nach nicht allzu genau
beschriebenen Kriterien etwas in einer riesigen Müllhalde suchen
soll?
Nein. Nur muss man sich den Konsequenzen bewusst sein. Das sind manche
Leider nicht, weil die immer und überall noch eine KI dranbauen wollen
- die dann mehr oder weniger sinnvolles Zeug rausgibt.
Wenn die 1% Bockmist dann zu einem Desaster führen, helfen einem die
99% Sinnvolles auch nix mehr.
--
Gruß
Marco

Spam und Werbung bitte an
***@nirvana.admins.ws
Sieghard Schicktanz
2024-09-04 18:11:46 UTC
Permalink
Hallo Marco,

Du schriebst am Wed, 4 Sep 2024 17:14:33 +0200:

[ChatGPT (u.ä.]
Post by Marco Moock
Ist das ein Wunder, wenn ein Sucher nach nicht allzu genau
beschriebenen Kriterien etwas in einer riesigen Müllhalde suchen
soll?
Nein. Nur muss man sich den Konsequenzen bewusst sein. Das sind manche
Naja. Man _sollte_ sich der Konsequenzen bewusst sein. Auch da ist
Ignorieren möglich, und nicht wenige tun es.
Post by Marco Moock
Leider nicht, weil die immer und überall noch eine KI dranbauen wollen
- die dann mehr oder weniger sinnvolles Zeug rausgibt.
Da muß man allerdings schon "etwas" differenzieren. Es gibt nicht nur "die
KI", das ist ein weites Feld, das gerade ein wenig erforscht wird und es
scheint, daß die Ergebnisse bereits in manchen Bereichen nützlich sein
können - siehe "maschinelles Lernen", Klassifizieren von Strukturen, sogar
Erkennen von Strukturen nach Vorgaben.
"ChatGPT" (& Co.) ist was ganz anderes, das ist ein "LLM", ein "Large
Language Model", ein System, das aus einer riesigen Menge sprachlicher
Äußerungen nach Suchkriterien selektierte herausfiltert und in einem "Back
End Module" daraus orthografisch und grammatisch korrekte Texte generiert
(daher "gerenerative KI").
Post by Marco Moock
Wenn die 1% Bockmist dann zu einem Desaster führen, helfen einem die
99% Sinnvolles auch nix mehr.
Das is6t möglich und leider irgendwo zu befürchten - man kann nur hoffen,
daß es kein größeres Desaster wird (und man selber verschont bleibt)...
(Wobei mir Deine Gewichtung überaus optimistisch erscheint.)
--
(Weitergabe von Adressdaten, Telefonnummern u.ä. ohne Zustimmung
nicht gestattet, ebenso Zusendung von Werbung oder ähnlichem)
-----------------------------------------------------------
Mit freundlichen Grüßen, S. Schicktanz
-----------------------------------------------------------
Marco Moock
2024-09-04 18:59:01 UTC
Permalink
Post by Sieghard Schicktanz
[ChatGPT (u.ä.]
Post by Marco Moock
Ist das ein Wunder, wenn ein Sucher nach nicht allzu genau
beschriebenen Kriterien etwas in einer riesigen Müllhalde suchen
soll?
Nein. Nur muss man sich den Konsequenzen bewusst sein. Das sind manche
Naja. Man _sollte_ sich der Konsequenzen bewusst sein. Auch da ist
Ignorieren möglich, und nicht wenige tun es.
Wobei Letzteres dann in die Kategorie "Kann man so machen, wird dann
aber sch...." geht.
Post by Sieghard Schicktanz
Post by Marco Moock
Leider nicht, weil die immer und überall noch eine KI dranbauen wollen
- die dann mehr oder weniger sinnvolles Zeug rausgibt.
Da muß man allerdings schon "etwas" differenzieren. Es gibt nicht nur
"die KI", das ist ein weites Feld, das gerade ein wenig erforscht
wird und es scheint, daß die Ergebnisse bereits in manchen Bereichen
nützlich sein können - siehe "maschinelles Lernen", Klassifizieren
von Strukturen, sogar Erkennen von Strukturen nach Vorgaben.
Vollkommen richtig. Speziell die Betonung auf Können ist wichtig.
Leider ist das aber aktuell ein Hype und der artet aus - wie andere
Hypes auch. Paar Jahre später ist dann nur noch ein Bruchteil von übrig
und keiner redet mehr darüber.

Ich tendiere aktuell dazu, alles zu meiden, was irgendwie mit KI zu tun
hat. Das Verhältnis zwischen Nutzen und Filteraufwand ist einfach zu
groß - der Datenschutz bleibt auch oft auf der Strecke.
--
Gruß
Marco

Spam und Werbung bitte an
***@nirvana.admins.ws
Stefan+ (Stefan Froehlich)
2024-09-05 11:50:47 UTC
Permalink
Post by Marco Moock
Leider ist das aber aktuell ein Hype und der artet aus - wie
andere Hypes auch. Paar Jahre später ist dann nur noch ein
Bruchteil von übrig und keiner redet mehr darüber.
Genau das sagte ich anno damals auch schon, als man mit dem WWW
anfing, das nützliche, textbasierte Internet um grell-bunte, mit
Bildern angereicherte Seiten zu erweitern: Paar Jahre später redet
keiner mehr darüber.

Wenn man nur vorher wüsste, wo man falsch liegt, man könnte reich
werden.

Servus,
Stefan
--
http://kontaktinser.at/ - die kostenlose Kontaktboerse fuer Oesterreich
Offizieller Erstbesucher(TM) von mmeike

Das süße Geheimnis, oder warum Stefan so rasant rasiert!
(Sloganizer)
Sieghard Schicktanz
2024-09-05 18:35:28 UTC
Permalink
Hallo Marco,
Post by Marco Moock
Post by Sieghard Schicktanz
[ChatGPT (u.ä.]
Naja. Man _sollte_ sich der Konsequenzen bewusst sein. Auch da ist
Ignorieren möglich, und nicht wenige tun es.
Wobei Letzteres dann in die Kategorie "Kann man so machen, wird dann
aber sch...." geht.
Sicher - ist das was neues oder gar ungewöhnliches?

[KI dranbauen]
Post by Marco Moock
Post by Sieghard Schicktanz
Da muß man allerdings schon "etwas" differenzieren. Es gibt nicht nur
"die KI", das ist ein weites Feld, das gerade ein wenig erforscht
wird und es scheint, daß die Ergebnisse bereits in manchen Bereichen
nützlich sein können - siehe "maschinelles Lernen", Klassifizieren
von Strukturen, sogar Erkennen von Strukturen nach Vorgaben.
Vollkommen richtig. Speziell die Betonung auf Können ist wichtig.
Da sollte halt jeweils gut abgewogen werden, ob der - nicht zu
vernachlässigende - Zusatzaufwand den erreichbaren Nuten rechtfertigt.
Leider sind dafür die Maßstäbe manchmal "recht flexibel".
Post by Marco Moock
Leider ist das aber aktuell ein Hype und der artet aus - wie andere
Hypes auch. Paar Jahre später ist dann nur noch ein Bruchteil von übrig
und keiner redet mehr darüber.
Das dürfte sich einlaufen. Wo der Aufwand nichtmalmehr vom aufwendigsten
Marketing gerechtfertigt werden kann, verschwindet er "von selbst". Wo er
den Kunden _nur_ über Marketing aufgeschwatzt werden kann, leider eher
nicht. Allenfalls, wenn das auch für die werbegläubisten Kunden nicht mehr
tragbar ist.
Post by Marco Moock
Ich tendiere aktuell dazu, alles zu meiden, was irgendwie mit KI zu tun
Das könnte bald sogar schwierig werden, wenn schon relativ einfache Geräte
wie Sensoren mit "KI" versehen werden Beim Auto auch, und in der "IT"
werden KI-gestützte Systeme zur "Cybersicherheit" Standard werden, ggfs
werden müssen, wenn die Hacker auch damit arbeiten
Post by Marco Moock
hat. Das Verhältnis zwischen Nutzen und Filteraufwand ist einfach zu
groß - der Datenschutz bleibt auch oft auf der Strecke.
Wird "der Datenschutz" im kommerziellen Umfeld überhaupt irgendwo
ernstgenommen? Die DSGVO ist sowiso nur ein großes dunkles Datenloch,
aber sogar die wird an allen Ecken und Enden ignoriert Die einzigen, die
ihre Daten einigermaßen schützen können, sind die Großkonzerne, und denen
gönne ich die Hacker…
--
(Weitergabe von Adressdaten, Telefonnummern u.ä. ohne Zustimmung
nicht gestattet, ebenso Zusendung von Werbung oder ähnlichem)
-----------------------------------------------------------
Mit freundlichen Grüßen, S. Schicktanz
-----------------------------------------------------------
Dietz Proepper
2024-09-05 07:46:34 UTC
Permalink
Für die allereinfachsten Sachen - ja, da kann man ihn verwenden.
Das funktioniert im Zweifel eben genau dann, wenn der gesuchte Code
tatsächlich (weitgehend) in den Trainingsdaten enthalten ist.
Es ist dummerweise deutlich komplexer.
Aber
ob ich mir jetzt ein "gutes" Startskript suche und search+replace
spiele oder dafür einen LLM anwerfe - der zeitliche Gewinn dürfte
überschaubar sein.
LLM geht einfacher und schneller, aber man weiß halt nicht, ob es
funktoniert oder halluziniert wurde.
"Bullshittet" bitte, siehe
https://www.scientificamerican.com/article/chatgpt-isnt-hallucinating-its-bullshitting/
Suche dauert länger, aber man kann das Suchergebnis selbst bewerten.
Sagen wir es so - wenn ich ein Dokument schreibe, dann ist der
schwierigste Part eigentlich die erste Zeile der Gliederung ;-).
Für sowas (aller- allerersten draft) ist Chattie stellenweise durchaus
brauchbar.

Das aber als "hey, wir brauchen bald keine Fachleute mehr, wir haben
jetzt Chattie" zu verkaufen ist ... nun ja, ein wenig dum (s.
https://joscha.com/nichtlustig/040816/).

Ich spiele gerade ein wenig mit Gitlab Copilot. (Oder war's github?
Dunno.) Kann ich nur empfehlen. Nicht wegen des vorgeblichen Nutzens.
Aber man hängt einen mitm-proxy dazwischen und kann sehen, was das Teil
macht. TL;DR: 250 Zeichen Prompt+source. Der Prompt ist ... lustig.
Ibs. die Teile weite hinten. "You must not criticize MS or Gitlab".

So ein unglaublicher Rotz, man muss es gesehen haben.
--
For a successful technology, reality must take precedence over public
relations, for nature cannot be fooled. - Richard P. Feynman, 1987
Sieghard Schicktanz
2024-09-05 18:18:48 UTC
Permalink
Hallo Dietz,
Post by Dietz Proepper
Sagen wir es so - wenn ich ein Dokument schreibe, dann ist der
schwierigste Part eigentlich die erste Zeile der Gliederung ;-).
Was ist denn für Dich "ein Dokument"? Wenn das eine eigene Gliederung
beinhalten muß, dann muß das schon was umfangreicheres sein, z.B. eine
Bedienungsanleitung. Kleinkram, wie Tabellen oder Anträge, enthalten doch
üblicherweise sowas nicht.
Post by Dietz Proepper
Für sowas (aller- allerersten draft) ist Chattie stellenweise durchaus
brauchbar.
"Sowas" gibt's ja auch vielerlei in solchen "Dokumenten" im internet.
Wobei da der Begriff "Dokument" schon länger das meiste von seiner früheren
Bedeutung, deren Ernsthaftigkeit, verloren hat.
--
(Weitergabe von Adressdaten, Telefonnummern u.ä. ohne Zustimmung
nicht gestattet, ebenso Zusendung von Werbung oder ähnlichem)
-----------------------------------------------------------
Mit freundlichen Grüßen, S. Schicktanz
-----------------------------------------------------------
Marc Haber
2024-09-03 08:09:21 UTC
Permalink
Post by Dietz Proepper
Post by Marc Haber
Post by Richard Fonfara
Gute Idee. Von den im Internet gefundenen Artikeln habe ich 2 bis
jetzt auszugsweise gelesen und kann sagen, dass das Ganze gar nicht
so einfach ist. Aber ich bleibe dran.
Deutsche und Englische Wikipedia. Hilfsweise einfach mal smartctl
--all output nach ChatGPT pasten und die KI fragen. ja, ernst gemeint.
Ui. OpenAI liefert KIen und keine stochastischen Papageien?
Zur Interpretation eines smartctl-Output ist ein stochastischer
Papagei das richtige Tool.

Grüße
Marc
--
----------------------------------------------------------------------------
Marc Haber | " Questions are the | Mailadresse im Header
Rhein-Neckar, DE | Beginning of Wisdom " |
Nordisch by Nature | Lt. Worf, TNG "Rightful Heir" | Fon: *49 6224 1600402
Ulli Horlacher
2024-09-02 22:42:17 UTC
Permalink
Post by Richard Fonfara
Post by Marc Haber
Post by Richard Fonfara
SMART-Werten kann
ich nichts anfangen, sodass ein Test mit smartctl für mich nicht
aussagekräftig ist.
Was könnt ihr mir empfehlen?
Ich empfehle, dass Du Dich über die Interpretation von SMART-Werten
schlau liest.
Gute Idee. Von den im Internet gefundenen Artikeln habe ich 2 bis jetzt
auszugsweise gelesen und kann sagen, dass das Ganze gar nicht so einfach
ist. Aber ich bleibe dran.
Man kann sich auf die wichtigsten beschraenken, zB:

***@wup:~# diskcheck -v sdc
# smartctl --all /dev/sdc |
Device: /dev/sdc
Device Model: Samsung SSD 860 EVO 250GB
Serial Number: S4BFNMFN607023H
User Capacity: 250,059,350,016 bytes [250 GB]
Rotation Rate: Solid State Device
TRIM Command: Available, deterministic, zeroed
Power_On_Hours: 10943
Power_Cycle_Count: 1110
Airflow_Temperature_Cel: 33
Total_GB_written: 6,191
Reallocated_Sector_Ct: 0
Used_Rsvd_Blk_Cnt_Tot: 0
Uncorrectable_Error_Cnt: 0
CRC_Error_Count: 0
No Errors Logged


https://fex.belwue.de/exorzist/diskcheck.html
--
Ullrich Horlacher Server und Virtualisierung
Rechenzentrum TIK
Universitaet Stuttgart E-Mail: ***@tik.uni-stuttgart.de
Allmandring 30a Tel: ++49-711-68565868
70569 Stuttgart (Germany) WWW: https://www.tik.uni-stuttgart.de/
Tim Ritberg
2024-09-02 16:58:38 UTC
Permalink
Post by Richard Fonfara
Ich habe 2 SSDs, eine NvME für /, die andere SATA für /home. Jetzt würde
ich gerne diese (unter Debian Bookworm) testen. Mit SMART-Werten kann
ich nichts anfangen, sodass ein Test mit smartctl für mich nicht
aussagekräftig ist.
Was könnt ihr mir empfehlen?
https://manpages.debian.org/buster/e2fsprogs/badblocks.8.en.html

Tim
Richard Fonfara
2024-09-02 18:55:41 UTC
Permalink
Post by Tim Ritberg
Post by Richard Fonfara
Ich habe 2 SSDs, eine NvME für /, die andere SATA für /home. Jetzt würde
ich gerne diese (unter Debian Bookworm) testen. Mit SMART-Werten kann
ich nichts anfangen, sodass ein Test mit smartctl für mich nicht
aussagekräftig ist.
Was könnt ihr mir empfehlen?
https://manpages.debian.org/buster/e2fsprogs/badblocks.8.en.html
Danke für den Tipp. Ich habe eben den Test ausgeführt und meine SSDs
scheinen OK zu sein.
--
MfG
Richard
Marco Moock
2024-09-03 06:05:14 UTC
Permalink
Post by Richard Fonfara
Post by Tim Ritberg
Post by Richard Fonfara
Ich habe 2 SSDs, eine NvME für /, die andere SATA für /home. Jetzt
würde ich gerne diese (unter Debian Bookworm) testen. Mit
SMART-Werten kann ich nichts anfangen, sodass ein Test mit
smartctl für mich nicht aussagekräftig ist.
Was könnt ihr mir empfehlen?
https://manpages.debian.org/buster/e2fsprogs/badblocks.8.en.html
Danke für den Tipp. Ich habe eben den Test ausgeführt und meine SSDs
scheinen OK zu sein.
Beachte, dass SSDs und auch halbwegs aktuelle Platten nicht alle
Speicherbereiche dem System zur Verfügung stellen, sondern intern
mappen. Wenn badblocks in die Hose geht, ist das zwar ein Indikator für
eine defekte Platte/SSD, ein erfolgreiches Badblocks ist aber KEIN
Indikator dafür, dass alle Speicherbereiche in Ordnung sind.

Schon seit vielen Jahren haben Festplatten Reservesektoren, die statt
defekten Sektoren angesprochen werden.
Alexander Schreiber
2024-09-03 11:02:21 UTC
Permalink
Post by Marco Moock
Post by Richard Fonfara
Post by Tim Ritberg
Post by Richard Fonfara
Ich habe 2 SSDs, eine NvME für /, die andere SATA für /home. Jetzt
würde ich gerne diese (unter Debian Bookworm) testen. Mit
SMART-Werten kann ich nichts anfangen, sodass ein Test mit
smartctl für mich nicht aussagekräftig ist.
Was könnt ihr mir empfehlen?
https://manpages.debian.org/buster/e2fsprogs/badblocks.8.en.html
Danke für den Tipp. Ich habe eben den Test ausgeführt und meine SSDs
scheinen OK zu sein.
Beachte, dass SSDs und auch halbwegs aktuelle Platten nicht alle
Speicherbereiche dem System zur Verfügung stellen, sondern intern
mappen. Wenn badblocks in die Hose geht, ist das zwar ein Indikator für
eine defekte Platte/SSD, ein erfolgreiches Badblocks ist aber KEIN
Indikator dafür, dass alle Speicherbereiche in Ordnung sind.
Und _gerade_ SSDs kommen mit deutlich mehr als der Nennkapazität um
im Verlaufe der versprochenen Lebensdauer ausfallende Bereiche ausgleichen
zu können, ohne die verfügbare Kapazität zu reduzieren. Wieviel
Reserve dabei ist hängt sehr von Hersteller und Modell ab. In einem
mir bekannten Extremfall hat der Hersteller auf Kundenwunsch die Firmware
angepasst und die Reservekapazität auf IIRC 90% der Gesamtkapazität
erhöht - ja, die Nennkapazität ging deutlich runter, war aber für den
Einsatzzweck noch reichlich und Lebensdauer war wichtiger (Systemdisk
in Maschinen die nach Installation generell schwierig zu erreichen oder
zu reparieren sind).
Post by Marco Moock
Schon seit vielen Jahren haben Festplatten Reservesektoren, die statt
defekten Sektoren angesprochen werden.
Nicht "seit vielen Jahren" sondern eigentlich "seit fast immer".
Ganz früher ("damals, vorm Kriech!") kamen die sogar mit einer
badblocks Liste auf Papier - das waren die von der Fertigung her
bereits nicht benutzbaren Blöcke. Und zumindest bei SCSI-Platten
konnte man IIRC die interne badblocks Liste abfragen (und die
Ersatzbeschaffung anstossen, falls die anfing zu wachsen).

Man liest sich,
Alex.
--
"Opportunity is missed by most people because it is dressed in overalls and
looks like work." -- Thomas A. Edison
Peter J. Holzer
2024-09-04 15:54:49 UTC
Permalink
Das gehört nach folklore, nicht hierher.
Die Gruppen sind manchmal schwer unterscheidbar, sorry.

hp
Peter J. Holzer
2024-09-04 16:25:47 UTC
Permalink
Üblicherweise betrachten die Hersteller auch moderate Datenverluste als
spezifikationsgemäß - also, wenn badblocks anspricht. Es gibt da eine
erlaubte Fehlerrate im Datenblatt. Z.B. 1 Fehler pro 10^14 Bits. Das ist
Das sind aber _alle_ gelesenen Bits, die beinhalten auch korrigierbare (und
korrigierte) Fehler der Übertragung innerhalb der Elektronik. Sowas kann
natürlich auch mal "nach draussen" gelangen, aber normalerweise passiert da
eher garnichts, wird nochmal gelesen und geprüft und korrigiert,
Die 10^-14 sind aber die "uncorrected error rate" (worst case laut
SATA-Spec von 2018). D.h., wenn Du eine 12 TB-Disk (10^14 Bits)
vollständig liest, kannst Du damit rechnen, dass Du einen Bit-Fehler
bekommst, der *nicht* automatisch korrigiert wurde und entweder als
Fehlermeldung oder als falsche Daten an das OS weitergeleitet wird.

hp
Sieghard Schicktanz
2024-09-05 18:49:08 UTC
Permalink
Hallo Peter,
Post by Peter J. Holzer
normalerweise passiert da eher garnichts, wird nochmal gelesen und
geprüft und korrigiert,
Die 10^-14 sind aber die "uncorrected error rate" (worst case laut
...
Post by Peter J. Holzer
bekommst, der *nicht* automatisch korrigiert wurde und entweder als
Fehlermeldung oder als falsche Daten an das OS weitergeleitet wird.
Ja, genau. Das ist die Fehlerrate, die das _ußere_ System zu "sehen"
bekommt. Da ist um "Inneren" der Platte schon jede Menge Verarbeitung
gelaufen. Direkt von der Platte dürfte inzwischen die Wahrscheinlichkeit,
daß ein Bit falsch ist,nher an 50 als an 0% liegen. Macht aber nichts, die
Daten sind ja sowieso 8:10-codiert und mit -ib Bits Redundanz erweitert, so
daß sich auch Mehrfachfehler nicht auswirken. Zudem kann ja auch noch
weitere Redundanz über ganze Blöcke weg eingebaut werden, zusammengenommen
und ausgewertet gibt das dann halt die resultierende Fehlerrate.
--
(Weitergabe von Adressdaten, Telefonnummern u.ä. ohne Zustimmung
nicht gestattet, ebenso Zusendung von Werbung oder ähnlichem)
-----------------------------------------------------------
Mit freundlichen Grüßen, S. Schicktanz
-----------------------------------------------------------
Peter J. Holzer
2024-09-05 21:32:24 UTC
Permalink
Post by Sieghard Schicktanz
Post by Peter J. Holzer
normalerweise passiert da eher garnichts, wird nochmal gelesen und
geprüft und korrigiert,
Die 10^-14 sind aber die "uncorrected error rate" (worst case laut
...
Post by Peter J. Holzer
bekommst, der *nicht* automatisch korrigiert wurde und entweder als
Fehlermeldung oder als falsche Daten an das OS weitergeleitet wird.
Ja, genau. Das ist die Fehlerrate, die das _ußere_ System zu "sehen"
bekommt. Da ist um "Inneren" der Platte schon jede Menge Verarbeitung
gelaufen.
Und das ist die Error-Rate, um die es hier geht.

Ob man ein kaputtes Bit pro Festplatte als "broken by design" oder
"eigentlich eh ganz gut" ansieht, hängt von den subjektiven Ansprüchen
ab.
Post by Sieghard Schicktanz
Direkt von der Platte dürfte inzwischen die Wahrscheinlichkeit, daß
ein Bit falsch ist,nher an 50 als an 0% liegen.
Das interessiert aber niemanden außer Harddisk-Entwicklern.

hp
Marcel Mueller
2024-09-04 16:57:16 UTC
Permalink
Hallo Marcel,
...
Üblicherweise betrachten die Hersteller auch moderate Datenverluste als
spezifikationsgemäß - also, wenn badblocks anspricht. Es gibt da eine
erlaubte Fehlerrate im Datenblatt. Z.B. 1 Fehler pro 10^14 Bits. Das ist
Das sind aber _alle_ gelesenen Bits, die beinhalten auch korrigierbare (und
korrigierte) Fehler der Übertragung innerhalb der Elektronik.
Nein, das ist *Non-recoverable* read errors per bits read.
Den Wert habe ich exemplarisch aus dem Datenblatt zu WD Red. Laut
Spezifikation ist das Elektroschrott mit Preisschild. Andere Hersteller
sind aber auch nicht unbedingt besser. Seagate IronWolf Pro schafft es
aber z.B. eine Zehnerpotenz besser.

Der Rohwert vor der Fehlerkorrektur wird nicht angegeben und wäre auch
für Benutzer nicht relevant.
bei einem 12TB Datengrab gerade ein einziges mal komplett lesen. Aus
Usersicht eigentlich broken by design.
Kann man eigentlich nicht sagen - oder verlangst Du auch Sicherheit gegen
das berühmt-berüchtigte "herumirrende Alpha-Teilchen", das mal einen
Lsesverstärker irritiert? Das fällt dann normalerweise der Korrekturlogik
zum Opfer.
Das sind kühne Hoffnungen. Datenverluste sind bei Festplatten fast an
der Tagesordnung. Hatte gerade erst wieder eine in den Fingern. Ca. 800
Blöcke waren unkorrigierbar.


Marcel
Marcel Mueller
2024-09-07 07:35:07 UTC
Permalink
Post by Marcel Mueller
Nein, das ist *Non-recoverable* read errors per bits read.
Den Wert habe ich exemplarisch aus dem Datenblatt zu WD Red. Laut
Spezifikation ist das Elektroschrott mit Preisschild.
WD Red sind für RAID optimierte Platten.
Meine Auswahl war Zufall.
Man will hier gar nicht, das die Platte sich langwierig damit abmüht,
die Daten doch noch irgendwie zu lesen, das produziert nur störende
Timeouts.
Ohne rein gesehen zu haben: ich wette die anderen Serien von WD sind
auch nicht besser.
Es würde mich fast wundern, wenn es bei WD überhaupt noch irgendeine
brauchbare Festplatte gibt. Die letzten waren AFAIK die Velociraptor.
Der RAID-Controller kann das sehr viel besser, er hat eine
vollkommen intakte Kopie der Daten auf den anderen Platten, die er in
Sekundenbruchteilen lesen und zurück schreiben kann.
Schon klar, aber wie gesagt, die anderen sind nicht besser. Das ist
derselbe Ramsch nur mit einem anderen Typenschild.


Marcel
Marcel Mueller
2024-09-07 07:30:05 UTC
Permalink
Üblicherweise betrachten die Hersteller auch moderate Datenverluste
als spezifikationsgemäß - also, wenn badblocks anspricht. Es gibt da
eine erlaubte Fehlerrate im Datenblatt. Z.B. 1 Fehler pro 10^14 Bits.
Das ist bei einem 12TB Datengrab gerade ein einziges mal komplett
lesen. Aus Usersicht eigentlich broken by design.
Wenn man das ein klein realistischer betrachtet und die Fehlerquote
nicht zur Größe eines Datenträgers ins Verhältnis setzt sondern absolut
betrachtet, wäre diese 12TB-Platte schon wesentlich zuverlässiger als
die gute alte Seagate ST225, welche sich immerhin spezifikationsgemäß 1
Fehler je 10^12 Bits erlauben durfte.
Ack. ST225 hatte aber auch eher das Problem, dass man sie beim
Einschalten immer ordentlich treten musste, weil jedes mal die Köpfe
festgeklebt sind. ;-) Ich hatte glücklicherweise eine ST296N, die die
Köpfe schon parkte.

Allerdings haben sich in den Jahren auch die Daten weiterentwickelt.
Hatte man früher eine Datei mit ein paar kB, sind es heute halt meist
ein paar MB. Und eines haben beide gemein: wenn durch Datenfehler
Sektoren fehlen sind beide jeweils futsch.
Aus Usersicht ist ein Datenfehler immer eine kaputte Datei. Daran hat
sich nichts geändert. Insofern ist nur die absolute Zahl an Fehlern
relevant. Anders gesagt, die Anforderungen haben sich geändert; und das
gilt eben nicht nur für Größe und Datendurchsatz.
Davon abgesehen wirbt doch aber z.B. schon die uralte Seagate Barracuda
mit 12TB im Datenblatt mit einem Bitfehler je gelesenen 10^15 Bits
Das haben sich die meisten (verbliebenen) Festplattenhersteller ganz
schnell abgewöhnt. Da müsste man ja am Ende noch Qualität liefern.
Aber ja, ich werde bestimmt niemals eine Platte in halbwegs aktueller
Größe mit 10^-14 Fehlerrate kaufen.

Heutzutage geben die meisten ja nicht einmal mehr (relevante)
Performancedaten wie Zugriffszeit an. Wäre wohl auch zu peinlich, wenn
sie /langsamer/ als vor 30 Jahren sind.


Marcel
Hergen Lehmann
2024-09-07 09:04:02 UTC
Permalink
Post by Marcel Mueller
Heutzutage geben die meisten ja nicht einmal mehr (relevante)
Performancedaten wie Zugriffszeit an. Wäre wohl auch zu peinlich, wenn
sie /langsamer/ als vor 30 Jahren sind.
Nein, warum?

Wer Performance will, kauft heute SSD.

Festplatten sind nur noch in genau einem Anwendungsbereich interessant,
nämlich wenn sehr große Datenmengen möglichst preiswert (und mit
wahlfreiem Zugriff) gespeichert werden sollen. Kann durch schlechtere
Zugriffszeiten die Speicherkapazität gesteigert oder der Preis reduziert
werden, ist das genau den Weg, den Hersteller und Anwender gehen werden.
Marcel Mueller
2024-09-07 12:01:48 UTC
Permalink
Post by Hergen Lehmann
Post by Marcel Mueller
Heutzutage geben die meisten ja nicht einmal mehr (relevante)
Performancedaten wie Zugriffszeit an. Wäre wohl auch zu peinlich, wenn
sie /langsamer/ als vor 30 Jahren sind.
Nein, warum?
Meine Platte im 486er damals hatte ca. 15ms Zugriffszeit, also um die 60
IOPS. Bei modernen Datengräbern kann man zuweilen froh sein, wenn sie
mehr als 40 IOPS schaffen. Zwischendurch waren aber mal Desktopplatten
üblich, die über 80 IOPS schafften. Die Platte, die ich kurz vor dem
Wechsel auf SSD hatte, macht über 160 IOPS - OK, das ist eher die Ausnahme.
Post by Hergen Lehmann
Wer Performance will, kauft heute SSD.
Latürnich.
Post by Hergen Lehmann
Festplatten sind nur noch in genau einem Anwendungsbereich interessant,
nämlich wenn sehr große Datenmengen möglichst preiswert (und mit
wahlfreiem Zugriff) gespeichert werden sollen. Kann durch schlechtere
Zugriffszeiten die Speicherkapazität gesteigert oder der Preis reduziert
werden, ist das genau den Weg, den Hersteller und Anwender gehen werden.
Den Weg sind sie allerdings schon vor der weiten Verbreitung von SSDs
gegangen. Als ich vor 14 Jahren meine erste SSD angeschafft habe (ist
vor ein paar Tagen übrigens verreckt), ging das auch schon los.


Marcel
Hergen Lehmann
2024-09-07 15:34:35 UTC
Permalink
Post by Marcel Mueller
Post by Hergen Lehmann
Festplatten sind nur noch in genau einem Anwendungsbereich
interessant, nämlich wenn sehr große Datenmengen möglichst preiswert
(und mit wahlfreiem Zugriff) gespeichert werden sollen. Kann durch
schlechtere Zugriffszeiten die Speicherkapazität gesteigert oder der
Preis reduziert werden, ist das genau den Weg, den Hersteller und
Anwender gehen werden.
Den Weg sind sie allerdings schon vor der weiten Verbreitung von SSDs
gegangen.
Natürlich. Es gab schon einmal eine scharfe Trendwende bei den
Anforderungen an eine Festplatte, nämlich, als viele Gigabyte RAM zum
Standard wurden und der typische Server oder PC anfing, weitgehend aus
dem Cache heraus zu arbeiten.

Da waren teure, stromhungrige, wegen der hohen Betriebstemperaturen
letztlich auch störanfällige Platten mit 10000RPM und rekordverdächtigen
IOPs dann plötzlich nicht mehr gefragt.
Marcel Mueller
2024-09-08 21:10:55 UTC
Permalink
Post by Hergen Lehmann
Post by Marcel Mueller
Post by Hergen Lehmann
Festplatten sind nur noch in genau einem Anwendungsbereich
interessant, nämlich wenn sehr große Datenmengen möglichst preiswert
(und mit wahlfreiem Zugriff) gespeichert werden sollen. Kann durch
schlechtere Zugriffszeiten die Speicherkapazität gesteigert oder der
Preis reduziert werden, ist das genau den Weg, den Hersteller und
Anwender gehen werden.
Den Weg sind sie allerdings schon vor der weiten Verbreitung von SSDs
gegangen.
Natürlich. Es gab schon einmal eine scharfe Trendwende bei den
Anforderungen an eine Festplatte, nämlich, als viele Gigabyte RAM zum
Standard wurden und der typische Server oder PC anfing, weitgehend aus
dem Cache heraus zu arbeiten.
Da waren teure, stromhungrige, wegen der hohen Betriebstemperaturen
letztlich auch störanfällige Platten mit 10000RPM und rekordverdächtigen
IOPs dann plötzlich nicht mehr gefragt.
Ich hatte etliche 10k- und 15k-Platten im Einsatz. Die waren durch die
Bank wesentlich zuverlässiger als die 7k2-Klasse, schlicht, weil sie für
den professionellen Einsatz konzipiert waren.
Und nein, im Servermarkt hat sich seinerzeit niemand getraut, lahme
Platten ohne Angabe von Zugriffszeiten zu verkaufen. Das dürfte auch
heute noch so sein.


Marcel
Sieghard Schicktanz
2024-09-07 19:08:44 UTC
Permalink
Hallo Hergen,
Post by Hergen Lehmann
Wer Performance will, kauft heute SSD.
Festplatten sind nur noch in genau einem Anwendungsbereich interessant,
nämlich wenn sehr große Datenmengen möglichst preiswert (und mit
wahlfreiem Zugriff) gespeichert werden sollen. ...
Etwas mehr können die schon abdecken, was SSDs nicht können: Archivierung.
SSDs sind Datenträger mit eingebauter Verfallszeit, sozusagen. Magnetische
Festplatten sind ihnen in der Hinsicht um "Größenordnungen" überlegen. Und
sie sind, inzwischen, sogar den traditionellen Langzeitspeichern, den
Bändern, überlegen, was die Kapazität und Datensicherheit betrifft, weil
sie nicht einmal den bei den Bändern destruktiven Kopiereffekt haben.
Man darf gespannt sein, ob es wieder eine Datenspeichertechnik geben wird,
die ähnliche Stabilität aufweist wie die magnetische Aufzeichnung auf
"rotierendem Rost". Die optischen Plate-Scheiben haben das ja nicht
geschafft.
--
(Weitergabe von Adressdaten, Telefonnummern u.ä. ohne Zustimmung
nicht gestattet, ebenso Zusendung von Werbung oder ähnlichem)
-----------------------------------------------------------
Mit freundlichen Grüßen, S. Schicktanz
-----------------------------------------------------------
Peter J. Holzer
2024-09-07 21:22:45 UTC
Permalink
Post by Sieghard Schicktanz
Post by Hergen Lehmann
Wer Performance will, kauft heute SSD.
Festplatten sind nur noch in genau einem Anwendungsbereich interessant,
nämlich wenn sehr große Datenmengen möglichst preiswert (und mit
wahlfreiem Zugriff) gespeichert werden sollen. ...
Etwas mehr können die schon abdecken, was SSDs nicht können: Archivierung.
Und dafür braucht man auch keine kurzen Seekzeiten, sondern ebenfalls
hohe Kapazität und niedrige Kosten. Geht also genau in die gleiche
Richtung.

hp
Marcel Mueller
2024-09-08 21:18:24 UTC
Permalink
Post by Sieghard Schicktanz
Hallo Hergen,
Post by Hergen Lehmann
Wer Performance will, kauft heute SSD.
Festplatten sind nur noch in genau einem Anwendungsbereich interessant,
nämlich wenn sehr große Datenmengen möglichst preiswert (und mit
wahlfreiem Zugriff) gespeichert werden sollen. ...
Etwas mehr können die schon abdecken, was SSDs nicht können: Archivierung.
SSDs sind Datenträger mit eingebauter Verfallszeit, sozusagen. Magnetische
Festplatten sind ihnen in der Hinsicht um "Größenordnungen" überlegen.
Nicht wirklich. Die Retention Time liegt in ähnlichen Größenordnungen.
Ich beiden Fällen erfolgt der Datenzerfall durch Tunneleffekt. Einmal
kippen halt magnetische Domänen und im anderen Fall fließt Ladung ab.
Beides sind über die Zeit kumulative Effekte.
Post by Sieghard Schicktanz
Und
sie sind, inzwischen, sogar den traditionellen Langzeitspeichern, den
Bändern, überlegen, was die Kapazität und Datensicherheit betrifft, weil
sie nicht einmal den bei den Bändern destruktiven Kopiereffekt haben.
Bänder haben primär ein Problem mit dem fehlenden Reinraum.
Post by Sieghard Schicktanz
Man darf gespannt sein, ob es wieder eine Datenspeichertechnik geben wird,
die ähnliche Stabilität aufweist wie die magnetische Aufzeichnung auf
"rotierendem Rost". Die optischen Plate-Scheiben haben das ja nicht
geschafft.
Optisch geht einfach nur viel zu wenig drauf. Die Numerische Apertur
erlaubt bei sinnvoll handhabbaren Wellenlängen keine so hohen
Aufzeichnungsdichten.

Und in Sachen Stabilität sind Magnetooptische Datenträger sowohl den
magnetische als auch den optischen haushoch überlegen. Durch die
antiferromagnetischen Schichten ist das Kippen von Domänen nahezu kein
Thema.


Marcel
Marcel Logen
2024-09-09 16:06:36 UTC
Permalink
Post by Marcel Mueller
Post by Sieghard Schicktanz
Etwas mehr können die schon abdecken, was SSDs nicht können: Archivierung.
SSDs sind Datenträger mit eingebauter Verfallszeit, sozusagen. Magnetische
Festplatten sind ihnen in der Hinsicht um "Größenordnungen" überlegen.
Nicht wirklich. Die Retention Time liegt in ähnlichen
Größenordnungen. Ich beiden Fällen erfolgt der Datenzerfall durch
Ist es eigentlich sinnvoll, (externe) SSDs z. B. einmal pro Monat
(für ein paar Minuten?) an den Rechner anzuschließen, um solche Ef-
fekte zu verhindern, oder handelt es sich dabei um eine Mär?

Marcel
--
Mon Sep 9 18:06:36 2024 CEST (1725897996)
pc-731
87 o74w 95p9
Lines: 22
Ralph Aichinger
2024-09-09 16:14:15 UTC
Permalink
Post by Marcel Logen
Ist es eigentlich sinnvoll, (externe) SSDs z. B. einmal pro Monat
(für ein paar Minuten?) an den Rechner anzuschließen, um solche Ef-
fekte zu verhindern, oder handelt es sich dabei um eine Mär?
Eher alle 1-5 Jahre, IMHO.

/ralph
Sieghard Schicktanz
2024-09-09 18:14:07 UTC
Permalink
Hallo Marcel,
Post by Marcel Logen
Ist es eigentlich sinnvoll, (externe) SSDs z. B. einmal pro Monat
(für ein paar Minuten?) an den Rechner anzuschließen, um solche Ef-
fekte zu verhindern, oder handelt es sich dabei um eine Mär?
Es "soll" da entsprechende Hersteller-Empfehlungen geben. Marcel weiß da
sicher genaueres dazu.
--
(Weitergabe von Adressdaten, Telefonnummern u.ä. ohne Zustimmung
nicht gestattet, ebenso Zusendung von Werbung oder ähnlichem)
-----------------------------------------------------------
Mit freundlichen Grüßen, S. Schicktanz
-----------------------------------------------------------
Sieghard Schicktanz
2024-09-09 18:13:07 UTC
Permalink
Hallo Marcel,
Post by Marcel Mueller
Archivierung. SSDs sind Datenträger mit eingebauter Verfallszeit,
sozusagen. Magnetische Festplatten sind ihnen in der Hinsicht um
"Größenordnungen" überlegen.
Nicht wirklich. Die Retention Time liegt in ähnlichen Größenordnungen.
Bitte um gesicherte Daten dazu, z.B. Datenblattwerte.
Post by Marcel Mueller
Ich beiden Fällen erfolgt der Datenzerfall durch Tunneleffekt. Einmal
kippen halt magnetische Domänen und im anderen Fall fließt Ladung ab.
Wobei die Domänenwände nicht wie die Gate-Ladungen inhärent instabil sind.
Die reagieren eher auf externe Felder. Natürlich wird das nicht gerade
besser, wenn die Größe der magnetisierten Bereiche in die Gegend der
Wanddicke kommt, was inzwischen schon nahezu erreicht ist. Dafür werden die
Gete-Elektronen in den Flash-Speichern immer einfacher abzählbar, und bei
den Multi-Level-Zellen sind halt die Übergänge recht kritisch.
Post by Marcel Mueller
Beides sind über die Zeit kumulative Effekte.
Ohne Reparatur ist jeder Effekt kumulativ, deswegen gibt es ja die
"Refresh"-Funktionen, vm DRAM über SSDs bis durchaus auch bei Magnetplatten.
...
Post by Marcel Mueller
Bänder haben primär ein Problem mit dem fehlenden Reinraum.
Eher damit, daß es keine mit Luftpolsterführung mehr gab. Der direkte
Kopfkontakt wurde bei den Festplatten schon von Anfang an vermieden, für
Bänder wurde da nie Abhilfe entwickelt. Das lohnte sich halt nicht für
deren Anwendungsbereich.

...
Post by Marcel Mueller
Optisch geht einfach nur viel zu wenig drauf. Die Numerische Apertur
erlaubt bei sinnvoll handhabbaren Wellenlängen keine so hohen
Aufzeichnungsdichten.
Es gäbe auch da weitere Möglichkeiten, wie Multispektral-Aufzeinung,
Multi-Level-Aufzeichnung ider gar irgendein passender Quanten-Effekt.
Falls da was entwickelt wird, ist es wohl noch nicht ausreichend.
--
(Weitergabe von Adressdaten, Telefonnummern u.ä. ohne Zustimmung
nicht gestattet, ebenso Zusendung von Werbung oder ähnlichem)
-----------------------------------------------------------
Mit freundlichen Grüßen, S. Schicktanz
-----------------------------------------------------------
Marcel Mueller
2024-09-10 06:52:14 UTC
Permalink
Post by Sieghard Schicktanz
Post by Marcel Mueller
Archivierung. SSDs sind Datenträger mit eingebauter Verfallszeit,
sozusagen. Magnetische Festplatten sind ihnen in der Hinsicht um
"Größenordnungen" überlegen.
Nicht wirklich. Die Retention Time liegt in ähnlichen Größenordnungen.
Bitte um gesicherte Daten dazu, z.B. Datenblattwerte.
Das rücken die Hersteller eher nicht raus, schon gar nicht bei Consumerware.
Post by Sieghard Schicktanz
Post by Marcel Mueller
Ich beiden Fällen erfolgt der Datenzerfall durch Tunneleffekt. Einmal
kippen halt magnetische Domänen und im anderen Fall fließt Ladung ab.
Wobei die Domänenwände nicht wie die Gate-Ladungen inhärent instabil sind.
Die reagieren eher auf externe Felder. Natürlich wird das nicht gerade
besser, wenn die Größe der magnetisierten Bereiche in die Gegend der
Wanddicke kommt, was inzwischen schon nahezu erreicht ist.
Das hat mit den Stärken der Domänenwände allenfalls mittelbar zu tun.
Es geht um die Anisotropie des Materials die eine Energiebarriere
bildet, welche verhindert, dass Domänen kippen. Und dann baut man halt
ein Antiferromagnetisch gekoppeltes Schichtsystem auf, um die Energie
pro Domäne hinreichend hoch zu halten, um der thermischen Relaxation zu
entgehen. Aber am Ende ist das alles nur Wahrscheinlichkeitsrechnung.
Wenn man lange genug wartet, vorzugsweise in Kombination mit kuschelig
warm, können Domänen halt trotzdem kippen. Durch den Tunneleffekt gibt
es immer eine endliche Wahrscheinlichkeit, Energiebarrieren zu überwinden.
Naja, und Degradationen von den Köpfen oder der Drehzahl- und
Spurlagenregelung sowie Ölablagerungen am Kopf tun ein übriges, um die
Schreib- und Lesequalität zu verschlechtern.
Post by Sieghard Schicktanz
Dafür werden die
Gete-Elektronen in den Flash-Speichern immer einfacher abzählbar, und bei
den Multi-Level-Zellen sind halt die Übergänge recht kritisch.
Ja, auch da ist die Isolation begrenzt. Vor allem weil sie durch das
Löschen der Blöcke regelmäßig geschädigt wird.

Das mit der "zählbaren" Ladung gilt für DRAMs aber auch. Am Ende
entscheidet auch da nicht primär die Anzahl der Ladungsträger, sondern
eher die Höhe der Energiebarriere. Deshalb versucht man durch alle
möglichen Tricks die gespeicherte Energie hoch genug zu halten. High k
Materials ist da ein wichtiges Thema.
Post by Sieghard Schicktanz
Post by Marcel Mueller
Beides sind über die Zeit kumulative Effekte.
Ohne Reparatur ist jeder Effekt kumulativ, deswegen gibt es ja die
"Refresh"-Funktionen, vm DRAM über SSDs bis durchaus auch bei Magnetplatten.
Bei Platten ist das aber eher unüblich. Zumindest hatte ich noch nie
eine Platte, die unaufgefordert Scrubbing betreiben würde.
Es kann allerdings trotzdem funktionieren, wenn man eine Platte ab und
an mal komplett liest. Wenn dabei einige Sektoren die Fehlerkorrektur zu
hart belasten, kann die Platte durchaus einen Refresh der Daten durchführen.
Das habe ich neulich mal bei einer alten Platte gemacht. Das hat ewig
gedauert (Tage). Die Platte hat tatsächlich einiges repariert, aber ca.
800 Blöcke halt auch nicht mehr. OK, war auch eine HGST Deathstar.
Ein im Hintergrund laufender, erweiterter Selbsttest hat übrigens nicht
gereicht. Der hat nach den ersten paar Fehlern einfach abgebrochen.

SSDs hätten es aufgrund der viel höheren Transferraten, wesentlich
leichter, das im Hintergrund zu machen. Aber ich kenne noch keine
bestätigten Informationen über Firmwares, die das unaufgefordert tun.
Insofern sind die Empfehlungen die Dinger ab und an mal kurz an den
Strom zu hängen, willkürlich, zumal einige Minuten auch bei
SSD-Geschwindigkeiten nirgendwo hin reichen. Allerdings könnte hier ein
gelegentlich gestarteter erweiterter Selbsttest durchaus Nutzen stiften.
Zumindest muss die Firmware bei diesem Test Farbe bekennen und alle
Blöcke prüfen und ggf. die Smart-Werte aktualisieren. An deren Änderung
erkennt man auch ganz gut, wenn sich dabei etwas tut.
Post by Sieghard Schicktanz
...
Post by Marcel Mueller
Bänder haben primär ein Problem mit dem fehlenden Reinraum.
Eher damit, daß es keine mit Luftpolsterführung mehr gab. Der direkte
Ack.
Post by Sieghard Schicktanz
Kopfkontakt wurde bei den Festplatten schon von Anfang an vermieden, für
Bänder wurde da nie Abhilfe entwickelt. Das lohnte sich halt nicht für
deren Anwendungsbereich.
Es wäre auch nahezu unmöglich. Die Staubteilchen in der Raumluft würden
nicht in den Spalt zwischen Kopf und Medium passen. Und dann gibt es
noch so Untiefen, wie dass die Bänder in beiden Richtungen genutzt
werden und das noch bei unterschiedlichen Bandgeschwindigkeiten.
Post by Sieghard Schicktanz
Post by Marcel Mueller
Optisch geht einfach nur viel zu wenig drauf. Die Numerische Apertur
erlaubt bei sinnvoll handhabbaren Wellenlängen keine so hohen
Aufzeichnungsdichten.
Es gäbe auch da weitere Möglichkeiten, wie Multispektral-Aufzeinung,
Multi-Level-Aufzeichnung ider gar irgendein passender Quanten-Effekt.
Falls da was entwickelt wird, ist es wohl noch nicht ausreichend.
Holografische Speicher funktionieren technisch. Aber die
Datentransferraten sind unterirdisch. Es dauert viel zu lange so einen
Nichtlinearen Kristall komplett voll und wieder leer zu bekommen.

Es gibt auch noch ganz andere Konzepte. DNA-Speicher zum Beispiel. Die
Geschwindigkeit ist auch unterirdisch, aber die Aufzeichnungsdichte
bricht alle Rekorde, selbst dann wenn man exzessiv Fehlerkorrektur einplant.

Deutlich näher an der Realität sind Sachen wie MRAM. Rattenschnell, aber
hässlich hohe Schreibströme. Eher was für Satelliten oder High
Availability Caches.
Oder CNT, ist halt noch recht neu.

Aber vom Labor bis zur Marktreife und weiter bis zur Massentauglichkeit
ist bekanntlich ein langer Weg, der meist in einer Sackgasse endet. Auf
absehbare Zeit führt an den Flash-RAMs daher kaum ein Weg vorbei.


Marcel
Sieghard Schicktanz
2024-09-10 19:42:35 UTC
Permalink
Hallo Marcel,

Du schriebst am Tue, 10 Sep 2024 08:52:14 +0200:

["Verfallszeit"]
Post by Marcel Mueller
Post by Sieghard Schicktanz
Post by Marcel Mueller
sozusagen. Magnetische Festplatten sind ihnen in der Hinsicht um
"Größenordnungen" überlegen.
Nicht wirklich. Die Retention Time liegt in ähnlichen Größenordnungen.
Bitte um gesicherte Daten dazu, z.B. Datenblattwerte.
Das rücken die Hersteller eher nicht raus, schon gar nicht bei Consumerware.
Das stützt Deine Meinung aber nicht gerade.

...
Post by Marcel Mueller
Das hat mit den Stärken der Domänenwände allenfalls mittelbar zu tun.
Es geht um die Anisotropie des Materials die eine Energiebarriere
bildet, welche verhindert, dass Domänen kippen. Und dann baut man halt
ein Antiferromagnetisch gekoppeltes Schichtsystem auf, um die Energie
Hmm - Di bist sicher, daß Du hier noch die Konstruktion von _Festplatten_
meinst? Solche Schichtsystem werde für verschiedene, auch magnetische,,
auch Speichersysteme untersucht, und in vielen Fällen sind dabei die
Domänen _gegenüber dem Material_ bewegt. Bei Festplatten sind die Domänen
stationär zum Material,
...
Post by Marcel Mueller
warm, können Domänen halt trotzdem kippen. Durch den Tunneleffekt gibt
es immer eine endliche Wahrscheinlichkeit, Energiebarrieren zu überwinden.
Dazu braucht es nichtmal einen Tunneleffekt, die thermische Bewegung reicht.
Da wäre theoretisch sogar deine Flash-Zelle "stabiler", weil da die
Ladungen rundum isoliert sind. Dummerweise muß halt die Isolierung so dünn
sein, daß sie eine Tunnelung nicht ausreichend unterbindet, und muß mit
steigenden Kapazitäten noch dünner werden. Und Tunneln geht halt reziprok
exponentiell zur Barrierendicke.
Post by Marcel Mueller
Naja, und Degradationen von den Köpfen oder der Drehzahl- und
Spurlagenregelung sowie Ölablagerungen am Kopf tun ein übriges, um die
Schreib- und Lesequalität zu verschlechtern.
Eine halbwegs aktuelle Festplatte, in deren Plattenstapel Öl rumfliegt,
hat keine relevante Lebensdauer. Die Mechanik ist natürlich dem Verschleiß
ausgesetzt.
Post by Marcel Mueller
Post by Sieghard Schicktanz
Dafür werden die
Gete-Elektronen in den Flash-Speichern immer einfacher abzählbar, und
bei den Multi-Level-Zellen sind halt die Übergänge recht kritisch.
Ja, auch da ist die Isolation begrenzt. Vor allem weil sie durch das
Löschen der Blöcke regelmäßig geschädigt wird.
Das mit der "zählbaren" Ladung gilt für DRAMs aber auch. Am Ende
Sicher. Deswegen hatten DRAMs ja von Anfang an eine Schaltung zum
regelmäßigen Auffrischen ihrer Daten nötig, bei den ersten sogar noch
extern, inzwischen integriert.
Post by Marcel Mueller
entscheidet auch da nicht primär die Anzahl der Ladungsträger, sondern
eher die Höhe der Energiebarriere. Deshalb versucht man durch alle
Bitte unterscheiden: Die Anzahl der Ladungsträger entscheidet über den
gespeicherten Datenwert, die Höhe der Energiebarriere entscheidet über
die "Zerfallsdauer" der Ladungsmenge. Das beeinflußt sich natürlich.

["Refresh"-Funktionen]
Post by Marcel Mueller
Bei Platten ist das aber eher unüblich. Zumindest hatte ich noch nie
eine Platte, die unaufgefordert Scrubbing betreiben würde.
Na, wenn Du das mit Sicherheit so sagen kannst.
Post by Marcel Mueller
Es kann allerdings trotzdem funktionieren, wenn man eine Platte ab und
an mal komplett liest. Wenn dabei einige Sektoren die Fehlerkorrektur zu
hart belasten, kann die Platte durchaus einen Refresh der Daten
Üblicherweise machen die das doch erst, wenn so ein defekter Block neu
beschrieben wird? Ok, ein Refresh korrekt lesbarer Blöcke mag vorkommen.
Post by Marcel Mueller
durchführen. Das habe ich neulich mal bei einer alten Platte gemacht. Das
hat ewig gedauert (Tage). Die Platte hat tatsächlich einiges repariert,
aber ca. 800 Blöcke halt auch nicht mehr. OK, war auch eine HGST
Tatsächlich _repariert_, d.h. defekte Blöcke durch Ersatz-Blöcke ersetzt
(smart ""Reallocated_Sector_Ct" hochgezählt)?

...
Post by Marcel Mueller
SSDs hätten es aufgrund der viel höheren Transferraten, wesentlich
leichter, das im Hintergrund zu machen. Aber ich kenne noch keine
bestätigten Informationen über Firmwares, die das unaufgefordert tun.
Schon, das hört oder liest man halt immer wieder mal.
Post by Marcel Mueller
Insofern sind die Empfehlungen die Dinger ab und an mal kurz an den
Strom zu hängen, willkürlich, zumal einige Minuten auch bei
SSD-Geschwindigkeiten nirgendwo hin reichen. Allerdings könnte hier ein
Bei einigen 10TB sind auch die schnellsten Flash-Speicher "schnell
langsam", auch wenn da viel mehr intern parallel laufen könnte - aber auch
das hat seine Grenzen.
Post by Marcel Mueller
gelegentlich gestarteter erweiterter Selbsttest durchaus Nutzen stiften.
Fraglich. Da kommt's halt sehr darauf an, was der Hersteller da eingebaut
hat. Ich würde nicht auf mehr als einen umfangreichen Lesetest wetten
wollen.
Post by Marcel Mueller
Zumindest muss die Firmware bei diesem Test Farbe bekennen und alle
Blöcke prüfen und ggf. die Smart-Werte aktualisieren. An deren Änderung
erkennt man auch ganz gut, wenn sich dabei etwas tut.
[Bänder]
Post by Marcel Mueller
Post by Sieghard Schicktanz
Eher damit, daß es keine mit Luftpolsterführung mehr gab. Der direkte
Ack.
...
Post by Marcel Mueller
Es wäre auch nahezu unmöglich. Die Staubteilchen in der Raumluft würden
nicht in den Spalt zwischen Kopf und Medium passen. Und dann gibt es
Das kommt erstmal auf den Abstand an, und dann muß man ja auch keine
_Raumluft_ da 'reinblasen. Da gibt es schon ganz gute Filter, auch wenn das
bei den nötigen Luftmengen ggfs. "eng "werden könnte. Ist aber inzwischen
auch eher uninteressant.

...
Post by Marcel Mueller
Holografische Speicher funktionieren technisch. Aber die
Datentransferraten sind unterirdisch. Es dauert viel zu lange so einen
Nichtlinearen Kristall komplett voll und wieder leer zu bekommen.
Das ist halt ein Leistungsproblem, in Kombination mit den Zeitkonstanten
der Materialien.
Post by Marcel Mueller
Es gibt auch noch ganz andere Konzepte. DNA-Speicher zum Beispiel. Die
Das wäre mal was. Da wird dann der Aufwand für die Bearbeitung immens,
wenn auch recht raumsparend. Es gibt nur noch keinerlei Ansatz zu einer
Verfahrentechnik dafür, schon von den nötigen Geräten zum Bau weg.
Post by Marcel Mueller
Geschwindigkeit ist auch unterirdisch, aber die Aufzeichnungsdichte
bricht alle Rekorde, selbst dann wenn man exzessiv Fehlerkorrektur einplant.
Die Geschwindigkeit sollte angesichts der Datenmengen nicht das Problem
sein. Aber es handelt sich dabei halt wieder um "Bänder", d.h. ein
1-dimensionales Speichersystem, das _sehr_ aufwendiges Suchen nach einer
bestimmten Zugriffsstelle nötig macht. Am besten ginge noch assoziative
Suche.
Post by Marcel Mueller
Deutlich näher an der Realität sind Sachen wie MRAM. Rattenschnell, aber
Sind schon länger mit kleinen Kapazitäten serienmäßig verfügbar, inzwischen
auch in Multi-MB-Größe. (Leider keine Referenz, habe ich mir wegen nicht-
Bedarf nicht gemerkt...)
Post by Marcel Mueller
hässlich hohe Schreibströme. Eher was für Satelliten oder High
Availability Caches.
Oder CNT, ist halt noch recht neu.
Für "CNT" ("Carbon Nano Tubes", nehme ich an?) gilt im wesentlichen dasselbe
wie für "DNA" oben - es fehlen die Fertigungsgeräte. Inzwischen lassen sich
die Dinger zwar einzeln halbwegs gezielt 'rumbugsieren, bis zu "größeren"
Anordnungen ist aber noch einiges an Forschung nötig. Und die gezielt zu
fertigen ist auch noch nicht so recht stabil möglich.
...
Post by Marcel Mueller
absehbare Zeit führt an den Flash-RAMs daher kaum ein Weg vorbei.
^^^^^^^^^^
Hmm - Absicht? (Auch wenn die Abkürzung sowieso stimmt.)
--
(Weitergabe von Adressdaten, Telefonnummern u.ä. ohne Zustimmung
nicht gestattet, ebenso Zusendung von Werbung oder ähnlichem)
-----------------------------------------------------------
Mit freundlichen Grüßen, S. Schicktanz
-----------------------------------------------------------
Marcel Mueller
2024-09-11 05:47:25 UTC
Permalink
Post by Sieghard Schicktanz
Post by Marcel Mueller
Das hat mit den Stärken der Domänenwände allenfalls mittelbar zu tun.
Es geht um die Anisotropie des Materials die eine Energiebarriere
bildet, welche verhindert, dass Domänen kippen. Und dann baut man halt
ein Antiferromagnetisch gekoppeltes Schichtsystem auf, um die Energie
Hmm - Di bist sicher, daß Du hier noch die Konstruktion von _Festplatten_
meinst? Solche Schichtsystem werde für verschiedene, auch magnetische,,
auch Speichersysteme untersucht, und in vielen Fällen sind dabei die
Domänen _gegenüber dem Material_ bewegt. Bei Festplatten sind die Domänen
stationär zum Material,
Meines Wissens haben alle Platten der letzten 20 Jahre so einen
Schichtaufbau. Die oberste Schicht ist der Master, der geschrieben und
gelesen wird. Darunter koppelt man antiferromagnetisch. Das erhöht die
Energie pro Domäne und verringert die Anfälligkeit gegenüber Magnetfeldern.
Post by Sieghard Schicktanz
...
Post by Marcel Mueller
warm, können Domänen halt trotzdem kippen. Durch den Tunneleffekt gibt
es immer eine endliche Wahrscheinlichkeit, Energiebarrieren zu überwinden.
Dazu braucht es nichtmal einen Tunneleffekt, die thermische Bewegung reicht.
Das ist am Ende dasselbe. Die thermische Energie reduziert einfach nur
die Energiebarriere. Würde sie alleine ausreichen, wäre man schon im
Bereich des Superparamagnetismus. Damit wäre eine Retension Time im
Nanosekundenbereich.
Post by Sieghard Schicktanz
Post by Marcel Mueller
Naja, und Degradationen von den Köpfen oder der Drehzahl- und
Spurlagenregelung sowie Ölablagerungen am Kopf tun ein übriges, um die
Schreib- und Lesequalität zu verschlechtern.
Eine halbwegs aktuelle Festplatte, in deren Plattenstapel Öl rumfliegt,
hat keine relevante Lebensdauer. Die Mechanik ist natürlich dem Verschleiß
ausgesetzt.
Da fliegt nix rum. Aber jede Flüssigkeit hat einen Dampfdruck, der sich
über eine Gleichgewichtsreaktion innerhalb eines geschlossenen Raums als
Partialdruck einstellt. Und dieser Öldampf kann sich eben auch als
Adsorbat auf Oberflächen ablagern. Bei Köpfen, deren Flughöhe auf
Nanometer genau stimmen muss, reichen bereits winzigste Mengen, um den
Abstand signifikant zu erhöhen.
Post by Sieghard Schicktanz
Post by Marcel Mueller
Das mit der "zählbaren" Ladung gilt für DRAMs aber auch. Am Ende
Sicher. Deswegen hatten DRAMs ja von Anfang an eine Schaltung zum
regelmäßigen Auffrischen ihrer Daten nötig, bei den ersten sogar noch
extern, inzwischen integriert.
Durch die immer größeren RAM-Chips musste die Zeit, die eine Zelle ohne
Refresh überlebt aber signifikant steigen, weil der Refresh einfach viel
länger braucht, bis er alle Rows einmal durch hat.
Post by Sieghard Schicktanz
["Refresh"-Funktionen]
Post by Marcel Mueller
Bei Platten ist das aber eher unüblich. Zumindest hatte ich noch nie
eine Platte, die unaufgefordert Scrubbing betreiben würde.
Na, wenn Du das mit Sicherheit so sagen kannst.
Dass /ich/ noch keine hatte schon. Das sollte schließlich im
Smart-Protokoll stehen. Das heißt nicht, dass so etwas nicht existiert.
Post by Sieghard Schicktanz
Post by Marcel Mueller
Es kann allerdings trotzdem funktionieren, wenn man eine Platte ab und
an mal komplett liest. Wenn dabei einige Sektoren die Fehlerkorrektur zu
hart belasten, kann die Platte durchaus einen Refresh der Daten
Üblicherweise machen die das doch erst, wenn so ein defekter Block neu
beschrieben wird? Ok, ein Refresh korrekt lesbarer Blöcke mag vorkommen.
Pending Sectors - m.E. eine viel zu freundliche Bezeichnung für
verlorene Daten - können nur durch wiederbeschreiben reinkarniert
werden. Alles was noch irgendwie lesbar ist, hat aber alle Optionen offen.
Post by Sieghard Schicktanz
Post by Marcel Mueller
durchführen. Das habe ich neulich mal bei einer alten Platte gemacht. Das
hat ewig gedauert (Tage). Die Platte hat tatsächlich einiges repariert,
aber ca. 800 Blöcke halt auch nicht mehr. OK, war auch eine HGST
Tatsächlich _repariert_, d.h. defekte Blöcke durch Ersatz-Blöcke ersetzt
(smart ""Reallocated_Sector_Ct" hochgezählt)?
Ja auch das, aber teilweise wohl auch nur neu geschrieben. Das war dann
schnarchlangsam, aber die Daten kamen am Ende doch.
Post by Sieghard Schicktanz
Post by Marcel Mueller
Insofern sind die Empfehlungen die Dinger ab und an mal kurz an den
Strom zu hängen, willkürlich, zumal einige Minuten auch bei
SSD-Geschwindigkeiten nirgendwo hin reichen. Allerdings könnte hier ein
Bei einigen 10TB sind auch die schnellsten Flash-Speicher "schnell
langsam", auch wenn da viel mehr intern parallel laufen könnte - aber auch
das hat seine Grenzen.
Die Wärme setzt da Grenzen, vor allem bei M.2.
Post by Sieghard Schicktanz
Post by Marcel Mueller
gelegentlich gestarteter erweiterter Selbsttest durchaus Nutzen stiften.
Fraglich. Da kommt's halt sehr darauf an, was der Hersteller da eingebaut
hat. Ich würde nicht auf mehr als einen umfangreichen Lesetest wetten
wollen.
Bisher haben alle SATA Devices, denen ich den Long Self Test Befehl gab,
eine signifikante Zeit damit verbracht, die ziemlich gut mit der
Übertragungsrate beim Lesen im Verhältnis zur Gesamtgröße korreliert.
Post by Sieghard Schicktanz
Post by Marcel Mueller
Es gibt auch noch ganz andere Konzepte. DNA-Speicher zum Beispiel. Die
Das wäre mal was. Da wird dann der Aufwand für die Bearbeitung immens,
wenn auch recht raumsparend. Es gibt nur noch keinerlei Ansatz zu einer
Verfahrentechnik dafür, schon von den nötigen Geräten zum Bau weg.
Labormuster gibt es. Wurde nicht kürzlich Musik auf DNA aufgezeichnet
und wieder abgespielt?
Post by Sieghard Schicktanz
Post by Marcel Mueller
Geschwindigkeit ist auch unterirdisch, aber die Aufzeichnungsdichte
bricht alle Rekorde, selbst dann wenn man exzessiv Fehlerkorrektur einplant.
Die Geschwindigkeit sollte angesichts der Datenmengen nicht das Problem
sein. Aber es handelt sich dabei halt wieder um "Bänder", d.h. ein
1-dimensionales Speichersystem, das _sehr_ aufwendiges Suchen nach einer
bestimmten Zugriffsstelle nötig macht. Am besten ginge noch assoziative
Suche.
Lineare "Lesegeräte" gibt es m.E. nicht. Es kommen die klassischen
Sequenzierungstechniken zum Einsatz, die erst mal mit massenhafter
Vervielfältigung beginnen.
Post by Sieghard Schicktanz
Post by Marcel Mueller
absehbare Zeit führt an den Flash-RAMs daher kaum ein Weg vorbei.
^^^^^^^^^^
Hmm - Absicht? (Auch wenn die Abkürzung sowieso stimmt.)
Was gefällt daran nicht?


Marcel
Sieghard Schicktanz
2024-09-11 19:47:12 UTC
Permalink
Hallo Marcel,

Du schriebst am Wed, 11 Sep 2024 07:47:25 +0200:

[Magnetische Schichtsystem]
Post by Marcel Mueller
sind dabei die Domänen _gegenüber dem Material_ bewegt. Bei Festplatten
sind die Domänen stationär zum Material,
Meines Wissens haben alle Platten der letzten 20 Jahre so einen
Schichtaufbau. Die oberste Schicht ist der Master, der geschrieben und
gelesen wird. Darunter koppelt man antiferromagnetisch. Das erhöht die
Energie pro Domäne und verringert die Anfälligkeit gegenüber Magnetfeldern.
Ok, kann vielleicht sein. Bei Festplatten sind die Domänen halt mitbewegt,
was die "Zerfallszeit" verlängern dürfte.

[Tunneleffekt]
Post by Marcel Mueller
Das ist am Ende dasselbe. Die thermische Energie reduziert einfach nur
die Energiebarriere. ...
Kann man natürlich so sehen, die "Statistik" ist halt anders, was für
praktische Zwecke aber nicht so bedeutend ist.

...
Post by Marcel Mueller
Eine halbwegs aktuelle Festplatte, in deren Plattenstapel Öl rumfliegt,
hat keine relevante Lebensdauer. Die Mechanik ist natürlich dem
Verschleiß ausgesetzt.
Da fliegt nix rum. ...
Wenn die Platte in Ordnung ist, natürlich nicht.
Post by Marcel Mueller
Da fliegt nix rum. Aber jede Flüssigkeit hat einen Dampfdruck, der sich
Wie kommt Flüssigkeit ins Innere der Platte? Haben die nicht schon lange
entsprechende Lager, die keine Schmierung brauchen?

[DRAMs]
Post by Marcel Mueller
Durch die immer größeren RAM-Chips musste die Zeit, die eine Zelle ohne
Refresh überlebt aber signifikant steigen, weil der Refresh einfach viel
länger braucht, bis er alle Rows einmal durch hat.
Wobei das Dilemma aufkam, daß die Haltezeit aufgrund der kleineren
Strukturen _sank_ anstatt zu steigen. Die Refresh-Schaltungen mußten dazu
parallelisiert werden, statt einzelner Bytes gleich mal eine ganze
"Spalte". Und das mit einer internen Schaltung, die auch während Zugriffen
arbeiten kann.

...
Post by Marcel Mueller
Pending Sectors - m.E. eine viel zu freundliche Bezeichnung für
verlorene Daten - können nur durch wiederbeschreiben reinkarniert
werden. Alles was noch irgendwie lesbar ist, hat aber alle Optionen offen.
Naja, die Benennung sagt halt, daß die für ein Neubeschreiben zurückgestellt
sind. Sie sind halt schlecht genug, um die alten Daten nicht mehr sicher
rekonstruieren zu können. Vielleicht werden sie bei Anforderung trotdem
noch probiert (und evtl. manchmal sogar mit Erfolg)?

[SSD "Refresh"]
Post by Marcel Mueller
Bei einigen 10TB sind auch die schnellsten Flash-Speicher "schnell
langsam", auch wenn da viel mehr intern parallel laufen könnte - aber
auch das hat seine Grenzen.
Die Wärme setzt da Grenzen, vor allem bei M.2.
Vor allem die Wärme_ableitung_. Die ist bei den kleinen DIngern eher
"schwierig", die brauchten wohl besser aktive Kühlung. Eine SSD hat
wenigstens noch einen Metallrahmen.

[Selbsttest]
Post by Marcel Mueller
Bisher haben alle SATA Devices, denen ich den Long Self Test Befehl gab,
eine signifikante Zeit damit verbracht, die ziemlich gut mit der
Übertragungsrate beim Lesen im Verhältnis zur Gesamtgröße korreliert.
Das passt dann ja. Sie sollten damit ja nicht ihre (Rest-) Lebensdauer
reduzieren.
Post by Marcel Mueller
Post by Marcel Mueller
Es gibt auch noch ganz andere Konzepte. DNA-Speicher zum Beispiel.
Das wäre mal was. Da wird dann der Aufwand für die Bearbeitung immens,
wenn auch recht raumsparend. Es gibt nur noch keinerlei Ansatz zu einer
Verfahrentechnik dafür, schon von den nötigen Geräten zum Bau weg.
Labormuster gibt es. Wurde nicht kürzlich Musik auf DNA aufgezeichnet
und wieder abgespielt?
Habe ich nichts erfahren, solche Experimente könnte ich mir aber schon
vorstellen. Nur dürfte dafür die Schreibrate bei d/s Schreibdauer/Laufzeit
liegen... Und das "Abspielen"?
...
Post by Marcel Mueller
Lineare "Lesegeräte" gibt es m.E. nicht. Es kommen die klassischen
Sequenzierungstechniken zum Einsatz, die erst mal mit massenhafter
Vervielfältigung beginnen.
Für das Musik-Experiment _muß_ aber linear gelesen worden sein, also muß
es schon gehen, so an die Daten zu kommen. Die RNA-Transferasen o.w.a.i.
in den Zellen können das ja auch und bauen dabei gleich eine Kopie des
Strangs.
Post by Marcel Mueller
Post by Marcel Mueller
absehbare Zeit führt an den Flash-RAMs daher kaum ein Weg vorbei.
^^^^^^^^^^
Hmm - Absicht? (Auch wenn die Abkürzung sowieso stimmt.)
Was gefällt daran nicht?
Die Abkürzung "RAM", "Random Access Memory", trifft natürlich auch für
nur oder hauptsächlich lesbaren Speicher zu, wird aber im etablierten
Sprachgebrauch praktisch ausschließlich für _unmittelbar_
wiederbeschreibbare Speicherelemente benutzt. Das sind Flash-Speicher aber
jedenfalls nicht, und daher werden sie meistens als Flash-R_O_Ms, ("Read
_Only_ Memories") oder besser Flash-EPROMs ("Electrically Erasable...")
bezeichnet. Weißt Du natürlich, das war wohl eher ein Vertipper. Aber bei
den extremsten Kapazitäten gehen die Haltezeiten halt doch schon gut in
die Richtung...
--
(Weitergabe von Adressdaten, Telefonnummern u.ä. ohne Zustimmung
nicht gestattet, ebenso Zusendung von Werbung oder ähnlichem)
-----------------------------------------------------------
Mit freundlichen Grüßen, S. Schicktanz
-----------------------------------------------------------
Marcel Mueller
2024-09-12 16:50:01 UTC
Permalink
Post by Sieghard Schicktanz
[Tunneleffekt]
Post by Marcel Mueller
Das ist am Ende dasselbe. Die thermische Energie reduziert einfach nur
die Energiebarriere. ...
Kann man natürlich so sehen, die "Statistik" ist halt anders, was für
praktische Zwecke aber nicht so bedeutend ist.
Ja, die e-Funktion kommt ja auch "von der anderen Seite".
Post by Sieghard Schicktanz
Wie kommt Flüssigkeit ins Innere der Platte? Haben die nicht schon lange
entsprechende Lager, die keine Schmierung brauchen?
In der Billigklasse? Nicht dass ich wüsste.
Post by Sieghard Schicktanz
[DRAMs]
Post by Marcel Mueller
Durch die immer größeren RAM-Chips musste die Zeit, die eine Zelle ohne
Refresh überlebt aber signifikant steigen, weil der Refresh einfach viel
länger braucht, bis er alle Rows einmal durch hat.
Wobei das Dilemma aufkam, daß die Haltezeit aufgrund der kleineren
Strukturen _sank_ anstatt zu steigen. Die Refresh-Schaltungen mußten dazu
parallelisiert werden, statt einzelner Bytes gleich mal eine ganze
"Spalte". Und das mit einer internen Schaltung, die auch während Zugriffen
arbeiten kann.
Soweit ich weiß hat schon immer RAS für den Refresh genügt. Anders
gesagt, es wurde immer eine ganze Row bearbeitet. Jedenfalls war das bei
einem MK4096 RAM (0,5kB) 1973 auch schon so. Da war man halt nach 64 RAS
mit dem Refresh durch.
Post by Sieghard Schicktanz
...
Post by Marcel Mueller
Pending Sectors - m.E. eine viel zu freundliche Bezeichnung für
verlorene Daten - können nur durch wiederbeschreiben reinkarniert
werden. Alles was noch irgendwie lesbar ist, hat aber alle Optionen offen.
Naja, die Benennung sagt halt, daß die für ein Neubeschreiben zurückgestellt
sind. Sie sind halt schlecht genug, um die alten Daten nicht mehr sicher
rekonstruieren zu können. Vielleicht werden sie bei Anforderung trotdem
noch probiert (und evtl. manchmal sogar mit Erfolg)?
Nein, der Status Pending ist faktisch final. Zwar versuchen die Platten
es üblicherweise bei jedem Lesezugriff nochmal, aber dass es dann
irgendwann mal klappt und der Pending Sektor dadurch verschwindet, habe
ich noch nie erlebt. Nur mit Überschreiben bekommt man die los.
Post by Sieghard Schicktanz
Post by Marcel Mueller
Post by Sieghard Schicktanz
Post by Marcel Mueller
absehbare Zeit führt an den Flash-RAMs daher kaum ein Weg vorbei.
^^^^^^^^^^
Hmm - Absicht? (Auch wenn die Abkürzung sowieso stimmt.)
Was gefällt daran nicht?
Die Abkürzung "RAM", "Random Access Memory", trifft natürlich auch für
nur oder hauptsächlich lesbaren Speicher zu, wird aber im etablierten
Sprachgebrauch praktisch ausschließlich für _unmittelbar_
wiederbeschreibbare Speicherelemente benutzt. Das sind Flash-Speicher aber
jedenfalls nicht, und daher werden sie meistens als Flash-R_O_Ms, ("Read
_Only_ Memories") oder besser Flash-EPROMs ("Electrically Erasable...")
bezeichnet. Weißt Du natürlich, das war wohl eher ein Vertipper.
Es wird halt oft so bezeichnet. *ROM finde ich auch nicht viel richtiger.
Ich technischen Kreisen spricht man eher und richtiger von NAND Flash
[Memory].


Marcel
Sieghard Schicktanz
2024-09-13 18:27:13 UTC
Permalink
Hallo Marcel,
Post by Marcel Mueller
Post by Sieghard Schicktanz
[Tunneleffekt]
Post by Marcel Mueller
Das ist am Ende dasselbe. Die thermische Energie reduziert einfach nur
die Energiebarriere. ...
Kann man natürlich so sehen, die "Statistik" ist halt anders, was für
praktische Zwecke aber nicht so bedeutend ist.
Ja, die e-Funktion kommt ja auch "von der anderen Seite".
Es handelt sich halt um eine Überlagerung mehrerer e-Funktionen, sowohl
beim Tunneln als auch thermisch,mit unterschiedlichen
Exponentialkoeffizienten.
Post by Marcel Mueller
Post by Sieghard Schicktanz
Wie kommt Flüssigkeit ins Innere der Platte? Haben die nicht schon lange
entsprechende Lager, die keine Schmierung brauchen?
In der Billigklasse? Nicht dass ich wüsste.
Na, deswegen zerleg'ich dann auch keine aktuelle Platte, eine kaputte
solche hab'ich grade nicht da.
Post by Marcel Mueller
Post by Sieghard Schicktanz
[DRAMs]
Soweit ich weiß hat schon immer RAS für den Refresh genügt. Anders
Sicher, nur in laufend steigender Anzahl gleichzeitig. Ich mußte mal eine
slche Funktion bauen, das ging "damals" sogar noch ohne zusätzliche
Elektronik. Aber die Einelheiten weiß ich jetzt auch nicht mehr.
Post by Marcel Mueller
gesagt, es wurde immer eine ganze Row bearbeitet. Jedenfalls war das bei
einem MK4096 RAM (0,5kB) 1973 auch schon so. Da war man halt nach 64 RAS
mit dem Refresh durch.
Und heute müssen halt parallel gleich 128 oder noch mehr Reihen parallel
bearbeitet werden.
Post by Marcel Mueller
Post by Sieghard Schicktanz
...
Nein, der Status Pending ist faktisch final. Zwar versuchen die Platten
es üblicherweise bei jedem Lesezugriff nochmal, ...
Der Status ist jedenfalls für die aktuellen Daten final oder schon
terminal, für den Block bedeutet er Aussonderung und Ersatzschaltung durch
einen Reserveblock beim nächsten Schreibvorgang.
Post by Marcel Mueller
Post by Sieghard Schicktanz
Post by Marcel Mueller
Post by Sieghard Schicktanz
Post by Marcel Mueller
absehbare Zeit führt an den Flash-RAMs daher kaum ein Weg vorbei.
^^^^^^^^^^
...
Post by Marcel Mueller
Post by Sieghard Schicktanz
Erasable...") bezeichnet. Weißt Du natürlich, das war wohl eher ein
Vertipper.
Es wird halt oft so bezeichnet. *ROM finde ich auch nicht viel richtiger.
Naja, "RAM" ist dann eher eine falsch verstandene Vernuschelung....
"ROM" ist "etwas" zu endgültig, aber im Vergleich mit dem Lesen doch fast
schon passend - Faktoren von >> 100 im Zeitverhalten. Ein "read mostly" hat
sich ja nicht etabliert.
Post by Marcel Mueller
Ich technischen Kreisen spricht man eher und richtiger von NAND Flash
[Memory].
Das ist dann wieder ein Hinweis auf die Konstruktion, es gibt schließlich
auch "NOR-Flash", mit etwas anderem Verhalten. Das ist inzwischen
allerdings sehr selten geworden.
--
(Weitergabe von Adressdaten, Telefonnummern u.ä. ohne Zustimmung
nicht gestattet, ebenso Zusendung von Werbung oder ähnlichem)
-----------------------------------------------------------
Mit freundlichen Grüßen, S. Schicktanz
-----------------------------------------------------------
Arno Welzel
2024-09-23 12:48:19 UTC
Permalink
[...]
Post by Marcel Mueller
Post by Sieghard Schicktanz
Wie kommt Flüssigkeit ins Innere der Platte? Haben die nicht schon lange
entsprechende Lager, die keine Schmierung brauchen?
In der Billigklasse? Nicht dass ich wüsste.
Welche aktuellen Festplatten nutzen keine FDB-Lager?
--
Arno Welzel
https://arnowelzel.de
Lesen Sie weiter auf narkive:
Loading...