Hallo Marcel,
Du schriebst am Tue, 10 Sep 2024 08:52:14 +0200:
["Verfallszeit"]
Post by Marcel MuellerPost by Sieghard SchicktanzPost by Marcel Muellersozusagen. Magnetische Festplatten sind ihnen in der Hinsicht um
"Größenordnungen" überlegen.
Nicht wirklich. Die Retention Time liegt in ähnlichen Größenordnungen.
Bitte um gesicherte Daten dazu, z.B. Datenblattwerte.
Das rücken die Hersteller eher nicht raus, schon gar nicht bei Consumerware.
Das stützt Deine Meinung aber nicht gerade.
...
Post by Marcel MuellerDas hat mit den Stärken der Domänenwände allenfalls mittelbar zu tun.
Es geht um die Anisotropie des Materials die eine Energiebarriere
bildet, welche verhindert, dass Domänen kippen. Und dann baut man halt
ein Antiferromagnetisch gekoppeltes Schichtsystem auf, um die Energie
Hmm - Di bist sicher, daß Du hier noch die Konstruktion von _Festplatten_
meinst? Solche Schichtsystem werde für verschiedene, auch magnetische,,
auch Speichersysteme untersucht, und in vielen Fällen sind dabei die
Domänen _gegenüber dem Material_ bewegt. Bei Festplatten sind die Domänen
stationär zum Material,
...
Post by Marcel Muellerwarm, können Domänen halt trotzdem kippen. Durch den Tunneleffekt gibt
es immer eine endliche Wahrscheinlichkeit, Energiebarrieren zu überwinden.
Dazu braucht es nichtmal einen Tunneleffekt, die thermische Bewegung reicht.
Da wäre theoretisch sogar deine Flash-Zelle "stabiler", weil da die
Ladungen rundum isoliert sind. Dummerweise muß halt die Isolierung so dünn
sein, daß sie eine Tunnelung nicht ausreichend unterbindet, und muß mit
steigenden Kapazitäten noch dünner werden. Und Tunneln geht halt reziprok
exponentiell zur Barrierendicke.
Post by Marcel MuellerNaja, und Degradationen von den Köpfen oder der Drehzahl- und
Spurlagenregelung sowie Ölablagerungen am Kopf tun ein übriges, um die
Schreib- und Lesequalität zu verschlechtern.
Eine halbwegs aktuelle Festplatte, in deren Plattenstapel Öl rumfliegt,
hat keine relevante Lebensdauer. Die Mechanik ist natürlich dem Verschleiß
ausgesetzt.
Post by Marcel MuellerPost by Sieghard SchicktanzDafür werden die
Gete-Elektronen in den Flash-Speichern immer einfacher abzählbar, und
bei den Multi-Level-Zellen sind halt die Übergänge recht kritisch.
Ja, auch da ist die Isolation begrenzt. Vor allem weil sie durch das
Löschen der Blöcke regelmäßig geschädigt wird.
Das mit der "zählbaren" Ladung gilt für DRAMs aber auch. Am Ende
Sicher. Deswegen hatten DRAMs ja von Anfang an eine Schaltung zum
regelmäßigen Auffrischen ihrer Daten nötig, bei den ersten sogar noch
extern, inzwischen integriert.
Post by Marcel Muellerentscheidet auch da nicht primär die Anzahl der Ladungsträger, sondern
eher die Höhe der Energiebarriere. Deshalb versucht man durch alle
Bitte unterscheiden: Die Anzahl der Ladungsträger entscheidet über den
gespeicherten Datenwert, die Höhe der Energiebarriere entscheidet über
die "Zerfallsdauer" der Ladungsmenge. Das beeinflußt sich natürlich.
["Refresh"-Funktionen]
Post by Marcel MuellerBei Platten ist das aber eher unüblich. Zumindest hatte ich noch nie
eine Platte, die unaufgefordert Scrubbing betreiben würde.
Na, wenn Du das mit Sicherheit so sagen kannst.
Post by Marcel MuellerEs kann allerdings trotzdem funktionieren, wenn man eine Platte ab und
an mal komplett liest. Wenn dabei einige Sektoren die Fehlerkorrektur zu
hart belasten, kann die Platte durchaus einen Refresh der Daten
Üblicherweise machen die das doch erst, wenn so ein defekter Block neu
beschrieben wird? Ok, ein Refresh korrekt lesbarer Blöcke mag vorkommen.
Post by Marcel Muellerdurchführen. Das habe ich neulich mal bei einer alten Platte gemacht. Das
hat ewig gedauert (Tage). Die Platte hat tatsächlich einiges repariert,
aber ca. 800 Blöcke halt auch nicht mehr. OK, war auch eine HGST
Tatsächlich _repariert_, d.h. defekte Blöcke durch Ersatz-Blöcke ersetzt
(smart ""Reallocated_Sector_Ct" hochgezählt)?
...
Post by Marcel MuellerSSDs hätten es aufgrund der viel höheren Transferraten, wesentlich
leichter, das im Hintergrund zu machen. Aber ich kenne noch keine
bestätigten Informationen über Firmwares, die das unaufgefordert tun.
Schon, das hört oder liest man halt immer wieder mal.
Post by Marcel MuellerInsofern sind die Empfehlungen die Dinger ab und an mal kurz an den
Strom zu hängen, willkürlich, zumal einige Minuten auch bei
SSD-Geschwindigkeiten nirgendwo hin reichen. Allerdings könnte hier ein
Bei einigen 10TB sind auch die schnellsten Flash-Speicher "schnell
langsam", auch wenn da viel mehr intern parallel laufen könnte - aber auch
das hat seine Grenzen.
Post by Marcel Muellergelegentlich gestarteter erweiterter Selbsttest durchaus Nutzen stiften.
Fraglich. Da kommt's halt sehr darauf an, was der Hersteller da eingebaut
hat. Ich würde nicht auf mehr als einen umfangreichen Lesetest wetten
wollen.
Post by Marcel MuellerZumindest muss die Firmware bei diesem Test Farbe bekennen und alle
Blöcke prüfen und ggf. die Smart-Werte aktualisieren. An deren Änderung
erkennt man auch ganz gut, wenn sich dabei etwas tut.
[Bänder]
Post by Marcel MuellerPost by Sieghard SchicktanzEher damit, daß es keine mit Luftpolsterführung mehr gab. Der direkte
Ack.
...
Post by Marcel MuellerEs wäre auch nahezu unmöglich. Die Staubteilchen in der Raumluft würden
nicht in den Spalt zwischen Kopf und Medium passen. Und dann gibt es
Das kommt erstmal auf den Abstand an, und dann muß man ja auch keine
_Raumluft_ da 'reinblasen. Da gibt es schon ganz gute Filter, auch wenn das
bei den nötigen Luftmengen ggfs. "eng "werden könnte. Ist aber inzwischen
auch eher uninteressant.
...
Post by Marcel MuellerHolografische Speicher funktionieren technisch. Aber die
Datentransferraten sind unterirdisch. Es dauert viel zu lange so einen
Nichtlinearen Kristall komplett voll und wieder leer zu bekommen.
Das ist halt ein Leistungsproblem, in Kombination mit den Zeitkonstanten
der Materialien.
Post by Marcel MuellerEs gibt auch noch ganz andere Konzepte. DNA-Speicher zum Beispiel. Die
Das wäre mal was. Da wird dann der Aufwand für die Bearbeitung immens,
wenn auch recht raumsparend. Es gibt nur noch keinerlei Ansatz zu einer
Verfahrentechnik dafür, schon von den nötigen Geräten zum Bau weg.
Post by Marcel MuellerGeschwindigkeit ist auch unterirdisch, aber die Aufzeichnungsdichte
bricht alle Rekorde, selbst dann wenn man exzessiv Fehlerkorrektur einplant.
Die Geschwindigkeit sollte angesichts der Datenmengen nicht das Problem
sein. Aber es handelt sich dabei halt wieder um "Bänder", d.h. ein
1-dimensionales Speichersystem, das _sehr_ aufwendiges Suchen nach einer
bestimmten Zugriffsstelle nötig macht. Am besten ginge noch assoziative
Suche.
Post by Marcel MuellerDeutlich näher an der Realität sind Sachen wie MRAM. Rattenschnell, aber
Sind schon länger mit kleinen Kapazitäten serienmäßig verfügbar, inzwischen
auch in Multi-MB-Größe. (Leider keine Referenz, habe ich mir wegen nicht-
Bedarf nicht gemerkt...)
Post by Marcel Muellerhässlich hohe Schreibströme. Eher was für Satelliten oder High
Availability Caches.
Oder CNT, ist halt noch recht neu.
Für "CNT" ("Carbon Nano Tubes", nehme ich an?) gilt im wesentlichen dasselbe
wie für "DNA" oben - es fehlen die Fertigungsgeräte. Inzwischen lassen sich
die Dinger zwar einzeln halbwegs gezielt 'rumbugsieren, bis zu "größeren"
Anordnungen ist aber noch einiges an Forschung nötig. Und die gezielt zu
fertigen ist auch noch nicht so recht stabil möglich.
...
Post by Marcel Muellerabsehbare Zeit führt an den Flash-RAMs daher kaum ein Weg vorbei.
^^^^^^^^^^
Hmm - Absicht? (Auch wenn die Abkürzung sowieso stimmt.)
--
(Weitergabe von Adressdaten, Telefonnummern u.ä. ohne Zustimmung
nicht gestattet, ebenso Zusendung von Werbung oder ähnlichem)
-----------------------------------------------------------
Mit freundlichen Grüßen, S. Schicktanz
-----------------------------------------------------------