Speichermedien von morgen - Bändigung der Datenflut

Die digitale Datenflut wächst ins schier Unermessliche, so der Photoindustrie-Verband (PIV). Täglich wird sie größer und scheint kaum noch zu bewältigen. Nicht nur die wachsenden Qualitätsansprüche an digitale Medien, sondern auch die immer komplexeren, teilweise völlig neuen Anwendungen wie das Internet of Things (IoT) oder das autonome Fahren sowie das Computational Imaging, Virtual und Augmented Reality, Machine Vision und Künstliche Intelligenz (KI) für die Bilderkennung erfordern immer mehr digitale Informationen, immer höhere Speicherkapazitäten, immer schnellere Verarbeitungszeiten und intelligente Softwarelösungen.

Rasant wachsende Datenmenge – Ein Ende ist nicht in Sicht

„Im letzten Jahr betrug die weltweit erzeugte Datenmenge bereits 16,1 Zetabytes“, weiß Christian Müller-Rieker, PIV Geschäftsführer, zu vermelden. Einer Untersuchung des Festplattenherstellers Seagate entsprechend, soll diese Menge sich bis zum Jahr 2025 verzehnfachen und auf 163 Zetabytes anschwellen. Ein Zetabyte Daten entspricht einer Billion Gigabyte. Um diese enorme Datenmenge zu speichern, bräuchte man beispielsweise 31,6 Milliarden Tablets mit 32 Gigabyte Speicher. Aneinandergelegt würden die Tablets eine Fläche so groß wie Berlin ergeben oder einen Turm rund 12-mal so hoch wie der Mont Blanc. Ein solches Datenvolumen würde ausreichen, um über 110 Milliarden HD-Filme mit jeweils zwei Stunden Länge speichern zu können oder für einen 26 Millionen Jahre langen, ununterbrochenen Filmgenuss.

Herausforderungen an Speicherlösungen immens

Neben immer höheren Kapazitäten werden zusätzlich kürzere Lese- sowie Schreibzeiten und schnellere Rechner für kürzere Verarbeitungszeiten der Daten erforderlich. Hinzu kommen die wachsenden Anforderungen an die Datensicherheit bei der Datenerfassung, auf dem Datenspeicher, bei der Datenübertragung sowie beim physischen Transport der Daten. Auch der technische Fortschritt ist eine Hürde für die Datenkompatibilität und Zukunftssicherheit. Daher empfiehlt PIV Anwendern darauf zu achten, den Workflow, sprich alle Arbeitsabläufe der Imaging Chain, kompatibel zu halten.

Eine mit der Datenflut wachsende Herausforderung ist die Integrität und Unversehrtheit der Daten

„Ob bei der Aufnahme oder beim Kopieren eines digitalen Fotos ein Fehler aufgetaucht ist, lässt sich noch verhältnismäßig einfach durch das menschliche Auge auf einem zuverlässigen Monitor überprüfen“, erläutert Christian Müller Rieker. „Bei Spielfilmen und Videos mit 25 und mehr Bildern pro Sekunde und ein bis zwei Sicherheitskopien wird das nahezu unmöglich.“ Selbst mathematische Systeme des Datenabgleichs versagen hier bisher und liefern noch nicht die notwendige Sicherheit und Schnelligkeit. Hier setzt die Industrie verstärkt auf Künstliche Intelligenz, von der man sich zukünftig effektive und effiziente Lösungen verspricht. Der Bedarf an KI-Lösungen für mehr Effektivität und Produktivität im Imaging Workflow bedeutet für die Imaging-Industrie eine gewaltige Herausforderung.

Künstliche Intelligenz der Schlüssel

Eine aktuelle Gartner Studie hat herausgefunden, dass AI bis 2020 in nahezu jeder neuen Software zu finden sein wird. Im Laufe des noch relativ jungen, digitalen Zeitalters sind zahlreiche Datenspeicher bereits wieder von der Bildfläche verschwunden, weil sie den Anforderungen nach Schnelligkeit, Sicherheit und Zukunftsfähigkeit nicht mehr nachkommen konnten. Dazu gehören Zip- oder Syquest Wechselplatten, Smartmedia oder xd-Speicherkarten. Die Erfahrung zeigt, dass sich die Technik der Speichermedien ständig verändert und kontinuierlich neue Datenträger den Markt erobern, so dass letztlich nur eine ständige Migration wichtiger Daten vor Verlust schützen kann.

Cloud sicherste Speicherlösung

Ein immer häufiger genutzter Weg, der Gefahr des Zugriffsverlustes zu begegnen, sind Cloud-Lösungen, bei denen die Daten dezentral auf unterschiedlichen Trägern gespeichert werden. Eine Software konvertiert dann nicht nur die abgerufenen Daten in das benötigte Format. Sie wählt auch die optimale, aktuelle Form der Vorhaltung. Bei diesen auch Hyper Converged Memory genannten Systemen werden ständig benötigte Daten, beispielsweise im Arbeitsspeicher, vorgehalten. Daten auf die schnell und häufig zugegriffen werden muss, werden auf SSD-Flash-Speichern und weniger häufig benötigte Daten dann auf klassischen Festplattenspeicher abgelegt. Große Konzerne, die von Big Data Anwendungen abhängig sind, werden vermutlich zukünftig verstärkt auf derartige Speicherlösungen zurückgreifen müssen. Wirklich disruptive Speicherlösungen, die allen Anforderungen an dauerhafter, schnellerer und sicherer Datenspeicherung gerecht werden, sind in naher Zukunft kaum zu erwarten.

Blick in die Zukunft

Große Hoffnung setzen Forscher zurzeit auf holographische Speicher und die Nutzung von Nanotechnologien. Bereits heute hinkt die Speicherentwicklung hinter der Leistung der Prozessoren zurück. Flaschenhals sind die Transferzeiten zum Schreiben und Lesen der Daten. Der Prozessorhersteller Intel gibt an, dass die heute genutzten Speichertechnologien ungefähr 10.000 mal langsamer seien als seine leistungsstärksten CPU-Speicher. Gemeinsam mit Micron hat Intel nun eine neue Klasse von Computerspeicher entwickelt, die dieses Problem lösen soll: Die als 3D XPoint bezeichnete Technik nutzt eine neuartige „Cross-Point-Architektur“ ohne Transistoren mit einer Struktur, die einem dreidimensionalen Schachbrett gleicht. Die Speicherzellen sitzen an den Kreuzungspunkten von Wort- und Bit-Leitungen, was die Adressierung einzelner Zellen gestattet. Auf diese Weise können Daten auf kleinstem Raum geschrieben und gelesen werden, was schnellere und effizientere Lese-/ Schreibprozesse bewirkt. Die 3D XPoint-Speichertechnik ermöglicht die 10-fache Kapazität von DRAM, ist 1.000 mal so schnell wie NAND und zudem preisgünstig.

Weltweit forschen Wissenschaftler an Medien, mit denen sich noch größere Datenmengen schneller, sicherer und preiswerter erfassen und verarbeiten lassen. Dabei sind komplett neue vielversprechende Denkansätze zu beobachten. Speicher auf Glasträgern mit Nanostrukturen und mit bisher nicht dagewesener Robustheit und Lebensdauer sowie solche auf biologischer Basis aus Proteinen, Eiweiß oder Bakterien ebenso wie aus Nanodrähten. Doch nicht nur Big Data Anwendungen verlangen neue schnellere Medien. Auch im Bereich Foto und Video benötigen innovative MultiShot-Techniken und hochauslösende Videoaufzeichnungen schnelle Medien mit hohen Kapazitäten jenseits der schnellsten, traditionellen SD-Speicherkarten. Spätestens zur photokina 2018 werden die Kamerahersteller Modelle mit Speicherslots bieten, die diesen neuen Anwendungen gerecht werden.

Vergleich der Geschwindigkeiten

Wenn man mit einem SSD in vier Tagen zum Mond käme (384.000 km), dann würde einen die 3D XPoint-Technik in derselben Zeit zum Mars und zurück bringen (450 Mio. km).

Vergleich der Lebensdauer

Die neue 3d XPoint-Technik ermöglicht die 1.000-fache Lebensdauer von NAND-Speicher, was bedeutet, dass Unternehmen und Poweruser sich keine Sorgen mehr wegen der Lese-/Schreib-Lebenszyklen machen müssen. Wenn man die 3D XPoint Technik mit dem Öl im Motor eines Autos vergleicht, dann könnte man bis zum nächsten Ölwechsel 5.000.000 km weit fahren. Eine technische Errungenschaft wie diese hat das Potenzial, eine ganze Reihe von Branchen zu revolutionieren. Optane-Datenspeicher werden sich ideal für das Speichern und Verarbeiten großer Richmedia-Mengen, immersives Gaming, Virtualisierung in Cloud-Umgebungen im großen Maßstab, In-Memory-Datenbanken und High-Performance-Computing eignen. Intel erwartet außerdem Durchbrüche auf den Gebieten der personalisierten Medizin und der Big-Data-Analyse. Diese Art Computerspeicher wird es auch Firmen und Städten ermöglichen, große Datenmengen zu verarbeiten und zu analysieren, um intelligentere Abläufe und Technik zu nutzen. Die international operierende Filmproduktion Panoptimo geht bei ihren Dreharbeiten beispielsweise für einen Spielfilm von einem täglichen Datenaufkommen vom 12 bis 20 Terabytes aus.

Änderungen vorbehalten.