Comdex: Speicher! Mich! Ab!
Speicher, genau Massenspeicher, wird immer mehr zu einem Thema auf allen Ebenen. Nicht nur, dass laut einer Untersuchung aus Berkeley pro Jahr etwa 1 bis 2 Exabyte an neuen Daten produziert werden (nimmt man auch noch die Backups und unterschiedlichen Dateiversionen hinzu, so sind es gar bis zu 4 Exabyte) – auch durch die zunehmende Mobilität nimmt der Bedarf an neuen Speicherlösungen zu. Und von Seiten der Unternehmen hat der Anschlag auf das World Trade Center für einen wahren Boom bei Desaster-Recovery- und Backup-Lösungen gesorgt, die man außer Haus lagern kann. Ja, sogar neue Dienstleister entstehen, die Unternehmensdaten über gesicherte IP-Verbindungen in gigantische Datenbanken sichern, die irgendwo in katastrophensicheren Bunkern verborgen sind. Auf der Comdex wurde man dann auch an allen Ecken und Enden von Storage-Solutions überfallen. Die Taiwan-Aussteller verkauften sogar USB-Memorysticks sowie SD- und CF-Memory gleich an den Ständen zu Spot(t)-Preisen, bei denen einem Deutschen nur die Tränen in die Augen kommen können. Lexar zeigte USB-Sticks, die dem neuen schnellen USB-2.0-Standard gehorchen. Und Panasonic, Sandisk und andere kündigten für das nächste Jahr SecureDigital-Memorycards bis zu 2 GB Speicherkapazität an, 512 MB sind bereits heute üblich.
Apropos USB 2.0: Zusammen mit Firewire wird dieser Anschluss zum Standard für externe Peripherie. Maxtor zeigte eine interessante Lösung für eine externe Festplatte auf dieser Basis. Nicht nur, dass bis zu 250 GB Speicherkapazität bereits heute in den Geschäften stehen (und das interessanterweise mit 399$ MRP genauso teuer wie die dort eingebaute 250GB-IDE-Platte von Maxtor für die interne PC-Aufrüstung). Das Besondere ist ein Knopf an der Vorderseite des Gehäuses, der ein Backup-Programm auf dem angeschlossenen Rechner aufruft. Je nach Konfiguration werden dann die gewählten Ordner automatisch per incremental backup auf die externe Festplatte gesichert. Einfacher kann Backup nun wirklich nicht mehr sein … es sei denn, jemand anderes kümmert sich darum.
In eine ganze andere „Backup“-Richtung gingen zahlreiche Soft- und Hardwareangebote, die das Brennen von DVDs zum Gegenstand hatten. Ein endgültiger Sieger bei dem Formatstreit für die DVD-Recordables steht zwar noch aus, aber zumindest in den USA werden die DVD-Brenner langsam zur Standardausstattung. Intervideo war nur ein Anbieter, der diesem Trend Rechnung trägt und mit WinDVD Recorder sowie WinDVD Creator Plus zwei Programme vorgestellt hat, mit denen man seine Urlaubsvideos, aber auch Aufnahmen von einer TV-Quelle, auf DVD brennen kann. Am Rande sei erwähnt, dass die neue Version von WinDVD auch das DivX-Format unterstützt – es wird viele T-DSL-Movies-Sauger freuen *g* (In Deutschland ist, glaube ich, Sybex der Intervideo-Distributor.). Auch zum Thema „Sicherheitskopien von wertvollen DVDs“ fanden sich viele Angebote auf dem Show Floor, den Urheberrechtsbedenken zum Trotz. Gleich mehrere Konferenzbeiträge widmeten sich parallel der Frage des Urheberschutzes und dem Recht auf die Privatkopie.
Übrigens wurde während der Messe zufällig ein neues Konzept vorgestellt: die sich selbst zerstörende DVD. Was ein wenig an Mission Impossible erinnert, hat einen ernsthaften und technisch simplen Hintergrund: Das Trägermaterial wird so behandelt, dass durch eine chemische Reaktion die Reflexionseigenschaft nachlässt, sobald die DVD (Laser-)Licht oder alternativ der Luft ausgesetzt wurde. Die Reaktion verläuft langsam, so dass man die Inhalte einige Tage abspielen kann, danach wird die DVD unlesbar. So könnte der Videoverleih zukünftig anders aussehen: Das Zurückbringen wird hinfällig. Allerdings entsteht auch ein Abfallproblem.
Doch wieder zurück zu den Storage-Lösungen: Für Notebooks und Desktop-PCs wurden zahlreiche externe DVD-Brenner vorgestellt. Sieht man davon ab, wie sehr der Preis für DVD-Brenner gesunken ist, so ist das aber nichts wirklich Spannendes. Interessanter ist da schon die Frage, wie eigentlich Unternehmen effiziente Speicherlösungen aufbauen können. Mit lokalen Festplatten und Brennern ist es da nicht getan. Und bei den ständig steigenden Festplattenkapazitäten fehlen vielfach geeignete Backup-Konzepte. Wenn dann auch noch die Anforderung gestellt wird, dass die Daten anytime (also mit einer mindestens 99,99%-igen Verfügbarkeit) und everywhere (also nicht nur am lokalen Arbeitsplatz) zur Verfügung stehen müssen, dann sind die Voraussetzungen für ein SAN (Storage Array Network) gegeben.
Unternehmen wie McData erweitern ihr Portfolio zunehmend auch „nach unten“, so dass solche Konzepte heute nicht mehr nur für Großunternehmen interessant sind. Ursprünglich vor allem bei Banken, Kreditkartenunternehmen und anderen Bereichen im Einsatz, bei denen es auf höchste Verfügbarkeit und Transaktionssicherheit ankommt, erobern SANs immer mehr Marktanteile und es wird erwartet, dass ihre Bedeutung bis 2006 auf 60 bis 80% am gesamten Storage-Solution-Markt wachsen wird. Dazu hat zumindest in den USA auch beigetragen, dass viele Unternehmen nach den Terroranschlägen dem Bereich Backup und Desaster-Recovery immer mehr Bedeutung zumessen. Zugleich verstehen es die Hersteller von Massenspeichern geschickt, ihre Produkte in Consumer- und Servermarkt zu trennen … nicht zuletzt durch reduzierte Garantiezeiten für Consumer-Festplatten.