Als Dark Data bezeichnet man Daten, die zwar von Informationssystemen erfasst und gespeichert, aber nicht verwendet werden. Bei großen Datenmengen können viele Daten entstehen, die nicht alle analysiert, betrachtet oder benutzt werden. So kommt es, dass man sich der Existenz der Daten nicht mehr bewusst ist.

Als Dark Data bezeichnet man Daten, die zwar von Informationssystemen erfasst und gespeichert, aber nicht verwendet werden. Bei großen Datenmengen können viele Daten entstehen, die nicht alle analysiert, betrachtet oder benutzt werden. So kommt es, dass man sich der Existenz der Daten nicht mehr bewusst ist.

Bild: © Gorodenkoff/AdobeStock

Laut aktuellen Zahlen der Wirtschaftskanzlei DLA Piper wurden in 2020 europaweit Bußgelder in Höhe von 160 Millionen Euro wegen Verstößen gegen die DSGVO verhängt  – seit Einführung im Mai 2018 insgesamt 270 Millionen. Die Anforderungen der Datenschutzgrundverordnung einzuhalten, sei komplexer denn je, denn die Daten in Unternehmen nehmen nicht nur massenhaft zu, sondern die Daten liegen auch fragmentiert vor, betont das auf Informationstechnologie spezialisierte Unternehmen Cohesity.

Oft würden die Firmen nicht genau wissen, welche Art von Daten bei ihnen schlummern – die Rede ist von „Dark Data“. Pascal Brunner, Field Technical Director, EMEA bei Cohesity: „Aufgrund des exponentiellen Datenwachstums der letzten Jahre fällt es Unternehmen immer schwerer, den Überblick über ihre Daten zu behalten. Es oft nicht mehr klar, welche Inhalte die Daten umfassen, ob es sich um sensible Informationen handelt oder wo die Daten liegen. Das kann fatale Auswirkungen haben gerade mit Blick auf die DSGVO. Um millionenschwere Bußgelder zu vermeiden, sollten die Unternehmen ihren Datenwust in den Griff bekommen“.
 

Drei Leitfragen

Folgenden Fragen sollen Unternehmen laut Cohesity helfen, ihr Datenmanagement auf den Prüfstand zu stellen und „Dark Data" in den Griff zu bekommen:

  • Werden Ihre Daten von verschiedenen Anwendungen gemeinsam genutzt oder hat jede Anwendung ihre eigenen dedizierten Ressourcen?
  • In den meisten Unternehmen haben sich verschiedene Datenpools entwickelt. Dies liegt hauptsächlich an historisch gewachsenen Infrastrukturen und Anwendungen, deren Architektur auf siloartigen Strukturen aufgebaut ist. Obwohl die Virtualisierung den Betrieb komplexer IT-Umgebungen stark vereinfacht hat, ist dies noch nicht bis in die Anwendungsebene durchgedrungen. So verwenden Backend-Systeme wie Datenbanken über Middleware bis zu Frontend-Systemen wie Webserver häufig ihre eigenen Datensilos. Diese werden bei der Migration in die Cloud meist übernommen. So stehen Unternehmen vor der Herausforderung, vom Außenstandort über die eigenen Rechenzentren bis zu den Cloud-Hyperscalern unabhängige Datensilos zu verwalten. In diesem Fall sollten sie in einem iterativen Prozess ihre Infrastrukturen konsolidieren. Hier sind Tools einzusetzen, die alte und neue Workloads bewältigen können, ob on-Premises oder in der Cloud, um einen einheitlichen Datenpool zu schaffen, der umfassende und zuverlässige Informationen liefert.
  • Wie viele Kopien Ihrer Daten gibt es? Wissen Sie, wo die Kopien aufbewahrt werden, wer sie besitzt und verwaltet, wer Zugriff darauf hat und was sie kosten?

Kopien verursachen Kosten

Häufig gebe es in Unternehmen an verschiedenen Orten mehrere Kopien der gleichen Daten. Dies erhöhe direkt die Speicherkosten. Die Datenkopien werden durch Test- und Entwicklungs-Umgebungen, Sicherungen, siloartige Anwendungen, Archive und regulatorische Anforderungen erzeugt. So geben laut IDC-Studien die Unternehmen bis zu 60 Prozent des Speicherbudgets alleine für die Verwaltung von Kopien aus.
 
Diese Situation wird durch die Cloud-Migration häufig sogar verschlimmert. Gerade in der aktuellen Pandemie setzen Unternehmen vermehrt auf SaaS-Angebote wie Microsoft 365, sagt Cohesity. So entstünden etwa bei Office und Outlook jeweils eigene Datensilos on-Premises und in der Cloud, da nicht alle Daten migriert oder synchronisiert werden. Zudem sind bei SaaS-Lösungen oft spezielle Compliance-Anforderungen zu erfüllen, insbesondere bei streng regulierten Branchen wie das Finanz- und Gesundheitswesen oder die öffentliche Hand. Dies führt oft zu weiteren Datensilos und höheren Kosten, die nur durch ein einheitliches Datenmanagement zu reduzieren sind.

Mehrere Produkte für Backup, Archivierung und Disaster Recovery im Einsatz?

Für das Datenmanagement setzen Unternehmen in der Regel mindestens drei verschiedene Tools für Backup, Archivierung und Disaster Recovery ein, häufig sogar noch mehr. Denn Clouds, Workloads, Virtualisierungen und für die Compliance notwendige Zertifizierungen erfordern oft weitere Lösungen. Gleichzeitig führen stetig steigende Compliance-Anforderungen zu weiteren Datenkopien, die gespeichert und verwaltet werden. So wächst das Datenvolumen Jahr für Jahr im zweistelligen Prozentbereich.
 
Daher sei das Konsolidieren dieser Anwendungsfälle auf jeden Fall erstrebenswert, um die Komplexität zu reduzieren, rät das IT-Unternehmen. Dies erfordere eine zentrale Datenmanagement-Lösung, die schrittweise eingeführt und laufend angepasst wird. So lassen sich auch die Betriebskosten für Management und Wartung sowie die Kapitalkosten für die erforderliche Infrastruktur senken. Gleichzeitig profitieren die Unternehmen durch eine Konsolidierung der Lösungen von niedrigeren Lizenzgebühren. (sg)

Lesen Sie weiter mit Ihrem ZFK-Abonnement

Erhalten Sie uneingeschränkten Zugang zu allen Inhalten der ZFK!

✓ Vollzugriff auf alle ZFK-Artikel und das digitale ePaper
✓ Exklusive Analysen, Hintergründe und Interviews aus der Branche
✓ Tägliche Branchen-Briefings mit den wichtigsten Entwicklungen

Ihr Abonnement auswählen

Haben Sie Fehler entdeckt? Wollen Sie uns Ihre Meinung mitteilen? Dann kontaktieren Sie unsere Redaktion gerne unter redaktion@zfk.de.

Home
E-Paper