Datengrusel: Besichtigungstermin im Haunted House of Dark Data – was schlechte Datenqualität wirklich kostet

14.5.2025
Dr. Ramona Greiner, Dr. Matthias Böck
Inhalte
- Einführung
- Warum sind Dark Data problematisch?
- 1. Foyer der fehlenden Use Cases
- 2. Der Abstellkeller der Archivierung
- 3. Zimmer der zukünftigen Anwendung
- 4. Speicher der Speicherplätze
- 5. Unzugängliches Daten-Dachgeschoss
- 6. Nische der Nicht-Brauchbarkeit
- 7. Kammer der Kosten und technologischen Aufwände
- Fazit und Ausblick
- Was können Unternehmen tun, um Dark Data zu vermeiden oder zu bändigen?
- Wie FELD M bei der Verwaltung von Dark Data hilft
Datenqualität ist wie eine gute Hausverwaltung – unauffällig, aber entscheidend. Ohne saubere, zugängliche und aktuelle Daten funktionieren weder Dashboards, noch KI-Anwendungen oder Predictive Analytics. Die Arbeit im Hintergrund – Tracking, Datenpflege, Dokumentation – ist langweilig, aber unverzichtbar.
Was wie Fleißarbeit klingt, ist oft der Grund dafür, dass Daten im Unternehmen ungenutzt bleiben – mit weitreichenden Folgen.
In diesem Artikel erfahren Sie:
- warum viele Daten ungenutzt bleiben – und welche Risiken das birgt
- wie fehlende Use Cases, veraltete Systeme oder redundante Speicher zu „Dark Data“ führen
- was Tracking und saubere Dokumentation mit Datenqualität zu tun haben
- welche Kosten schlechte Daten verursachen – technisch, rechtlich und ökologisch
- welche konkreten Maßnahmen helfen, Daten nutzbar, auffindbar und wertvoll zu machen
- …und warum selbst langweilige Datenpflege das Fundament für jede KI ist
Ein Großteil der Daten, die Unternehmen heutzutage sammeln, bleibt ungenutzt – verborgen in Archiven und Silos. Diese schwer auffindbaren, ungeordneten oder schlicht vergessenen Daten werden in der Fachwelt als Dark Data bezeichnet.
Laut Gartner handelt es sich dabei um Informationen, die im Laufe der regulären Geschäftstätigkeit gesammelt, verarbeitet und gespeichert werden, aber nicht weiterverwendet werden – etwa für Analysen, Automatisierung oder geschäftliche Entscheidungen.
Studien schätzen, dass mehr als die Hälfte aller Unternehmensdaten zu diesen „dunklen“ Daten zählt. Das zeigt deutlich: Wer die Bedeutung von Datenqualität unterschätzt oder auf etablierte Best Practices der Datenpflege verzichtet, riskiert verpasste Geschäftschancen, unnötige Kosten und rechtliche Probleme.
Warum sind Dark Data problematisch?
Dark Data verursachen stille, aber teure Probleme – technisch, operativ und rechtlich. Sie entstehen dort, wo es an klaren Datenqualitätsstandards, regelmäßiger Pflege und nachhaltigem Tracking fehlt.
Einerseits binden Dark Data Ressourcen:
- Speicherplatz (ob on-premise oder in der Cloud) kostet Geld und muss verwaltet werden.
- Veraltete oder unstrukturierte Daten können die Datenqualität beeinträchtigen und Analysen verfälschen.
- Mitarbeitende verlieren Zeit im Datendschungel, statt produktiv zu arbeiten.
- Die Energie, die benötigt wird, um ungenutzte Daten zu speichern und zu kühlen, führt zu unnötigem CO₂-Ausstoß – Schätzungen zufolge jährlich rund 6,4 Millionen Tonnen CO₂, mehr als der Ausstoß von 80 einzelnen Ländern.
Andererseits bergen sie Compliance-Risiken:
- personenbezogene oder sensible Daten, die vergessen auf einem Server liegen
- Sicherheitslücken in veralteten Systemen
Wie kommt es also, dass so viele Daten brachliegen? Um diese Frage zu beleuchten, laden wir Sie ein, sich mit uns auf einen Rundgang durch das Haunted House of Dark Data zu begeben. Dieses „Gruselhaus“ der Datenqualität besteht aus verschiedenen Räumen – jeder Raum steht für ein typisches Problem im Umgang mit ungenutzten bzw. unnutzbaren, unstrukturierten oder qualitativ schlechten Daten in Unternehmen. Trauen Sie sich und kommen mit?
1. Foyer der fehlenden Use Cases
Warum Daten ohne Ziel keine Wirkung entfalten
Zunächst betreten wir das Foyer – die Eingangshalle – der dunklen Daten. Das „Foyer der fehlenden Use Cases” steht symbolisch dafür, dass viele Daten schon von Beginn an ohne konkreten Verwendungszweck gesammelt werden. Unternehmen häufen Informationen an – oft nach dem Motto „Daten könnten später nützlich sein“ –, ohne sich zu fragen: Wofür genau?
Fehlt ein klarer Use Case oder eine analytische Fragestellung, werden Daten schnell vergessen. Die Folge: Es existieren zwar große Datenbestände, aber keiner fühlt sich dafür verantwortlich, diese zu Verwalten oder gar daraus Erkenntnisse zu ziehen.
Hier zeigt sich ein Kulturproblem. Alle Welt spricht von datengetriebener Entscheidungsfindung und Führungskräfte betonen den hohen Wert von Daten – in einer Umfrage bezeichneten fast alle befragten Manager Daten als äußerst wertvoll für den Unternehmenserfolg.
Doch die Realität hinkt hinterher: Durchschnittlich werden nur rund 32 % der verfügbaren Unternehmensdaten tatsächlich für Analysen genutzt. (Seagate) Mit anderen Worten: Über zwei Drittel der Daten bleiben mangels Ideen oder Kapazitäten ungenutzt, obwohl ihr Potenzial allseits gepriesen wird. Dieses Spannungsfeld ist das eigentliche Gespenst im Foyer: eine Diskrepanz zwischen Anspruch und Wirklichkeit.
Die Abhilfe beginnt bereits an der „Haustür“ der Daten – bei der Strategie. Unternehmen sollten bereits vor Datenerhebung dafür sorgen, dass Fachabteilungen eng miteinander zusammenarbeiten, um klare Anwendungsfälle zu definieren.
Jede erhobene Datenart sollte einen vorgesehenen Nutzen haben oder zumindest zeitnah evaluiert werden („Können wir mit diesen Daten einen Mehrwert schaffen?“). Schulungen können die Data Literacy im Unternehmen erhöhen, damit Mitarbeiter wissen, wie und wofür sie Daten einsetzen können, statt sie liegenzulassen.
Und nicht zuletzt sollte ein Value-Tracking stattfinden: Für welche Entscheidungen oder Prozesse wurden die vorhandenen Daten in letzter Zeit genutzt? Wo klaffen Lücken? So wird das Foyer vom Durchgangslager für ziellose Datensammlungen zu einer Empfangshalle mit Plan – Daten kommen herein, weil sie gebraucht und genutzt werden.
2. Der Abstellkeller der Archivierung
Altdaten, Compliance und die Kosten schlechter Archivierung
Weiter geht es hinab in den Abstellkeller der Archivierung. Hier liegen unzählige alte Backups, Archive und Datensicherungen wie verstaubte Aktenordner. In vielen Unternehmen werden Daten zwar regelmäßig archiviert (oft aus Compliance-Gründen oder um Primärsysteme zu entlasten), aber diese Archive werden selten wieder ans Licht geholt. Der Keller symbolisiert all die Altlasten:
- Legacy-Datenbanken
- Bandlaufwerke
- E-Mail-Archive
- längst abgeschaltete Altsysteme
Das Risiko: Wenn archivierte Daten nicht ordentlich dokumentiert sind, weiß irgendwann niemand mehr, was sich darin befindet. Im besten Fall kosten sie „nur“ Speicher und Wartung. Im schlimmsten Fall enthalten sie schützenswerte Informationen, die bei einer Datenpanne unerwartet ans Licht kommen. Beispielsweise kann ein vergessenes Backup persönliche Kundendaten enthalten – ein Albtraum im Kontext von DSGVO und Datenschutz, wenn diese nicht auf Anfrage gelöscht werden können.
Zudem entsteht durch zu lange Aufbewahrung Data Debt: Systeme müssen weiterhin betrieben werden, weil sie noch Daten enthalten, die man (vermeintlich) nicht löschen darf. Dies führt zu aufwändigen Prozessierungen und einem steigenden Verwaltungsaufwand.
Die Herausforderung im Abstellkeller ist zugleich der letzte Schritt im Datenlebenszyklus, der aber von Anfang an mitgedacht werden sollte: Wann werden Daten endgültig entsorgt? Hier brauchen Unternehmen klare Aufbewahrungsfristen und Löschkonzepte. Nicht alles muss ewig aufgehoben werden.
Nach gesetzlichen Vorgaben archivierte Daten (etwa Buchhaltungsunterlagen) sollten nach Ablauf der Frist konsequent gelöscht werden, um Platz zu schaffen. Moderne Archivierungslösungen mit Indexierung können helfen, auch im Keller den Überblick zu behalten und relevante Datensätze bei Bedarf tatsächlich wiederzufinden. Der Keller muss kein finsteres Verlies bleiben – mit guter Pflege wird er zu einem geordneten Archiv, das nur wirklich Nützliches enthält.
3. Zimmer der zukünftigen Anwendung
Wenn der Use Case immer morgen kommt – aber nie heute
Viele Daten lagern ungenutzt, weil sie für einen nebulösen „Zukunftszweck“ aufgehoben werden: „Die Glaskugel zeigt zwar noch nichts Konkretes, aber warten wir mal ab!” Im Zimmer der zukünftigen Anwendung stapeln sich Datensätze mit dem Etikett „vielleicht später nützlich“. Unternehmen speichern gigantische Mengen an Logfiles, Sensor- oder Trackingdaten in der Hoffnung, sie eines Tages für Advanced Analytics oder Machine Learning nutzen zu können. Dank immer günstigerem Speicher und dem Versprechen von Big Data schien es lange Zeit sinnvoll, erst einmal alles in einen Data Lake zu kippen – für den Fall, dass es später einmal wertvoll wird.
Das Problem: Ohne konkreten Plan und aktuelle Nutzung verkommen diese aufgehobenen Daten schnell zum nutzlosen Ballast. Vielfach werden sie nie wieder angefasst und der Data Lake verkommt zum Data Swamp. Wie bereits aufgeführt, belegen Studien, dass Unternehmen den Großteil der gesammelten Daten gar nicht auswerten – sie nutzen nicht einmal einen Bruchteil dessen, was sie speichern. Gründe dafür sind u. a. fehlende Metadaten, unbekannte Formate oder schlicht Prioritätswechsel.
Daten, die jahrelang ungenutzt liegen, verlieren an Kontext und Aktualität – bis niemand mehr genau weiß, wozu sie ursprünglich gesammelt wurden. Das Zimmer der zukünftigen Anwendung steht somit sinnbildlich für aufgeschobene Wertschöpfung: Man besitzt potenziell wertvolle Daten, aber der Wert realisiert sich nicht, weil der Verwendungszweck immer in die Zukunft vertagt wird.
Die Lösung liegt darin, Use Cases – entsprechend der übergeordneten Strategie – zeitnah zu definieren. Daten sollten idealerweise gesammelt werden, um konkrete Geschäftsfragen zu beantworten.
Natürlich kann man explorativ Daten für mögliche zukünftige Anwendungen speichern – doch dann braucht es zumindest regelmäßige Überprüfungen: Haben wir aus diesen Daten inzwischen Erkenntnisse gewonnen? Wenn nicht, muss man entscheiden, ob man sie archiviert oder löscht, um Ressourcen zu schonen. Zudem helfen Automatisierung und KI dabei, in den massenhaft gesammelten Rohdaten Muster oder Anomalien zu entdecken, die vielleicht doch einen Nutzen liefern. So kann man aus manchem Geister-Datensatz noch einen Schatz heben – ganz nach dem Motto „Bares-für-Rares” –, statt ihn unbestimmt aufzubewahren.
Von diesem Zimmer der zukünftigen Anwendung führt auch direkt eine Treppe auf den Speicher der Speicherplätze, denn durch immer günstigeren Speicher ist die Versuchung umso größer alles „auf Halde” aufzuheben (IBM).
4. Speicher der Speicherplätze
Data Sprawl, Redundanzen und das Ende jeder Übersicht
In diesem Speicher der Speicherplätze stapeln sich also Regale über Regale. Dieses Zimmer steht für die Angewohnheit vieler Unternehmen, immer mehr Speicherorte und Kopien anzulegen, oft ohne Überblick. Man findet hier z. B. mehrere nahezu identische Ablagen – alle voll mit ähnlichen oder doppelten Dateien:
- Netzlaufwerke und SharePoints
- E-Mail-Anhänge
- Lokale Speicher
- Data Lakes und Datenbanken
- Cloud-Backups
Diese Datenflut führt dazu, dass niemand mehr genau weiß, wo welche Information liegt. Der „Speicher der Speicherplätze“ symbolisiert das unkontrollierte Datenwachstum (Data Sprawl) und die daraus resultierenden Redundanzen.
In solchen Umgebungen entstehen auch viele ROT-Daten („Redundant, Obsolete, Trivial“ – redundante, veraltete oder triviale Daten). Untersuchungen zeigen, dass neben Dark Data ein beträchtlicher Teil der gespeicherten Informationen schlicht Ballast ist – so schätzt eine Analyse von Veritas, dass im Schnitt 33 % der Unternehmensdaten redundant oder obsolet sind (ROT) und weitere 52 % „dunkel“ bleiben.
Dieses Chaos verursacht nicht nur hohe Speicherkosten, sondern erschwert auch das Auffinden der wirklich wichtigen Daten. Wenn jede Abteilung ihre eigene Kopien der Daten speichert (weil man der Qualität fremder Ablagen nicht traut oder sie gar nicht kennt – oft aus einem Gefühl der Datenhoheit oder der Angst vor Kontrollverlust), blähen sich die Speicher immer weiter auf, Datensilos manifestieren sich und die Zeit für die Datenaufbereitung ein und des selben Datensatzes multipliziert sich.
Data Lifecycle Management ist hier der Schlüssel, um Ordnung zu schaffen. Unternehmen brauchen klare Richtlinie, welche Daten wo gespeichert werden und wann sie zu archivieren oder zu löschen sind. Ein zentrales Datenmanagement mit konsolidierten Speicherlösungen (statt unzähliger Einzelsilos) hilft, Dubletten zu vermeiden.
Durch Deduplizierungstechniken (Verfahren zur Identifizierung und Entfernung doppelter Daten) und regelmäßige Daten-Inventuren kann der „Speicher der Speicherplätze“ ausgemistet werden.
Letztlich geht es darum, von der Haltung „Speicher ist billig, wir behalten lieber alles“ wegzukommen, hin zu „Datenqualität vor Quantität“. Weniger, aber besser organisierte Daten bedeuten am Ende geringere Kosten und höhere Effizienz.
5. Unzugängliches Daten-Dachgeschoss
Silos, Ownership-Gaps und verlorene Informationen
Im verstaubten Dachgeschoss des Dark-Data-Spukhauses lagern Daten, die unzugänglich sind. Ähnlich wie auf einem realen Dachboden, zu dem man keinen Schlüssel hat, weiß man zwar, dass dort noch Dinge lagern, aber niemand weiß so recht, was genau darin ist oder wie man herankommt.
Diese Daten sind zwar vorhanden, aber praktisch nutzlos: Sie sind schlecht dokumentiert, technisch isoliert oder schlicht vergessen. Oft handelt es sich um Datensilos – isolierte oder sogar verschlüsselte Datenablagen einzelner Abteilungen oder verwaiste Altsysteme, die nicht in die übergreifende Datenarchitektur integriert sind.
Neben der technischen Isolation, gibt es meist niemanden mehr im Unternehmen der sich mit diesen Daten explizit auskennt oder sich für sie verantwortlich fühlt (fehlende Ownership). Die Unsicherheit über Verantwortlichkeit und Nutzen führt dann wiederum dazu, dass niemand sich an die Aufgabe wagt diese Datensätze zu integrieren oder zu löschen. Hierdurch entstehen erneut Speicherkosten und zusätzlich gehen dem Unternehmen unter Umständen wertvolle Daten (z.B. historische Kundendaten) verloren.
Die Folgen zeigen sich in der täglichen Arbeit. Mitarbeiter*innen können benötigte Informationen nicht finden und verschwenden Zeit auf der Suche im Datendachboden. Laut einer Analyse verbringen Wissensarbeiter im Schnitt 1,8 Stunden pro Tag damit, nach Informationen zu suchen, die sie nicht finden können. Datenexperten verschwenden im Schnitt 30 % ihrer Arbeitszeit auf das Auffinden und Aufbereiten von verteilten Datensätzen (marketlogic).
Diese Ineffizienz summiert sich: Nicht auffindbare Daten bedeuten Doppelarbeit, verlorene Produktivität und Frustration. Das Data-Discovery-Problem eines Unternehmens erzeugt somit echte Kosten und bremst datengestützte Entscheidungen aus.
Um das unzugängliche Daten-Dachgeschoss zu entrümpeln, setzen Unternehmen auf Data Catalogs und Metadata Management. Durch zentrale Verzeichnisse und konsequente Verschlagwortung (Tags) lassen sich verteilte Datenbestände besser auffinden. Ohne klar definierte Zuständigkeiten und aktive Governance bleiben viele dieser Tools jedoch wirkungslos. Eine durchdachte Data-Governance-Strategie stellt sicher, dass für alle Daten klar ist, wer verantwortlich ist (Ownership) und wie darauf zugegriffen werden kann.
So wird aus dem düsteren Dachboden ein gut beleuchteter Speicherraum, in dem nichts Wertvolles mehr verloren geht.
6. Nische der Nicht-Brauchbarkeit
Fehlerhafte, unstrukturierte und unverständliche Daten
In einer dunklen Nische des Spukhauses sehen wir Datenhaufen, die schlicht nicht brauchbar sind – wie die alte Schallplattensammlung vom Opa, wenn man selber keinen Plattenspieler mehr hat. Hier landen all die Daten, die zwar existieren, mit denen aber niemand etwas anfangen kann. Die Gründe dafür sind vielfältig: Manche Datensätze sind unvollständig, fehlerhaft oder nicht vertrauenswürdig, sodass Analysten sie lieber ignorieren. Andere liegen in exotischen Formaten oder Systemen vor, auf die aktuelle Tools keinen Zugriff haben. Wieder anderen fehlt jegliche Dokumentation – es ist unklar, was Tabelle X bedeutet oder in welcher Einheit Y erfasst wurde.
Ohne Kontext wird aus Daten schnell Datenmüll.
Qualitativ minderwertige Daten führen zu falschen Schlussfolgerungen, wenn man sie einbezieht, oder sie kosten Zeit, wenn man beim Bereinigen feststellt, dass sie unbrauchbar sind. Viele Unternehmen haben riesige Bestände an solchen unstrukturierten oder unklassifizierten Informationen.
Diese Nische im Haunted House offenbart ein Kernproblem der Datenqualität: Nur wenn Daten den gängigen Datenqualitätsstandards entsprechen – also akkurat, vollständig und verständlich sind –, können sie wertstiftend eingesetzt werden. Alles andere wird früher oder später zu Dark Data.
Um die Nische der Nicht-Brauchbarkeit zu schließen, müssen Unternehmen in Data Quality Management investieren. Dazu gehören Prozesse wie Datenbereinigung, Standardisierung und Validierung.
Außerdem sollte jeder wichtige Datensatz mit den nötigen Metadaten versehen werden (Was stellt die Variable dar? Wie wurde sie erhoben? Wie verlässlich ist sie?). Hier zahlt sich erneut eine etablierte Data Governance aus: etwa durch die Benennung von Data Stewards, die für die Pflege der Datenqualität in ihren Fachbereichen verantwortlich sind. Durch regelmäßige Qualitätssicherung leuchten plötzlich auch ehemals dunkle Ecken auf – Daten, die vorher nicht nutzbar waren, können mit Verbesserungen und Dokumentation doch noch wertvoll werden.
Doch manchmal übersteigen die Kosten für die technische Aufbereitung auch ein vernünftiges Maß und es wird mehr in das Heben des Datenschatzes investiert als der Datenschatz eigentlich wert ist. Dann heißt es oft: Willkommen in der …
7. Kammer der Kosten und technologischen Aufwände
Was schlechte Daten wirklich kosten – in Euro, Aufwand und CO₂
Hier manifestieren sich die Kosten und der technologische Aufwand, den Dark Data verursachen. Jede gespeicherte Datei, jedes Terabyte an ungenutzten Daten zieht direkte und indirekte Ausgaben nach sich:
- Cloud-Storage-Gebühren
- Strom für Server
- Kühlung im Rechenzentrum
- Backup-Infrastruktur
- Administrations- und Prozessierungsaufwand
Global betrachtet sind diese Kosten enorm – bereits 2016 warnte Veritas, dass bis 2020 die jährlichen Ausgaben für die Speicherung von Dark und ROT-Daten auf 2,2 Billionen Pfund steigen würden (capacitymedia). Für einzelne Unternehmen bedeutet das Millionenbeträge, die in Datenspeicherung fließen, ohne Wertschöpfung zu erzielen.
Hinzu kommt der administrative Aufwand: Alte, selten genutzte Daten erfordern dennoch Wartung. Legacy-Systeme müssen weiterbetrieben oder migriert werden, Backups geprüft, Migrationsskripte für Systemumzüge geschrieben werden – all das für Informationen, die niemand aktiv nutzt.
Diese Kammer der Kosten erinnert uns daran, dass jedes Gigabyte unnützer Daten letztlich die IT-Budgets belastet und Innovationsprojekte ausbremsen kann (Stichwort Opportunitätskosten).
Nicht zu vergessen ist der ökologische Preis: Unbenutzte Daten ziehen Strom und Ressourcen. Die Kühlung großer Datenarchive verbraucht Energie und trägt zu CO₂-Emissionen bei. Jährlich werden durch das Speichern von Dark Data geschätzt 6,4 Millionen Tonnen CO₂ unnötig in die Atmosphäre geblasen – so viel wie 80 Länder dieser Erde zusammen. Es wird angenommen, dass sich das globale Datenvolumen bis 2025 vervierfacht hat und 175 Zettabyte erreichen wird, was rund 91 Zettabyte Dark Data bedeuten würde. Unternehmen sollten daher auch aus Kosten- und Nachhaltigkeitsgründen ihre Datenhalden kritisch prüfen.
Die Bewältigung dieser Herausforderungen erfordert ein strategisches Umdenken. Data Governance spielt hier eine zentrale Rolle: Klare Richtlinien, wer welche Daten wie lange vorhalten darf, und regelmäßige Kontrollen helfen, die Datenmenge schlank zu halten. Ebenso sollten Unternehmen Kennzahlen wie Cost per Data Unit verfolgen, um ein Gefühl dafür zu bekommen, was ihre Daten(un)nutzung tatsächlich kostet. Cloud-Anbieter bieten zwar verschiedene Speicheroptionen die Kosten senken (z. B. Tiered Storage, bei dem selten genutzte Daten auf günstigere, langsamere Medien ausgelagert werden) – am effektivsten ist es jedoch, unnötige Daten gar nicht erst anzusammeln.
Fazit und Ausblick
Unser Rundgang durch das Haunted House of Dark Data hat die Problemfelder ungenutzter Daten in Unternehmen aufgezeigt: vom unzugänglichen Dachgeschoss über redundante Datenspeicher, aufgeschobene Anwendungen und verstaubte Archive bis hin zu Kostenfallen, Datenmüll-Nischen und fehlenden Use Cases. Doch zum Glück lassen sich diese Spukgestalten austreiben.
Was können Unternehmen tun, um Dark Data zu vermeiden oder zu bändigen?
Einige Ansätze:
- Ganzheitliche Data Governance etablieren: Ein unternehmensweites Rahmenwerk aus Richtlinien und Verantwortlichkeiten sorgt dafür, dass Daten über ihren gesamten Lebenszyklus sinnvoll gemanagt werden. Dazu gehören klare Zuständigkeiten (Data Owner, Data Stewards) und Regeln für das Sammeln, Speichern, Nutzen und Löschen von Daten (Data Contracts).
- Metadaten-Management und Data Catalogs nutzen: Durch die Pflege von Metadaten und den Einsatz von Data-Catalog-Werkzeugen behalten Unternehmen den Überblick darüber, welche Daten wo liegen und wofür sie gut sind: Jede „Datenkiste“ wird etikettiert und auffindbar, anstatt unbemerkt im Keller zu verschwinden.
- Automatisierte Klassifikation & KI-Unterstützung: Moderne Tools nutzen KI/ML, um Daten automatisiert zu klassifizieren, Dubletten zu erkennen und sensible Inhalte aufzuspüren. Solche Technologien können Dark Data identifizieren (z. B. Dateien, die seit Jahren nicht geöffnet wurden) und Empfehlungen geben, was davon gelöscht oder archiviert werden kann. Ebenso kann Machine Learning helfen, verborgene Muster in ungenutzten Daten zu finden und sie doch nutzbar zu machen.
- Datenqualität sichern: Durch regelmäßige Data Quality Audits und den Einsatz von Datenqualitäts-Werkzeugen wird sichergestellt, dass Daten gar nicht erst aufgrund schlechter Qualität unbrauchbar werden. Konsistente Formate, Validitätsprüfungen und die Schulung von Mitarbeitenden im Datenumgang (Data Literacy) erhöhen die Vertrauenswürdigkeit der Daten.
- Klare Use Cases definieren & Wertschöpfung messen: Bereits bei der Datenerfassung sollte ein Nutzen ins Auge gefasst werden. Projekte sollten mit definierten Datenzielen starten („Wir sammeln diese Daten, um X zu erreichen“). Zudem lohnt es sich, regelmäßig zu kontrollieren, ob die vorhandenen Daten tatsächlich in Entscheidungsprozesse einfließen. Daten, für die sich partout kein Use Case findet, sollten hinterfragt werden – vielleicht sind Zeit und Speicher woanders besser investiert.
Abschließend lässt sich sagen: Dark Data sind kein unumgängliches Schicksal. Mit der richtigen Strategie und modernen Technologien können Unternehmen ihre „dunklen Daten“ sichtbar machen – oder unnötige Datensätze konsequent löschen. So verbessert sich nicht nur die Datenqualität, sondern auch die Effizienz und Innovationskraft des Unternehmens.
Ein gut ausgeleuchtetes Datenhaus schafft die Grundlage, um das volle Potenzial der „Information-Assets” auszuschöpfen und wirklich datengetrieben zu arbeiten. Die Geister der Vergangenheit werden durch Wissen, Struktur und Governance vertrieben – und aus dem Haunted House of Dark Data wird ein ordentliches Datendomizil mit Zukunft.
Wie FELD M bei der Verwaltung von Dark Data hilft
Daten, die nicht richtig gepflegt werden, bieten nicht nur Risiken, sondern auch Chancen. FELD M unterstützt Sie dabei, Dark Data zu strukturieren und in wertvolle Ressourcen umzuwandeln. Mit unserer Expertise in Data Governance, Datenarchitektur und Datenqualität sorgen wir dafür, dass Ihre Daten zugänglich, zuverlässig und optimal genutzt werden – für fundierte Entscheidungen und eine zukunftsfähige Datenstrategie.
Erfahren Sie mehr über unsere Dienstleistungen: