OpenText-Startseite.
Technische Themen

Was ist Tokenisierung?

Illustration von IT-Elementen mit Schwerpunkt auf einem Fragezeichen

Übersicht

Tokenisierung ist ein Prozess, bei dem PANs, PHI, PII und andere sensible Datenelemente durch Ersatzwerte oder Token ersetzt werden. Tokenisierung ist eigentlich eine Form der Verschlüsselung, aber die beiden Begriffe werden normalerweise unterschiedlich verwendet. Verschlüsselung bedeutet in der Regel die Kodierung von für den Menschen lesbaren Daten in unverständlichen Text, der nur mit dem richtigen Entschlüsselungscode entschlüsselt werden kann, während Tokenisierung (oder "Maskierung" oder "Verschleierung") eine Form des formatbewahrenden Datenschutzes bedeutet: die Umwandlung sensibler Werte in nicht-sensible Ersatzwerte - Token -, die dieselbe Länge und dasselbe Format wie die Originaldaten haben.

  • Token haben einige Merkmale mit den ursprünglichen Datenelementen gemeinsam, z. B. den Zeichensatz, die Länge usw.
  • Jedes Datenelement wird auf ein eindeutiges Token abgebildet.
  • Token sind deterministisch: Die wiederholte Erzeugung eines Tokens für einen bestimmten Wert ergibt denselben Token.
  • Eine tokenisierte Datenbank kann durchsucht werden, indem die Suchbegriffe in Token umgewandelt werden und nach diesen gesucht wird.

Als eine Form der Verschlüsselung ist die Tokenisierung eine wichtige Strategie zum Schutz des Datenschutzes für jedes Unternehmen. Diese Seite gibt einen Überblick darüber, was Tokenisierung ist und wie sie funktioniert.

Tokenisierung

Woher kommt die Tokenisierung?

Die digitale Tokenisierung wurde erstmals 2001 von TrustCommerce entwickelt, um einen Kunden beim Schutz seiner Kreditkartendaten zu unterstützen. Die Händler speicherten die Daten der Karteninhaber auf ihren eigenen Servern, was bedeutete, dass jeder, der Zugang zu ihren Servern hatte, die Kreditkartennummern der Kunden einsehen und nutzen konnte.

TrustCommerce hat ein System entwickelt, das die primären Kontonummern (PANs) durch eine nach dem Zufallsprinzip ermittelte Nummer, ein so genanntes Token, ersetzt. Dies ermöglichte es den Händlern, Token zu speichern und zu referenzieren, wenn sie Zahlungen akzeptieren. TrustCommerce wandelte die Token wieder in PANs um und wickelte die Zahlungen unter Verwendung der ursprünglichen PANs ab. Dies isolierte das Risiko für TrustCommerce, da die Händler keine tatsächlichen PANs mehr in ihren Systemen gespeichert hatten.

Als die Sicherheitsbedenken und die gesetzlichen Anforderungen zunahmen, bewies die Tokenisierung der ersten Generation den Wert der Technologie, und andere Anbieter boten ähnliche Lösungen an. Die Probleme mit diesem Ansatz wurden jedoch bald deutlich.


Welche Arten der Tokenisierung gibt es?

Es gibt zwei Arten der Tokenisierung: reversibel und irreversibel.

Reversible Token können enttokenisiert werden, d. h. in ihre ursprünglichen Werte zurückgewandelt werden. In der Terminologie des Datenschutzes wird dies als Pseudonymisierung bezeichnet. Solche Token können weiter in kryptografische und nicht kryptografische unterteilt werden, obwohl diese Unterscheidung künstlich ist, da jede Tokenisierung eigentlich eine Form der Verschlüsselung ist.

Bei der kryptografischen Tokenisierung werden Token mithilfe starker Kryptografie erzeugt; die Klartextdatenelemente werden nirgendwo gespeichert - nur der kryptografische Schlüssel. Der NIST-Standard FF1-mode AES ist ein Beispiel für kryptografische Tokenisierung.

Nicht-kryptografische Tokenisierung bedeutete ursprünglich, dass Token durch die zufällige Generierung eines Wertes und die Speicherung des Klartextes und des entsprechenden Tokens in einer Datenbank erstellt wurden, wie beim ursprünglichen TrustCommerce-Angebot. Dieser Ansatz ist konzeptionell einfach, bedeutet aber, dass für jede Tokenisierungs- oder Enttokenisierungsanforderung eine Serveranfrage gestellt werden muss, was zusätzlichen Aufwand, Komplexität und Risiken mit sich bringt. Sie ist auch nicht gut skalierbar. Betrachten wir eine Anfrage zur Tokenisierung eines Wertes: Der Server muss zunächst eine Datenbankabfrage durchführen, um festzustellen, ob er bereits ein Token für diesen Wert besitzt. Wenn dies der Fall ist, wird dies zurückgegeben. Ist dies nicht der Fall, muss es einen neuen Zufallswert generieren und dann eine weitere Datenbankabfrage durchführen, um sicherzustellen, dass dieser Wert nicht bereits für einen anderen Klartext zugewiesen wurde. Wenn dies der Fall ist, muss er einen weiteren Zufallswert generieren, diesen überprüfen und so weiter. Mit zunehmender Anzahl der erstellten Token steigt der Zeitaufwand für diese Datenbankabfragen; schlimmer noch, die Wahrscheinlichkeit solcher Kollisionen nimmt exponentiell zu. Bei solchen Implementierungen werden in der Regel auch mehrere Token-Server verwendet, um die Lastverteilung, die Zuverlässigkeit und die Ausfallsicherheit zu gewährleisten. Diese müssen eine Datenbanksynchronisation in Echtzeit durchführen, um Zuverlässigkeit und Konsistenz zu gewährleisten, was die Komplexität und den Overhead weiter erhöht.

Moderne nicht-kryptografische Tokenisierung konzentriert sich auf "zustandslose" oder "tresorlose" Ansätze, die zufällig generierte Metadaten verwenden, die sicher kombiniert werden, um Token zu erstellen. Solche Systeme können unabhängig voneinander betrieben werden und sind im Wesentlichen unbegrenzt skalierbar, da sie im Gegensatz zur datenbankgestützten Tokenisierung keine über das Kopieren der ursprünglichen Metadaten hinausgehende Synchronisierung erfordern.

Irreversible Token können nicht in ihre ursprünglichen Werte zurückverwandelt werden. In der Terminologie des Datenschutzes wird dies als Anonymisierung bezeichnet. Solche Token werden durch eine Einwegfunktion erstellt und ermöglichen die Verwendung anonymisierter Datenelemente für Analysen Dritter, Produktionsdaten in niedrigeren Umgebungen usw.


Vorteile der Tokenisierung

Die Tokenisierung erfordert nur minimale Änderungen, um bestehenden Anwendungen einen starken Datenschutz hinzuzufügen. Herkömmliche Verschlüsselungslösungen vergrößern die Daten und erfordern erhebliche Änderungen am Datenbank- und Programmdatenschema sowie zusätzlichen Speicherplatz. Das bedeutet auch, dass geschützte Felder keine Validierungsprüfungen bestehen, was weitere Codeanalysen und Aktualisierungen erfordert. Tokens verwenden die gleichen Datenformate, erfordern keine zusätzliche Speicherung und können Validierungsprüfungen bestehen.

Da Anwendungen Daten gemeinsam nutzen, ist die Tokenisierung auch viel einfacher hinzuzufügen als die Verschlüsselung, da die Datenaustauschprozesse unverändert bleiben. In der Tat können viele Zwischennutzungen von Daten - zwischen Ingestion und endgültiger Disposition - das Token verwenden, ohne es jemals enttoken zu müssen. Dies verbessert die Sicherheit und ermöglicht es, die Daten so schnell wie möglich nach dem Erwerb zu schützen und sie während des größten Teils ihres Lebenszyklus geschützt zu halten.

Innerhalb der Grenzen der Sicherheitsanforderungen können Token teilweise Klartextwerte enthalten, z. B. die Anfangs- und Endziffern einer Kreditkartennummer. Dadurch können erforderliche Funktionen - wie die Weiterleitung von Karten und die Überprüfung der "letzten Vier" oder das Drucken auf Kundenbelegen - mit dem Token ausgeführt werden, ohne dass er in den tatsächlichen Wert zurückgewandelt werden muss.

Diese Möglichkeit der direkten Verwendung von Token verbessert sowohl die Leistung als auch die Sicherheit: Leistung, weil es keinen Overhead gibt, wenn keine Enttokenisierung erforderlich ist, und Sicherheit, weil der Klartext nie wiederhergestellt wird und somit weniger Angriffsfläche zur Verfügung steht.


Wozu dient die Tokenisierung?

Tokenisierung wird zum Schutz vieler verschiedener Arten von sensiblen Daten verwendet, darunter auch:

  • Daten von Zahlungskarten
  • U.S. Sozialversicherungsnummern und andere nationale Identifikationsnummern
  • Telefonnummern
  • Reisepassnummern
  • Nummern der Führerscheine
  • E-Mail-Adressen
  • Bankkontonummern
  • Namen, Adressen, Geburtsdaten

Da die Zahl der Datenschutzverletzungen zunimmt und die Datensicherheit immer wichtiger wird, ist die Tokenisierung für Unternehmen interessant, da sie sich leichter in bestehende Anwendungen integrieren lässt als die herkömmliche Verschlüsselung.

PCI DSS-Konformität

Der Schutz von Zahlungskartendaten ist einer der häufigsten Anwendungsfälle für Tokenisierung, unter anderem aufgrund der Routing-Anforderungen für verschiedene Kartentypen und der "Last Four"-Validierung von Kartennummern. Die Tokenisierung von Kartendaten erhielt durch die Anforderungen des Payment Card Industry Security Standards Council (PCI SSC) einen frühen Schub. Der Payment Card Industry Data Security Standard (PCI DSS) verpflichtet Unternehmen, die mit Zahlungskartendaten arbeiten, zur Einhaltung strenger Cybersicherheitsanforderungen. Während die Verschlüsselung von Zahlungskartendaten gemäß PCI DSS zulässig ist, können Händler auch Tokenisierung verwenden, um die Compliance-Standards zu erfüllen. Da die Datenflüsse im Zahlungsverkehr komplex, leistungsstark und genau definiert sind, lässt sich die Tokenisierung viel einfacher hinzufügen als die Verschlüsselung.


Sichern Sie sensible Daten mit Tokenisierung

Die Tokenisierung wird immer beliebter, um Daten zu schützen, und kann eine wichtige Rolle in einer Datenschutzlösung spielen. OpenText™ Cybersecurity hilft Ihnen dabei, sensible Geschäftsdaten mit OpenText™ Voltage™ SecureData zu schützen, das eine Vielzahl von Tokenisierungsmethoden für jeden Bedarf bietet.

Voltage SecureData und andere Cyber-Resilience-Lösungen können die menschliche Intelligenz durch künstliche Intelligenz ergänzen, um die Datensicherheit eines Unternehmens zu verbessern. Dies ermöglicht nicht nur eine intelligente Verschlüsselung und einen intelligenteren Authentifizierungsprozess, sondern auch eine einfache Erkennung neuer und unbekannter Bedrohungen durch kontextbezogene Erkenntnisse über Bedrohungen.


Verwandte Produkte

OpenText™ Data Privacy & Protection Foundation

Schützen Sie hochwertige Daten, während sie für die hybride IT verwendbar bleiben

Privatsphäre und Datenschutz

Daten sichern, Risiken reduzieren, Compliance verbessern und Zugriff regeln

Wie können wir behilflich sein?

Fußnoten