Definition: Unter Tokenisierung versteht man das Ersetzen sensibler Daten durch ein nicht sensibles Äquivalent (ein sogenanntes Token), das keine extrinsische oder verwertbare Aussagekraft oder Wert hat. Dabei kann es sich um eine eindeutige ID-Nummer oder Identifikationssymbole handeln, die alle wesentlichen Informationen der Daten beibehalten, ohne deren Sicherheit zu gefährden.
Tokenisierung
Tokenisierung kann die Privatsphäre schützen, indem sichergestellt wird, dass während einer Transaktion nur Token und keine dauerhafte Identitätsnummer oder andere persönlich identifizierbare Informationen offengelegt oder gespeichert werden. Durch die Umwandlung sensibler Daten in eine nicht erkennbare Zeichenkette, die ohne das Tokenisierungssystem nutzlos wird, sind diese Daten, falls sie gestohlen werden, für Cyberkriminelle wertlos.
Digitale Tokenisierung und Verschlüsselung sind zwei verschiedene kryptografische Methoden, die für die Datensicherheit verwendet werden. Der Hauptunterschied zwischen den beiden besteht darin, dass bei der Tokenisierung weder die Länge noch die Art der zu schützenden Daten verändert wird, während bei der Verschlüsselung sowohl die Länge als auch die Art der Daten verändert werden. Bei der Tokenisierung werden geheime Daten mit nicht entschlüsselbaren Informationen versehen. Verschlüsselung ist mit einem Schlüssel entschlüsselbar.
Die Tokenisierung wird seit langem in Kredit- und Debitkartensystemen verwendet, um die Daten auf der Karte (beispielsweise eine Kontonummer oder eine Zahlungskartennummer) durch ein einzigartiges, zufällig generiertes Token zu ersetzen, das zur Darstellung der Kartendaten bei Transaktionen verwendet werden kann, aber die ursprünglichen Kartendaten nicht offenlegt. Dadurch verringert sich die Anzahl der Systeme, die Zugriff auf die ursprünglichen Kartendaten haben, und damit auch das Betrugsrisiko, wenn ein System kompromittiert wird.
Das Tokenisierungssystem muss entsprechend der bewährten Sicherheitsverfahren für den Schutz, die sichere Speicherung, Prüfung, Authentifizierung und Autorisierung sensibler Daten abgesichert und validiert sein. Das Tokenisierungssystem bietet Datenverarbeitungsanwendungen die Autorität und die Schnittstellen, die sie benötigen, um Token abzufordern oder um sensible Daten wieder zu enttoken.