Page d'accueil d'OpenText.
Sujets techniques

Qu'est-ce que la tokenisation ?

Illustration d'éléments informatiques mettant en évidence un point d'interrogation

Aperçu

La tokenisation est un processus par lequel les numéros PAN, les données de santé protégées (PHI), les données personnelles identifiables (PII) et autres éléments de données sensibles sont remplacés par des valeurs de substitution, ou jetons. La tokenisation est en réalité une forme de chiffrement, mais les deux termes sont généralement utilisés différemment. Le chiffrement consiste généralement à encoder des données lisibles par l'humain en un texte incompréhensible qui ne peut être décodé qu'avec la clé de déchiffrement appropriée, tandis que la tokenisation (ou « masquage » ou « obfuscation ») désigne une forme de protection des données préservant le format : la conversion des valeurs sensibles en valeurs de remplacement non sensibles – les jetons – de même longueur et de même format que les données originales.

  • Les jetons partagent certaines caractéristiques avec les éléments de données d'origine, comme l'ensemble de caractères, la longueur, etc.
  • Chaque élément de données est associé à un jeton unique.
  • Les jetons sont déterministes : la génération répétée d’un jeton pour une valeur donnée donne le même jeton.
  • Une base de données tokenisée peut être interrogée en tokenisant les termes de la requête et en effectuant une recherche à partir de ces termes.

La tokenisation, en tant que forme de chiffrement, est une stratégie clé de protection de la confidentialité des données pour toute entreprise. Cette page offre un aperçu de ce qu'est la tokenisation et de son fonctionnement.

Tokenisation

D'où vient la tokenisation ?

La tokenisation numérique a été créée pour la première fois par TrustCommerce en 2001 afin d'aider un client à protéger les informations de cartes de crédit de ses clients. Les commerçants stockaient les données des titulaires de cartes sur leurs propres serveurs, ce qui signifiait que toute personne ayant accès à ces serveurs pouvait potentiellement consulter ou utiliser à mauvais escient les numéros de cartes de crédit de ces clients.

TrustCommerce a développé un système qui remplace les numéros de compte principaux (PAN) par un numéro aléatoire appelé jeton. Cela permettait aux commerçants de stocker et de référencer des jetons lors de l'acceptation des paiements. TrustCommerce a reconverti les jetons en PAN et a traité les paiements en utilisant les PAN d'origine. Cela a permis d'isoler le risque pour TrustCommerce, puisque les marchands n'avaient plus aucun numéro PAN stocké dans leurs systèmes.

Face à l'augmentation des préoccupations en matière de sécurité et des exigences réglementaires, cette tokenisation de première génération a prouvé la valeur de la technologie, et d'autres fournisseurs ont proposé des solutions similaires. Cependant, les problèmes liés à cette approche sont rapidement apparus.


Quels types de tokenisation sont disponibles ?

Il existe deux types de tokenisation : réversible et irréversible.

Les jetons réversibles peuvent être détokenisés, c'est-à-dire reconvertis en leurs valeurs d'origine. En termes de protection de la vie privée, on appelle ça la pseudonymisation. Ces jetons peuvent être subdivisés en jetons cryptographiques et non cryptographiques, bien que cette distinction soit artificielle, puisque toute tokenisation est en réalité une forme de chiffrement.

La tokenisation cryptographique génère des jetons à l'aide d'un chiffrement robuste ; les éléments de données en clair ne sont stockés nulle part – seule la clé cryptographique l'est. L'AES en mode FF1, conforme à la norme NIST,est un exemple de tokenisation cryptographique.

La tokenisation non cryptographique signifiait à l'origine que les jetons étaient créés en générant aléatoirement une valeur et en stockant le texte en clair et le jeton correspondant dans une base de données, comme l'offre originale de TrustCommerce. Cette approche est conceptuellement simple, mais elle implique que toute requête de tokenisation ou de détokenisation doit faire l'objet d'une requête serveur, ce qui ajoute des frais généraux, de la complexité et des risques. De plus, il ne s'adapte pas bien aux grandes échelles. Prenons l'exemple d'une requête de tokenisation d'une valeur : le serveur doit d'abord effectuer une recherche dans la base de données pour vérifier s'il possède déjà un jeton pour cette valeur. Si c'est le cas, il retourne cette valeur. Sinon, il doit générer une nouvelle valeur aléatoire, puis effectuer une autre recherche dans la base de données pour s'assurer que cette valeur n'a pas déjà été assignée à un texte clair différent. Si c'est le cas, il doit générer une autre valeur aléatoire, la vérifier, et ainsi de suite. À mesure que le nombre de jetons créés augmente, le temps nécessaire à ces recherches dans la base de données s'allonge ; pire encore, la probabilité de telles collisions augmente de façon exponentielle. Ces implémentations utilisent généralement plusieurs serveurs de jetons, pour l'équilibrage de charge, la fiabilité et la reprise après incident. Ces dispositifs doivent effectuer une synchronisation de base de données en temps réel pour assurer la fiabilité et la cohérence, ce qui ajoute de la complexité et des frais supplémentaires.

La tokenisation moderne non cryptographique se concentre sur des approches « sans état » ou « sans coffre-fort », utilisant des métadonnées générées aléatoirement qui sont combinées de manière sécurisée pour construire des jetons. De tels systèmes peuvent fonctionner de manière déconnectée les uns des autres et évoluer de façon quasi infinie puisqu'ils ne nécessitent aucune synchronisation au-delà de la copie des métadonnées originales, contrairement à la tokenisation basée sur une base de données.

Les jetons irréversibles ne peuvent pas être reconvertis en leurs valeurs d'origine. En termes de protection de la vie privée, on appelle ça l'anonymisation. Ces jetons sont créés via une fonction unidirectionnelle, permettant l'utilisation d'éléments de données anonymisés pour l'analyse par des tiers, les données de production dans des environnements inférieurs, etc.


avantages de la tokenisation

La tokenisation nécessite des modifications minimales pour ajouter une protection robuste des données aux applications existantes. Les solutions de chiffrement traditionnelles augmentent le volume de données, ce qui nécessite des modifications importantes du schéma des données de la base de données et du programme, ainsi qu'un espace de stockage supplémentaire. Cela signifie également que les champs protégés échouent à tous les contrôles de validation, ce qui nécessite une analyse et des mises à jour du code. Les jetons utilisent les mêmes formats de données, ne nécessitent aucun stockage supplémentaire et peuvent passer des contrôles de validation.

Comme les applications partagent des données, la tokenisation est aussi beaucoup plus facile à ajouter que le chiffrement, puisque les processus d'échange de données restent inchangés. En fait, de nombreuses utilisations intermédiaires des données – entre l’ingestion et la disposition finale – peuvent généralement utiliser le jeton sans jamais avoir à le détokeniser. Cela améliore la sécurité, permettant de protéger les données dès que possible après leur acquisition et de les garder protégées pendant la majeure partie de leur cycle de vie.

Dans les limites des exigences de sécurité, les jetons peuvent conserver des valeurs partielles en clair, comme les premiers et derniers chiffres d'un numéro de carte de crédit. Cela permet d'effectuer les fonctions requises, telles que le routage des cartes et la vérification des « quatre derniers chiffres » ou l'impression sur les reçus clients, à l'aide du jeton, sans avoir à le reconvertir en sa valeur réelle.

Cette capacité à utiliser directement des jetons améliore à la fois les performances et la sécurité : les performances, car il n’y a pas de surcharge lorsqu’aucune détokenisation n’est requise ; et la sécurité, car comme le texte en clair n'est jamais récupéré, la surface d'attaque disponible est réduite.


À quoi sert la tokenisation ?

La tokenisation est utilisée pour sécuriser de nombreux types de données sensibles, notamment :

  • données de carte de crédit
  • Numéros d'assurance sociale américains et autres numéros d'identification nationaux
  • numéros de téléphone
  • Numéros de passeport
  • Numéros de permis de conduire
  • adresses courriel
  • numéros de compte bancaire
  • Noms, adresses, dates de naissance

Face à la multiplication des violations de données et à l'importance croissante de la sécurité des données, les organisations trouvent la tokenisation attrayante parce qu'elle est plus facile à intégrer aux applications existantes que le chiffrement traditionnel.

Conformité PCI DSS

La protection des données des cartes de paiement est l'un des cas d'utilisation les plus courants de la tokenisation, notamment en raison des exigences de routage pour différents types de cartes ainsi que de la validation des « quatre derniers chiffres » des numéros de carte. La tokenisation des données de cartes a connu un essor précoce grâce aux exigences fixées par le Conseil des normes de sécurité de l'industrie des cartes de paiement (PCI SSC). La norme de sécurité des données de l'industrie des cartes de paiement (PCI DSS) exige des entreprises qui traitent des données de cartes de paiement qu'elles garantissent le respect d'exigences strictes en matière de cybersécurité . Bien que la sécurisation des données de cartes de paiement par chiffrement soit autorisée par la norme PCI DSS, les commerçants peuvent également utiliser la tokenisation pour se conformer aux normes. Étant donné que les flux de données de paiement sont complexes, performants et bien définis, la tokenisation est beaucoup plus facile à ajouter que le chiffrement.


Sécuriser les données sensibles grâce à la tokenisation

La tokenisation est une méthode de plus en plus populaire pour protéger les données et peut jouer un rôle essentiel dans une solution de protection de la vie privée des données. OpenText ™ Cybersecurity est là pour vous aider à sécuriser les données sensibles de votre entreprise grâce à OpenText ™ Voltage ™ SecureData, qui propose diverses méthodes de tokenisation pour répondre à tous vos besoins.

Voltage SecureData et d'autres solutions de cyberrésilience peuvent compléter l'intelligence humaine par l'intelligence artificielle afin de renforcer la sécurité des données de toute entreprise. Cela permet non seulement un chiffrement intelligent et un processus d'authentification plus performant, mais aussi une détection facile des menaces nouvelles et inconnues grâce à une analyse contextuelle des menaces.


Produits connexes

OpenText™ Data Privacy & Protection Foundation

Protégez les données de grande valeur tout en les rendant utilisables pour l'informatique hybride.

Confidentialité et protection des données

Sécuriser les données, réduire les risques, améliorer la conformité et contrôler l'accès.

Comment pouvons-nous vous aider?

Notes de bas de page