Página inicial da OpenText.
Tópicos técnicos

O que é tokenização?

Ilustração de itens de TI com foco em um ponto de interrogação

Visão geral

A tokenização é um processo pelo qual PANs, PHI, PII e outros elementos de dados confidenciais são substituídos por valores substitutos, ou tokens. A tokenização é, na verdade, uma forma de criptografia, mas os dois termos são normalmente usados de forma diferente. A criptografia geralmente significa codificar dados legíveis por humanos em texto incompreensível que só é decodificado com a chave de decodificação correta, enquanto a tokenização (ou "mascaramento" ou "ofuscação") significa alguma forma de proteção de dados com preservação de formato: converter valores sensíveis em valores de substituição não sensíveis - tokens - com o mesmo comprimento e formato dos dados originais.

  • Os tokens compartilham algumas características com os elementos de dados originais, como conjunto de caracteres, comprimento, etc.
  • Cada elemento de dados é mapeado para um token exclusivo.
  • Os tokens são determinísticos: a geração repetida de um token para um determinado valor produz o mesmo token.
  • Um banco de dados tokenizado pode ser pesquisado por meio da tokenização dos termos de consulta e da busca por eles.

Como uma forma de criptografia, a tokenização é uma estratégia fundamental de proteção da privacidade de dados para qualquer empresa. Esta página fornece uma visão de alto nível do que é a tokenização e como ela funciona.

Tokenização

Qual é a origem da tokenização?

A tokenização digital foi criada pela TrustCommerce em 2001 para ajudar um cliente a proteger as informações do cartão de crédito do cliente. Os comerciantes estavam armazenando os dados dos titulares de cartões em seus próprios servidores, o que significava que qualquer pessoa que tivesse acesso a esses servidores poderia visualizar ou tirar proveito dos números de cartões de crédito dos clientes.

A TrustCommerce desenvolveu um sistema que substituiu os números de contas primárias (PANs) por um número aleatório chamado token. Isso permitiu que os comerciantes armazenassem e fizessem referência a tokens ao aceitar pagamentos. O TrustCommerce converteu os tokens de volta para PANs e processou os pagamentos usando os PANs originais. Isso isolou o risco para a TrustCommerce, pois os comerciantes não tinham mais PANs reais armazenados em seus sistemas.

À medida que as preocupações com a segurança e os requisitos regulatórios aumentaram, essa tokenização de primeira geração comprovou o valor da tecnologia, e outros fornecedores ofereceram soluções semelhantes. No entanto, os problemas com essa abordagem logo ficaram claros.


Que tipos de tokenização estão disponíveis?

Há dois tipos de tokenização: reversível e irreversível.

Os tokens reversíveis podem ser destokenizados, ou seja, convertidos de volta aos seus valores originais. Na terminologia de privacidade, isso é chamado de pseudonimização. Esses tokens podem ser subdivididos em criptográficos e não criptográficos, embora essa distinção seja artificial, pois qualquer tokenização é realmente uma forma de criptografia.

A tokenização criptográfica gera tokens usando criptografia forte; o(s) elemento(s) de dados em texto claro não é(são) armazenado(s) em lugar algum - apenas a chave criptográfica. O AES de modo FF1 padrão do NIST é um exemplo de tokenização criptográfica.

Originalmente, a tokenização não criptográfica significava que os tokens eram criados por meio da geração aleatória de um valor e do armazenamento do texto não criptografado e do token correspondente em um banco de dados, como a oferta original da TrustCommerce. Essa abordagem é conceitualmente simples, mas significa que qualquer solicitação de tokenização ou destokenização deve fazer uma solicitação ao servidor, o que aumenta a sobrecarga, a complexidade e o risco. Ele também não é bem dimensionado. Considere uma solicitação para tokenizar um valor: o servidor deve primeiro fazer uma pesquisa no banco de dados para ver se já tem um token para esse valor. Se for o caso, ele retorna esse valor. Caso contrário, ele deve gerar um novo valor aleatório e, em seguida, fazer outra pesquisa no banco de dados para garantir que esse valor ainda não tenha sido atribuído a um cleartext diferente. Em caso afirmativo, ele deve gerar outro valor aleatório, verificar esse valor e assim por diante. À medida que o número de tokens criados cresce, o tempo necessário para essas pesquisas no banco de dados aumenta; pior ainda, a probabilidade de tais colisões cresce exponencialmente. Essas implementações também costumam usar vários servidores de token para balanceamento de carga, confiabilidade e failover. Eles precisam executar a sincronização do banco de dados em tempo real para garantir a confiabilidade e a consistência, o que aumenta ainda mais a complexidade e a sobrecarga.

A tokenização não criptográfica moderna se concentra em abordagens "sem estado" ou "sem cofre", usando metadados gerados aleatoriamente que são combinados com segurança para criar tokens. Esses sistemas podem operar desconectados uns dos outros e escalar infinitamente, pois não exigem sincronização além da cópia dos metadados originais, ao contrário da tokenização apoiada em banco de dados.

Os tokens irreversíveis não podem ser convertidos de volta aos seus valores originais. Na terminologia de privacidade, isso é chamado de anonimização. Esses tokens são criados por meio de uma função unidirecional, permitindo o uso de elementos de dados anônimos para análises de terceiros, dados de produção em ambientes inferiores, etc.


Benefícios da tokenização

A tokenização requer alterações mínimas para adicionar uma forte proteção de dados aos aplicativos existentes. As soluções tradicionais de criptografia ampliam os dados, exigindo alterações significativas no esquema de dados do banco de dados e do programa, além de armazenamento adicional. Isso também significa que os campos protegidos falham em qualquer verificação de validação, exigindo mais análises e atualizações de código. Os tokens usam os mesmos formatos de dados, não exigem armazenamento adicional e podem passar por verificações de validação.

Como os aplicativos compartilham dados, a tokenização também é muito mais fácil de adicionar do que a criptografia, pois os processos de troca de dados não são alterados. De fato, muitos usos intermediários de dados, entre a ingestão e a disposição final, podem usar o token sem precisar destokenizá-lo. Isso melhora a segurança, permitindo a proteção dos dados o mais rápido possível na aquisição e mantendo-os protegidos durante a maior parte de seu ciclo de vida.

Dentro dos limites dos requisitos de segurança, os tokens podem reter valores de texto claro parciais, como os dígitos iniciais e finais de um número de cartão de crédito. Isso permite que as funções necessárias - como roteamento de cartões e verificação dos "quatro últimos" ou impressão nos recibos dos clientes - sejam executadas usando o token, sem a necessidade de convertê-lo de volta para o valor real.

Essa capacidade de usar tokens diretamente melhora o desempenho e a segurança: o desempenho, porque não há sobrecarga quando não é necessária a destokenização; e a segurança, porque, como o texto não é recuperado, há menos superfície de ataque disponível.


Para que é usada a tokenização?

A tokenização é usada para proteger muitos tipos diferentes de dados confidenciais, incluindo:

  • Dados do cartão de pagamento
  • Números do Seguro Social dos EUA e outros números de identificação nacional
  • Números de telefone
  • Números de passaporte
  • Números da carteira de motorista
  • Endereços de e-mail
  • Números de contas bancárias
  • Nomes, endereços, datas de nascimento

À medida que as violações de dados aumentam e a segurança dos dados se torna cada vez mais importante, as organizações consideram a tokenização atraente porque é mais fácil de adicionar aos aplicativos existentes do que a criptografia tradicional.

Conformidade com o PCI DSS

A proteção dos dados de cartões de pagamento é um dos casos de uso mais comuns da tokenização, em parte devido aos requisitos de roteamento para diferentes tipos de cartões, bem como à validação dos "últimos quatro" números de cartões. A tokenização dos dados do cartão teve um impulso inicial devido aos requisitos definidos pelo PCI SSC (Payment Card Industry Security Standards Council). O Padrão de Segurança de Dados do Setor de Cartões de Pagamento (PCI DSS) exige que as empresas que lidam com dados de cartões de pagamento garantam a conformidade com requisitos rigorosos de segurança cibernética. Embora a proteção dos dados do cartão de pagamento com criptografia seja permitida pelo PCI DSS, os comerciantes também podem usar a tokenização para atender aos padrões de conformidade. Como os fluxos de dados de pagamentos são complexos, de alto desempenho e bem definidos, a tokenização é muito mais fácil de adicionar do que a criptografia.


Proteja dados confidenciais com tokenização

A tokenização está se tornando uma forma cada vez mais popular de proteger os dados e pode desempenhar um papel fundamental em uma solução de proteção de privacidade de dados. OpenText™ Cybersecurity está aqui para ajudar a proteger dados comerciais confidenciais usando o OpenText™ Voltage™ SecureData, que fornece uma variedade de métodos de tokenização para atender a todas as necessidades.

O Voltage SecureData e outras soluções de resiliência cibernética podem aumentar a inteligência humana com inteligência artificial para fortalecer a postura de segurança de dados de qualquer empresa. Isso não apenas fornece criptografia inteligente e um processo de autenticação mais inteligente, mas também permite a fácil detecção de ameaças novas e desconhecidas por meio de insights contextuais sobre ameaças.


Produtos relacionados

OpenText™ Data Privacy & Protection Foundation

Proteja dados de alto valor enquanto os mantém utilizáveis para TI híbrida

Privacidade e proteção de dados

Proteja os dados, reduza os riscos, melhore a conformidade e controle o acesso

Notas de rodapé