La tokenizzazione è una forma di protezione granulare dei dati, che sostituisce dati sensibili con un equivalente non sensibile, indicato come token, che non ha alcun significato o valore estrinseco o sfruttabile. Le informazioni sostitutive non sensibili sono chiamate token.
In altri termini, la tokenizzazione sostituisce i dati sensibili con un segnaposto irreversibile e non sensibile (detto token) e archivia in modo sicuro i dati sensibili originali al di fuori del loro ambiente originale.
La tokenizzazione è popolare tra le banche e altre istituzioni finanziarie, in quanto consente a queste entità di mantenere al sicuro i dati sensibili, come numeri di carte di credito e numeri di conto bancario, pur essendo in grado di archiviare e utilizzare le informazioni.
I token possono essere creati in vari modi, ad esempio:
Esistono due tipi di soluzioni di tokenizzazione: quelle con vaults di token e quelle senza. La prima utilizza un database centralizzato sicuro, o “vault” di tokenizzazione, per archiviare una mappatura tra i dati sensibili tokenizzati e il token corrispondente.
D’altra parte, la tokenizzazione senza vault, genera il token esclusivamente tramite un algoritmo, quindi quando è richiesta la detokenizzazione, il token può essere utilizzato per determinare il valore originale senza bisogno di un vault in cui cercarlo. Negli ultimi anni, la tokenizzazione vaultless è diventata il metodo preferito, in quanto offre una serie di vantaggi significativi come:
I token possono anche essere suddivisi per:
Tecnicamente parlando, la tokenizzazione è una forma di crittografia. Tuttavia, mentre la tokenizzazione sostituisce un’informazione con un insieme casuale e non correlato di caratteri chiamato token, i metodi di crittografia tradizionali utilizzano un algoritmo per codificare i dati sensibili. Sebbene non sia possibile estrarre dati sensibili da un token, i dati crittografati possono essere decrittografati e letti utilizzando una chiave di crittografia.
Dove e quando applicare la tokenizzazione rispetto alla crittografia può essere incredibilmente sfumato: molte organizzazioni utilizzano una combinazione di entrambi. Mentre la crittografia è più facile da scalare e sincronizzare, i token tendono a richiedere molte meno risorse computazionali per l’elaborazione.
Inoltre, poiché la crittografia è reversibile, i dati crittografati sono ancora considerati dati sensibili da alcuni organismi di regolamentazione. I token, d’altra parte, non hanno alcuna relazione matematica con i dati reali che rappresentano e, se violati, non possono ricondurre ai valori dei dati reali. Pertanto, i token non sono considerati dati sensibili e non sono soggetti agli stessi standard normativi dei dati crittografati.
Autore: Marco Marra
Landini: "Sanzione contro Raimo è intimidazione, accanto a lui tutti lavoratori italiani" "E' un attacco…
Milano Cortina 2026, Vernier: "C'è ancora molto da fare, ma siamo sulla strada giusta" "I…
Milano Cortina 2026, Kostner: "Avere le Olimpiadi a casa è un'emozione grandissima" "Rappresentano un passaggio…
Raimo: "Il patriarcato trasforma differenze in dominio, d'accordo con i Cecchettin" "La libertà femminile è…
Milano Cortina 2026, Malagò: "È una sfida nella sfida" "Le Olimpiadi sono un presupposto culturale…
Raimo: "Gli anni '70 erano anche anni di grandi riforme, non solo violenza" "Nessun fascino…