Il quantum computing rappresenta una delle più profonde rivoluzioni tecnologiche del nostro tempo e una capacità trasformativa che avrà un impatto duplice e radicale sulla sicurezza informatica.
Da un lato, i computer quantistici, sfruttando i principi controintuitivi della meccanica quantistica, quali la sovrapposizione e l’entanglement quantistico, promettono di risolvere problemi di calcolo oggi considerati irrisolvibili, aprendo nuove frontiere in vari campi, quali la scienza dei materiali, la farmaceutica e l’intelligenza artificiale.
D’altra parte, questa stessa potenza di calcolo rischia di compromettere le fondamenta su cui si basa l’intera architettura della sicurezza digitale globale: la crittografia a chiave pubblica.
Analizzeremo la minaccia quantistica alla crittografia moderna e le nuove e potenti capacità difensive rese possibili dalla stessa tecnologia.
Ecco la natura degli algoritmi che rendono vulnerabili i sistemi attuali, le strategie di mitigazione, come la crittografia post-quantistica (PQC), e le tecnologie emergenti quali la distribuzione quantistica delle chiavi (QKD) e i generatori di numeri casuali quantistici (QRNG), che introducono nuovi paradigmi di sicurezza.
Infine, delineeremo una roadmap strategica per guidare le organizzazioni attraverso la complessa, ma inevitabile, transizione verso un futuro quantistico sicuro.
Comprendere la natura e la portata della minaccia quantistica è un imperativo strategico per qualsiasi organizzazione operante nell’economia digitale.
Non si tratta di una minaccia speculativa, ma di un rischio concreto basato su algoritmi matematici già dimostrati che possono compromettere l’infrastruttura di fiducia su cui si basano il commercio elettronico, le comunicazioni sicure e la protezione dei dati sensibili a livello globale.
A differenza dei computer classici che elaborano le informazioni utilizzando i bit, che rappresentano i numeri 0 e 1, i computer quantistici utilizzano i qubit.
I bit possono assumere solo i valori 0 o 1, mentre i qubit possono esistere in uno stato di sovrapposizione, ovvero possono rappresentare contemporaneamente 0 e 1, consentendo un massiccio parallelismo computazionale.
Ciò consente di affrontare problemi che richiederebbero un tempo esponenziale sui supercomputer più potenti attualmente disponibili.
La comunità scientifica definisce un “Cryptographically Relevant Quantum Computer” (CRQC) come una macchina dotata di un numero sufficiente di qubit logici stabili e corretti dagli errori, in contrapposizione ai più instabili qubit fisici spesso citati nei titoli di cronaca.
Un CRQC deve possedere bassi tassi di errore, resi possibili da complesse tecniche di correzione degli errori quantistici (QEC), per poter eseguire in modo affidabile algoritmi in grado di violare la crittografia a chiave pubblica attualmente in uso.
Nonostante le tempistiche esatte siano ancora oggetto di dibattito, il Boston Consulting Group stima che un computer quantistico con correzione degli errori potrebbe diventare realtà intorno al 2035.
La minaccia quantistica non rappresenta una semplice crepa nel sistema, ma un vero e proprio crollo di paradigma, in quanto invalida le assunzioni matematiche fondamentali su cui si basa la crittografia a chiave pubblica, ovvero la difficoltà della fattorizzazione degli interi e dei logaritmi discreti, che hanno costituito il fondamento di tale crittografia per quasi cinquant’anni.
Due algoritmi, in particolare, incarnano questa minaccia.
| Algoritmo | Impatto sulla Crittografia |
| Algoritmo di Shor (1994) | Sviluppato da Peter Shor, questo algoritmo risolve in tempo polinomiale due problemi matematici alla base della crittografia a chiave pubblica: la fattorizzazione degli interi (alla base del sistema di cifratura RSA) e il logaritmo discreto (alla base della crittografia a curva ellittica, ECC). Come sottolineato dalle National Academies of Sciences, un computer quantistico in grado di eseguire l’algoritmo di Shor renderebbe obsoleti quasi tutti i protocolli di scambio di chiavi e di firma digitale attualmente in uso, inclusi quelli che proteggono il traffico Internet tramite TLS. |
| Algoritmo di Grover (1996) | Questo algoritmo offre un’accelerazione quadratica per la ricerca nei database non strutturati, ovvero per la ricerca a forza bruta. Come spiegato da Fortinet, ciò indebolisce la crittografia simmetrica, come ad esempio quella di AES. Per esempio, la sicurezza di una chiave AES a 256 bit verrebbe ridotta a un livello equivalente a 128 bit, costringendo a utilizzare chiavi più lunghe per mantenere lo stesso livello di protezione. |
La minaccia quantistica non è qualcosa di lontano nel tempo, ma è già presente nellastrategia “Harvest Now, Decrypt Later” (HNDL): gli avversari possono intercettare e archiviare oggi dati crittografati con l’intenzione di decifrarli in futuro, una volta disponibile un computer quantistico universale.
Come sottolineato dal NIST, l’HNDL è una delle ragioni principali per cui la transizione verso la crittografia post-quantistica è urgente, soprattutto per i dati con una lunga “shelf life”, ovvero che devono rimanere confidenziali per decenni (come i segreti di stato, la proprietà intellettuale, i dati sanitari e i dati finanziari).
Per formalizzare tale urgenza è stato introdotto il Teorema di Mosca, un modello di valutazione del rischio che aiuta le organizzazioni a capire se hanno tempo a sufficienza per proteggere i propri dati.

Come illustrato in un’analisi del Board of Governors of the Federal Reserve System, se la somma del tempo di migrazione (Y) e della vita utile dei dati (X) superasse il tempo necessario per costruire un CRQC (Z), i dati correrebbero il rischio di andare persi.
Questa semplice disuguaglianza evidenzia la necessità di agire subito, prima che sia troppo tardi.
Per comprendere questa minaccia, è necessario analizzare in modo approfondito le strategie difensive che la comunità scientifica e tecnologica sta sviluppando.
Per contrastare la minaccia quantistica, la ricerca nel campo della sicurezza informatica sta seguendo due principali linee di difesa: la crittografia post-quantistica (PQC) e la distribuzione quantistica delle chiavi (QKD).
Sebbene partano da presupposti teorici e tecnologici molto diversi, queste strategie non sono necessariamente in competizione tra loro e, anzi, in molti casi possono essere complementari.
La PQC si riferisce a una nuova generazione di algoritmi crittografici a chiave pubblica progettati per essere eseguiti su computer tradizionali, ma basati su problemi matematici considerati difficili persino per i computer quantistici.
In pratica, invece di fare affidamento sulla fattorizzazione o sui logaritmi discreti, su cui il calcolo quantistico eccelle, la PQC utilizza problemi complessi in campi quali la crittografia basata su reticoli (lattice-based), su codice (code-based) e su hash (hash-based).
Il National Institute of Standards and Technology (NIST) degli Stati Uniti ha guidato un processo di standardizzazione globale, avviato nel 2016, per individuare i migliori candidati PQC.
Nel mese di agosto del 2024, il NIST ha finalizzato i primi tre standard e ha proseguito il processo di standardizzazione selezionando ulteriori algoritmi, come l’HQC nel 2025, al fine di garantire una maggiore diversità:
L’inclusione del SLH-DSA garantisce una diversità algoritmica che rappresenta un imperativo strategico. Affidarsi esclusivamente alla crittografia basata sui reticoli (come ML-KEM e ML-DSA) creerebbe un punto di debolezza.
Se una scoperta imprevista compromettesse i problemi matematici alla base dei reticoli, avere un’alternativa come SLH-DSA, la cui sicurezza si basa su principi matematici completamente diversi e consolidati nel tempo, fornirebbe un backup fondamentale e garantirebbe la resilienza del sistema.
Nonostante la loro efficacia, gli algoritmi PQC presentano delle sfide dal punto di vista dell’implementazione, come è stato per le dimensioni maggiori delle chiavi e delle firme, e un maggiore carico computazionale.
Questo sovraccarico prestazionale rappresenta la principale ragione per cui l’aggiornamento dei sistemi legacy e dei dispositivi a bassa potenza, come quelli dell’Internet of Things (IoT), costituisce una delle criticità più ardue nel processo di migrazione.
A differenza della PQC, la QKD non è un nuovo tipo di algoritmo, ma una tecnologia di comunicazione che sfrutta le leggi fondamentali della meccanica quantistica per lo scambio di chiavi crittografiche e che garantisce una sicurezza teoricamente inattaccabile.
La sua sicurezza si basa su due principi fisici:
Durante la fase di transizione, l’approccio più sicuro e consigliato è quello ibrido. Questo metodo prevede un approccio di migrazione ibrida alla crittografia post-quantistica (PQC), che combina un algoritmo classico, come l’ECC (Elliptic Curve Cryptography) (ECDSA/ECDH), per garantire la sicurezza attuale, con un nuovo algoritmo resistente ai computer quantistici, come l‘ML-KEM (Kyber), per assicurare la sicurezza futura.
In questo modo, si ottiene una protezione sia oggi che contro le minacce quantistiche, un processo noto come “crypto-agility”. La chiave di sessione finale viene derivata da entrambi gli scambi.
In questo modo, un eventuale avversario che volesse compromettere la comunicazione dovrebbe essere in grado di violare entrambi gli schemi, garantendo protezione sia contro le minacce classiche odierne sia contro quelle quantistiche future.
Questo approccio richiede un’architettura basata sull’agilità crittografica, definita come la capacità di un sistema di aggiornare o sostituire rapidamente e in modo flessibile gli algoritmi crittografici senza dover riprogettare l’intera infrastruttura.
L’agilità crittografica è un requisito fondamentale per garantire la resilienza a lungo termine nell’era post-quantistica.
La rivoluzione quantistica non rappresenta solo una fonte di nuove minacce, ma offre anche strumenti unici per potenziare attivamente le difese informatiche. Sfruttando i fenomeni quantistici, è possibile pervenire livelli di sicurezza e capacità di analisi irraggiungibili con le tecnologie tradizionali, trasformando il quantum computing da potenziale avversario a prezioso alleato.
Oltre a difenderci dalle minacce, le tecnologie quantistiche ci forniscono anche strumenti proattivi per rafforzare la nostra postura di sicurezza. Vediamo le peculiarità dei principali.
La vera casualità (entropia) è una risorsa critica in crittografia, fondamentale per la generazione di chiavi sicure, nonce e di altre variabili imprevedibili. I generatori di numeri pseudo-casuali (PRNG), basati su algoritmi software, sono deterministici e potenzialmente prevedibili.
I Generatori quantistici di numeri casuali (QRNG), invece, generano numeri casuali a partire da processi fisici che, secondo le leggi della meccanica quantistica, sono intrinsecamente e fondamentalmente imprevedibili.
Un meccanismo comune per un QRNG consiste nel dirigere un singolo fotone verso uno specchio semitrasparente che ha il 50% di probabilità di trasmetterlo e il 50% di rifletterlo.
Il risultato è un evento genuinamente casuale. Misurando questi eventi, i QRNG producono una fonte di entropia di qualità superiore, eliminando la possibilità che la sequenza di numeri casuali possa essere prevista o replicata e rafforzando così le fondamenta di tutti i protocolli crittografici.
Il Quantum Machine Learning (QML) è un campo di ricerca emergente che integra gli algoritmi quantistici con il machine learning tradizionale.
Il suo contributo alla sicurezza informatica è enorme. I sistemi QML potrebbero analizzare grandi quantità di dati in tempo reale, individuando modelli complessi, anomalie e minacce, superando le capacità dei sistemi di IA tradizionali.
Tra le applicazioni più performanti troviamo:
Nonostante le grandi aspettative di queste tecnologie, la loro implementazione pratica richiede una pianificazione attenta e strategica.
Utilizzando la metafora della corsa, la transizione verso un’infrastruttura di sicurezza quantistica può essere paragonata a una maratona piuttosto che a uno sprint.
Richiede un approccio metodico e strategico da parte delle organizzazioni per gestire la complessità, i costi e i rischi associati. L’inattività non è certamente un’opzione da prendere in considerazione, ma un’azione affrettata e non mpianificata può rivelarsi altrettanto dannosa.
La migrazione PQC presenta diverse criticità che ogni organizzazione dovrà affrontare:
Per affrontare queste sfide, le organizzazioni possono seguire una roadmap strategica suddivisa in fasi, basata sulle raccomandazioni di enti come BCG e Palo Alto Networks:
Questo approccio metodico consentirà alle organizzazioni di affrontare con successo la transizione verso la nuova era della sicurezza informatica.
Il quantum computing si presenta come una tecnologia dalla duplice natura: da un lato rappresenta una minaccia esistenziale per la sicurezza delle nostre
comunicazioni e dei nostri dati, dall’altro offre strumenti di difesa senza precedenti che promettono di rafforzare la sicurezza informatica in modi prima impensabili.
La comunità scientifica e tecnologica ha risposto a questa sfida sviluppando la crittografia post-quantistica (PQC) e tecnologie rivoluzionarie quali la QKD (Quantum Key Distribution) e i QRNG (Quantum Random Number Generator).
A causa della minaccia concreta e immediata rappresentata dal “Harvest Now, Decrypt Later”, l’attesa non è certamente un’opzione da prendere in considerazione.
La transizione verso un ecosistema digitale quantistico sicuro è complessa e richiederà tempo, risorse e una pianificazione strategica accurata.
È fondamentale che le organizzazioni, i governi e le comunità scientifiche collaborino per affrontare questa sfida in maniera proattivo.
Solo attraverso una transizione ben orchestrata, infatti, potremo garantire che la fiducia e la resilienza che oggi diamo per scontate nell’infrastruttura digitale globale siano preservate anche per il futuro.