Post-Quanten-Kryptographie: Sicherheit im Zeitalter des Quantencomputings
Juli

Einblick, Herausforderungen und kritische Betrachtung staatlicher und konzerngetriebener Entwicklungen
Quantencomputing‑Forschung
Mit dem Fortschreiten der Quantencomputing‑Forschung rücken bisher gültige Annahmen zur Sicherheit moderner IT‑Infrastrukturen in den Hintergrund. Quantenrechner versprechen, in einigen Jahren klassische Verschlüsselungsverfahren wie RSA und ECC binnen Sekunden zu brechen, was globale Kommunikationsnetze und staatliche Geheimhaltung gleichermaßen bedroht. Die Post‑Quanten‑Kryptographie (PQC) soll diesem Paradigmawechsel begegnen, indem sie kryptografische Verfahren entwickelt, die auch gegen Angriffe durch leistungsfähige Quantencomputer resistent sind. Dieser Artikel liefert einen umfassenden Überblick über die aktuellen PQC‑Ansätze, beleuchtet Standardisierungsprozesse und warnt kritisch vor der Machtkonzentration staatlicher Akteure und großer Technologieunternehmen.
1. Quantenbedrohung für klassische Kryptografie
1.1 Shor‑ und Grover‑Algorithmus
Der amerikanische Mathematiker Peter Shor demonstrierte 1994, dass ein ausreichend großer Quantenrechner große Primfaktoren in polynomieller Zeit ermitteln kann. Dies würde RSA-Schlüssel unwirksam machen. Ergänzend liefert der Grover‑Algorithmus eine quadratische Beschleunigung bei der Suche in unstrukturierten Datenbanken, was symmetrische Verfahren wie AES nur marginal schwächt, aber dennoch berücksichtigt werden muss.
1.2 „Harvest‑now, decrypt‑later“
Sensible Daten im Transit, etwa staatliche Geheimkommunikation oder Banktransaktionen, können heute abgefangen und erst später mit einem Quantenrechner entschlüsselt werden. Geheimdienste und Nachrichtendienste profitieren dadurch von einer zeitversetzten Kryptoanalyse, was eine sofortige Umstellung auf PQC‑Verfahren erfordert.
2. Grundlagen der Post‑Quanten‑Kryptographie
2.1 Definition und Ziele
Post‑Quanten‑Kryptographie umfasst all jene Algorithmen, die auf mathematischen Problemen beruhen, für die derzeit keine effizienten Quantenalgorithmen bekannt sind. Ziele sind:
- Langlebigkeit: Sicherheit gegen Quanten‑ und klassische Angriffe.
- Effizienz: Performante Implementierbarkeit in Hard‑ und Software.
- Robustheit: Fehlertoleranz und Widerstand gegen Seitenkanalangriffe.
2.2 Hauptkategorien
- Gitterbasierte Verfahren (Lattice‑Based)
Basieren auf dem schwierigen Shortest Vector Problem (SVP) oder Learning With Errors (LWE). Kandidaten: CRYSTALS‑Kyber (KEM), CRYSTALS‑Dilithium (Signaturen). - Codebasierte Verfahren (Code‑Based)
Nutzen Fehlerkorrektur‑Codes, z. B. McEliece, das auf Goppa‑Codes beruht. Bietet hohe Sicherheit, leidet aber unter großen Schlüsseln. - Hashbasierte Signaturen
Verfahren wie SPHINCS+ basieren auf Einweg-Hashfunktionen und sind extrem sicher, aber mit großen Signaturen verbunden. - Multivariate Quadratische Gleichungen (MQ)
Sicherheit beruht auf dem Lösen von Gleichungssystemen über endlichen Körpern. Beispiele: Rainbow‑Signature‑Scheme. - Isogenie‑basierte Verfahren
Setzen auf elliptische Kurvenisogenien (z. B. SIKE), aufwendige mathematische Strukturen, aber kompakte Schlüssel.
3. Standardisierung durch die NIST
3.1 NIST PQC‑Wettbewerb
Das National Institute of Standards and Technology (NIST) leitet seit 2016 einen internationalen Wettbewerb zur Auswahl von PQC‑Algorithmen. Drei Runden haben mehrere Finalisten ermittelt, u. a. CRYSTALS‑Kyber, FALCON, SPHINCS+. Ein abschließender Fourth Round Process hat die Algorithmen im Juli 2022 zur Standardisierung empfohlen .
3.2 Kritische Bewertung
Obwohl NIST‑Standards maßgeblich sind, dominieren US‑amerikanische Institute und geistige Eigentumsinteressen das Verfahren. Europäische und asiatische Forschungseinrichtungen sind lediglich per Delegation beteiligt, was zu geopolitischer Abhängigkeit führen kann. Kritiker bemängeln außerdem, dass Patente auf PQC‑Verfahren großen Technologiekonzernen ermöglichen, Lizenzgebühren zu erheben und die breite Nutzung zu behindern.
4. Implementierungsherausforderungen
4.1 Performance und Bandbreite
Viele PQC‑Algorithmen weisen deutlich größere Schlüssel, Signaturen und Ciphertexte als klassische Verfahren auf. Dies belastet Netzwerkbandbreiten und Speicher. Insbesondere IoT‑Geräte und eingebettete Systeme stoßen hier an ihre Grenzen.
4.2 Komplexität und Fehleranfälligkeit
Komplexe mathematische Operationen bergen ein höheres Risiko für Implementierungsfehler und Seitenkanalangriffe. Der Übergang von Proof of Concept zu Produktivsystemen erfordert umfangreiche Audits und standardisierte, geprüfte Bibliotheken.
4.3 Interoperabilität
Unabhängig davon, ob Unternehmen auf eigene PQC‑Lösungen setzen oder NIST‑Standards übernehmen, muss gewährleistet sein, dass verschiedene Systeme und Protokolle reibungslos miteinander kommunizieren können. Fragmentierung und proprietäre Erweiterungen durch Großkonzerne gefährden diesen Anspruch.
5. Staatliche und konzernielle Machtstrukturen
5.1 Geheimdienste und staatliche Einflussnahme
Behörden wie NSA, GCHQ oder der deutsche BSI (Bundesamt für Sicherheit in der Informationstechnik) haben frühzeitig Interesse an PQC‑Standards bekundet. Dokumente aus geleakten Quellen legen nahe, dass Geheimdienste versuchen, Kryptostandards nach ihren Überwachungsbedürfnissen zu gestalten – sei es durch Hintertüren oder Schwächung bestimmter Parameter. Dies untergräbt das Prinzip der vertrauenswürdigen Verschlüsselung.
5.2 Großkonzerne und Patentpolitik
Technologiekonzerne wie IBM, Microsoft oder Google beteiligen sich aktiv an NIST‑Runden und melden Patente auf PQC‑Komponenten an. Dadurch entsteht eine Abhängigkeit der gesamten Branche von patentgeschützten Verfahren:
- Lizenzkosten: KMU und staatliche Einrichtungen sehen sich gezwungen, großzügige Lizenzgebühren zu zahlen.
- Abschottung: Proprietäre Implementierungen verhindern freien Wettbewerb und Open‑Source‑Alternativen werden benachteiligt.
- Lock‑in‑Effekte: Einmal in ein Ökosystem investierte Nutzer können nur schwer wechseln, wenn ein Konzern die Lizenzbedingungen ändert.
6. Internationale Perspektiven und Regulierungsbedarf
6.1 Europäische Union
Die Europäische Kommission plant die Aufnahme von PQC‑Algorithmen in die EU‑Cybersecurity‑Zertifizierungsrahmen (EU‑CSCF). Allerdings bleiben zentrale Fragen offen:
- Patentrechte: Sollen patentierte PQC‑Verfahren uneingeschränkt integriert werden?
- Budgetierung: Wer trägt die Kosten für Umstellung und Schulung?
- Souveränität: Wie kann Europa eigene, Open‑Source‑PQC entwickeln, um Abhängigkeiten zu minimieren?
Ein kritischer Bericht des ENISA (European Union Agency for Cybersecurity) warnt, dass mangelnde Koordination zu einer Zersplitterung der PQC‑Landschaft führt.
6.2 Globale Kooperation
Staaten und Standardisierungsgremien (ISO/IEC) müssen zusammenarbeiten, um harmonisierte PQC‑Standards zu schaffen. Ein Null‑Toleranz‑Ansatz gegenüber Hintertüren und eine Open‑Source‑Philosophie sollten zentrale Prinzipien sein.
7. Ausblick: Wege zu wirklich sicherer Kryptografie
- Open‑Source‑Initiativen fördern, etwa durch staatliche Förderprogramme für Universitäten und freie Softwareprojekte.
- Unabhängige Audits durch akademische und zivilgesellschaftliche Prüfinstanzen, um Hintertüren oder Schwächen frühzeitig zu erkennen.
- Transparente Patentpolitik: Kommerzielle Akteure müssen Patente offenlegen und zu FRAND‑Bedingungen (Fair, Reasonable And Non‑Discriminatory) lizenzieren.
- Fortlaufende Forschung an quantensicheren Algorithmen inklusive Alternativen zu NIST‑Favorites, um Monopole zu brechen.
- Aufklärung und Schulung von Entwicklerteams und Administratoren, um fehlerhafte Implementierungen zu vermeiden.
Nahtstelle zwischen innovativer IT‑Sicherheit und Machtpolitik
Die Post‑Quanten‑Kryptographie steht an der Nahtstelle zwischen innovativer IT‑Sicherheit und Machtpolitik. Während sie bei erfolgreicher Standardisierung den notwendigen Schutz vor Quantenangriffen bieten kann, drohen Monopolisierung durch Großkonzerne und staatliche Einflussnahme durch Geheimdienste. Die EU und internationale Gremien müssen hierfür klare Rahmenbedingungen schaffen, die Open‑Source, Transparenz und demokratische Kontrolle in den Mittelpunkt stellen. Nur so kann sichergestellt werden, dass in der kommenden Ära der Quanteninformatik nicht nur wenige Akteur:innen von digitalen Schutzmechanismen profitieren, sondern der Schutz der Privatsphäre, die Freiheit der Kommunikation und die Integrität kritischer Infrastrukturen gewahrt bleiben.
Weiterführende Informationen:
- Post‑Quantum Cryptography (NIST Projektseite mit Wettbewerbs‑Details und Dokumenten)
- Post‑Quantum Cryptography (Wikipedia) – Übersicht zu Algorithmen und Standardisierung
- ENISA – Post‑Quantum Cryptography – Bericht zur Strategischen Bedeutung und Empfehlungen