Home » Fachbeiträge » Security Management » Die Lösung aller Probleme oder der Untergang der Menschheit?

Herausforderungen und Chancen von Quantencomputern: Die Lösung aller Probleme oder der Untergang der Menschheit?

Quantencomputer sind ein vielversprechendes Innovationsfeld mit großem Potenzial. Sie gefährden jedoch die Sicherheit herkömmlicher kryptografischer Algorithmen. Unternehmen und Organisationen müssen sich daher auf die Migration zur Post-Quanten-Kryptografie (PQC) vorbereiten.

11 Min. Lesezeit
Foto: ©AdobeStock/Bartek Wróblewski

Unsere Autoren geben einen Überblick und betonen die Notwendigkeit, sich über technologische Entwicklungen auf dem Laufenden zu halten, Risiken zu verstehen, mit Herstellern und Sicherheitsexperten zu kommunizieren und Ressourcen für eine erfolgreiche Migration bereitzustellen.

Hohe Investitionen sind ein exzellentes Indiz für Trends, die das Potenzial haben, unsere Welt signifikant zu verändern. Quantencomputing und künstliche Intelligenz (KI) gehören zu diesen TOP-Innovationsbereichen. Manche Fähigkeit von Quantencomputern sind für unseren normalen Erfahrungshorizont sehr merkwürdig. Sie können sich verschränken und sind zudem nicht auf Nullen und Einsen angewiesen. Sie decken – vereinfacht dargestellt – jeweils eine ganze Rechendimension ab.

Im Gegensatz zu den klassischen Bits, die „0“ und „1“ repräsentieren, spricht man im Quantencomputing von sogenannten Qubits. Zwar sind die Ergebnisse „nur“ Wahrscheinlichkeiten. Doch sind diese gerade für künstliche Intelligenz von großem praktischem Nutzen.

Die Erwartungen sind vor allem in den Bereichen enorm, in denen Probleme mit vielen Variablen unsere aktuellen, streng sequenziell arbeitenden Prozessoren wegen der exponentiell wachsenden
Rechenzeiten auch heute noch überfordern. Derzeit befindet sich das Quantencomputing (QC) im experimentellen High-Tech-Manufaktur-Stadium.

Doch die Breite der Forschung, die gigantischen Investitionen in den Fortschritt und die Universalität der Einsatzmöglichkeiten machen es sehr wahrscheinlich, dass Quantencomputing als buchbarer Service in den nächsten Jahren genauso verfügbar sein wird wie zum Beispiel TensorFLow, IBM Watson, ChatGPT oder andere KI-Services.

Abbildung 1: Das PlanQK Ökosystem

Das PlanQK Ökosystem.
Quelle: PlanQK

Mit PlanQK gibt es sogar eine vielversprechende deutsche Initiative, verschiedene Systeme und Anbieter auf einer Plattform zur Verfügung zu stellen. Unter der Konsortialführung der Anaqor AG sind sowohl mehrere Anbieter von Quantencomputern als auch namhafte Player aus Forschung, Industrie und Beratung dabei (siehe Abbildung 1). Die Anwendungsszenarien reichen von Anomalie- und Betrugserkennung über Logistik-, Energie- und Dienstplanoptimierungen bis hin zur Vorhersage neuer Materialeigenschaften, um nur einige zu nennen (siehe Abbildung 2).

Abbildung 2: Anwendungsbereiche von Quantencomputern

Anwendungsbereiche von Quantencomputern.
Quelle: PlanQK

Selbst Quantencomputer-Chips werden wir höchst wahrscheinlich in diesem Jahrzehnt genauso kaufen können wie Prozessoren oder Speicherchips. Solche „Zimmer-Temperaturgeeigneten“ Chips werden auch in Deutschland entwickelt.

Vor allem autonome Systeme werden einen immensen Schub bekommen, denn die Echtzeit-Verarbeitung großer Datenmengen aus diversen Sensoren wird die Erkennungs- und Reaktionsfähigkeit von autonomen Systemen dramatisch verbessern. Für alle wichtigen Zukunftsthemen wie Energiewende, Green Deal, Smart City oder virtuelle Welten versprechen Quantencomputer dramatische Effizienzsteigerungen, bahnbrechende neue Erkenntnisse und neue Lösungen und Produkte.

Insider und Medien decken dabei derweil in ihren Prognosen die Bandbreite von der Lösung aller Weltprobleme bis zur Menschheitsvernichtung durch eine übermächtige KI ab. Die „Büchse“ ist geöffnet. Zu groß sind die erwarteten Vorteile und zu groß die Angst, den Anschluss zu verlieren, als dass die Big Player oder die Technologieländer im Angesicht potenzieller Risiken freiwilligen Verzicht üben werden. Was dabei herauskommt, wird wie immer darauf ankommen, wie weise wir mit dem Werkzeug und den Risiken umgehen. Ist ein Messer gut oder böse?

Immer wieder müssen wir uns der Frage stellen, ob wir die mächtigen Werkzeuge, die wir schaffen, konstruktiv oder destruktiv einsetzen. Doch wenn wir sie nutzen, ist es wie beim Autofahren oder Fliegen ratsam, die Risiken zu kennen, sie durch Vorsorgen beherrschbar zu machen und manche vielleicht zu vermeiden.

Die Technologie wird in Wellen kommen. Deshalb ist es ratsam, sich jetzt Gedanken zu machen – um im Bild zu bleiben – wo und wie hoch die Dämme gebaut werden müssen. Wie bei jedem Blick in die Zukunft lassen sich nie alle Entwicklungen vorhersehen. Dennoch ist es ein sinnvoller Schritt, die absehbaren wahrscheinlichen Entwicklungen hinsichtlich ihrer Risken zu bewerten und sich über geeignete Strategien zum Umgang mit den Risiken Gedanken zu machen.

Die Herausforderung

Eine signifikante Verbesserung wird absehbar nahezu alle betreffen: Geheimhaltung und der Nachweis der Unverfälschtheit sind die Grundvoraussetzungen für alle vertrauensvollen digitalen Dienste und Anwendungen. Ohne verlässliche Kryptografie wären viele Aspekte des modernen Lebens gefährdet.

Kryptografie spielt in der heutigen digitalen Welt eine wichtige und unverzichtbare Rolle. Durch den Einsatz von kryptografischen Algorithmen wird sichergestellt, dass sensible Informationen wie Finanzdaten, medizinische Aufzeichnungen oder geschäftliche Geheimnisse vertraulich bleiben. Zudem gewährleistet sie die Integrität, das heißt die Unversehrtheit der Daten.

Die bisherigen Krypto-Algorithmen basieren zumeist auf komplexen Berechnungen, die mithilfe eines Geheimnisses die Daten so verändern, dass sie danach keinerlei Sinn mehr ergeben. Bei den symmetrischen kryptografischen Verfahren wird als Geheimnis ein kryptografischer Schlüssel verwendet, der sowohl für die Verschlüsselung als auch für die Entschlüsselung benutzt wird. Bei den asymmetrischen kryptografischen Verfahren wird ein kryptografisches Schlüsselpaar verwendet, welches aus öffentlichem und privatem Schlüssel besteht.

Das Geheimnis ist somit der private Schlüssel, der zur Entschlüsselung und zur Erstellung der digitalen Signatur verwendet wird. Der öffentliche Schlüssel wird zur Verschlüsselung und zur Verifizierung der digitalen Signatur benutzt. Beide Schlüssel sind mathematisch miteinander verknüpft.

Aufgrund der komplexen Berechnungen und der empfohlenen verwendeten Schlüssellängen bräuchten alle heutigen Rechner Jahre oder Jahrzehnte, um die Verschlüsselung mit allen möglichen Schlüsselkombinationen zu brechen. Doch daran rütteln die quantenbasierten Rechensysteme.

Der Entwicklungsstand

Das wohl bekannteste asymmetrische Verfahren RSA basiert auf der Schwierigkeit, große Zahlen in ihre Primfaktoren zu zerlegen. Mithilfe des im Jahr 1994 entwickelten Quantenalgorithmus von Shor ist es möglich, dieses mathematische Problem effizient zu lösen. Voraussetzung hierfür ist jedoch ein Quantencomputer mit einer ausreichenden Anzahl von Qubits. Die minimale Anzahl von Qubits, die benötigt wird, um RSA mit Sicherheit zu brechen, hängt von der Länge der verwendeten RSA-Schlüssel ab.

Um beispielsweise einen RSA-Schlüssel mit einer Länge von 2.048 Bit zu brechen, wären theoretisch circa doppelt so viele Qubits erforderlich. Da in der Praxis die tatsächliche Anzahl der benötigten Qubits noch von weiteren Faktoren, zum Beispiel von Fehlerkorrekturen, abhängt, ist die praktisch notwendige Anzahl der Qubits noch größer.

Eine weitere Variante des Quantenalgorithmus von Shor ermöglicht es, das diskrete Logarithmusproblem zu lösen. Das hätte zur Folge, dass viele andere kryptografische Verfahren wie das
Diffie-Hellman-Schlüsselaustauschprotokoll gebrochen wären. Auch hierfür wird ein Quantencomputer mit ausreichender Anzahl der Qubits benötigt.

Neben den asymmetrischen Verfahren sind die symmetrischen kryptografischen Verfahren durch Quantencomputer gefährdet. Der Quantenalgorithmus von Grover ist ein Suchalgorithmus, der bei der Suche in einer unsortierten Datenbank eine quadratische Beschleunigung bietet. Dadurch gewährleistet das symmetrische Verschlüsselungsverfahren AES mit einer Schlüssellänge von 128 Bits nur noch eine Sicherheit von 64 Bits.

Bereits in der Vergangenheit wurde das symmetrische Verschlüsselungsverfahren DES mit der Schlüssellänge von 56 Bit stark kritisiert, sodass die amerikanische Bundesbehörde National Institute of Standards and Technology (NIST) damals einen Wettbewerb ins Leben gerufen hat, um ein neues symmetrischen Verschlüsselungsverfahren zu finden. Da AES auch eine Schlüssellänge von 256 Bits anbietet, kann dieses symmetrische Primitive leicht angepasst werden. Viele Forscher und Forscherinnen gehen davon aus, dass bereits im Jahr 2030 der erste Quantencomputer existiert, der die heute eingesetzten kryptografischen Verfahren brechen könnte.

Asymmetrische kryptografische Verfahren können durch die bereits erwähnten Quantenalgorithmen komplett gebrochen werden. Bei bisher entwickelten Quantencomputern ist dies aber noch nicht möglich, da sie über nicht genügend Leistung verfügen. Die Forschung auf diesem Gebiet schreitet jedoch voran, sodass quantenresistente kryptografische Verfahren bereits entwickelt und standardisiert werden müssen. Das Technologieunternehmen IBM will im Jahr 2024 einen Quantencomputer mit mindestens 1.386 Qubits vorstellen (siehe Abbildung 3). Im darauffolgenden Jahr ist bereits ein Quantencomputer mit mindestens 4.185 Qubits geplant.

Abbildung 3: QBIT-Roadmap

QBIT-Roadmap
Quelle: https://de.statista.com/statistik/daten/studie/1198694/umfrage/ anzahl-der-erreichten-qubits-nach-unternehmen/

Das NIST hat schon vor vielen Jahren das Problem erkannt und einen Auswahlprozess zur Standardisierung von Post-Quanten-Kryptografie Verfahren begonnen. Post-Quanten-Kryptografie
bezeichnet im Allgemeinen die Forschung zu quantensicheren kryptografischen Verfahren. Sie basieren auf mathematischen Problemen, die auch mit einem Quantencomputer nach aktuellem Stand der Forschung nicht effizient gelöst werden können.

Es gibt gitterbasierte, codebasierte, hashbasierte, multivariate und isogeniebasierte Post-Quanten-Kryptografie-(PQC)-Verfahren. Im Auswahlprozess wurden quantensichere kryptografische Verfahren eingereicht, mit denen beispielsweise Sitzungsschlüssel ausgetauscht und digitale Signaturen erstellt werden konnten.

Ob diese Verfahren tatsächlich quantensicher sind, musste gründlich untersucht werden. Der Standardisierungsprozess verläuft in mehreren Runden. Die Verfahren werden in jeder Runde hinsichtlich vordefinierter Kriterien bewertet, wie zum Beispiel der Sicherheit und der Performance. Im Juni 2022 wurde die dritte Runde beendet, was zur Folge hatte, das erste Verfahren zur Standardisierung und weitere Finalisten für die vierte Runde ausgewählt wurden.

Alle Dokumentationen zu den eingereichten Verfahren sind öffentlich einsehbar. Für die vierte Runde hat es das isogeniebasierte Verfahren SIKE geschafft, welches jedoch nur wenige Wochen später mit einem klassischen Computer innerhalb von wenigen Stunden gebrochen worden ist. Die Hoffnung auf sichere isogeniebasierte kryptografische Verfahren, die mithilfe von Isogenien zwischen supersingulären elliptischen Kurven konstruiert werden, war nicht mehr haltbar.

Zu diesem Zeitpunkt standen nur noch gitterbasierte und hashbasierte Verfahren zur Erstellung von quantensicheren digitalen Signaturen zur Verfügung. Das hashbasierte Verfahren SPHINCS+ gilt zwar als sehr sicher, ist aber aufgrund der schlechten Performance nicht alltagstauglich.

Sollten sich in der Zukunft die gitterbasierten Verfahren als unsicher erweisen, so gäbe es in diesem Bereich keine quantensicheren Alternativen. Dieses Problem hat NIST erkannt und zum 1. Juni 2023 erneut aufgerufen, das neue Verfahren zur Erstellung von digitalen Signaturen eingereicht werden dürfen. 40 der eingereichten Verfahren entsprechen den Anforderungen und werden nun weiter untersucht – eins davon ist sogar isogeniebasiert. Der Standardisierungsprozess bei NIST soll im Jahr 2024
beendet werden.

Bedeutung für die Praxis

Was genau bedeutet das nun für die Industrie? Diese neuen Verfahren müssen in kryptografische Soft- und Hardware-Module implementiert werden und auch kryptografische Protokolle, wie zum Beispiel das Protokoll zur sicheren Datenübertragung TLS, müssen entsprechend weiterentwickelt werden.

Da das Bundesamt für Sicherheit in der Informationstechnik (BSI) während der Übergangsphase die Verwendung von Post-Quanten-Kryptografie-Verfahren in Kombination mit klassischen kryptografischen Verfahren fordert, muss die Public-Key-Infrastruktur in der Lage sein, sowohl klassische asymmetrische Schlüssel als auch PQC-Schlüssel zu verwalten. Dies erfordert die Implementierung zusätzlicher Prozesse und Tools zur Generierung, Speicherung und Verwaltung von PQC-Schlüsseln und Zertifikaten.

Neben der Post-Quanten-Kryptografie gibt es noch die Quanten-Kryptografie. Diese basiert auf physikalischen Gesetzen der Quantenmechanik und ermöglicht einen sicheren Schlüsselaustausch und Datenverschlüsselung auf Quantenebene. Der Quantenschlüsselaustausch beziehungsweise Quantum Key Distribution (QKD) ermöglicht zwar einen sicheren Schlüsselaustausch zwischen zwei Parteien, ist jedoch in der Praxis noch schwer umzusetzen, da die Hardwareanforderung sehr hoch und die Reichweite von QKD-Systemen noch begrenzt ist und somit nicht in globalen Netzwerken eingesetzt werden kann.

Maßnahmen zur Vorsorge

In Hinblick auf die Entwicklungen ist auch der Gesetzgeber nicht tatenlos geblieben. Im April 2023 wurde durch die Bundesregierung das „Handlungskonzept Quantentechnologien“ beschlossen.
Dieses Konzept hat insbesondere das Ziel, die Migration zu quantensicherer Kryptografie vor allem für die Betreiber kritischer Infrastrukturen in Deutschland bis 2026 sicherzustellen.

Doch auch alle anderen Unternehmen und Organisationen mit eigener IT-Infrastruktur sollten rechtzeitig mit der Migration anfangen. Das BSI hat in Zusammenarbeit mit dem Beratungsunternehmen KPMG eine Umfrage zu dem Thema durchgeführt. Zwar ist den meisten der Befragten die Gefährdungen durch Quantencomputer bewusst. Doch gibt es eine starke Dissonanz zwischen dem erwarteten Migrationsbeginn (3 Jahre), der erwarteten Umstellungsdauer (5 Jahre) und dem erwarteten Sicherheitsverlust (7 Jahre).

Abbildung 4: Wie viel Zeit bleibt für die Migration?

Wie viel Zeit bleibt für die Migration?
Quelle: Grutzig/Scholz

Technische Entwicklungen sind immer im Fluss. Deshalb macht es in der Regel keinen Sinn, auf einen fertigen Stand zu warten. Sicherheit ist ein zentrales Thema, vor allem in der IT. Deshalb sollte es immer eine Sicherheitsstrategie geben, die regelmäßig entsprechend der technischen Entwicklungen neu justiert wird. Folgende Maßnahmen sollten Unternehmen ergreifen:

  • Erstellung/Anpassung einer IT-Sicherheitsstrategie: Im Zentrum einer IT-Sicherheitsstrategie stehen auf der einen Seite Schutzbedarfsanalysen und Risikoabschätzungen und auf der anderen Seite passende Maßnahmen, um die Risiken zu beherrschen. Der Erkenntnis neuer Bedrohungen sollte durch die Festlegung geeigneter Maßnahmen im Hinblick auf den Schutzbedarf begegnet werden. Rahmenwerke für IT-Strategien, die zum Beispiel durch Organisationen wie die ISO, das DIN, das BSI oder die ISACA angeboten werden, können dabei als Orientierung dienen.
  • Wissen (gegebenenfalls Identifikation) um die genutzten und benötigten Verschlüsselungsverfahren: Im Sinne einer Inventur sollten die Verantwortlichen sich einen Überblick verschaffen, welche kryptografischen Algorithmen in ihrer Organisation in den verschiedenen Fachverfahren und Infrastrukturen und eventuell durch Service-Dienstleister eingesetzt werden. Durch Abgleich mit der IT-Strategie leiten sich unzureichende Verschlüsslungsverfahren ab.
  • Wissen um die Risiken der Verschlüsslungsverfahren: Entweder ist eigenes Wissen zu kryptografischen Algorithmen aufzubauen oder man zieht geeignete Experten für die Beurteilung der Risiken heran.
  • Monitoring der Entwicklung: Baut man eigenes Wissen auf, ist die Beobachtung einschlägiger Fachliteratur, der Besuch von Fachkongressen oder das Engagement in Fachverbänden zu empfehlen. Alternativ kann man auch regelmäßig externe Experten konsultieren. Wichtig ist die organisatorische Verankerung dieser Aufgabe, zum Beispiel im Rahmen des Risikomanagements oder in einem Internen Kontrollsystem (IKS).
  • Diskussion mit den Herstellerpartnern: Gerade bei unternehmenskritischen Anwendungen empfiehlt sich die regelmäßige Diskussion mit den Herstellern und Serviceanbietern, um diese zu sensibilisieren oder erforderliche Migrationsanforderungen frühzeitig zu identifizieren.
  • Diskussion mit unabhängigen Sicherheitsexperten: IT-Sicherheit ist ein komplexes Thema mit vielen Facetten. Neutrale Experten ohne Produktbindung ergänzen verschiedene Blickwinkel und erweitern das Wissen.
  • Vorbereitung einer Migrationsstrategie: Überall dort, wo die Sicherheit perspektivisch gefährdet ist, muss die Ablösung und Migration der Verfahren geplant werden. Zudem sollten bei der Neuauswahl von Systemen und IT-Services die perspektivischen Sicherheitsanforderungen gleich mitberücksichtigt werden.
  • Planung oder Bereitstellung entsprechender Ressourcen, um die Migrationsstrategie umzusetzen: Veränderungen und Migrationen gehören zum Unternehmensalltag. Schlecht umgesetzte Migrationen gefährden allerdings die Motivation der Mitarbeiter und die Innovationskraft der Organisation und stellen somit ein eigenständiges signifikantes Risiko dar. Daher ist es ratsam, Migrationen sorgfältig zu planen und mit ausreichenden Ressourcen auszustatten, um einen möglichst reibungslosen Übergang zu realisieren.

Vor allem Organisationen, die Betreiber oder wichtiger Zulieferer zu kritischen Infrastrukturen sind, sollten sich zügig mit dem Thema befassen.

Barbara Grutzig ist Mathematikerin und arbeitet als IT-Security Consultant im Bereich Kryptographie und PKI bei secunet Security Networks.

Barbara Grutzig ist Mathematikerin und arbeitet als IT-Security Consultant im Bereich
Kryptographie und PKI bei secunet Security Networks AG. Kontakt:  barbara.grutzig@secunet.com

Folker Scholz ist Unternehmensberater und begleitet seit vielen Jahren Organisationen bei der bei der Digitalen Transformation von Prozessen und Geschäftsmodellen.

Folker Scholz ist Unternehmensberater und begleitet seit vielen Jahren Organisationen
bei der bei der Digitalen Transformation von Prozessen und Geschäftsmodellen.
Kontakt: fscholz@folkerscholz.de

Andere interessante Fachbeiträge

Kubernetes

Kubernetes sicher betreiben

Kubernetes ist eine Open-Source-Plattform zur Automatisierung der Bereitstellung, Skalierung und Verwaltung von containerisierten Anwendungen. Neben den vielen Vorteilen wie Ressou...

Hacker vor Monitoren

Wie die Angreifersicht beim Schutz des Unternehmens hilft

Unternehmen investieren viel Zeit und Aufwand in den Aufbau einer Sicherheitsarchitektur für ihre industrielle IT. Trotzdem kommt es immer wieder zu erfolgreichen Angriffen. Wie ka...

rotes Ausrufezeichen

Ransomware-Angriffe mit Zero-Trust-Segmentierung eindämmen

Ransomware-Angriffe sind eine große Gefahr. Die gute Nachricht ist: Sie brauchen Zeit. Die Angreifer müssen sich erst in der IT-Umgebung eines Unternehmens ausbreiten, sensible Dat...