Quantencomputing: Stand der Entwicklung, Vorteile und zukünftige Gefahren

Quantencomputer werden in Zukunft herkömmliche Computer in Sachen Rechenleistung um ein Vielfaches übertreffen. Dadurch ergeben sich Vorteile, aber auch Gefahren für die Cybersicherheit. Auf dem Weg zur Marktreife lauern allerdings noch einige Hindernisse.  

In letzter Zeit ist es ruhig geworden rund um das Thema Quantencomputing. Digital Chiefs berichtete vor bald zwei Jahren über die Technik sowie ein vielversprechendes Projekt des Fraunhofer Instituts in Zusammenarbeit mit IBM. Die Fortschritte im Bereich der Künstlichen Intelligenz oder das Metaverse haben dazwischen alle Aufmerksamkeit auf sich gezogen. Im Windschatten dieser Entwicklungen wurde an der Technologie allerdings beständig weitergeforscht. Die Fortschritte bei Quantencomputern bewegen sich daher immer weiter in Richtung Marktreife, wie einige Beispiele heute bereits zeigen. Viele Branchen hoffen auf die Vorteile, die ihnen die Innovation bringen kann, gleichzeitig werden kritische Stimmen laut, die auf mögliche negative Auswirkungen und Gefahren durch die immense Rechenleistung von Qubits und Co. hinweisen.

Geringe Verfügbarkeit und hohe Fehleranfälligkeit hemmen Entwicklung

In der Theorie sind Quantencomputer in der Lage, mittels sogenannter Qubits innerhalb kürzester Zeit Rechenaufgaben zu lösen, für die herkömmliche Computer deutlich länger brauchen. Das liegt an der besonderen Eigenschaft der Qubits: Anders als normale Bits, die entweder den Zustand 1 oder 0 haben, können Qubits auch jeden erdenklichen Zustand zwischen 1 und O erreichen. Ein großes Problem dabei ist die noch geringe Verfügbarkeit und gleichzeitig hohe Fehleranfälligkeit der Qubits. Denn um komplexe Berechnungen durchzuführen, benötigen Quantencomputer 4-5.000 Qubits. In der Realität verfügen Quantencomputer heute erst über bis zu 400 Qubits. Um die Berechnungen zu überprüfen, sind weitere Qubits notwendig. Genauer gesagt: Auf 1.000 für die Rechnung notwendige Qubits kommen laut Zahlen des Bundesamtes für Sicherheit in der Informationstechnologie (BSI) 1.000.000 notwendige Qubits für die Überprüfung!

Erste Nutzung von Quantencomputern über die Cloud möglich

Google ist in puncto Reduktion der Fehleranfälligkeit jetzt ein Fortschritt gelungen. Die Forschenden haben für ihren Sycamore-Quanten-Chip die Fehlerraten von 3,028 Prozent auf 2,914 Prozent senken können. Das klingt nach keinem großen Sprung, verdeutlicht aber die grundsätzliche Möglichkeit, die Fehlerquote überhaupt durch technologische Weiterentwicklung reduzieren zu können. Damit steigt die Wahrscheinlichkeit, in naher Zukunft einen wirklich hochleistungsfähigen Quantencomputer mit den dafür notwendigen Qubits in Betrieb zu nehmen.

Google ist in puncto Reduktion der Fehleranfälligkeit jetzt ein Fortschritt gelungen (Quelle: AdobeStock/May).

Andere Hersteller und Entwickler öffnen sich dabei sogar bereits für Kunden. Der europäische Marktführer IQM, ein deutsch-finnisches Start-Up, bietet die Leistung seiner Quantencomputing-Infrastruktur über T-Systems als Cloud-Service an. Dabei geht es allerdings noch nicht um einen Regelbetrieb, vielmehr sollen andere Forschende und Entwickler Zugang zum bisherigen Stand der Technologie erhalten, um gemeinsam an der Weiterentwicklung arbeiten zu können.

Größte Herausforderung: die Kühlung

Auf dem Weg zum großen Durchbruch und der endgültigen Marktreife warten dabei noch einige Hindernisse. Größte Herausforderung ist dabei die Kühlung. Denn die notwendigen Supraleitungen funktionieren am besten in der Nähe des absoluten Temperaturnullpunktee bei 0 Grad Kelvin, -273 Grad Celsius. Diese Temperatur ist nur mittels Helium-Kühlung zu erreichen. Für Leistungsfähige Quantencomputer sind allerdings große Mengen des Elements notwendig. Die Verfügbarkeit von Helium, oder die Entwicklung einer alternativen Kühltechnik bzw. die Nutzung anderer Materialien für die Leitungen, ist also essenziell für den Erfolg der Technologie.

Quantencomputing bringt nicht nur Vorteile

Die zukünftige enorme Rechenleistung von Quantencomputern wird allerdings nicht nur positiv gesehen. Kritische Stimmen verweisen auf den möglichen „Quanten-Tod“ bisheriger kryptografischer Anwendungen. Bisher setzen Verschlüsselungssysteme vereinfacht gesagt auf lange Zahlreihen, die zur Entschlüsselung faktorisiert werden müssen. Herkömmliche Computer benötigen dafür sehr lange Zeit, Quantencomputer könnten diese Aufgabe bald in Sekunden erledigen. Das BSI und amerikanische Sicherheitsbehörden rechnen damit, dass die Technologie dazu Anfang der 2030er Jahre in der Lage sein wird.

Obwohl die Gefahr durch Cyberangriffe mittels Quantencomputern damit aktuell noch nicht besteht, sollten sich Unternehmen wie Behörden bereits auf diesen zu erwartenden Fall einstellen. Ein Problem dabei: Kriminelle stehlen aktuell bereits verschlüsselte Daten, um sie in der Zukunft zu entschlüsseln. Diese „harvest now, decrypt later“-Methode bereitet Sicherheitsverantwortlichen einiges an Kopfzerbrechen.

Schutz von Daten in der Gegenwart vor den Gefahren der Zukunft

Vor diesem Hintergrund sollten sich Unternehmen auch heute nicht auf ihre eingesetzten kryptographischen Maßnahmen verlassen und den Schutz ihrer Daten und Netzwerke verstärkt in den Blick nehmen. Ziel muss es sein, zu verhindern, dass es überhaupt zu einem Datendiebstahl kommt. Denn niemand kann sich darauf verlassen, dass heute nach Stand der Technik verschlüsselte Daten auch in Zukunft verschlüsselt bleiben. In den falschen Händen können schließlich auch ein, fünf oder zehn Jahre alte Daten enorme Schäden verursachen.

Quelle Titelbild: Adobe / Aryan

Diesen Beitrag teilen:

Weitere Beiträge

OZG 2.0: Digitalisierung in der Verwaltung kommt nicht voran

Die schleppende Digitalisierung entwickelt sich immer mehr zum Standortnachteil für Deutschland. Dabei ... »

22.02.2024 | Redaktion Digital Chiefs

Ransomware: Immer öfter zieht eine Erpressung die nächste nach sich

Cyberkriminelle geben sich mit einem Ransomware-Angriff nicht mehr zufrieden, sondern schlachten ihre ... »

19.02.2024 | Redaktion Digital Chiefs