BLOG

Der Quantencomputer – Der Heilige Gral der Quantenrevolution 2.0

08/02/2018 12:17 CET | Aktualisiert 08/02/2018 12:17 CET
spektrum.de

Jedes Jahr verdoppelt sich die Menge an Daten, die wir Menschen produzieren. Allein 2018 kommen weltweit also so viele Giga-, Tera-, Peta- und Exabytes zusammen wie in der gesamten Menschheitsgeschichte bis 2017. Denn Daten, ihre Erfassung und Weitergabe sind längst nicht mehr nur an feste Computer gebunden. Smart Phone, Smart Home, Smart Clothes, Smart Factories, Smart Cities … jede Menge „smarte“ Dinge sind unterdessen über das Internet miteinander verbunden. Und sie produzieren immer mehr eigene Daten. Ebenso exponentiell wächst daher auch der Anspruch an die Leistungsfähigkeit der Computerchips. Und tatsächlich verdoppelt sich ihre Rechenleistung ca. alle 18 Monate, und dies seit 50 Jahren. Das Wachstum der Anzahl der Komponenten pro Flächeneinheit auf integrierten Schaltkreisen folgt einem Gesetz, das der spätere Mitbegründer der Firma Intel, Gordon Moore, bereits 1965 formulierte.

Doch sieht es so aus, als ob das „Moore‘sche Gesetz“ schon bald seine Gültigkeit verlieren wird. Das bedeutet aber noch nicht, dass damit das Ende der Fahnenstange erreicht ist, was die weitere Effizienzsteigerung der Informationsverarbeitung angeht. So gibt es noch eine ganz andere Möglichkeit, noch viel schnellere, ja sogar millionen- und milliardenfach leistungsfähigere Computer zu bauen: Quantencomputer. Das sind Computer, die im Kern auf den bizarren Eigenschaften der Quantentheorie beruhen. Mit ihrer Hilfe ließen sich Probleme lösen, die für die heute in Physik, Biologie, Wetterforschung und anderswo eingesetzten „Supercomputer“ noch bei weitem zu komplex sind. Die Entwicklung von Quantencomputern wäre eine technologische Revolution, die das 21. Jahrhundert ähnlich prägen würde, wie die Entwicklung digitaler Schaltkreise das 20. Jahrhundert.

Ein Quantencomputer arbeitet nach einer ganz anderen Funktionsweise als herkömmliche Computer. Klassische Computer verwenden als kleinstmögliche Informationseinheiten die „Bits“, die entweder den Zustand 1 oder 0 haben (also zwei Werte annehmen können, daher der Begriff „digital“). Die so genannte von-Neumann-Architektur sorgt dafür, dass die Rechenschritte sequentiell, also Bit für Bit abgearbeitet werden. Zwar enthalten die heutigen Computer mittlerweile Bauteile, die so klein sind, dass in ihnen Quanteneffekte eine große Rolle spielen, doch das ändert nichts daran, dass ihre Funktionsweise vollständig auf den Prinzipien der klassischen Physik basiert.

Quantencomputer unterliegen dagegen einer völlig anderen Informationstheorie. Das einfachste System in der Quantenmechanik ist das so genannten „Quantenbit“ (kurz „Qubit“). Qubits können beide Zustände, 0 und 1, simultan annehmen, sowie alle Zwischenwerte (und noch mehr in der Sphäre der komplexen Zahlen). Dies liegt an den Möglichkeiten von Quantenzuständen, in so genannten „Superpositionen“ zu existieren, Überlagerungen sich klassisch gegenseitig ausschliessender Zustände. Diese bizarre Eigenschaft von Quantenteilchen war einst Auslöser hitziger Diskussionen unter den Vätern der Quantenphysik. Dazu kommt, dass sich verschiedene Quantenteilchen in so genannte verschränke Zustände bringen lassen. Es ist, als ob die Qubits mit einer unsichtbaren Feder aneinandergekoppelt sind. Über eine „spukhafte Fernbeziehung“ (ein Begriff, den ursprünglich Albert Einstein in ironischer Absicht erfand) stehen sie sozusagen allesamt direkt in Kontakt miteinander. Jedes Quantenbit „weiß“ sozusagen, was die anderen gerade treiben. Verschränkte Qubits liegen damit in einer Superposition unendlich vieler verschiedenen Zustände zugleich vor (salopp gesagt: sie nehmen all diese Zustände zugleich ein), die bei erfolgender Messung jeweils mit einer bestimmten Wahrscheinlichkeit realisiert würden und die sich (vor jeglicher Messung) mit Hilfe eines entsprechenden Algorithmus allesamt gleichzeitig verarbeiten lassen. Es ist, als ob viele Schokoladenfabriken gleichzeitig ihre Fließbänder angeworfen hätten. Je mehr Qubits miteinander verschränkt sind, desto mehr Zustände können parallel verarbeitet werden. Anders als in herkömmlichen Computern, deren Rechenleistung linear mit der Anzahl der Rechenbausteine steigt, erhöht sich damit die Rechenleitung eines Quantencomputers exponentiell mit der Anzahl der eingesetzten Qubits. Die Leistung eines Quantencomputers verdoppelt sich also nicht erst, wenn zu 100 Qubits weitere 100 Qubits hinzugeschaltet werden, sondern bereits, wenn nur ein einziges Qubit zu den 100 Qubits hinzugefügt wird. Kommen 10 dazu, vertausendfacht sich seine Leistung, bei 20 neuen Qubits ist der Quantencomputer bereits eine Millionen Mal so schnell, bei 50 neuen Qubits eine Millionen Milliarden Mal. Und bei 100 neuen Informationsträgern, wenn sich die Leistungsfähigkeit eines klassischen Computers gerade mal verdoppelt hat, lässt sich die Erhöhung der Leistungsfähigkeit eines Quantencomputers kaum mehr in Zahlen benennen.

Bei näherer Betrachtung lässt sich ist die massive Parallelisierung durch verschränkte Zustände allerdings nicht ganz mit parallel arbeitenden Schokoladenfabriken vergleichen. Information, die in verschränkten Systemen gespeichert und verbreitet wird, ist sehr verschieden von der Information die von gewöhnlichen digitalen Computern verarbeitet wird. Quantencomputer arbeiten nicht im wörtlichen Sinne parallel, sondern sie organisieren die Information so, dass diese über sehr viele verschränkte Komponenten des Gesamtsystems verteilt ist. Der folgende Versuch einer Veranschaulichung soll dies illustrieren: Man stelle sich ein Buch mit 100 Seiten vor. Für ein gewöhnliches klassisches 100-seitiges Buch gilt, dass jedes Mal, wenn man eine Seite liest, man weitere 1% des Inhalts des Buches erfasst hat. Nachdem man alle Seiten einzeln gelesen haben, weiss man alles, was im Buch steht. Bei einem Quantenbuch, in dem die Seiten miteinander verschränkt sind, liegen die Dinge anders. Betrachtet man darin die Seiten einzeln, sieht man nur zufälliges Kauderwelsch, und nachdem man alle Seiten nacheinander gelesen hat, weiß man immer noch sehr wenig über den Inhalt des Buches. Das liegt daran, dass die in einem Quantenbuch die Information nicht auf den einzelnen Seiten aufgedruckt ist, sondern fast ausschließlich in der Korrelation der Seiten untereinander kodiert ist. Wer das das Buch lesen will, muss die Seiten gleichzeitig betrachten.

Es erscheint merkwürdig, dass Quantencomputer nicht schon längst realisiert wurden. Schließlich war die Quantentheorie zum Zeitpunkt der Entstehung des modernen Computers längst etabliert. Trotzdem verstrichen Jahrzehnte, bevor die Physiker sich der Möglichkeiten der Quanteninformationsverarbeitung annahmen. Einer der Gründe hierfür liegt auf der Hand: Lange Zeit wussten weder Physiker noch Informatiker etwas mit den Phänomenen Superposition und Verschränkung anzufangen. Doch es gibt noch einen zweiten Grund: In den 1940er Jahren hatte der US-amerikanische Mathematiker Claude Shannon die klassische Informationstheorie begründet, die auf der Verwendung von Bits beruht. Sein Aufsatz A Mathematical Theory of Communication (Mathematische Grundlagen in der Informationstheorie) gilt bis heute als die Bibel des Informationszeitalters und zählt zu den einflussreichsten wissenschaftlichen Arbeiten des 20. Jahrhunderts. Das Problem: Shannon hatte seine Theorie der Informationsverarbeitung sehr abstrakt und sehr allgemein formuliert. Lange Zeit hielten es die Informatiker für selbstverständlich, dass das Prinzip der Bits für jede Form der Informationsverarbeitung gilt. Erst spät erkannten die Informatiker, dass es auch Informationskonzepte jenseits der Bits und der klassischen Physik gibt – und dass das Rechnen auf Qubits ein völlig neues theoretisches Fundament benötigt, eines, in dem es explizit um Superposition und Verschränkung von Quantenzuständen geht. Und diese Eigenschaften passen grundsätzlich nicht in die klassische Informationstheorie. Beide Grundeinheiten – Bits und Qubits – sind so sehr voneinander verschieden, dass sich ein Qubit grundsätzlich nicht mit klassischen Bits abbilden lässt. Eine entsprechende neue Informationstheorie wurde erst ab Ende der Neunzigerjahre durch die gemeinsamen Anstrengungen von Physikern und Informationstheoretikern geschaffen.

Fünf Probleme, die heutige Computer – und seien sie noch so groß – in realistischer Zeitspanne nicht lösen können, sollen aufzeigen, welche Möglichkeiten sich mit einem Quantencomputer eröffnen.

1. Kryptographie: Heute gängige (asymmetrische) Verschlüsselungen (mit einem öffentlichem und einem privatem Schlüssel wie beim bekannten RSA-Verfahren) beruhen auf der Faktorisierung der Produkte zweier sehr großer Primzahlen. Ab einer bestimmten Zahlengröße ist diese Aufgabe für einen klassischen Computer nicht mehr zu lösen. Genau darauf setzen nahezu alle gängigen Verschlüsselungsverfahren. Der Informatiker Peter Shor entwickelte 1994 einen Algorithmus, der mit Hilfe eines Quantencomputers die größten Produkte heute verwendeter Primzahlen innerhalb von Minuten in ihre Teiler faktorisieren könnte.

2. Lösung komplexer Optimierungsaufgaben: Die Aufgabe, aus vielen Varianten die optimale Lösung zu finden, gilt unter Mathematikern als besonders knifflig. Das Standardproblem ist das des Handlungsreisenden: Die Aufgabe besteht darin, die Reihenfolge für die Reise an mehrere Orte so zu wählen, dass die gesamte Reisestrecke möglichst kurz ist. Bei nur bei 15 Städten gibt es bereits über 43 Milliarden und bei 18 Städten bereits über 177 Billionen Wegvarianten. Verwandte Probleme treten in der industriellen Logistik, im Design von Mikrochips oder auch in der Optimierung von Verkehrsflüssen auf. Bereits bei einer geringen Zahl von Punkten steigen klassische Computer bei der Berechnung optimaler Lösungen aus. Quantencomputer könnten solche Optimierungsprobleme dagegen in vergleichsweise kurzer Zeit lösen.

3. Eine bedeutende Anwendung könnte auf dem Gebiet der Künstlichen Intelligenz liegen: Die dort verwendeten tiefen neuronale Netzen sind mit harten kombinatorischen Optimierungsprobleme verbunden, die von Quantencomputern weitaus schneller und besser gelöst werden können als von klassischen Computern. Speziell aus sehr verrauschten Daten könnten Quantencomputer wesentlich schneller Strukturen erkennen und entsprechend rasch lernen. So macht bereits ein neues „Mega-Buzzwort“ die Runde. Es kombiniert zwei einzelne Buzzwörter, die bereits einzeln die Phantasie vieler Menschen anregen: Quantum machine learning.

4. Suche in grossen Datenbanken: Beim Durchsuchen unsortierter Datenmengen muss ein klassischer Computer jeden Datenpunkt einzeln untersuchen. Die Suchdauer steigt daher linear mit der Anzahl der Datenpunkte. Bei großen Datenmengen wird die Anzahl der dazu notwendigen Rechenschritte zu groß für einen klassischen Computer, um praktikabel zu sein. Im Jahr 1996 veröffentlichte der indisch-amerikanische Informatiker Lov Grover einen Quantencomputer-Algorithmus, für den die Anzahl der notwendigen Rechenschritte nur noch mit der Wurzel der Datenpunkte anwächst. Anstatt bei einer Milliarde Dateneinträgen tausendmal so lange zu brauchen wie bei einer Million, würde dies mit einem Quantencomputer und dem „Grove-Algorithmus“ nur noch etwas mehr als 30-mal so lang dauern.

5. Auffinden neuer chemischer Verbindungen: Bei der Simulation von Quantensystemen kommen immer wieder komplexe Optimierungsprobleme vor, bei denen es darum geht, aus vielen Alternativen die bestmögliche, d.h. energetisch günstigste Konfiguration der Elektronen eines Atoms oder Moleküls zu finden. Quantencomputer könnten das Quantenverhalten der beteiligten Elektronen dabei direkt abbilden und modellieren, da sie sich selber wie ein Quantensystem verhalten, während für die Berechnung solcher Systeme mit klassische Computer immer wieder starke Vereinfachungen notwendig sind. Könnte man wiederum Moleküle und die Details der Vorgänge in chemischen Reaktionen viel besser vorausberechnen und verstehen als heute, wäre es denkbar, dass man neue Medikamente im Wochentakt findet oder viel bessere Batterietechnologien als heute innerhalb eines Monats entwickelt.

Jedoch sind bei der Konstruktion von Quantencomputern noch gewaltige Probleme zu lösen. Das größte davon: Verschränkte Quantenzustände zerfallen unter dem allgegenwärtigen Einfluss von Wärme und Strahlung sehr schnell – oft zu schnell, um die gewünschten Operationen fehlerfrei durchzuführen. Die Physiker sprechen in diesem Zusammenhang von „Dekohärenz“ der Quantenzustände. Mit Qubits zu arbeiten erscheint fast so, als wolle man nicht auf einem Blatt Papier schreiben, sondern auf einer Wasseroberfläche. Während das Papier Jahrhunderte überdauern kann, ist das auf Wasser Geschriebene schon nach Sekundenbruchteilen verschwunden. Es kommt also darauf an, eine wahnwitzige Geschwindigkeit zu beherrschen.

Um diese Hürde zu überwinden, verfolgen die Quanteningenieure eine doppelte Strategie: Einerseits versuchen sie, sie die Lebensdauer der Qubits zu verlängern bzw. ihre Fehleranfälligkeit zu reduzieren, andererseits entwickeln sie Algorithmen, die die auftretenden Fehler beheben. Der Dekohärenz vermögen die Physiker mit Hilfe von ultrakalten Kühlschränken Einhalt zu gebieten. Für die Behandlung von durch die Dekohärenz verursachten Fehlern in einzelnen Qubits wiederum entwickeln sie immer bessere Methoden (sogenannte Quantenfehlerkorrektur), mit denen die Verlässlichkeit von Quantencomputern erhöht werden kann.

Noch reichen ihre Bemühungen allerdings nicht aus, um zuverlässig funktionsfähige Quantencomputer zu bauen. Doch haben Firmen wie IBM und Google in den letzten Wochen und Monaten angekündigt, Quantenprozessoren gebaut zu haben, die aus bis zu 50 Qubits bestehen. Bei dieser Grösse könnte sie - zumindest für einige sehr spezielle Rechenprobleme - wohl die Rechenkapazität eines jeden heutigen (klassischen) Superrechners übertreffen. Google nennt dies „Quantum Supremacy“ (Quanten-Überlegenheit) und hatte bereits 2017 angekündigt, diese zum Ende desselben Jahres zu erreichen. Noch haben wir nichts davon gehört, aber es lohnt sich in den nächsten Woche und Monaten die Wissenschaftsteil der Tageszeitung etwas genauer zu lesen. c