IBM Quantencomputer wird zuverlässiger

Die Innenansicht des Kryostats, der den IBM Quantum Eagle kühlt, einen Quantenprozessor mit 127 Qubits. (Bild: IBM)

Infrastruktur
Typography
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

IBM meldete heute einen neuen Durchbruch, der auf der Titelseite des Wissenschaftsmagazins Nature publiziert wurde und zum ersten Mal zeigt, dass Quantencomputer mit einer Leistung von mehr als 100 Qubits genaue Ergebnisse liefern können, die die führenden klassischen Ansätze übertreffen.

Hauptziele des Quantencomputings ist die Simulation von Materialkomponenten – eine Aufgabe, die klassische Computer niemals effizient simulieren können. Die Modellierung dieser Komponenten ist ein entscheidender Schritt auf dem Weg zur Bewältigung von Herausforderungen wie der Entwicklung effizienterer Düngemittel, dem Bau besserer Batterien und der Entwicklung neuer Medikamente. Allerdings ist bei den heutigen Quantensystemen ein gewisses Rauschen nicht zu vermeiden, und es treten zahlreiche Fehler auf, die die Leistung beeinträchtigen. Dies ist auf die Empfindlichkeit von Quantenbits oder Qubits gegenüber Umwelteinflüssen zurückzuführen. In ihrem Experiment demonstriert das IBM Team, dass ein Quantencomputer die Leistung führender klassischer Simulationen übertreffen kann, indem er Fehler im System erkennt und reduziert. Das Team setzte den IBM Quantenprozessor „Eagle“ ein, der aus 127 supraleitenden Qubits auf einem Chip besteht, um grosse, verschränkte Zustände zu erzeugen, die die Dynamik von Spins in einem Materialmodell simulieren und Eigenschaften wie beispielsweise seine Magnetisierung genau vorhersagen. Um die Genauigkeit dieser Modellierung zu überprüfen, führte ein Team von Wissenschaftlern an der University of California, Berkeley, diese Simulationen gleichzeitig auf fortgeschrittenen klassischen Computern im National Energy Research Scientific Computing Center (NERSC) des Lawrence Berkeley National Lab und der Purdue University durch. Mit zunehmender Skalierung des Modells lieferte der Quantencomputer mithilfe erweiterter Verfahren zur Fehlerbegrenzung kontinuierlich genaue Ergebnisse, während die klassischen Berechnungsmethoden schliesslich an ihre Grenzen stiessen und mit dem IBM Quantensystem nicht mithalten konnten. „Zum ersten Mal konnten wir beobachten, dass Quantencomputer ein physikalisches System in der Natur genauer modellieren als die führenden klassischen Ansätze“, sagte Darío Gil, Senior Vice President und Director of Research bei IBM. „Für uns ist dieser Meilenstein ein bedeutender Schritt, der beweist, dass die heutigen Quantencomputer fähige, wissenschaftliche Tools sind, die zur Modellierung von Problemen eingesetzt werden können, die mit klassischen Systemen extrem schwierig – und vielleicht sogar unmöglich – zu lösen sind, und der signalisiert, dass wir jetzt in eine neue Ära der Nutzbarmachung des Quantencomputings eintreten.“

IBM setzt auf Grossrechner für IBM Quantensysteme

Im Zuge dieser bahnbrechenden Leistung gibt IBM zudem bekannt, dass IBM Quantensysteme, die in der Cloud oder direkt bei Partnerunternehmen zum Einsatz kommen mit mindestens 127 Qubits ausgestattet sein werden. Diese Prozessoren ermöglichen eine so hohe Rechenleistung, dass sie bei bestimmten Anwendungen die klassischen Methoden übertreffen und verbesserte Kohärenzzeiten sowie niedrigere Fehlerraten gewährleisten können. Diese Eigenschaften können mit sich ständig weiterentwickelnden Techniken zur Fehlerbegrenzung kombiniert werden, sodass die IBM Quantencomputer eine neue Schwelle für die Industrie markieren, die IBM mit dem Begriff „utility-scale“ bezeichnet, d. h. einen Punkt, an dem Quantencomputer als wissenschaftliche Tools zur Erforschung einer neuen Grössenordnung von Problemen dienen könnten, die klassische Systeme möglicherweise niemals lösen können.

„Während wir mit unserer Mission voranschreiten, nützliches Quantencomputing für die Welt verfügbar zu machen, wissen wir inzwischen um die grundlegenden Voraussetzungen für die Erforschung einer völlig neuen Klasse von komplexen Berechnungen“, kommentierte Jay Gambetta, IBM Fellow and Vice President von IBM Quantum. „Indem wir unsere IBM Quantensysteme mit Prozessoren ausstatten, die eine Nuzen-Skalierbarkeit ermöglichen, laden wir unsere Kunden, Partner und Mitarbeiter dazu ein, ihre kompliziertesten Problemstellungen einzubringen, um die Grenzen der heutigen Quantensysteme zu erforschen und echte Wertschöpfung zu generieren.“ Alle Nutzer von IBM Quantum werden in der Lage sein, Problemstellungen auf Grossrechnern mit mehr als 100 Qubits bearbeiten zu können. Die über 2.000 Teilnehmer der IBM Quantum Spring Challenge hatten Zugang zu diesen Prozessoren, um dynamische Schaltkreise zu erforschen, eine Technologie, die die Ausführung fortschrittlicherer Quantenalgorithmen erleichtert. Während IBM seine Quantentechnologiestack ausbaut, machen Forschungseinrichtungen und führende Unternehmen der Privatwirtschaft in allen Branchen mobil, für die die Quantentechnologie ein unmittelbares Potenzial birgt, darunter: Hochleistungsrechnen, Hochenergiephysik, Gesundheitswesen und Biowissenschaften sowie Optimierung, Finanzen und Nachhaltigkeit.

Streben nach Mehrwert

Mit leistungsfähigerer Quantentechnologie, einschliesslich fortschrittlicher Hardware und Tools, mit denen erforscht werden kann, wie Fehlerbegrenzung heute Genauigkeit ermöglichen kann, arbeiten wegweisende Unternehmen und Universitäten mit IBM zusammen, um das Potenzial von Quantencomputing zu erschliessen.

Zu diesen Arbeitsgruppen, die den potenziellen Wert des Quantencomputings untersuchen, gehören:

  • Gesundheitswesen und Biowissenschaften, angeführt von Organisationen wie der Cleveland Clinic und Moderna, erforschen Anwendungen der Quantenchemie und des maschinellen Lernens auf Quantenbasis im Hinblick auf Herausforderungen wie die beschleunigte Entdeckung von Molekülen und Modelle zur Vorhersage von Patientenrisiken.
  • In der Hochenergiephysik arbeiten bahnbrechende Forschungseinrichtungen wie CERN und DESY daran, die am besten geeigneten Quantenberechnungen zu ermitteln – für Bereiche wie Identifizierungs- und Rekonstruktionsalgorithmen für Teilchenkollisionsereignisse sowie an der Untersuchung theoretischer Modelle für die Hochenergiephysik.
  • Materialien, angeführt von den Teams bei Boeing, Bosch, der University of Chicago, Oak Ridge National Lab, ExxonMobil und RIKEN, beabsichtigen die besten Methoden zur Entwicklung von Arbeitsabläufen für die Materialsimulation zu erforschen.
  • Optimierung zielt darauf ab, die Zusammenarbeit zwischen globalen Finanzinstituten wie E.ON, Wells Fargo und anderen zu etablieren, um zentrale Aspekte zu prüfen, die die Identifizierung von Optimierungsproblemen zugunsten des Quantenvorteils in Nachhaltigkeit und Finanzen verbessern.
Wir verwenden Cookies auf unserer Website. Einige von ihnen sind für den Betrieb der Website von wesentlicher Bedeutung, während andere uns dabei helfen, diese Website und die Benutzererfahrung zu verbessern (Tracking-Cookies). Sie können selbst entscheiden, ob Sie Cookies zulassen möchten oder nicht. Bitte beachten Sie, dass Sie möglicherweise nicht alle Funktionen der Website nutzen können, wenn Sie sie ablehnen.