Connect with us

Quantencomputing

Forscher entwickeln Methode zur Messung von Quantencomputern

mm

Forscher an der University of Waterloo haben eine Methode zur Messung der Leistung von Quantencomputern entwickelt, und sie könnte dazu beitragen, universelle Standards für diese Maschinen zu etablieren. 

Die neue Methode wird als zyklische Benchmarking bezeichnet, und Forscher verwenden sie, um das Potenzial für Skalierbarkeit zu bewerten. Die Methode wird auch verwendet, um verschiedene Quantenplattformen miteinander zu vergleichen. 

Joel Wallman ist Assistant Professor an der Fakultät für Mathematik und am Institute for Quantum Computing der University of Waterloo.

“Diese Entdeckung könnte einen großen Schritt auf dem Weg zur Etablierung von Standards für die Leistung und die Bemühungen zur Entwicklung eines großen, praktischen Quantencomputers darstellen”, sagte Wallman. “Eine konsistente Methode zur Charakterisierung und Korrektur von Fehlern in Quantensystemen bietet eine Standardisierung für die Bewertung eines Quantenprozessors, was es ermöglicht, den Fortschritt bei verschiedenen Architekturen fair zu vergleichen.”

Zyklisches Benchmarking hilft Benutzern von Quantencomputing, konkurrierende Hardware-Plattformen zu vergleichen und die Fähigkeiten jeder Plattform zu erhöhen, um Lösungen für ihre Projekte zu finden.

Zurzeit wird der Wettbewerb im Bereich des Quantencomputings auf der ganzen Welt immer offensichtlicher. Die Anzahl der Cloud-Quantencomputing-Plattformen und -Angebote steigt, und große Unternehmen wie Microsoft, IBM und Google entwickeln ständig neue Technologien. 

Die Methode des zyklischen Benchmarkings funktioniert, indem sie die Gesamtwahrscheinlichkeit von Fehlern unter beliebigen Quantencomputing-Anwendungen bestimmt. Dies geschieht, wenn die Anwendung durch randomisierte Kompilierung implementiert wird. Zyklisches Benchmarking bietet die erste plattformübergreifende Möglichkeit, die Fähigkeiten von Quantenprozessoren zu messen und zu vergleichen, und es wird je nach Anwendung der Benutzer angepasst. 

Joseph Emerson ist ein Fakultätsmitglied am IQC.

“Dank des jüngsten Erfolgs von Google bei der Erreichung der Quantenüberlegenheit befinden wir uns jetzt am Beginn dessen, was ich die `Ära der Quantenentdeckung’ nenne”, sagte Emerson. “Das bedeutet, dass fehlerhafte Quantencomputer Lösungen für interessante computergestützte Probleme liefern werden, aber die Qualität ihrer Lösungen kann nicht mehr von Hochleistungscomputern verifiziert werden.

“Wir sind begeistert, weil zyklisches Benchmarking eine dringend benötigte Lösung für die Verbesserung und Validierung von Quantencomputing-Lösungen in dieser neuen Ära der Quantenentdeckung bietet.”

Emerson und Wallman gründeten Quantum Benchmark Inc., ein Spin-off des IQC. Es lizenzierte die Technologie an weltweit führende Unternehmen im Bereich des Quantencomputings, einschließlich von Googles Quantum-AI-Bemühungen.

Die Quantenmechanik hat Quantencomputer zu extrem leistungsfähigen Maschinen für die Datenverarbeitung gemacht. Quantencomputer sind in der Lage, komplexe Probleme effizienter zu lösen als herkömmliche oder digitale Computer. 

Qubits sind die grundlegenden Verarbeitungseinheiten in einem Quantencomputer, aber sie sind extrem empfindlich. Jede Art von Unvollkommenheit oder Störquelle im System kann zu bestimmten Fehlern führen, die falsche Lösungen bei einer Quantenberechnung verursachen.

Der erste Schritt, um im Bereich des Quantencomputings weiterzukommen, besteht darin, die Kontrolle über einen kleinen Quantencomputer mit einem oder zwei Qubits zu erlangen. Ein größerer Quantencomputer könnte komplexere Aufgaben wie Machine Learning oder Simulation komplexer Systeme ausführen, was zu Fortschritten wie der Entdeckung neuer pharmazeutischer Wirkstoffe führen könnte. Das Problem besteht darin, dass die Konstruktion eines größeren Quantencomputers schwieriger ist und die Fehlerwahrscheinlichkeit mit der Anzahl der Qubits und der Skalierung des Quantensystems zunimmt. 

Ein Profil der Störungen und Fehler wird erstellt, wenn ein Quantensystem charakterisiert wird. Dies zeigt an, ob der Prozessor die Berechnungen ausführt, die er angefordert wird. Alle signifikanten Fehler müssen charakterisiert werden, um die Leistung eines Quantencomputers zu verstehen oder ihn zu skalieren. 

Wallman, Emerson und eine Gruppe von Forschern an der Universität Innsbruck entwickelten eine Methode, um alle Fehlerquoten zu bewerten, die einen Quantencomputer beeinflussen. Die neue Technik wurde für den Ionenfallen-Quantencomputer an der Universität Innsbruck implementiert und es wurde festgestellt, dass die Fehlerquoten nicht mit der Größe des Quantencomputers ansteigen. 

“Zyklisches Benchmarking ist die erste Methode, um zuverlässig zu überprüfen, ob man auf dem richtigen Weg ist, um die Gesamtkonstruktion des Quantencomputers zu skalieren”, sagte Wallman. “Diese Ergebnisse sind bedeutend, da sie eine umfassende Möglichkeit bieten, Fehler über alle Quantencomputing-Plattformen hinweg zu charakterisieren.”

Alex McFarland ist ein KI-Journalist und Schriftsteller, der die neuesten Entwicklungen im Bereich der künstlichen Intelligenz erforscht. Er hat mit zahlreichen KI-Startups und Veröffentlichungen weltweit zusammengearbeitet.