Presseinformation vom 24.02.2020
Aktuelle Fortschritte beim maschinellen Lernen und der künstlichen Intelligenz (KI) basieren auf Computern mit immer leistungsfähigeren neuronalen Netzen. Diese sind beispielsweise in der Lage, Muster in großen, unstrukturierten Datenmengen zu erfassen, Texte automatisiert zu übersetzen oder Handschriften zu erkennen. Das System ist dabei lernfähig: Je länger der Rechner mit Daten gefüttert wird, desto zuverlässiger wird das Ergebnis.
Quantencomputer versprechen nun den nächsten großen Schritt in der Steigerung der Rechenleistung. Für eine entsprechende Steigerung des maschinellen Lernens müssen quantenmechanische Versionen neuronaler Netze entwickelt werden. Ein Team der Leibniz Universität Hannover hat nun eine vielversprechende Struktur für ein solches Netz vorgestellt, das besonders robust, besonders flexibel und besonders lernfähig ist. Ihre Ergebnisse haben sie jetzt im Fachmagazin Nature Communications veröffentlicht.
Ihr quantenneuronales Netz ist aus mehreren Ebenen aufgebaut. Jede Ebene besteht dabei aus mehreren Quantenneuronen, welche jeweils von einzelnen Qubits gebildet werden. Qubits sind veränderbare Quantenzustände und entsprechen den Bits eines klassischen Computers. Die erste Ebene dient der Eingabe von Quantendaten -indem die Qubits entsprechend manipuliert werden - die letzte Ebene der Ergebnisausgabe. Die Zahl der Zwischenebenen ist variabel. So können je nach Bedarf Netze geeigneter Größe erzeugt werden: Netze mit wenigen Zwischenebenen arbeiten schneller, tiefere Netzwerke mit zahlreichen Ebenen sind auch komplexen Aufgaben gewachsen.
Während bestehende quantenneuronale Netze häufig nur ganz bestimmte Quantenprobleme bearbeiten können, ist die am Institut für theoretische Physik der Leibniz Universität Hannover entwickelte Struktur universell einsetzbar und damit in der Lage beliebige Rechnungen auszuführen. Sie ist zudem effizient lernfähig und tolerant gegenüber internen Störquellen, die die Daten verfälschen können.
Für einen Test der Leistungsfähigkeit haben die Wissenschaftlerinnen und Wissenschaftler ihr quantenneuronales Netz mit Trainingsdaten gefüttert. Das Ergebnis überzeugt: Bereits mit wenige Daten, kommt es zur optimalen Lösung. Außerdem kann das System effizient relevante Daten von irrelevanten unterscheiden. Da Experimente häufig auch viel so genannten Datenmüll erzeugen, eine wichtige Eigenschaft. Das neue quantenneuronale Netz ist selbst dann noch lernfähig, wenn mehr als die Hälfte der Daten nicht zum Muster gehören.
Bis zu möglichen Anwendungen ist es aber noch ein weiter Weg. Zukünftig könnte das quantenmaschinelle Lernen dann helfen, dort relevante Quantenzustände zu identifizieren, wo Experimente zahllose Quantenzustände erzeugen, wie das etwa in der Gravitationswellenforschung der Fall ist.
Die Arbeit entstand im Rahmen des Sonderforschungsbereichs SFB 1227 "DQ-mat" der Deutschen Forschungsgemeinschaft (DFG), der sich mit der Kontrolle von komplexen quantenmechanischen Systemen beschäftigt. Im Rahmen des SFBs arbeiten experimentelle und theoretische Physiker der Leibniz Universität Hannover, des ZARM Bremen und der PTB Braunschweig zusammen.
Originalartikel
Training deep quantum neural networksKerstin Beer, Dmytro Bondarenko, Terry Farrelly, Tobias J. Osborne, Robert Salzmann, Daniel Scheiermann & Ramona Wolf
Nature Communications 11: 808 (2020)
DOI: https://doi.org/10.1038/s41467-020-14454-2
Hinweis an die Redaktion:
Für weitere Informationen steht Ihnen Kerstin Beer, Institut für Theoretische Physik, Leibniz Universität Hannover, unter Telefon +49 511 762 17505 oder per E-Mail unter kerstin.beer@itp.uni-hannover.de gern zur Verfügung.