Neuronaler Schaltkreis

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von QNN)
Zur Navigation springen Zur Suche springen
Beispielmodell eines feedforward-neuronalen Netzwerks. Für ein Deep-Learning-Netzwerk wird die Anzahl der verborgenen Schichten erhöht.

Neuronale Schaltkreise oder quantum-neuronale Netzwerke (QNN) sind rechnergestützte künstliche neuronale Netzmodelle, die auf den Prinzipien der Quantenmechanik basieren. Die ersten Ideen zur neuronalen Quantenberechnung wurden 1995 voneinander unabhängig von Subhash Kak und Ron Chrisley veröffentlicht,[1][2] die sich mit der Theorie des Quantenbewusstseins beschäftigten, die besagt, dass Quanteneffekte eine Rolle in der Kognition spielen. Typische Forschung zu neuronalen Quantennetzen besteht jedoch darin, klassische Modelle künstlicher neuronaler Netze (die bei Künstlichen Intelligenzen häufig für die wichtige Aufgabe der Mustererkennung eingesetzt werden) mit den Vorteilen der Quanteninformation zu kombinieren, um effizientere Algorithmen zu entwickeln.[3][4][5] Eine wichtige Motivation für diese Untersuchungen ist die Schwierigkeit, klassische neuronale Netze zu trainieren, insbesondere in Big-Data-Anwendungen. Die Hoffnung besteht darin, dass Merkmale von Quantenprozessen wie Quantenparallelität oder die Effekte von Interferenz und Verschränkung als Ressourcen genutzt werden können. Da sich die technologische Umsetzung eines Quantencomputers noch in einem frühen Stadium befindet, handelt es sich bei solchen quantum-neuronalen Netzwerkmodellen meist um theoretische Vorschläge, die auf ihre vollständige Umsetzung in physikalischen Experimenten warten.

Die meisten neuronalen Quantennetze werden als feedforward-Netze entwickelt. Ähnlich wie ihre klassischen Gegenstücke nimmt diese Struktur Eingaben von einer Qubit-Schicht auf und leitet diese Eingaben an eine andere Qubit-Schicht weiter. Diese Qubit-Schicht wertet diese Informationen aus und gibt die Ausgabe an die nächste Schicht weiter. Schließlich führt der Weg zur letzten Schicht der Qubits.[6][7] Die Schichten müssen nicht die gleiche Breite haben, das heißt, sie müssen nicht die gleiche Anzahl an Qubits haben wie die Schicht davor oder danach. Mit dieser Struktur wird ähnlich wie bei klassischen künstlichen neuronalen Netzen trainiert, welcher Weg eingeschlagen werden soll. Quantum-neuronale Netze beziehen sich auf drei verschiedene Kategorien: Quantencomputer mit klassischen Daten, klassischer Computer mit Quantendaten und Quantencomputer mit Quantendaten.[6]

Die Forschung zu quantum-neuronalen Netzwerken steht noch in einem frühen Stadium, und es wurde eine Vielzahl von Vorschlägen und Ideen unterschiedlichen Umfangs und unterschiedlicher mathematischer Genauigkeit vorgelegt. Die meisten von ihnen basieren auf die Theorie, klassische binäre oder McCulloch-Pitts-Neuronen durch ein Qubit (das als Quron bezeichnet werden kann) zu ersetzen, was zu neuronalen Einheiten führt, die sich in einer Überlagerung der Zustände „Feuern“ und „Ruhen“ befinden können.

Quantenperzeptrone

[Bearbeiten | Quelltext bearbeiten]

In vielen Theorien wird versucht, ein Quantenäquivalent für die Perzeptroneinheit zu finden, aus der neuronale Netze aufgebaut sind. Ein Problem besteht darin, dass nichtlineare Aktivierungsfunktionen nicht unmittelbar der mathematischen Struktur der Quantentheorie entsprechen, da eine Quantenentwicklung durch lineare Operationen beschrieben wird und zu probabilistischen Beobachtungen führt. Theorien, die Perzeptronaktivierungsfunktion mit einem quantenmechanischen Formalismus nachzuahmen, reichen von speziellen Messungen[8][9] bis zur Postulierung nichtlinearer Quantenoperatoren (ein umstrittener mathematischer Rahmen).[10] Eine direkte Implementierung der Aktivierungsfunktion unter Verwendung des schaltungsbasierten Modells der Quantenberechnung wurde kürzlich von Maria Schuld, Ilya Sinayskiy und Francesco Petruccione basierend auf dem Quantenphasenschätzungsalgorithmus vorgeschlagen.[11]

Quantennetzwerke

[Bearbeiten | Quelltext bearbeiten]

In größerem Maßstab haben Forscher versucht, neuronale Netze auf die Quantenumgebung zu übertragen. Eine Möglichkeit, ein Quantum-Neuron zu konstruieren, besteht darin, zunächst klassische Neuronen zu verallgemeinern und sie dann weiter zu verallgemeinern, um einheitliche Gatter zu erzeugen. Interaktionen zwischen Neuronen können quantenmäßig mit einheitlichen Gattern oder klassisch durch Messung der Netzwerkzustände gesteuert werden. Diese hochrangige theoretische Technik kann breit angewendet werden, indem verschiedene Arten von Netzwerken und unterschiedliche Implementierungen von Quantum-Neuronen verwendet werden, wie etwa photonisch implementierte Neuronen[7][12] und Quantenreservoirprozessoren (Quantenversion des Reservoir-Computing).[13] Die meisten Lernalgorithmen folgen dem klassischen Modell des Trainings eines künstlichen neuronalen Netzwerks, um die Eingabe-Ausgabe-Funktion eines bestimmten Trainingssatzes zu lernen. Dabei werden klassische Rückkopplungsschleifen verwendet, um die Parameter des Quantensystems zu aktualisieren, bis sie einer optimalen Konfiguration entsprechen. Lernen als Parameteroptimierungsproblem wurde auch durch adiabatische Modelle des Quantencomputings angegangen.[14]

Quantum-neuronale Netze können auf das algorithmische Design angewendet werden: Bei gegebenen Qubits mit einstellbaren gegenseitigen Wechselwirkungen kann man versuchen, diese Wechselwirkungen nach den klassischen Regeln der Backpropagation aus einem Trainingssatz gewünschter Eingabe-Ausgabe-Beziehungen zu lernen, die als Verhalten des gewünschten Ausgabealgorithmus angesehen werden.[15] Das Quantennetzwerk „lernt“ also einen Algorithmus.[16]

Quantenassoziativspeicher

[Bearbeiten | Quelltext bearbeiten]

Der erste Quantenassoziativspeicher-Algorithmus wurde 1999 von Dan Ventura und Tony Martinez eingeführt.[17] Die Autoren versuchen nicht, die Struktur künstlicher neuronaler Netzwerkmodelle in die Quantentheorie zu übersetzen, sondern schlagen einen Algorithmus für einen schaltungsbasierten Quantencomputer vor, um einen Assoziativspeicher zu simulieren. Die Speicherzustände (in neuronalen Hopfield-Netzen in den Gewichtungen der neuronalen Verbindungen gespeichert) werden in eine Überlagerung geschrieben, und ein Grover-ähnlicher Quantensuchalgorithmus ruft den Speicherzustand ab, der einer bestimmten Eingabe am nächsten kommt. Daher handelt es sich hierbei nicht um einen vollständig inhaltsadressierbaren Speicher, da nur unvollständige Muster abgerufen werden können.

Der erste wirklich inhaltsadressierbare Quantenspeicher, der Muster auch aus fehlerhaften Eingaben abrufen kann, wurde von Carlo A. Trugenberger vorgeschlagen.[18][19][20] Beide Speicher können eine exponentielle (in n Qubits ausgedrückte) Anzahl von Mustern speichern, können jedoch aufgrund des No-Cloning-Theorems und ihrer Zerstörung bei der Messung nur einmal verwendet werden.

Trugenberger hat jedoch gezeigt, dass sein proababilistisches Modell des Quantenassoziativspeichers effizient implementiert und mehrfach für jede Polynomanzahl gespeicherter Muster wiederverwendet werden kann, einen großen Vorteil gegenüber klassischen Assoziativspeichern mit sich bringt.[19]

Quanteninspirierte klassische neuronale Netze

[Bearbeiten | Quelltext bearbeiten]

Ein „quanteninspiriertes“ Modell, das Theorien aus der Quantenmechanik nutzt, um ein auf Unschärfelogik basierendes neuronales Netzwerk zu implementieren, hat großes Interesse in der Fachwelt geweckt.[21]

Quantum-neuronale Netze können theoretisch ähnlich trainiert werden wie klassische bzw. künstliche neuronale Netze. Ein wesentlicher Unterschied liegt in der Kommunikation zwischen den Schichten eines neuronalen Netzes. Bei klassischen neuronalen Netzen kopiert das aktuelle Perzeptron am Ende einer bestimmten Operation seine Ausgabe auf die nächste Schicht von Perzeptronen im Netzwerk. In einem neuronalen Quantennetzwerk, in dem jedes Perzeptron ein Qubit ist, würde dies jedoch gegen das No-Cloning-Theorem verstoßen.[6][22] Eine vorgeschlagene allgemeine Lösung hierfür besteht darin, die klassische Fan-Out-Methode durch eine beliebige Einheit zu ersetzen, die die Ausgabe eines Qubits auf die nächste Qubitschicht verteilt, aber nicht kopiert. Mit diesem Fan-Out-Unitary () mit einem Dummy-Zustands-Qubit in einem bekannten Zustand (Ex. im Basiszustand des Qubits), auch Ancilla-Bit genannt, können die Informationen von einem Qubit auf die nächste Schicht von Qubits übertragen werden. Dieser Prozess entspricht der Quantenoperationsanforderung der Reversibilität[7][23]

Mithilfe dieses Quantum-feedforward-Netzwerks können tiefe neuronale Netzwerke effizient ausgeführt und trainiert werden. Ein tiefes neuronales Netzwerk ist im Wesentlichen ein Netzwerk mit vielen verborgenen Schichten, wie im obigen Beispielmodell eines neuronalen Netzwerks zu sehen ist. Da das diskutierte quantum-neuronale Netzwerk einheitliche Fan-out-Operatoren verwendet und jeder Operator nur auf seine jeweilige Eingabe einwirkt, werden jeweils nur zwei Schichten verwendet.[6] Kein Unitary-Operator wirkt zu einem bestimmten Zeitpunkt auf das gesamte Netzwerk ein, was bedeutet, dass die Anzahl der für einen bestimmten Schritt erforderlichen Qubits von der Anzahl der Eingaben in einer bestimmten Schicht abhängt. Da Quantencomputer für ihre Fähigkeit bekannt sind, mehrere Iterationen in kurzer Zeit auszuführen, hängt die Effizienz eines quantum-neuronalen Netzwerks ausschließlich von der Anzahl der Qubits in einer bestimmten Schicht ab und nicht von der Tiefe des Netzwerks.[23]

Kostenfunktionen

[Bearbeiten | Quelltext bearbeiten]

Um die Wirksamkeit eines neuronalen Netzwerks zu bestimmen, wird eine Kostenfunktion verwendet, die im Wesentlichen die Nähe der Ausgabe des Netzwerks zur erwarteten oder gewünschten Ausgabe misst. In einem klassischen neuronalen Netzwerk bestimmen die Gewichtungen () und Verzerrungen () bei jedem Schritt das Ergebnis der Kostenfunktion . Beim Training eines klassischen neuronalen Netzwerks werden die Gewichtungen und Verzerrungen nach jeder Iteration angepasst und mit Gleichung 1 unten angegeben, wobei die gewünschte Ausgabe ist und die aktuelle Ausgabe ist. Die Kostenfunktion ist optimiert, wenn . Für ein quantum-neuronales Netzwerk wird die Kostenfunktion durch Messen der Genauigkeit des Ergebniszustands bestimmt () und mit dem gewünschten Ergebniszustand () verglichen, siehe Gleichung 2 unten. In diesem Fall werden die Einheitsoperatoren nach jeder Iteration angepasst und die Kostenfunktion wird bis optimiert.[6]

Gleichung 1:

Gleichung 2:

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Subhash C. Kak: Quantum Neural Computing. In: Advances in Imaging and Electron Physics. Band 94. Amsterdam 1995, S. 259–313, doi:10.1016/S1076-5670(08)70147-2.
  2. Ron Chrisley: Quantum Learning. In: P. Pylkkänen, P. Pylkkö (Hrsg.): New directions in cognitive science: Proceedings of the international symposium, Saariselka, 4–9 August 1995, Lapland, Finland. Helsinki 1995, ISBN 951-22-2645-6, S. 77–89.
  3. Adenilton J. da Silva, T. B. Ludermir, W. Rosa de Oliveira: Quantum perceptron over a field and neural network architecture selection in a quantum computer. In: Neural Networks. Band 76. Amsterdam, S. 55–64, doi:10.1016/j.neunet.2016.01.002.
  4. Massimo Panella, G. Martinelli: Neural networks with quantum architecture and quantum learning. In: International Journal of Circuit Theory and Applications. Jg. 39, Nr. 1. London 2011, S. 61–77, doi:10.1002/cta.619.
  5. Maria Schuld, I. Sinayskiy, F. Petruccione: The quest for a Quantum Neural Network. In: Quantum Information Processing. Jg. 13. Dordrecht 2014, S. 2567–2586, doi:10.1007/s11128-014-0809-8.
  6. a b c d e Kerstin Beer et al.: Training deep quantum neural networks. Nature Communications, 2020, abgerufen am 7. November 2023.
  7. a b c Kwok Ho Wan et al.: Quantum generalisation of feedforward neural networks. npj Quantum Information, 2017, abgerufen am 7. November 2023.
  8. Mitja Peruš: Neural Networks As A Basis For Quantum Associative Networks. CiteSeerX, abgerufen am 7. November 2023.
  9. Michail Zak, C. P. Williams: Quantum Neural Nets. In: International Journal of Theoretical Physics. Jg. 37. New York 1998, S. 651–684, doi:10.1023/A:1026656110699.
  10. Sanjay Gupta, R. K. P. Zia: Quantum Neural Networks. In: Journal of Computer and System Sciences. Band 63, Nr. 3. San Diego 2001, S. 355–383, doi:10.1006/jcss.2001.1769.
  11. Maria Schuld, I. Sinayskiy, F. Petruccione: Simulating a perceptron on a quantum computer. In: Physics Letters. A. Band 379, Nr. 7. Amsterdam 2015, S. 660–663, doi:10.1016/j.physleta.2014.11.061.
  12. Ajit Narayanan, T. Menneer: Quantum artificial neural network architectures and components. In: Information Sciences. Band 128, Nr. 3/4. New York 2000, S. 231–255, doi:10.1016/S0020-0255(00)00055-4.
  13. Sanjib Ghosh et al.: Quantum reservoir processing. npj Quantum Information, 2019, abgerufen am 7. November 2023.
  14. Hartmut Neven et al.: Training a Binary Classifier with the Quantum Adiabatic Algorithm. arXiv, 4. November 2008, abgerufen am 7. November 2023.
  15. Jeongho Bang et al.: A strategy for quantum algorithm design assisted by machine learning. New Journal of Physics, 14. Juli 2014, abgerufen am 7. November 2023.
  16. Elizabeth C. Behrman et al.: Quantum algorithm design using dynamic learning. In: Quantum Information and Computation. Jg. 8, Nr. 1/2. Princeton 2008, S. 12–29, doi:10.26421/QIC8.1-2-2.
  17. Dan Ventura, T. Martinez: A Quantum Associative Memory Based on Grover’s Algorithm. In: Artificial Neural Nets and Genetic Algorithms. Wien 1999, S. 22–27, doi:10.1007/978-3-7091-6384-9_5.
  18. Carlo A. Trugenberger: Probabilistic Quantum Memories. In: Physical Review Letters. Band 87, Nr. 6. Ridge 2001, doi:10.1103/physrevlett.87.067901.
  19. a b Carlo A. Trugenberger: Quantum Pattern Recognition. In: Quantum Information Processing. Jg. 1. Dordrecht 2002, S. 471–493, doi:10.1023/A:1024022632303.
  20. Carlo A. Trugenberger: Phase Transitions in Quantum Pattern Recognition. In: Physical Review Letters. Band 89, Nr. 27. Ridge 2002, doi:10.1103/physrevlett.89.277903.
  21. G. Purushothaman, N. B. Karayiannis: Quantum neural networks (QNNs): inherently fuzzy feedforward neural networks. In: IEEE Transactions on Neural Networks. Jg. 8, Nr. 3. New York 1997, S. 679–693, doi:10.1109/72.572106.
  22. Michael A. Nielsen, I. L. Chuang: Quantum Computation and Quantum Information. Cambridge 2010, ISBN 978-1-107-00217-3.
  23. a b Richard P. Feynman: Quantum mechanical computers. In: Foundations of Physics. Jg. 16. New York 1986, S. 507–531, doi:10.1007/BF01886518.