Momentenmethode (Elektrotechnik)

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Die Momentenmethode, englisch Method of Moments, MoM, ist ein numerisches Lösungsverfahren aus dem Bereich der Elektrodynamik, welche im Rahmen von spezielle Computerprogrammen verwendet wird, um die Wechselwirkungen von elektromagnetischen Feldern mit Materie zu berechnen. Grundsätzlich beruht das Verfahren darauf Oberflächenintegrale, ausgedrückt in Form von Integralgleichungen für die in der Mehrzahl der praktischen Anwendungsfälle keine oder nur unzureichende analytische Lösungen bekannt sind, in lineare Systemgleichungen überzuführen, welche am Computer numerischen Lösungsmethoden zugänglich sind.

Die MoM wird beispielsweise verwendet um die Wechselwirkung von elektromagnetischen Feldern mit Materie zu simulieren. Weitere Anwendungsfelder sind Simulationsprogramme wie Numerical Electromagnetics Code (NEC), um das Strahlungsmuster einer Antenne berechnen um so zu optimierten Antennenkonstruktionen zu kommen.

Allgemeines[Bearbeiten | Quelltext bearbeiten]

Zur Lösung einer linearen Operatorgleichung in der Form

wird zunächst der Summenansatz

mit den Basisfunktionen in diese eingeführt. Durch Multiplikation der Operatorgleichung mit einem gleich großen Satz von Testfunktionen und Integration über das Lösungsgebiet, erhält man ein lineares Gleichungssystem der Form

mit

,

und

.

Die approximierte Lösung der Operatorgleichung ergibt sich dann direkt aus dem Summenansatz und der Lösung des linearen Gleichungssystems.

Setzt man ferner an, so spricht man auch vom Verfahren von Galerkin. Im Gegensatz zur Methode der finiten Elemente können jedoch auch Ganzbereichsbasisfunktionen verwendet werden.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Roger F. Harrington: Field Computation by Moment Methods. The Institute of Electrical and Electronics Engineers, Inc., 1993.}
  • Walton C. Gibson: The Method of Moments in Electromagnetics. 3. Auflage. CRC Press, 2022, ISBN 978-0-367-36506-6.