Der erste praktische Einsatz eines Elektromotors erfolgte 1834 durch Thomas Davenport zum Antrieb eines Eisenbahnwagens auf einem kurzen Gleisabschnitt. Heute sind Motoren die wichtigste Antriebstechnologie in den Bereichen elektrifizierter Transport, Industrieautomatisierung sowie Handels- und Konsumgüter. Eine Studie der Internationalen Energieagentur (IEA) schätzt, dass 40 bis 45% des weltweit erzeugten Stroms von motorbetriebenen Anlagen verbraucht wird.
In den letzten Jahrzehnten fanden bürstenlose Motoren aufgrund ihrer höheren Effizienz, Leistungsdichte und Zuverlässigkeit immer mehr Anklang. Mit der zunehmenden Verbreitung bürstenloser Motoren wurden auch entsprechende Regelungstechniken entwickelt, um eine präzise Regelung dieser Motoren zu ermöglichen und ihre Effizienz weiter zu steigern.
Die feldorientierte Regelung (FOC) ist eine solche Technik, die eine präzise Regelung über den gesamten Drehmoment- und Drehzahlbereich für bürstenlose Motoren gewährleistet.
Wie das obige Schaubild zeigt, stützt sich der feldorientierte Ansatz auf PI-Regler für Drehzahl-, Iq- und Id-Regelkreise. PI-Regler sind einfach und leicht zu implementieren, können aber in Situationen, in denen Unsicherheitsfaktoren und externe Störungen vorhanden sind, zu einer Herausforderung bei der Feinabstimmung werden. Einige Beispiele hierfür sind:
- Unsicherheitsfaktoren bei Motorparametern und Systemdynamik
- Veränderungen der Motorparameter (Widerstand, Induktivität, Gegen-EMK usw.) durch Verschleiß, Alterung und Betriebstemperatur
- Schwankungen des Lastmoments und der Eingangsspannung
- Veränderungen im Funktionsbereich und Hysterese im Motorverhalten
Abgesehen von der Berücksichtigung dieser Faktoren muss auch bedacht werden, dass die Regler neu eingestellt werden müssen, wenn die Motoren für Ihre Anwendung neu dimensioniert werden. Dieser Vorgang ist mit erheblichem Aufwand verbunden. Um diese Herausforderungen zu meistern, können hochentwickelte Regelungsalgorithmen verwendet werden, um feldorientierte Regler zu entwerfen, die diese Faktoren berücksichtigen und die Genauigkeit, Reaktionszeit und Effizienz der Motorregelung auch in kritischen Umgebungen verbessern.
Nach diesem Whitepaper werden Sie ein solides Verständnis für den Entwurf feldorientierter Regler haben. In diesem Paper werden die passenden Tools in MATLAB® und Simulink® erörtert, die bei der Arbeit mit folgenden Regelungstechniken zu verwenden sind:
- Aktive Regelung zur Störungsunterdrückung (ADRC)
- Modellprädiktive Regelung (MPC)
- Reinforcement Learning (RL)
Die nachstehende Tabelle bietet einen Überblick über die Unterschiede zwischen all diesen komplexen Regelungsmethoden und PID.
ADRC | MPC | RL | PID-Regler | |
Funktionsweise | Verwendet einen erweiterten Zustandsbeobachter (ESO), um Unsicherheitsfaktoren und Störungen in Echtzeit abzuschätzen und zu kompensieren | Verwendet Modellvorhersagen zur Optimierung von Regelungsmaßnahmen über einen Prognosehorizont | Erlernt optimale Regelungsstrategien direkt anhand von Daten durch Trial and Error (wiederholtes Ausprobieren) | Berechnet das Regelungssignal auf Basis der Proportional-, Integral- und Differentialfunktion des Fehlersignals |
Verhalten bei Nichtlinearitäten, Unsicherheiten und externen Störungen im System – Gut |
|
|
|
|
Wie einfach ist der Einstieg und das Erreichen guter Ergebnisse? – Leicht |
|
|
|
|
Kann die Leistung anhand von standardmäßigen linearen Metriken wie Verstärkung und Phasenrand verifiziert werden? | Ja | Nein | Nein | Ja |
Diese Methode kann die bessere Alternative zu PID sein, wenn Folgendes zutrifft: | Eine fehlerresistente Störungsunterdrückung wird bei unsicherer Dynamik, unbekannten Störungen und variierenden Motorparametern gewünscht, ohne dass ein detailliertes Systemmodell erforderlich ist. | Der Umgang mit Randbedingungen/Betriebsgrenzen von Motoren und/oder eine vorhersagebasierte Regelung sind nötig. | Es ist schwierig, die Motordynamik und die Betriebsbedingungen zu charakterisieren, und es ist praktischer, Regelungsstrategien direkt über Daten zu lernen. | — |
Vergleich moderner Regelungsmethoden im Vergleich zur PID-Regelung.
Die aktive Regelung zur Störungsunterdrückung stellt eine Erweiterung der PID-Regelung dar und bietet den großen Vorteil, dass sie ein breiteres Spektrum an Unsicherheitsfaktoren, einschließlich unbekannter Dynamiken und Störungen, unter Beibehaltung der Reglerleistung verarbeiten kann.
Der Algorithmus verwendet eine Modellannäherung der bekannten Systemdynamik und fasst unbekannte Dynamiken und Störungen als einen erweiterten Zustand der Regelstrecke zusammen. Ein erweiterter Zustandsbeobachtungsalgorithmus wird ebenso verwendet, um diesen Zustand einzuschätzen und eine Störungsunterdrückungsregelung zu implementieren. Erreicht wird dies, indem die Auswirkungen der geschätzten Störung auf das System reduziert werden und das System auf das gewünschte Verhalten ausgerichtet wird.
Bei Hochgeschwindigkeitsanwendungen von Industrieroboterarmen ist die präzise Regelung der bürstenlosen Motoren, die die Gelenke und Glieder des Roboters antreiben, von entscheidender Bedeutung für eine akkurate Bewegung und Positionierung. Die Strukturelemente vieler Roboter weisen jedoch in kleinem Umfang gewisse Spielräume (Flexibilität) auf, was zu einer zusätzlichen Dynamik führt, die unerwünschte Schwingungen oder Vibrationen verursacht.
PID-Regler können mit dieser flexiblen Dynamik nur schwer zurechtkommen und erfordern unter Umständen eine komplexe Modellierung und Abstimmung, um die erforderliche Stabilität und Leistung zu gewährleisten. Alternativ ist der ADRC eine effektive Lösung für den Umgang mit der Dynamik von solchen flexiblen Gelenken und Glieder. Erreicht wird dies, indem die durch die zusätzliche Dynamik verursachten Störungen in Echtzeit geschätzt und kompensiert werden, ohne dass ein explizites Modell des Systems erforderlich ist.
Mit Simulink Control Design™ steht der Active Disturbance Rejection Control Simulink-Block zur Verfügung, mit dem Benutzer den Regler entwerfen können. Die Benutzer testen den Regler in einer Simulation auf Systemebene, indem sie einen Umrichter, einen Motor und andere elektrische und mechanische Dynamiken einbeziehen. Sobald der Regler in der Simulation getestet wurde, kann mithilfe von Embedded Coder® C/C++ Code aus diesem vorgefertigten Block generiert werden. Aufgrund ähnlicher Speicher- und Durchsatzanforderungen wie bei einem PID-Regler kann der Code für die ADRC für vorhandene Motorregler-Hardware bereitgestellt werden. Dadurch lässt sich die ADRC auf einfache Weise umsetzen – das gilt insbesondere für Neueinsteiger, die mit dieser Technik noch nicht vertraut sind.
Im folgenden Diagramm wird die Leistung der Referenzverfolgung des Drehzahlsollwerts eines ADRC (blau) mit der eines PID-Reglers (orange) verglichen. Die PID-Verstärkungsfaktoren wurden mithilfe der konventionellen Methode mit geschätzten Motorparametern abgestimmt. Der ADRC weist glattere Einschwingvorgänge und weniger Überschwingen auf als der PID. Darüber hinaus zeigt der ADRC eine bessere Störungsunterdrückung bei einem Lastwechsel des Motors (5 bis 50 % des Nenndrehmoments) an der 2-Sekunden-Marke. Dabei ist zu beachten, dass das verwendete Simulationsmodell die Kreuzkopplung von d- und q-Achse nicht berücksichtigt.
Regler-Typ | Ausführungszeit |
PI-Regler als Stromregler | 13,1 𝜇Sek. |
ADRC-Regler als Stromregler | 14,65 𝜇Sek. |
Profiling-Ergebnisse auf Texas Instruments™ C2000™.
Weitere Informationen
- Aktive Regelung der Störungsunterdrückung - Dokumentation
- Implementierung einer PMSM-Drehzahlregelung mithilfe einer aktiven Regelung zur Störungsunterdrückung auf einem Texas Instruments C2000 - Beispiel
- Entwurf einer aktiven Regelung zur Störungsunterdrückung für die BLDC-Drehzahlregelung mithilfe von PWM - Beispiel
Die modellprädiktive Regelung ist eine optimierungsbasierte Regelungstechnik, die in den 1980er-Jahren zunächst für den Einsatz in der Verfahrenstechnik, z. B. in Chemiewerken und Raffinerien, entwickelt wurde. Seitdem haben die Fortschritte in der Mikrocontrollertechnologie, der digitalen Signalverarbeitung und den Optimierungsalgorithmen die Anwendung der MPC in der Leistungselektronik ermöglicht. Infolgedessen ist zu erwarten, dass die Verbreitung der MPC in den kommenden Jahren zunehmen wird.
Das Grundprinzip der MPC besteht in der Verwendung eines mathematischen Prognosemodells zur Vorhersage der zukünftigen Zustände eines geregelten Systems innerhalb eines Prognosehorizonts. Der Regler berechnet anschließend eine Abfolge optimaler Regelungsmaßnahmen, um die gewünschte Referenzbahn zu verfolgen und dabei die Randbedingungen zu erfüllen. Hierfür löst der Algorithmus ein Echtzeit-Optimierungsproblem. Die erste Regelungsmaßnahme wird auf das System angewandt, und die nachfolgenden Maßnahmen nicht berücksichtigt. Dieser Vorgang wird im nächsten Zeitschritt wiederholt.
Die MPC bietet gegenüber der PID-Regelung einen erheblichen Vorteil für den feldorientierten Ansatz, da sie explizit die Betriebsgrenzen und Randbedingungen des Motors behandelt und gleichzeitig die Kreuzkopplung zwischen den Regelkreisen berücksichtigt. Das bedeutet, dass der Regler physikalische Grenzen wie Drehmomentsättigung, Strom- und Spannungsgrenzen sowie Grenzen der Änderungsgeschwindigkeit berücksichtigen kann. Durch die Einbeziehung dieser Randbedingungen in das Optimierungsproblem kann die MPC Missachtungen dieser Randbedingungen verhindern, während gleichzeitig eine Kostenfunktion, die die Steuerungsziele darstellt, minimiert wird. Bei Anwendungen wie der Steuerung von Traktionsmotoren für Elektrofahrzeuge sind Randbedingungen wie die Begrenzung des Motordrehmoments, die Begrenzung des Batteriestroms und Temperaturgrenzen von entscheidender Bedeutung, um einen sicheren Betrieb zu gewährleisten und Schäden an den Komponenten zu vermeiden. PID-Reglern fehlt eine explizite Möglichkeit, mit Randbedingungen umzugehen, was in bestimmten Fällen zu unerwünschtem Tracking-Verhalten, wie Überschwingen, Drehzahl- oder Drehmomentsättigung oder auch Instabilität, führen kann.
Die MPC verfügt über eine Vorschaufunktion, die es ihr ermöglicht, Regelungsmaßnahmen anhand der Kenntnis des zukünftigen Referenzsignals zu optimieren, was zu einer verbesserten Reaktion auf die Tracking-Sollwerte führt. Im Gegensatz dazu sind PI-Regler darauf beschränkt, auf Fehler im aktuellen Systemzustand zu reagieren. Darüber hinaus kann die integrale Regelungskomponente in PI-Reglern eine Verzögerung hervorrufen, die die dynamische Reaktion des Regelkreises verlangsamt.
Die Model Predictive Control Toolbox™ vereinfacht den Aufbau eines modellprädiktiven Reglers für FOC-Anwendungen in MATLAB durch integrierte Simulink-Blöcke und Algorithmen. Mithilfe der eingebauten MPC-Blöcke lässt sich der innere Regelkreis eines FOCs einrichten. Bei dieser inneren Regelkreissteuerung werden die Statorspannungen der d-Achse und der q-Achse berechnet, um den Motor mit der gewünschten Drehzahl anzutreiben und gleichzeitig die Kostenfunktion zu minimieren, die den Kompromiss zwischen den verschiedenen Regelungszielen darstellt.
Sie können die Leistung des MPC-Reglers evaluieren, indem Sie ihn in einem geschlossenen Regelkreis mit der Motorregelstrecke in MATLAB oder Simulink simulieren. Nach der ersten Evaluierung können Sie den Reglerentwurf weiter optimieren, indem Sie die Parameter anpassen und verschiedene Simulationsszenarien testen.
Sobald der Regler in einer Simulation getestet wurde, können Sie Simulink Coder™ verwenden, um aus dem MPC-Block den entsprechenden C und C++ Code zu generieren, den Sie dann auf Ihrer Embedded-Controller-Hardware bereitstellen können.
Regler-Typ | Ausführungszeit |
PI-Regler als Stromregler | 13,1 𝜇Sek. |
MPC-Controller als Stromregler (läuft mit 5 KHz) | 134 𝜇Sek. |
Profiling-Ergebnisse von Speedgoat®-Hardware.
Obwohl die MPC zahlreiche Vorteile für den feldorientierten Ansatz bietet, müssen auch einige Einschränkungen in Kauf genommen werden. Eine der größten Herausforderungen ist die Komplexität der Berechnungen und die Echtzeitimplementierung des Algorithmus. Die MPC kann sowohl speicher- als auch rechenintensiv sein, was die Ausführung auf Hardware mit begrenzten Ressourcen zu einer Herausforderung macht. Darüber hinaus ist die Genauigkeit des Vorhersagemodells entscheidend für seine Leistung. Das Modell muss möglicherweise aktualisiert oder neu identifiziert werden, falls sich die Motor- oder Lastdynamik ändert. All diese Faktoren sollten daher bei der Entwicklung eines MPC-basierten Motorregelungssystems berücksichtigt werden.
Weitere Informationen
Das Reinforcement Learning ist eine Technik des Machine Learning, die es einem Computeragenten ermöglicht, das Treffen von Entscheidungen zu erlernen, indem er mit seiner Umgebung interagiert und auf der Grundlage seiner Aktionen entsprechende Belohnungen oder Bestrafungen erhält. Das Ziel des Agenten ist es, eine Strategie zu erlernen, die die kumulativen Belohnungen über die Zeit maximiert. Dies geschieht nach dem Prinzip „Trial and Error“, bei dem die Strategie auf Grundlage des erhaltenen Feedbacks laufend angepasst wird. Das Lernen erfolgt ohne menschliches Zutun und stützt sich ausschließlich auf die Beobachtungen des Agenten über seine Umgebung.

Schematische Darstellung von Reinforcement Learning
Das Reinforcement Learning bietet eine Alternative zur linearen Regelung, wenn komplexe nichtlineare Dynamiken und unsichere Betriebsumgebungen es zu einer Herausforderung machen, eine zufriedenstellende Tracking-Leistung zu erzielen. Dies ist besonders nützlich, wenn es schwierig ist, die Motoren und ihre Betriebsbedingungen zu charakterisieren, um die Regler darauf abzustimmen.
So arbeiten beispielsweise Landmaschinen mit PMSMs in unterschiedlichen und schwierigen Umgebungen, in denen sie mit unebenem Gelände, wechselnden Bodenarten, schwankender Feuchtigkeit und unterschiedlicher Verdichtung konfrontiert sind. Diese Umgebungsschwankungen sind nur schwierig zu charakterisieren, was eine Herausforderung bei der Abstimmung von PI-basierten feldorientierten Reglern darstellt, um eine zufriedenstellende Leistung beim Drehmoment-Tracking zu erzielen. Eine entsprechend trainierte Reinforcement-Learning-Strategie kann sich an diese Variablen anpassen und die für solche Anwendungen erforderliche Tracking-Leistung erbringen.
Das Reinforcement Learning bietet zahlreiche Vorteile. So kann beispielsweise ein einziger Regler für die Regelung von Motordrehzahl und -strom verwendet werden, anstatt für jeden dieser Regelkreise in verschiedenen Betriebspunkten separate PID-Regler einstellen zu müssen. Darüber hinaus erlaubt das Reinforcement Learning die Verarbeitung mehrerer Eingaben und Ausgaben von verschiedenen Sensoren und Aktoren.
Mithilfe von MATLAB und der Reinforcement Learning Toolbox™ lassen sich Reinforcement-Learning-Regler für den feldorientierten Ansatz konfigurieren. Die Toolbox bietet zahlreiche Funktionen und einen Reinforcement Learning Agent als Simulink-Block zur Implementierung der Reinforcement-Learning-Regelung sowie integrierte und benutzerdefinierte Algorithmen zum Trainieren des Reglers.

Ein Reinforcement-Learning-Regler für den inneren Stromkreis des feldorientierten Reglers. Der Reinforcement-Learning-Reglerblock steuert die Ströme der d-Achse und der q-Achse und erzeugt die entsprechenden Statorspannungen, die für den Antrieb des Motors mit einer bestimmten Geschwindigkeit erforderlich sind.
Nach dem Training können Sie Embedded Coder verwenden, um C++ Code zu generieren, der die optimale Policy auf eingebetteten Plattformen bereitstellt.
Regler-Typ | Ausführungszeit |
PI-Regler als Stromregler | 13,1 𝜇Sek. |
Reinforcement-Learning-Regler als Stromregler (läuft mit 5 KHz) | 85 𝜇Sek. |
Profiling-Ergebnisse mit TD3-Agent auf Speedgoat-Hardware.
Allerdings ist zu beachten, dass das Reinforcement Learning zwar eine leistungsfähige Alternative zu herkömmlichen Reglern wie PID-Reglern sein kann, aber dennoch rechenintensiv ist und Zeit und Daten für das Training des Reglers benötigt. Es ist daher von entscheidender Bedeutung, diese Abwägungen bei der Auswahl des Reinforcement Learning zu berücksichtigen. Ebenso sollte die Entscheidung von den spezifischen Anforderungen der Anwendung abhängen und Faktoren wie verfügbare Ressourcen, Zeit und Daten berücksichtigen. In bestimmten Fällen kann die Kombination von Reinforcement Learning mit PI-Reglern von Vorteil sein. Durch die Integration der beiden Ansätze kann ein Reinforcement Learning Agent entsprechende Korrektursignale erzeugen, die die Regelungssignale der PI-Regler ergänzen. Diese Kombination ermöglicht es dem System, komplexe, nichtlineare oder unvorhergesehene Bedingungen zu beherrschen, die außerhalb des Nennbereichs der PI-Regler liegen.
In diesem Whitepaper wurden alternative Regelungsstrategien für feldorientierte Regler in Elektromotoren vorgestellt und erörtert, die sich auf aktive Regelung zur Störungsunterdrückung, modellprädiktive Regelung und Reinforcement Learning konzentrieren. Diese modernen Regelungstechniken bieten eine verbesserte Genauigkeit, Reaktionszeit und Effizienz der Motorregelung – selbst in komplexen Umgebungen.
MATLAB, Simulink und die zugehörigen Toolboxen bieten eine zugängliche Plattform für den Entwurf und die Implementierung dieser innovativen Regelungstechniken für Motorregelungsanwendungen. Bei der Auswahl einer geeigneten Regelungsstrategie für eine bestimmte Anwendung ist es jedoch unerlässlich, die Kompromisse zwischen Rechenaufwand, Echtzeitimplementierung und Datenanforderungen zu berücksichtigen.
Website auswählen
Wählen Sie eine Website aus, um übersetzte Inhalte (sofern verfügbar) sowie lokale Veranstaltungen und Angebote anzuzeigen. Auf der Grundlage Ihres Standorts empfehlen wir Ihnen die folgende Auswahl: United States.
Sie können auch eine Website aus der folgenden Liste auswählen:
So erhalten Sie die bestmögliche Leistung auf der Website
Wählen Sie für die bestmögliche Website-Leistung die Website für China (auf Chinesisch oder Englisch). Andere landesspezifische Websites von MathWorks sind für Besuche von Ihrem Standort aus nicht optimiert.
Amerika
- América Latina (Español)
- Canada (English)
- United States (English)
Europa
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)