強化学習との比較
Smart MPCはデータからモデルを構築・学習しながら、上記のMPCのアルゴリズムによって制御を行います。 一方でAlphaGoやDQNのような(モデルフリーの)強化学習には、モデルという概念が存在せず、ダイナミクスの学習と行動の決定はすべてQ関数に押し込められています。
本来、状態の価値がわかることと、未来が予測できるかどうかということは別問題であり、これらは分割して解くことが可能であると考えられます。 強化学習を難しくしている原因の一つが、この2つの異なる問題を一気に解こうとしているためであり、Smart MPCではこれらを個別に解くことで学習を著しく簡単かつ安定にすることが出来ました。
一方で、Smart MPCは評価関数は別個与えてやる必要があるため、評価関数が比較的自明に与えられる問題、例えば温度の乖離やエネルギーの消費量など、であれば適用可能ですが、それが不可能な問題、例えば囲碁や将棋など状態の評価自体が最も重要である問題に対しては直接的には使うことが出来ません。 Bonanzaメソッドのように過去のデータから逆最適化問題を解くことで評価関数を構成することは可能ですが、このタイプの問題には強化学習を使うことが最適であると思われます。
PID制御との比較
PID制御は現代において最も使われている制御手法であり、多くのプラントや機械の制御に使われています。 非常に単純なアルゴリズムであり挙動が理解しやすいため現場で作業者が調整を行いやすいというメリットがある一方で、以下ような欠点を持ちます。
・一入力一出力(SISO)系しか扱えない。
・拘束条件を扱えない。
・学習機能はなく、すべて人間が調整する。
・パラメータの調整は系統的に行うことは難しく、一般的に勘と経験に基づいて行われている。
・根本的にむだ時間に弱く、ハンチングやオーバーシュートを防ぐためにはスミス補償器のような補助的な機器を用いる必要がある。これはPIDの長所である理解のしやすさを損なわせるものである。
Smart MPCは上記すべての欠点を克服することが可能であり、一方でPID制御に決して劣らない手軽さやわかりやすさを備えています。
E-Smart MPCの活用先
製造現場が直面する制御の課題解決
製造現場の制御システムでは、従来方式では対応しきれない課題が明確になりつつあります。
1. PID制御の限界
・むだ時間(遅延)を含むプロセスで性能が低下
・多変数制御で相互干渉が発生し、不安定化しやすい
・非線形システムでは調整が困難
2. 制御調整にかかる負担
・1プロセスあたりの調整に長時間を要する
・最適化が熟練エンジニアの経験に依存
・環境変化のたびに再調整が必要
3. 先進制御導入のハードル
・強化学習は学習データと計算資源の確保が課題
・従来MPCは専用システムが高額で、専門知識も必要
・産業用PCやサーバーを設置するスペースの確保が困難
E-Smart MPCは、これらの課題を現場レベルで解消するために設計されています。
- わずか数エピソードで最適制御を学習
- 制御盤にそのまま収まる省スペース設計
- 環境変化に自動適応するオンライン学習によりメンテナンスの手間を削減
現場環境に最適化された次世代の制御アプローチとして活用いただけます。
Smart MPC®は、常に最新のデータに基づいて制御モデルをアップデートし続けるため、経年劣化や設備更新に伴う制御性能の低下にも柔軟に対応可能です。
従来は人手に頼っていた制御操作やチューニングも自動化され、安定した性能を維持しながら、運用負荷の軽減を実現します。
下図は、Smart MPC®がすでに活用されている、あるいは今後適用可能な領域を示した例です。工場設備やモビリティ、ロボット、航空宇宙といった幅広い分野・機器に対応可能です。