コンテンツにスキップ

鏡像降下法

出典: フリー百科事典『ウィキペディア(Wikipedia)』

鏡像降下法(きょうぞうこうかほう、: mirror descent)とは、数理最適化において微分可能関数極値を求める反復法の一種。

鏡像降下法は最急降下法乗算型重み更新法英語版を一般化したアルゴリズムである。

歴史

[編集]

鏡像降下法は1983年にアルカディ・ネミロフスキ英語版、ユーディンによって初めて提案された[1]

動機

[編集]

最急降下法において学習率の列 を微分可能関数 に適用する。関数 の極小値を求めるために初期点 から開始し、点列 を求めていく:

これを以下のように書き換える:

言い換えると、 は関数 の点 における一次式に近似の項 を追加した関数を最小化する。

この二乗ユークリッド距離はブレグマン距離英語版の特別な例である。別のブレグマン距離を使用すると特定の幾何上で最適化するのに適した Hedgeアルゴリズムなどのアルゴリズムを導くことができる[2][3]

定式化

[編集]

凸集合 上で凸関数 を最適化することを考える。そして でいくつかのノルム が与えられているとする。

また、各ノルムには-強凸関数の微分可能凸関数 が与えられる。これは距離生成関数(distance-generating function)と呼ばれ、その勾配 は鏡像写像(mirror map)として知られている。

初期点 から始め、各反復における鏡像降下法の手続きは:

  • 双対空間への写像:
  • 勾配ステップにおいて双対空間を更新する:
  • 主空間に写像:
  • 実行可能空間 に射影: 、ただし、ブレグマンダイバージェンス英語版である。

拡張

[編集]

オンライン最適化英語版における鏡像降下法はオンライン鏡像降下法(: Online Mirror Descent: OMD)として知られている[4]

脚注

[編集]
  1. ^ Arkadi Nemirovsky and David Yudin. Problem Complexity and Method Efficiency in Optimization. John Wiley & Sons, 1983
  2. ^ Nemirovski, Arkadi (2012) Tutorial: mirror descent algorithms for large-scale deterministic and stochastic convex optimization.https://www2.isye.gatech.edu/~nemirovs/COLT2012Tut.pdf
  3. ^ Mirror descent algorithm”. tlienart.github.io. 2022年7月10日閲覧。
  4. ^ Fang, Huang; Harvey, Nicholas J. A.; Portella, Victor S.; Friedlander, Michael P. (3 September 2021). "Online mirror descent and dual averaging: keeping pace in the dynamic case". arXiv:2006.02585 [cs.LG]。

関連項目

[編集]