ちょっと重ための話が続いてるので、間に軽めの話を混ぜてみたいと思います。
さて、冒頭の見出し画像は、AI日本株式オープン(絶対収益追求型)の「設定来の運用状況について」というレポートからの引用です。
AI日本株式オープン(絶対収益追求型)(愛称:日本AI(あい)) 設定来の運用状況について
https://www.am.mufg.jp/text/252629_180227.pdf
この図に書かれてあった評価を見てみると、
基準価額への寄与が、わずかでもプラスであれば『 〇 』の評価がもらえる一方で、
基準価額への寄与が、それなりにマイナスであったとしても『 △ 』の評価で済んでしまっています。
そうなのです!
この世界は、まさに『 × 』のない世界なのです。
シビアな投資の世界にあって、オアシスのような空間です。
『 × 』のない世界、もちろん、皮肉で言っているのですが、投資信託の販売資料などを読んでいると、
投信を『良いものであると見せようとする非常に強いバイアス』の存在を、強く感じます。
でも、そのバイアスが存在するがために、「良い販売資料」と比べて、ちょっと不自然なところ・違和感を感じるところがあると、
逆に、十中八九、なにがしかの問題がそこには隠れているような気がしますし、
そう考えても、「論理の飛躍」にはならないような気がします。
cf. ティーブレイク:日経新聞が「AI日本株式オープン」に見せた“忖度”!?
ところで、下の図は、先ほどのレポートの中にあった別の図なのですが、
見ていて、ちょっとだけ、違和感を感じるところがありました。
- AI(人工知能)が売りなのに、AIという単語が一言も登場しない(このページは、AI効果をアピールする絶好の場のはずなのに、です)
- 要因分解の合計と基準価額との差がかなり目立っているのに、図では省かれている(これだけ差があると、普通は省かないはずなのに、です)
違和感を感じた部分を直してみると、こんな図になりました:
この修正後の図を見てみると、以下の点が気になってきます。
- 非AIモデル(転換点予測モデル)の9・10月の寄与が非常に大きい。
- モデル以外要因:信託報酬+その他 の影響が結構大きい。
この点については、要因分解の結果を累和して見ると、より明確になってきます。
下図をみると、モデル以外要因がかなり大きいことがわかります。
このモデル以外要因は、「信託報酬」と「その他」の合計なのですが、
「その他」というのは、資料の説明によると、モデルと実運用の乖離を表すものだそうです。
そうだとするなら、モデル評価の時に、この部分は、「モデル以外要因」として除外していてもいいのでしょうか?
たとえば、非常に極端な例ですが、「明日の株価の終値をインプットデータとして使えるモデル」があったとしたらどうでしょう。
モデルとしてのパフォーマンスは、これはもう、最高だと思います。
しかしながら、現実には、明日の株価データを事前に入手することなんて出来るわけがありません。
あまりにも非現実的なモデルです。実際の運用では、惨憺たる結果で終わるのではないでしょうか。
結局のところ、実運用でどうなるかが重要なのであって、こんなモデルの結果は「絵に描いた餅」に過ぎません。
この例は、さすがに、極端ではありますが、でも、
このように、モデルの実用性を評価するためには、「その他(モデルと実運用の乖離)」部分も考慮しなければならないと思います。
モデルの結果だけを見せられても、実際の運用で実現できないのなら、「絵に描いた餅」のままなのですから。
ちなみに、「明日の株価データ」なんて存在しないから、そもそも、モデル自体も予測値を作れないのでは?と思われたかもしれません。
確かに、バックテストやパフォーマン評価の際には「明日の株価データ」を取得(いわゆる、カンニング)出来ても、リアルタイムで行われる「実運用」では不可能です。
では、実運用では予測値も作れないのか、というと、これは、「モデルのデータ欠損処理」に依存して来ます。
データが取得できなかった場合の処理は、システム上、必要不可欠です。
「ある指標のデータが取得できず、データ欠損していた」という事象は、日常、十分に起こる可能性のあることなのですが、
その時、エラーを吐き出して「予測値を作らない」というシステムを作ることは、普通は、考えられません。
「予測値が作れなかったので、その日は運用しなかった」などということは、深刻なエラーであり、オペレーション上、許されることではありませんから。
そこで、普通は、データが欠損した場合の処理が用意されます。多い処理としては、「直近の値で代替する」というものです。
このように、システム上、データが欠損していても、予測値を作ることが出来るようにするのが通常だと思います(「警告」は出しても、「エラー」にはしません)。
そのため、「明日の株価データ」を使うモデルも、実運用でも「稼働」してしまうことは、十分にあり得ることです。
極端な例ではありますが、「あり得ない話」というわけでもありません。
そこで、モデル以外要因(その他)を、AIモデルのパフォーマンスに加えてみました。その結果を見たのが、下図です。
つまり、「モデルベースの評価」ではなく、「実運用ベースの評価」にした図です。
※ AIモデルにだけ加えたのは、モデル以外要因(その他)のほどんどが、AIモデルに起因するものであると考えられるためです。
(参照:補足:転換点予測モデルによるウェイト変更が行われた期間について)
この図をみると、問題点が、かなり、はっきりと浮かび上がってきたように思います。
- AIファンドと謳っているのに、非AIモデル(転換点予測モデル)の寄与が大きい。
- AIモデル単独のパフォーマンス寄与は小さく、単独では、信託報酬を賄うことも出来ていない。
- 信託報酬の負担がかなり重たい。
このように、資料にあった図では見えてこなかった部分も、違和感を感じた部分をきちんと修正してやると、
「浮かび上がってくる何か」があるように思います。
資料の作り手が、あまり出したくないと考えるところには、往々にして、こんな問題点が潜んでいるような気がします。
ちなみに、冒頭の見出し図の評価は、「モデルの結果」の評価であって、
「モデル以外要因(その他)=モデルと実運用の乖離」が考慮に入っていません。
ですから、まさに、「絵に描いた餅」の評価でしかありません。
「×」のない世界どころか、とても「あま~い」世界です。
おそらく、AI日本株式オープン(絶対収益追求型)では、日次リバランスを繰り返すので、誤差が大きくなりやすく、
また、取っているリスクが小さいので
モデルと実運用の乖離が、無視できないほどに大きいものになっているのだと思います。
実運用の結果(モデルと実運用の乖離が大きい点)を見る限り、
事前に提示されていたバックテスト結果(≒モデルの結果)も、かなりの部分、割り引いて考える必要があると思います。
バックテスト結果が、本当に、実運用に耐えられるだけのものであったのか(テスト運用時にきちんとした評価がなされたのか)疑問に思えてきます。
残念ながら、AI日本株式オープン(絶対収益追求型)では、モデルの実用性を評価することが、きちんと出来ていないように感じます。
シミュレーションに近い結果が、実運用で得られていない原因の1つは、
この辺りの事前の検証が、一定のレベルに達していなかったせいもあるのではないでしょうか。
(AI日本株式オープン(絶対収益追求型)を調べていると、パフォーマンスの悪さに加えて、分析に対する不信感も増してきているので、こんな風に厳しい言い方になってしまうのだとは思うのですが。)