ALH84001

私的コラム&雑記(&メモ)

最近の気になった話題(2020年第30週)

2020-07-26 | 興味深かった話題

NVIDIAはArm買収に興味がある?

Nvidia Eyes Biggest-Ever Chip Deal in Pursuit of SoftBank’s Arm - Bloomberg

 Bloombergなど複数メディアによると、NVIDIAがソフトバンクからのArm買収に関心を示しているという。

 先週の話題で述べたAppleよりは現実味のある話に思えるが、NVIDIAによる買収の場合でもArmのエコモデルを崩壊させる可能性があるのは同様で、また、ソフトバンクがArm買収に費やした$32Bという金額も併せて考えると、あまり現実的とは思えない(NVIDIAの過去最大の買収は昨年のMellanox買収で$7Bであった)。

 もっとも、NVIDIAとAppleの置かれている状況は似て非なるものだ。
 まず、AppleとNVIDIAの市場における立ち位置が異なる。Appleは過去に2度アーキテクチャーの移行を達成してきたが、それはAppleが垂直統合型の企業だから可能だった。逆に、これまではMC68K・PowerPC・x86のいずれでもCPUを外部に依存してきたため、CPUベンダーの製品開発が行き詰まるとApple自身も行き詰まってしまうため移行を余儀なくされてきた。今回は自社開発CPUに移行するため今後は同じ問題は発生し難いが、もし仮に将来的に何らかの理由でArmアーキテクチャーからの移行を余儀なくされたとしても他のアーキテクチャー、例えばRISC-Vのような移行先はある。

 一方のNVIDIAは水平分業型モデルであり、以前からCPU開発に関心を持ってきた。ドル箱であるGPUでCUDAなどを動作させるにはCPUアーキテクチャー向けにドライバーや開発環境を提供し、さらに効率よく動作させるにはCPU−GPU間を適切なインターフェースで接続する必要があるがCPUのコントロールが無いからだ。例えば一般に出回っているIntelやAMDのCPUではNVLinkのようなキャッシュコヒーレンシのある高速なインターフェースを使用できない。
 だから、NVIDIAはAppleを含む多くの企業よりもArmアーキテクチャー/Armプラットフォームの発展に貢献してきた実績がある。例えばTegra 4iではNVIDIAの技術者がArmに入ってCortex-A9r4を開発したし、big.LITTLEはNVIDIAの4+1省電力コア実装にインスパイヤされたものであることをArm自身が認めている。ARMv8の開発にあたってはNVIDIAが数百人のエンジニアを送り込んで協力したという。

 一方で類似点もある。それは、AppleもNVIDIAもArmアーキテクチャーには依存しているものの、Qualcomm・Samsungなどと比較すると相対的にArmコミュニティーへの依存は小さい点だ。
 Qualcomm・SamsungなどがArmコミュニティーへの依存が大きいのはAndroidや既存の組込Linuxへの依存が大きいからだ。Androidは亜流のJava MEベースなのでプラットフォームへの依存は強くないとされるが実際にはArm以外への実装は細々としかされておらず、例えばAndroid-x86は最新版がAndroid 9.0と1年以上遅れている。OSのサポートやコンパイラーの最適化なども考えるとArm・x86以外の選択肢はコストが高すぎる。
 その点、NVIDIAのAndroid依存は小さく見える。NVIDIAもかつてはShieldブランドでAndroid端末を手掛けていたが、Shield端末もモバイル向けTegraも大成功とは言えず、一方で現在は自動運転向けに注力している。もし仮にNVIDIAかAppleがArmを買収してLinaroメンバーを含む主要Armチップベンダーが別アーキテクチャーに移行しても、恐らくNVIDIAはビジネスを継続できることだろう。これはiOS/Macという独自プラットフォームを持つAppleも同様である。

 とはいえ、思うにAppleもNVIDIAもArmは独立性を保ち中立であることが望ましく買収しても利益がないことを知っているはずだ。ましてや$30Bを超えるような場合にはなおさらである。
 ただ、今回が2016年以前と異なるのはArmは独立しておらず既に誰か=ソフトバンクに所有されている点だ。言い換えればソフトバンクによるArmの売却先次第ではこれまでよりも独立性が侵害される可能性がある(例:中国企業など。米国政府当局が承認しないとは思うが)。もしArmの独立性が損なわれそうな場合には、その阻止のために買収に乗り出すことはあるかもしれない。

Intelが1年間の7nm遅延を発表

Intel's 7nm is Broken, Company Announces Delay Until 2022, 2023 - Tom's Hardware

 個人的には、Intelは自縄自縛に陥っているような気がしている。
 現在進行形で10nmも計画より遅れており、その顛末はASCII大原氏の記事に詳しいが(参考1参考2)、簡単にまとめれば、10nmは「2016年に出荷が開始され」「14nm++プロセスを置き換える」予定だったのが、実際には「2019年後半に出荷が開始され」「一部製品でしか14nm++を置き換えられない」のが実態である(※厳密にはCannonlakeが1 SKUのみ出荷されたので「2019年後半の出荷開始」は正しくないが、大量出荷されたわけでもないので無視してよかろう)。

 Intelの先端プロセスの先進性や困難さは後藤氏も書かれておられるし(参考1参考2)、その合理性も頷けるが、それで会社の事業計画が5年間に渡って遅滞するようでは元も子もない。
 Swan氏以前のIntel CEOは初代CEOのRobert Noyce氏(元半導体研究者)から先代CEOのBrian Krzanich氏(元製造部門トップ)まで、元技術畑出身者で占められてきたが、2016年からの製造プロセス問題が続く2018年にCEOに就任したのが前CFO・財務畑出身のSwan氏である。私には、技術的な先進性を求め過ぎた結果、製造技術の優位(2011年頃の時点では他社より1~2年先行していると目されていた)を失墜させた技術一辺倒からの脱却を狙ったように見えたのだが、そうでもなかったのだろうか。

 私見だが、TSMCやSamsungといったファウンドリーが優れているのは「ハーフノード世代」を作るなどして段階を踏んで手堅くプロセスを移行している点にあると思う。
 例えば先代14/16nm世代から7nm世代までであれば、微細化以外で技術の変革は2回あった。まずはPlanerからFinFETへのトランジスタータイプの移行であり、さらにUVからEUVへの露光技術の移行である。TSMCの場合、まずFinFETへの移行はバックエンドを20nmと共通化した16FFで乗り越え、14/16nm世代では16FF+・12FFN・10FFを追加した後、既存技術を流用したN7を製品化した上でN7+でEUVに移行している。Samsungも同様の移行方法を採っている。この方法だと微細化と複数の新技術を一度に導入しないのでリスクを軽減でき、もし失敗した場合でも別のプロセスで繋ぐことができる。もちろん、同じファウンドリーでもGlobalFoundriesのように失敗するケースもあるが、ファウンドリーはプロセス開発が完全に失敗した時点で事業が成り立たなくなるせいだろが、手堅いし、失敗時の見切りも早い。
 TSMCは既に5nm世代N5のリスク生産を始めており、今年末から来年中盤にかけてApple A14など採用製品が市場に出てくる予定だが、予定通りになると見られている。

 しかしIntelの場合、FinFETへ移行した22nmこそうまく移行したが(その結果、他社より1~2年先行しているとされたが)、EUVではよく分からない。現状、10nmのコバルト配線の躓きから回復しておらず、7nmではさらにEUVを導入する。面白いのはThe Vergeなどは「早くとも2022年まで遅れる(delayd until at least 2022)」と書いている点だ。恐らく誰もIntelの予定を信用していない。

日本にTSMCを誘致する案

07/30 - 表現の不一致・誤記を修正しました。
TSMCの誘致は無理、でもファウンドリ事業を始めるべき(津田建二) - Yahoo!ニュース

 どういった経緯で出てきたのか理解に苦しむが、米国に続き日本もTSMCのファブを誘致すべきという案があるらしい。日本へのTSMC誘致も馬鹿げているが、Yahoo!ニュースにある指摘も馬鹿げていると思う。いずれも日本の半導体生産の現状を把握しているとは思えない。

 問題は日本の半導体市場が成長していない云々ではなくて、日本の半導体企業がすべて弱小という点にある。そこへファウンドリー=TSMCを誘致しても問題は解決しない。
 そもそも半導体企業のトップ10に日本企業はキオクシア(旧 東芝メモリ)以外ランクインしておらず、しかもキオクシアはNANDプロセスであってロジックプロセスではない(SK Hynix・Micronも同様)。要するに、製造工場の場所に関わらず日本企業には製造する半導体製品が無い。

 まず、ファウンドリー=半導体製造企業とファブレス半導体企業を混同してはいけない。
 記事中にある半導体市場の推移のグラフは恐らくファブレスを含む半導体企業の売上高だろうが、ファウンドリーの数字が恐らく含まれていない。ファウンドリーを含むと二重にカウントされてしまうためである。例えば上のリンクにあるEE Timesの記事ではトップ10のうち4社はファブレス半導体企業で、これらの企業は自社では製造せずTSMCなどに委託している。
 半導体製造で先端を走っているのは、台TSMC・韓国Samsung・米Intelで、1〜2世代遅れで中国SMIC、米GlobalFoundries・台UMCといった企業が続き、Intel以外はファウンドリー(受託生産)ビジネスを行っており、Intel・Samsung以外は自社向けに半導体製品を作っていない製造専業である(UMCなどは一応そういうビジネスもあるが…細々としたものである)。

 記事にある通り世界では半導体市場は成長しているし米国の半導体市場もまた成長しているはずであるが、米国の場合はIBM・AMD・旧Freescaleなど、元々自社で製造していた企業が製造から撤退しており、またQualcomm・Broadcom・Marvell Technologiesなどトップクラスのファブレス半導体企業も米国に所在している。その多くが上述のファウンドリーなどに委託している。だから、TSMCがファブを米国に建設すれば米国半導体企業が機密を米国外に持ち出すことなく利用できる。つまり、現在Designed in USA・Made in TaiwanなのをTSMCの誘致によってDesigned in USA・Made in USAとするわけだ。
 ところが日本の場合、仮に日本にTSMCなりのファウンドリーがファブを建設しても、そこで製造する日本メーカー製の製品はほとんど無い(つまりDesigned in Japanがほとんど無い)。そもそも自社ファブ/ファブレスに関わらず日本の半導体企業が弱小なのだから当然である。

 TSMCの誘致ではなく日本にファウンドリーを作るというのはそもそも不可能に近い。
 やや古い記事だがPC Watch後藤氏の2008年の記事では「2世代毎にFabは1.5倍、プロセス開発は2倍のコスト増」「開発コストについては(中略)22~12nmプロセスになると13億ドル」「先端Fabの建造には(中略)22~12nmプロセスでは45~60億ドル($3.5-$6B)へと膨れあがる」としている。もちろん企業によって前後するだろうし世代によっても変わるが傾向は理解できる。ちなみに、7nmクラスでは高価なEUV露光装置の導入が必要など、この高騰化する傾向はさらに加速している。
 後藤氏の記事を参考にするなら、2021~22年の最先端5nmプロセスを作りたければプロセス開発に26億ドル程度・ファブ建築に60~90億ドル程度が必要になる(ちなみにTSMCが米国に建造するファブは120億ドル≒約1兆2900億円規模である)。しかも2~3年毎に世代が更新するので、毎年45~60億ドル(ざっくり5000億円)程度の投資が必要になる。さらに言えば、これら後藤氏の記事の数字はTSMCやIntelなど現時点で先端を走るノウハウを持った企業での数字なので、新規参入するとなるとより大規模な投資が必要となるだろう。年間の研究開発予算トップ3が日本を代表する自動車会社・トップ3以下は年間の研究開発予算5000億円未満などという現状では逆立ちしても不可能だ。

リピーターとIEEE 802.11s

リビングのテレビ&ゲーム機接続環境をWi-Fi 6に変更 - Internet Watch

 中継機に関する記事だが、果たしてこれが妥当なのかよく分からない。レビュー記事なら他の構成も踏まえて書いて貰いたいところだ。

 記事中では序盤で「これまで筆者宅の (中略) 両フロア間が4ストリーム最大1733MbpsとなるWi-Fiで接続されていた。これに対して新しい環境では (中略) 両フロアの間は最大1201Mbpsで接続されることとなる」としているにも関わらず、結論は1階2階のフロア間は330 Mbpsで接続され「結果的に満足できる構成となった印象」としている。
 Wi-Fiは干渉を受けやすく理論上の性能の1/10も出ないような状況が多いため、言いたいことは解からなくもないが(例えばNetflixの最高画質=Ultra HDが25 Mbpsなので実効330 Mbpsあれば十分とも言えるが)、330 Mbpsで接続されて満足というのは妥当性がよく解からない。

 ある程度大きな家(あるいは鉄筋コンクリートなどWi-Fiの電波が通りにくい戸建)という環境であれば802.11sメッシュ対応ルーターを選ぶという方法もある。
 802.11sメッシュは欧米で「Whole Home Wi-Fi(家まるごとWi-Fi)」と呼称されるシステムで、他の802.11規格と違い無線通信そのもののプロトコルではなくメッシュ通信のプロトコルを定義している(つまりユーザーが使うWi-Fi接続はこれまで通り802.11acや802.11axである)。
 802.11s対応デバイスの利点は、最初からAP間接続のためのbackhaulが考慮されている点だ。Wi-Fiに限らず有線LANスイッチでもダウンリンクを束ねるアップリンクが太くなければならないのは当然だ(例えば仮に中継先APに2台の端末が500 Mbpsで接続したければアップリンクは1000 Mbpsでなければならない)。多くのWi-Fiルーター/APなどだと2バンドしか無くbackhaul専用チャンネルが割り当てできないし1台以上の中継に問題があるが、802.11sメッシュ対応ルーター/APではそういった問題が避けられる(記事中でも、5 GHz帯を1Fと中継器のbackhaulで共有して2Fの中継器は5 GHzでの接続をOFFにしている)。
 もっとも、現状の802.11sメッシュ対応ルーター/APには主に2種類の問題がある。まずはルーター/APを複数配置することになるので導入コストが高くなることと、ピークパフォーマンスではなく全体の接続性を重視した製品のため一部製品を除きゲーミングルーターなどに搭載される機能・性能が考慮された製品が少ない(Netgear XRM570ASUS AX3000Linksys MR9000ぐらいだろうか)。プロセッサーでいうと多くの802.11sメッシュ対応ルーター/APはQualcomm IPQ401xシリーズベース(Cortex-A7 quad-core・NPUなし)で、ゲーミングルーターの搭載するIPQ80xxシリーズ(Cortex-A53 quad-core・NPU dual/quad-core)とは性能的に大きな違いがある。
 このようにまた、利点・欠点のある802.11sメッシュ対応ルーター/APだが、ネットワークを扱うメディアでも802.11sの検証記事は少ないため、理屈はともかく実際の速度は情報が少ない(参考)。もっとも、802.11s対応は基本的にソフトウェアでの対応のため、802.11ax/WiFi 6以降では通常のルーターに802.11sメッシュ参加機能が付加された製品も増えている(例:ASUS AiMesh)。

 802.11sメッシュ対応ルーター/APは導入コストが高いとは書いたが、記事中ではハイエンドのバッファロー WXR-5950AX12にTP-Link RE505Xを組み合わせて使用しているため計約40,000円で、それだけの予算であればASUS RT-AX3000 2台という手もある(dual-bandなので802.11sの利点を最大限に利用できないのが難点だが…。海外であればASUS AX6100 2台という構成もある。欧米で2台で~$400で買えるのに対し日本では1台30,000円以上するから無理)。個人blogのレビューでなくプロのライターのレビューなのだから、そういう検証もして頂きたかったところである。

Comment

最近の気になった話題(2020年第29週)

2020-07-19 | 興味深かった話題

Neural-network Processing Unitの行方

The Elegance (And Limitations) Of Precisely Engineered Accelerators - The Next Platform
NVIDIAのAmpereで対応した新技術「プルーニング」 - PC Watch
第3世代のディープラーニングプロセッサはモデル圧縮技術が鍵- PC Watch

 PC Watchで後藤氏がNVIDIAがAmpere A100で実装したDeep Neural Network処理用の機構について解説されている。その内容自体も興味深いのだが、やはり個人的に気になったのは「A100はGraphic Processing Unitなのか?」という疑問である。この疑問はA100発表時から感じていたことでもある。

 例えばSIMD演算ユニットを考えてみたい。最初に一般に普及したSIMD演算ユニットはIntel MMXであろうが、そのウリは「専用プロセッサー無しにMPEG-1のVideo-CDを再生できる」というものであった(参考)。1996年頃のことである。SIMD演算ユニットは汎用的な演算器だから、それがMPEGのデコードに使われるのか、AESなどの暗号化/複合化に使われるのか、Deap Neural Network処理に使われるのかというのは単にアプリケーションの違いに過ぎない。また、そんなSIMD演算ユニットをクラスタリングしたGPU=Graphic Processing Unitが、例えば海洋シミュレーションのような物理演算やDeep Neural Network処理用に使用されることも不思議ではないし、また、そういうトレンディングなアプリケーションの違いによって対応するデータフォーマットがINT16/INT32・FP32/FP64さらにINT8/FP16と変化することも驚くべきことではない。
 一方、後藤氏の記事にあるような処理はDeep Neural Network処理に特化したものに見える。記事の内容は論理的で納得のいくものなので、そういう機能がDeep Neural Network処理に利用されることは理解できる。
 しかし、それがGPUに実装されると言われると訳が分からなくなるのである。むしろ、Intelが買収したHabana LabsのGoya/GaudiやGraphcoreのColossus MK2のような専用プロセッサーに実装されたと言われた方が納得がいく。

 ところが、Hisa Ando氏の記事で知ったのだが、GraphcoreのようなNeural Network処理専用の製品を選ぶ顧客は減っているのだという。
 The Next Platformの記事から理解するに、これはNeural Network処理用のプロセッサーが要らないとかいう話というよりも、GoogleやAWSのようなCloud Hyperscalerは特定のプロセッサー(Google=Google TPU・AWS=Annapurna Inferentia/NVIDIA Tesla・Microsoft=Intel FPGA・Facebook=Intel Nervanaなど)しか採用しないので、Cloud Hyperscalerに採用されない、それ以外のNeural Network専用プロセッサー製品は誰も要らない、それぐらいなら他のこと(GPU・CUDAなどGPGPU)にも使えるNVIDIA Teslaを選ぶということなのだろう。

 ここで個人的に気になるのはAMD GPU・Intel GPUの動向である。上述を踏まえると良いポジションにいるはずであるが、米エネルギー省のHPC=Aurora(Intel GPU)・Frontier・El Capitan(共にAMD GPU)に採用されることが決まっているが、どういう機能を作り込んでくるのか興味深いところである。特にAMDはNeural Network処理用の機能を次々とGPUに盛り込んできたNVIDIAに対し、AMDはせいぜいFP16対応程度に留まり静観しているように見えるが、そもそもFP16/FP32/FP64などの対応を見ても、NVIDIAが個別に演算ユニットを作り込んできたのに対し、AMDは全対応の演算ユニットを作ることでプロセッサーを小さく保ってきている(IntelはそもそもGPGPUを未提供なのでスタンスが不明)。AMD・IntelのGPUがNeural Network処理に対応したとき、Neural Network専用プロセッサーは滅ぶのかもしれない。

ソフトバンクはArm株を売却またはIPOするのか

ソフトバンクがArmの売却を検討 - Gigazine

 ソフトバンクはSoftbank Vision Fund(SVF)で利益を出すためにも株式の一部を売却すると想像する。

 ソフトバンクは2016年にArmを$32Bで買収したが、25%にあたる$8B相当分をSVFに移管している。そのため、ファンドが出資者に収益を還元する2029年までに現金化する必要がある。そういう意味では、2029年までに少なくとも25%を売却というのは2017年からの既定路線だろうと思う。

 しかし、それでも可能な限り51%は保持し続けると見る。その理由は、そもそもソフトバンクがArmを買収した動機がArmのIoT関連のライセンシングを通じてIoT業界の生の情報が入ってくるからと見られているからだ(関連1関連2)。これはSVFとも関連しているはずで、ファンドの投資先の見極めのインプットになっているのであれば過半数を手放すことは避けたいところだろう。
 もっとも、Gigazineの記事にもあるがSVFが投資に失敗しソフトバンクが創業以来の大赤字を計上が報道されている通りで(関連1関連2)、その補填のために必要であれば過半数以上も売却する可能性はあるだろう。実際のところ、上述の通り「Armの情報が投資に役立つ」はずにも関わらず、大赤字を計上しているということは、実は大して役に立っていないと見ることも可能だろうからだ。

 ただし、一部Appleファンサイトで予測されているような、AppleがそのArm株を取得するという事態は考え難い。仮にあっても議決権ベースで35%未満に留まるだろう。それは、AppleがArmアーキテクチャーを採用する意味が薄れるからである。

 そもそも、ArmがiOS端末やAndroid端末で採用されて注目を浴びたにも関わらず、2016年にソフトバンクに買収されるまで買収されなかったのは関連企業が「買収できなかったから」あるいは「買収するうま味が無かったから」である。
 同業他社のIPベンダーの場合はSynopsys(2020年7月現在 時価総額$29.5B)やCadence(2020年7月現在 時価総額$28.0B)が買収するには巨大過ぎたし、投資ファンドの場合は既に成長しきっており含み益を生み辛かったからだろうが、Qualcomm・Samsung・HiSiliconなどのArmプロセッサーを採用する半導体各社にとってはArmが中立であることが望ましかったからである。
 かつてコンピューター業界の支配的なプラットフォームといえば長らくMicrosoft Windows + Intelだったわけだが、この牙城を切り崩しつつあるのは多数の企業や個人のコミュニティーに支えられたオープンな技術だ。オープンソースソフトウェアのLinuxやGCCが代表的だがオープンかつ中立であることで多数の企業や個人のコミュニティーからの支援で開発されるエコモデルが形成されている。同様に、Intelのような巨大企業連合に対抗するArmプラットフォームを支えているのは、そのオープン性に基づくコミュニティーである(例:Linaro)。NVIDIA(Cortex-A9/A15、AArch64)や富士通(SVE)やアーキテクチャーや命令セットの定義で、SamsungなどのLinaroメンバー(big.LITTLEやLinux Kernelスケジューラー)はLinuxやGCCの実装で、Armと協業したことが知られているが、これらの企業がArmと協力したのも、そのオープン性とコミュニティーによるものである。共存共栄というわけだ。
 ところが、これを特定の1企業(例:Apple)が買収してしまうとその企業の競合他社(例:Samsung・Qualcomm・HiSilicon)は他のプラットフォームへ乗り換えを検討せざるを得なくなる。なぜならArmプラットフォームに貢献することが競合他社(例:QualcommやSamsungがApple)に利益を貢いでいることとイコールになるからだ。
 つまり、AppleがArmの過半数を握った瞬間にArmエコシステムは崩壊する。これまで継続的な成長ができなくなったプラットフォーム(Motorola MC68K・IBM/Motorola PowerPC)に見切りをつけてきたAppleがArmプラットフォームの継続的な成長を阻害する買収に踏み切るはずがないのである。

 ところで、その点でソフトバンクは独特な立場にある。
 半導体企業でもIPベンダーでもなくArmプラットフォームのコミュニティーや競合他社とは直接的な関係が薄いのでArm社を独立さえさせておけばコミュニティーの崩壊を招くこともないし、一応はSoftbank Vision Fundとは切り離されているので必ずしもArm株で利益を上げる必要はないし、上述の通りArmのライセンシング状況を見ることで次の投資先の情報を得られるようになる。
 仮にArm株式の過半数を売却するとしてもIPOではないかと思う。Armのオープン性を維持しつつArmを買収できる/したい企業は限定的だからだ。

IntelもArmプロセッサーを開発する?

元Mac開発トップ、インテルもArmプロセッサ開発を余儀なくされると予測 - Engadget Japanese

 元Appleのジャン ルイ ガセーJean-Louis Gassée氏がIntelもArmプロセッサーを開発することになると予想したと報道されている。もっとも、私は彼の歯に衣着せぬ物言いは好きだがガセー氏の予想が当たったことを見たことが無いが…。

Comment

最近の気になった話題(2020年第28週)

2020-07-12 | 興味深かった話題

Apple Arm版Mac用"Apple Silicon"のコストは?

Apple Siliconの製造コストは100ドル未満? - マイナビ
Apple to Start Mass Producing Self-Designed Mac SoC, Projected to Cost under US$100, in 1H21 - TrendForce

 マイナビの記事は特に後半は滅茶苦茶なので無視するとして、TrendForceの「$100以下」という予想は興味深い。
 TrendForceのApple製プロセッサーの「$100以下」という予想は「iPad用プロセッサーと同等か類似」と言っているに等しい。

 まず、既存の半導体や製造面をおさらいしたい。
 そもそも現行のiPhoneやiPadに搭載されているApple Aシリーズプロセッサーのコストは同種のプロセッサーの中では非常に高コストで恐らく$70~80はかかっている。AppleはBOMコストを公開していないが、iPhone用プロセッサーは$60前後(例:TechInsightはiPhone 11用プロセッサーを$64と見積もっている)と見られており、iPad用はさらに+20%ほどは巨大≒高コストだから概ね$70~80程度になろう。
 ちなみに、QualcommのハイエンドSnapdragon 800シリーズは概ね$50前後(※算出方法によって変化するし、世代によっても異なるので「おおよそ」の価格帯である)と言われているが、Snapdragonの売価はQualcommの利益が加算されているのに対し、プロセッサーを内製しているAppleはプロセッサー単体での利益を考える必要がないが、その一方で概ねSnapdtagon 800シリーズより巨大≒高コストでさらにモデムやWi-Fiなど多数の部品が外付けだから、やはり$60超えてくるのは妥当である(PC Watch後藤氏の関連記事1関連記事2)。

 つまり、iPhone・iPad用プロセッサーで既に$60~80程度はするので、仮にMacBook用プロセッサーが「$100以下」だとするなら、MacBook用プロセッサーがiPhone・iPad用プロセッサーと同等か、あるいは拡張規模が小規模なプロセッサーということになろう。

 しかし、よく考えてみれば「$100以下」というのは、随分とらしくない数字である。
 スマートフォン/タブレット用なら$50はハイエンド用プロセッサーの価格だが、PC用では$100はローエンド用の価格帯である(※コストのモデルが違うので単純比較はできないので注意)。例えばローエンドのMacBookに搭載されているCore i3-1000GN4は公開されていないため不明だが、それと同価格帯のCore i3-1005G1はロット単価が$281である。
 そして、スマートフォンでAppleがやっていること、つまり(Qualcommの利益が含まれた)$50のSnapdragonを買うのではなく、自前で$60~のプロセッサーを内製していることを踏まえれば、同価格帯でIntel版MacBookをArm版MacBookで代替するにあたり、Intel製の$250~300のプロセッサーを内製の$300~350のプロセッサーで代替しても不思議はない。
 現在のiPhone/iPadに搭載されているAシリーズプロセッサーではCore i3は代替できるがCore i7は代替できる性能はないのでMac用に何らかの変更(例:コア数増量・動作周波数向上・GPUを外付けなど)が必要と思われる。例えばCPUコア数を倍増・GPUをAMDから調達すると仮定すると、現行のMacBookのプロセッサーをCore i3からCore i7まで代替することは可能であろうが、その場合に$100で済むとは思えない(CPU $100+AMD GPU $150というのはありえる)。

 では「$100以下」とするTrendForceの予想は的外れなのか?というと、そうでもない。この「$100以下」という予想についてTrendForceは理由を図示している。
 TrendForceの図では「Mac SoC」は2021年以降からで、最初のMac用プロセッサーはiPadと同じ「A14X」とされている。つまり、$70~80のiPad用SoCをそのまま流用するのでMac用SoCは$100以下なのである。私はこのTrendForceの予想は正しいと見る。理由はTrendForceは台湾のマーケット調査会社でTSMCなどの半導体製造会社にコネがあるからだ。半導体は設計完了後1年間ほどは検証・その後半年間ほどで量産するため、言い換えれば、今年末~来年初頭に最初の製品を投入したければ、iPhone用プロセッサー・iPad用プロセッサー・Mac用プロセッサーを既に量産に入っている必要がある。
 TrendForceはもちろんTSMCもプロセッサーの中身の詳細を知ることはできないし、仮に知っていても口外することはできないが、小型と大型のプロセッサーを製造していて、それが2種類(iPhone用・iPad/Mac用)なのか3種類(iPhone用・iPad用・Mac用)なのかぐらいは簡単に分かる。

Comment

漫画書評『ヒメゴト〜19歳の制服』

2020-07-05 | 漫画書評

「…似合ってる 気がする…
 同じTシャツでも形がちょっとちがうだけでスゲー女っぽくなるんだな」

「なんなの?この、どこにでもいる女の子は?」
ーー『ヒメゴト』

 映画でも小説でも漫画でもそうだが、困ったことに、お気に入りの作品が世間的に傑作とは限らない。
 幸運にもお気に入りの作品が人気の作品の場合であれば周囲に言いやすいし仲間も見つけやすいが、不運にも世間で一般に認められていないような作品だとしたら…それどころか、気に入った作品が他所様の前で口に出すことすら憚られるような作品だとしたら…その場合は秘密にするしかない。例えば私の場合、深夜番組で観たとあるフランス映画が秘蔵のお気に入りである。言葉も映像も絶句するほどに美しいが、内容はフランス映画にありがちな意味不明な物語の中で繰り広げられる少女と担任教諭の恋慕が過激すぎて、他人様の前で口に出したことはない。

 私にとって本作『ヒメゴト』は知人・家族と話すことの無い秘蔵の愛読書だ。
 カタカナで書かれたタイトルを見て身構えたあなたは正しい。恐らく「秘め事」と「姫事」の掛詞になっており、そしてその字面から連想されるように、およそ碌なものではない。お世辞にも上品な物語とは言い難く、かと言って上述のフランス映画のように美しいわけでもないが、強烈な印象と漫画の強みが活かされた秀作である。

 その内容を際立たせているのは主要な登場人物の少なさと異常さではないか。もちろん、本作にも、いわゆるモブキャラを含めればそれなりの人数が登場するが、全8巻とそれなりに長編の物語を成立させているのは、実に4人の登場人物しかいないのだ。そして程度の多少こそあれ皆歪んでいる。
 もっとも、特殊な性癖が絡む物語というのは必然的にそういうものなのかもしれない。例えば特殊な性癖といえば甘詰留太の『ナナとカオル』など全18巻にもなるが主要な登場人物というと2+1人だけである。性癖は各人それぞれでどうしようもないものだし、ストレートでない場合はそれこそ「秘め事」になりやすい。幸運にもパートナーを見つけた人はその「秘め事」をパートナーと共有できるがパートナー以外に公表するような種類のものではない。だからその特殊性癖を中心に据えた物語は登場人物が少ないのかもしれない。
 そういう事情はあるにせよ、登場人物が少ないことは物語として見て悪いことばかりではない。私見だが、本作に限らず登場人物の少ない物語の方が雑多なノイズが無く主要登場人物の駆け引きや心の動きが露骨に強烈に見えてくる。

 そうして描かれる本作が優れていると思うのは、恐らく冒頭から結末までテーマが一貫していることだろうと思う。もちろん作中では紆余曲折があるので異なる個性を持った誰も彼もが同じ目標に進むとはいかないが、結末まで読んで途中の紆余曲折は無駄でなかったと思えるのだ。
 ところが、それほど首尾一貫しているにも関わらず「テーマは何か?」と聞かれると言葉では表現し難いのである。それは恐らく表と裏の二面性があるテーマだからだと思う。
 主人公は、最終的には歪んだ誘惑を振り払って一応はハッピーエンドになる。ところが、その過程で主人公は「変わった女子大生」から「何処にでもいる平凡な女子大生」へと変化してしまう。もちろん、平凡な幸福は悪いことではないし、ましてや歪んで個性的でいるよりも平凡になることは喜ばしいことなのかもしれないが、傍から見る読者の一人としては喪失感を感じずにはいられない。「本当に主人公はそれで幸せになったの?」と。

 作中では、犯罪を犯してしまうほど歪んだ性癖を持った2人に翻弄されながらも、主人公は誘惑と人間関係を断ち切って普通の生活に戻る様子が描かれる。その意味ではある種の救済の物語(?)と言えなくもない。
 しかし、そもそも性癖の歪みだけで下品を通り越して胸糞悪い展開になるのは何故だろう。登場人物の性癖も性格も歪んでいるのは仕方ないとしても「どうしてそうなった?」というドロドロ感である。先に挙げた『ナナとカオル』などは客観的にはロマンスでもラブコメでも無くどうしようもなく歪んでいるが、それでも主人公2人にとっては純粋な愛の物語として徹底しているのとは対照的である。
 思うに、これは2人の関係か3人の関係かの違いではないかと思う。「三人寄れば文殊の知恵」「三つ巴」「三竦み」などという言葉がある通り3人寄ると相乗効果のスパイラルが生まれる。それが「三人寄れば文殊の知恵」のように正のスパイラルであれば好ましいが、本作の場合、互いに歪な理由で相手に惹かれたり嫌悪したりしている主人公を含む3人が、自分の欲望を相手に押し付けたり相手に牽制したりした結果、負のスパイラルに陥ってしまった感がある。
 このように見ると、この物語は3人の人間関係が本来必要もない地獄を生み出して、そこから生還して平凡な生活に戻るという、ハッピーエンドとは言い難い残念なものだが、よく練られていて読み応えがある。

 ところで、本作の作者は『初恋ゾンビ』と同じだが、絵を客観的に評価するなら『ヒメゴト』の絵は素朴で平面的で素人臭く見える。しかし、ラブコメ『初恋ゾンビ』のあのふわふわした絵面は『ヒメゴト』には沿ぐわないし、その一方で作中に登場する女装した美男子や地味な女子大生が可愛い衣装で大変身する様などは実写では難しい漫画の特徴を活かしたものになっていて、本作の内容と絵面は良いバランスが取れていると思う。

 本作は一般的な漫画の人気ランキングに登場するような作品ではないが、物語・構成・絵のどれをとってもバランスよく練られていて、個人的には傑作だと思う。惜しむらくは、扱っているテーマも手伝ってあまり知人・家族にはお勧めしたくない「秘め事」になってしまっている点であるが…

Comment

漫画書評『その着せ替え人形は恋をする』

2020-07-05 | 漫画書評

「私は 魔法少女になりたかったの
 強くてキラキラしてかっこよくて フリフリの可愛い衣装を着てて
 子供の頃 魔法少女に憧れて 夢中で「大きくなったら魔法少女になる」って本気だったわ
 けど小学生にもなれば分かるじゃない
 あれは全部作り物の世界で魔法少女みたいに努力しても願っても
 「私の夢は一生叶わないんだ」って

 でも中学生の時衣装が売ってる事を知ってすぐに買って着たの
 知識がないからウィッグをセットする事も知らなかったし
 メイクもしてないし 衣装のサイズは合ってなくてブカブカだし
 初めてのコスは酷いものだったけど それでも ただ本当に嬉しかった
 無理をしてでも 全部作り物でも 私は私の夢を叶えたいのよ」
――『その着せ替え人形は恋をする』

 本作のタイトル「着せ替え人形」とは恐らく様々なキャラクターにコスプレすることの喩えである。私は率直に言ってコスプレは興味がないしコミケの様子などを写真で見ても肯定的に捉えることができないーーやはり二次元と三次元では目鼻立ちや骨格がアニメと実際の人間とでは違うし、衣装もペラペラのテカテカで安っぽいものが多いし…etcーーしかし、本作は二次元のキャラクターのコスプレを二次元なマンガの登場人物がするわけだから違和感もないし、内容も面白可愛くて好きだ。

 本作の物語は主に二種類の内容から成立しており、一つは主人公二人=海夢(まりん)と新菜(わかな)の人間関係の進展、もう一つはコスプレの衣装製作やメイクのHowToであるが、バランスよく組み合わされていて違和感が無い(後者は私にとってまったくの無駄知識ではあるが…)。
 個人的に不満なのはコスプレイヤーの方の主人公=海夢が お馬鹿 という設定で、主人公二人の会話は微笑ましいが深みが無いことだ。その意味では私個人は新菜と別のコスプレイヤー=ジュジュのやり取りの方が好きだ。ジュジュは衣装に対する知識も豊富で裏側にある考えを重視するタイプ(という設定)のようで、衣装製作スキルのある新菜との会話はクリエイターのコラボレーションのようで読み応えがある(ちなみに、冒頭の引用はジュジュのセリフである)。現時点でジュジュが登場するのはコミックスの既刊5巻のうち1.8巻程度しかないのが非常に残念である。

 ここで気になるのは衣装を製作している方の主人公=新菜の実家の家業が雛人形製作で、ミシンを使えるという理由でコスプレイヤーの方の主人公=海夢の衣装を担当することになるくだりである。果たして雛人形の製作に精通していたとして人間の衣装を作ったり化粧をしたりできるものだろうか?と思う。私(♂)は幼い頃に姉の雛人形を見たことがあるが、雛人形の衣装はミニチュアなだけではなく簡素化されていて、例えば十二単の内側の着物は襟の部分以外は作られておらず立体的に・着られるようにはできていないと思うのだが、可能なものなのだろうか。
 もっとも、オタクで読者モデルをやっている女子高生がコスプレしたいとか、ミシンを使えて奇麗な人形が好きな手芸男子がその「着せ替え人形」の衣装を製作する、という動機やバックグラウンドと物語の展開の結び付けは自然で解りやすいとは思う。

 ところで、個人的には本作の絵は面白いと思った。
 人物の身体のバランスは博物学的にはおかしいはずで、衣装を題材にした物語なので登場人物の身体のラインが露出する場面はよく出てくるのに、一見して何がどうおかしいのか分からず私は少し困惑してしまった。恐らく、頭が大きく背丈はちゃんと6~8頭身分のサイズなのに身体の横幅が狭く不思議な丸みを帯びているのが非現実的なのだろう。
 ちなみに、本作のコミックスではコミックスの表紙が主人公の1人=海夢のコスプレ姿に統一されている点のが特徴的である。多くのマンガでは主要な登場人物が入れ替わりで表紙になることが多いが、本作の場合もう1人の主人公はコスプレ衣装を製作する裏方だから、表紙を飾っているのは2人の共同作業の結果という意味では主人公2人共登場していると言えるのかもしれない。

 ここまで興味深い点・面白い点を述べてきたが、1点だけ苦言を述べさせていただくとすれば、本筋と関係ないオタク界あるあるな話題は蛇足だと思った。
 恐らく本作の作者は(自身のコスプレはしたことが無かったそうだが…)登場人物のようにアニメ好き・エロゲ好きなのだろう。随所に出てくるコメントが妙に生々しいく、例えば作中に登場する魔法少女アニメについて「放送当時 主に女子小学生 成人男性を中心に人気を博す」とか説明されているが、そういうリアルさは果たして必要だったのかどうか。現実のエピソードを混ぜることで物語をリアルにできることは分かるが、物語の本旨からずれる蛇足感は否めない。

 ヤングガンガン連載ということで一応は青年向けだが、男女問わず楽しめる漫画だと思う。題材はコスプレだが、衣装製作やメイクの過程はDIYに通じる部分がありコスプレに興味が無くとも作中の会話の内容は楽しめると思う。

Comment

最近の気になった話題(2020年第27週)

2020-07-05 | 興味深かった話題

IBM BlueGene/QのCPUがオープンソースに

Big Blue Open Sources The Core Inside BlueGene/Q Supercomputers - TheNextPlatform
A2i, A2i Docs - GitHub

 POWERアーキテクチャーのオープン化OpenPOWERを進めるIBMが一環としてBlueGene/Q(BG/Q)で使用されたA2コアをA2iとしてVHDLでCreative Commonsライセンスでオープンソース化した(※注:出典によって「PowerA2」などとする記事もあるが、IBMのリリースには単に「A2」としか記載がない)。

 BG/QについてはASCIIの大原氏の記事などに詳しいが、2012年6月に「京」を退けてTop500首位に立った米エネルギー省LLNLのHPCである。「世界1位のスパコンのCPUがオープンソース化」といえば大事のように聞こえるが、そもそもBG/L・BG/Pからのコンセプトが安価・低消費電力なプロセッサーを大量に並べて超並列で動かすというものなので、CPUコア単体での性能は大したものではないので注意が必要である。

 A2は2イシューのIn-order実行パイプラインで、4スレッドをインフライトで実行できる。1コアあたりのシングルスレッド性能は低い代わりにトランジスタ予算が小さくて済み、多コアを1チップに集積しマルチプロセス・マルチスレッド処理に特化している。
 BG/Qの先代BG/L・BG/Pは組込用PowerPC440を使っていたが、PPC440とA2を比較すると恐らくIPC(サイクルあたりの性能)はPPC440の方が上で高クロック動作させることでパフォーマンスを稼いでいた(BG/Lの700 MHz・BG/Pの850 MHzに対しBG/Qは1.6 GHz)。その他のPowerPC440に対する優位性としてはマルチプロセッサーサポート・SMT4などが挙げられる。
 恐らくBG/Qの演算性能のキモはQXP浮動小数点コプロセッサー(FP64 x 4-way)で、CPUコア自体はQXPに命令とデータを供給し続けることができればよかったのだろう。ちなみに今回のA2のオープンソース化には浮動小数点コプロセッサーは含まれていない。

 A2はもともと「Wirespeed Processor」ことPowerENネットワークプロセッサーで使用されたCPUコアであるが、同種のプロセッサーとしては旧Sun Microsystemsが2005年に製品化した「UltraSPARC T1」が挙げられる。UltraSPARC T1はA2と同様2イシュー・In-order実行で8-core/32-threadで製品化されたが、後継のUltraSPARC T2と共にOpenSPARC T1OpenSPARC T2としてVerilogがGPLv2ライセンスでオープンソース提供されている。

 A2のソースコード公開は、A2を何かに組み込みたいという人や学習用途には朗報だが、大騒ぎするほどのことではないと思う。
 IBMのOpenPOWERで命令セットが公開された時も悪用を恐れて騒いでいるニュースメディアもいたが命令セットもA2もそれ単体では大した影響力はない。類似のオープンソースコアとしてはOpenSPARC T2がある(が、ビジネス的に影響があったなどという話はない)し、15段パイプライン・4命令イシュー・Out-of-Order実行のRISC-V BOOMv3がオープンソース公開されている状況では、A2の影響は極めて限定的だと思う。

Preferred Networks MN-3a

 先日発表されたGreen500でPreferred Networks MN-3aがトップになったという話題があったが、MN-3aおよびMN-Coreについては昨年11月にWikiChipが報じている
 個人的に驚いたのはGreen500 = HP LINPACKを実行できるという点で、恥ずかしながら、てっきりGoogleのTPUのようなマシンラーニング用のプロセッサーだと勘違いしていた(というか、WikiChipの書きっぷりだとそのように読める気がする)。

 PE(Processor Element)x4個とMAU(Matrix Arithmetic Unit??)x1個でMAB(Matrix Arithmetic Block)が構成され、1チップには計512個のMAB・1パッケージには4チップ(計2048 MAB)が集積されている。
 個人的には高いパフォーマンスを実現できた秘訣が知りたいところである。膨大な演算ユニットが搭載されているので理論上のピークパフォーマンスが高いのは理解できるが、他のNPU・GPUだとホストCPUとのリンクに広帯域・キャッシュコヒーレンシ可能なリンクを採用したり(例:NVLink・OpenCAPI)・メモリー帯域を確保したり(例:HBM2・GDDR6)といった工夫(?)が見られるが、それらしい説明が無いので、どのようにして高い性能を実現しているのか興味がある。

 ちなみに、このプロセッサーには「GRAPE-PFN2」と刻印がある通り神戸大の牧野教授と研究グループ(ゴードンベル賞を7回も受賞している)と東大の平木敬名誉教授が関わっているそうである。ちなみに牧野教授の個人ページによれば実行効率はまだ41%だそうである。

 

Comment

自宅NAS構築計画:HPE Microserver Gen 10 Plus

2020-07-03 | ガジェット / PC DIY

07/07、07/11更新 - 解り難そうな部分を加筆修正
11/06 - 別記事に合わせタイトルを変更

 筆者は現在NASの新調を考えており、その候補として調査したHP Enterprise Microserver Gen10 Plusについての検討内容をまとめる。なお、購入前の調査のため実物を使った検証結果ではなく、実物レビューはServeTheHomeのレビュー記事を参考にされたい。

想定する用途

 本稿では用途としてNASを含めたストレージサーバーを想定して検討している。
 本稿で「ストレージサーバー」とは基本的にNAS(NFSやCIFSでネットワーク経由でファイル共有)やSAN(iSCSIやNVM-oIF)をホスティングするサーバーのことであるが、個人的にはUPnPやDAAP(iTunes)メディアサーバーも想定している。ネットワークプロトコルやインターフェースが異なるだけでネットワーク越しのファイル共有という意味では同じだからである。

 ストレージサーバーに用途を限定しているのは、個人用途で3.5インチHDD 4台(8TB~16TB x 4-bay = 32TB~64TB)が必要となるとストレージ以外を想定する方が難しいからである。もちろん、企業/SOHOであれば例えばデータベースサーバーやドメインコントローラー(+ホームディレクトリ)の用途も考えられるが、それらは本稿の趣旨からは外れるため割愛する。

 Microserver Gen10 Plusは価格は構成や購入元や国にもよるだろうがサーバー本体は10万円前後で購入できる。これに無償のTrueNAS Core(旧FreeNAS)やOpenMediaVault(OMV)などと組み合わせる場合、手間という追加コストはかかるがQNAP・SynologyなどNASベンダー製のハイエンドNASと予算的には同等に収まる可能性がある。NASや自宅サーバーとしての導入はありそうだ。

ハードウェア概要

 本機はHP EnterpriseのProLiant Gen10サーバーファミリーに属するいわゆるPCサーバーで、PCサーバーに慣れている人にとっては普通のHPE製ProLiantであるが、一般的なPCとは構成に一線を画すものがある。
 例えばメモリーにはDDR4 ECC Unbufferedメモリーが採用されておりCPUはそれに対応したものが採用されているし、本機のリアI/OにはVGAとDisplayPortのディスプレイ出力が見えるがIntel HD Graphicsの出力ではなくHPE製BMCであるiLO 5のディスプレイ出力でゲームや動画再生には適さない。筐体内部のメインボード上にはVMware vSphereなどをインストールするためのUSBポートがあるなど、一般的なPCとは似て非なるものである。

 HPE MicroserverにTrueNASやOMVを導入してストレージを管理するような人であれば、パーツを個別に購入して自作する選択肢も考えられるだろう。詳細は割愛するが、NASベンダー製NASアプライアンス・HPE Microserver Gen10 Plus・自作サーバーを比較すると概ね以下のような違いになるだろう。それぞれに利点はあるが、Microserverの利点は自作の自由度とNASアプライアンスの手軽さ・自由度・性能・価格のバランスの良さだと思う。
 ストレージとして使用する場合、ソフトウェア構成の自由度は重要かもしれない。NASアプライアンスではファイルシステムの選択肢が限られるからで、例えば、NASアプライアンスの多くはext4・一部でBtrfsが使用しており筆者が知る限りZFSを採用したNASアプライアンスは存在しない。Microserverや自作ではTrueNASやOMVを使うことで手軽にZFSを利用できる。

  メーカー製
NASアプライアンス
Microserver Gen 10 Plus 自作
導入の容易さ
構成の自由度
(Software)
構成の自由度
(Hardware)
設置スペース
コストパフォーマンス △ / 〇

マイクロプロセッサー

 搭載CPUとして購入時にXeon E-2224とPentium Gold G5420から選択できる。
 XeonあるいはPentium Goldという名前が付いてはいるが同じCPUアーキテクチャー=Coffee Lake RefereshをベースとしたSKUの違いなのでCPUコア単体・シングルスレッドでのIPCはほぼ同等である。性能についてはARMプロセッサーを搭載したNASより優れていることは間違いないが、十分かといえばワークロードを検証する必要がある。

 E2224とG5420の2種類のCPUを一般的なワークロードをテストした場合ではE2224がG5420の倍ほどのパフォーマンスを得られる。物理CPUコア数と付随するキャッシュの容量が2倍でありピークの動作周波数も高いからこの性能差は妥当といえる。
 しかし、ストレージサーバーに限定した用途ではE2224の方がG5420よりも高性能ではあろうが2倍もの性能が得られるかについては疑わしい。HDDアレイのようなストレージやネットワークアプライアンスではI/O待ちでCPUが遊んでしまう可能性が高く、そのような用途ではSMTが効果的に働く可能性が高いが、E2224ではSMT無効・G5420ではSMTが有効だからだ。つまりG5420では演算ユニットが効率よく使われるがE2224では効率が上がらないため、性能差は2倍にはならない可能性が高い。
 個人的にはなぜHPEが4C/8Tのオプションを用意しなかったのかと疑問ではあるが、Coffee Lake-S/-E/-R/-ERプラットフォームで4C/8TとなるとXeon E-2134またはE-2234となりリストプライスで$50ほど高価になってしまうし、HPEはストレージサーバーに用途を限定していないせいだろう。

  E2224 G5420
Core/Threads 4C/4T 2C/4T
Frequency (Base) 3.4 GHz 3.8 GHz
Frequency (Turbo) 4.6 GHz
Last Level Cache 8 MB 4 MB

 ここではMicroserverをストレージサーバーとして使う想定なので、ZFSファイルシステムのRAIDZアレイをホストすることを想定すると、課題は消費するリソースの多さである。ZFSについてはそれだけで記事1本分以上になるので割愛するが、あらゆるZFS解説書・解説blogが高速なCPUと大容量メモリーを勧めているので、ZFSの導入を想定しているのであればXeon E2224の選択をお勧めしたい。

 ところで、メディアサーバーとして考えた場合、UPnP/DLNAサーバーとしてはもちろんPlex/Embyサーバーとして使うことも考えられるが、トランスコードにQuickSync Videoは使えないので注意が必要である。Xeon E2224はiGPUが無効化されているしG5420はiGPUがあるはずだがHP Enterpriseによるとファームウェアで無効化されているためである。

ネットワーキング (1) 内蔵GbE: i350-AM4

 私が個人的に疑問に思うのが本機に搭載されているGbE=i350-AM4である。
 Intelの4ポート1GbEコントローラーで、1GbEながらVMD-qやSR-IOVに対応する。SR-IOVは例えば合計4台以上の仮想マシンがホストされている場合でもPCIeパススルーでネットワークアダプターを割り当てたりといった使い方ができる。こういう使い方は特に10GbE以上では有効なのだが1GbEではあまり採用例は見ない。

 個人的には、i350-AM4よりも例えばIntel i225-LMなどの方が良かったのでは?という疑問もある。2.5GBASE-Tに対応しており$4.06なので4ポートに4チップでもi350-AM4よりも安価だが、SR-IOVに対応していない。HPEがどういった使い方を想定して本機にi350-AM4を選択したかは不明だが、恐らくはVMwareなど仮想マシンホストとしての使い方を想定してi350-AM4を選択したのだろう。

 本稿では本機を仮想マシンホストとしてでなくストレージサーバーとすることを想定しているから、残念ながらi350-AM4はあまり良いNICとはいえない。後述するがPCIe x16に10 GbEアダプターを接続することを提案したい。

ネットワーキング (2) PCIe 10GbE

 拡張性に余裕のあるPCサーバーならばともかく、本機にはPCIe x16 1スロットしか拡張の余地が無いので本当に必要なものを選択する必要がある。
 そこで検討・提案したいのがQNAP製Synology製の10GbE・M.2コンボカードである。PCIeカード1枚で10GbEとM.2接続のデバイス x 2個を拡張できる。これらの拡張カードはPCIeカードにPCIeスイッチと各種コントローラーを載せたものだからPCIeスロットを持つマシンと対応ドライバーがあれば技術的には動作するはずだが、メーカーが想定している用途ではないから保証を受けられない可能性があるので注意されたい。

 QNAP製4種とSynology製1種が存在するが、搭載しているパーツ・対応するデバイス・性能に差異があるため注意が必要である。
 10GbEコントローラーはQNAP製の旧モデル(QM2-2S10G1T・QM2-2P10G1T)ではTehuti TN9710P、QNAP製の新モデル(QM2-2S10G1TA・QM2-2P10G1TA)ではMarvell(旧Aquantia)AQC107である。Synologyは情報がないが恐らくAQC107だろう。TN9710PとAQC107の機能的な差は前者は10G/1GbE対応に対し後者は10G/5G/2.5G/1GbE対応なので後者を選ぶのが無難であろう。Intel製・Mellanox製の10GbEと比べれば性能的・機能的に見劣りするのは否めないがストレージサーバーで使う分には十分だろう。性能面から言えばSATA HDDはアレイを組んでも10Gbpsより遅いし、Intel・Mellanox製の10GbEコントローラーに搭載されるSR-IOVなどの機能はストレージサーバーには不要だからである。
 Marvell・Tehuti製コントローラーになくIntel・Mellanox製にある機能でストレージサーバーで効果的なのはRDMAやRCoEである。これらの機能が必要な場合はIntel・Mellanox製コントローラー搭載製品を選ぶ必要がある。

 M.2スロットについてだが、QNAP製はSATA接続とPCIe Gen2 x2接続・Synology製はPCIe Gen3 x4接続から選択することになる。PCIe接続の場合M.2 M-key形状であれば他のデバイス(例えばGoogle EdgeTPUなど)も接続できるが、本稿ではストレージサーバーを想定しているためSSDになろうかと思う。
 個人用途では考え難いが、サーベイランスカメラのビデオ保存先として使用する場合、EdgeTPUやIntel Myriadを接続して顔識別などもできそうだが、本稿の趣旨とはずれるため割愛する。

 注意が必要なのは、接続されるプロトコルと性能についてである。
 PCIeカードそのものはホストとPCIeで接続され、PCIeスイッチでスイッチングして各デバイスと接続するわけだが性能がやや異なる。

  QNAP SATAモデル QNAP PCIeモデル Synology PCIeモデル
PCIe Switch IDT 89HPES12T3G2
3 port 12 lane
IDT 89HPES10T4G2
4 port 10 lane
?
4 port 20 lane
Host-PCIe Switch PCIe Gen2 x4 (20Gbps) PCIe Gen2 x4 (20Gbps) PCIe Gen3 x8 (64Gbps)
PCIe Switch-NIC PCIe Gen2 x4 (20Gbps) PCIe Gen2 x2 (10Gbps) PCIe Gen3 x4 (32Gbps)
PCIe Switch-SSD PCIe Gen2 x2 (10Gbps)
SATA III 6Gbps x2
PCIe Gen2 x2 (10Gbps) x2 PCIe Gen3 x4 (32Gbps) x2

 QNAP SATAモデルではPCIe Switch - 10GbE NIC間がPCIe Gen2 x4(片方向20GT/s・双方向40GT/s)で接続される。これは10GbEよりも高速なためネットワーク接続は高速だが、一方でSATA III SSD(計12Gbps)がPCIe Gen2 x2接続(10GT/s)のSATAコントローラーで接続されるためSSDは十分な性能を発揮できない可能性がある。
 例えばM.2 SATA SSDをWriteキャッシュとして用いる場合、書き込みでは以下のようなフローになる。
Client=(10Gbps)⇒10GbE NIC=(<20GT/s)⇒CPU=(10GT/s)⇒SATA⇒M.2 SSD=(10GT/s)⇒CPU=(6Gbps x 4)⇒HDD
実際のホストCPU-PCIe Switch間の帯域は上り20GT/s・下り20GT/sだが、途中のPCIe帯域は下り10GT/s・上りが最大で計30GT/s必要な場合があり不安である。また、そもそもM.2 SATA SSDでキャッシュとして有意な速度が得られるのか?という疑問もある。

 QNAP PCIeモデルではPCIe Switch - 10GbE NIC間がPCIe Gen2 x2(10GT/s)で接続されるのでSATAモデルよりも若干遅くなる。また、PCIe接続のSSDを接続できるがPCIe Gen3 x4(32GT/s)ではなくPCIe Gen2 x2(10GT/s)なので高速なSSDを搭載しても十分なパフォーマンスは得られない。
 M.2 SSDがPCIe Gen2 x2(10GT/s)が2基なので、SSDだけを見ればストライピングなどによりキャッシュとして十分な性能を得られそうに見えるが、PCIe帯域が圧倒的に不足である。例えばM.2 SSDをWriteキャッシュとして用いる場合、書き込みでは以下のようなフローになる。
Client=(10Gbps)⇒10GbE NIC=(<20GT/s)⇒CPU=(20GT/s)⇒M.2 SSD=(20GT/s)⇒CPU=(6Gbps x 4)⇒HDD
途中のPCIe帯域は上り40GT/s・下り20GT/s必要な計算だが、実際のホストCPU-PCIe Switch間の帯域(上り20GT/s・下り20GT/s)を上回ってしまっている。

 Synology PCIeモデルは3機種で唯一PCIe Gen3 x8(片方向32GT/s・双方向64GT/s)対応でNVMe M.2 SSD本来の性能を発揮できる。また、ホストと拡張カードの接続が64 GbpsあるからSSDと10GbEが競合し難い構成となっている。例えばM.2 SSDをWriteキャッシュとして用いる場合、書き込みでは以下のようなフローになる。
Client=(10Gbps)⇒10GbE NIC=(<20GT/s)⇒CPU=(32-64GT/s)⇒M.2 SSD=(32GT/s)⇒CPU=(6Gbps x 4)⇒HDD
Synology製品の場合、上述の通りホストCPU-PCIe Switch間の帯域が片方向32GT/s・双方向64GT/sもあるため余裕がある。それでもM2 PCIe Gen3 x4 SSD 2基の帯域には僅かに不足しているのだが、SATA 6Gbps 4基のHDDのキャッシュとして使う分には十分以上に高速である。今回検証している用途=ストレージサーバーではWriteでは10GbEがボトルネックになって10Gbps以上の書き込みが必要ない(もちろん、25GbEや100GbEも搭載可能だが…その場合はSSDの設置スペースが無いため、この想定そのものが無意味である)。
 もし、今回想定しているような用途で使用する場合はSynology製コンボカードの使用をお勧めしたい。

 ところで、PCIeに普通の10GbEカードではなく10GbE・M.2コンボカードを勧める理由はM.2 SSDにシステム領域やキャッシュ領域を配置して4ベイのHDDをデータ領域のみにするためである。
 ZFSでストレージを組む場合、システム領域・データ領域(ZFSプール)・キャッシュ領域(ZFS SLOG・L2ARC)の3種類を考慮する必要があるが、SSDにOSとキャッシュを格納することでHDDをデータ領域で占有できる。様々なZFS解説ページがZFSプールにHDD全体を使うことを勧めている。パフォーマンス面で利点があるほか管理面でも利点ある。
 メーカー製NASなどでは、メインボード上のフラッシュにBootloaderとLinux Kernelのみが入っており、Linuxルートファイルシステムはデータと同じHDDに格納されていることがあるが、管理やトラブルシューティングを考えると良いアイデアとは言えない。例えばBuffalo製NASの場合は搭載されているHDDすべての第1パーティションがRAID1でミラーリングされシステムが格納されているが、これは別の見方をすればディスクをすべて抜くと起動不可になってしまう。
 ZFSでは読み書きの高速化のために、読み出しキャッシュ=L2ARCや書き込みキャッシュ=SLOG(ZILの独立させた領域を割り当てたもの)を設定することが多くSSDを推奨されることが多い。また、SLOGは書き込み障害時にデータのリカバリーに使用されることからZFSストレージプールと同じHDDではなく別途領域を設定する方が信頼性の面で推奨される。

Comment