AppleがIntelのモデム部門を買収
Apple、Intelのモデムチップ部門買収へ - ITmedia
Apple to Buy Intel’s Modem Business for $1 Billion - EETimes
この取引はAppleにとっては三重の意味でメリットがある
- Qualcommはモデム採用ベンダーに対しモデムチップの価格に加え特許使用料を徴収しており、Appleの場合は四半期ごとに$150M-$250Mと見られていた。Appleは既に保有する特許にIntel(旧Infineon)の特許を加えると保有特許は17,000件超に達し、特許料の一部を相殺することができる
- AppleはAシリーズプロセッサーを内製しているが、モデム技術を持たないため外付になり、モデムを持つ競合他社(Qualcomm・Samsung・MediaTek・Huawei)に対しコスト・フットプリント(基板上の設置スペース)・消費電力で不利になっている。これらの問題を改善できる。Intelモデム部門は5Gモデムの開発に成功していないが、4Gモデムを内蔵・5GモデムのみQualcommから調達という選択肢を持てる
- IoTではすべての機器にWi-Fiやモデムが搭載されることになるから、自社製品にモデムを統合可能になることは有利。IoT機器では通信速度は求められないからIntelが開発済の4Gモデムや派生品を流用できる可能性がある
もっとも、7月の買収発表ではAシリーズプロセッサーに4G LTEモデムが内蔵されるのは早くとも2021年登場のA15以降になるだろう(※通常のスケジュールでは既にA13は量産・A14はそろそろテープアウトするはずである)。
ところで、Appleが買収に費やした$1Bという金額であるが高いのか安いのか解り難い。IntelはInfineonからモデムを買収する際に$1.4Bを支払って買収・さらに富士通からトランシーバーを買収(買収価格は非公開)しているから、価格としては割安にも見えるが、同部門は4月に5Gモデム開発放棄を発表し、(1) 今後5Gモデムの開発に成功するか不透明 (2) 人材の流出の懸念があるから、簡単には評価が難しい。
しかし、上記の1~3点目を鑑みれば、特許料の支払い額を減額できるうえ、自社製品のコストダウンも行えるから長期的に見れば十分に元が取れそうに見える。モデムは難しいビジネスで、実装するための関連特許が膨大なこともあるが、仮に実装しても携帯電話会社の接続試験を通過しなければ携帯電話会社の販売する端末には採用してもらえない。
DRAM価格
God DRAM you! Prices to slide more than 40% in 2019 because chip makers can't forecast - The Register
日本・韓国政府間のいざこざで注目を集め、にわかに価格高騰騒動が巻き起こった(※地域限定)DRAM市場であるが、世界水準で見れば一過性のもので、DRAMスポット価格は下落を続けている。DRAMモジュール価格は一時的に10%強ほど上昇したものの一段落した状況である。
そんな中、Gartnerが出したのが2019年は供給過多でDRAMの価格が40%下落するというものである。もっとも既に2019年も半ばであるから今から42.1%下落するという意味ではないし、年初より2019年中は下落することが報じられていたから順当な内容である。報道各社は価格高騰を煽る記事を書いているが、フッ化水素等の半導体材料の輸出が問題となるのも影響は限定的(韓国メモリーベンダーの中国工場のみ)なので予想から大きく逸脱することは無い。
ちなみにDRAM eXchangeのインデックス=DXI(株価における日経平均やDawJonesに相当)を指標とすると、7月9日までの過去半年で25869から17202まで既に34%も下落していた。7月10日から大きく反発したものの4月後半並の水準まで戻したものの、7月19日以降は再び下落を続けている。同様のペースでいけば11月頃には7月序盤の水準に戻り年末頃までに通年で40%前後の下落となるのは不思議な話ではない。もっとも、メモリーのスポット価格とはDRAMチップのトレーでの取引価格なので、一般消費者のDRAM DIMMモジュールの価格に何時反映されるかについては予測はつかない。
ちなみに、個人的にDDR4 DIMMを購入するか迷っていたのであるが、価格の反発も一段落したので当初の予定通りBlack Friday/Cyber Mondayをターゲットに購入することとしたい。
AIハードウェア
VLSIシンポジウムが「AIハードウェア」シンポジウムになる日 前編 後編 - PC Watch
記事中で説明されている内容は興味深いとは思うのだが、個人的には「VLSI」と違い「AIハードウェア」が注目を集めるのは一過性のトレンドということで永遠に続くわけではないと認識している。
昨今、コンピューターのパフォーマンスの伸びが鈍化してきていると認識されている。CPUを例にとると、かつて4年毎に設計が刷新されて18~24ヶ月毎にパフォーマンスが倍に向上していたが、Intelの最新プロセッサーは2016年に登場したコアを1プロセッサーあたりの2倍に増やしただけに過ぎない。コア数を倍に増やすと理論上の最高性能は2倍になるが、そのようなワークロードは稀のため経験的には1.2~1.4倍程度にしか向上しないことが知られている。36ヶ月でパフォーマンスは1.4倍にしかならなかったわけだ。
このような背景でAI≒ニューラルネットワーク/ディープラーニングが盛り上がっているのは以下の理由だと理解している:
- CPU性能の成長鈍化に伴い、一部でドメインスペシフィック(特定分野向け)半導体が脚光を浴び始めているものの、特定業種向けの特殊なプロセッサーの製品化に難しさがある。例えばIBMは金融機関で重宝されるメインフレーム/UNIXサーバー用に十進数演算ユニットを実装しているし、富士通はアニーリング用ハードウェアを実装しているが、ユーザーもニーズも限定的で採算がとれると判断できなければこれらのハードウェアは製品化しにくい。多くの分野で使用できる柔軟性と既存のCPU・GPU以外のプロセッサーとは異なる特徴を両立したプロセッサーとしてニューラルネットワーク用プロセッサーが注目を浴びている
- 仮想通貨のマイニングとは異なり、従来のハードウェアでは処理が難しい。例えばCPUやGPUで実装されているSIMD演算ユニットなどは一次元のベクトルである(例えば座標はx,y,zだし、色はr,g,bである)が、これに対しディープラーニングは大量のデータを二次元のマトリックスで処理する。もちろん、一次元の演算を複数回実行することで二次元の演算は行えるが、一括で処理可能なハードウェアがあればアドバンテージを取れる可能性はあり、新興国や新興企業にもチャンスがある。
- 上記とも関係するが、データ精度が過去のトレンドと異なるのもポイントであろう。ディープラーニングが普及する前の2010年以前のHPCなどでは科学演算における倍精度浮動小数点演算(64-bit・FP64)性能が重視されたが、これがディープラーニングでは精度よりもデータ量・演算量が重要となることから、データの圧縮のため、にわかに半精度浮動小数点(16-bit・FP16)が使われ始めた。但し、各社共、最適なハードウェアアーキテクチャーやフレームワークを探っている状況でGoogleに至ってはFP32との変換の容易さからBrain FP16(bFP16)を定義したぐらいである。