goo blog サービス終了のお知らせ 

ALH84001

私的コラム&雑記(&メモ)

今週の興味深かった記事(2018年 第51週)

2018-12-23 | 興味深かった話題

IBMは次世代POWERシリーズ・zシリーズ CPUでSamsung 7nm EUVプロセスを採用

IBM to use Samsung 7nm EUV for Next-Gen POWER and z CPUs - AnandTech
IBM chooses Samsung 7nm EUV for Next-Gen POWER and Z Microprocessors - WikiChip

 GlobalFoundriesが7nm以降のプロセスの開発を止めたことで同社のプロセスを採用していたAMD・IBMの動向に注目が集まっていたが、IBMはSamsungに移行するらしい。もっともこれはIBM・GlobalFoundries・Samsungが2009年からCommon Platform Allianceを結成していたことを考えると納得の結果と言えるかもしれない。


先週の興味深かった記事(2018年 第50週)

2018-12-23 | 興味深かった話題

Intel "Sunny Cove"

Intel、次世代CPUアーキテクチャ「Sunny Cove」の概要を明らかに - PCwatch
Intelの次世代CPUマイクロアーキテクチャ「Sunny Cove」 - PCwatch

 「Sunny Cove」というコード名は目新しく感じられるが、AMDがZENで採った命名方式を参考にすると、単にコード名が細分化されただけだと解る。つまりAMDの場合はCPUコアが「ZEN」・それを実装したチップが「Zepperin」・それをパッケージに納めた派生製品がRyzen=「Summit Ridge」だったりEpyc=「Naples」だった。
 こういった違いに加えIntelの場合はiGPUの名前もあるわけだが、「Skylake」のようなコード名自体が漠然としており、「Skylake」と言ったときにCPUコアのことなのかiGPUを含む製品のことなのか「Skylake-S」「Skylake-SP」などを含むファミリー名なのか判然としなかった。それが「Sunny Cove」は「Ice Lake」で使用されるCPUコアのことということが分かったわけだ。

 どうやらSunny CoveはCore系マイクロアーキテクチャの発展形のようで、以前Tiger Lakeの後2023年頃に完全に新規のアーキテクチャが出るというウワサがあったが、Jim Keller氏のIntel移籍が2018年6月と考えると2022年頃までは既存のCoreアーキテクチャーが継続されるのが自然に見える。

 後藤氏が記事中でロード/ストアがペアになっていることについて指摘しているが、私もこの部分は興味が尽きない。というのも実行ポートの構成から見るとストアが過多であるように見える。後藤氏はスケジューリングとの関連を示唆しているが、例えばHyperThreddingの2スレッドで分けて使用するような使い方になるのかもしれない。

ファーウェイ排除 日本にも深刻な影響のおそれ

ファーウェイ排除 日本にも深刻な影響のおそれ - ASCII

 ASCIIは恐らくHuaweiがスポンサーになってステルスマーケティングを行っていたのではと思うことが多々あった(いや、ステルスですらないのか)。恐らくASCIIだけでなく、そういう企業は多々あるはずで影響は大きそうだ。

 以前「ファーウェイのことは忘れよう」と書いたが、これは技術の問題ではなく政治の問題であるからで、共産主義国家=中国と資本主義国家=日本・米国・欧州では必然的に衝突してしまう。地理的に隔てられた欧州なら対岸の火事とも言えるが日本は他人事では済まない。ましてや2013年のレーダー照射事件2016年の南沙諸島埋め立てなど中国との軍事的な駆け引きが激化してきたことを踏まえると政治的問題が起こるのは時間の問題だった。
 さらに言えば、OppoやXiaomiがQualcommやSamsungなど西側/資本主義陣営側の国で生産された部品を採用しているのに対し、Huaweiはプロセッサー等を自社開発しており、さらに同社が人民解放軍との結びつきが強いことを踏まえればリスクはより高く、それだけ槍玉に挙げられる可能性も高い。

 ZTEが米国での販売を禁止された時点で業界関係者は誰もが「ついに来たか」「次はHuaweiだろう」と思ったに違いなく、ASCII自身も週刊ダイヤモンドの転載ながら今年9月に「中国IT大手「ファーウェイ」の正体、米国が最も潰したい企業」という記事を掲載している。


今週の興味深かった記事(2018年 第49週)

2018-12-08 | 興味深かった話題

Microsoft、Webブラウザ「Edge」をChromiumベースに

Microsoft、Webブラウザ「Edge」をChromiumベースに -- ITMedia

 Webブラウザーのエンジンが何だろうが多くのユーザーには関係が(興味が)無いだろうし、似たような物を複数の組織が作ることは、よく言えば市場の競争原理が働くが、悪く言えば車輪の再発明をしていることになりかねない。だからMicrosoftがEdgeHTML(旧Trident)エンジンを捨ててGoogle Blinkを採用することは悪い事ではないのかもしれない。

 個人的に気になったのはWindows Explorerとの関係である。昔からInternet ExplorerとWindows Explorerは多くのコンポーネントを共有していることが知られていて、その代表例としてExplorerのアドレス部分にURLを入力するとシームレスにInternet Explorerに切り替わることが挙げられるし、結び付きが強すぎてInternet Explorerだけをアンインストールすることは不可能とも言われていた。
 それならば、Internet ExplorerのHTMLレンダリングエンジンが変更になった場合、Windows Explorerに影響はないのだろうか?例えばJPEGファイルを壁紙にしたりシェルの背景を編集できたりする(昔はできたが今もできるのか??)アクティブデスクトップはWeb技術を使っているが、あれはInternet Explorerとは関係ないのか??とか。もっとも、Windows ExplorerとMSHTML.dllで検索しても何もヒットしないので関係はないかもしれない。

適者生存?

ソ連で生まれた1100代目の「ハエ」が、なぜ注目されているのか - ITMedia

 まったく畑違いなので詳細は理解できないが興味深く読ませて頂いた。
 ただし、飼料は肥料を使った生産物の質が良いというのは怪しい。良い肉を食べたからといって食べた人間が優秀になるとは限らないし、疑似科学っぽい仮説しかでていないのが残念(インタビュアーもそれは認識されていたようだが)。

 なんとなく、イノシシがブタになる過程を見ているような気にさせられるエピソードである。

 個人的に興味深かったのは本題のムスカよりも、むしろアビオスの方である。例えば旧ソ連が軍事と宇宙に力を入れていたため他の科学技術と比して抜きん出た成果を挙げており、自動車などは日本のどのメーカーと比較しようが無いにも関わらず軍事と宇宙だけは日本より先を行っているのは広く知られる通りである。同じように(?)日本より先を行っているビジネス/技術はあるのだろうと思うし、旧西側と違い旧東側では安く買い叩けるだろうから、旧東側で買って旧西側に持ち込むことで利益を生み出せるというのは、言われてみればなるほどと思うが目から鱗でった。


今週の興味深かった記事(2018年 第48週)

2018-12-01 | 興味深かった話題

AWS Graviton

AWS Now Offers Arm-based Compute Instances - Tom's Hardware

 Amazon Web ServicesがEC2インスタンスの新タイプとしてArmプロセッサーを初めて採用したA1を発表した。
 Arm系サーバー用プロセッサーとしてはCavium(Marvel Technology Groupが買収)のThunder X2や、新興Ampare eMAGなどが挙げられるが、採用されたのはAWSが2015年に買収したイスラエルAnnapurna Labs製Alpine AL-73400のようだ。

 この報道を受けて一部で「AWSがCPUを作った!」というミスリードを招く報道やBlog記事も見られるが、これはまったくの誤解である。Armをはじめ昨今のプロセッサーはCPUコアの他にメモリーコントローラー・暗号/復号エンジン・周辺機器を接続する各種コントローラー(PCI-ExpressコントローラーやSerialATAコントローラー)・Ethernetコントローラーなどが集積されたSystem-on-Chip(SoC)構成が増えているが、Annapurna LabsはSoCの開発・製造を手掛けるベンダーで、CPUコアは英Armから設計のライセンスを買って載せている。
 つまりAWS/Annapurna LabsはCPUコアの設計までは(現時点では)手掛けていないのだが、実のところArmが設計するCPUコアは性能も電力効率も良く種類も豊富なため、Apple・Qualcomm・Samsungのように数を販売できる目途が立っていない限りはライセンスを買って使う方がリスクが小さい。Amazonは電子商取引の会社で技術は実現方法に過ぎないだろうから、Amazonが現時点でCPUコアの開発をリスクに値すると判断するかは怪しいと想像する。

 多くの報道ではArm Neoverseを採用とあるがNeoverseはプラットフォームの製品名で、採用されているCPUコアはCortex-A72が16コアと見られている。おそらく4コア/クラスターを4クラスター構成だろう。
 これがどういう規模なのか?ということを考えると、例えばArm系サーバープロセッサーで先頭を走るCavium Thunder X2は最大32コア搭載しているが、Thunder X2のCPUコアはCortex-A72と比べ倍程度は複雑なので、もしAL-73400が同じ性能水準の構成を取るのであればCortex-A72が64コアほど載っていても不思議はない。それが16コアということだから、(現時点では)あまり高性能を狙っているとは思えない。ちなみにThunder X2 32コア$1795・16コア$800、eMAG 32コア$850・16コア$500だそうなので、私の想像ではAL-73400がもし外販されれば$300程度だろうと思う。

 AWSは以前からAnnapurna Labs製プロセッサーをネットワーク機器などで使っているそうだ。実はAnnapurna Labs製プロセッサーはNetgearやASUSのNASや無線ルーターに採用され市販されており、例えばARM Cortex-A57 4コアを集積したAlpine AL-324などが知られている。AL-73400はそれらよりは大規模なプロセッサーではあるが、AWSがネットワークストレージ(例えばAWS S3やAWS FSxなど)やネットワーク機器(例えばElastic Loadbalancerなど)で採用されていると想像すれば、できる。

PlayStation Classicの中身

PlayStation Classic Teardown Reveals Surprisingly High Specs - WCCFTech

 PlayStation Classicの中身が明らかになった。台湾MediaTek製MT8167A搭載で、これはArm Cortex-A35 4コアにImagination Technologies PowerVR GE8300グラフィックコアを組み合わせたSoCである。

 一般に普及しているMediaTek製SoC搭載デバイスということで一番に思いつくのがAmazon Fire Tablet製品であるが、CPUだけを見れば概ねFire Tablet HD 8(MT8163V)とFire Tablet 7(MT8127B)の間のような性能で、任天堂のファミコンミニ/スーパーファミコンミニに搭載されているAllwinner R16と同程度である。特筆すべきはGPU性能で、動作周波数が不明のため正確な数字は不明ながら恐らくファミコンミニ/スーパーファミコンミニの6倍程度に達する。

  PS ClassicSNES MiniFire HD 8Fire 7
SoCMT8167AR16MT8163VMT8127B
CPU Cortex-A35 x4 Cortex-A7 x4 Cortex-A53 x4 Cortex-A7 x4
10680 DMIPS 11400 DMIPS 11960 DMIPS 9880 DMIPS
GPU PVR GE8300 Mali-400MP2 Mali-T720 MP2 ARM Mali-450MP4
41.5 GFLOPS (?) 6.3 GFLOPS 17.7 GFLOPS 35.8 GFLOPS

  MediaTek製SoCは米国メーカー製に比べて安価だしMT8167AはMediaTek製でもローエンドレベル寄りなので安価ではある。とはいえ、おそらく$10~15前後で同水準の中国メーカー製SoCに比べると50%程度は高価だろうと想像できる。

日本の常識・外国の非常識

6割の企業が「ダイバーシティ推進」をやっていない - ITMedia

 アイルランド在住の筆者としては「評判が気になる」という理由でダイバーシティを推進していないというのは理解できなかった。いや、むしろ記載されている理由すべて理解できなかったというのが正しい。

 それが果たして「正しい」のか?そもそも何をもって「正しい」のか??という問いはあるにせよ、ほぼ日本以外の先進国で「ダイバーシティを推進していない」ことが許される社会は存在せず、もし評判を気にするならば「ダイバーシティを推進していますよ!」とアピールせざるを得ない状況となっており、しばしば性別・人種の多様性がスキルの多様性よりも重視されることすらあることから、先日Open Source界の重鎮Richard Stallmanが「『多様性』を目標にすることは同意しない」と苦言を呈したほどである。もし米国系企業でダイバーシティ推進を批判するような発言をしようものならクビにされかねない。

 ところで最近、巷では経団連のプッシュで外国人労働者=移民受け入れの話題で持ちきりのようだが、欧米式の男女平等すら理解されず実績されない日本社会が外国人労働者を受け入れるのは不可能に近いのではなかろうか。

 たとえば、仮にイスラム教徒の男性および女性が入ってきたとすると、礼拝をする部屋を用意する必要があり、特に女性用の礼拝部屋は極力窓などが無い外部から見えない部屋を用意する必要がある。また、トイレにはペーパーだけでなく水で洗い流す設備が必要になるし、社員食堂がある場合はハラルあるいはベジタリアンを用意し豚肉を使う場合は明記する必要がある。以前、味の素がイスラム教国で豚を由来とした調味料を販売して問題となったことも有名だが、これは肉のような目に見えるものに限らない。
 もっとも、もしホワイトカラー/知的生産階級であればマナーもよく宗教に穏健で異文化への理解ができるので問題は起こりにくいが、それが経団連の求めるような肉体労働者・単純労働者となれば話はさらにややこしくなる。


今週の興味深かった記事(2018年 第47週)

2018-11-25 | 興味深かった話題

NRAM

サーバー/PC主記憶DRAMの置き換えを目指すナノチューブメモリ - PC Watch

 ソフトウェアエンジニアリングを学んだ人であれば、こういう話を聞いたことはあるだろう。「メモリーはレジスタの1000倍遅く、HDDはメモリーの1000倍遅い」。もちろん、この1000倍というのは概算/アイデアであって正確な値ではない。10~100倍ならなんとかなるかもしれないが、絶対的な性能の差の壁がそこにはある。
 この20年間ほどメモリーは頭の痛い問題であり続けている。なにせCPUと比べても速度がまったく上がらない。2000年頃から考えてもSDR→…→DDR4と帯域は8倍以上にも向上してきたが、セルの動作速度(=読み書きの遅延)は過去20年で2倍程度にしか向上していないPC100(100 MHz)→PC4-25600(200 MHz)。

 なぜ上記のようなことを述べているかといえば、IntelのOptane Persistent MemoryHP EnterpriseのThe Machineなどを見ても分かる通り、メモリー階層の変革が必然的になりつつあるように見える。CPUの性能向上は物理法則の壁にぶちあたりつつあるが、もし高帯域・高遅延・大容量のメモリーが発明されるか(※これは大変に望みが薄い)、あるいはメモリー階層を変更してメインメモリーを特大容量・不揮発性にできればコンピューターの性能はまだまだ伸ばせる(希望的観測)。本記事のNRAMやOptaneやThe Machineからは業界がそういう模索をしている姿が垣間見える。

QNAP製PC拡張カード

QNAP、Core i7/DRAM/SSDの“PC一式×2”を搭載したPCIe拡張カード - PC Watch

 これはまったく用途が想像できないが実に興味深い。
 ブロック図を見ると拡張カード上にPC構成部品が2台分載っており、4個搭載されている10GbE NICでホストPCと拡張カード上の2台のPCがやり取りすることになる。つまりホストPCから見ると拡張カード上の2台のPCには直接的な連携機能はない。ところで10GbEの最大の弱点はPHYの発熱なので、NIC 4個であればPHYを省略してLayer 2でやり取りが可能なはずだが、PHY部分が載っているのか図ではよく判らない。とはいえ、Layer 2でやり取りするならばL2 Switchチップを使ってもよかった気がする。

 最近のQNAPはQBoat Sunny開発ボードなど非NASデバイスにも積極的だが、目的が解り難い製品が多く出てきている。
 今回の拡張カードの場合ではモノとしては興味深いものの、なぜPC 2台なのかという意図が分からない。上述の通り2台の間に連携機能はないからである。それならば、もしかしたら超低電圧版Core i7 7567U(2core/4threads 3.5-4.0 GHz 28w)2個よりも高性能モバイル用Core i7 8850H(6core/12threads 2.6-4.3 GHz 45w)1個を使ったり、あるいは省電力なNVIDIA GeForceを載せた方が良かったのではないだろうか?(※いずれにせよ、用途によって最適な構成は変わる)

なぜデスクトップLinuxは普及しなかったのか?

なぜ“デスクトップLinux”は普及しなかったのか? - ITMedia

 記事中ではデスクトップのインターフェースよりもデバイスドライバーについて述べられている。個人的にはデスクトップアプリケーション類の使い勝手の悪さの方が問題だと思うが、デバイスドライバーも確かに問題ではある。
 なぜデバイスドライバーが問題かと言えば、これも様々な理由が考えられるが、GPLのLinux KernelにロードするカーネルモジュールはGPLでなければならないからで、デバイスベンダーはOpen Sourceでソフトウェアを書きたがらない。そこで有志がドライバーを書くものの、今度は類似のドライバーを汎用化しようとするため速度が出ない状態が続いている。もしLinux KernelがMITライセンスかApacheライセンスなら少しはマシだったかもしれないが…ちなみにAndroidで状態がマシなのは、多くのベンダーがGPL違反しているからである(最近はQualcommもCode Auroraでオープンソースに積極的だそうだが…しかしAdorenoや各種モデムのファームウェア/ドライバーのソースコードが公開されたという話は聞かない)。
 また、記事中で指摘されている通り、ディストリビューションを絞るというのは確かに優れた解で、現状ではディストリビューションの数が多過ぎ「車輪の再発明」的なマンパワーの無駄がある。

 もっとも、いちLinuxユーザーとして言わせてもらえれば、例えばAndroid端末や家庭に普及しているWi-Fiルーターなどが成功していることから分かる通り、デスクトップは諦めて専用設計に特化したり、サーバーに特化したりした方が良い。


今週の興味深かった記事(2018年 第46週)

2018-11-18 | 興味深かった話題

Intel/Movidius Myriad X

Intel、AI開発者向けの小型デバイス「Intel Neural Compute Stick 2」を発表 - @IT

 Intelが買収したMovidiusのMyriad X VPU(MA2485)が販売され始めた。
 VPU(Vison Processing Unit)とはいうがエッジ側のNeural Processing Unitで、CaffeやTensorflowを4TOPSで処理できる。記事にある通りIntel自身がUSB 3.0接続のNeural Compute Stickをリリースするほか、ASUS系のAAEONがMini PCIeおよびM.2接続のボードを展開する。
 もっとも、Mini PCIe/M.2といっても実際の接続はUSB 3.0で、Mini PCIeの場合はFresco Logic FL1100 USB 3.0コントローラー経由、M.2はB+M Keyタイプのインターフェースに含まれるUSB 3.0を使用してホストとUSB 3.0で接続されるので、SSDなどとは違いUSB 3.0接続のIntel NCUだろうがMini PCIe/M.2接続のAAON AI Core Xだろうが性能的な違いはない(FL1100やIntel xHCIといったUSBホストコントローラー性能による違いはあるかもしれない)。

 最近出揃ってきているエッジ側NPUだと、Apple A12が5 TOPS、中国Rockchip RK3399Proの2.4 TOPSといった具合であるが、Myriad Xの性能がいまいち判然としない。ニュースリリースを読むと4 TOPSという記載もあれば「専用のNeural Processing演算で1 TOPS」という記載もあり、どうやら1 TOPSの「Neural Compute Engine」と合計で4 TOPSの16コア「SHAVE」ベクトルプロセッサーが混載されているようだ。ダイ写真を見ると5%ほどを占める制御用RISC CPU・20%ほどを占めるImaging Accelerators・10%ほどを占めるNeural Compute Engine Engine・30%ほどを占めるSHAVEが混載されていることが分かる。

サイバーセキュリティー担当大臣とは何をする職種なのか

Japan's cyber-security minister has 'never used a computer' - BBC

 筆者はアイルランド在住だが、同僚から質問攻めにあった「ちょっと、どういうことなの?」と。それは筆者自身と同僚が米国系企業のサイバーセキュリティのチームに在籍しているせいかもしれない。

 そういう人々には半分冗談でこう回答しておいた「彼の仕事は、良い椅子に座って廻ってきた案件を承認することですよ」と。
 続いて、もう少し真面目にこう補足した
「日本は官僚が強いので、主要なポスト以外は大臣は誰でも良い」
「主要なポストとは財務・外務・防衛で、他は与党内での功績を基に選ばれる」
「彼は7期当選していることが与党にとって功績と認められた」
…もちろん、半分ぐらいは冗談だが…あながち間違ってなさそうなのが恐ろしいが、あくまで政治の問題なのだと思う。

 もっとも、本音を言えば、サイバーセキュリティのトップは先端テクノロジーを理解できて政治力も強い極めて優秀な人物か、さもなくば技術は理解しなくとも口出しせず予算だけ引っ張ってきてくれる人物が良いのではと思う。Googleのような企業であれば当然ながら前者の必要があるが、たとえば日本の銀行のような超文系社会であれば後者で充分かもしれない。
 10年前のサイバーセキュリティのコンセプトを軍事に喩えるなら中世のように城を築いて堀を掘って境界線を防衛するという感じだが、現代のサイバーセキュリティのコンセプトはそれとは大きく異なっている。防衛線が突破されて侵入されることを前提としていたり、それに対応するため選抜チームに適役をやらせて演習を行ったりといった具合で、一般人に理解できるか疑わしい。だから「コンピューターを使ったことが無い」は論外にしても「ぼくは〇〇に詳しいんだ」とか言って知りもしないのに現場に口を出されるのも邪魔で困る。

クラウドでホストされた悪意あるシステムについて、ホスト会社に責任はあるのか

「政商」化するアマゾン、米政府の重要インフラでシェア圧倒 - ASCII / MIT Technology Review

 記事自体は面白いと思ったが、ここでAmazon AWSの責任を強調するのは「坊主憎けりゃ袈裟まで憎い」的な責任転嫁だと思った。その意味ではMIT Technology Reviewらしくない。

 米政府と関連省庁は、例えばNSA Prism・NSA Echelon・FBI Caniverなど様々な監視システムを運用してきたことで知られている。もし政府と関連省庁が運用コスト削減と運用効率化のため多数のサーバーをクラウドを利用するとすれば、その一部や全部がAmazon AWS・Microsoft Azure・Google Cloud Platform等に移されるのは驚くに値しない。

 余談だが、個人的には日本の住基ネットなんかもクラウドに移行すべきだと思う。地方自治体がセキュリティの万全なインフラを設計・運用できるはずがないし、システムが地方自治体で分散していても物理的に分散している必要性が無い(というか、e-Japanだとか言って2000年から高速インターネットインフラを整備したのに、システムが物理的に分散している必要があっては自己矛盾である)。

 そして政府がサーバーをクラウドに移すのであれば、その中に監視システムが含まれるのも当然に思える。

 記事では特別に悪印象を与える表現は用いられていないものの、全体からは不法移民検挙が悪い事のように書かれ(それ自体は別の議論だと思うのだが)、政府が使用しているPalantir社製ICMをホストしているAmazonが片棒を担いでいるかのような印象を受けるが、さすがにAmazonとしては寝耳に水だろう。なにせAmazonはPalantirのシステムやデータに直接アクセスできないはずだし、Palantirだってシステム(≒道具)を開発・提供しているだけで、どう使うかはクライアントである米国政府次第であると思うのだが。


先週の興味深かった記事(2018年 第44週)

2018-11-06 | 興味深かった話題

RISC-V Tokyo

RISC-Vでサーバを狙うEsperantoEsperantoのハイエンドRISC-Vコア「Maxion」 - マイナビ

 私は、RISC-Vに関する記事を読む度に「やや登場時期が遅かった」とか「いや登場時期はちょうど良かった」とかいった矛盾したような感想を抱かずにはいられない。そもそも、1990年代にWindows+IntelによるクライアントPC市場の寡占化が進んで、状況を覆すことはほぼ不可能になった。パラダイムの変化に乗る形で覆すことは可能だが、そういう変化自体がなかなか起きることはない。最近の20年間では以下の4種類の分野においてだと思う。

 まずはスマートフォンである。携帯電話とPCのソフトウェアやアーキテクチャはまったくの別物だったが、スマートフォンの登場によって境界が無くなりつつある。もしスマートフォンとPCを同一カテゴリーに分類するならばArmはIntelの優位性を覆したことになる。ArmはPDA等の携帯端末では1990年代~2000年頃でも既に採用が進んでいたが、普及が決定的になったのはAndroid/iPhoneの躍進と連動してArmがタイムリーに高性能コアを投入した相乗効果によるものだろう。RISC-Vのプロジェクトが発表されたのが2010年・GCCでサポートされたのが2018年(7.1)だったから、少なくとも10年ほど登場が遅かったとも言える。

 次にクラウドである。クラウドコンピューティングはWebベースで(比較的)アーキテクチャを問わないし、オンプレミスからクラウドへ移行する理由がコスト(開発コスト・維持コストなど)である以上はコストの優位性さえあれば顧客はアーキテクチャーを移行する可能性がある。特にGoogleやAmazonのような自力でインフラを整備できるベンダーであれば特に敷居は低いはずで、例えばGoogleは一部のデータセンターでIntelからIBM POWERに移行している。

 クラウドとも関連するが、人工知能/ディープラーニングはEsperantのような企業には入り込む余地がある分野といえる。GoogleがIBM POWERを採用したのもPOWER-アクセラレーター間をOpenCAPI/NVLINKで接続することを意図していて、ホストCPU-アクセラレーター間の高速でシームレスな接続は必須となってきている。ならば、Esperantのような企業はホストCPU=ET-Maxionとディープラーニングアクセラレーター=ET-Minionの両方を高速ファブリックで接続したプロセッサーにもチャンスはある。

 クラウド自体は既に立ち上がっているが、ディープラーニングアクセラレーターを使った物は新しいため、RISC-Vの登場はギリギリ間に合った感じがある。

 最後にIoTである。組込市場はソースコードの使い回しは多くともバイナリーの使い回しは想定しないので、Linux KernelサポートやGCC等のインフラストラクチャーさえ用意されているならアーキテクチャは問わない。実際、IoTで勢いがあるのはCadence(旧Tensilica)のXtensaである。IoTは立ち上がりつつある分野なのでRISC-Vにもチャンスがある。RISC-Vが小規模で効率的なアーキテクチャだと言うなら、Western DigitalがRISC-Vに投資するのもそういう理由であろうし、SiFiveがハイパフォーマンスコア(ArmでいうCortex-A7xクラス)ではなくローエンド〜(ArmでいうCortex-M0からCortex-A5xクラス)にフォーカスしているのも同様の理由であろう。


今週の興味深かった記事(2018年 第43週)

2018-10-27 | 興味深かった話題

SSDが侵食するHDDマーケット

QLC SSDがコスト低減を武器にニアライン/クライアントHDDを侵食 - PC Watch

 SSDについては説明が長くなるため別記事を書くつもりなので、ここでは分析はしないが、PC Watchの記事でもSLC・MLC・TLC・QLCの違いや仕組についてはうまく整理して説明されている。

 ここで重要なのは、以前からSSDで用いられるNANDのタイプについては議論されてきたものの、今回は比較対象がSSD同士ではなくSSDとHDDとなっており、本格的にHDD市場を侵食し始めたということ。5年ほど前であれば高速だが容量が128GB程度しかなく高価なSSDと安価で容量が~8TBもあるが遅いHDDという構図で、ある種の棲み分けができていた。だからSSDは15K・10K(15000rpm・10000rpm)クラスのオンライン用SASストレージのテリトリーを脅かすことはあってもニアライン用やアーカイブ用ストレージのテリトリーを脅かすことはなかった。

 それが記事中でも取り上げられている通り2.5インチのSATAフォームファクターの「5210 ION SSD」の場合は最大7.68TBである。体積4倍の3.5インチのHDDですら最大15TBあたりで頭打ちとなっているのだからHDDのアドバンテージがさらに崩れつつある。SSD同士で比較すると魅力的とは感じ難いQLC SSDであるが、HDDとの比較となると高速・低消費電力で、コストを容認できる用途であればHDDの代わりにSSDを本格的に導入するハードルが下がった。

 私個人の場合、PC搭載のストレージは既にSSDに置換済だが、容量が必要な用途(例:大容量データ保存用のNAS)では未だにHDDを使っている。将来的にはそういう用途でもSSDに置き換わる日は来るのだろうか?

RISC-V Tokyo

RISC-V in Tokyo 2018 - SiFiveのクラウド設計サービス - マイナビ

 なにせ欧州在住だもので参加はしていないが記事は面白かった。
 世の中には一般人が知らないマイクロプロセッサーアーキテクチャが大量に存在し、市場に出回ってもいる。それらは主に組込で生活に入っている。組込であればベンダーがソースコードを持っていて、コンパイルして組み込んで出荷するのだから一般消費者がアプリケーションの互換性を気にするようなことは無い。RISC-Vも、とりあえずはそういう組込から入るということなのだろう。

 HDDで市場2位のWestern DigitalのRISC-Vへの関与は興味深い。初めて聞くと「なぜ?」と思われるかもしれないが、SSDマーケットの動向と併せて考えると興味深く感じられる。
 現在のコンシューマSSDマーケットを席巻しているのはSamsungとSilicon Motionのコントローラーである。前者は先代MDXではArm Cortex-R4コアを3個・現行でNVMe対応のPolaris/Phoenixコントローラーでは型番不明のArm Cortexプロセッサーを5個搭載しており、後者もNVMe対応コントローラーでCortex-R5コアを4個搭載している。ここでいうコアはPCやスマートフォンでいわれる「デュアルコア」や「クアッドコア」といったSMP(対称マルチプロセッサー)ではなく、各コアが割り当てられた処理を非対称に実行している。例えば3コアのSamsung MDXでは1コアがホストとの通信・2コアがNANDフラッシュの操作を担当している。MDXはコマンドキュー1個・最大6GbpsのSATAインターフェースだったがPCIe x4ベースのNVMeインターフェースのコントローラーではコマンドキュー65536個・片方向あたり32Gbpsに達するからコントローラーは高性能な多コアの方が都合が良い。NVMeでSilicon Mortionが4コア・Samsungが5コア搭載しているのも頷ける。

 このように考えると、高速・高効率で・回路規模が小さいCPUコアが求められるのが解る。例えばRISC-V BOOMをArm Cortex-A9と比較すると性能は同等ながら回路規模は僅かに1/5だし、さらにRISC-Vの場合はロイヤリティーフリーだからライセンスコストも抑えられる。Samsung Polaris/Phoenixのようなコントローラーを安価に作ったり(例:CPU部分だけ見れば、Arm 1コア分で5コア集積する)、逆に同程度のコストで多数のコアを載せた超高性能コントローラーを作ったり(例:Arm 5コア分の回路規模で25コアを集積する)できる可能性がある。


今週の興味深かった記事(2018年 第42週)

2018-10-20 | 興味深かった話題

Armの新ブランド「Neoverse」

96コアの高性能サーバーCPUも目論むArmの新ブランド「Neoverse」 - PC Watch

 何かを言っていそうで何も言っていない内容なのが不可解な発表だと思う。コードネームが幾つか登場するが、ArmのコードネームはCPUコア(論理IP)・Pop IP・プラットフォームでそれぞれ存在するためZeusだPoseidunだと言われても、それで使用されるCPUコアがどういった物なのか分からない。

 もっとも、以前ハイエンドCPUコアのコードネームとしてZeusが噂された通り、高性能コアの存在は見え隠れしている。例えばCortex-AファミリーではCortex-A7x/A5x/A3xがIntelでいうCore i7/5/3に相当する位置づけになっており、IntelがCore i9を出したようにCortex-A9xシリーズが登場する余地が示唆されている。

 個人的に、Arm製品というよりQualcom CentriqやAmpare eMAGも含めてArmエコシステムで不可解なのは、いずれも2コア/ノードとしており、2コア以上はオンチップ ファブリックでスケールする点である。そもそもArm CPUのシングルスレッド性能はせいぜいx86-64系の1/2程度で、一方のIntel/AMDのx86-64系は1物理コアあたり2スレッドのSMTなのでノード単位では、恐らく性能もコストもx86-64系と比べても大差がないのではないか。そしてArmコアを96コア(48ノード)にスケールさせる不可解なワークロードではXeon Scalable並のファブリックが必要となる。

 Intel Xeon Scalableは最大48コアまでフラットにスケールする。AMD Epycは1コア・4コア・8コア・32コアとスケールする。今日のワークロードではマルチコアは当然だが、コアが増えるとコヒーレンシなどコア間のトラフィックが問題となる。Xeon Scalableのようにフラットに扱えるのが理想的だがCPU0⇔CPU1間の近傍のトラフィックとCPU0⇔CPU31間の長距離のトラフィックとを同等に扱えるファブリックはコストが膨大になる。AMDの回答は4コア間・8コア間のトラフィックを局所化することでコストとファブリックにかかる負担を軽減している。32CPUコア全体を使うよりは1コア/4コア/8コアに分割して使うという意味では理に適っている。理想通りのXeon Scalableに対し現実に即したEpycという構図である。ArmやArmのパートナーの製品にはそういう戦略や思想が見えないように思う。

Huawei(華為技術)という会社

HuaweiのMate 20シリーズが叶える、至上の贅沢 - PC Watch

 Huaweiがそこそこに面白い製品を作っているのは解るし、山田氏がテクニカルライターとして技術面を分析・解説するのも解る。だが、忘れよう。そういうベンダーがあった、それだけである。中国という国は政治問題がありすぎ、幾ら政治と関係の薄い個人でもプライバシー面でのリスクが高すぎる。

 実はHuaweiについては2年ほど前に別の場所で文章を書いたことがある。というのも、一部のメディアでHuaweiがあたかも新興企業のように取り上げられていたからだが……これはまったくの間違いである。
 同社の設立は1987年であるし、主に企業向けネットワーク製品(当時は主に有線LAN製品)を中心に2000年頃には欧米を中心に採用が増えた企業である。象徴的なのは、現在はHewlett-Packered Enterprise傘下となっているH3Cではないか。同社は2003年に設立された当時のHuawei-3comの名の通りHuaweiの企業向けネットワーク製品を、当時既に存在感を失いつつあった3comが同社製品として欧米で販売するための企業だった。また、その一方で欧米では消費者向けにも浸透しはじめた。インターネットに接続しようとISPに加入するとモデムがHuawei製だったり、3G・4Gプロバイダーの提供するモバイルルーター(欧州ではMiFiと呼ばれる)はほぼ中国TCL製かHuawei製である。

 それでも、今になってHuaweiの脅威が顕在化しつつあるように見えるのは、単に中国という国の脅威が認識され始めたからというだけでなく、Huawei自身もただのネットワーク機器屋の範疇を超え始めたからではないか。

 例えば、スマートフォンでシェアが拡大しつつあるが、モバイルルーターやモデムがHuawei製だとしても通信を中継するだけでL2〜L3しか見えないのでHTTPSなどで適切に暗号化している場合のリスクは小さい。しかしスマートフォンは違う。アプリケーションレベルでアクセスを許すのはセキュリティ上のリスクは非常に高い。

 また、同社がプロセッサーの内製化を進めるのも不安材料である。これは即ち特許ポートフォリオの蓄積の裏返しだからで、例えば3G・LTE/4G・5Gと徐々に特許の比率つまり影響力を増しつつある。例えばHuaweiのモバイルルーター製品にしても以前は米Qualcomm製Gobiプロセッサーを採用していた。これがLTE・5GでBalongプロセッサーなどのHuawei製に置き換えられつつある。ところで、先日もSupermicroがAppleやAmazonに納入したサーバーボードに通信を傍受するチップが実装されていたというBloomburg報道が世間を賑わせた。本件はHuaweiとは無関係だったがチャイナリスクという意味では共通性がある。


今週の興味深かった記事(2018年 第41週)

2018-10-14 | 興味深かった話題

ITジャイアントから個人情報を守ること

「もうGoogleを使うのはやめないか?」 デジタルの巨人たちの“行動追跡”から逃れる方法 - ITMedia

 この手の話題は言いたいことは解るのだが、過剰反応を促す記事が多いように思う。
 喩えるなら、「タンパク質を得る目的としては畜産業は効率が悪い」という理由でヴィーガンになるよう諭すようなものである。仮に効率の悪い畜産を悪だと否定するとしても、相対的に効率の良い鶏肉のほか魚介類まで否定するのは論理の飛躍に思えるし、毛皮や写真フィルムなど動物由来の素材を使うあらゆる製品を否定するのは万人が受け容れられる論理とは思えない。それと同じである。

 むしろ、私に言わせれば、カード情報のようなクリティカルな情報の登録は極力避けるのは前提としても、もし名前やメールアドレスを登録する必要があるなら、Googleのような世界で最も優秀な技術者を大金を払って雇っている企業の方が、その他のどこの馬の骨とも知れない代替サービスよりも安全に思える。

任天堂が「スマホのゲームボーイ化」専用ケースの特許を出願

任天堂が「スマホのゲームボーイ化」を検討か。専用ケースの特許を出願 - Yahoo!ニュース

 私の勝手な想像だが、任天堂がファミコンミニのAndroid版のようなGameBoyエミュレーター(ゲームソフト付)を出して、スマートフォンメーカーのフリップカバー純正オプション品を任天堂が認証をするような仕組みを考えているのではないかと思う。

 任天堂がスマートフォンとカバーを開発したり、あるいは他社のスマートフォン向けに任天堂がサードパーティーのアクセサリーとして販売することも技術的には可能だろうが、例えばGalaxy S9の流通や売り上げはSamsungが一番よくコントロールしているわけで、任天堂がサードパーティーとして出すよりも効果的だろう。

PlayStationの後方互換機能

PS5、PS1からPS4までのゲームができるかも - ギズモード・ジャパン

 夢の無い話で申し訳ないが、特にPS2とPS3に関しては恐らくは非常に困難あるいは採算性が合わないという理由で実現しないだろう。
 PS1とPS4は比較的オーソドックスなアーキテクチャのため、仮に別のアーキテクチャでエミュレーションが必要になった場合にパフォーマンスの問題さえ解決であればエミュレーションは比較的容易なはずである。ところが、PS2とPS3はアーキテクチャが特殊なためエミュレーションが難しい。実際、PS2の互換機能を搭載したPS3ではPS2のプロセッサーを載せた「ニコイチ」状態で実現しており、後にコスト削減の為に削られた経緯がある。

 PS2のCPU自体はやや特殊なカスタム品とはいえMIPS IIIだからエミュレーションは可能だろうが、問題はVPUである。VPUの処理するベクトル演算自体は特殊ではないが、当時のSCEIはゲームパブリッシャーに(ライブラリやOS経由ではなく)ハードを直接叩くように指示していた(参考リンク)ので、単に入出力だけでなく遅延に至るまでハードウェアの挙動を再現しなければならない。CPU + ソフトウェアでVPUをエミュレーションする場合にはジッターが問題になるだろう。VPUの並列で動作するアッパーインストラクションとローワーインストラクションのVLIWの遅延を汎用CPUとソフトウェアで実現するのは困難だろう(もしやるとすれば、CPUコアを占有したうえでスクラッチパッドメモリー上のソフトウェアでエミュレートすれば実現できるかもしれないが…非常にコストが高い)。

 PS3のIBM CELL BEにはPPE x1コアとSPE x7コアが搭載されており、エミュレーションするうえで問題なのはSPEだろう。なにせ128-bit SIMD(FP32 x 4 FMA)演算を3.2 GHzで実行する。命令セットだけでいえばIntel CoreやAMD Ryzenでも似た命令を処理できるが、エミュレーションによるオーバーヘッドと3.2 GHzの動作周波数を考慮すると実現は難しい。もし仮に実現するとしたらGPUコアの一部を占有してSPEのエミュレーションに充てる方が合理的に思える。


今週の興味深かった記事(2018年 第40週)

2018-10-06 | 興味深かった話題

任天堂の次世代ゲームコンソール

任天堂、新型スイッチを2019年後半に投入へ=関係者 - WSJ

 2017年3月に発売されたNintendo Switchは、その2年も前に発表されたプロセッサー=NVIDIA Tegra TX1を採用しており一部では時代遅れだと批判された。2019年後半に改良版が出る場合に採用されるプロセッサーには疑問がある。廉価版なら同じプロセッサーを使えば良いが高性能版の場合は採用されるプロセッサーには候補が少ない。

 現行Tegra X1(TX1)の開発・製造元であるNVIDIAは2015年頃を境にモバイルから車載へ転換しており、現在はニューラルプロセッシング技術のリーダーとして車載とサーバーに力を入れている。2015年頃まではタブレット用にもプロセッサーを供給しておりTX1や前世代のTegra K1はGoogle Pixelタブレット・Nexus 9タブレットに採用されていた。それに対し、車載はある程度の消費電力・発熱量・価格にたいする制約がモバイルと比較すると緩やかで、先日発表されたTegraの最新版Xavierの消費電力は30Wである。これはTX1の3倍に相当するが、そもそも$199のAndroidベースのゲームコンソールや$499の開発キットにも採用されているTX1に対し、Xavierの搭載製品は開発キットで$1,300~2,500もする。これは回路規模やターゲットとするパフォーマンスが異なることに起因し、全く別系統の製品であることの裏返しでもある。

 実はTX1とXavierの間には2017年に登場したTegra X2(TX2)があり、こちらはNVIDIA Tegraがモバイルから車載への転換期の製品となっている(TX2の消費電力は7.5Wで、TX1よりも小さい)。TX2のCPUコアやGPUコアの構成はTX1のそれに似ているが一方で車載用のネットワークインターフェースであるCANにも対応するなど仕様も中間的である。もし2019年にNintendo Switchの高性能版がでるとすればTX2が搭載される可能性もある(いや、そもそもなぜNintendo Switchが2017年に登場した時点でTX2を搭載していなかったのか?という疑問の残るところではあるが…)

UC Berkeley BROOM

Hot Chips 30 - RISC-VのOut-of-Orderコア「BROOM」第1回 第2回 - マイナビ

 Hisa Ando氏によるHot Chips 30の解説記事で、Univeristiy of California, BerkeleyによるRISC-V実装であるBROOM/BOOMv2について説明している。

 このBROOM/BOOMv2は整数演算ユニット x2(整数演算のみ x1・整数演算/Div/Mul x1)・浮動小数点 x1・ロード/ストア x1という構成になっている。回路規模から判断する限りではARM Cortex-A9より劣る程度の性能と想像でき、スマートフォン全盛の今日ではあまり高性能とは言えない。

 とはいえ、マルチコアが当たり前の昨今では2倍の回路規模(経験的に性能は1.4倍)のプロセッサーを作るよりも、効率良く動作させられる規模のコアを2倍載せる方が良い可能性も否定はできない。
 例えば、UNIXサーバーの最高峰であるIBM POWER9の場合、小規模な64b-sliceを4個または8個まとめたものを各1コアとして、それぞれSMT4コア・SMT8コアと呼んでいる。そして64b-slice 1個が整数演算ユニット x1・Div x1・浮動小数点 x1・ロード/ストア x1となっており、規模的にはBROOMとよく似ている。言い換えればサイクルあたりの理論上の演算性能だけでいえばBROOMを8個集積すればIBM POWER9 SMT8コアに近い性能が出る可能性はある。

 このあたりは周辺回路・OS・コンパイラー・ワークロードなど様々な要因に依存するので実現できるかどうかは不明瞭だが、要するに商用として競合に対抗するにはやや非力なBROOMは今後の研究用・実証用としては妥当な規模に思える。

Leica/Panasonic/Sigma L Mount Alliance

フォトキナ - インタビュー:「Lマウントアライアンス」の経緯と今後 - デジカメ Watch

 印象的なのはSigmaの参画ではないだろうか。これまで非公式的だったPanasonic・LeicaとSigmaとの関係が公式になった形といえる。これまで明るみにでることはなくとも、Panasonic・LeicaとSigmaとの関係はあり、例えばAsph. 表記のあるLeicaレンズ(Mマウントのみ?)はSigma製造とされている。

 垂直統合型のカメラ業界あるいは日本企業が主流の中で、水平分業的なアプローチが興味深いところである。これを素直に解釈すれば、CanonとNikonという超えられない二強の壁を見据えたとも考えられるが、それだけでなく三社それぞれの得意分野が異なるため補完関係・思惑が働いていると邪推する。

Leica —— Leicaのジレンマは高級ブランド品は多く売れない点ではないだろうか。それが、PanasonicのカメラやSigmaのレンズでLマウントに入門したユーザーが、ステップアップ先としてレンズやカメラをLeica製品に置き換えることで商機が増える。

Panasonic —— 現状の関係が維持されると仮定すれば、三社の中で最もカメラが売れるのはパナソニックだろう。また、これまで通りカメラ本体をLeicaにOEM供給するだろうし、CMOSセンサーなども供給するだろう。

Sigma —— 過去の経緯を鑑みるとLeicaブランド・PanasonicブランドのOEM/ODMを含めたLマウントレンズの製造を請け負う可能性もある。現行SAマウントとは異なり普及するマウントを採用することでカメラ本体も売りやすくなる。

言い方を変えると、Panasonicのカメラが売れることでOEM・ODMによりSigmaが儲かったりLeicaに商機が生まれたり、あるいはLeicaのカメラが売れることで部品を供給してPanasonicやSigmaが儲かったりする。


今週の興味深かった記事(2018年 第39週)

2018-09-29 | 興味深かった話題

Arm Cortex-A76AE

Arm Unveils Arm Safety Ready Initiative, Cortex-A76AE Processor - AnandTech

 車載コンピューターはエラーによって人の生命が危険に晒される恐れがあるため、一般的なデスクトップ用やサーバー用とは異なる要件が求められ、その例としてはハードリアルタイムやRAS機能などが挙げられる。とはいえ、低性能な組込プロセッサーか超高価なメインフレーム用ならともかく高性能プロセッサーでロックステップというのは、個人的に記憶にない。二重化することで単に製造コストが二倍になるというだけでなく、演算結果を比較検査するロジックもCPUと同程度の速度で動作し、かつエラーを検出した場合はロールバックさせる機構が必要となる。そのため、言葉から想像するほどには単純ではない。実際、IBMはメインフレームSystem z用プロセッサーで2007年のz6でロックステップを廃止している。

 メインフレームの場合は他にも多岐にわたるRAS機能が備わっているし、そもそも組込CPUのIPと筐体やソフトウェアまで含んだメインフレームシステムのコストを単純比較することはできないが、$50-100クラスのチップに$百万クラスのコンピューターで使われているRAS機構が入るというのは興味深い。

スマートフォンの価格

iPhoneの価格は右肩上がり? 3GからXS Maxまで歴代機の定価をまとめてみた - ITmedia

 月賦の分割払いになっているから気付き難いし、そもそも金銭感覚には個人差があるが、実際の話としてスマートフォンの価格は上がってきている。

 私の知る限りでは部品の単価が値上がりしており、例えばSnapdragonのハイエンドでも2013年頃のSnapdragon S4の時代は$25程度といわれていたが現在のSnapdragon 845は$50以上といわれている。メモリーも容量も増えているが値上がりしているし、液晶ディスプレイも大型化しているので部品の単価は必然的に上がっている。また、隠れた要因として、もしノーマル版の価格が一定であっても「Note」「MAX」「Plus」とかいったような高価格な派生機種が出てくるケースが多く、恐らく同一クラスでは平均価格は値上がりしている。恐らく5年ほど前と比較すると部品価格はx1.5〜x2.0倍になっており、端末価格は$500前後から$750〜1000程度にまで値上がりしている。

新カメラマウントが登場する理由

なぜ今、カメラ各社が新マウントを出すのか - ITmedia

 これは、もともとの「ミラーレス」機種の生い立ちに原因があるように思われる。
 ミラーと光学ファインダーを省くことで低コスト化・小型軽量化を図る一方で、当時、光学ファインダーよりは質が劣っていた電子式のファインダーを採用した関係から、デジタル一眼レフとミラーレスの関係は、さながらフィルムカメラ時代の一眼レフとレンジファインダーカメラのような位置づけとなった。これは理に適っていたと思う。光学ファインダーとシャッターの組み合わせは、自然で正確なファインダーを実現する一方でコストとフットプリントと重量が大きい。

 この考え方に従うと、ミラー・プリズム・シャッターを省いたミラーレスカメラは、フランジバックが異なるのでデジタル一眼レフと違ってフィルムカメラ時代のマウントを引き継ぐ必然性が薄い。フィルムを使う必要が無いから業界標準に合わせる必要もなくセンサーサイズも35mmより小さい方が良い(APS-C・FourThirdsのような)。そうすることでレンズも小型化・安価にできる。

 ところが、Sony a7以降フルサイズのミラーレスカメラの利点に気付く人が増えた。
 恐らく当時のSonyの思惑としては、フルサイズのカメラを出すにあたりMinoltaから受け継いだ設計が古く普及していないAマウントよりも、Sonyが買収後に育て普及しつつあったEマウントの方が選択しやすかったのだろうと思う。SonyはNikon・Canonとちがってフルサイズ機用にマウントを変更していないが、Eマウントとフルサイズセンサーの組み合わせはかなり際どい(レンズによっては周辺にケラレが発生する)。
 しかし、a7以降はミラーレス化による利点が知られるようになった。類似の画質・機能・性能でも小型・軽量化できるうえ、フランジバックが短いことは光学的に有利で画質も向上させやすい。加えて、フランジバックはマウントアダプターを使って短くすることはできなくとも長くすることは容易だから、NikonやCanonはデジタル一眼レフのレンズ資産を流用しやすい。

ユーザーを騙すUX

ACMの倫理規定のケーススタディ(5) - ユーザーを騙すUX - マイナビ

 いつもはテクニカルな解説記事が多いHisa Ando氏による記事だが、本稿はテクニカルではなく倫理に関する内容である。書かれている内容自体は技術的に複雑ではなく容易に想像がつく。ただし面白くないという意味ではなく「さもありなん」と思う。

 先日もGoogle従業員が社の中国に対する施策に抗議する内容がニュースになった。社員は被雇用者である以上は、法律や社則に反しない限り雇用主の指示に従わなければならない(という契約になっている)とはいえ、社員も感情と道徳心を備えた人間だし、さらにエンジニアの場合は、倫理に合わないモノを実際に実装させられたり、逆に倫理的に修正されたものを自力で作れてしまうから、反発の感情は当然生まれやすいと思う。
 Googleに関してはテクノロジー企業だからエンジニアの不興を買うと企業の存続が危ぶまれるので、Googleは社員の意見を大切にしているように見えるが、世の中の過半の大企業はテクノロジー企業ではない(そして営業やマーケティングの方が技術部門より強い)から、一歩間違えれば、記事にあるような事態は起こりかねないのではと思う。


今週の興味深かった記事(2018年 第38週)

2018-09-23 | 興味深かった話題

PlayStation Classic

FF7など20タイトル収録の「プレイステーション クラシック」 - PC Watch

 類似の製品としては任天堂のニンテンドークラシックミニ シリーズのファミリーコンピューターとスーパーファミコンが記憶に新しいところ。最新の中国製プロセッサーを使えば安価に旧世代のゲームコンソールのエミュレーターを作ることができ、エミュレーション環境ならソフトウェアをリメイクする必要もないのでビジネス的にも悪くないのだろうと思います。

 PlayStationエミュレーターは使用したことがないため、まずファミコン・スーパーファミコンで考えます。
 ファミコンミニスーパーファミコンミニは、実はハードウェア的には同等で、プロセッサーには中国Allwinner製R16プロセッサーを採用している。CPUコアはArm Cortex-A7 x 4コアである。任天堂の場合Nintendo Switchでより高性能なArmを採用しており、Switch Onlineから旧式コンソール向けのゲームを購入できることから、Armプロセッサー用のファミコン/スーパーファミコンのエミュレーターは経験があると想像できる。
 性能差があるファミコンとスーパーファミコンのエミュレーターがハード的に同じものというのも不思議に思われるかもしれないが、単純に計算してもAllwinner R16の方が100倍以上も高速で、かといってR16より下位/安価なプロセッサーも無いから妥当な判断と思われる。

 実は、中国ベンダー製のプロセッサーは安いがマニュアルに不備があったり虚偽だったりカタログに記載の機能を動作させるデバイスドライバーが存在しなかったりという調子で、先進国のデバイスベンダーでは採用例が少ない。スマートフォンのような1年間も製造しないデバイスはまだしも向こう5年間以上に渡って製造し続ける予定なら先進国のベンダー製の組込プロセッサーを採用される方が妥当と思うが、それらは安くない。
 もしAllwinner R16相当の先進国の組込ベンダー製の同等品なら$20前後するが、プロセッサーに+$20・メモリー等で周辺デバイスで+$15・基盤やケースで+$15・工賃+$5としてもハードウェアの製造だけで$60ほどかかってしまう。これではシステムソフトウェアの開発やゲームソフトの使用料までを含めると、小売価格$100は実現不可能である。その点、中国製プロセッサーを大量購入のディスカウントで購入すれば$5程度にはコストダウンできる。

 話をソニーに戻すと、任天堂よりはハードルが高そうに見える。
 ソニーはPlayStation・PlayStation2 = MIPS・PlayStation3 = PowerPC・PlayStation4 = x86-64と非Arm系できたからエミュレーターは任天堂より経験・資産が少なそうだ。もっとも問題はこの次で、Nintendo 64もPlayStation2もアーキテクチャがやや特殊で同様のハードウェアではエミュレーションが困難だろうと思う。

Arm ML

Hot Chips 30 - Armの第1世代マシンラーニングプロセサ 第1回 第2回 第3回 - マイナビ

 Apple NPU・Google Visual Core・NVIDIA DLA、そしてここへきてArm MLといったエッジ側ニューラルプロセッシングユニットが出揃ってきたが、各社それぞれに見え隠れする思惑が面白い。
 プロセッサーベンダーであるNVIDIAは自動車向けプロセッサーのビジネスもさることながらサーバー側で$10,000のTeslaを使わせるのが目的だろうからDLAの仕様はオープンにして普及を目指す。Webサービス会社であるGoogleは自社サービスを使わせるのが目的だからサーバー側はTPUという自社開発のプロセッサーを使うもののエッジ側はIntelから供給を受ける。垂直統合の傾向が強くプロセッサーからサービスまで手掛けるAppleは独自路線を歩む…といった具合に。

 ここで世界最王手IPベンダーであるArmは効率重視でコストと省電力に優れた普及するプロセッサーを目指しているように見える。Arm MLは1 GHz時でも4TOPSで、これは2017年のApple A11に搭載されたNPU 0.6TOPSに比べると高速だがNVIDIA DLAの11TOPSに及ばない。恐らくはスマートフォンでもアッパーミドルクラスの機種で使用される想定ではと推測できる。ちなみにArmはArm MLのほかMali-G31グラフィックスプロセッサーもマシンラーニングに使用することができ、両者はAndroid NNなどのランタイム経由でアクセスできる。


今週の興味深かった記事(2018年 第37週)

2018-09-15 | 興味深かった話題

Apple A12 Bionic

Apple Describes 7nm iPhone SoC - EETimes

 驚きはなく、A11と比して順当な進化といったところ。
 まず念頭に置くべきは、Appleは端末ベンダーだけでなくサービスプロバイダーでもあるという事実ではないかと思う。例えばAmazonはFireタブレットを利益ゼロで売っているが、Eコマースサービス業者であるAmazonにとっては顧客がFireで買い物をしてくれれば充分にペイする。それと同じ発想で考えればNPUの大幅な拡張は納得がいく。

 AIだの人工知能だのという言葉に惑わされがちだが、GoogleやAppleにとってニューラルプロセッシングは近未来の基礎技術の範疇で、従来は人間が行っていた分析や知見の積み重ねを必要とするあらゆる分野にニューラルプロセッシングが適用できる。Siriも応用例ではあるが、むしろ写真のHDR撮影(露出パラメーターの異なる複数画像の分析・合成)や情報検索での検索結果のランキングの方がよほど実用性が高い。だから、エンドユーザーに自社サービスをスムーズに使わせるためにもNPUの搭載は必須になりつつある。
 QualcommやMediaTekのような専業プロセッサーベンダーであれば二の足を踏むところだが、サービスプロバイダーであるAppleは躊躇する必要はなかったのだろう。(※厄介なのは、ニューラルプロセッシング自体はAVXやNEONのようなSIMD演算器やGPUやDSPでも処理自体はできてしまう点ではないか。演算効率を考えれば専用NPUの搭載が望ましいが、ニューラルプロセッシング黎明期の2018年現在での費用対効果を考えれば専用のNPUの搭載は無駄になりかねない。実際、現時点でQualcommはCPU/DSP/GPUの組み合わせで処理できると顧客に説明している)

NVIDIA Xavier

Hot Chips 30 - 自動運転などの頭脳となるNVIDIAのSoC「Xavier」前編 後編 - マイナビ

 Hisa Ando氏によるHot Chips 30の解説記事。
 Appleが新型iPhoneを発表したこともあり同社製A12 Bionicの方が注目を集めがちだが、単純な性能はNVIDIA Xavierの方が上である。これは許容される消費電力枠と要求される性能とのバランスからいっても当然なのだが、Qualcomm・Apple・NVIDIAら組込アプリケーションプロセッサーで最先端を走る三社の動向は面白い。

 NVIDIAは省電力などの問題で携帯電話/タブレット向けは諦めた状態だが、現在は専ら車載=自動運転の方へと舵を切っている。携帯電話と違いアプリケーションは自動運転と限られているので要件や必要な機能・性能は決まっており、Xavierも必要な機能・性能を必要なだけ盛り込んでいる感じがする。
 車載はエンジンが発電機を兼ねるしエンジンの発熱を考慮すればマイクロプロセッサーの発熱=消費電力枠は携帯電話と比較すれば問題となりにくいものの、やはり消費電力が小さい方が設計しやすいしコストも安価な方が良いので効率は重要、ということだろうか、GPUで処理可能な画像処理とニューラルプロセッシングについては、PVAとDLAという専用の固定機能ロジックをそれぞれ搭載している。
 もっとも、仮にGPUでニューラルプロセッシングを実行することが可能だとしても、GPUはグラフィックスも担当することからニューラルプロセッシング性能が保証できない。これは危険の検出や回避も行う自動運転におけるリアルタイムプロセッシング(=処理時間保証)性能という点では致命的で、DLAの搭載は必然といえる。もっとも、GPUが22.6TOPSに対しDLAは11.4TOPSにとどまるから、危険回避行動の処理は11.4TOPS内に納めないといけないという意味でもある。

 Ando氏は「これだけの開発工数を掛けられる会社は非常に限られる」と説明しておられるが、そもそも、NVIDIAの場合は明らかに本製品向けに開発されたのはCPU=Carmelのみで、GPUやDLAのようなロジックは別製品の派生と推測される。PVAは不明だが他社製IPの組み合わせのように見える。「8,000人年の工数」の見積の内訳はよく分からないが、恐らくはGPU=Voltaなどの開発工数の一部も加味されていることだろう。だから「8,000人年の工数」の実現は、そういうエコモデルを形成している企業に限定される。世界中を見渡して類似のことが可能なのはIntel・AMD・Qualcomm・Apple(すべて米国企業)だけではないかと思われる。

 ところで、不思議なのがCamelのキャッシュ構成である。そもそもL1・L2・LLキャッシュと多段キャッシュを構成するのは容量が小さいと遅延が小さいが、容量が大きくないとヒット率が上がらないためである。Intelの場合はCore 2からCore i3/5/7への移行の際に1~2MBのLLキャッシュ(旧L2キャッシュ)の容量を増やすにあたり遅延を減らすために間に低容量256KBのキャッシュを挟み込んだほどである。
 その観点でいくとL2キャッシュは256~512KB・L3キャッシュを4~8MB程度が適正で、L2キャッシュ2MB・L3キャッシュ4MBというのは不可解に思える。しかし、これはSMPを想定した場合で、よくよく考えてみるとCarmelのアプリケーションは車載=組込のため全8コアでSMP構成をとるとは考え難い。例えば2コアをOS用・2コアを画像認識処理用・4コアをニューラルプロセッシング用とした場合は4MBのキャッシュの役割は違ってくるように思う。


今週の興味深かった記事(2018年 第36週)

2018-09-08 | 興味深かった話題

NEC SX Aurora Tsubasa

NECの最新世代スパコン「SX-Aurora TSUBASA」 第1回 第2回 第3回 - マイナビ

 名は体を表すというが、製品名も含めて迷走している感じが強い。
 SX-9の後継であった先代がSX-10ではなくSX-Aceであったのは商標の都合ということで理解できるが、AuroraにTsubasaって何だという気がする。私はNEC関係者でもなければ商品企画でも営業でもないので製品名がイケてる/イケてないという話などする気はないが、製品に明確なコンセプトが見えない。

 もしあなたがHPCを組むとして、GoogleやFacebookやAmazonのように自前でハードウェアを設計・特注する技量も資金も無いとすれば(※大企業を含め世界中の多くの組織・個人がそうだ)、Intel XeonとNVIDIA Tesla/GeForce以外の選択肢はなく、わざわざNECを選ぶ選択肢は無いように思う。

 記事を読むと技術的な興味は尽きないが、しかし同時に「それでNVIDIA Tesla V100と比べてどうなの?」といった疑問を投げかけざるをえない性質のものばかりだ。メモリーバンド幅や価格などTesla V100より優れた部分はあるようだが、旗色は相当に悪そうに見える。
 オープンプラットフォームを取り込むため、HPCハードウェアをPCIeのアドオンカードとして、オープンなXeonをホストとしたLinux PCサーバーにするというアイデアは、NEC SXシリーズとしては目新しいが一般にはそうでもない。HPCの出荷量は限定的なので売るためにアドオンカードとしたというのは解る。これが、もし東京工業大学がClearSpeed CX600を初代Tsubameに採用した2008年当時であれば正しい選択だったのかもしれないが、2018年現在では10年の積み重ねを誇るTesla・CUDAを要するNVIDIAと同じ土俵に上がることを意味する。
 なるほどNEC SX-AuroraとNVIDIA Tesla V100を単品同士で比較すれば前者は後者より安価なのかもしれないが、NVIDIA Teslaの強みを無効化できるほどのインパクトはない。TeslaのSX-Auroraに対する強みを挙げてみたい。これらはNECが今からでは対抗できない質のものである。

  • 安価なGeForceでCUDAの開発環境を整備できる
  • 1〜2年毎に倍程度の性能を有した新製品が出るからアップグレードが容易である
  • NVIDIAはそのTesla・CUDAを10年以上に渡って開発・維持している

 また、アドオンカード化するのは理解できるとしてもPCIeで良かったのか?という疑問が残る。例えばAISTのABCIはXeonとNVIDIA Tesla V100を使っているがXeon-Telsa間はPCIe接続(31.51GB/s)だが、Tesla-Tesla間はNVLink2 x2で相互接続(50GB/s)されている。数字だけを見るとPCIeとNVLinkとの差は僅かに見えるがホストを経由するPCIeと違いNVLinkはGPU同士の直接的な相互接続なので効果が大きい。もちろん、NVLinkはNVIDIAのプロプライエタリなのでライセンスを受けないと使用できないが、NVLink以外にもOpenCAPIなどの代替技術は存在する。

Linuxカーネルソースを改造した中華Androidスマートフォン

Linuxカーネルのソースに手を入れて高速化したAndroidスマホ「vivo X23」 - PCwatch

 これは思いつきそうではあるが個人的にこれは良いアイデアだとは思わない。なぜなら、一時的に高い性能を得られる可能性はあるが、長期間に渡って継続的にメンテナンスできたベンダーを私は知らない。

 LinuxはAndroidのような組込から数万ノードを並列動作させるHPCまで広く使われていることもあり、特定の種類のデバイスに最適化されているとはいえない。モバイル・デスクトップ・サーバーでは搭載されているデバイスが異なるし、消費電力やパフォーマンスや信頼性に対する要求も異なる。だからサーバー向けのコードを省いたりモバイルデバイス用に処理を最適化すれば高速化できる。

 しかし、2017年のレポートによるとLinuxカーネルのソースコードは24,766,703行あり、バージョン番号が1繰り上がる毎に約13,000-16,000行が書き換えられている。そして約3ヶ月に1度の頻度で新しいバージョン(マイナーバージョンはほぼ毎週)リリースされている。

Amazon Fire HD 8 (2018)

第8世代のAmazon Fire HD 8が登場 - PCwatch

 2017年版と比較して、以下のようにいろいろと微妙に変更されているが、それ以外はCPUもメモリーもディスプレイ解像度も一切変更なし

  • FireOSがAndroid 5.1ベースから7.1ベースにアップグレード
  • Echo ShowのようなShow Modeに対応(英語圏など一部地域のみ?)
  • フロントカメラが0.5MPから2MPにアップグレード
  • 価格が僅かに値下がり