goo blog サービス終了のお知らせ 

ALH84001

私的コラム&雑記(&メモ)

今週の興味深かった記事(2018年 第35週)

2018-09-01 | 興味深かった話題

Globalfoundriesが7nm開発中止・AMDはTSMCへ移行

AMD、次期「Zen 2」および「Navi」はTSMCの7nmプロセスで製造へ - PCwatch

 別々のニュースとして取り扱われていますが、米Globalfoundries(GF)が7nmプロセスの開発を中止し、AMDはCPUの製造をGFから台湾TSMCに移行するようです。一概に一部ではAMD・GF間で締結されているウェファーのシェア契約がどうなるのか?という議論もされていますが…そもそもその契約はGFが最先端クラスの製造プロセスを提供している前提だと推測するので「痛み分け」的な処理になりそうな気がします。根拠はありませんが、そもそもAMDが製造部門をGlobalFoundriesに分社化した理由が、最先端プロセスの開発コストおよび開発失敗の際のリスクの増大が原因で、そのリスクが契約に盛り込まれていないとは考え難いと推測します。

 ところで、増大するチャイナリスクと米・豪・日・露政府によるZTE・Huaweiの通信機器の締め出しに関連して「台湾で半導体を起こすと中国に漏れる」というデマを見かけたのですが、根拠はないと思います。台湾のファブといえばTSMCとUMCですが、最先端のプロセスを提供しているのはTSMCのみで、TSMCから設計が漏れたという話は聞いたことがありません。そもそも、TSMCで使う物理設計やマスクが漏れたとしても他社(例:中国SMIC)の製造プロセスでは使用できません。
 ついでに、もしTSMCにリスクがあるなら、IntelやSamsungのファブビジネスはシェアが大きくなっていたことでしょう。

HotChips 30 - 富士通 A64FX

Hot Chips 30 - 富士通が発表したPost-Kスパコンのプロセサ 第1回 第2回 第3回 - マイナビ

 マイナビに寄稿されたHisa Ando氏によるHotChips 30の発表の解説です。
 技術的な観点では興味深いとは思うのですが…見れば見るほど無駄に思えてきます。他でまったく使われていないTofuネットワークを内蔵しているほか、Armv8.2-A SVE対応で512~2048-bit SIMD拡張命令に対応するというスーパーコンピューター向け仕様はともかくSVE以外ではIPCでCavium Vulcan・Apple Hurricane・Samsung Mongoose 3に勝てないでしょう。

 例えば開発中のゲーム機など、プロセッサーが無い状態でソフトウェアを開発することはよくありますが、この場合は類似のハードウェアを用意するなどしてエミュレートします。エミュレートするだけなら全く異なるハードウェアでも可能でしょうが挙動があまりにも違ってくると開発になりません。ポスト京ではSVEとTofuという独特の仕様のため恐らくエミュレーションは困難で、システム全体が2022年完成予定にも拘わらず2018年にチップが出てきています。

 京コンピューターに搭載されたSPARC64 IXfxのHPC向けSIMD拡張命令HPC-ACEやその後継HPC-ACE 2は128-bit/256-bitでIntelプロセッサーでいうSSE/SSE2/AVX相当といえ一般的によく使用されています。しかし512-bit以上のSIMDはIntelもXeon Phiなど一部でしか採用していませんし、GPUやDSPといったコプロセッサーを使うのが一般的です。仮に富士通がA64FXの派生品をUNIXサーバーに持ってくるとしてもSVEをそのまま(512~2048-bit可変長論理レジスター・512-bit物理レジスター)を持ってくるかかなり疑わしいと思います。
 そう考えるとSVEユニットがパイプライン化されているのは汎用性を捨てている気がしてなりません。欧州もArmベースのスーパーコンピューターを開発予定ですが、構成はCavium VulcanにNVIDIA GPUをアクセラレーターとして外付したもので、Vulcanは普通のLinuxサーバー用にクラウド業者も採用しているものです。

 個人的には性能を犠牲にしてでもTofuはPCI-Express経由で外付にすべきだったと思います。この場合はPCI-ExpressでInfinibandやOmniPathなどに取り換えることで他社がA64FXを採用する可能性が生まれます。100GbEを使うことでクラウド業者からの引き合いが生まれたかもしれません。Tofuインターコネクトの内蔵はそういう可能性を蹴ってまで必要だったのか疑わしく思います。


今週の興味深かった記事(2018年 第34週)

2018-08-26 | 興味深かった話題

富士通A64FX

 富士通がHotChipsでポスト京コンピューターで使用されるプロセッサーの詳細を発表したらしい。

 気になるのは2022年完成予定のコンピューターでは7nmプロセスは設計・製造技術が古くなってしまいそうなこと。例えば2018年6月のTop500で首位を奪ったIBM/NVIDIA Summitの場合、IBM Power 9は2016年9月のHotChipsで発表、NVIDIA Voltaは2017年12月の発表で、いずれも新しい14nm/12nmプロセスとなっています。もしポスト京が2020年完成予定のシステムであれば今回発表されたスペックで納得だけれども、2022年では陳腐化している可能性は否定できないのでは。2022/23年に登場する5nmプロセスで製造されたプロセッサーを使う米国製スーパーコンピューターに勝てる気がしません。

 もちろん、2022年を目処に5nmで再設計して製造することは可能でしょうが、恐らく各ファウンダリーともEUVに移行しているはずで物理設計は再設計が必要になるし、仮に小型化して48+4コア以上を詰め込むとソフトウェアの最適化が変わってくるので、それはないと推測します。

ニコンZ7/6・Zマウント発表

ニコン、フルサイズミラーレス一眼「Z7」「Z6」発表

 必然的とはいえマウントの口径の大きさに苦笑してしまいました。
 例えばソニーEマウントのα7系のようにもともとAPS-C用で開発されたマウントにフルサイズのセンサーを載せるとケラレが発生しやすくなりレンズの設計が難しくなります。フランジバックが長くとれればニコンFマウントでもフルサイズに対応できるもののそれではミラーの無いコンパクトさが活かせない。そうなるとNikon 1のようにマウント径が小さいままセンサーサイズを小さくするかNikon Zのようにフルサイズセンサーでマウント径を大口径化するしかないので、Nikon 1よりも上のレベルを目指すNikon Zがこういう仕様なのは自然だと思います。

 ソニーの場合はレンズの得た像の不完全さをデジタル的に補正するテクニックを積極的に使っているから、ソニーEマウントのフルサイズはあれはあれでひとつの解なのだろうけれども、よりトラディショナルな方向を追求するニコン(とニコンユーザー)としてはそうはいかなかったのではと思います。

 光学ファインダーかEVFかという違いやボディの大きさ・重さを除けばスペックだけでなく価格も含めD850とZ7は非常によく似ています。私見ですがこのあたりがD一桁台=フラッグシップより一段劣るカメラとしてメーカーと客が妥協できるポイントなのだと思います。


今週の興味深かった記事(2018年 第33週)

2018-08-18 | 興味深かった話題

NXP買収を断念したQualcommの誤算

NXP買収を断念したQualcommの誤算 - EETimes

 確かに「誤算」ではあったろうと思うけれども、個人的には中国の対応は不当だと思います。
 いわゆる「反トラスト法」のように、合併すると過大な力を持つと懸念される企業合併が当局に規制されるのは理解できます。また、NXPは旧蘭Philipsの半導体部門ですからEUの規制当局から何らかの横槍が入るのも想像できます。さらに、顧客・株主・労働組合・競合他社から批判に晒されるというのも解りますし、そういった逆境の結果として断念するというのも解ります。

 しかし期限までに返答が無いという中国当局の対応はおかしい。

 ところで、今回の買収の過程で調べていてNXP(+ 旧Freescale)の構想している自動車半導体のプレゼン資料が面白いと感じました。内容は恐らくトヨタやホンダがRenesasと構想している内容と類似だろうとは思いますが、資料の出来が良いと思います。ただし、この内容では「Automotive」の一部(例:カメラ・自動運転関連)や「Connectivity」全般(セルラー・Wi-Fi・GNSS)においてNXP + Freescaleがアセットを持っていないので、Qualcommのアセットを想定していたように思います。

「海賊版サイトにDoS攻撃」政府の勉強会で提案

 「海賊版サイトにDoS攻撃」政府の勉強会で提案 日本IT団体連盟の資料公開 - ITMedia

 率直に言って冗談のような話だと思います。
 ほぼすべての国家において、その理由に関わらずサイバー攻撃は違法です。これはたとえ第三者からサイバー攻撃を受けている状況下であっても同様ですし、多くの専門家が海賊版に対抗する様々な手段を提案する一方でサイバー攻撃を提案しないのは、そもそも手段として妥当ではないからです。

私が考えるに、本件における問題点は3点あります。

  1. 海賊版サイトがホスティング会社を利用している場合、ホスティング会社だけでなくインフラを共有する他社/他者サイトにも悪影響を及ぼす可能性がある。もしEコマースサイトが道連れでアクセス不能となった場合、誰が損害賠償するのでしょうか?
  2. 日本における「海賊版」が、そのサイトがホスティングされている現地で違法とは限らない。この場合は「海賊版サイト」に攻撃を実施している日本企業が現地法を犯している可能性が高い
  3. 2. に関連し、中国のような国で企業を国家が保有している場合、日本企業による「海賊版サイト」に対する攻撃は現地国家に対するテロリズム・宣戦布告になりかねない

要するに、仮にYahoo! Japan(※提案者はYahoo! Japanの社長)が「海賊版サイト」にDoS攻撃をしかけることを国家が認めるということは、日本国が1私企業が他国に戦争をしかけるのを許可することになりかねません。それでいいのですか?

 私にいわせれば「海賊版サイト」対策として最も妥当な対抗手段は安価な定額制サービスのみだと思いますが、「海賊版サイト」そのものへのアクセス対策となると取れる選択肢は国内IPSのDNSサーバーからの除外(ブラックリスト化)だけだと思います。特定のURLに対するアクセスを遮断するのは検閲行為にあたります倫理的問題がありますが、DNSレコードにそもそも存在せずDNS LookupでNot Foundを返すのであれば倫理的にも問題はないはずです。ただし、利用者がGoogle DNSを使うなどすれば迂回することは可能です。

 ちなみに、DoS=トラフィックを輻輳させる攻撃という認識が強いですが、すべてのDNSでブラックリスト化(※非現実的ですがあくまで仮定)するなどしてサービス不能にすることも広義ではDoS(Denial of Service = サービス拒否)です(DoS「攻撃」ではないかもしれませんが…)。また、トラフィックを輻輳させるDoS攻撃をしかけるとしても攻撃者(例:Yahoo! Japan)のソースIPアドレスでブロックできるので、たとえ攻撃中であっても一般ユーザー(ブロックされていないソースIPアドレスのユーザー。例:OCNユーザー)が海賊版サイトにアクセス可能かもしれません。

Windows 10 Insider Preview、ファイルエクスプローラにダークテーマ導入

Windows 10 Insider Preview、ファイルエクスプローラにダークテーマ導入 - マイナビ

 本記事について特にコメントはないのですが、1点気になったのが「ダークテーマは特にバッテリの保ちを気にするユーザーが求めていると見られている。ダークテーマを利用することで、ディスプレイの消費電力を抑えて稼働時間を延ばすことができる」というくだりです。本記事に限らず幾つかのニュース記事・ブログ記事で見かけます。

 AMOLEDのようなディスプレイ素子が発光している場合は効果がありますが、LCDの場合は液晶をシャッターのように使って光の透過を調整することで色調を表現しているため、仮に黒く表示されていてもバックライトは点灯したままとなるため省電力には効果がありません。もちろん、本記事の本旨はWindows 10の新機能についてなので詳細に説明するのは蛇足だと思いますが、Microsoftの元記事にもバッテリーについての言及はないため、補足情報としてもイマイチの気がします。


今週の興味深かった記事(2018年 第32週)

2018-08-13 | 興味深かった話題

AMD Ryzen ThreadRipper 2000WXシリーズ4ダイ版のメモリーコントローラー

AMD Ryzen Threadripper 2990WX and 2950X CPU Performance Benchmarks Leak - WCCFTech

 16-32コアを達成するRyzen ThreadRipper 2000シリーズ(以下TR)のメモリーチャンネル数は4ch・ダイ数は4個ということで1ch/ダイという予想がたてられていました(例:PCwatch後藤氏ASCII大原氏)。これは多数あるコアからのメモリーアクセス時のレイテンシーを均一にするだろうという予測によるものでしたが、AMD発表によると互換性を重視してメモリーコントローラーは2ダイに集約されるようです。個人的には2ダイ版と4ダイ版とのパッケージ(部材・配線および製造工程)の共通化だと想像しています。

 こうなってくると、TRの用途はかなり絞られてくるように思います。
 事実上、メモリーアクセスの速い低遅延コアと遅い高遅延コアとがでてくるので、24 or 32コアは対称とはいえません(というか対称として使わない方が良い)。これがスーパーコンピューターなら低遅延コアをコンピュートに高遅延コアをOSや遅延の大きいI/O処理にまわすということも考えられますが、それだとOS / I/Oコアの比重が多すぎるのでそれも適していません(例えばポスト京用CPUの場合、コンピュート用48コアに対しOS / I/O用は2~4コア)。そして、もしメモリーアクセスが高遅延のコアをI/O用としたとしても、割り込みならともかくポーリングする場合は遠方にあるメモリーにマップされたレジスター(つまりメモリー)にアクセスするわけで、これはある程度は低遅延のコア(というか、メモリーコントローラーの搭載されているダイのInfinity Fabric)のデータ帯域を圧迫することになるでしょうから、I/O用に割り当てるというアイデアも一概に良いとは思えません。

 あと個人的に気になるのは、多コアCPUがでてきてNUMAモードとUMAモードを切り替えるというアイデアが一般的になりましたが、新しいTRはNUMAにもUMAにも使い難いだろうと思います。私は、実アプリケーションはともかくアーキテクチャーという観点ではRyzen系プロセッサーは元からあったメモリーアクセスのばらつきからNUMAが適しているだろうと考えていたのですが、新しいTRの場合はそもそもメモリーコントローラーを周辺に持たないコアがあることからNUMAのときの挙動が想像できません。

産総研/AIST ABCIスーパーコンピューターの温水水冷

ABCIスパコン最大の特徴 温水水冷を読み解く 前編 後編 - マイナビニュース

 先週の「興味深かった記事」にも書いた内容ですが、Hisa Ando氏が詳細に解説されています。

東京オリンピック関連サマータイム導入問題

サマータイム導入で「電波時計が狂う」? メーカーに聞いた - ITmedia

 欧州に住むと解かりますが(※筆者はアイルランド在住)、夏と冬との日照時間の差が日本とは比べ物になりません。
 個人的には+2時間ぽっちの夏時間導入は混乱を招くだけで解決策にはならないと思います。例えば今年7月23日に埼玉県熊谷市で摂氏41.1度を記録しましたが、それは14時34分(仮に+2時間すると16時34分)のことだからです。競技にもよりますが夜間に実施する競技を除けば概ね朝9時~夕方17時の間に実施していると思います。いっそ、F1のシンガポール大会のように夜間メインで実施する方が説得力があるとすら思います(まぁ、無理でしょうけど)。

 …という、実施すべきか否かという話題はさておき…
 夏時間を導入すると各種システム改修に大きなインパクトがあると言われていますが、本記事は電波時計という切り口を取り上げているのが興味深いと思います。個人的にはデータフォーマットについては調べたことが無かったのですが、恐らく外国とはフォーマットが違うものと想像します(※未調査)。なにせ、英国などではかつて「二重夏時間」(+1時間ずらす夏時間に加え、さらに+1時間・計+2時間ずらす夏時間)が存在したため、「夏時間の有無」だけでは判断できないからです。

 いずれにせよ「思い付き」レベルのアイデアは混乱を招くだけのように思います。


今週の興味深かった記事(2018年 第31週)

2018-08-05 | 興味深かった話題

10GbEは普及するのか?

10ギガネットワーク環境が手の届く価格に 格安10GbEスイッチ「QSW-804-4C」 - ITMedia

 個人的には10GbEよりも2.5GbEや5GbEの方が有望だと思っています。
 記事中では「現在のPCで使われている主要なインタフェースの実効転送速度は、USB 3.0が4Gbps、Serial ATA 3.0が4.8Gbpsなので、それよりも2倍強速いことになる。そうなると、(中略)「ローカルにダウンロードすると遅いからファイルサーバ上で作業する」という逆転現象が起きる。」という主張がされているものの、それは言い方を換えると5GbEがあれば十分ということになりかねません。
 ちなみに、帯域だけを比較して「リモートの方がローカルより早い」と言ってしまうことはできず、例えば帯域だけでなく遅延も考慮する必要があるし、多くのファイルフォーマットではローカルにキャッシュを作ってキャッシュを開いたりするから、その場合は「リモートの方がローカルより早い」という事は起こりません。

 確かに、記事中で取り上げられているQnap製品は驚くほどにアグレッシブな価格設定だと思います。多くの製品がポート単価1万円を切らない(※1万円が高いというよりも、ネットワークなので経路上のネットワーク機器や対向するホストをすべて10GbEに揃える必要がある。アダプター x 2 + 5ポートスイッチを揃えるだけで10万円コース)のが普及の障壁になっていると思うが、8ポートで6万円を切るQSW-804-4Cや12ポートで9万円を切るQSW-1208-8Cというのは攻めた価格設定だと思う。

 しかし、そもそも10GBASE-TはPHY(LDPC)周りの回路規模と発熱が問題でチップやデバイスを簡素化できず、その結果として2006年の仕様策定から12年を経ても価格が下がってこないという背景があります。それが最近策定された2.5GbEや5GbEでは解消される予定で、実際、Realtekが既に2.5GbE対応の1チップのネットワークアダプターを出しています(※USB3.1のデバイスは最大で見積もっても消費電力が僅か5V x 900mA = 4.5 W)。もし、今後1~5年間で2.5GbE/5GbEが普及してくると予想します。

産総研のABCIスパコンが正式運用を開始

国内トップ性能となる産総研のABCIスパコン - マイナビ

 冷却に用いられているという「温水冷却」というのが実に興味深いと思います。
 名前こそ聞いたことがあったのですが本当に温水を使っているとは想像していませんでした。そもそも単純に考えれば、冷却とは熱量が高い方から低い方へ熱が移動することで、その移動のしやすさが熱伝導率で表されるので、温水よりも冷水の方が効率的に冷却できるはずだし、水よりも優れた冷媒はあるはず(といっても水は空気よりは熱伝導率が良い)。液体窒素なんかが使われたりするのはそういう背景があります。

 しかし、冷却液の温度を30度以下に設定すると大気の気温との温度差が無くなりヒートポンプで熱を吸い上げる必要があるそうで(確かにそりゃあそうだ)、それに対し温水だと最終的に熱を捨てる大気で冷却できるので、電気代もかからないのでエコということらしい。実際、稼働中のCPUは簡単に50度を超えてくるので30~45度に冷やせるなら問題はないのか。


今週の興味深かった記事(2018年 第30週)

2018-07-28 | 興味深かった話題

QualcommがNXP買収を断念

Qualcomm、440億ドルでのNXP買収を断念 - ITMedia

 通常、ある業種の大手企業が同業他社の大手企業を買収する場合は、ある程度事業の重複が見られる場合が多いですが、驚くほどに重複のない補完関係だったQualcommによるNXP買収が破談となりました。今後の半導体業界への影響は小さくなさそうです。

 NXPは車載半導体最大手で各種の制御を行うような、旧来からあるマイコン(ローパフォーマンス・低消費電力・リアルタイム・長期供給)は得意分野ですが、コネクティドカーのような画像処理・画像認識・ディープラーニングによる自動運転支援・4G/5G通信を行う半導体(ハイパフォーマンス・大消費電力)となると、NVIDIA・Intel・Qualcommのような企業が有利です。QualcommがNXPを吸収することで両方の分野を統合的に扱えるはずでした。そのため個人的には極めてポジティブな想像をしていたのですが、実現しないようでガッカリです。

 ちなみにQualcomm + NXPのシナジーはコネクティドカーのみに留まらず、例えばネットワーク用のプロセッサーも同様です。Qualcommは4G/5Gモデム(端末側)だけでなく基地局側のプロセッサーもsmall cell/micro cell用は開発・製造していますが、より範囲が広いmacro cell用は無くネットワークプロセッサーも持っていません。これらはNXPの旧Freescaleが持っているはずで、Qualcomm + NXP(Freescale)の統合はシナジーを生むはずでした。

GoogleがEdge TPUを発表

グーグルが外販するAI向け半導体「Edge TPU」の全貌 - Business Insider Japan
Edge TPU - Run Inference at the Edge - Google Cloud

 GoogleがCloud TPUと対になるEdge TPUを発表したそうです。
 Googleがコンシューマー製品にプロセッサーを出すとすれば、当時Google傘下だったMotorola Moto X初代のX8(内実はSnapdragon S4 Pro)やPixel 2のPixel Vision Core(内実はIntel/Movidius Myriad 2)以来となりますが、同様にEdge TPUも他社製品のリブランド品と想像します。Googleは Cloud TPUのようにプロセッサー開発技術は持っていますが自社でASICを販売したりサポートするようなサプライチェーンを持っているとは思えないので、自社開発品は自社データセンターのみで、コンシューマー製品は自社開発しないと想像できるからです。

 Pixel 2のPixel Vision Coreと同様にIntel/Movidius Myriadに若干のカスタマイズを加えたものと推測しますが詳細は不明です。

# そもそも、Googleはクラウドで利益をあげる会社で、自社製のフレームワークが動けばいいので
# プロセッサーの製造元は何処であっても構わないはず

BackBlazeの2018Q2レポート

WDCとSeagateのHDDが高い故障率、Backblaze報告 - マイナビ
Hard Drive Stats for Q2 2018 - BackBlaze

 いつも引用されたり批判に晒されたりしているBackBlazeのレポートですが内容や適用範囲を吟味する必要があると思います。まず、「用途に合っていないモデルを選択することが“間違った伝説をつくる”」という指摘もあり、実際、この指摘はファームウェアの違いという点を考えればおかしくはありません(ただし内容の違いは非公開なので、消費者が知る余地はない)。

 まず、BackBlazeはDropboxのようなオンラインストレージ(書き換えがある程度発生する)やオンラインのバックアップ用のストレージ(書き換えは発生しない)を生業としており、一方でデータベースを走らせてオンライントランザクションを処理したりという用途ではありません。言い換えるとコールドストレージでホットでもウォームでもなく、オンラインストレージやニアラインストレージではありません。つまり自宅や企業でファイル共有用のNASの参考にはなるかもしれませんが、用途によっては参考とならない可能性があります。

 また、コンシューマー製品が一概に悪だとも断言できません。
 用途の異なるコンシューマー向けHDDをエンタープライズに大規模に持ち込んだのは、私が知る限りではGoogleが最初です。エンタープライズはSCSI一択であった当時ATAドライブを山のように導入して話題となりました。そもそもGoogleの検索用の各種データは多重に冗長化されドライブが破損しても問題ない仕様だったので、単一コストあたりで高速で大容量なストレージを構成できるなら消費者用ATAドライブが最適という発想の逆転的な理に適ったアイデアでした。言い換えればGoogle並にハードウェア技術やファイルシステム技術やOS技術があり、デザインの一環として一般的なセオリーから外れるのは問題ないはずです。

 私はBackBlazeがどのような思想・戦略で、あるいはどのような技術でコンシューマー製品を利用しているのかは知りません。そのためBackBlazeの正当性を主張したり批判したりはできませんが、Seagate製のドライブが破損し続けても採用し続けたり、サーバーが特殊な設計(HDDを大事に扱っているとはとても思えない。電源すら二重化されていない設計)だったり、その一方で大量のデータが消失したというインシデントを目にしないように、恐らくは安価なドライブを使い捨てで大量に使って多重に冗長化するような運用と想像できます。そのため、個人の参考になるかどうかはともかく、用途を限定すればある程度参考になると判断します。


先週の興味深かった記事(2018年 第29週)

2018-07-23 | 興味深かった話題

5G 携帯電話網を支える半導体ベンダー

5Gってなに? なぜインテルが注力?

 Intelが注力とある通り4G登場時との顔ぶれの違いが個人的には衝撃的でした。

 4G時代からモデムトップのQualcommはNXP経由で旧Freescaleの基地局用SoCを取得しています。Qualcommは基地局側の半導体は相対的に存在感が薄い感じでしたが、CPU・DSPが揃い、さらに旧Freescale経由で販売網まで引き継ぐとなると、携帯電話端末と同様に市場を支配する可能性もありそうです。

 Intelの場合は、そもそも4G登場時点では一切の製品を持っていませんでしたが、旧Infineonのモデム(端末側)と旧LSIのAxxiaをBroadcomから、旧MindspeedのTrancede基地局SoCをMacomから買収済みです。そのBroadcomは4G以前から持っていた基地局DSPに加え旧Renesas(旧Nokia)のモデムを取得しています。他にCaviumを取得したMarvellは、以前よりモデムは保有していたもののCavium取得で強力なコミュニケーションプロセッサーを開発可能になったはず。4G登場時には小規模だったMediaTekとSamsungはモデムで一定のシェアを持っています。代わって3G・4G時代はメジャーなプレイヤーだったTexas InstrumentsやAnalog Devicesの影が見えません。

 こう見ると様々なベンダーが5G向け半導体を供給するように見えますが、その大半の中身はArmのCPUとCevaのDSPを使っているわけで、そういう絡み方もあるのだと考えさせられます。

新進気鋭のホワイトハッカーとアンチウィルスソフトが対決

新進気鋭のホワイトハッカーとアンチウイルスソフトがガチンコ対決! - マイナビニュース

 アンチウィルスソフトの有効性の実験や参加者の経験として有効かどうかはともかく、なんだか非現実的なシナリオのように思えます。

 攻撃対象PCにアクセスしているということは、企業ならIPSやプロキシー、家庭でもブロードバンドルーターに内臓のファイヤーウォールといったセキュリティー装置を潜り抜けているわけで、このような状況はホテルや学校などの公共インターネットサービスでしか想定できません。
 また、実際にやるとなればマルウェアを改変して検出率を下げて使用するでしょうが、その攻撃対象PCは、そうまでしてハッキングする必要がある攻撃対象なのでしょうか?例えば一般に企業ではサーバーの方が価値が高いわけで、その攻撃対象サーバーにアクセスする踏み台としてクライアントPCが狙われることは考えられますが、その場合はクライアントPCが踏み台として機能しなければ意味がありません。


今週の興味深かった記事(2018年 第28週)

2018-07-15 | 興味深かった話題

IntelがeASICを買収

Intel、ASIC開発企業の買収発表。FPGAとのシナジー見越す - PCwatch

 Intel FPGA部門(旧Altera)がeASICを買収するそうです。
 eASICの技術を使うと、マスク1~2層を切り替えることでASICでありながら1つのウェハでデザインが僅かに異なる複数種類のチップを作り分けたりできるようで、Design Reuseの記事ではA~Dの4種類のプロトタイプを1つのウェハで製造する例が掲載されています。FPGAはASICのプロトタイプや少量生産のASIC代わりに採用されることも多いですが、そういう用途なら確かにeASICが適用できる例もあるのかもしれません。

 もっとも、記事中のEMIBのくだりはよく解りません。
 例えば(実際にそういう製品が存在しますが)Intel XeonとFPGAが1パッケージになっている場合、FPGAでアクセラレーターを構成したりして特定の用途で高速なプロセッサーを構成できます(例:100Gbit Ethernetのようなネットワークコントローラーを構成してネットワークプロセッサー化したり、ニューラルプロセッシングユニットを構成して機械学習を高速化したり)。ですからCPU + プログラマブルなロジックという組み合わせの需要は理解できます。しかし、eASICの自由度はマスク1~2層分と限定的なので、例えばネットワーク処理のユニットをカスタマイズしてニューラルコンピューティングユニットに転換するような大規模な変更はできないと思います。

欧州のExascaleスーパーコンピューター

European Program to Develop Supercomputing Chips Begins to Take Shape - Top500

 Hisa Ando氏のサイト経由の話題。
 Arm + RISC-Vでスーパーコンピューターを構築する、というがRISC-Vはアクセラレーター用ということで、アクセラレーターそのものというよりはGPU的なSIMDアレイを制御するためということかと思いますので、さほど強力なコアにはならないのではないかと想像します。というか、Armコアも含めプロセッサーを開発する旨は記載がありますがCPUコアから開発するとは記載されていない気がします。

 ヨーロッパは、ソフトウェアはともかくハードウェアはイマイチな気がします。スーパーコンピューターを構築できるのは大学や研究機関を除けば仏Bullぐらいだと思いますし、Armは英国企業ですが英ケンブリッジが開発したのは省電力のCortex-A5xの方で、ハイパフォーマンスのCortex-A7x系は米テキサスの研究開発センターによるものです。ほかには組込向けグラフィックコアのImaginationは英国企業でしたが中国系投資会社に買収されてしまいました。

 Ando氏は富士通・理研の手掛けるPost-京を引き合いにだし「日本のPost-Kとも協力できるところがありそう」と仰っておられますが、個人的にはArmv8-A SVEおよびIntel AVX-512のような>512-bit超のSIMDのCPUへの実装は流行らないのではと思います。


今週の興味深かった記事(2018年 第27週)

2018-07-07 | 興味深かった話題

Intel 第9世代マイクロプロセッサー

Intel Reveals Initial 9000-Series Coffee Lake SKUs – WikiChip Fuse

  Intelの資料中で同社の第9世代Coreプロセッサーを示す9000番台のSKUをもつマイクロプロセッサーが見つかったとのこと。

 コード名Coffee Lakeプロセッサーが第8世代なのにCoffee Lake Refreshプロセッサーが第9世代とはどうしたものか?という意見も散見されますが、最近流行(?)の「◯◯ as a Service」よろしくユーザーエクスペリエンスに基づくなら、世代番号を進めるのも間違いでない気もします。最上位モデルのコア数が第7→8→9世代で4コア→6コア→8コアとなれば、そういうナンバリングでもいい気がします。

ちょっと「Lake」が多すぎません?

https://news.mynavi.jp/article/20180706-intel/

 上記に関連して、Intelプロセッサーのコード名のややこしさを指摘した記事。解ってる人に言わせれば「10nmプロセスがここまで送れなければ、こんなことには…」という話ではあるのですが。

本来(2016年なかば頃?)はこういう予定だった
Core系 Skylake→Kaby Lake→Cannon Lake→Ice Lake→Tiger Lake
Atom系 Apollo Lake→Gemini Lake

それが10nm製造プロセスの遅れで代役が多数登場し、ついでにロードマップが更新された結果こうなった
Core系 Skylake→Kaby Lake→Coffee Lake→Coffee Lake R→Ice Lake→Tiger Lake→Alder Lake→Meteor Lake
    Skylake→Kaby Lake→Kaby Lake R→Whisky Lake/Comet Lake/Amber Lake→Ice Lake→Tiger Lake→Alder Lake→Meteor Lake
Atom系 Apollo Lake→Gemini Lake

 Core系の一列目はデスクトップ用で二列目はラップトップ用です。また、本来は何処かにCannon Lakeが入るはずですが、既に不完全な製品が8231Uのモデル名で出ているので、来年後半に10nmが正式に立ち上がったとしても無かったことにされそうな予感でいっぱいです。


今週の興味深かった記事(2018年 第26週)

2018-06-30 | 興味深かった話題

Top500すべてをLinuxが独占

Linux Powers ALL TOP500 Supercomputers In The World - FossByte

 6月25日に発表されたTop500スーパーコンピューターランキングでは米国/IBMが予定通り首位を奪還しましたが、Top500の全システムがLinuxとなったようです。
 もっとも、IBMはRed Hat Enterprise Linux(RHEL)またはSUSE Linux Enterprise(SLE)、CrayはSLEをベースに改造したカーネルを使用しています(IBMのRHEL版は不明。BlueGeneで採用されているIBMのSLEはKernel Node Linux、CrayはCompute Node Kernelを使用)。これは理研がPost-K(ポスト京)でMcKernelを採用する予定なのと同様ですが、市販されているLinuxとはかなり毛色が異なるものです。具体的にはI/O処理を他のノードに任せるために削っていたり、1プロセスのみを高速に動かす前提でマルチプロセスを削ったり、BlueGeneのKNLに至ってはオーバーヘッドの大きいforkを削っていたりします。

 一方、2位・4位に食い込んだ中国の場合、UNIX等の他のOSは恐らくライセンスの問題が厳しいと思われるので、選択肢はLinuxやBSD等のOpen Source OSに限定されるのでLinuxの選択は妥当と思います。

ASIMOはどうなったのか?

ホンダ アシモの開発をとりやめ 研究開発チームも解散 - NHK
ホンダの二足歩行ロボット研究は継続中 ~ASIMO開発中止報道についてコメント - PC Watch

 恐らく実態はNHK報道とPC Watch報道の間のどこかなのだと思いますが、もしASIMO部隊なるものが存在し、それが解散したというなら「今後は介護支援などより実用的なロボット技術の開発に力を入れる方針」という説明は、解散済のチームが何かを開発するようで辻褄が合わない気がします。むしろ、ASIMOというデモンストレーション/概念立証的なプロジェクトの開発が終了し、今後は同開発で培われた技術や得られた知見を実用的なロボットの開発に適用するということ(PC Watch報道に近い解釈)なら辻褄があいそうです。

 もっとも、ASIMOの技術単独では採算が合うとは思えませんし、そもそも2足歩行が役立つかすら怪しいので、今後、本当に実用化された製品が展開されるかどうかは興味のあるところです。

NASのプロセッサー

ASUSTOR、実売32,900円からの10GbE対応NASベアボーンキット - PC Watch

 NASに採用されているプロセッサーは、上位はIntel x86系、下位はARM32系が一般的です。
 そんな中登場したASUSTOR製NASはARM64系のCortex-A72 1.6 GHz dual-coreを搭載したMarvell ARMADA 7020を採用しています。NASメーカー各社の同クラスの現行製品ではCortex-A15 1.4 GHz quad-coreを搭載するAnnapurna Labs Alpine AL-314プロセッサーが一般的なためCortex-A15→Cortex-A72という性能向上と4-core→2-coreという性能低下とで、総合的に性能が向上するのか興味深いところです。

 ちなみに、NASではなくSingle Board Computerでは韓国Hardkernelが同様にCortex-A15 2.0 GHz 4-core(Samsung Exynos)とCortex-A72 2.0 GHz 2-core(Rockchip RK3399)の比較を実施しており、シングルスレッドでは10~30%性能が向上するものの、マルチスレッドでは大きな性能差は見られないようです。

 想像するに本製品は10GbEを搭載していることから、現行製品で一般的なメモリー2GBではやや不足し、4GB以上を搭載するためにARM64系プロセッサーを採用したということかもしれません。

メッシュWi-Fi

Google Wifi vs. deco M5 メッシュ対応Wi-Fiルーター徹底比較 - ITMedia

 802.11sメッシュネットワーク技術が普及の兆しを見せていますが、日本の住宅は米国などと比べて小さくカバー面積は小さくていい一方で、米国よりも電波を通し難い鉄筋コンクリート/鉄骨住宅が多いため、日本の住宅事情に合っているのか興味深いところです。

 ただし本記事はおすすめできません。Google Wifiは2016年に発表された製品でTP-Link Deco M5も新製品ではありませんから、より詳しいレポートが外国メディアで行われています。私のおすすめはSmallNetBuilderの比較記事(英語)です。

 SmallNetBuilderは様々な状況でのベンチマーク比較を行っているだけでなく、ハードウェアの違いにも触れています。例えばGoogle WifiとTP-Link Deco M5はハードウェアが酷似しているので性能に大きな差が見られないのは当たり前のことです。

 実は、Google・TP-LinkのほかNetgear・Linksys・Ubiquiti Networks・Eeero各社からでている現行の802.11s対応Whole Home Wi-Fi製品の多くはQualcomm(旧Atheros)製IPQ4018/4019プロセッサー(Cortex-A7 716 MHz 4-core)に128~256MBのメモリーを組み合わせたものとなっており、プロセッサー性能は大きな違いはありません。これに対し英British TelecomはMediaTek MT7621(MIPS 1004Kc 880 MHz 2-core)、中国TendaはRealtek RTL8197FS(MIPS 24Kc 1000 MHz 1-core)を採用しており、それぞれ4C/4T・2C/4T・1C/1Tとマルチスレッド性能に大きな違いが見られます。実際、BT製品・Tenda製品の性能は芳しくありません。
 一方、同種のプロセッサーを搭載している製品の中でも、Netgear OrbiはAP間を接続するbackhaul用に2.4GHz Wi-FiチャンネルがAP用とは別に用意されているため高く評価されていますが、性能は高いものの価格も高価です。

 個人的な想像としては、家屋の大きな米国の住宅の場合はTP-Link Deco M5製品やNetgear Orbi製品で少数のAPでカバー面積を稼ぐのがお勧めですが、面積が小さいものの鉄筋コンクリートで遮蔽されてしまう日本の住宅の場合は安価なTenda製品を要所に多数配置する方が有効な可能性もあります(※Netgear Orbi値段はTenda MW6の4倍です)。後発の日本のメディアがすべきレビューはそういう種類のものだと思います。


今週の興味深かった記事(2018年 第25週)

2018-06-23 | 興味深かった話題

富士通のPost-京用CPU試作チップ

スパコン「京」の後継機、CPUの試作チップ完成 国際会議で試作機披露へ ― ITMedia

 ポスト「京」コンピューターの完成は2021年を予定しているため、どの程度の完成度なのか解り難いところです。3年も早く試作チップを公開するということでOSやアプリケーションといったソフトウェアの開発を促す狙いがあると想像しますが、3年という期間は半導体プロセス世代で1~2世代ずれる可能性が高く、同じチップ面積で2~4倍のトランジスタを詰め込めたとしても不思議はありません。ただし、試作チップでソフトウェア環境を整備するということはソフトウェアから見て試作チップが「本番」チップと同等である必要があります。動作周波数は違っても問題ありませんが、命令セットはもとより実行パイプラインもほぼ同等であるべきですし、コア数は相似(試作が48コアなら本番は96コアとか)であるべきです。

 もともと「京」以前より富士通は同社のUNIX用SPARC64プロセッサーとメインフレームGSシリーズ用プロセッサーを単一の開発チームが作り分けており、「京」でそのラインナップにHPC用SPARC64プロセッサーが加わりました。ポスト「京」ではこのHPC用がArmv8-A SVEになるのだろうと思われます。そのため、SPARC64と似た構成になるかと想像していたのですが、スペックを見る限りでは判断しかねるところです。

ProcessorYearProcessCore countSMT / corefreq# of Exec ports
SPARC64 X+ 2013 28 nm 16 cores/chip 2 (Total 32T/chip) 3.5 GHz 8 ports
SPARC64 XII 2017 20 nm 12 cores/chip 8 (Total 96T/chip) 3.9 GHz 8 ports x 2 pipeline
(Post-K Armv8-A) 2018   48 + 2 cores/chip ? ? ?

 16コア→12コア→48コアと見ていくと別物のコアと考えた方が自然に思えますが、一方でSPARC XIIではL1命令キャッシュを共有したパイプライン(SPARC64 Xでのコア)を2個接続したものをコアと呼んでおり実質的には24コアです。今回は恐らくTSMC 14nm/12nmプロセスで48+2コア(恐らく計54コアで2コアは冗長化のために無効化)ということでSPARC64 X相当の規模のコアを48コアという可能性も考えられます。

OpenBSDがセキュリティ優先でIntel Hyper-Threadingを無効化

OpenBSDセキュリティ優先でハイパースレッディング機能を無効化 - マイナビ

 賛否両論がありそうな試みです。セキュリティ実装に実績あるOpenBSDならではともいえます。
OpenBSDコミュニティーというと、HeartBleed脆弱性問題の際にOpenSSLからセキュリティ優先で互換性を切り捨てたLibreSSLのリリースなどで知られます。

 とはいえ、Hyper-Threadingの無効化はパフォーマンスで悪影響がある可能性が高い。IntelはPentium 4でHyper-Threadingを初めて採用した際に5~10%のトランジスタ増加で最大30%のパフォーマンス向上を謳っていたし、実際、最近のCore製品のベンチマーク結果を見比べると2C/2Tに比べ2C/4T製品は各およそ20~25%程度パフォーマンスが高くなっています。


今週の興味深かった記事(2018年 第24週)

2018-06-17 | 興味深かった話題

Intelが単体GPUのリリース計画を認めた

Intel confirms it’ll release - The Register

 AMD Radeon Technologies GroupからRaja Koduri氏を引き抜いてディスクリートGPU参入を噂されていたIntelですが、認めたそう。ただし2017年11月の移籍から3年足らずでのリリースというのはかなり速いペースですが果たして…

 想像するに、AVX-512でIntelは限界を感じたのではと思います。AVX-512を1サイクルで動作させるためには1サイクル当たり512-bit(64 Byte)分のLoad/Store性能は最低必須で、これは発熱の元となっています。AVX-512が有効化されたSkylake-EではAVX-512実行時に10%以上も動作周波数を落として実行しています。ならば(かつてAMDが提唱していたように、そしてNVIDIAが一部実現しているように)512~4096-bitを超えるようなSIMD/SIMTはGPU側で実行してしまった方が都合がいいとも考えられます。

 ところで、理研と富士通が開発中のPost-京コンピューターも物理512-bit幅のSIMDをArmプロセッサーに実装しているはずですが、IBM SummitのようにNVLINKで外部GPUに接続した方が良かったなんてことになりそうな気がします。

NASA 火星探査車が音信不通

NASA火星探査車が音信不通 砂嵐で太陽発電休止に - 朝日新聞デジタル

 2003年から約1年の設計寿命ながら、SpiritOpportunityの2台とも2010年まで活動、Opportunityはその後8年間も活動していることを考えると
 元組込屋としては感慨深いものがあります。当時はIBMもまだApple Machintosh向けにPowerPCを開発しており、ローバーはそのPowerPC 601に宇宙線対策など特殊な加工を施したBAE RAD6000に、OSとしてWindRiver VxWorksを搭載しています。それがローバーが15年間も活動を続ける間にIBMは消費者/組込向けのPowerPCから事実上撤退し、VxWorksは健在ながらWindRiverはIntelに買収されています。

レシート1枚10円で買うアプリ、天才高校生プログラマーが小売市場に挑む

レシート1枚10円で買うアプリ、天才高校生プログラマーが小売市場に挑む - Business Insider Japan

 現代社会を便利に生活するうえで、個人情報を部分的に開示することはやむをえないとはいえ、この個人情報を提供する/しないという判断には提供する個人情報の価値や、提供先の信頼度や、その情報のコントロール権も加味して判断されるべきなのでしょう。JR東日本がSuicaの個人情報の社外提供を停止したのも記憶に新しいところです。

 Amazonや楽天に限らず、大手スーパーマーケットやコンビニエンスストアのチェーンはPOSによって売上の動向を統計的に取得しており、また、会員カードを使わせることによって「20代・男性」のような抽象的かつ不完全なデータではなく、より具体的かつ正確なデータを取得しています。それでもレシートの購買情報が欲しいというのは裏の意図を感じてしまいます。

 本件の場合、レシートよりも入会する時点で提供することになる公的身分証明書のコピーが厄介に思えます。例えばパスポートは闇市場で数十万円するので、公的身分証明書の価値を鑑みれば割に合うとは思えません。


先週の興味深かった記事(2018年 第23週)

2018-06-11 | 興味深かった話題

シャープの東芝PC事業買収の狙いとは

シャープの東芝PC事業買収の狙いとは - PCwatch

 鴻海傘下となって復活したシャープが東芝からラップトップPCを買収するらしい。
 記事等では「PC事業」となっているけれども、東芝のデスクトップPCなど近頃は記憶にないので事実上ラップトップPCと言ってよかろう。一方の鴻海(Foxconn)はPC販売実績こそなくともODM事業で大手PCベンダー向けに基板などの製造・供給実績がある。

Cavium Thunder X2

A Look at Cavium’s New High-Performance ARM Microprocessors – WikiChip Fuse

 WikiChipの解説記事なのでニュースとは違うかもしれない。
 Cavium Thunder X2は先代Thunder Xとは異なり2016年末にBroadcomから買収したもの。当初はThunder Xの拡張版が検討されていたと思われ、製品ページ等での説明が二転三転しており実態は不明瞭でしたが、WikiChipの内容で確定ということで良さそう。例えば昔の製品ページを見ると58コアという記載も見られるのに対し現在の製品は32コアとなっています。これは先代の"Project Thunder"コアに対し"Vulcan"コアの方が数倍複雑で半導体コストがかかることからコア数を半減する必要があったと推測できます。その一方でメモリーチャンネル数は当初の6チャンネルから8チャンネルに増加しています。


先週の興味深かった話題(2018年 第22週)

2018-06-04 | 興味深かった話題

Arm Cortex-A76

Arm、Skylakeの性能の90%に迫るCPUコア「Cortex-A76」 - PC Watch

 次々世代の$400~600スマートフォンに搭載されるプロセッサーとして興味深いものの、性能についての説明は眉唾と思います。
 実のところ性能がどの程度向上するのか怪しく、恐らく現行のCortex-A75を目安にして10〜20%に留まると思う。フロントエンドは強化されたもののバックエンドはCortex-A57/72/73/75から大きく変化していないので大化けするとは考えにくい。同じモバイル向けArm系プロセッサーではApple AxシリーズやSamusung Exynos Mxシリーズの優位に変化はないでしょう。

 Intel Coreプロセッサーの場合、5年前のIvy BridgeからHaswell(2013年)でバックエンドを拡張して実行ポートを6から8に増やし、さらにSkylake(2015年)でフロントエンドを拡張しデコード命令数を4から5に増やし、結果としてIvy Bridgeと比べ最大で20%前後の性能向上を果たした経緯があります。これは単純に命令デコード数が増えても実行ポートのポート競合が発生すれば実行できないし、ポート競合を避けるためには実行ユニットへのデータ供給性能≒ロード/ストア性能≒キャッシューレジスタファイル間の帯域を増やす必要があり…といった具合に単純ではないようです。

 その点で、Arm Cortex-A76はA57/A72/A73/A75と比べフロントエンドの拡張とデータキャッシュのマルチバンク化しか拡張されておらずポート競合は解決されていません。また、拡張すると発熱も問題になる可能性があり、Armは2016年のCortex-A73発表時にA72から命令デコード数を減らし、スマートフォンのようなワークロードで少ない消費電力で高い動作周波数を長時間持続できるため、持続パフォーマンスとしてはA73はA72より高性能だと主張していました

 ところで「Intel Skylakeの90%」というのも判断が難しい主張でマーケッティング用の謳い文句と捉えるのがよさそうです。同じフォームファクターで使用した場合を想定しているようですが、例えば現在の製品から考えてみると、Samsung Chromebook Plus/Proを例に取ると前者がCortex-A72に対しIntel Core m3 6Y30で、前者が2 GHzに対し後者は900 MHzに過ぎません。そういう比較は「~の90%」という謳い文句から消費者が想像するイメージとはかけ離れているように思います。

2.5G/5G-bit Ethernet

Realtek、世界初のシングルチップ2.5G Ethernetコントローラ - PCwatch

 2.5Gbps Ethernetや5Gbps Ethernetは10Gbps Ethernetはもとより40Gbps Ethernetよりも後に登場した規格です。1Gbpsの1000BASE-Tが1999年の規格化10Gbpsの10GBASE-Tは2008年の規格化に対し2015年に規格化されました。恐らくはポート単価が下がらない10GBASE-Tに代わり普及することを目論んだものと思います。

 10GBASE-Tの問題のひとつはPHYの発熱があったためヒートシンク不要の1チップで実現できる2.5Gbps Ethernetは普及する可能性があるように思います…が、MarvellやBroadcomの動向を見る限りRealtek以外の大手は2.5Gbps Ehternet対応品と5Gbps Ethernet対応品を共通化する方向のようなので、個人的には5Gbps Ethernetの普及に期待します。※ただしBroadcomはNetXtremeアセットをQLogicに売却済

 あと気になるのは10GBASE-Tで一躍メジャーベンダーに躍り出たAquantiaの動向でしょうか。2.5G/5Gbps Ethernetがローエンドサーバーや消費者に普及するとして、Aquantiaは普及価格帯の製品を出すのでしょうか?


今週の興味深かった話題(2018年 第21週)

2018-05-26 | 興味深かった話題

アマゾンのスピーカーが夫婦の会話を録音、勝手に他人に送信

アマゾンのスピーカーが夫婦の会話を録音、勝手に他人に送信

 Webサービス事業者によるプライバシーやら情報漏洩事件やらが取沙汰される昨今では、一見するとディストピア的な何かを感じさせますが、記事を読むと分かる通り、偶然が多発した結果の産物ということでいいようです。

 そもそも、Appleは「Siri」Microsoftは「Cortana」そしてAmazonは「Alexa」という名前を与えていますが、これは呼びかけやすいながらも現実世界ではなかなか遭遇しない名前です。ここでもし「太郎」だの「マイケル」だのだと現実の人に対する呼びかけに頻繁に反応してしまい、今回のような事故が頻発してしまう結果になりますから。

Armが機械学習専用プロセッサ「Arm ML」を投入へ

Armが機械学習専用プロセッサ「Arm ML」を投入へ

 これはおおいに意味があるはず。
 現時点では学習(training)で16-bit~32-bit浮動小数点、推論(inference)で8-bit整数または16-bit浮動小数点が一般的。アクセラレーター(以下NPU)も各社さまざま。もっとも使用されているフレームワークがTeosorFlowやCaffeなのかなり上級言語なのでドライバー等が整えばAndroid Neural Networks APIなどを経由すればアプリケーションからは使いやすいのか。

 個人的には、こうなってくると大容量のTightly Coupled Memory/Scratch PadやらShared Cacheやら…というか共有用のオンチップメモリーが欲しくなってくるところ。各種プロセッサーはSoCとして統合されているにも拘らず、各種プロセッサー間のコミュニケーションはほぼDRAM上にマップされたレジスタ経由になっているはず。これをオンチップに持って来れれば…と思うけれども、大容量のSRAMを載せるとすれば問題はコストかな(だからQualcommなんかはシステムキャッシュを載せる方向なのだろうけども)。

家庭向けの“3ベイNAS”はいいとこ取り? QNAP「TS-328」徹底解説

家庭向けの“3ベイNAS”はいいとこ取り? QNAP「TS-328」徹底解説

 選択肢が広がるという意味では興味深いけれども、個人的に必要性を感じたことはないかな。
 2-bayであればRAID0(ストライピング)かRAID1(ミラーリング)が可能で、RAID5は3-bay以上で可能になるが利用効率が良くない(66%)ため4-bay(75%)以上での利用が多いです。また、速度面でもパリティーを保存する都合上、小規模なRAID5はRAID0(ストライピング)のように高速化するとは限らない。
 パリティーの仕組は1サイクルで演算できるXORなので仕組自体は単純ですが量が馬鹿になりません。例えば動画などで3GiBを保存すると1GiBがパリティーで、AVXのような256-bitのSIMD演算をしたとしても400万回のXOR演算が必要となるわけで、ついでに単純に読み書きするだけでなくXOR演算を待たなければ読み書きの処理が完了しないわけだから通常よりも遅延は増加してしまう。これをストライピングすることでパリティーによる遅延を隠蔽しているわけだから、最小構成の3-bayでは恩恵は受けにくい。

 ちなみに私は一般家庭でのRAID5はあまり推奨していません。理屈上はRAIDアレイを構成するドライブの1台が破損した際に破損したドライブを取り換えれば再構築可能なはずですが、まず、RAIDのアレイを構成するドライブは同一機種を同じ負荷だけかけているわけだから他のドライブも故障して再構築に失敗→データ消失する可能性があるし、購入してから故障する1~3年間あれば交換用ドライブを買うよりもアレイを丸ごとバックアップできるような大容量ドライブを買った方がコストパフォーマンスは良い可能性だってある。それなら一時期の容量効率(50%)を無視してでもRAID1でデータの生存率を上げた方が良い。RAID5/RAID6が優秀なのは手厚いサポートが受けられる一方で柔軟に運用できない企業のデータセンターでの話。

 もし私が3-bayで運用するなら、ホットスタンバイが良いと思うけど、容量の効率は33%だから66%を犠牲にしてまで保護したいデータがあるかといえばかなり謎だ。