Gogazineの AI用ハードウェア・ソフトウェア関連情報を抜粋(時系列)
2015年11月10日 10時50分
◆Googleが製品開発で活用する機械学習システム「TensorFlow」を
商用利用OKでオープンソース化
https://gigazine.net/news/20151110-google-tensorflow/
Googleが、同社の製品開発でも使用しているディープラーニング・機械
学習用のシステム「TensorFlow」をオープンソース化し、Apache 2.0
ライセンスとして公開
TensorFlowはGoogleの第1世代機械学習基盤(istBelief)の後継で、モバイル端末
から数千台のクラスタコンピューターまで実行できる柔軟性を持つ
2016年05月19日 13時28分 ハードウェア
◆Googleが機械学習を爆速化する専用の「TPU」を数年前から極秘裏に作っていたこと
が明らかに
https://gigazine.net/news/20160519-google-tpu-custom-chip/
Googleの機械学習用プロセッサTPUの紹介
Googleの機械学習プラットフォームソフトTensorFlow用のASIC。
2018年05月10日 08時00分
◆Googleが機械学習専用の第3世代プロセッサ「TPU3.0」を発表、冷却が追いつかず
液冷システムまで導入する事態に
https://gigazine.net/news/20180510-google-tpu-3-ai-processor/
Google I/O 2018で発表された、機械学習特化専用プロセッサ「Tensor
Processing Unit(TPU)」第3世代モデルTPU 3.0 の性能に関する情報。
TPU2.0は、機械学習の「推論」と「トレーニング」の両方を効率的に処理すること
を可能にしていましたが、第3世代のTPU3.0では、さらに「トレーニング」に要する
時間を大幅に短縮できるとのこと
TPU3.0ポッドの性能は前モデルの8倍以上、100PFLOPS以上の演算能力とのこと
ただしポットを構成するノード数などは公表されず
TPU2.0は1ボード180TFLOPSで64台グリッドでは11.5PFLOPS
2018年12月13日 15時00分
◆Googleの機械学習マシン「Cloud TPU Pod」の新型はNVIDIA Tesla V100の200倍高速に
https://gigazine.net/news/20181213-google-cloud-tpu-pods-lower-faster/
Googleが自社開発機械学習プロセッサ「TPU」を搭載しGoogleデータセンター
ネットワークと接続したマシン「TPU Pod」の新バージョンが、クラウドで提供
開始(α版)
TPU2.0 x 256 構成で V100単体性能の203倍を発揮
※ TPU2.0単体ではまだV100に少し劣るというあたりということか…
2015年11月10日 10時50分
◆Googleが製品開発で活用する機械学習システム「TensorFlow」を
商用利用OKでオープンソース化
https://gigazine.net/news/20151110-google-tensorflow/
Googleが、同社の製品開発でも使用しているディープラーニング・機械
学習用のシステム「TensorFlow」をオープンソース化し、Apache 2.0
ライセンスとして公開
TensorFlowはGoogleの第1世代機械学習基盤(istBelief)の後継で、モバイル端末
から数千台のクラスタコンピューターまで実行できる柔軟性を持つ
2016年05月19日 13時28分 ハードウェア
◆Googleが機械学習を爆速化する専用の「TPU」を数年前から極秘裏に作っていたこと
が明らかに
https://gigazine.net/news/20160519-google-tpu-custom-chip/
Googleの機械学習用プロセッサTPUの紹介
Googleの機械学習プラットフォームソフトTensorFlow用のASIC。
2018年05月10日 08時00分
◆Googleが機械学習専用の第3世代プロセッサ「TPU3.0」を発表、冷却が追いつかず
液冷システムまで導入する事態に
https://gigazine.net/news/20180510-google-tpu-3-ai-processor/
Google I/O 2018で発表された、機械学習特化専用プロセッサ「Tensor
Processing Unit(TPU)」第3世代モデルTPU 3.0 の性能に関する情報。
TPU2.0は、機械学習の「推論」と「トレーニング」の両方を効率的に処理すること
を可能にしていましたが、第3世代のTPU3.0では、さらに「トレーニング」に要する
時間を大幅に短縮できるとのこと
TPU3.0ポッドの性能は前モデルの8倍以上、100PFLOPS以上の演算能力とのこと
ただしポットを構成するノード数などは公表されず
TPU2.0は1ボード180TFLOPSで64台グリッドでは11.5PFLOPS
2018年12月13日 15時00分
◆Googleの機械学習マシン「Cloud TPU Pod」の新型はNVIDIA Tesla V100の200倍高速に
https://gigazine.net/news/20181213-google-cloud-tpu-pods-lower-faster/
Googleが自社開発機械学習プロセッサ「TPU」を搭載しGoogleデータセンター
ネットワークと接続したマシン「TPU Pod」の新バージョンが、クラウドで提供
開始(α版)
TPU2.0 x 256 構成で V100単体性能の203倍を発揮
※ TPU2.0単体ではまだV100に少し劣るというあたりということか…
※コメント投稿者のブログIDはブログ作成者のみに通知されます