最適化問題に対する超高速&安定計算

クラスタ計算機やスーパーコンピュータ上での大規模最適化問題やグラフ探索などの研究のお話が中心

ABCI 1ノード内の構成

2018年07月31日 02時11分42秒 | Weblog
GPU Compute Nodes

NVIDIA TESLA V100 (16GB, SXM2) x 4
Intel Xeon Gold 6148 x 2 Sockets
20 cores per Socket
384GiB of DDR4 Memory
1.6TB NVMe SSD x 1
Intel DC P4600 u.2
EDR Infiniband HCA x 2
Connected to other Compute Notesand Filesystems



コメント

教員公募:教授または准教授(統計・データ科学及び関連する分野) 7/31締め切り : 最終掲載

2018年07月30日 00時23分36秒 | Weblog
平成30年5月1日

九州大学 マス・フォア・インダストリ研究所教員 (教授または准教授) 公募について

拝啓 時下ますますご清勝のこととお慶び申し上げます. さて,このたび九州大学 マス・フォア・インダストリ研究所では下記の公募を行うことになりました. ご多忙のところまことに恐縮に存じますが,貴関係者にお知らせいただくとともに,適任者をご存じの場合は応募をお勧めくださいますよう, お願い申し上げます.
敬具

1.公募対象: 九州大学 マス・フォア・インダストリ研究所 教授または准教授1名
2.専門分野: 統計・データ科学及び関連する分野(産業界との連携活動に意欲があること)
3.任期: 任期なし
4.採用予定日: 平成31年4月1日(平成30年度中の早期着任も可能)
5.提出書類:
(1) 履歴書(写真を貼付し, 署名捺印のこと. 電話番号・電子メール等の連絡先を明記)
(2) 研究業績リスト(論文, 著書, 講演リスト, さらに産業界との連携活動があれば記載)
(3) 研究業績の説明, 将来の研究計画, 教育および産業界との連携活動に対する抱負
(4) 論文別刷等(主なものだけで良い. プレプリントを含む. その他, 手に入りにくいもの,
予稿原稿など必要と思われる資料)
(5) ご本人について問い合わせることができる方3名の氏名と連絡先, およびそのうち少なくとも1名からの推薦状. (ただし, 推薦状に関しては応募書類とは別便で推薦者の方が下記提出先に応募期限までにお送りいただいても結構です. 電子メールやファックスでは受け付けません.)
6.応募期限: 平成30年7月31日(火)必着でお送り下さい.
コメント

Gurobiクラウドのご紹介

2018年07月29日 00時39分08秒 | Weblog
Gurobiクラウドのご紹介 ****

Gurobi インスタントクラウドは、パワフルなGurobiの最適化ソフトウェアをクラ
ウド上で実行するためのシンプルで費用対効果の高い方法です。ユーザは、最適化
のどのようなニーズであっても、そのニーズに応じたGurobiソフトウェアが既に
搭載されているユーザ専用のコンピュータを一つまたはそれ以上の数、起動するこ
とができます。ユーザは、ユーザのニーズを一番満たすサブスクリプションのプラ
ンと配備のためのオプションを単に選択するだけです。

Gurobiクラウドの詳細情報は、こちらから
https://www.octobersky.jp/products/gurobi_cloud.html

Gurobi Optimizerの詳細情報は、こちらから
https://www.octobersky.jp/products/gurobi.html
コメント

IFAC E-CoSM 2018 論文採択

2018年07月28日 20時13分19秒 | Weblog
IFAC E-CoSM 2018 に投稿していた論文が採択されました。。。

Nariaki Tateiwa*, Nozomi Hata, Akira Tanaka, Akihiro Yoshida, Takashi Wakamatsu, Takashi Nakayama, Katsuki Fujisawa
Hybrid Vehicle Control and Optimization with a New Mathematical Method


IFAC E-CoSM 2018
The 5th IFAC Conference on Engine and Powertrain Control, Simulation and Modeling


Sep.20-22, 2018
Changchun, China

E-CoSM was created in 2006 as a triennial workshop series. After four editions, it is updated and E-CoSM 2018 is the first edition as an IFAC conference series, sponsored by IFAC the IFAC Technical Committee on Automotive Control and co-sponsored by other IFAC Technical Committees. After four successful editions organized and hosted by the Institut Francais du Petrole Energies Nouvelles (IFPEN) in France and the Ohio State University Center for Automotive Research and SIMCenter, the E-CoSM moves to China and being upgraded as the first edition as an IFAC conference series, and hosted by Jilin University's State Key Laboratory of Automotive Simulation and Control (ASCL) and CAA T.C. Vehicle Control and Intelligence (VCI), and supported by the State Key Laboratory of Combustion Engine, Tianjin University, and Chinese Association of Automation CAA.
E-CoSM 2018 will be held at the South Lake Hotel in Changchun, China. It will be held from 20 to 22 September 2018. Research achievements on engine and powertrain control, simulation and modeling in recent years will be displayed and concluded on the conference. In the meantime, the major problems in science, technology and policy that people may face in the future will be explored.
Regular papers presented at E-CoSM 2018 will be hosted and freely available on-line on the IFAC-PapersOnLine.net website and will be citable via an ISSN and a DOI. Papers published in IFAC-PapersOline are indexed in Scopus, EI and WoS. The best papers will be considered for publication in affiliated IFAC journals.
コメント

cuda_9.2.148_396.37

2018年07月27日 00時20分40秒 | Weblog
cuda_9.2.88_396.26 から 9.2.148_396.37 に入れ替えてみました。

◯入れ替え前
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 396.26 Driver Version: 396.26 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 Tesla P100-PCIE... Off | 00000000:02:00.0 Off | 0 |
| N/A 30C P0 31W / 250W | 0MiB / 16280MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
| 1 Tesla P100-PCIE... Off | 00000000:81:00.0 Off | 0 |
| N/A 30C P0 29W / 250W | 0MiB / 16280MiB | 0% Default |
+-------------------------------+----------------------+----------------------+

# ./bandwidthTest --device=all
[CUDA Bandwidth Test] - Starting...

!!!!!Cumulative Bandwidth to be computed from all the devices !!!!!!

Running on...

Device 0: Tesla P100-PCIE-16GB
Device 1: Tesla P100-PCIE-16GB
Quick Mode

Host to Device Bandwidth, 2 Device(s)
PINNED Memory Transfers
Transfer Size (Bytes) Bandwidth(MB/s)
33554432 23384.8

Device to Host Bandwidth, 2 Device(s)
PINNED Memory Transfers
Transfer Size (Bytes) Bandwidth(MB/s)
33554432 25712.7

Device to Device Bandwidth, 2 Device(s)
PINNED Memory Transfers
Transfer Size (Bytes) Bandwidth(MB/s)
33554432 1000549.8

Result = PASS

# ./matrixMulCUBLAS
[Matrix Multiply CUBLAS] - Starting...
GPU Device 0: "Tesla P100-PCIE-16GB" with compute capability 6.0

GPU Device 0: "Tesla P100-PCIE-16GB" with compute capability 6.0

MatrixA(640,480), MatrixB(480,320), MatrixC(640,320)
Computing result using CUBLAS...done.
Performance= 5604.82 GFlop/s, Time= 0.035 msec, Size= 196608000 Ops
Computing result using host CPU...done.
Comparing CUBLAS Matrix Multiply with CPU results: PASS


◯入れ替え後
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 396.37 Driver Version: 396.37 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 Tesla P100-PCIE... Off | 00000000:02:00.0 Off | 0 |
| N/A 31C P0 32W / 250W | 0MiB / 16280MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
| 1 Tesla P100-PCIE... Off | 00000000:81:00.0 Off | 0 |
| N/A 31C P0 26W / 250W | 0MiB / 16280MiB | 0% Default |
+-------------------------------+----------------------+----------------------+

# ./bandwidthTest --device=all
[CUDA Bandwidth Test] - Starting...

!!!!!Cumulative Bandwidth to be computed from all the devices !!!!!!

Running on...

Device 0: Tesla P100-PCIE-16GB
Device 1: Tesla P100-PCIE-16GB
Quick Mode

Host to Device Bandwidth, 2 Device(s)
PINNED Memory Transfers
Transfer Size (Bytes) Bandwidth(MB/s)
33554432 23281.6

Device to Host Bandwidth, 2 Device(s)
PINNED Memory Transfers
Transfer Size (Bytes) Bandwidth(MB/s)
33554432 25726.3

Device to Device Bandwidth, 2 Device(s)
PINNED Memory Transfers
Transfer Size (Bytes) Bandwidth(MB/s)
33554432 1000628.0

Result = PASS

# ./matrixMulCUBLAS
[Matrix Multiply CUBLAS] - Starting...
GPU Device 0: "Tesla P100-PCIE-16GB" with compute capability 6.0

GPU Device 0: "Tesla P100-PCIE-16GB" with compute capability 6.0

MatrixA(640,480), MatrixB(480,320), MatrixC(640,320)
Computing result using CUBLAS...done.
Performance= 5615.40 GFlop/s, Time= 0.035 msec, Size= 196608000 Ops
Computing result using host CPU...done.
Comparing CUBLAS Matrix Multiply with CPU results: PASS


コメント

Gurobi Optimizer の新バージョン8.0.1 がリリース

2018年07月26日 00時50分52秒 | Weblog
Gurobi Optimizer の新バージョン8.0.1 がリリースされました。
本バージョンは、テクニカルリリースです。

【本リリースで対応された主な不具合修正内容】

(不具合修正)
・スレッドコールバックの不具合を修正
・前処理におけるドミネーション処理が小さい値の係数になる場合に、
 数値的問題を引き起こしていた不具合の修正
コメント

GTC Japan 2018

2018年07月25日 22時39分56秒 | Weblog
<GTC Japan 2018>
主催: エヌビディア合同会社
後援: 文部科学省、理研AIP、メディカルAI学会、電子情報通信学会 パターン認識・メディア理解研究会、日本ディープラーニング協会
日時: 2018 年 9 月 13 日 (木)、14 日 (金)
場所: グランドプリンスホテル新高輪 国際館パミール
申込: Web サイトから事前登録制(有料)
URL: https://www.nvidia.com/ja-jp/gtc/
コメント

グーグル、最大100ペタFLOPSのAI専用スパコン提供へ

2018年07月24日 03時33分51秒 | Weblog
グーグル、最大100ペタFLOPSのAI専用スパコン提供へ

グーグル日本法人は2018年7月6日、ディープラーニング(深層学習)向けコンピューティングサービスの新版「TPU(Tensor Processing Units) v2 Pod」を2018年内にも提供すると発表した。
TPU Podは、ディープラーニングの処理に特化した独自開発のプロセッサーを多数搭載したスーパーコンピューターだ。ディープラーニングの主な処理になる行列演算を高速化する工夫をプロセッサーに盛り込むなどして、最大で100ペタ(10京)FLOPS(1秒当たり浮動小数点演算回数)の処理性能が出せるという。従来の汎用スーパーコンピューターと仕組みが違うため一概に比較はできないが、数字上は理化学研究所などが運用するスーパーコンピューター「京」のピーク性能である約10ペタFLOPSを上回る。
コメント

課題事後評価 ポストペタスケール高性能計算に資するシステムソフトウェア技術の創出

2018年07月23日 22時16分45秒 | Weblog
課題事後評価 ポストペタスケール高性能計算に資するシステムソフトウェア技術の創出

1.研究領域の概要
 本研究領域は、次々世代(次世代スーパーコンピュータ「京」の次の世代)あるいはそれ以降のスーパーコンピューティングに資する、システムソフトウェアやアプリケーション開発環境等の基盤技術の創出を目指すものです。
 具体的には、2010年代半ば以降に多用される、メニーコア化された汎用型プロセッサや専用プロセッサ(現在、GPGPUと呼ばれるものを含む)を用いて構成されるスーパーコンピュータの特徴を生かし、その上で実行されるアプリケーションを高効率・高信頼なものにするシステムソフトウェア(プログラミング言語、コンパイラ、ランタイムシステム、オペレーティングシステム、通信ミドルウェア、ファイルシステム等)、アプリケーション開発支援システム、超大規模データ処理システムソフトウェア等に関する、実用性を見据えた研究開発を対象とします。また、実用上の観点からそれらのソフトウェアレイアをまたがる研究開発が奨励されます。

2.事後評価の概要
2-1.評価の目的、方法、評価項目及び基準
 戦略的創造研究推進事業・CRESTにおける事後評価の目的、方法、評価項目及び基準に沿って実施した。

2-2.評価対象研究代表者及び研究課題
平成23年度採択研究課題
(1)塩谷 隆二 (東洋大学 総合情報学部 教授)
ポストペタスケールシミュレーションのための階層分割型数値解法ライブラリ開発

(2)滝沢 寛之 (東北大学 サイバーサイエンスセンター 教授)
進化的アプローチによる超並列複合システム向け開発環境の創出

(3)千葉 滋 (東京大学 大学院情報理工学系研究科 教授)
ポストペタスケール時代のスーパーコンピューティング向けソフトウェア開発環境

(4)南里 豪志 (九州大学 情報基盤研究開発センター 准教授)
省メモリ技術と動的最適化技術によるスケーラブル通信ライブラリの開発

(5)藤澤 克樹 (九州大学 マス・フォア・インダストリ研究所 教授)
ポストペタスケールシステムにおける超大規模グラフ最適化基盤

平成22年度採択研究課題 (1年延長課題)
(1)建部 修見 (筑波大学 計算科学研究センター 教授)
ポストペタスケールデータインテンシブサイエンスのためのシステムソフトウェア
コメント

スタディ・グループ ワークショップ 2018

2018年07月22日 14時35分20秒 | Weblog
スタディ・グループ ワークショップ 2018
URL:sgw2018.imi.kyushu-u.ac.jp/

開催期間 2018年7月25日(水) - 7月27日(金)
2018年7月30日(土) - 7月31日(日)

開催場所

7月25日(水) - 7月27日(金)
819-0395 福岡市西区元岡744
九州大学 伊都キャンパス
ウエスト1号館 C棟 & D棟


7月30日(土) - 7月31日(日)
153-8914 東京都目黒区駒場3-8-1
(京王井の頭線駒場東大前駅下車)
東京大学大学院数理科学研究科


コメント

国内トップ性能となる産総研のABCIスパコン

2018年07月21日 07時18分58秒 | Weblog
第51回Top500 - 国内トップ性能となる産総研のABCIスパコン

国内1位、世界で5位となった産総研のAIスパコン
今回のTop500では、ORNLのSummitが1位となり、LLNLのSierraが3位となった。そして、中国は太湖之光が2位、アクセラレータをアップグレードした天河2Aが4位となった。これらに続く5位となったのが、産業総合技術研究所(産総研)の「AI Bridging Cloud Infrastructure(ABCI)」と呼ばれる日本のスパコンである。

ABCIは、倍精度浮動小数点演算のピーク性能は32.577PFlopsで、その61%にあたる19.88PFlopsのHPL性能をたたき出して5位となった。ABCIはその名前が示すようにAI研究に使うスパコンであり、V100 GPUのTensorコアを使えば16bit乗算、32bit加算の混合精度演算では0.55ExaFlopsのAI/ML性能を発揮する。

コメント

ABCI ホームページ:リニューアル

2018年07月20日 00時11分06秒 | Weblog
ABCI ホームページがリニューアルされました。。。

https://abci.ai/

コメント

教員公募:教授または准教授(統計・データ科学及び関連する分野) 7/31締め切り : 再掲載その3

2018年07月19日 21時40分54秒 | Weblog
平成30年5月1日

九州大学 マス・フォア・インダストリ研究所教員 (教授または准教授) 公募について

拝啓 時下ますますご清勝のこととお慶び申し上げます. さて,このたび九州大学 マス・フォア・インダストリ研究所では下記の公募を行うことになりました. ご多忙のところまことに恐縮に存じますが,貴関係者にお知らせいただくとともに,適任者をご存じの場合は応募をお勧めくださいますよう, お願い申し上げます.
敬具

1.公募対象: 九州大学 マス・フォア・インダストリ研究所 教授または准教授1名
2.専門分野: 統計・データ科学及び関連する分野(産業界との連携活動に意欲があること)
3.任期: 任期なし
4.採用予定日: 平成31年4月1日(平成30年度中の早期着任も可能)
5.提出書類:
(1) 履歴書(写真を貼付し, 署名捺印のこと. 電話番号・電子メール等の連絡先を明記)
(2) 研究業績リスト(論文, 著書, 講演リスト, さらに産業界との連携活動があれば記載)
(3) 研究業績の説明, 将来の研究計画, 教育および産業界との連携活動に対する抱負
(4) 論文別刷等(主なものだけで良い. プレプリントを含む. その他, 手に入りにくいもの,
予稿原稿など必要と思われる資料)
(5) ご本人について問い合わせることができる方3名の氏名と連絡先, およびそのうち少なくとも1名からの推薦状. (ただし, 推薦状に関しては応募書類とは別便で推薦者の方が下記提出先に応募期限までにお送りいただいても結構です. 電子メールやファックスでは受け付けません.)
6.応募期限: 平成30年7月31日(火)必着でお送り下さい.
コメント

Wikitter うぃきったー

2018年07月18日 01時05分49秒 | Weblog
結構、7経路や8経路が出てますね。。。

Wikitter うぃきったー

Wikipediaは任意のページから6回リンクを巡ると、
どんな記事ページにもいけるんだって!
みんなも一緒に実感してみよう!
コメント

DSEA 2018

2018年07月17日 00時40分18秒 | Weblog
The Second International Workshop on Data Science Engineering and its Applications (DSEA 2018)
Valencia, Spain. October 15-18, 2018

Website: http://emergingtechnet.org/DSEA2018/

***Call for Papers

We are pleased to invite you to submit original contributions to DSEA 2018 via the official submission system at https://easychair.org/conferences/?conf=dsea2018. This can include, technical and experimental, theoretical, conceptual, or a survey. All submissions will be peer-reviewed on the basis of relevance, originality, importance, and clarity. Today, Data is becoming an increasingly decisive resource in modern societies, economies, and governmental organizations. Data science inspires novel techniques and theories drawn from mathematics, statistics, information theory, computer science, and social science. It involves many domains, such as signal processing, probability models, machine learning, data mining, database, data engineering, pattern recognition, visualization, predictive analytic, data warehousing, data compression, computer programming, etc. High Performance Computing typically deals with smaller, highly structured data sets and huge amounts of computation. Data Science has emerged to tackle the problem of creating processes and approaches to extracting knowledge or insights from gigantic, unstructured data sets. The Second International Workshop for Data Science Engineering and Applications (DSEA 2018) aims to provide a forum that brings together researchers, industry practitioners and domain experts for discussion and exchange of ideas on the latest theoretical developments in Data Science and Computing as well as on the best practices for a wide range of applications. The topics of interest for this workshop include, but are not limited to:

*Architecture, management and process for Data Science
*Big Data Mining and Knowledge Management
*Evaluation and Measurement in Data Science
*Privacy and protection standards and policies for Data Science
*Data Quality
*Data science for the internet of things (IoT)
*Management Issues of Social Network Big Data
*Big Data Computing for Data science
*Social Network and Big Data Analytics
*Open Source tools for Data Science and Big Data
*Data Mining for Data science
*High performance computing for data analytic
*Mathematical Issues in Data Science and Applications
*Cloud Computing for Big Data and Social Networks
*Data Science and Big Data for the Internet of Things
*Data Science and Big Data Management for Large-scale databases
*Data Science and Big Data for Decision Making
*Visualization tools for Data Science and Big Data
*Data-driven Scientific Research
*Data warehouses and cloud computing support for Data Science
*Case studies

*** Important Dates:
Submission Deadline: Jul 15, 2018
Notification Due: Aug 25, 2018
Final Version Due: Sep 5, 2018
コメント