最適化問題に対する超高速&安定計算

クラスタ計算機やスーパーコンピュータ上での大規模最適化問題やグラフ探索などの研究のお話が中心

COI 棟サーバ室

2015年12月31日 19時38分39秒 | Weblog
今年の締めくくりとして、COI 棟サーバ室の現状の写真を掲載します。

















コメント
この記事をはてなブックマークに追加

Intel コンパイラ 16.0.1 と gcc 5.3.0 その2

2015年12月30日 01時51分02秒 | Weblog
新しいサーバ (Haswell)で Intel コンパイラ 16.0.1 と gcc 5.3.0 の性能を比較してみました。

◯問題1:karate.dat-s
gcc 5.3.0 + OpenBLAS 0.2.15 : 143.44s
icc 16.0.1 + Intel MKL 11.3.1 : 104.54s

◯問題2:DSJC500.9.dat-s
gcc 5.3.0 + OpenBLAS 0.2.15 : 46.26s
icc 16.0.1 + Intel MKL 11.3.1 : 33.57s

◯問題3:NH3+.2A2\".STO6G.pqgt1t2p.dat-s
gcc 5.3.0 + OpenBLAS 0.2.15 : 153.14s
icc 16.0.1 + Intel MKL 11.3.1 : 157.20s

◯計算サーバ1
SYS-6028R-WTR(CSE-825TQ-R740WB,X10DRW-i,740W Redundant Platinum)
E5-2650v3(2.3GHz 10C 25M9.60 GT/sec LGA2011-3) 105W x2
MEM-DR416L-SL01-ER21(16GB DDR4-2133 ECC REG) 256GB (16GB x16)
HUS724030ALA640 (3.0TB SATA 6Gb/s 7200 RPM, 64MB) 3.0TB x 5(4+1) < RAID10設定推奨 , 実行容量 6TB>
DVM-TEAC-DVDRW-SBT3 (SLIM DVD-RW SATA DRIVE)
MCP-220-81502-0N(Slim SATA DVD kit (include backplane, cable))
3ware 9750-4i Single Pack(6Gbps SAS RAID)
CBL-0343L-01(30awg ipass 4xSATA 76 66 54 45cm w/sb)
SMC社 Testing & Assembly Fee(CPU+HDD+Memory)
BIOS & Stress test fee
IA Linux install / node in house (CentOS6)
MA-93HUDY(USBオプティカルスクロールマウス/ダークグレー/1.67m)
BSKBU02ENBK(英語USB KB 黒 107キー)
コメント
この記事をはてなブックマークに追加

新サーバ登場

2015年12月29日 00時22分21秒 | Weblog




SYS-6028R-WTR(CSE-825TQ-R740WB,X10DRW-i,740W Redundant Platinum)
E5-2650v3(2.3GHz 10C 25M9.60 GT/sec LGA2011-3) 105W x2
MEM-DR416L-SL01-ER21(16GB DDR4-2133 ECC REG) 256GB (16GB x16)
HUS724030ALA640 (3.0TB SATA 6Gb/s 7200 RPM, 64MB) 3.0TB x 5(4+1) < RAID10設定推奨 , 実行容量 6TB>
DVM-TEAC-DVDRW-SBT3 (SLIM DVD-RW SATA DRIVE)
MCP-220-81502-0N(Slim SATA DVD kit (include backplane, cable))
3ware 9750-4i Single Pack(6Gbps SAS RAID)
CBL-0343L-01(30awg ipass 4xSATA 76 66 54 45cm w/sb)
SMC社 Testing & Assembly Fee(CPU+HDD+Memory)
BIOS & Stress test fee
IA Linux install / node in house (CentOS6)
MA-93HUDY(USBオプティカルスクロールマウス/ダークグレー/1.67m)
BSKBU02ENBK(英語USB KB 黒 107キー)
コメント
この記事をはてなブックマークに追加

The First International Workshop on High Performance Graph Processing

2015年12月28日 21時59分50秒 | Weblog
Call for Papers: The First International Workshop on High Performance Graph Processing (HPGP'16)
Co-located with 25th ACM International Symposium on High-Performance Parallel and Distributed Computing (HPDC), Kyoto, Japan

Workshop website: http://hpgp.bsc.es/

Call for Papers
---------------------

Applications which need to manage and process large scale graph data have become prominent in recent times. Semantic web, bioinformatics, cheminformatics, etc. are some examples for such application domains which deal with large graphs of millions and billions of vertices. Graphs due to their linked nature pose significant challenges for storage and processing. Graph processing have attracted significant attention from High Performance Computing (HPC) community due to this reason. Significant body of research have been conducted in recent times to address the void of large graph data analysis. New programming models such as Pregel, graph processing frameworks such as Giraph, Hama, and libraries such as GraphLab, PBGL, ScaleGraph have been developed to address the need of software for high performance large graph processing. Furthermore, large scale distributed memory compute clusters, single shared memory high performance computers, heterogeneous hardware such as GPGPUs, FPGAs have been tested for carrying out large graph data processing tasks. These efforts have been bolstered by graph related benchmarking initiatives such as Graph 500, Green Graph 500, etc. Despite these significant research efforts, there exist significant issues and technical gaps which need to be solved in the area of high performance graph data mining.

High Performance Graph Processing 2016 (HPGP’16) workshop aims to provide a unified platform for discussing the latest state-of-the-art efforts conducted to address such research issues related to high performance large graph processing. HPGP’16 will be held in conjunction with the ACM International Symposium on High-Performance Parallel and Distributed Computing (HPDC) 2016 as a half-day workshop. The workshop will take place in the beautiful, ancient city of Kyoto at Kyoto International Community House. We invite researchers from academia and industry working in graph data mining and management in high performance computing environments to submit their original (full/short) papers. Submissions will be peer reviewed in single-blinded manner and each submission will receive minimum two reviewer comments. The main topics of the workshop include, but not limited to:

* Novel large graph processing frameworks and programming paradigms
* Graph processing in many core processors such as GPGPUs/FPGAs, Xeon Phi, etc.
* Graph processing in Clouds
* HPC graph databases and query languages
* Novel graph partitioning algorithms
* Application experiences of large graph processing on HPC environments
* Benchmarks for large graph processing workloads
* Performance characterization of large graph mining tasks
* Scalable graph analysis algorithms and novel data structures


Submission Guidelines
---------------------

A submitted paper should be of one of the following type:

1. Regular Research Paper: The paper will report original research results with sound evaluation. It should be at most 8 pages.

2. Short Paper: The paper will present a survey or an on-going work. It will clearly state the problem to be addressed and an outline of the methodology that the authors plan to follow. It should be at most 4 pages.

All submissions must be prepared in the ACM Proceedings Style (http://www.acm.org/sigs/publications/proceedings-templates). The papers must be formatted as single-blinded. All accepted submissions will be published in the ACM digital library.

Important Dates
-----------------

Paper submission deadline: 6th Feb 2016
Decision notification: 12th March 2016
Camera-ready deadline: 27th March 2016
Workshop date: 31st May 2016
コメント
この記事をはてなブックマークに追加

Haswell と Ivy bridge

2015年12月27日 01時44分33秒 | Weblog
計算サーバ1は Haswell 2CPU 20 コア、計算サーバ2は Ivy Bridge 4CPU 60 コアであるが、浮動小数点演算に依存する問題1と問題2は計算サーバ1と2はほぼ同等となっている。

◯問題1:karate.dat-s
計算サーバ1:icc 16.0.1 + Intel MKL 11.3.1 : 104.45s
計算サーバ2:icc 16.0.1 + Intel MKL 11.3.1 : 107.15s

◯問題2:DSJC500.9.dat-s
計算サーバ1:icc 16.0.1 + Intel MKL 11.3.1 : 47.69s
計算サーバ2:icc 16.0.1 + Intel MKL 11.3.1 : 47.42s

◯問題3:NH3+.2A2\".STO6G.pqgt1t2p.dat-s
計算サーバ1:icc 16.0.1 + Intel MKL 11.3.1 : 149.49s
計算サーバ2:icc 16.0.1 + Intel MKL 11.3.1 : 63.48s

◯計算サーバ1
SYS-6028R-WTR(CSE-825TQ-R740WB,X10DRW-i,740W Redundant Platinum)
E5-2650v3(2.3GHz 10C 25M9.60 GT/sec LGA2011-3) 105W x2
MEM-DR416L-SL01-ER21(16GB DDR4-2133 ECC REG) 256GB (16GB x16)
HUS724030ALA640 (3.0TB SATA 6Gb/s 7200 RPM, 64MB) 3.0TB x 5(4+1) < RAID10設定推奨 , 実行容量 6TB>
DVM-TEAC-DVDRW-SBT3 (SLIM DVD-RW SATA DRIVE)
MCP-220-81502-0N(Slim SATA DVD kit (include backplane, cable))
3ware 9750-4i Single Pack(6Gbps SAS RAID)
CBL-0343L-01(30awg ipass 4xSATA 76 66 54 45cm w/sb)
SMC社 Testing & Assembly Fee(CPU+HDD+Memory)
BIOS & Stress test fee
IA Linux install / node in house (CentOS6)
MA-93HUDY(USBオプティカルスクロールマウス/ダークグレー/1.67m)
BSKBU02ENBK(英語USB KB 黒 107キー)


◯計算サーバ2
Huawei RH5885H V3
CPU :Intel Xeon E7-4890 v2 x 4 socket
Memory :2.0TB (32GB LRDIMM x 64 DIMMs)
HDD :2.5-inch 300GB SAS 15000rpm HDD x 2
SSD : ES3000 2.4TB x 2 + 2.5-inch 800GB SSD (Intel DC S3500) x 8
RAID :RAID-0/1/10/5/50/6/60 1GB Cache with Power Protection
NIC :On Board 1GE x 4 port interface card
I/O Box :6 Slot Riser Card x 2、Hot-Plugged Riser Card x 1
PSU :2000W Platinum AC Power Supply Unit x 2
Rail :4U Slide Rail with Cable Management Arm
OS : CentOS 7.1
コメント
この記事をはてなブックマークに追加

12月 IMI Colloquium 開催しました

2015年12月26日 03時06分41秒 | Weblog
私は参加しませんでした。。。

平成27年12月16日, 12月 IMI Colloquiumを開催しました.

12月 IMI Colloquium
講演タイトル:グローバルな研究者を目指して ~フラット化した世界~
講師:小田 信二 氏 (横河電機マーケティング本部 知財・標準化センター)
場所:九州大学 マス・フォア・インダストリ研究所 ウエスト1号館 4階
IMIオーディトリアム(W1-D-413)(円形階段教室)

講演では,講演者の海外駐在の経験に基づき,海外で働くということについて,また,異文化と交流することについて話していただきました。また,若い時期,特に学生の頃に海外に出ることの重要性について語っていただきました。

参加者数:約30名
コメント
この記事をはてなブックマークに追加

ウエスト1号館2階 展示スペース : 賞状更新

2015年12月25日 02時43分14秒 | Weblog
ウエスト1号館2階 展示スペース : 賞状を SC15 に更新しました。





コメント
この記事をはてなブックマークに追加

中心性と並列計算

2015年12月24日 00時13分21秒 | Weblog

福岡市道路データ (OpenStreetMap) に対する中心性計算。コア数を考慮しても HP ProLiant m710 が圧倒的に速い。

HP ProLiant m710 (180コア) : 2m27.679s
OPT クラスタ (96コア) : 16m51.916s
Huawei RH5885H V3 (60 コア) : 24m1.487s



◯ HP ProLiant m710 サーバーカートリッジ (45カートリッジ)
プロセッサー Intel® Xeon® E3-1284L v3(1.8-3.2GHz/8コア/6MB/47W)
キャッシュメモリ 6MB共有Level 3
メモリ タイプ HP 32GB(4x8GB)PC3L-12800(DDR3-1600)SODIMM低電圧メモリ
ネットワークコントローラー Mellanox Connect-X3 Pro デュアル10GbE NIC。RDMA over Converged Ethernet(RoCE)をサポート
最大内蔵ストレージ (Moonshotサーバーあたり) M.2 2280ソリッドステートデバイス 480GB
OS : CentOS 7.2

◯ OPT クラスタ(96コア)
1:PowerEdge M1000e(ブレードエンクロージャー) x 1台
2:PowerEdge M710HD(ブレードサーバ) x 8台
ブレードサーバの仕様:
CPU : インテル(R) Xeon(R) プロセッサー X5670(2.93GHz、12MB キャッシュ、6.4 GT/s QPI) x 2個
メモリ: 128GB (16X8GB/2R/1333MHz/DDR3 RDIMM/CPUx2)
Disk : 73GB x 2(1台のみ 300GB x 2)
NIC : GbE x 1 & Inifiniband QDR(40Gbps) x 1
OS : CentOS 5.9 for x86_64

◯計算サーバ Huawei RH5885H V3
CPU :Intel Xeon E7-4890 v2 x 4 socket
Memory :2.0TB (32GB LRDIMM x 64 DIMMs)
HDD :2.5-inch 300GB SAS 15000rpm HDD x 2
SSD : ES3000 2.4TB x 2 + 2.5-inch 800GB SSD (Intel DC S3500) x 8
RAID :RAID-0/1/10/5/50/6/60 1GB Cache with Power Protection
NIC :On Board 1GE x 4 port interface card
I/O Box :6 Slot Riser Card x 2、Hot-Plugged Riser Card x 1
PSU :2000W Platinum AC Power Supply Unit x 2
Rail :4U Slide Rail with Cable Management Arm
OS : CentOS 7.1
コメント
この記事をはてなブックマークに追加

福岡市ウォーターフロント地区(中央ふ頭・博多ふ頭)計画提案公募の提案概要

2015年12月23日 11時02分53秒 | Weblog
ウォーターフロント地区(中央ふ頭・博多ふ頭)計画提案公募の提案概要を公表します:福岡市 HP

 ウォーターフロント地区(中央ふ頭・博多ふ頭)の再整備にあたり,早期の段階から民間事業者の方々のアイディアやノウハウを積極的に取り入れるため,地区の将来像や土地利用計画等について提案を求める「計画提案公募」を,平成27年3月より実施しており,応募があった19件のうち,応募者から承諾が得られた17件について提案概要書を公表します。
コメント
この記事をはてなブックマークに追加

統計数理研究所 平成28(2016)年度 共同利用公募案内

2015年12月22日 00時03分29秒 | Weblog
統計数理研究所 平成28(2016)年度 共同利用公募案内

平成 27 年 12 月上 旬 公募受付開始予定
平成 28 年 1月 12 日(火 ) 電子申請システムからの登録締切
1月 18 日(月 ) 承諾書の受付締切( 必着 )
2月上旬~ 3月中 旬 審査
3月下旬 採否決定通知送付
7月中旬~ 8月中旬 所要経費決定通知送付

電子申請の締め切りが来年 1/13(水)となっています。
コメント
この記事をはてなブックマークに追加

Moonshot m710 と CentOS 7.2 その2

2015年12月21日 01時06分11秒 | Weblog
Moonshot m710 の 全カートリッジを OS を 7.0 から 7.2 まで上げてみました。

1: MLNX_OFED_LINUX-2.4-1.0.0-rhel7.0-x86_64 をアンインストール
2: CentOS 7.0 から 7.2 にアップグレード
3: MLNX_OFED_LINUX-3.1-1.0.3-rhel7.2-x86_64をインストール

他にもいろいろな設定が要ります。

とりあえず SDPARA と NETAL (MPI版)が動作しています。
よって、作業は一応完了です。

> mpirun -np 45 -machinefile ~/.openmpi/hostfiles numactl -i all ./sdpara ~/data/nug12_r2.dat-s out
SDPA start at [Sun Dec 20 21:22:06 2015]
param is ./param.sdpa
data is /home/fujisawa/data/nug12_r2.dat-s : sparse
out is out
NumNodes is set as 45
NumThreads is set as 4
Schur computation : DENSE
mu thetaP thetaD objP objD alphaP alphaD beta
0 1.0e+04 1.0e+00 1.0e+00 -0.00e+00 -0.00e+00 2.6e-02 4.9e-02 2.00e-01

中略

38 8.1e-09 2.7e-10 2.4e-10 +7.84e-01 +7.84e-01 4.7e-01 4.3e-01 1.00e-01

phase.value = pdOPT
Iteration = 38
mu = +8.1012286429189751e-09
relative gap = +3.9968028886505635e-15
gap = +3.9968028886505635e-15
digits = +1.4292825161131775e+01
objValPrimal = +7.8440055396794905e-01
objValDual = +7.8440055396794506e-01
p.feas.error = +2.7034337256807278e-08
d.feas.error = +2.4446861479621163e-08
total time = 29.203849
main loop time = 29.089836
total time = 29.203849
file check time = 0.000000
file change time = 0.000191
file read time = 0.113822
SDPA end at [Sun Dec 20 21:22:36 2015]
ALL TIME = 29.693134


> time mpirun -np 180 -machinefile ~/.openmpi/hostfiles numactl -i all ./netal_mpi ~/NETAL_MPI_2015/instances/fukuoka_japan.osm-roads.gr out.fukuoka.new.151220
graph-file: /home/fujisawa/NETAL_MPI_2015/instances/fukuoka_japan.osm-roads.gr
output-file: out.fukuoka.new.151220
number_of_nodes is 314571
number_of_edges is 694906
314571 random number
elapsed 0.25 seconds
nblocks is 1807, blocksize is 174

中略

dump BC into 'out.fukuoka.new.151220'

real 2m31.078s
user 9m57.660s
sys 0m0.979s
コメント
この記事をはてなブックマークに追加

NVIDIA DATA CENTER GPU MANAGER

2015年12月20日 01時45分52秒 | Weblog
NVIDIA DATA CENTER GPU MANAGER
Simple, Powerful GPU Management in the Accelerated Data Center

NVIDIA Data Center GPU Manager (DCGM) is a complete suite of enterprise-grade tools for managing the accelerated data center. IT managers now have the power to implement system policies, monitor GPU health, diagnose system events, and maximize data center throughput.

Managing and monitoring the accelerated data center has never been easier.
コメント
この記事をはてなブックマークに追加

Moonshot m710 と CentOS 7.2

2015年12月19日 10時12分51秒 | Weblog
Moonshot m710 の 1カートリッジだけ OS を 7.0 から 7.2 まで上げてみました。

RHEL 7.2ベースの「CentOS Linux 7(1511)」リリース、Kerberos認証を強化

それに続いて MLNX_OFED も CentOS 7.2 対応まで上げています。
Mellanox OpenFabrics Enterprise Distribution for Linux (MLNX_OFED)

MLNX_OFED_LINUX-3.1-1.0.3-rhel7.2-x86_64.tgz

一応動作はしていますが、少し変なところがあるので検証中です。
コメント
この記事をはてなブックマークに追加

SC15 での九州大学ブースでの展示内容

2015年12月18日 11時59分29秒 | Weblog
すでに終了しておりますが、 SC15 での九州大学ブースでの展示内容になります。

sc15
Conference: November 15-20, 2015
Exhibition: November 16-19, 2015
Austin Convention Center - Austin, TX

Advanced Computing & Optimization Infrastructure for Extremely Large-Scale Graphs on Post Peta-Scale Supercomputers
Katsuki FUJISAWA, Yuichiro YASUI, Hitoshi SATO, Toshio ENDO, Ken Wakita, Koji UENO, Keita IWABUCHI, Toyotaro SUZUMURA

Peta-scale and Highly-ScalableSolver for SemidefiniteProgramming Problems
Katsuki FUJISAWA, Toshio ENDO, Yuki Tsujita

A Congestion Avoidance Technique Using Packet Pacing toward Exascale Interconnect
Hidetomo Shibamura

Configuration of Virtual 1D Musical Instruments
Hiroto SEKI, Toshiya TAKAMI

Performance Measurement of Parallel-in-Time Method by Spatial Coarse Graining
Akira NARIBAYASHI,Toshiya TAKAMI

Ruby Prototyping Environment for Molecular Orbital Calculation
OpenFMO project

A neighbor communication algorithm with effective using bandwidth of multiple NICs on mesh/torus
Yoshiyuki Morie, Takeshi Nanri

NSIM-ACE: An Interconnection Network Simulator for RDMA
Ryutaro Susukita
コメント
この記事をはてなブックマークに追加

1月 IMI Colloquium

2015年12月17日 00時52分59秒 | Weblog
1月 IMI Colloquium

日時:2016年1月20日(水)
16:45-17:45

場所:九州大学 マス・フォア・インダストリ研究所 ウエスト1号館 4階
IMIオーディトリアム(W1-D-413)(円形階段教室)

講師:宮崎 知明 氏 (MSI株式会社 技術顧問)

講演タイトル:数理計画法システム進化の歴史とLocalSolver最新動向

講演要旨:
1960 年代に、数理計画法システムが商用化され、現在に至っている.私は 1974 年に富士通株式会社に入社し、数理計画法システムを中心としたOR分野の研究開発、顧客支援に携わってきた。1980年当時、LP計算は大型計算機センターで利用されるのが普通であったが、メインフレームが自社に導入されるようになり、LP計算がベンチマークの主役になったケースもある。その当時のLP計算では、ホストコンピュータのCPU使用率が 90 %以上に達することもあった。 1000 式のLPモデルの実行に数時間かかることもあり、今とは隔世の感がある。当日の発表では、数理計画法システムの進化の歴史を振り返るとともに、次世代の数理計画法システム:LocalSolverの概要を紹介する。
コメント
この記事をはてなブックマークに追加