新しいサーバ (Haswell)で Intel コンパイラ 16.0.1 と gcc 5.3.0 の性能を比較してみました。
◯問題1:karate.dat-s
gcc 5.3.0 + OpenBLAS 0.2.15 : 143.44s
icc 16.0.1 + Intel MKL 11.3.1 : 104.54s
◯問題2:DSJC500.9.dat-s
gcc 5.3.0 + OpenBLAS 0.2.15 : 46.26s
icc 16.0.1 + Intel MKL 11.3.1 : 33.57s
◯問題3:NH3+.2A2\".STO6G.pqgt1t2p.dat-s
gcc 5.3.0 + OpenBLAS 0.2.15 : 153.14s
icc 16.0.1 + Intel MKL 11.3.1 : 157.20s
◯計算サーバ1
SYS-6028R-WTR(CSE-825TQ-R740WB,X10DRW-i,740W Redundant Platinum)
E5-2650v3(2.3GHz 10C 25M9.60 GT/sec LGA2011-3) 105W x2
MEM-DR416L-SL01-ER21(16GB DDR4-2133 ECC REG) 256GB (16GB x16)
HUS724030ALA640 (3.0TB SATA 6Gb/s 7200 RPM, 64MB) 3.0TB x 5(4+1) < RAID10設定推奨 , 実行容量 6TB>
DVM-TEAC-DVDRW-SBT3 (SLIM DVD-RW SATA DRIVE)
MCP-220-81502-0N(Slim SATA DVD kit (include backplane, cable))
3ware 9750-4i Single Pack(6Gbps SAS RAID)
CBL-0343L-01(30awg ipass 4xSATA 76 66 54 45cm w/sb)
SMC社 Testing & Assembly Fee(CPU+HDD+Memory)
BIOS & Stress test fee
IA Linux install / node in house (CentOS6)
MA-93HUDY(USBオプティカルスクロールマウス/ダークグレー/1.67m)
BSKBU02ENBK(英語USB KB 黒 107キー)
◯問題1:karate.dat-s
gcc 5.3.0 + OpenBLAS 0.2.15 : 143.44s
icc 16.0.1 + Intel MKL 11.3.1 : 104.54s
◯問題2:DSJC500.9.dat-s
gcc 5.3.0 + OpenBLAS 0.2.15 : 46.26s
icc 16.0.1 + Intel MKL 11.3.1 : 33.57s
◯問題3:NH3+.2A2\".STO6G.pqgt1t2p.dat-s
gcc 5.3.0 + OpenBLAS 0.2.15 : 153.14s
icc 16.0.1 + Intel MKL 11.3.1 : 157.20s
◯計算サーバ1
SYS-6028R-WTR(CSE-825TQ-R740WB,X10DRW-i,740W Redundant Platinum)
E5-2650v3(2.3GHz 10C 25M9.60 GT/sec LGA2011-3) 105W x2
MEM-DR416L-SL01-ER21(16GB DDR4-2133 ECC REG) 256GB (16GB x16)
HUS724030ALA640 (3.0TB SATA 6Gb/s 7200 RPM, 64MB) 3.0TB x 5(4+1) < RAID10設定推奨 , 実行容量 6TB>
DVM-TEAC-DVDRW-SBT3 (SLIM DVD-RW SATA DRIVE)
MCP-220-81502-0N(Slim SATA DVD kit (include backplane, cable))
3ware 9750-4i Single Pack(6Gbps SAS RAID)
CBL-0343L-01(30awg ipass 4xSATA 76 66 54 45cm w/sb)
SMC社 Testing & Assembly Fee(CPU+HDD+Memory)
BIOS & Stress test fee
IA Linux install / node in house (CentOS6)
MA-93HUDY(USBオプティカルスクロールマウス/ダークグレー/1.67m)
BSKBU02ENBK(英語USB KB 黒 107キー)
SYS-6028R-WTR(CSE-825TQ-R740WB,X10DRW-i,740W Redundant Platinum)
E5-2650v3(2.3GHz 10C 25M9.60 GT/sec LGA2011-3) 105W x2
MEM-DR416L-SL01-ER21(16GB DDR4-2133 ECC REG) 256GB (16GB x16)
HUS724030ALA640 (3.0TB SATA 6Gb/s 7200 RPM, 64MB) 3.0TB x 5(4+1) < RAID10設定推奨 , 実行容量 6TB>
DVM-TEAC-DVDRW-SBT3 (SLIM DVD-RW SATA DRIVE)
MCP-220-81502-0N(Slim SATA DVD kit (include backplane, cable))
3ware 9750-4i Single Pack(6Gbps SAS RAID)
CBL-0343L-01(30awg ipass 4xSATA 76 66 54 45cm w/sb)
SMC社 Testing & Assembly Fee(CPU+HDD+Memory)
BIOS & Stress test fee
IA Linux install / node in house (CentOS6)
MA-93HUDY(USBオプティカルスクロールマウス/ダークグレー/1.67m)
BSKBU02ENBK(英語USB KB 黒 107キー)
Call for Papers: The First International Workshop on High Performance Graph Processing (HPGP'16)
Co-located with 25th ACM International Symposium on High-Performance Parallel and Distributed Computing (HPDC), Kyoto, Japan
Workshop website: http://hpgp.bsc.es/
Call for Papers
---------------------
Applications which need to manage and process large scale graph data have become prominent in recent times. Semantic web, bioinformatics, cheminformatics, etc. are some examples for such application domains which deal with large graphs of millions and billions of vertices. Graphs due to their linked nature pose significant challenges for storage and processing. Graph processing have attracted significant attention from High Performance Computing (HPC) community due to this reason. Significant body of research have been conducted in recent times to address the void of large graph data analysis. New programming models such as Pregel, graph processing frameworks such as Giraph, Hama, and libraries such as GraphLab, PBGL, ScaleGraph have been developed to address the need of software for high performance large graph processing. Furthermore, large scale distributed memory compute clusters, single shared memory high performance computers, heterogeneous hardware such as GPGPUs, FPGAs have been tested for carrying out large graph data processing tasks. These efforts have been bolstered by graph related benchmarking initiatives such as Graph 500, Green Graph 500, etc. Despite these significant research efforts, there exist significant issues and technical gaps which need to be solved in the area of high performance graph data mining.
High Performance Graph Processing 2016 (HPGP’16) workshop aims to provide a unified platform for discussing the latest state-of-the-art efforts conducted to address such research issues related to high performance large graph processing. HPGP’16 will be held in conjunction with the ACM International Symposium on High-Performance Parallel and Distributed Computing (HPDC) 2016 as a half-day workshop. The workshop will take place in the beautiful, ancient city of Kyoto at Kyoto International Community House. We invite researchers from academia and industry working in graph data mining and management in high performance computing environments to submit their original (full/short) papers. Submissions will be peer reviewed in single-blinded manner and each submission will receive minimum two reviewer comments. The main topics of the workshop include, but not limited to:
* Novel large graph processing frameworks and programming paradigms
* Graph processing in many core processors such as GPGPUs/FPGAs, Xeon Phi, etc.
* Graph processing in Clouds
* HPC graph databases and query languages
* Novel graph partitioning algorithms
* Application experiences of large graph processing on HPC environments
* Benchmarks for large graph processing workloads
* Performance characterization of large graph mining tasks
* Scalable graph analysis algorithms and novel data structures
Submission Guidelines
---------------------
A submitted paper should be of one of the following type:
1. Regular Research Paper: The paper will report original research results with sound evaluation. It should be at most 8 pages.
2. Short Paper: The paper will present a survey or an on-going work. It will clearly state the problem to be addressed and an outline of the methodology that the authors plan to follow. It should be at most 4 pages.
All submissions must be prepared in the ACM Proceedings Style (http://www.acm.org/sigs/publications/proceedings-templates). The papers must be formatted as single-blinded. All accepted submissions will be published in the ACM digital library.
Important Dates
-----------------
Paper submission deadline: 6th Feb 2016
Decision notification: 12th March 2016
Camera-ready deadline: 27th March 2016
Workshop date: 31st May 2016
Co-located with 25th ACM International Symposium on High-Performance Parallel and Distributed Computing (HPDC), Kyoto, Japan
Workshop website: http://hpgp.bsc.es/
Call for Papers
---------------------
Applications which need to manage and process large scale graph data have become prominent in recent times. Semantic web, bioinformatics, cheminformatics, etc. are some examples for such application domains which deal with large graphs of millions and billions of vertices. Graphs due to their linked nature pose significant challenges for storage and processing. Graph processing have attracted significant attention from High Performance Computing (HPC) community due to this reason. Significant body of research have been conducted in recent times to address the void of large graph data analysis. New programming models such as Pregel, graph processing frameworks such as Giraph, Hama, and libraries such as GraphLab, PBGL, ScaleGraph have been developed to address the need of software for high performance large graph processing. Furthermore, large scale distributed memory compute clusters, single shared memory high performance computers, heterogeneous hardware such as GPGPUs, FPGAs have been tested for carrying out large graph data processing tasks. These efforts have been bolstered by graph related benchmarking initiatives such as Graph 500, Green Graph 500, etc. Despite these significant research efforts, there exist significant issues and technical gaps which need to be solved in the area of high performance graph data mining.
High Performance Graph Processing 2016 (HPGP’16) workshop aims to provide a unified platform for discussing the latest state-of-the-art efforts conducted to address such research issues related to high performance large graph processing. HPGP’16 will be held in conjunction with the ACM International Symposium on High-Performance Parallel and Distributed Computing (HPDC) 2016 as a half-day workshop. The workshop will take place in the beautiful, ancient city of Kyoto at Kyoto International Community House. We invite researchers from academia and industry working in graph data mining and management in high performance computing environments to submit their original (full/short) papers. Submissions will be peer reviewed in single-blinded manner and each submission will receive minimum two reviewer comments. The main topics of the workshop include, but not limited to:
* Novel large graph processing frameworks and programming paradigms
* Graph processing in many core processors such as GPGPUs/FPGAs, Xeon Phi, etc.
* Graph processing in Clouds
* HPC graph databases and query languages
* Novel graph partitioning algorithms
* Application experiences of large graph processing on HPC environments
* Benchmarks for large graph processing workloads
* Performance characterization of large graph mining tasks
* Scalable graph analysis algorithms and novel data structures
Submission Guidelines
---------------------
A submitted paper should be of one of the following type:
1. Regular Research Paper: The paper will report original research results with sound evaluation. It should be at most 8 pages.
2. Short Paper: The paper will present a survey or an on-going work. It will clearly state the problem to be addressed and an outline of the methodology that the authors plan to follow. It should be at most 4 pages.
All submissions must be prepared in the ACM Proceedings Style (http://www.acm.org/sigs/publications/proceedings-templates). The papers must be formatted as single-blinded. All accepted submissions will be published in the ACM digital library.
Important Dates
-----------------
Paper submission deadline: 6th Feb 2016
Decision notification: 12th March 2016
Camera-ready deadline: 27th March 2016
Workshop date: 31st May 2016
計算サーバ1は Haswell 2CPU 20 コア、計算サーバ2は Ivy Bridge 4CPU 60 コアであるが、浮動小数点演算に依存する問題1と問題2は計算サーバ1と2はほぼ同等となっている。
◯問題1:karate.dat-s
計算サーバ1:icc 16.0.1 + Intel MKL 11.3.1 : 104.45s
計算サーバ2:icc 16.0.1 + Intel MKL 11.3.1 : 107.15s
◯問題2:DSJC500.9.dat-s
計算サーバ1:icc 16.0.1 + Intel MKL 11.3.1 : 47.69s
計算サーバ2:icc 16.0.1 + Intel MKL 11.3.1 : 47.42s
◯問題3:NH3+.2A2\".STO6G.pqgt1t2p.dat-s
計算サーバ1:icc 16.0.1 + Intel MKL 11.3.1 : 149.49s
計算サーバ2:icc 16.0.1 + Intel MKL 11.3.1 : 63.48s
◯計算サーバ1
SYS-6028R-WTR(CSE-825TQ-R740WB,X10DRW-i,740W Redundant Platinum)
E5-2650v3(2.3GHz 10C 25M9.60 GT/sec LGA2011-3) 105W x2
MEM-DR416L-SL01-ER21(16GB DDR4-2133 ECC REG) 256GB (16GB x16)
HUS724030ALA640 (3.0TB SATA 6Gb/s 7200 RPM, 64MB) 3.0TB x 5(4+1) < RAID10設定推奨 , 実行容量 6TB>
DVM-TEAC-DVDRW-SBT3 (SLIM DVD-RW SATA DRIVE)
MCP-220-81502-0N(Slim SATA DVD kit (include backplane, cable))
3ware 9750-4i Single Pack(6Gbps SAS RAID)
CBL-0343L-01(30awg ipass 4xSATA 76 66 54 45cm w/sb)
SMC社 Testing & Assembly Fee(CPU+HDD+Memory)
BIOS & Stress test fee
IA Linux install / node in house (CentOS6)
MA-93HUDY(USBオプティカルスクロールマウス/ダークグレー/1.67m)
BSKBU02ENBK(英語USB KB 黒 107キー)
◯計算サーバ2
Huawei RH5885H V3
CPU :Intel Xeon E7-4890 v2 x 4 socket
Memory :2.0TB (32GB LRDIMM x 64 DIMMs)
HDD :2.5-inch 300GB SAS 15000rpm HDD x 2
SSD : ES3000 2.4TB x 2 + 2.5-inch 800GB SSD (Intel DC S3500) x 8
RAID :RAID-0/1/10/5/50/6/60 1GB Cache with Power Protection
NIC :On Board 1GE x 4 port interface card
I/O Box :6 Slot Riser Card x 2、Hot-Plugged Riser Card x 1
PSU :2000W Platinum AC Power Supply Unit x 2
Rail :4U Slide Rail with Cable Management Arm
OS : CentOS 7.1
◯問題1:karate.dat-s
計算サーバ1:icc 16.0.1 + Intel MKL 11.3.1 : 104.45s
計算サーバ2:icc 16.0.1 + Intel MKL 11.3.1 : 107.15s
◯問題2:DSJC500.9.dat-s
計算サーバ1:icc 16.0.1 + Intel MKL 11.3.1 : 47.69s
計算サーバ2:icc 16.0.1 + Intel MKL 11.3.1 : 47.42s
◯問題3:NH3+.2A2\".STO6G.pqgt1t2p.dat-s
計算サーバ1:icc 16.0.1 + Intel MKL 11.3.1 : 149.49s
計算サーバ2:icc 16.0.1 + Intel MKL 11.3.1 : 63.48s
◯計算サーバ1
SYS-6028R-WTR(CSE-825TQ-R740WB,X10DRW-i,740W Redundant Platinum)
E5-2650v3(2.3GHz 10C 25M9.60 GT/sec LGA2011-3) 105W x2
MEM-DR416L-SL01-ER21(16GB DDR4-2133 ECC REG) 256GB (16GB x16)
HUS724030ALA640 (3.0TB SATA 6Gb/s 7200 RPM, 64MB) 3.0TB x 5(4+1) < RAID10設定推奨 , 実行容量 6TB>
DVM-TEAC-DVDRW-SBT3 (SLIM DVD-RW SATA DRIVE)
MCP-220-81502-0N(Slim SATA DVD kit (include backplane, cable))
3ware 9750-4i Single Pack(6Gbps SAS RAID)
CBL-0343L-01(30awg ipass 4xSATA 76 66 54 45cm w/sb)
SMC社 Testing & Assembly Fee(CPU+HDD+Memory)
BIOS & Stress test fee
IA Linux install / node in house (CentOS6)
MA-93HUDY(USBオプティカルスクロールマウス/ダークグレー/1.67m)
BSKBU02ENBK(英語USB KB 黒 107キー)
◯計算サーバ2
Huawei RH5885H V3
CPU :Intel Xeon E7-4890 v2 x 4 socket
Memory :2.0TB (32GB LRDIMM x 64 DIMMs)
HDD :2.5-inch 300GB SAS 15000rpm HDD x 2
SSD : ES3000 2.4TB x 2 + 2.5-inch 800GB SSD (Intel DC S3500) x 8
RAID :RAID-0/1/10/5/50/6/60 1GB Cache with Power Protection
NIC :On Board 1GE x 4 port interface card
I/O Box :6 Slot Riser Card x 2、Hot-Plugged Riser Card x 1
PSU :2000W Platinum AC Power Supply Unit x 2
Rail :4U Slide Rail with Cable Management Arm
OS : CentOS 7.1
私は参加しませんでした。。。
平成27年12月16日, 12月 IMI Colloquiumを開催しました.
12月 IMI Colloquium
講演タイトル:グローバルな研究者を目指して ~フラット化した世界~
講師:小田 信二 氏 (横河電機マーケティング本部 知財・標準化センター)
場所:九州大学 マス・フォア・インダストリ研究所 ウエスト1号館 4階
IMIオーディトリアム(W1-D-413)(円形階段教室)
講演では,講演者の海外駐在の経験に基づき,海外で働くということについて,また,異文化と交流することについて話していただきました。また,若い時期,特に学生の頃に海外に出ることの重要性について語っていただきました。
参加者数:約30名
平成27年12月16日, 12月 IMI Colloquiumを開催しました.
12月 IMI Colloquium
講演タイトル:グローバルな研究者を目指して ~フラット化した世界~
講師:小田 信二 氏 (横河電機マーケティング本部 知財・標準化センター)
場所:九州大学 マス・フォア・インダストリ研究所 ウエスト1号館 4階
IMIオーディトリアム(W1-D-413)(円形階段教室)
講演では,講演者の海外駐在の経験に基づき,海外で働くということについて,また,異文化と交流することについて話していただきました。また,若い時期,特に学生の頃に海外に出ることの重要性について語っていただきました。
参加者数:約30名
福岡市道路データ (OpenStreetMap) に対する中心性計算。コア数を考慮しても HP ProLiant m710 が圧倒的に速い。
HP ProLiant m710 (180コア) : 2m27.679s
OPT クラスタ (96コア) : 16m51.916s
Huawei RH5885H V3 (60 コア) : 24m1.487s
◯ HP ProLiant m710 サーバーカートリッジ (45カートリッジ)
プロセッサー Intel® Xeon® E3-1284L v3(1.8-3.2GHz/8コア/6MB/47W)
キャッシュメモリ 6MB共有Level 3
メモリ タイプ HP 32GB(4x8GB)PC3L-12800(DDR3-1600)SODIMM低電圧メモリ
ネットワークコントローラー Mellanox Connect-X3 Pro デュアル10GbE NIC。RDMA over Converged Ethernet(RoCE)をサポート
最大内蔵ストレージ (Moonshotサーバーあたり) M.2 2280ソリッドステートデバイス 480GB
OS : CentOS 7.2
◯ OPT クラスタ(96コア)
1:PowerEdge M1000e(ブレードエンクロージャー) x 1台
2:PowerEdge M710HD(ブレードサーバ) x 8台
ブレードサーバの仕様:
CPU : インテル(R) Xeon(R) プロセッサー X5670(2.93GHz、12MB キャッシュ、6.4 GT/s QPI) x 2個
メモリ: 128GB (16X8GB/2R/1333MHz/DDR3 RDIMM/CPUx2)
Disk : 73GB x 2(1台のみ 300GB x 2)
NIC : GbE x 1 & Inifiniband QDR(40Gbps) x 1
OS : CentOS 5.9 for x86_64
◯計算サーバ Huawei RH5885H V3
CPU :Intel Xeon E7-4890 v2 x 4 socket
Memory :2.0TB (32GB LRDIMM x 64 DIMMs)
HDD :2.5-inch 300GB SAS 15000rpm HDD x 2
SSD : ES3000 2.4TB x 2 + 2.5-inch 800GB SSD (Intel DC S3500) x 8
RAID :RAID-0/1/10/5/50/6/60 1GB Cache with Power Protection
NIC :On Board 1GE x 4 port interface card
I/O Box :6 Slot Riser Card x 2、Hot-Plugged Riser Card x 1
PSU :2000W Platinum AC Power Supply Unit x 2
Rail :4U Slide Rail with Cable Management Arm
OS : CentOS 7.1
ウォーターフロント地区(中央ふ頭・博多ふ頭)計画提案公募の提案概要を公表します:福岡市 HP
ウォーターフロント地区(中央ふ頭・博多ふ頭)の再整備にあたり,早期の段階から民間事業者の方々のアイディアやノウハウを積極的に取り入れるため,地区の将来像や土地利用計画等について提案を求める「計画提案公募」を,平成27年3月より実施しており,応募があった19件のうち,応募者から承諾が得られた17件について提案概要書を公表します。
ウォーターフロント地区(中央ふ頭・博多ふ頭)の再整備にあたり,早期の段階から民間事業者の方々のアイディアやノウハウを積極的に取り入れるため,地区の将来像や土地利用計画等について提案を求める「計画提案公募」を,平成27年3月より実施しており,応募があった19件のうち,応募者から承諾が得られた17件について提案概要書を公表します。
統計数理研究所 平成28(2016)年度 共同利用公募案内
平成 27 年 12 月上 旬 公募受付開始予定
平成 28 年 1月 12 日(火 ) 電子申請システムからの登録締切
1月 18 日(月 ) 承諾書の受付締切( 必着 )
2月上旬~ 3月中 旬 審査
3月下旬 採否決定通知送付
7月中旬~ 8月中旬 所要経費決定通知送付
電子申請の締め切りが来年 1/13(水)となっています。
平成 27 年 12 月上 旬 公募受付開始予定
平成 28 年 1月 12 日(火 ) 電子申請システムからの登録締切
1月 18 日(月 ) 承諾書の受付締切( 必着 )
2月上旬~ 3月中 旬 審査
3月下旬 採否決定通知送付
7月中旬~ 8月中旬 所要経費決定通知送付
電子申請の締め切りが来年 1/13(水)となっています。
Moonshot m710 の 全カートリッジを OS を 7.0 から 7.2 まで上げてみました。
1: MLNX_OFED_LINUX-2.4-1.0.0-rhel7.0-x86_64 をアンインストール
2: CentOS 7.0 から 7.2 にアップグレード
3: MLNX_OFED_LINUX-3.1-1.0.3-rhel7.2-x86_64をインストール
他にもいろいろな設定が要ります。
とりあえず SDPARA と NETAL (MPI版)が動作しています。
よって、作業は一応完了です。
> mpirun -np 45 -machinefile ~/.openmpi/hostfiles numactl -i all ./sdpara ~/data/nug12_r2.dat-s out
SDPA start at [Sun Dec 20 21:22:06 2015]
param is ./param.sdpa
data is /home/fujisawa/data/nug12_r2.dat-s : sparse
out is out
NumNodes is set as 45
NumThreads is set as 4
Schur computation : DENSE
mu thetaP thetaD objP objD alphaP alphaD beta
0 1.0e+04 1.0e+00 1.0e+00 -0.00e+00 -0.00e+00 2.6e-02 4.9e-02 2.00e-01
中略
38 8.1e-09 2.7e-10 2.4e-10 +7.84e-01 +7.84e-01 4.7e-01 4.3e-01 1.00e-01
phase.value = pdOPT
Iteration = 38
mu = +8.1012286429189751e-09
relative gap = +3.9968028886505635e-15
gap = +3.9968028886505635e-15
digits = +1.4292825161131775e+01
objValPrimal = +7.8440055396794905e-01
objValDual = +7.8440055396794506e-01
p.feas.error = +2.7034337256807278e-08
d.feas.error = +2.4446861479621163e-08
total time = 29.203849
main loop time = 29.089836
total time = 29.203849
file check time = 0.000000
file change time = 0.000191
file read time = 0.113822
SDPA end at [Sun Dec 20 21:22:36 2015]
ALL TIME = 29.693134
> time mpirun -np 180 -machinefile ~/.openmpi/hostfiles numactl -i all ./netal_mpi ~/NETAL_MPI_2015/instances/fukuoka_japan.osm-roads.gr out.fukuoka.new.151220
graph-file: /home/fujisawa/NETAL_MPI_2015/instances/fukuoka_japan.osm-roads.gr
output-file: out.fukuoka.new.151220
number_of_nodes is 314571
number_of_edges is 694906
314571 random number
elapsed 0.25 seconds
nblocks is 1807, blocksize is 174
中略
dump BC into 'out.fukuoka.new.151220'
real 2m31.078s
user 9m57.660s
sys 0m0.979s
1: MLNX_OFED_LINUX-2.4-1.0.0-rhel7.0-x86_64 をアンインストール
2: CentOS 7.0 から 7.2 にアップグレード
3: MLNX_OFED_LINUX-3.1-1.0.3-rhel7.2-x86_64をインストール
他にもいろいろな設定が要ります。
とりあえず SDPARA と NETAL (MPI版)が動作しています。
よって、作業は一応完了です。
> mpirun -np 45 -machinefile ~/.openmpi/hostfiles numactl -i all ./sdpara ~/data/nug12_r2.dat-s out
SDPA start at [Sun Dec 20 21:22:06 2015]
param is ./param.sdpa
data is /home/fujisawa/data/nug12_r2.dat-s : sparse
out is out
NumNodes is set as 45
NumThreads is set as 4
Schur computation : DENSE
mu thetaP thetaD objP objD alphaP alphaD beta
0 1.0e+04 1.0e+00 1.0e+00 -0.00e+00 -0.00e+00 2.6e-02 4.9e-02 2.00e-01
中略
38 8.1e-09 2.7e-10 2.4e-10 +7.84e-01 +7.84e-01 4.7e-01 4.3e-01 1.00e-01
phase.value = pdOPT
Iteration = 38
mu = +8.1012286429189751e-09
relative gap = +3.9968028886505635e-15
gap = +3.9968028886505635e-15
digits = +1.4292825161131775e+01
objValPrimal = +7.8440055396794905e-01
objValDual = +7.8440055396794506e-01
p.feas.error = +2.7034337256807278e-08
d.feas.error = +2.4446861479621163e-08
total time = 29.203849
main loop time = 29.089836
total time = 29.203849
file check time = 0.000000
file change time = 0.000191
file read time = 0.113822
SDPA end at [Sun Dec 20 21:22:36 2015]
ALL TIME = 29.693134
> time mpirun -np 180 -machinefile ~/.openmpi/hostfiles numactl -i all ./netal_mpi ~/NETAL_MPI_2015/instances/fukuoka_japan.osm-roads.gr out.fukuoka.new.151220
graph-file: /home/fujisawa/NETAL_MPI_2015/instances/fukuoka_japan.osm-roads.gr
output-file: out.fukuoka.new.151220
number_of_nodes is 314571
number_of_edges is 694906
314571 random number
elapsed 0.25 seconds
nblocks is 1807, blocksize is 174
中略
dump BC into 'out.fukuoka.new.151220'
real 2m31.078s
user 9m57.660s
sys 0m0.979s
NVIDIA DATA CENTER GPU MANAGER
Simple, Powerful GPU Management in the Accelerated Data Center
NVIDIA Data Center GPU Manager (DCGM) is a complete suite of enterprise-grade tools for managing the accelerated data center. IT managers now have the power to implement system policies, monitor GPU health, diagnose system events, and maximize data center throughput.
Managing and monitoring the accelerated data center has never been easier.
Simple, Powerful GPU Management in the Accelerated Data Center
NVIDIA Data Center GPU Manager (DCGM) is a complete suite of enterprise-grade tools for managing the accelerated data center. IT managers now have the power to implement system policies, monitor GPU health, diagnose system events, and maximize data center throughput.
Managing and monitoring the accelerated data center has never been easier.
Moonshot m710 の 1カートリッジだけ OS を 7.0 から 7.2 まで上げてみました。
RHEL 7.2ベースの「CentOS Linux 7(1511)」リリース、Kerberos認証を強化
それに続いて MLNX_OFED も CentOS 7.2 対応まで上げています。
Mellanox OpenFabrics Enterprise Distribution for Linux (MLNX_OFED)
MLNX_OFED_LINUX-3.1-1.0.3-rhel7.2-x86_64.tgz
一応動作はしていますが、少し変なところがあるので検証中です。
RHEL 7.2ベースの「CentOS Linux 7(1511)」リリース、Kerberos認証を強化
それに続いて MLNX_OFED も CentOS 7.2 対応まで上げています。
Mellanox OpenFabrics Enterprise Distribution for Linux (MLNX_OFED)
MLNX_OFED_LINUX-3.1-1.0.3-rhel7.2-x86_64.tgz
一応動作はしていますが、少し変なところがあるので検証中です。
すでに終了しておりますが、 SC15 での九州大学ブースでの展示内容になります。
sc15
Conference: November 15-20, 2015
Exhibition: November 16-19, 2015
Austin Convention Center - Austin, TX
Advanced Computing & Optimization Infrastructure for Extremely Large-Scale Graphs on Post Peta-Scale Supercomputers
Katsuki FUJISAWA, Yuichiro YASUI, Hitoshi SATO, Toshio ENDO, Ken Wakita, Koji UENO, Keita IWABUCHI, Toyotaro SUZUMURA
Peta-scale and Highly-ScalableSolver for SemidefiniteProgramming Problems
Katsuki FUJISAWA, Toshio ENDO, Yuki Tsujita
A Congestion Avoidance Technique Using Packet Pacing toward Exascale Interconnect
Hidetomo Shibamura
Configuration of Virtual 1D Musical Instruments
Hiroto SEKI, Toshiya TAKAMI
Performance Measurement of Parallel-in-Time Method by Spatial Coarse Graining
Akira NARIBAYASHI,Toshiya TAKAMI
Ruby Prototyping Environment for Molecular Orbital Calculation
OpenFMO project
A neighbor communication algorithm with effective using bandwidth of multiple NICs on mesh/torus
Yoshiyuki Morie, Takeshi Nanri
NSIM-ACE: An Interconnection Network Simulator for RDMA
Ryutaro Susukita
sc15
Conference: November 15-20, 2015
Exhibition: November 16-19, 2015
Austin Convention Center - Austin, TX
Advanced Computing & Optimization Infrastructure for Extremely Large-Scale Graphs on Post Peta-Scale Supercomputers
Katsuki FUJISAWA, Yuichiro YASUI, Hitoshi SATO, Toshio ENDO, Ken Wakita, Koji UENO, Keita IWABUCHI, Toyotaro SUZUMURA
Peta-scale and Highly-ScalableSolver for SemidefiniteProgramming Problems
Katsuki FUJISAWA, Toshio ENDO, Yuki Tsujita
A Congestion Avoidance Technique Using Packet Pacing toward Exascale Interconnect
Hidetomo Shibamura
Configuration of Virtual 1D Musical Instruments
Hiroto SEKI, Toshiya TAKAMI
Performance Measurement of Parallel-in-Time Method by Spatial Coarse Graining
Akira NARIBAYASHI,Toshiya TAKAMI
Ruby Prototyping Environment for Molecular Orbital Calculation
OpenFMO project
A neighbor communication algorithm with effective using bandwidth of multiple NICs on mesh/torus
Yoshiyuki Morie, Takeshi Nanri
NSIM-ACE: An Interconnection Network Simulator for RDMA
Ryutaro Susukita
1月 IMI Colloquium
日時:2016年1月20日(水)
16:45-17:45
場所:九州大学 マス・フォア・インダストリ研究所 ウエスト1号館 4階
IMIオーディトリアム(W1-D-413)(円形階段教室)
講師:宮崎 知明 氏 (MSI株式会社 技術顧問)
講演タイトル:数理計画法システム進化の歴史とLocalSolver最新動向
講演要旨:
1960 年代に、数理計画法システムが商用化され、現在に至っている.私は 1974 年に富士通株式会社に入社し、数理計画法システムを中心としたOR分野の研究開発、顧客支援に携わってきた。1980年当時、LP計算は大型計算機センターで利用されるのが普通であったが、メインフレームが自社に導入されるようになり、LP計算がベンチマークの主役になったケースもある。その当時のLP計算では、ホストコンピュータのCPU使用率が 90 %以上に達することもあった。 1000 式のLPモデルの実行に数時間かかることもあり、今とは隔世の感がある。当日の発表では、数理計画法システムの進化の歴史を振り返るとともに、次世代の数理計画法システム:LocalSolverの概要を紹介する。
日時:2016年1月20日(水)
16:45-17:45
場所:九州大学 マス・フォア・インダストリ研究所 ウエスト1号館 4階
IMIオーディトリアム(W1-D-413)(円形階段教室)
講師:宮崎 知明 氏 (MSI株式会社 技術顧問)
講演タイトル:数理計画法システム進化の歴史とLocalSolver最新動向
講演要旨:
1960 年代に、数理計画法システムが商用化され、現在に至っている.私は 1974 年に富士通株式会社に入社し、数理計画法システムを中心としたOR分野の研究開発、顧客支援に携わってきた。1980年当時、LP計算は大型計算機センターで利用されるのが普通であったが、メインフレームが自社に導入されるようになり、LP計算がベンチマークの主役になったケースもある。その当時のLP計算では、ホストコンピュータのCPU使用率が 90 %以上に達することもあった。 1000 式のLPモデルの実行に数時間かかることもあり、今とは隔世の感がある。当日の発表では、数理計画法システムの進化の歴史を振り返るとともに、次世代の数理計画法システム:LocalSolverの概要を紹介する。