最適化問題に対する超高速&安定計算

クラスタ計算機やスーパーコンピュータ上での大規模最適化問題やグラフ探索などの研究のお話が中心

IFAC E-CoSM 2018 締め切り:4/8

2018年03月31日 00時45分48秒 | Weblog

https://ifac.papercept.net/conferences/scripts/start.pl
論文締め切りは 4/8 になっています。

Welcome to IFAC E-CoSM 2018!

E-CoSM was created in 2006 as a triennial workshop series. After four editions, it is updated and E-CoSM 2018 is the first edition as an IFAC conference series, sponsored by IFAC the IFAC Technical Committee on Automotive Control and co-sponsored by other IFAC Technical Committees. After four successful editions organized and hosted by the Institut Francais du Petrole Energies Nouvelles (IFPEN) in France and the Ohio State University Center for Automotive Research and SIMCenter, the E-CoSM moves to China and being upgraded as the first edition as an IFAC conference series, and hosted by Jilin University's State Key Laboratory of Automotive Simulation and Control (ASCL) and CAA T.C. Vehicle Control and Intelligence (VCI), and supported by the State Key Laboratory of Combustion Engine, Tianjin University, and Chinese Association of Automation CAA.
E-CoSM 2018 will be held at the South Lake Hotel in Changchun, China. It will be held from 20 to 22 September 2018. Research achievements on engine and powertrain control, simulation and modeling in recent years will be displayed and concluded on the conference. In the meantime, the major problems in science, technology and policy that people may face in the future will be explored.
Regular papers presented at E-CoSM 2018 will be hosted and freely available on-line on the IFAC-PapersOnLine.net website and will be citable via an ISSN and a DOI. Papers published in IFAC-PapersOline are indexed in Scopus, EI and WoS. The best papers will be considered for publication in affiliated IFAC journals.
コメント

Chainer 3.4.0 と mnist

2018年03月30日 00時17分13秒 | Weblog
前回、imagenet では性能差が出た2つの GPU ですが、mnist に関しては差は無いです(何故?)。。。

◯計算サーバ
CPU : Intel(R) Xeon(R) CPU E5-2687W v4 @ 3.00GHz x 2
メモリ:512GB
GPU : NIVIDIA Tesla P100 x 2
OS : CentOS 7.4

$ time python ./train_mnist.py -g 0
GPU: 0
# unit: 1000
# Minibatch-size: 100
# epoch: 20

epoch main/loss validation/main/loss main/accuracy validation/main/accuracy elapsed_time
1 0.193723 0.0904885 0.940934 0.9725 4.87579
2 0.0743769 0.0801725 0.976116 0.9751 7.75057
3 0.0489755 0.0797656 0.984049 0.9764 11.0034
4 0.0343368 0.0808019 0.989065 0.9773 14.0952
5 0.0291952 0.0724612 0.989865 0.98 16.9548
6 0.0242752 0.0770883 0.992065 0.9789 20.1595
7 0.0205797 0.0871283 0.993248 0.978 23.1138
8 0.0179716 0.0806064 0.994265 0.98 26.4275
9 0.0156324 0.0726476 0.994965 0.9831 29.4012
10 0.0158118 0.0868025 0.995015 0.981 32.4502
11 0.0120386 0.0940075 0.996282 0.9795 35.4172
12 0.0146274 0.0938886 0.995532 0.981 38.3322
13 0.011219 0.093875 0.996699 0.9815 41.5736
14 0.0109149 0.0940998 0.996516 0.981 44.4308
15 0.00991011 0.105109 0.997265 0.9803 47.2963
16 0.0142973 0.0860043 0.995499 0.9823 50.1539
17 0.00960365 0.113148 0.997232 0.9789 53.0158
18 0.00765447 0.104115 0.997649 0.982 55.8894
19 0.0100436 0.103909 0.997065 0.9803 59.0706
20 0.00832253 0.0919329 0.997749 0.9828 62.1928

real 1m6.997s
user 1m6.568s
sys 0m14.379s


$ time python ./train_mnist.py -g 1
GPU: 1
# unit: 1000
# Minibatch-size: 100
# epoch: 20

epoch main/loss validation/main/loss main/accuracy validation/main/accuracy elapsed_time
1 0.190071 0.110005 0.943967 0.9656 3.44792
2 0.0737473 0.088046 0.977165 0.972 6.72184
3 0.0466676 0.096217 0.984783 0.9717 9.752
4 0.0366625 0.0668992 0.987815 0.98 12.8739
5 0.0285734 0.081525 0.990698 0.979 15.9065
6 0.0242173 0.0797278 0.992031 0.9797 19.4017
7 0.0212822 0.0786974 0.993082 0.9793 22.6291
8 0.0183767 0.0908352 0.994115 0.98 25.4699
9 0.0191029 0.100031 0.994232 0.9763 28.6368
10 0.0127762 0.0779863 0.996149 0.9823 31.7296
11 0.0143983 0.085073 0.995132 0.9813 34.9406
12 0.0107437 0.098093 0.996816 0.9779 38.213
13 0.0153186 0.0922849 0.995749 0.9822 41.3357
14 0.0101606 0.0987587 0.996565 0.9814 44.4927
15 0.0124978 0.0775459 0.996249 0.983 47.8019
16 0.00857302 0.0966257 0.997199 0.9816 50.9471
17 0.0106839 0.093041 0.997216 0.9836 54.0331
18 0.00887633 0.109647 0.997249 0.9805 57.2198
19 0.0117919 0.112135 0.996682 0.9809 60.3072
20 0.00785438 0.0926466 0.997766 0.9831 63.1354

real 1m7.586s
user 1m8.398s
sys 0m13.939s
コメント

Chainer 3.4.0 と imagenet その3

2018年03月29日 00時22分10秒 | Weblog
Chainer 3.4.0 と CuPy 2.4.0 を用いて imagenet の性能を調べてみました。P100 2枚の中で1枚目は遅いですが、2枚目の方がはるかに速いです(何故?)。。。

◯ Tesla P100 : FP32 使用
$ time python ../imagenet/train_imagenet.py -a alex -g 1 -E 50 train.txt test.txt
epoch iteration main/loss validation/main/loss main/accuracy validation/main/accuracy lr
4 1000 3.41653 0.276531 0.01
9 2000 1.98813 0.512625 0.01
13 3000 1.31817 0.650406 0.01
18 4000 0.874504 0.755562 0.01
23 5000 0.594611 0.831969 0.01
27 6000 0.414828 0.879094 0.01
32 7000 0.304144 0.912375 0.01
37 8000 0.247732 0.928406 0.01
41 9000 0.218094 0.93775 0.01
46 10000 0.188218 0.945406 0.01

real 15m28.878s
user 50m51.517s
sys 6m55.865s


◯ Tesla P100 : FP16 使用
$ time python ../imagenet/train_imagenet.py -a alex_fp16 -g 1 -E 50 train.txt test.txt
epoch iteration main/loss validation/main/loss main/accuracy validation/main/accuracy lr
4 1000 3.314 0.28275 0.01
9 2000 2.003 0.512 0.01
13 3000 1.297 0.6455 0.01
18 4000 0.87 0.777 0.01
23 5000 0.596 0.868 0.01
27 6000 0.41825 0.9265 0.01
32 7000 0.329 0.949 0.01
37 8000 0.254375 0.9715 0.01
41 9000 0.24275 0.974 0.01
46 10000 0.1725 0.9825 0.01

real 15m53.593s
user 51m0.941s
sys 7m46.198s


◯参考 行列積では特に性能差はないです
# ./matrixMulCUBLAS --device=0
[Matrix Multiply CUBLAS] - Starting...
gpuDeviceInit() CUDA Device [0]: "Tesla P100-PCIE-16GB
GPU Device 0: "Tesla P100-PCIE-16GB" with compute capability 6.0

MatrixA(640,480), MatrixB(480,320), MatrixC(640,320)
Computing result using CUBLAS...done.
Performance= 5602.26 GFlop/s, Time= 0.035 msec, Size= 196608000 Ops
Computing result using host CPU...done.
Comparing CUBLAS Matrix Multiply with CPU results: PASS

NOTE: The CUDA Samples are not meant for performance measurements. Results may vary when GPU Boost is enabled.
[
# ./matrixMulCUBLAS --device=1
[Matrix Multiply CUBLAS] - Starting...
gpuDeviceInit() CUDA Device [1]: "Tesla P100-PCIE-16GB
GPU Device 1: "Tesla P100-PCIE-16GB" with compute capability 6.0

MatrixA(640,480), MatrixB(480,320), MatrixC(640,320)
Computing result using CUBLAS...done.
Performance= 5564.55 GFlop/s, Time= 0.035 msec, Size= 196608000 Ops
Computing result using host CPU...done.
Comparing CUBLAS Matrix Multiply with CPU results: PASS

NOTE: The CUDA Samples are not meant for performance measurements. Results may vary when GPU Boost is enabled.

◯計算サーバ
CPU : Intel(R) Xeon(R) CPU E5-2687W v4 @ 3.00GHz x 2
メモリ:512GB
GPU : NIVIDIA Tesla P100 x 2
OS : CentOS 7.4


◯参考1枚目
◯ Tesla P100 : FP32 使用
$ time python ../imagenet/train_imagenet.py -a alex -g 0 -E 50 train.txt test.txt
epoch iteration main/loss validation/main/loss main/accuracy validation/main/accuracy lr
4 1000 3.40273 0.279719 0.01
9 2000 2.0089 0.507219 0.01
13 3000 1.32061 0.651219 0.01
18 4000 0.870326 0.759969 0.01
23 5000 0.601746 0.829687 0.01
27 6000 0.420831 0.880344 0.01
32 7000 0.317915 0.908219 0.01
37 8000 0.277453 0.922156 0.01
41 9000 0.198903 0.94225 0.01
46 10000 0.172395 0.951 0.01

real 25m0.302s
user 56m11.535s
sys 11m30.203s


◯ Tesla V100 : FP16 使用
$ time python ../imagenet/train_imagenet.py -a alex_fp16 -g 0 -E 50 train.txt test.txt
epoch iteration main/loss validation/main/loss main/accuracy validation/main/accuracy lr
4 1000 3.392 0.266 0.01
9 2000 2.005 0.5075 0.01
13 3000 1.333 0.645 0.01
18 4000 0.884 0.782 0.01
23 5000 0.6245 0.8655 0.01
27 6000 0.44425 0.919 0.01
32 7000 0.3195 0.954 0.01
37 8000 0.265 0.969 0.01
41 9000 0.227 0.976 0.01
46 10000 0.18025 0.984 0.01

real 23m28.277s
user 55m29.901s
sys 11m15.058s
コメント

Chainer 3.4.0 と imagenet その2

2018年03月28日 00時42分08秒 | Weblog
Chainer 3.4.0 と CuPy 2.4.0 を用いて imagenet の性能を調べてみましたが、P100 の遅さが目立ちます(何故か?)。。。

◯ Tesla P100 : FP32 使用
$ time python ../imagenet/train_imagenet.py -a alex -g 0 -E 50 train.txt test.txt
epoch iteration main/loss validation/main/loss main/accuracy validation/main/accuracy lr
4 1000 3.40273 0.279719 0.01
9 2000 2.0089 0.507219 0.01
13 3000 1.32061 0.651219 0.01
18 4000 0.870326 0.759969 0.01
23 5000 0.601746 0.829687 0.01
27 6000 0.420831 0.880344 0.01
32 7000 0.317915 0.908219 0.01
37 8000 0.277453 0.922156 0.01
41 9000 0.198903 0.94225 0.01
46 10000 0.172395 0.951 0.01

real 25m0.302s
user 56m11.535s
sys 11m30.203s


◯ Tesla V100 : FP16 使用
$ time python ../imagenet/train_imagenet.py -a alex_fp16 -g 0 -E 50 train.txt test.txt
epoch iteration main/loss validation/main/loss main/accuracy validation/main/accuracy lr
4 1000 3.392 0.266 0.01
9 2000 2.005 0.5075 0.01
13 3000 1.333 0.645 0.01
18 4000 0.884 0.782 0.01
23 5000 0.6245 0.8655 0.01
27 6000 0.44425 0.919 0.01
32 7000 0.3195 0.954 0.01
37 8000 0.265 0.969 0.01
41 9000 0.227 0.976 0.01
46 10000 0.18025 0.984 0.01

real 23m28.277s
user 55m29.901s
sys 11m15.058s


◯参考値
◯ Tesla V100 : FP32 使用
$time python ../imagenet/train_imagenet.py -a alex -g 0 -E 50 train.txt test.txt
epoch iteration main/loss validation/main/loss main/accuracy validation/main/accuracy lr
4 1000 3.39767 0.277844 0.01
9 2000 1.98604 0.512906 0.01
13 3000 1.30983 0.651375 0.01
18 4000 0.85981 0.763406 0.01
23 5000 0.596357 0.830594 0.01
27 6000 0.428847 0.879344 0.01
32 7000 0.329958 0.90575 0.01
37 8000 0.261373 0.927688 0.01
41 9000 0.227926 0.934469 0.01
46 10000 0.174872 0.950531 0.01

real 7m8.586s
user 41m45.465s
sys 2m21.488s


◯ Tesla V100 : FP16 使用
$time python ../imagenet/train_imagenet.py -a alex -g 0 -E 50 train.txt test.txt
epoch iteration main/loss validation/main/loss main/accuracy validation/main/accuracy lr
4 1000 3.39767 0.277844 0.01
9 2000 1.98604 0.512906 0.01
13 3000 1.30983 0.651375 0.01
18 4000 0.85981 0.763406 0.01
23 5000 0.596357 0.830594 0.01
27 6000 0.428847 0.879344 0.01
32 7000 0.329958 0.90575 0.01
37 8000 0.261373 0.927688 0.01
41 9000 0.227926 0.934469 0.01
46 10000 0.174872 0.950531 0.01

real 7m8.586s
user 41m45.465s
sys 2m21.488s


◯ GeForce GTX 1080 Ti : FP32 使用
$ time python ../imagenet/train_imagenet.py -a alex -g 1 -E 50 train.txt test.txt
epoch iteration main/loss validation/main/loss main/accuracy validation/main/accuracy lr
4 1000 3.42429 0.272156 0.01
9 2000 2.01348 0.507312 0.01
13 3000 1.31487 0.653437 0.01
18 4000 0.8997 0.754844 0.01
23 5000 0.617719 0.825594 0.01
27 6000 0.445258 0.872344 0.01
32 7000 0.318177 0.908625 0.01
37 8000 0.274403 0.920594 0.01
41 9000 0.226589 0.935 0.01
46 10000 0.180105 0.948062 0.01

real 7m40.081s
user 45m33.988s
sys 2m16.852s



◯ GeForce GTX 1080 Ti : FP16 使用$ time python ../imagenet/train_imagenet.py -a alex_fp16 -g 1 -E 50 train.txt test.txt
epoch iteration main/loss validation/main/loss main/accuracy validation/main/accuracy lr
4 1000 3.432 0.26875 0.01
9 2000 2.043 0.4995 0.01
13 3000 1.354 0.629 0.01
18 4000 0.8775 0.781 0.01
23 5000 0.6145 0.86 0.01
27 6000 0.45025 0.916 0.01
32 7000 0.3345 0.9545 0.01
37 8000 0.249125 0.97 0.01
41 9000 0.209 0.977 0.01
46 10000 0.18725 0.982 0.01

real 7m5.823s
user 37m36.596s
sys 1m57.836s
コメント

P100 2枚で Graph500

2018年03月27日 00時57分33秒 | Weblog
NVIDIA Tesla P100 x 2 枚で以下のような性能です。

◯計算サーバ
CPU : Intel(R) Xeon(R) CPU E5-2687W v4 @ 3.00GHz x 2
メモリ:512GB
GPU : NIVIDIA Tesla P100 x 2
OS : CentOS 7.4


============= Result ==============
SCALE: 27
edgefactor: 16
NBFS: 16
graph_generation: 79.753501452
num_mpi_processes: 2
construction_time: 108.910130131
redistribution_time: 10.053217488
min_time: 0.79409
firstquartile_time: 0.810159
median_time: 0.821127
thirdquartile_time: 0.871233
max_time: 0.97638
mean_time: 0.843577
stddev_time: 0.0507906
min_nedge: 2147462776
firstquartile_nedge: 2147462776
median_nedge: 2147462776
thirdquartile_nedge: 2147462776
max_nedge: 2147462776
mean_nedge: 2147462776
stddev_nedge: 0
min_TEPS: 2.19941e+09
firstquartile_TEPS: 2.46486e+09
median_TEPS: 2.61526e+09
thirdquartile_TEPS: 2.65067e+09
max_TEPS: 2.70431e+09
harmonic_mean_TEPS: 2.54566e+09
harmonic_stddev_TEPS: 3.95744e+07
min_validate: 1.33001e-07
firstquartile_validate: 1.935e-07
median_validate: 1.98001e-07
thirdquartile_validate: 2.23499e-07
max_validate: 21.0033
mean_validate: 1.3127
stddev_validate: 5.25082
コメント

平成30年度IMI共同利用研究計画採択のお知らせ

2018年03月26日 00時59分42秒 | Weblog
平成30年度IMI共同利用研究計画採択のお知らせ

このたび、九州大学マス・フォア・インダストリ研究所は、平成29年度共同利用研究の公募を行いました。
申請された提案は共同利用・共同研究委員会において審議され、その結果、以下の利用計画が採択されました。

【一般研究】
研究集会(II)(4件)
(1)
研究計画題目:結晶欠陥の先進数理解析
研究代表者:松谷茂樹(佐世保工業高等専門学校・教授)
研究実施期間:平成30年9月10日(月)~平成30年9月11(火)予定

(2)
研究計画題目:ドレスト光子に関する基礎的数理研究
研究代表者:佐久間弘文(ドレスト光子研究起点・理事)
研究実施期間:平成31年3月20日(水)~平成31年3月21日(木)予定

(3)
研究計画題目:量子情報社会に向けた数理的アプローチ
研究代表者:高島克幸(三菱電機株式会社・主席技師長)
研究実施期間:平成30年7月30日(月)~平成30年8月1日(水)予定

(4)
研究計画題目:コンクリート建造物の非破壊検査とその周辺
研究代表者:滝口孝志(防衛大学校・准教授)
研究実施期間:平成30年10月23日(火)~平成30年10月26日(金)予定


短期共同研究(5件)
(1)
研究計画題目:血栓数理モデルと同シミュレーター開発
研究代表者:杉山由恵(九州大学・教授)
研究実施期間:平成30年7月16日(月)~平成30年7月20日(金)予定

(2)
研究計画題目:多目的最適化と特異点論:パレート点の特異型の分類
研究代表者:濱田直希(株式会社富士通研究所・研究員)
研究実施期間:平成30年9月3日(月)~平成30年9月7日(金)予定

(3)
研究計画題目:離散微分幾何の新展開.意匠設計から建築設計へ
研究代表者:井ノ口順一(筑波大学・教授)
研究実施期間:平成30年9月13日(木)~平成30年9月15日(土)予定

(4)
研究計画題目:造船工学における曲面幾何
研究代表者:山口大介(株式会社エス・イー・エー創研・主任)
研究実施期間:平成30年8月20日(月)~平成30年8月24日(金)予定

(5)
研究計画題目:数理農学における時系列データのモデル化と解析
研究代表者:宇波耕一(京都大学・准教授)
研究実施期間:平成30年11月5日(月)~平成30年11月7日(水)予定


短期研究員(1件)
(1)
研究計画題目:制約付き最適化問題に向けたアニーリングマシンの活用
研究代表者:奥山拓哉(株式会社日立製作所・研究員)
研究実施期間:平成30年8月23日(木)~平成30年8月28日(火)予定


【若手研究】
短期研究員(1件)
(1)
研究計画題目:ブラックホール時空上のアーノルド拡散について
研究代表者:友田健太郎(神戸大学・博士後期課程)
研究実施期間:平成30年8月12日(日)~平成30年8月19日(日)予定

※3月8日時点の情報です。内容は変更される場合があります。

共同利用研究についてご意見,ご要望やご質問などがございましたら,
コメント

Passive Optical Interconnects: Affordable and Scalable for System Integration

2018年03月25日 00時11分28秒 | Weblog
以下に関連する研究を行うかもしれません。。。

Passive Optical Interconnects: Affordable and Scalable for System Integration

Passive optical interconnects optimize datacom, mil/aero, and computer system designs.
Passive-optical-interconnects-1Passive optical components guide transmission of optical signals through optical networks. The concept of flexible optical circuits originated at Bell Laboratories in the late 1980s, and was called Optiflex. Today, interconnects are produced by nearly a dozen companies in a similar manner. Recent technological advances in the design and production of optical interconnects allow equipment suppliers to optimize system designs with a range of specialized interconnect solutions. The ongoing trend is to integrate increasing optical component counts into compact modules and custom solutions. This approach enables system designs for datacom, mil/aero, and computer interconnection markets.

コメント

福岡市、理研、九大が地方発イノベーション創出に向けた連携に関する協定を締結

2018年03月24日 00時48分18秒 | Weblog
これも古い記事(3年前)ですが。。。

2015年3月31日

福岡市
理化学研究所
九州大学

理化学研究所と九州大学の基本協定締結並びに福岡市、理研、九大が地方発イノベーション創出に向けた連携に関する協定を締結
要旨
理化学研究所(理研)と九州大学(九大)は2015年3月30日、両機関の包括的な連携・協力関係を推進するための基本協定を締結しました。

この協定は、両機関の研究開発能力および人材などを活かした連携・協力を促進し、学術や科学技術の振興、人材育成への貢献を目的としています。

また、同時に福岡市と理研、九大による地方発イノベーション創出に向けた連携協定も締結しました。

これにより、九州地区での共同研究の機会の拡大、産業界とのさらなる連携促進、人材育成、イノベーションの創出を図り、地域および九州の産業振興、さらにはわが国の産業競争力の強化に貢献するとともに、アジアにおけるグローバル研究開発拠点の形成を目指します。

理化学研究所(理研)と九州大学(九大)は、従来から各種共同研究をはじめ、九大教員の理研客員主管研究員への任命や、理研職員への九大客員教授・准教授任命などの人事交流を通して、研究交流や学生の教育研究活動を行ってきました。また、九大大学院工学研究院との分子情報連携研究センター設置や、大型放射光施設「SPring-8」での理研との共同研究、スーパーコンピュータ「京」の開発事業など、幅広い分野での協力関係を築いてきました。昨今では、応用化学分野で「理化学研究所-九州大学ワークショップ ~グリーン・ライフと機能材料~」の開催や113番元素を発見した森田浩介グループディレクター(理研仁科加速器研究センター超重元素研究グループ)が九大大学院理学研究院教授として赴任するなど、九大とのさらなる研究交流の進展が期待されています。

理研は、2014年6月に独立行政法人通則法が改正され、2015年4月より独立行政法人から国立研究開発法人への移行が予定されています。国立研究開発法人への移行にあたって、理研は連携研究センター・研究室の設立やクロスアポイントメント制度、連携大学院制度などを積極的に活用して、国内のさまざまな大学や研究機関、自治体、産業界との連携強化を図り、連携ハブ拠点の強化を図っていきたいと考えています。

今回、理研の拠点が設置されていない九州地区において、地域の主要大学のひとつであり、また広くアジアに開かれている九大と基本協定を締結しました。九大の持つ優れた教育機能と総合的な学術研究能力などのポテンシャルと、理研の持つ科学技術研究の能力、最先端設備、国際的かつ柔軟な研究運営体制(または制度)などのポテンシャルを相互に有効活用することにより、単に人材の交流や施設設備の相互利用にとどまらず、新たな連携・協力の枠組みを構築し、格段の国際的競争力を持つ自然科学の新しい研究領域・研究分野の開拓を目指します。また、その過程を通じて将来に渡り、新しい研究領域・分野開拓やその推進の担い手となる人材の育成につなげていきます。

一方、福岡市は、「グローバル創業・雇用創出特区」として国家戦略特区に指定されており、大学、産業界、ベンチャーキャピタルなどとの連携を強化するとともに、特区を活用した国の規制・税制改革や福岡市の独自施策による「グローバル創業都市・福岡」の実現を掲げています。このような先導的な取り組みを行っている福岡市とも連携することにより、実用化を見据えた研究開発を推進し、地域と九州の産業振興、さらには我が国の産業の競争力強化に貢献し、アジアにおけるグローバル研究開発拠点が形成されることが期待できます。

福岡市、理研、九大の3者でアジア・世界に開かれた地方発の「イノベーション創出に向けた連携協定」を締結し、九州地区での科学技術イノベーションの連携ハブ構築に向けた連携方策を検討するとともに,政府の成長戦略である国家戦略特区ならびに地方創生政策に貢献していきたいと考えています。
コメント

伊都キャンパス イースト1、2号館:2018年3月12日

2018年03月23日 14時51分06秒 | Weblog








































































コメント

産業技術総合研究所と理化学研究所が連携・協力に関する基本協定を締結

2018年03月22日 00時53分46秒 | Weblog
2年前ぐらいの記事ですが。。。

産業技術総合研究所と理化学研究所が連携・協力に関する基本協定を締結
-両機関の研究開発能力を活かし科学・産業技術イノベーションを強力に推進-


ポイント
総合研究機関としての両機関が包括的な連携のもと、それぞれが有する研究開発能力、研究資源の相互活用と研究人材の交流・育成を進めることで、科学・産業技術イノベーションを主導
両機関が未来社会と科学・技術、新産業のビジョンを共有し、2050年の世界の課題解決を目指し、人類社会に対して果たすべき役割を明確にしていく

概要
 国立研究開発法人 産業技術総合研究所【理事長 中鉢 良治】(以下「産総研」という。)と、国立研究開発法人 理化学研究所【理事長 松本 紘】(以下「理研」という。)は、先進的な研究開発や人材の交流・育成に関する連携・協力に関する基本協定を平成28年8月30日に締結しました。

 産総研と理研は、包括的な連携・協力体制を構築し、科学・産業技術イノベーションを主導していくことを目指します。両機関は本協定に基づき、総合研究機関としての能力を活かし、世界トップクラスの研究開発力、研究資源・人材を活用した協力体制を構築するとともに、世界初/世界一の技術の実現に向けた研究協力を推進します。また、両機関からグローバルリーダーとなる若手人材の育成や交流、オープンイノベーションのためのハブの構築を協力して進めます。

協定の内容
研究協力の推進

 総合研究機関としての両機関が協力することにより初めて実現できる、世界初/世界一の技術の実現に向けた研究協力体制の構築を進めます。例えば、量子への理解を通じて生み出す新しい原理に基づくデバイス・システム、環境や資源などの制約を克服する新しいものづくりシステム、生命現象の解明による革新的な創薬・医療技術、超スマート社会を支えるサイエンス・テクノロジー・エンジニアリングにわたる研究開発を共同で進め、科学・産業技術イノベーションを進めます。また、文部科学省・経済産業省・総務省の三省連携の下で人工知能に関する研究も精力的に進めてまいります。

人材の交流・育成

 共同研究ワークショップやシンポジウムを開催し、両機関の分野の異なる研究者同士の交流を促進します。また、クロスアポイントメント制度を活用した研究人材の交流や、両機関の若手・中堅研究者による挑戦的な共同研究、科学・産業技術イノベーションを担う人材の交流・育成を推進します。
コメント

18th SIAM Conference on Parallel Processing for Scientific Computing : 終了

2018年03月21日 00時34分04秒 | Weblog
18th SIAM Conference on Parallel Processing for Scientific Computing

Conference Program








コメント

Channel Panasonic - Official

2018年03月20日 00時38分55秒 | Weblog
我々と関連があるものを幾つか紹介

あした、現場で会いましょう。コネクティッドソリューションズ 物流篇 [Panasonic]

あした、現場で会いましょう。コネクティッドソリューションズ 流通篇 [Panasonic]

「レジロボ(R)」RFID(電子タグ)を導入した実証実験

コメント

ICTを活用した実証実験を開始

2018年03月19日 00時34分22秒 | Weblog
六本木商店街において街づくりの施策検討のためICTを活用した実証実験を開始
~プライバシーファーストな街の見える化~


六本木商店街振興組合(所在地:東京都港区、理事長:皆川 昌博)および日本電気株式会社(本社:東京都港区、代表取締役執行役員社長兼CEO:新野 隆、以下 NEC)は、より便利で快適な街づくりの施策を検討するため、六本木商店街においてICTを活用した実証実験を開始しました。実証期間は2018年11月までです。

具体的には、NECグループのAIを活用した画像解析技術(注1)を用い、六本木交差点付近に設置したカメラの映像から、来街者の移動方向、属性(性別・年代)および人数を24時間リアルタイムに推定します。推定データに基づき集客施策・売上向上施策の改善を図ることで、商店街の活性化を目指します。なお、本技術は日本人以外の属性推定も可能です。
また、推定した来街者の属性情報を基に、商店街に設置したデジタルサイネージに表示するコンテンツをリアルタイムに切り替え、最適な情報配信による集客効果を検証します。

本実証では、カメラで撮影した映像は推定データの生成後に即時破棄し、来街者個人を特定可能な情報は保存しないことで、プライバシーに配慮した仕組みを実現しています。さらに、実施にあたっては、「カメラ画像利活用ガイドブック」(注2)に則りプライバシー保護に配慮した六本木商店街振興組合向けのガイドラインを作成するなど、個人情報保護法をはじめとした関係法令を遵守した対応を行っています。
コメント

「移動最適化システム」実証実験の実施

2018年03月18日 00時53分21秒 | Weblog
さいたまスーパーアリーナ及び周辺地域における「移動最適化システム」実証実験の実施について~「サイバーフィジカルシステム※1」による安全・安心と快適な「おもてなし」の実現~

プレスリリース
平成30年2月22日
政策統括官(科学技術・イノベーション担当)

内閣府は、2020年東京オリンピック・パラリンピック競技大会の開催に向け、オリンピック会場予定地であるさいたまスーパーアリーナ及び周辺地域において、2020TF-プロジェクト(7)※2に賛同する協力団体の技術を連携させた「移動最適化システム」による混雑度計測・予測と、「安全・安心に関わる向上技術の検証」を目的とした実証実験を協力団体と連携して実施します。

1.実験期間※3 
平成30年3月17日(土)~平成30年4月30日(月) (予定)

2.実験地区
さいたまスーパーアリーナから最寄駅(さいたま新都心駅、北与野駅)間 (予定)

3. 実験方法
個人を特定できない「人数データ」を用いて催事運営時の混雑状況をリアルタイムに把握し、実際の混雑と予測を比較することにより 移動最適化システム(安全・安心技術)の評価・検証を行います。

4. 主催
内閣府

5. 協力団体※4
株式会社NTTドコモ/セコム株式会社/綜合警備保障株式会社/ 日本電気株式会社/日本電信電話株式会社/パナソニック株式会社 株式会社さいたまアリーナ/埼玉県/さいたま市

6. 利用データ
内閣府及び協力団体は、個人情報及びプライバシーデータの適切な保護と取扱いの重要性を認識し、「個人情報保護法」をはじめとする関連法規・条例・ガイドライン等を順守し、プライバシーに十分配慮した実証実験を行います。以下にある2種類の人数データを利用して解析・予測します。

警備カメラの画像を機械で数えた人数データ※5
株式会社さいたまアリーナが運用する既設警備カメラ※6で撮影した画像を、AI技術のひとつである群衆行動解析技術を搭載した機械によって自動処理することで、個人を特定できない「人数データ」に変換して利用します。
携帯電話ネットワークの仕組みを活用した人数データ※7
携帯電話ネットワークの仕組みを用いて、さいたまスーパーアリーナ及び周辺地域の現在と近未来の人数分布を予測した「人数データ」を利用します。

図1 実験地区(地図中の赤線枠内・予定)
※地図画像の出典: さいたまスーパーアリーナHP

補足説明
※1:サイバーフィジカルシステム
サイバー空間(仮想空間)とフィジカル空間(現実空間)を高度に融合させたシステムであり、経済発展と社会的課題の解決を両立する、人間中心の社会であるSociety 5.0(ソサエティ 5.0)を実現させるものです。Society 5.0は、狩猟社会(Society 1.0)、農耕社会(Society 2.0)、工業社会(Society 3.0)、情報社会(Society 4.0)に続く、新たな社会を指すもので、第5期科学技術基本計画において我が国が目指すべき未来社会の姿として初めて提唱されました。

※2:2020TF-プロジェクト(7)
内閣府特命担当大臣(科学技術政策)の下、各界有識者及び東京都等の関係機関により「2020年オリンピック・パラリンピック東京大会に向けた科学技術イノベーションの取組に関するタスクフォース(略・2020TF)」を設置(2014年8月~2015年2月)し、大会での活用や、大会に合わせて実用化していくべき9つのプロジェクトを策定しました。プロジェクト(7)「移動最適化システム」では、イベントにおける観客の入退場混雑緩和に向けた誘導計画・運営の支援について検討を行っております。

※3:実験期間とデータ利用期間
取得された人数データは、協力団体のうち技術協力を行う各社(株式会社NTTドコモ/セコム株式会社/綜合警備保障株式会社/日本電気株式会社/日本電信電話株式会社/パナソニック株式会社)にて実証実験の目的の範囲内において利用する他、本実証実験期間終了後も今後の研究開発のために利用します。

※4:協力団体と実施体制
内閣府:プロジェクト(7)主催
株式会社さいたまアリーナ:警備カメラの画像から人数情報への変換
株式会社NTTドコモ:携帯電話の位置情報によるリアルタイム人数推定(近未来人数予測)技術の提供
セコム株式会社:催事当日の警備・誘導観点におけるノウハウの提供
綜合警備保障株式会社:催事当日の警備・誘導観点におけるノウハウの提供
日本電気株式会社:カメラ画像による混雑度計測技術の提供
日本電信電話株式会社:混雑度予測技術の提供
パナソニック株式会社:カメラ装置技術の提供
※5:警備カメラからの機械で数えた人数データ
株式会社さいたまアリーナが運用する、さいたまスーパーアリーナ及びけやきひろばに設置された既設警備カメラ映像から、人の塊をとらえることによって混雑状況をリアルタイムに把握する群衆行動解析技術を用いて、機械的に解析・推定し、個人を特定できない人数として出力します。出力された人数は、カメラの設置場所及び時間情報とあわせ、当該時間におけるカメラの撮影範囲近傍の人数データとして活用します。この人数データは個人情報を一切含んでおりません。

※6:使用する警備カメラ
さいたまスーパーアリーナ及びけやきひろばに設置された既設の警備カメラをその利用目的(催事運営時の混雑緩和や警備等)に沿った通常運用の範囲で使用します。

※7:携帯電話ネットワークの仕組みを活用した人数データ
携帯電話ネットワークの仕組みを利用し、プライバシーを保護した形で日本人口全体に拡大推計して作成される人数分布の過去からの時系列データに対して、時間と空間の影響を潜在的な構造としてモデリングし、その変動パターンを逐次学習させ、現在及び近未来のエリア毎の人数分布を予測した人数データです。この人数データは、個人を特定できない集団の人数を示す情報であり、個人情報を一切含んでおりません。

コメント

MLNX_OFED

2018年03月17日 18時05分21秒 | Weblog
Linux向けメラノックス OpenFabrics Enterprise Distribution(MLNX_OFED)に以下の新しい Linux ドライバが出てました。
今の GPU クラスタは CentOS 7.4 の標準ドライバに正常に動作しているので、あまり変更したくないという事情があります。。。

MLNX_OFED_LINUX-4.3-1.0.1.0-rhel7.4-x86_64.tgz

tgz: MLNX_OFED_LINUX-4.3-1.0.1.0-rhel7.4-x86_64.tgz
Size: 169M
MD5SUM: 9ae98b165b034d3397fae7e38c5fc664
コメント