“科学技術書・理工学書”読書室―SBR―  科学技術研究者  勝 未来

科学技術書・理工学書の新刊情報およびブックレビュー(書評)&科学技術ニュース   

●科学技術書・理工学書<新刊情報>●「乱数」(伏見正則著/筑摩書房)

2023-10-20 09:52:36 |    数学



<新刊情報>



書名:乱数

著者:伏見正則

発行:筑摩書房(ちくま学芸文庫)

 乱数作成の歴史は試行錯誤、悪戦苦闘の歴史でもあった。基礎的理論から実用的な計算法までを記述した「乱数」を体系的に学べる日本で唯一の教科書。
コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

●科学技術ニュース●ソフトバンク、ルワンダ政府と協力して世界で初めて成層圏からの5Gの通信試験に成功

2023-10-20 09:52:06 |    通信工学
 ソフトバンクは、成層圏通信プラットフォーム(High Altitude Platform Station=HAPS)の研究開発の一環として、HAPSの無人航空機の試験機体に自社で開発した5G(第5世代移動通信システム)に対応するペイロード(通信機器)を搭載し、成層圏で5Gの通信試験に成功した。

 同試験は、ソフトバンクとルワンダ共和国政府が協力し、ルワンダの領空で実施したもので、HAPSの無人航空機を活用して、成層圏からの5Gの通信試験に成功したのは、世界で初めて。

 なお、両者は2023年6月に、今回使用したペイロードと同様の大きさと重量のダミー機器を搭載した成層圏飛行試験をルワンダで実施しており、同試験はそれを発展させたもの。

 ソフトバンクが開発したペイロードは、成層圏の高度最大16.9kmにおいて、約73分間連続して5Gの通信を提供し、厳しい条件下でも想定通りの性能を発揮した。

 同試験では、一般に販売されている5G対応スマートフォンを使用し、通常の通信で利用されている電波を利用して、ルワンダの試験場と日本の間で5Gによるビデオ通話(Zoom)を実現した。

 同試験は、2020年7月にソフトバンクの子会社であったHAPSモバイルとルワンダのICTイノベーション省との間で締結された覚書に基づくもの。

 また、ルワンダとその他の地域でのモバイルインターネット接続の提供や、その他の課題解決に向けてHAPSの利用を研究する共同プロジェクトでも協力している。また、2023年6月にソフトバンクとルワンダ教育省は、非地上系ネットワーク(Non-Terrestrial Network=NTN)ソリューションを活用してルワンダで教育技術(EdTech)サービスを提供する連携協定も締結している。

 同試験の結果を受け、ソフトバンクとルワンダ政府は、ルワンダなどのアフリカ地域におけるHAPSの活用の可能性と商用化に向けた研究に取り組む予定。その他、通信環境が整っていない農村地域の学校やコミュニティーのデジタル化なども検討していく。<ソフトバンク>
コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

●科学技術ニュース●産総研とLLM-jp、産総研の計算資源ABCIを用いて世界トップレベルの生成AIの開発を開始

2023-10-20 09:51:31 |    人工知能(AI)
 産業技術総合研究所(産総研)と、東京工業大学(東工大)、国立情報学研究所(NII)が主宰する勉強会LLM-jp(NII、東北大学、東京大学、早稲田大学などが参加するLLM研究開発チーム)は、生成AIの基盤となる世界トップレベルの大規模言語モデル(LLM)の構築の開発を始める。

 その第一歩として、LLM-jpが従来の国産LLMの10倍の規模を持つ1750億個のパラメタ数を持つLLMの構築に着手する。

 産総研はLLM構築に必要な計算資源であるAI橋渡しクラウド(ABCI)を提供する。このほか、今後の開発に向けて東工大、LLM-jpと協力して開発に必要な言語データ作成を行う。

 産総研、東工大、LLM-jpが持つLLM構築に関するデータ・アルゴリズム・計算資源活用の知見を持ち寄って研究開発を行うことで、日本の産業競争力強化や社会課題解決に資する成果を創出する。

 今回構築に着手するLLMの規模を表すパラメタ数は1750億個であり、OpenAI社が構築したLLMであるGPT-3と同等の規模。

 産総研はLLMの構築に必要な計算資源としてABCIを提供する。このほか産総研と東工大は、LLM-jpとも協力しながら、LLM開発に必要な高品質かつ大規模な共有データセットの構築を行う。

 今回の取り組みによって、日本で初めてのオープンに利用できるGPT-3級の日本語LLMの構築を目指す。これによって、構築の過程が明らかで透明性の高いLLMを用いた、マルチモーダルなデータを処理するAI技術の開発や、生成AIのロボット応用等に貢献する。またLLMの原理解明を進め、安心してLLMを利活用できる社会生活の実現につなげる。

 今後とも産総研の持つ計算資源を活用しながら日本の英知を結集し、世界トップレベルの性能を持つLLMの構築を目標に研究開発を進める。構築される国産LLMは、ABCI以外の計算資源も活用しながらモデルを完成させた上で、LLM-jpを通じて公開される。

 生成AIは、Gartner社が2022年の「戦略的テクノロジーのトップ・トレンド」として発表したキーワード「ジェネレーティブAI」の和訳。ジェネレーティブAIとは、「コンテンツやモノについてデータから学習し、それを使用して創造的かつ現実的な、まったく新しいアウトプットを生み出す機械学習手法」と言われている。

 大規模言語モデル(LLM)は、人が書く文章の傾向を学習した大規模なニューラルネットワーク。生成AIを構築する基盤となるもので、流ちょうな文を生成するだけでなく、文章に含まれる知識を集約した知識源としての活用方法が注目を集めている。2023年現在では、トランスフォーマと呼ばれるニューラルネットワークを用いて構築されている。ニューラルネットワークが大規模であるために、その学習では大規模な言語データと大規模な計算資源を必要とする。<産業技術総合研究所(産総研)>
コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする

●科学技術書・理工学書<新刊情報>●「大規模言語モデル入門」(山田育矢監修・著、鈴木正敏、山田康輔、李凌寒著/技術評論社)

2023-10-20 09:51:01 |    人工知能(AI)



<新刊情報>



書名:大規模言語モデル入門

監修・著:山田育矢 

著者:鈴木正敏、山田康輔、李凌寒 

発行:技術評論社

 ChatGPTに代表される大規模言語モデルが自然言語処理の幅広いタスクで高い性能を獲得し、大きな話題となっている。大規模言語モデルは、大規模なテキストデータで訓練された大規模なパラメータで構成されるニューラルネットワーク。2020年以降、自然言語処理や機械学習の知見をもとに、パラメータ数とテキストデータの拡大により、性能が飛躍的に向上した。Hugging Face社の"transformers"というPythonライブラリを利用することで、プログラミングの経験があれば、モデルの操作やデータからの学習が簡単にできる。モデルを訓練するための日本語もしくは日本語を含む多言語のデータセットも充実してきており、すぐに業務に使える実用的なモデルを作ることが可能な時代がやってきた。同書は、大規模言語モデルの理論と実装の両方を解説した入門書。大規模言語モデルの技術や自然言語処理の課題について理解し、実際の問題に対処できるようになることを目指している。理論とプログラミングの双方の側面から、大規模言語モデルに関する情報を提供する。
コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする