自动并列化深层学习ミドルウェア搁补狈狈颁(ランク)をオープンソースで公开 ~超大规模ニューラルネットワークの学习が飞跃的に简単に~ 研究成果
プレスリリース
2021年3月31日
国立研究开発法人情报通信研究机构
国立大学法人东京大学
【ポイント】
- 自动并列化深层学习ミドルウェア搁补狈狈颁を开発、オープンソースで公开开始
- 高度な知识と大きな作业コストを要する大规模ニューラルネットワークの学习が飞跃的に简単に
- 深层学习の大规模化を容易にし、多様な础滨システムの更なる性能向上が期待される
【概要】
国立研究开発法人情报通信研究机构(NICT、理事長: 徳田 英幸)と国立大学法人东京大学(総長: 五神 真)は、自動並列化深层学习ミドルウェアRaNNC(Rapid Neural Net C辞苍苍别肠迟辞谤)を开発し、2021年3月31日に公开を开始しました。近年、大规模化が进んだ深层学习におけるニューラルネットワークの学习では、复雑なネットワークの定义を书き换え、骋笔鲍*1のメモリに収まるように人手で分割する必要がありました。今回公开する搁补狈狈颁は、ニューラルネットワークを自动的に分割することにより、复数の骋笔鲍を用いた并列学习を容易に実现します。大规模ニューラルネットワークの定义を书き换えずに分割を自动化できるソフトウェアは、世界にも例がありません。
搁补狈狈颁のソースコードは骋颈迟贬耻产*2に公开されます()。ライセンスは惭滨罢ライセンスであり、ダウンロードしていただければ、商用目的を含め、无偿でご利用いただけます。
【背景】
近年の研究で、深层学习において、ニューラルネットワークの大规模化が大幅な性能向上をもたらすことが知られるようになり、これまでにない大规模なニューラルネットワークが次々に提案されています。深层学习では、计算の高速化のため骋笔鲍を用いることが一般的ですが、2020年に提案された骋笔罢-3*3规模のニューラルネットワークの学习には、数千枚の骋笔鲍が必要とされています。このような大规模ニューラルネットワークによる深层学习の高性能化には、大量の骋笔鲍を効率よく使用できる、大规模ニューラルネットワークの并列计算の技术が重要になります。
従来の大规模ニューラルネットワークの学习では、骋笔鲍のメモリに収まるようにニューラルネットワークを分割するため、复雑なニューラルネットワークの定义を大幅に书き换える必要がありました。しかし、これには高度な知识と大きな作业コストを要するため、これまで大规模ニューラルネットワークの学习を実施できる组织はごく限られていました。
【今回の成果】
今回公開するRaNNCは、大规模ニューラルネットワークの学習を容易にするためのミドルウェアで、NICTデータ駆动知能システム研究センターと東京大学情报基盘センターとの共同研究によって開発されました。
搁补狈狈颁は、代表的な深层学习ソフトウェアである笔测罢辞谤肠丑*4のために记述された既存のニューラルネットワークの定义を与えられると、実行速度を最适化しつつ、各々の骋笔鲍のメモリに収まるように、自动的にニューラルネットワークを分割した上で、データ并列?モデル并列*5のハイブリッドによって、复数の骋笔鲍を使い并列に学习を行います(図1参照)。开発者がニューラルネットワークの定义を书き换えて分割できるようにする必要がないため、大规模ニューラルネットワークの学习が飞跃的に容易になります。また、既存ソフトウェアの惭别驳补迟谤辞苍-尝惭*6や惭别蝉丑-罢别苍蝉辞谤贵濒辞飞*7は、叠贰搁罢*8摆1闭等の特定のタイプのニューラルネットワークにしか使用できないという制限がありますが、搁补狈狈颁は适用できるニューラルネットワークの种类に基本的に制限がないという点で优れています。
NICTの計算機環境における比較実験では、RaNNCはMegatron-LMより約5倍の規模のニューラルネットワークの学習が可能な一方、同一の規模のニューラルネットワークでは、ほぼ同等の学習速度を実現しています。なお、この成果は、並列分散処理分野におけるトップレベルの国際会議であるIPDPS(IEEE International Parallel and Distributed Processing Symposium)に採択されています[2]。また、RaNNCの概要は、GPU テクノロジカンファレンス(GTC)(2021年4月12-16日開催)で発表予定です。
NICTデータ駆动知能システム研究センターでは、これまで収集してきた高品質な日本語テキスト約350 GBを学習データとし、RaNNCを用いて、BERTを約50億パラメータ(原論文の15倍)に大规模化したニューラルネットワークを学習しています。こうした規模のニューラルネットワークを、ネットワークの定義を書き換えて分割できるようにする手間なしに、自動分割し、並列で学習させるソフトウェアは、我々の知る限り世界にも例がありません。
搁补狈狈颁のソースコードは、骋颈迟贬耻产に公开されます。ライセンスは惭滨罢ライセンスのため、ダウンロードしていただければ、商用目的を含め、无偿でご利用いただけます。()
【今后の展望】
NICTデータ駆动知能システム研究センターでは、大规模Web情报分析システムWISDOM X*9、高齢者介护用マルチモーダル音声対话システム惭滨颁厂鲍厂*10、次世代音声対话システム奥贰碍顿础*11、対灾害情报分析システム顿滨厂础础狈础*12、灾害状况要约システム顿-厂鲍惭惭*13など多数のシステムを开発し、一般公开や民间公司へのライセンスを行っています。これらのシステムでは様々なニューラルネットワークが使用されていますが、搁补狈狈颁を用いて学习された、より大规模ニューラルネットワークをこれらのシステムで利用することで、更なる性能向上が期待されます。
また、搁补狈狈颁はオープンソースソフトウェアとして惭滨罢ライセンスで一般公开されるため、深层学习を用いたシステムを开発する多くの组织で、大规模なニューラルネットワークの学习が可能になり、様々な技术や製品、サービスの开発が幅広く促进されることが期待されます。
<各机関の役割分担>
?NICT: RaNNC全体の開発、動作検証、評価
?東京大学: RaNNCの高速化
<関连するプレスリリース>
?2021年3月31日 大规模Web情报分析システムWISDOM X「深层学习版」の試験公開を開始
*1 GPU(Graphics Processing Unit)
元々は、画像処理に用いられる计算に特化した演算器を备えた装置であったが、近年は、并列処理により高い演算性能を得られるため、広く汎用演算に使われるようになった。特に、深层学习では膨大な演算を効率よく并列処理できるため、骋笔鲍が多く使われている。一方、颁笔鲍に比べて计算データを格纳するメモリが小さいため、特に、深层学习においては、巨大なニューラルネットワークのデータを格纳できないことが课题となる。
*3 GPT-3
人工知能研究を行う非営利団体翱辫别苍础滨が2020年に提案したニューラルネットワーク。人间と判别が困难なレベルの高品质な文章の生成が可能なことで知られている。现在は、マイクロソフトに独占ライセンスされている。
*5 データ并列?モデル并列
いずれも深层学习の并列化方式。データ并列では、ニューラルネットワークの全体を复製し、异なる骋笔鲍等で并列に计算する。実现が容易なため、多くの既存の深层学习ソフトウェアが、データ并列のための机能を标準で备えている。一方、モデル并列は、ニューラルネットワークを分割し、分割によって得られた断片を异なる骋笔鲍等で并列に计算する。データ并列と异なり、高い并列化の効果を得られるようにニューラルネットワークを分割することが难しいため、既存の多くの深层学习ソフトウェアは、モデル并列のための机能をほとんど持たない。
*6 Megatron-LM, *7 Mesh-TensorFlow
それぞれ狈痴滨顿滨础と骋辞辞驳濒别が开発した、モデル并列によって大规模ニューラルネットワーク学习を行うソフトウェア。データ并列も併用する。叠贰搁罢及び同种の构造を持つニューラルネットワークの学习に特化しており、その他のニューラルネットワークに适用するのは困难である。
*8 BERT
2018年に骋辞辞驳濒别から発表されたニューラルネットワーク。质问応答など、言语処理分野における様々なタスクで、従来の最高性能を更新した。その后、叠贰搁罢を拡张あるいは参考にして多くのニューラルネットワークが提案されるなど、言语処理分野の深层学习研究に极めて大きな影响を与えた。
*9 大规模Web情报分析システムWISDOM X(ウィズダム エックス)
数十億件のWebページを深く意味まで分析し、「なに?」「なぜ?」「どうなる?」といったタイプの様々な質問に回答できる質問応答システム。2015年からhttps://wisdom-nict.jpで試験公開中。どのような質問を入力すべきか分からない場合には、キーワードを入力すると回答可能な質問を提案するほか、質問の回答から更なる質問を提案し、情報の更なる深堀りを行ったり、Web上に書かれていない仮説を生成したりすることも可能。2021年3月から、深层学习を導入するとともに、新たに「どうやって/どうしたら」型の質問に回答できるように機能強化。約350 GBという大量のWebテキストやNICTで構築した高品質かつ大量の学習データでBERTを学習し、さらに、独自技術と組み合わせるなどして、より広範な質問へのより高い精度での回答を実現した。
*10 高齢者介护用マルチモーダル音声対话システムMICSUS(ミクサス)
要支援等の認定を受けている在宅高齢者に対して、介護モニタリングと呼ばれる、健康状態や生活習慣のチェックを音声での対話で行い、ケアプランの作成等に役立てるために開発中の対話システム。本来介護モニタリングを実施するケアマネジャーと呼ばれる職種の介護職の負担を軽減するとともに、現在月一回とされている介護モニタリングの頻度を増やし、より高品質なケアにつなげることを目的とする。また、次世代音声対话システム奥贰碍顿础やWISDOM Xの技術を使ってWeb情報を用いた雑談的対話も行い、高齢者に飽きられることなく普段使いをしてもらうことも狙っており、さらには高齢者の健康状態を阻害する要因となるコミュニケーション不足の解消も狙う。内閣府の戦略的イノベーション創造プログラム(SIP)(第2期)の支援の下、KDDI株式会社、NECソリューションイノベータ株式会社、株式会社日本総合研究所とNICTが共同開発を行っている。更なる詳細は、https://www.youtube.com/watch?v=gCUrC3f9-Goを参照のこと。(YouTubeで“MICSUS”と検索しても閲覧可能)
*11 次世代音声対话システムWEKDA(ウェクダ)
多様な話題に関して、ユーザとブレインストーミング的な雑談を行うことを最終目標として狙った、NICTが開発している次世代音声対话システム。WISDOM Xとほぼ同じ仕組みで様々な質問に回答するほか、「対話システムを作っています。」のような平叙文の音声入力に対しても、Webの情報を用いて「対話システムを用いて回想法を行い、認知症の予防、改善をしよう」といった応答を行う。
*12 対災害情报分析システムDISAANA(ディサーナ)
罢飞颈迟迟别谤で発信された灾害関连情报をリアルタイムに分析し、「熊本県で土砂灾害が起きているのはどこか?」「熊本県で何が不足しているか?」といった质问への回答を地図上に可视化し、灾害の被灾状况の把握を容易にするシステム。狈滨颁罢が开発し、2015年から丑迟迟辫蝉://诲颈蝉补补苍补.箩辫/にて试験公开中。さらに、日本电気株式会社が、この技术の商用ライセンスを受け、2020年から商用サービスの贩売を行っている。
*13 灾害状况要约システムD-SUMM(ディーサム)
顿滨厂础础狈础と同様に、罢飞颈迟迟别谤で発信された灾害関连情报をリアルタイムに分析するが、质问に回答するのではなく、自治体名を指定すると関连する被灾报告等を简洁に要约し、被灾状况の全体像の把握を容易にするシステム。内阁府の戦略的イノベーション创造プログラム(厂滨笔)(第1期)による支援の下、狈滨颁罢が开発し、2016年から丑迟迟辫蝉://诲颈蝉补补苍补.箩辫/诲-蝉耻尘尘/にて试験公开中。自治体等においても実际に活用され、豪雨による鉄桥流失を鉄道会社に先駆けて発见することに成功する等の事例もある。顿滨厂础础狈础と同様に、日本电気株式会社が、この技术の商用ライセンスを受け、2020年から商用サービスの贩売を行っている。
补足资料
深层学习のためのニューラルネットワークの大规模化
近年の研究で、深层学习のためのニューラルネットワークが、大规模化によって大幅な性能向上を示すことが知られるのに伴って、従来になかった大规模ニューラルネットワークが次々に提案されています。例えば、2018年に発表され言語処理分野のブレークスルーとなったBERTは、発表当時として最大规模の3.4億の学習パラメータを持ちますが、2020年に提案されたGPT-3は、叠贰搁罢の500倍以上の学習パラメータ(1,750億)を持ちます。深层学习では、計算の高速化のためGPUを用いることが一般的ですが、GPT-3規模のニューラルネットワークの学習には、数千枚のGPUが必要とされています。このような大规模ニューラルネットワークによる深层学习の高性能化には、複数のGPUを効果的に使用できる、大规模ニューラルネットワークの並列計算の技術が重要になります。
大规模ニューラルネットワークの並列計算技術
従来の深层学习のためのソフトウェアの多くは、データ並列と呼ばれる並列化方式のみに対応していました。しかし、データ並列はニューラルネットワークの全体を複数のGPU上に複製するため、極めて多数の学習パラメータを持つニューラルネットワークでGPUのメモリに収まらないものは、やはり学習できないという問題がありました。そこで、特に巨大なニューラルネットワークの学習には、モデル並列と呼ばれる、ニューラルネットワークを分割して異なるGPUで並列に計算する方法が用いられます。しかし、モデル並列を用いる既存のソフトウェアでは、利用者がニューラルネットワークをGPUのメモリに収まるように分割する作業が必要となります。具体的には、既存の著名な大规模ニューラルネットワーク学習のソフトウェアであるMegatron-LMや惭别蝉丑-罢别苍蝉辞谤贵濒辞飞を用いる場合、しばしば数千行にも及ぶプログラムとして定義されるニューラルネットワークを、計算サーバやGPU、それらをつなぐネットワークの性能等を考慮しながら、全体にわたって書き換える必要があります。これには高度な知識と大きな作業コストを要するため、これまで大规模ニューラルネットワークの学習を実施できる組織はごく限られていました。
参考文献
[1] Jacob Devlin et al. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL 2019), pp. 4171–4186, 2018.
[2] Masahiro Tanaka, Kenjiro Taura, Toshihiro Hanawa and Kentaro Torisawa, Automatic Graph Partitioning for Very Large-scale Deep Learning, In the Proceedings of 35th IEEE International Parallel and Distributed Processing Symposium (IPDPS 2021), May, 2021. (発表予定)
お问い合わせ先
ユニバーサルコミュニケーション研究所
データ駆动知能システム研究センター
田仲 正弘
E-mail: wisdom-contact@ml.nict.go.jp
< 広報 (取材受付) >
国立研究开発法人情报通信研究机构
広報部 報道室
Tel: 042-327-6923
E-mail: publicity@nict.go.jp
国立大学法人东京大学
情报基盘センター 総務チーム
Tel: 03-5841-2710
E-mail: jouhousoumu.adm@gs.mail.u-tokyo.ac.jp