機械学習関連技術の一つであるMLOpsプラットフォームを提供するWeights & Biases Japan株式会社(以下W&B社)は大規模言語モデル(LLM)の開発や、既存モデルのカスタマイズ活用を検討している企業向けホワイトペーパーの日本語版を5/9に公開しました。
まずW&B社の紹介として、同社が提供するWeights & Biases(社名と同名、以下wandb)はMLOpsワークフローツールの一つとして著名で、商用利用以外でも個人の学習・趣味用途や機械学習コンペ(Kaggle等)参加者等に幅広く利用されています。僕個人としても他のMLOpsツールであるNeptune.aiやClearML、MLflow等と比較利用する際にwandbは結構使っていますし、機械学習フレームワーク側が正式サポートしているMLOpsツールとしては恐らくwandbが一番多いのではないでしょうか。例えば画像系だとYOLOフレームワークはwandbサポートが活発で、APIキーを設定するだけで全自動でワークフローを生成してくれます↓。
Webエンジニアに一般的によく知られているというわけでは無いとは思いますが、少なくとも機械学習に携わるエンジニアからの信頼は高い企業の一つだと思います。そんなW&B社が近年話題のLLMを活用/作成するためのベストプラクティスを公開しました。しかも日本語版として提供しているというのはなかなか画期的なのではないでしょうか。こちらは先日に行われたAI・人工知能Expoでも配布された資料のようです。
分量としては、A4サイズで23ページということで重厚長大というわけではなく、重要なエッセンスが過不足無く抽出された内容になっていると思います。機械学習の背景のあるエンジニアであれば集中して1日で読めますし、マネージャー職の方でも技術的内容を都度調べながらであれば読める内容になっています。むしろ今後は企画職やマネージャとして意思決定権を持つ方は理解しておいた方が良い分野かと思います。
LLM活用・作成のアプローチ
本資料では商用LLM活用・作成のアプローチとして以下の3パターンについて説明しています。
- 既存の商用API利用したLLMの活用
- 既存のOSSを利用したLLM基盤モデルのチューニング
- 自前または外部支援を受けてLLMの学習
多くの中小企業においては1.の方法を採るのが経済面でも現実的ではありますが、みんな同じモノを使っても差別化による価値創出は難しいですし、国内の技術力低下を防ぎたいと思う方々は2.か可能であれば3.の戦略を一生懸命考えているところかと思います。本資料ではこの3パターンのメリット・デメリットを簡潔に整理しており、このセクションはエンジニアよりもむしろ意思決定や予算執行の実務を行うマネージャーの方々が読んだ方が良い内容になっています。
スケーリング法則
LLMのモデルサイズとデータサイズの関係をスケーリング法則と題して、DeepMindの主張をデータに基づいて解説しています。LLMを学習する前に、データセットサイズとモデルサイズの最適な組み合わせを求めるタスクが必要ということになります。これはモデル精度だけで求めるのではなく、学習に必要な時間や推論時のレイテンシ要件等にも基づいて決定しなければならないとのことです。
ハードウェア
ハードウェアのセクションは具体的なモデル学習に必要なハードウェア要件や学習時のテクニックなど、モデル学習の実務に近い内容となっているので、モデリングを担当するエンジニアには特に参考になるセクションとなっています。学習の並列化テクニック(データ・テンソル・パイプライン並列化,非同期最適化,勾配累積,マイクロバッチング等)はLLM以外にももちろん適用できるので、ある程度大きなモデルを学習する機会のある人には有用な内容かと思います。
データセット
悪いデータは悪いモデルに繋がるということで、高品質かつ大量・多様なデータセット構築の重要性を説明しています。また、データ前処理(データクリーニング,データリーケージ等)やトークン化手法など自然言語処理固有の内容も解説されています。LLMの土台となる要素技術なのでけっこう細かく分類と解説がされており、僕個人としては普段は画像系モデルを作ることが多いので知らなかった内容も多くて自然言語処理の良い教材になりました。
モデル学習・評価
LLM学習におけるモデルのアーキテクチャ比較やハイパーパラメータ探索に関する知見がまとめられています。バッチサイズや正規化、学習率、オプティマイザ、データ拡張等の機械学習全般で語られる基本的な学習テクニックについても整理されているので、機械学習初学者にも有用な内容かもしれません。
また、モデル評価については言語タスクにおける様々なベンチマーク(QA,穴埋め・補完,コンテキスト読解,翻訳等)の分類や、社会適用の際に重要な課題であるバイアスと有害性(ヘイトスピーチや差別表現等)についても解説されています。
チューニング手法については、LLMならではのインストラクションチューニング(指示チューニング)や強化学習手法であるRLHF(Reinforcement Learning from Human Feedback)について丁寧に解説されています。思考の連鎖(Chain of Thought)という考え方は従来のチューニング手法には出てこない概念なので個人的には新鮮で面白く読めました。もしかしたら幼少期の育児にも適用できるのではと妄想したりしました。
おわりに
以上、「LLMをゼロからトレーニングするためのベストプラクティス」についてざっくりと内容をカテゴリ分けして簡単な紹介をしました。実際の資料は細かく目次分けされているので、一気に読むのが難しい場合でもセクション単位で読み進めやすい構成になっています。注意点としてはLLM自体の理論詳細は解説していませんので(付録に概要解説がある程度)、LLM/Transformers自体を学びたい場合は別の教材が必要です。
資料内で紹介されているハードウェア要件を見ればわかると思いますが、個人の趣味や学生の勉強用途ではなくビジネス導入を目的とした大人向けの内容になっています。LLM学習はかなり体力が必要な取り組みにはなりますが、必ずしも大企業のみがターゲットになっているわけではなく、日本市場の中小企業の方々にも是非挑戦して欲しいというメッセージ性を感じました。外向けのビジネスに適用することはできなくても、内部の業務改善に活用する程度なら難しくはないと思うので、なるべく早めに検討・検証を進めた方が良いとは思います。
僕個人としてはLLM以前にTransformers系モデルに関する知識と実務経験がまだまだ少ないので、しばらくは自然言語処理技術と併せて学習と実践を重ねていくつもりですが、LLMの開発に携われる機会がもし訪れたら挑戦してみたいと思います。