楽天AI 3.0、GPT-4o超え
楽天グループは2026年3月17日、国産大規模言語モデル(LLM)「Rakuten AI 3.0」の提供を開始しました。
前世代「Rakuten AI 2.0」の約470億パラメータから一気に約15倍にあたる7,000億パラメータへと拡張し、日本語処理の複数ベンチマークでGPT-4oを上回る性能を実証。
経済産業省とNEDOが推進するGENIACプロジェクトの支援を受けて開発。Hugging Faceで無償公開されており、企業・開発者が商用利用を含めて自由に活用できます。
<関連記事>
楽天、日本語特化の巨大AIモデル公開へ
国産LLMが7,000億パラメータを達成
Rakuten AI 3.0は、楽天グループが国内外で独自開発した大規模言語モデルの第3世代にあたります。モデルの規模を示す「パラメータ数」は約7,000億で、これは日本国内で開発されたモデルとしては最大級の規模です。
歴代のRakutenモデルと比較すると、その成長の大きさがよくわかります。
- Rakuten AI 7B:約70億パラメータ
- Rakuten AI 2.0:約470億パラメータ
- Rakuten AI 3.0:約7,000億パラメータ(前世代比 約15倍)
技術的には「Mixture of Experts(MoE)」と呼ばれるアーキテクチャを採用しています。MoEは、全パラメータを一度に使うのではなく、タスクの種類に応じて必要な専門モジュールだけを選んで処理する仕組みです。これにより、モデルの規模を大きくしながらも処理効率を高く保つことができます。
日本語4項目でGPT-4oを上回った
Rakuten AI 3.0は、日本語能力を測る複数の標準ベンチマークで、OpenAIのGPT-4oを上回るスコアを記録しています。
| ベンチマーク | Rakuten AI 3.0 | GPT-4o |
|---|---|---|
| JamC-QA(日本語QA) | 76.9 | 74.7 |
| MMLU-ProX(日本語) | 71.7 | 64.9 |
| MATH-100(日本語) | 86.9 | 75.8 |
| M-IFEval(日本語) | 72.1 | 67.3 |
特に数学問題を扱う「MATH-100」では、GPT-4oに11ポイント以上の差をつけており、日本語での論理・計算処理において明確な優位性を示しました。文書読解・多肢選択・指示への従い方など、実務で重要な能力でも軒並み高いスコアを記録しています。
対応する主なタスク
Rakuten AI 3.0は、以下のような実務用途に対応しています。
- 文章作成・要約・翻訳
- プログラムコードの生成・解析
- 契約書・報告書などの文書解析
商用利用もできるオープンソース
Rakuten AI 3.0は「Apache 2.0」ライセンスのもと、モデルの重みをHugging Faceで無償公開している。Apache 2.0は商用利用や改変・再配布を許可しており、企業が自社サービスに組み込んだり、研究者が独自にファインチューニング(追加学習)したりすることも可能だ。
国産LLMがこの規模でオープンソース公開されるのは珍しく、日本語に強いモデルを手軽に試したい開発者にとって選択肢が広がる。
GENIACで国が開発を後押し
本モデルの開発には、経済産業省とNEDO(国立研究開発法人 新エネルギー・産業技術総合開発機構)が推進する「GENIAC(Generative AI Accelerator Challenge)」プロジェクトの支援が活用されています。
GENIACは、日本国内における生成AI開発力を強化するための国家的な取り組みで、AI学習に必要な大規模計算資源(GPU等)の費用を補助する仕組みです。
楽天は2025年7月に第3期公募への採択が決定しており、この支援を受けて7,000億規模のモデルの学習を実現。国内企業が大規模AIを自力で育てられる環境が整いつつあることを示す事例です。
まとめ
楽天が発表した「Rakuten AI 3.0」は、7,000億パラメータという国内最大級の規模に達し、日本語ベンチマーク4項目でGPT-4oを上回る性能を示した。Apache 2.0ライセンスで無償公開されており、商用利用を含めて誰でも活用できる点も注目に値する。国の支援を受けた国産大規模モデルとして、日本語AIの実用化をさらに加速させる存在となりそうだ。