生成AI

最終更新日:2025/12/26
楽天 最大規模の日本語LLM発表
楽天は、日本の生成AIの開発力強化を目的としたGENIACプロジェクトの一環として開発した、新たなAIモデル「Rakuten AI 3.0」を発表しました。
このニュースのポイント
楽天グループ株式会社は、経済産業省および国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)が推進する、日本の生成AIの開発力強化を目的としたGENIACプロジェクトの一環として開発した、新たなAIモデル「Rakuten AI 3.0」を発表しました。
生成AI APIを統合した開発用プラットフォーム「Rakuten AIゲートウェイ」の生成AI API群に加わり、「Rakuten AI」エージェントプラットフォームを通じて楽天のサービスに順次導入予定です。また2026年春頃を目安に、オープンウェイトモデルとしての公開も計画されています。
本モデルは、Mixture of Experts(MoE)アーキテクチャを使用した日本語大規模言語モデル(LLM)です。日本語に特化したLLMとして、楽天がこれまでに開発してきたAIモデルや他LLMの中でも最大規模となる約7,000億個のパラメータを持ちます。
計算効率を高めるため、約7,000億個のパラメータのうち、個々のトークンに対して約400億個のパラメータのみをアクティブ化しています。各トークンは常にアクティブな「共有エキスパート」と8つの「専門エキスパート」を経由する構造により、効率的な処理を行うことが可能です。
Rakuten AI 3.0 (LLM) と日本語に特化した主なモデルの比較
| モデル名 | パラメータ数 | アクティブパラメータ数 | MT-Benchスコア(日本語) |
| Rakuten AI 3.0 | 約700B | 約40B | 8.88 |
| gpt-4o | 非公開 | 非公開 | 8.67 |
| shisa-v2-llama3.1-405b | 405B | 405B | 7.54 |
| Stockmark-2-100B-Instruct-beta | 100B | 100B | 7.48 |
| Llama-3.3-Swallow-70B-Instruct-v0.4 | 70B | 70B | 6.51 |
| plamo-2.1-prime | 非公開 | 非公開 | 7.85 |
| ABEJA-Qwen2.5-32b-Japanese-v1.0 | 32B | 32B | 8.04 |
| qwen2.5-bakeneko-32b-instruct | 32B | 32B | 8.01 |
Rakuten AI大規模言語モデル比較
| モデル名 | パラメータ数 | アクティブパラメータ数 | MT-Benchスコア(日本語) |
| Rakuten AI 3.0 | 約700B | 約40B | 8.88 |
| Rakuten AI 2.0 (8x7B-instruct) (注8) | 8x7B(47B) | 13B | 6.79 |
| Rakuten AI 7B | 7B | 7B | 4.35 |
「Rakuten AI 3.0」は、基盤モデルの会話能力と指導追従能力のファインチューニングを行ったことで、最高水準の日本語性能を達成しています。
オープンソースコミュニティ上の優良なモデルを基に、楽天独自の高品質なバイリンガルデータ、技術力および研究成果により開発を行い、日本独特の言語ニュアンスや文化、習慣をより深く理解できます。
パフォーマンスと効率性のバランスにも優れ、「楽天エコシステム(経済圏)」のサービスを支える試験において他社の同規模モデルを使用した場合と比較し、最大90%のコスト削減を実現しています。
楽天は、今後も豊富なデータと最先端のAI技術の活用を通じて、世界中の人々へ新たな価値創出を目指すとしています。
出典:楽天グループ株式会社
業務の課題解決に繋がる最新DX・情報をお届けいたします。
メールマガジンの配信をご希望の方は、下記フォームよりご登録ください。登録無料です。
AI製品・ソリューションの掲載を
希望される企業様はこちら