DXを推進するAIポータルメディア「AIsmiley」| AI製品・サービスの比較・検索サイト
03-6452-4750 10:00〜18:00 年末年始除く

rinna、日本語継続事前学習モデル「Llama 3 Youko 8B」を公開

最終更新日:2024/05/13

rinnaは、日本語特化モデル「Llama 3 Youko 8B」を公開しました。Llama 3の優れた性能が日本語で引き継がれます。

このAIニュースのポイント

  • rinnaが、日本語特化モデル「Llama 3 Youko 8B」を公開。Llama 3の優れた性能を日本語で継承
  • 80億パラメータのLlama 3 8Bに対し、日本語と英語の学習データ220億トークンで事前学習
  • 汎用的モデルとして提供。特定タスク向けにはファインチューニングやモデルマージが推奨

rinna株式会社は、Llama 3 8Bに対して日本語データで継続事前学習を行った「Llama 3 Youko 8B」を開発し、Meta Llama 3 Community Licenseで公開したと発表しました。

AI技術の発展の中で、Meta社のLlama 3やMicrosoft社のPhi-3、Apple社のOpenELMといった、高いテキスト生成能力を持った大規模言語モデルが利用しやすいライセンスで公開されてきました。しかし、これらのモデルは英語が学習データの大多数を占め、日本語のテキスト生成は可能であるものの、英語と比較すると十分な性能を発揮することができません。

そこでrinnaは、Llama 2やQwenの日本語事前学習で得られた知見を活かし、英語圏の進展に追随するために、Llama 3の日本語継続事前学習モデル「Llama 3 Youko 8B」を開発・公開しました。

「Llama 3 Youko 8B」は、80億パラメータのLlama 3 8Bに対し、日本語と英語の学習データ220億トークンを用いて継続事前学習したモデルです。名前の由来は、妖怪の「妖狐」からきています。

日本語言語モデルの性能を評価するためのベンチマークの一つである Stability-AI/lm-evaluation-harnessの9タスク平均スコアはLlama 3が59.82であるのに対し、Llama 3 Youko 8Bは66.15となっており、Llama 3の優れた性能を日本語に引き継いでいます。

また、本モデルは汎用的なベースモデルであるため、目的とするタスクで利用する場合には、ファインチューニングやモデルマージを行うことが推奨されています。

rinnaは「今後もAIの社会実装を進めるために研究開発を続け、研究成果の公開や製品への導入を行っていく」とコメントしています。

出典:PR TIMES

aismiley

株式会社アイスマイリーが運営するAIポータルメディア「AIsmiley」は、AIの専門家によるコンテンツ配信とプロダクト紹介を行うWebメディアです。AI資格を保有した編集部がDX推進の事例や人工知能ソリューションの活用方法、ニュース、トレンド情報を発信しています。

・Facebookでも発信しています
@AIsmiley.inc
・Xもフォローください
@AIsmiley_inc

メルマガに登録する

DXトレンドマガジン メールマガジン登録

業務の課題解決に繋がる最新DX・情報をお届けいたします。
メールマガジンの配信をご希望の方は、下記フォームよりご登録ください。登録無料です。

お名前 - 姓・名

お名前を入力してください

メールアドレス

メールアドレスを入力してください

AI・人工知能記事カテゴリ一覧

今注目のカテゴリー

ChatGPT連携サービス

チャットボット

画像認識・画像解析

需要予測

ChatGPT連携サービス

チャットボット

画像認識・画像解析

需要予測

AI活用のご相談したい企業様はこちら

03-6452-4750

AI製品・ソリューションの掲載を
希望される企業様はこちら