DXを推進するAIポータルメディア「AIsmiley」| AI製品・サービスの比較・検索サイト
03-6452-4750 10:00〜18:00 年末年始除く

日経新聞、経済情報特化LLM「NiLM」を開発。約40年分の記事データを元に学習

最終更新日:2024/05/13

日経新聞は、経済情報に特化したLLM「NIKKEI Language Model」を開発しました。最大で130億パラメーターの独自の事前学習モデルと最大700億パラメーターモデルをファインチューニングしたLLMの2つを発表しています。

このAIニュースのポイント

  • 日経新聞が、経済情報特化のLLMを開発
  • 二つのモデルを発表し、自社保有のデータのみを学習に使用
  • 研究開発は今後も継続し、性能改善や課題に対する検証を進めていく

株式会社日本経済新聞社の研究開発部署である日経イノベーション・ラボは、経済情報に特化したLLM「NIKKEI Language Model」を開発しました。日経グループが著作権や使用権を有する記事のみを使用した、日本の経済情報に専門特化した最大級の言語モデルです。

最大で130億パラメーターの独自の事前学習モデルと最大700億パラメーターモデルをファインチューニングしたLLMの2つを発表。独自事前学習モデルは、インターネット上の公開情報は利用せず、約40年分の日本経済新聞や日経産業新聞、日経MJ、日経ヴェリタス、NIKKEI Prime、日経BPの各媒体など、日本経済新聞社グループが著作権や使用権を持つ記事のみを使用し、日本の経済情報に専門特化した言語モデルです。

また、最大700億パラメーターのモデルをファインチューニングしたLLMの開発も完了しており、記事の要約や最新ニュースに関する知識など社内独自タスクにおける性能改善も確認しています。本モデルは、MetaのLlama 2の700億パラメーターモデルやLlama 3の80億パラメーターモデルなどをベースにデータを追加学習させている。

また、最大700億パラメーターのモデルをファインチューニングした大規模言語モデル(LLM)の開発も完了。記事要約や最新ユースに関する知識など、社内の独自タスクにおいて性能改善を確認した。また、MetaのLlama 2の700億パラメーターモデルやLlama 3の80億パラメーターモデルなどをベースにデータを追加学習させています。

現在学習に利用している記事のみでも、WikipediaやCommon Crawlなどのデータセットを用いずに、日本語コーパスのトークン量は約1兆規模に達しています。今後も日経新聞は、自らのデータを用い、継続的な情報更新が可能なモデルの作成・研究開発を継続し、性能改善や課題に対する検証を進めていく方針です。

出典:日本経済新聞

aismiley

株式会社アイスマイリーが運営するAIポータルメディア「AIsmiley」は、AIの専門家によるコンテンツ配信とプロダクト紹介を行うWebメディアです。AI資格を保有した編集部がDX推進の事例や人工知能ソリューションの活用方法、ニュース、トレンド情報を発信しています。

・Facebookでも発信しています
@AIsmiley.inc
・Xもフォローください
@AIsmiley_inc

メルマガに登録する

AIサービス
生成AI
AI研究開発
LLM
DXトレンドマガジン メールマガジン登録

業務の課題解決に繋がる最新DX・情報をお届けいたします。
メールマガジンの配信をご希望の方は、下記フォームよりご登録ください。登録無料です。

お名前 - 姓・名

お名前を入力してください

メールアドレス

メールアドレスを入力してください

AI・人工知能記事カテゴリ一覧

今注目のカテゴリー

ChatGPT連携サービス

チャットボット

画像認識・画像解析

需要予測

ChatGPT連携サービス

チャットボット

画像認識・画像解析

需要予測

AI活用のご相談したい企業様はこちら

03-6452-4750

AI製品・ソリューションの掲載を
希望される企業様はこちら