Llamaとは?性能の特徴から使い方まで詳しく解説
最終更新日:2024/10/28
現在、AIを利用しながら少しずつ理解を深めている中で、新しい大規模言語モデルがリリースされると聞いて、その内容がどのようなものであるかを早く知りたいと思う方はいませんか?
より高度な言語理解を実現する大規模言語モデルが進化するほど、生成AIはよりユーザーにとって使いやすくなるといえます。
本記事では、Meta社の新しい大規模言語モデルLlamaの性能から使い方まで詳しく解説します。
Llamaとは
Llama(ラマ)は、Meta社が開発したオープンソースの大規模言語モデル(LLM)です。
一般的なオープンソースの大規模言語モデルでは以下のようなことができます。
- ソースコードが一般公開されているので誰でも自由に使用、改良、再配布ができる
- 自然言語処理(NLP)の技術を用いて人間の言葉を理解し、生成できる
- ファインチューニング(特定のタスクや領域に適応させるためにパラメータを微調整すること)でテキスト分類、感情分析、情報抽出、文章要約、テキスト生成、質問応答などができる
Meta社はLlamaを2023年2月、Llama2を2023年7月に公開し、少しずつその性能を進化させてきました。
Meta社では、Llama3を「最先端のオープンソース大規模言語モデルの次世代版」と位置付けており、その性能や使い方に注目が集まっています。
参考:Meta「Metaとマイクロソフト、 次世代Llamaを発表」
Llama3の性能
2024年4月18日、Meta社より「Meta Llama 3のご紹介:これまでで最も有能でオープンに利用可能なLLM」というタイトルでLlama3の詳細が発表されました。
発表の中で、Meta社はLlama3の近い将来の目標を次の3つとしています。
- 多言語でマルチモーダル(音声や動画などの複数種類のデータを1度に処理できるAI技術)にする
- 一度に処理できるテキストの範囲を広げる
- 推論やコーディングなどのコアLLM機能の全体的なパフォーマンスを継続的に向上させる
この目標を踏まえて、Llama3の性能の特徴を3つ紹介します。
Llama3の仕様
Meta社が公表しているLlama3の仕様は次の通りです。
項目 | 概要 |
モデル | ●8B(軽量で超高速、80億パラメータを持つ) ●70B(高性能で費用対効果が高く700億パラメータを持つ) ●405B(2024年7月23日に発表された最上位モデルで4,050億パラメータを持つ) |
使用可能となるプラットフォーム | ●AWS ●Databricks ●Google Cloud ●Hugging Face ●Kaggle ●IBM WatsonX ●Microsoft Azure ●NVIDIA NIM ●Snowflake |
サポートされている言語 | ●英語 ●ドイツ語 ●フランス語 ●イタリア語 ●ポルトガル語 ●ヒンディー語 ●スペイン語 ●タイ語 |
一度に処理できるコンテキストの長さ | ●128K(128,000トークン分の情報を処理できる) |
またLlama3は、AIモデルのトレーニングを行うために特別に設計された大量の計算能力を持つGPUクラスター(GPUの集まり)で、15兆以上のトークンを用いてトレーニングされました。
それぞれのモデルをトレーニングするために使われたGPUの時間は次の通りです。
モデルの種類 | GPU時間 |
8B | 146万時間 |
70B | 700万時間 |
405B | 3084万時間 |
これらを踏まえLlama 3は、圧倒的な規模と高度なトレーニングを通じて、最先端のAI技術を実現しているといえます。
ベンチマークによる性能評価
画像出典:Meta「Meta Llama 3のご紹介:これまでで最も有能でオープンに利用可能なLLM」
画像出典:Meta「Llama 3.1のご紹介:これまでで最も高性能なモデル」
Meta社では、AIモデルや機械学習システムの性能を評価するための基準や指標となる、ベンチマークを用いて評価したLlama 3の性能を公開しています。
比較に使用されている主なベンチマークの概要は次の通りです。
ベンチマークの種類 | 概要 |
MMLU(Massive Multitask Language Understanding) | テキスト理解や言語処理のパフォーマンスを評価することを目的に設計されており、初等数学、米国史、コンピュータサイエンス、法律といった57種類の課題がある |
GPQA(General Purpose Question Answering) | 大学院レベルの専門的な知識と論理的思考を必要とする質問をすることでAIモデルの性能を評価する |
HumanEval | AIモデルがどの程度プログラムを書けるかを測定する |
GSM-8K | 8.5Kの高品質な言語学的多様性を持つ小学校数学の単語問題 |
MATH(Mathematics Benchmark) | AIモデルの数学的な能力を評価する |
3つのモデルの中でも、最も目を惹く結果を出しているのが8Bで、HumanEval、GSM-8K、MATHの比較で他のAIの2倍以上の数値となっているため、論理的思考に優れ数学的な能力が高いのが特徴的です。
人間による評価
画像出典:Meta「Meta Llama 3のご紹介:これまでで最も有能でオープンに利用可能なLLM」
表は、Llama 3と他のAIモデルをHuman evaluationで比較したものです。
Human evaluationとは、AIや機械学習モデルが生成した結果や応答を人間が評価することを指します。次のような観点から評価が行われることが多いです。
- 正確性
- 関連性
- 流暢さ
- 透明性
- 安全性
- 人間との調和
Llama3は他のAIと比較して半数以上の人が優れていると評価したため、ユーザー体験や使用感に優れているといえます。
Llama3の使い方
Llama 3は「Meta AI」に搭載されていますが、2024年9月現在、日本では画像の通りMeta AIを使うことができません。
そのため、AIプラットフォームでLlama3が搭載されたものを使う必要があります。以下では、主な使い方を3つ紹介します。
Groqでの使い方
2024年7月23日、GroqはLPU AI推論テクノロジーを搭載したLlama 3.1モデルを発売しました。
LPU AI推論テクノロジーを用いることで、Llama3は高速で動作するため、その機能を活用して、ユーザーはより高度で強力なAIアプリケーションを作れるようになります。
OpenAIなどの他のプロバイダからGroqに移行する手順は次の通りです。
- OpenAIエンドポイント互換性を利用して、OPENAI_API_KEYをGroqのAPIキーに設定する
- ベースURLを設定する
- モデルを選択して実行する
Groqを通じてLlama3を使うのは、AIモデルを研究したり、新しいAI製品の開発に取り組んだりしている人におすすめです。
Hugging Faceでの使い方
Hugging Faceでは8B、70B、405Bそれぞれにデモ画面が準備されているので、まずはそこから試してみるとよいでしょう。
Hugging Faceを通じてLlama3を使うのは、難しいコードを書かずに8B、70B、405Bそれぞれの違いを比較検討してみたい人におすすめです。
Amazon Bedrockでの使い方
Amazon Bedrockは、AIや機械学習モデルの構築や導入を簡単にするためのプラットフォームですが、8B、70B、405Bいずれも使用できます。
Amazon Bedrock コンソールでMetaのLlama 3.1モデルをテストする場合の手順は次の通りです。
- 左側のメニューペインの「プレイグラウンド」で「テキスト」または 「チャット」を選択
- 「モデルを選択」をクリック
- カテゴリで 「Meta」を選択
- モデルで 「Llama 3.1 8B Instruct」「Llama 3.1 70B Instruct」「Llama 3.1 405B Instruct」のいずれかを選択
Amazon Bedrockを通じてLlama3を使うのは、AIや機械学習モデルの構築・導入・運用をより効率的に行いたい人におすすめです。
Llama3、ChatGPT、Geminiの違い
Llama3、ChatGPT、Geminiそれぞれの違いは次の通りです。
項目 | ●Lama3 | ●ChatGPT | ●Gemini |
提供元 | ●Meta | ●OpenAI | |
分類 | ●大規模言語モデル | ●生成AI | ●生成AI |
主な機能 | ●自然言語処理 ●生成 ●翻訳 ●要約 |
●会話生成 ●質問応答 ●文章生成 |
●自然言語処理 ●生成 ●理解 ●質問応答 |
特徴 | ●高性能 ●オープンソース |
●自然な会話ができる ●継続的に学習する |
●マルチモーダルモデル ●Googleの他のサービスと連携しやすい |
対応言語 | ●英語 ●ドイツ語 ●フランス語 ●イタリア語 |
●80以上に対応 | ●40以上に対応 |
価格 | 100万トークンあたりの公開価格 | 無料以外に3種類の料金プランあり | 無料と有料のプランあり |
AIユーザーであれば耳にしたことのあるものばかりですが、それぞれでできることや特徴が異なります。
Llamaを日本語で利用するのにおすすめの日本語継続事前学習モデル
Llama3はそのままでも日本語で使うこと自体は可能ですが、よりスムーズに使いたければ日本語継続事前学習モデルの導入がおすすめです。以下、モデルを3つ紹介します。
Llama 3 Youko 8B
2024年4月に、rinna株式会社が発表したのがLlama 3 Youko 8Bで、8Bに対して日本語と英語の学習データ220億トークンを用いて継続事前学習したモデルです。
rinnaでは、日本語言語モデルの性能を評価するためのベンチマークの一つであるStability-AI/lm-evaluation-harnessで8BとLlama 3 Youko 8Bを比較したところ、9タスク平均スコアは8Bが59.82だったのに対し、Llama 3 Youko 8Bは66.15でした。
Llama 3 Youko 8Bは、軽量で超高速な8Bを日本語で運用したい人におすすめです。
Llama-3-Swallow
2024年7月1日に、東京工業大学と国立研究開発法人産業技術総合研究所が共同開発をして発表したのがLlama-3-Swallowです。
Llama-3-Swallowは継続事前学習を施し、高い日本語性能と英語性能の両方を持つモデルとして開発され、今までの知見を生かし日本語性能を効率的に向上させつつ英語性能を損ねないように配慮されています。
8Bと70Bに対応していますが、東京工業大学と国立研究開発法人産業技術総合研究所ではまだ研究課題はたくさんあるため、今後もより日本語に強いモデル開発に取り組むとしています。
Llama-3-Swallowは、日本語と英語の両方をバランス良く使いながらLlama 3を運用したい人におすすめです。
cyberagent/Llama-3.1-70B
cyberagent/Llama-3.1-70Bは、2024年7月26日に株式会社サイバーエージェントが発表した70B対応の日本語継続事前学習モデルで、HuggingFaceからダウンロードでき、無料で使えて商用利用もできるのが特徴的です。
Llama 3の発表からわずか2日後に公開されたため、SNSなどでもその早さに驚きの声が上がりました。
cyberagent/Llama-3.1-70Bは、コストをかけずに新しいAIサービスを開発したい人におすすめです。
まとめ
Llamaは、Meta社が開発したオープンソースの大規模言語モデルです。
まだ日本ではMeta AIを通じて使うことはできませんが、8B、70B、405Bと種類が増え、日本語継続事前学習モデルの開発も行われているため、今後さらなる進化が期待できます。
本記事も参考にして、Llamaに対する理解を少しずつ深めてみることをおすすめします。
業務の課題解決に繋がる最新DX・情報をお届けいたします。
メールマガジンの配信をご希望の方は、下記フォームよりご登録ください。登録無料です。
AI・人工知能記事カテゴリ一覧
AI・人工知能サービス
- 生成AI
- 画像生成AI
- ChatGPT
- AI研究開発
- LLM
- DX推進
- おすすめAI企業
- チャットボット
- ボイスボット
- 音声認識・翻訳・通訳
- 画像認識・画像解析
- 顔認証
- AI-OCR
- 外観検査
- 異常検知・予知保全
- 自然言語処理-NLP-
- 検索システム
- 感情認識・感情解析
- AIモデル作成
- 需要予測・ダイナミックプライシング
- AI人材育成・教育
- アノテーション
- AI学習データ作成
- エッジAI
- IoT
- JDLA
- G検定
- E資格
- PoC検証
- RPAツール
- Salesforce Einstein
- Watson(ワトソン)
- Web接客ツール
- サプライチェーン
- メタバース
- AR・VR・デジタルツイン
- MI
- スマートファクトリー
- データ活用・分析
- 機械学習
- ディープラーニング
- 強化学習
- テレワーク・リモートワーク
- マーケテイングオートメーション・MAツール
- マッチング
- レコメンド
- ロボット
- 予測
- 広告・クリエイティブ
- 営業支援・インサイドセールス
- 省人化
- 議事録自動作成
- 配送ルート最適化
- 非接触AI
業態業種別AI導入活用事例
今注目のカテゴリー
AI製品・ソリューションの掲載を
希望される企業様はこちら