生成AI

最終更新日:2024/09/26
Googleは、ハルシネーションに対応するために開発された初のオープンモデル「DataGemma」を、2024年9月13日に発表しました。
このニュースのポイント
Googleは、LLMを基盤としたハルシネーションに対応するために開発された初のオープンモデル「DataGemma」を2024年9月13日に発表しました。
「DataGemma」は「Gemini」の軽量版LLM「Gemma」を基盤に、「Data Commons」の信頼性の高いデータを使って回答するモデルです。「Data Commons」は数十万の統計変数にわたる2400億を超えるデータポイントを含む、公開されているナレッジグラフで、国連(UN)や世界保健機関(WHO)、疫病予防管理センター(CDC)、国勢調査局などの信頼できる組織から習得されています。
また「DataGemmaモデル」は、RIG (Retrieval-Interleaved Generation)とRAG (Retrieval-Augmented Generation)の2つのアプローチを利用し、LLMの事実性と推論を強化しています。
RIGは、信頼できるソースを積極的に照会し、Data Commonsの情報に対してファクトチェックを行うことで、Gemma 2の機能を強化します。
またRAGにより、言語モデルはトレーニング データ以外の関連情報を組み込み、より多くのコンテキストを吸収することでより包括的で有益な出力が可能になります。「DataGemma」は、モデルが応答生成を開始する前に「Data Commons」から関連するコンテキスト情報を取得するため、ハルシネーションのリスクが最小限に抑えられ、応答の精度が向上します。
RIGとRAGを使用した予備調査は初期段階ですが、数値事実処理における言語モデルの精度が向上しており、ユーザーの幻覚経験が減少する可能性が示されています。
Googleは、LLMの信頼性と信頼性を高めることは、AIが人々に正確な情報を提供することで、情報に基づいた意思決定を促進し、世界に対するより深い理解を促す未来を築くための鍵になるとコメントしています。
出典:Google
業務の課題解決に繋がる最新DX・情報をお届けいたします。
メールマガジンの配信をご希望の方は、下記フォームよりご登録ください。登録無料です。
AI製品・ソリューションの掲載を
希望される企業様はこちら