リコーは4月3日、米OpenAIのAIモデル「GPT-4o」と同等の日本語性能を持つLLMを開発したと発表した。複数の学習済みのAIモデルを組み合わせ、より性能の高いモデルを作る手法「モデルマージ」で開発。700億パラメータを持っており、企業の「プライベートLLM」に活用できるという。
モデルのベースは、東工大などが開発した日本語LLM「Llama-3.3-Swallow-70B-v0.4」。米Metaがユーザーの指示に従って動作するよう訓練した「Instructモデル」から、「Chat Vector」(AIモデルから指示に従う能力だけを抽出したベクトル)を抽出。リコーが開発したモデルから取り出したChat Vectorとマージし、性能を高めたという。
性能の評価には、複雑な指示やタスクを含む日本語ベンチマーク「ELYZA-tasks-100」と、日本語の対話能力を測るベンチマーク「Japanese MT-Bench」を使用した。2つのベンチマークの平均スコアを出したところ、今回リコーが開発したLLMは、GPT-4oと同等のスコアを示したという。
リコーは「高性能でありながら、省コスト・省リソースを実現した」とアピール。オンプレミスで顧客データを追加学習できるプライベートLLMとして、企業への導入に活用する方針だ。
Copyright © ITmedia, Inc. All Rights Reserved.
続きを読むには、コメントの利用規約に同意し「アイティメディアID」および「ITmedia AI+メールマガジン」の登録が必要です