楽天、日本語に最適化した新たなAIモデルを発表

楽天グループ(楽天)は18日、Mixture of Experts(MoE)(*1)アーキテクチャを採用した新しい日本語大規模言語モデル(LLM)「Rakuten AI 2.0」と、楽天初の小規模言語モデル(SLM)「Rakuten AI 2.0 mini」の2つのAIモデルを発表した。両モデルは、AIアプリケーションを開発する企業や技術者などの専門家を支援することを目指しており、来春を目途にオープンソースコミュニティに向けて公開予定。

「Rakuten AI 2.0」は、2024年3月に公開した日本語に最適化した高性能なLLMの基盤モデル「Rakuten AI 7B」を基に開発した8x7BのMoE基盤モデル(*2)。本LLMは、8つの70億パラメータで構築した「エキスパート」と呼ばれるサブモデルで構成されている。トークンはルーターによって選定された最も適した2つの「エキスパート」に処理される。それぞれの「エキスパート」とルーターは共に高品質な日本語と英語の言語データを用いた継続的な学習を行っている。

楽天が初めて開発したSLM「Rakuten AI 2.0 mini」は、15億パラメータの基盤モデル。本SLMは、内製の多段階データフィルタリング、アノテーションプロセスを通じてキュレーションおよびクリーンアップされた広範な日本語と英語のデータセットで最初から学習されており、テキスト生成において高性能かつ高精度な処理を実現している。

「Rakuten AI 2.0」は、入力トークンに対して最も関連性の高い「エキスパート」を動的に選択する高度なMoEアーキテクチャを採用しており、計算効率と性能を最適化する。本LLMは、8倍規模の高密度モデルに匹敵する性能を発揮するが、消費計算量においては1/4程度に抑えることができる。

(*1)Mixture of Expertsアーキテクチャは、モデルが複数のサブモデル(エキスパート)に分割されているAIモデルアーキテクチャ。推論および学習中は、最も適したエキスパートのサブセットのみがアクティブ化され、入力処理に使用されることで、より汎用的で高度な推論を行うことができる。
(*2)基盤モデルは、大量のデータで事前学習され、その後特定のタスクやアプリケーションに微調整できるモデル。

関連URL

楽天グループ

関連記事

注目記事

  1. 2025-1-22

    LandSkip、窓×AIで「思い出を映す窓」を提供開始

    デジタル窓/バーチャルウィンドウ事業を展開するランドスキップ(LandSkip)は20日、生成AIを…
  2. 2025-1-20

    NVIDIA、業界のリーダーと提携しゲノミクス・創薬・ヘルスケアを推進

    NVIDIAは17日、エージェント型 AI および生成 AI の活用によって創薬の加速、ゲノム研究の…
  3. 2025-1-15

    ヴィリング、「CareTEX東京’25」障害福祉サービス展にAIセラピスト「co-mii」を出展

    ヴィリングは、2025年2月3日(月)~5日(水)に東京ビッグサイトで開催される「CareTEX東京…
  4. 2025-1-10

    ビバリーグレンラボラトリーズ、「AI ×スキンケア」新サービス「グレンナ」70店舗で展開

    浸透テクノロジーコスメの「ビーグレン」を展開するビバリーグレンラボラトリーズは9日、従来のBOT型チ…
  5. 2025-1-7

    コーレ、AIエージェントを知る・使う・作るまで一気通貫で学べる「AIエージェント研修」提供開始

    AIとビジネスをつなぐAIコネクティブカンパニーのコーレは7日、最新の生成AI技術を活用し、社員がA…

カテゴリー

最近の投稿

ページ上部へ戻る