All Articles

MRKL の論文を読んだメモ

MRKL Systems: A modular, neuro-symbolic architecture that combines large language models, external knowledge sources and discrete reasoning」を読んだメモです。

[v1] Sun, 1 May 2022 11:01:28 UTC (2,143 KB)

2022 年 5 月の論文です。

1 Introduction

LLM の欠点が以下のようにまとめられている。

  1. 最新情報にアクセスできない
  2. 独自の情報源にアクセスできない
  3. 計算などのある種の推論が苦手
  4. モデルの爆発

    • この項目は、さまざまなタスクをこなせるモデルを作るには計算リソースなどが大量に必要で困難、といった意図に読める。
    • この論文は 2022 年 5 月時点なので、GPT-3.5 や GPT-4 を踏まえていない意見に見える。

The solution we offer takes the form of a flexible architecture dubbed the Modular Reasoning, Knowledge and Language (MRKL, pronounced “miracle”) system, whose high-level design is depicted below.

MRKL は、柔軟なアーキテクチャのことだと書かれている。

Thus a MRKL system consists of an extendable set of modules, which we term ’experts’, and a router that routes every incoming natural language input to a module that can best respond to the input (the output of that module can be the output of the MRKL system, or be routed to another module). These modules can be:

MRKL に登場する要素として、experts や router という単語が出ている。

Grounding の汎用的なアプローチ、ということに見える。

3 Crossing the neuro-symbolic chasm: A calculator test case

3.1 Arithmetic as a test case for chasm crossing

Note that we limit their role to extracting the right arguments for the symbolic calculator, not performing the calculation itself.


Function calling などの原型のようなアプローチだと捉えられそう。

3.2 Training Jurassic-X to extract the arguments for basic arithmetic


MRKL 自体はかなり汎用的(たとえば RAG なども含む)が、この論文だけは算術のみを検証している模様。


現在 LLM を使った AI エージェントのしくみの原型が提案されているように見えた。

LLM を使った AI エージェントの Survey などを見て、もう少し歴史的な流れをおさえておきたいと思った。