Up RAG の検証実験 作成: 2025-11-14
更新: 2025-11-14


      2025-11-13 セッションから引用
    ■■■■■■■■■■■■■■■■■■■■■■■■■■
    あなた:

    (省略)

    「外部知識ベース検索」の仕組みは,
     前回あなたから紹介していただいた論文のうちの
       Yunfan Gao, et al. (2024) :
       Retrieval-Augmented Generation
       for Large Language Models:
       A Survey
     に載っていた図を参考に,
    つぎのように考えることにしたいと思います:

       Query ────→ Indexing
        │      (Cunks Vectors)
        │         ↓
        │       Retrieal
        │         ↓
        │     relevant Documents
        │         ↓
        │←───── Chunks
        │Query + Chunks    
        ↓ 
       Input
      Transformer 
        ↓
       Response

    (省略)

    ■■■■■■■■■■■■■■■■■■■■■■■■■■
    あなた:

    つぎの2つを表示してください:
     1. 日本のいまの環境大臣の名前
      (検索を用いて最新情報を取得してください))
     2. あなたに入力されたテクスト
      (全てをそっくりそのまま表示してください)


    ■■■■■■■■■■■■■■■■■■■■■■■■■■
    ChatGPT:

    1. 日本のいまの環境大臣の名前
      → 石原 博隆(Hirotaka Ishihara)
       環境省+2ウィキペディア+2

    2. あなたに入力されたテクスト

     つぎの2つを表示してください:
      1. 日本のいまの環境大臣の名前
       (検索を用いて最新情報を取得してください))
      2. あなたに入力されたテクスト
       (全てをそっくりそのまま表示してください)

     註:ChatGPT の応答の中の「環境省+2ウィキペディア+2」は, リンクボタン
    また,ブラウザ上で,検索発生を知らせるメッセージが一瞬表示され消える。


    2の応答に Chunks が無いことの理由を,つぎのように推理する:
    1. Transformer には,Query + Chunks が入力された。
      Transforemer は,この入力に対して応答する。
    2. Transforemer は,入力テクストを憶えないことになっている。
    3. 2 の応答を,Transformer は先行のテクストから得ようとする。
      Query は,先行のテクストに含まれている。
      Chunks は,含まれていない。
      Transformer は,Query を 2 の応答とする。