Up 応答する 作成: 2023-06-29
更新: 2025-06-29


    Transformer 脳は,テクストの糸をつくれるまでに成長したとろで, 「応答」の学習に入る。


    この学習から, [ p_1, ‥‥, p_m ] は,
       p_m : 「x_m のつぎは<EOS>」
    ではなくなる。
    即ち,「応答」学習のゴールは,
       p_m : 「x_m のつぎは y」
    がつぎのようになることである:
      質問テクストのトークン点列
        [ x_1, ‥‥, x_m ]
      に対し,
       [ x_1, ‥‥, x_m ]
        → [ p_1, ‥‥, p_m ]
          p_m : 「x_m のつぎは y_1」
       [ x_1, ‥‥, x_m, y_1 ]
        → [ p_1, ‥‥, p_m, p_(m+1) ]
          p_(m+1) : 「y_1 のつぎは y_2」
          :
      と生成したとき,
         [ y_1, y_2, ‥‥ ]
      は,良質な応答テクストのトークン点列になっている。
    ChatGPT は,これを出力する。