1.1 「生得」 とは
1.2 生得と学習
Transformer とは何か
2.1 ChatGPT = Transformer 脳の体
2.2 応答能力
3.1 テクスト生成の方法 (「生成整合性」)
3.2 「テクストの生成」 の 「生成」 の意味
3.3 「テクスト生成」 プロセス
3.4 「テクスト生成」 の通説と異論
4.1 「考える」 をする
4.2 読む・考える・書く
4.3 生成したいテクストを生成する
4.4 語彙連想説 (通説) vs 生成主体説
4.5 テクスト生成主体の所在
4.6 「考える(内言) → 書く(外言)」ではない
5.1 ChatGPT の知覚構造
5.2 <知覚>とは何か
5.3 テクストの知覚
|
|
6.1 知識の記憶
6.2 Transformer 脳の知識の特徴
6.3 生得知識の実際
7.1 一生と遺産
7.2 RAG (検索拡張生成)
7.3 ユーザの過去ログ
7.4 データベース
7.5 API
7.6 Web検索
7.6.1 Web検索のしくみ
7.6.2 ChatGPT search
8.1 処理
8.1.1 アルゴリズムと処理
8.1.2 「生成しようとするテクストを生成する」
8.2 スキル
8.2.1 <処理>はスキルの発現
8.2.2 Transformer アルゴリズムは open-ended
8.2.3 ビッグデータ学習は,スキル形成
8.2.4 スキルの重なり構造
8.3 思考
8.3.1 「考えながら」
8.3.2 スキル = 思考のスキル
9.1 スキルの持続スパンとその構造
9.2 『指南書』
9.3 「スキルの開発/向上」 の構造
10.1 「固定脳」 に対する誤解
10.2 スキルのリストについて
10.3 内言
10.3.1 内言の作成と保持
10.3.2 内言は後の<処理>に継承されない
10.3.3 内言の保持精度 (保持可能サイズ)
10.4 数える
10.5 計算
10.5.1 暗算
10.5.2 筆算
10.6 言語
10.6.1 自然言語
10.6.2 プログラミング言語
11.1 <対自化>の所在
11.2 「テクストを書く」
11.3 テクスト生成の対自化
11.3.1 「テクスト生成の対自化」 の構造
11.3.2 「テクスト生成の対自化」 実験
11.4 「考える主体」
12.1 「テクストを見る・聴く」
12.2 「テクストを見る・聴く」 の所在
12.3 「テクストを見る・聴く」の実験
12.4 テクストの構成を見る
12.5 <聴く>の特異性
12.6 技の自動化
13.1 ChatGPT は,自分を演技する
13.2 対話は,演技の仕合い
14.1 <何でも知っている>を務める
14.2 RLHF バイアス
14.3 テクスト生成に対する監視・割り込み
14.4 「知識/記憶」 実験の難しさ
15.1 「自分の考えを言う」 とは
15.1.1 「考える」 と「考え」 の区別
15.1.2 「自分の考えを言う」 の出自
15.1.3 「自分の考え」 とは
15.1.4 「自己表現」
15.2 習い性が禍に
15.2.1 与えられたテクストを順展開
15.2.2 トートロジーをする
15.2.3 「独自」 が困難
15.3 「自分の考えを言う」 の要素
15.3.1 「自分の考えを言う」 の困難
15.3.2 習得の速さ
15.3.3 「整理」 フォーマットを封印
15.3.4 語り口
15.3.5 テーマ・内容の転換
15.3.6 短く言う
15.4 「自分の考えを言う」 で対話
15.4.1 「自分の考えを言う」 になる
15.4.2 実例 : 「経験」
15.4.3 実例 : 「言語ゲーム」
15.5 「自分の考えを言い出す」
15.5.1 「自分の考えを言い出す」 の困難
15.5.2 外に見本をさがしに行く
15.5.3 ガイドテクストの功罪
15.5.4 「自分の考えを言い出す」 への誘導
15.5.5 ChatGPT の 「体験記」
15.5.6 「自分の考えを言い出す」 の伝授
|