Up 詳細性の理由 作成: 2025-11-10
更新: 2025-11-14


    Transformer 脳の "Training" は, 「入力テクストをなぞる」。
    その内容は,パラメータ値の調節。

    入力テクストごとに調節を繰り返すパラメータ値は,厖大な数のテクストをこなすうち,ほぼ固定になる。
    この「ほぼ固定」は,一度憶えたことは忘れない状態と考えられる。

    同じ内容に出遭う度に,その記憶は強化される。
    そしてビッグデータによる "Training" は,基本的な情報であるほど,この出遭う回数が多くなる。

    こうして Transformer 脳は,知識を厖大かつ詳細にもつものになる。
    ChatGPT がこのことの実証である。