(つづき)
現在のAIは人間のデータ効率からみると10万倍も非効率。計算量では人間に圧勝していても学習効率ではまだ人間に遠く及ばない。これからは人間のように「少ない経験から学ぶ」ための技術が求められる。
人間の視覚のように情報をビット単位で活用できたらいいけど今のAIはできない。
将来「1000万枚以上のGPUを同時に使って学習」(←直訳するとこうだけど「未曾有のリソース」と言いたいのかも)する時代が来るかもしれないね。それが今のプリトレーニングかはわからないけど教師的学習のような何かが起きるのかも。(わからないんかい...
プリトレーニングはモデルの知識全体を底上げする。
推論(Reasoning)を「教える」には限られた環境での明示的な強化学習が必要で、それには制約がある。
一方プリトレーニングは「データを圧縮する作業」。広い分野の知識を共通化・抽象化する力を伸ばす。
推論能力は「考える力」そのもので、これは単なる知識とは異なる。とはいえ良いプリトレーニングが土台を広く支えてくれるので間接的には推論力にも大きな恩恵がある。←これは4.5リリースのときも言ってた!
(つづく)