http://abe.com
AIDB
@ai_database
DeepMindの研究者らは、人間が作成したデータに依存する現状は今後のLLMにとって良くないと考えました。
そこで、LLMに自ら高品質なデータを生成させ、データセットを拡張する「自己学習」アプローチを開発しました。
結果、自己生成データによって能力向上が確認されたとのことです。
- "Beyond Human Data: Scaling Self-Training for Problem-Solving with Language Models"
人間が作ったデータを使う仕組みには、質も量も限界があり、さらにデータの偏りはLLMの偏りにつながります。
そこで研究者らは、LLMが自分自身によって高品質な訓練データを作成し学ぶ仕組みを考案しました。
■考案したアプローチのポイント
① 自らデータセットを拡張する
② 生成したデータが正しいかどうかを判断する
③ 数学を中心とした様々な問題解決に使える
■有効性の確認実験
① 数学問題解決タスクを中心に設計
② モデル生成/人間作成データを比較分析
③ ファインチューニング
■実験結果
① 数学において、正答率の向上を達成
② 異なるタイプの問題に対するモデルの適応能力が向上
→人間作成データなしで能力が向上
研究者らは、自己学習はLLMにとって将来性のあるアプローチになると述べており、他の領域においても試していくべきとしています。
現在は特定のモデルと限られたタスクで検証が完了しているため、適用性をさらに調査していくべきとのことです。