デジタル大辞泉 「RLHF」の意味・読み・例文・類語 アール‐エル‐エッチ‐エフ【RLHF】[reinforcement learning from human feedback] 《reinforcement learning from human feedback》機械学習において、人間からのフィードバックを用いて強化学習をすること。また、そのような学習モデル。人間による実際の評価を出力結果に反映させることで、対話型AIなどで不適切な質問を拒否するようにしたり、学習データに潜在する差別などのバイアスを除去したりする調整を行う。 出典 小学館デジタル大辞泉について 情報 | 凡例