ドリフト
AIガバナンス用語集
ドリフト
ドリフトとは、AIモデルが時間の経過とともに予測精度を失う現象の総称です。AIモデルは特定のデータセットに基づいて訓練されますが、実運用中にデータや環境が変化すると、モデルの予測結果が徐々に現実と乖離することがあります。これがドリフトです。ドリフトには、データ分布の変化に起因する「データドリフト」と、予測対象の意味やルールの変化に起因する「コンセプトドリフト」の2つの主要なタイプがあります。これらのドリフトが発生すると、AIモデルは正確な予測を行えなくなり、その結果、ビジネスや運用において重大な影響を及ぼす可能性があります。ドリフトの検知と対策は、AIガバナンスの一環として重要視されており、モデルの定期的な再トレーニングやデータモニタリングが推奨されます。これにより、ドリフトが発生しても迅速に対応し、モデルのパフォーマンスを維持することが可能となります。