コンパクトで高性能なAIモデルを「蒸留」で生成、大規模モデルの知識を借用 – ITpro 2025年3月7日2025年3月7日ai 「蒸留(Distillation)」は、一般に「教師モデル」と呼ばれる大規模で高性能なAI(人工知能)モデルの学習データを、よりパラメーター数の少ない小規模な「生徒モデル」に移転させることを指す。これ...