AI知识篇

模型蒸馏

1/8
导师头像
导师提示

GPT-4 很强,但部署一个 GPT-4 需要几十块 GPU、每月几万美元。普通公司用不起,手机上更跑不动。有没有办法把大模型的能力「压缩」到小模型里?