别卷模型微调了!吴恩达揭秘:75%的团队其实在无效努力
“在进行微调之前,可以先考虑使用提示工程或智能体工作流,这样可能会得到更简单且易于维护的解决方案。。”
随着人工智能技术的发展,模型微调已经成为一个广受关注的话题。在与客户进行沟通时,研发团队常常会询问:究竟在什么情况下应该进行微调?又在什么情况下不适合呢?
根据吴恩达在多家公司实践经验的分析,现阶段大约有75%的团队在使用微调时,其实可以通过更简单的方法来实现目标。但在以下三种情况下,微调显然是最佳的选择:
- 提高关键应用的准确性
- 学习特定的沟通风格
- 降低模型的延迟和成本
吴恩达还特别强调,得益于LoRA等技术,进行微调所需的数据量远低于预期,有时仅需100个示例就能达到良好的效果。这为希望入门模型微调的团队提供了宝贵的参考指南。
01—模型微调的复杂性
虽然微调是一项重要且有价值的技术,但许多团队实际上可以通过更简单的方法取得良好效果,比如提示工程(包括长提示)、少样本提示或基本的智能体工作流。
这些团队为何不选择微调?主要是因为微调涉及对预训练模型进行额外训练,操作较为复杂。微调的过程包括收集训练数据、寻找服务提供商协助实施微调,并最终部署经过微调的模型。由于微调在训练和部署阶段都增加了额外的复杂性,因此通常只有在其他方法无法满足需求的情况下才会考虑使用。
尽管如此,在某些特定场景下,微调依然是合适的选择。技术如LoRA可以通过调整有限参数而非整个模型,使得微调变得更加经济,特别适合小型模型(如参数较少的13B模型)。此外,进行微调所需的数据量比大多数人想象的要少,有时只需100个示例或者更少即可取得良好效果。
以下是一些成功应用微调的场景。
02—提升关键应用的准确性
虽然提示工程能在很多情况下提供帮助,但在某些需求较高的应用中,微调可以进一步提升准确性。例如,构建客服聊天机器人时,如果希望其能够有效调用API(如进行交易或退款),提示工程可能在95%的情况下表现良好。然而,当需要达到99%的准确率时,基于相关对话和API调用的数据进行微调,可能是实现目标的理想方案。对于那些难以用语言明确规定的操作任务,微调尤其有效。
例如,当顾客不满意时,聊天机器人应该将问题升级给经理,还是直接退款?若团队为人类员工编写了标准操作流程,这些流程可以直接转化为提示。但如果流程不明确,或需要大量示例才能明确操作,则微调可能是更好的途径。在许多文本分类任务中,微调也表现得相当优异,例如对医疗记录进行分类。
03—学习特定的沟通风格
如吴恩达所述,通过微调模型,可以使其表达方式更符合个人风格。许多人的语言习惯各异,细微差别难以通过文本提示准确传达。若想让系统以特定风格交流,微调通常比单纯依赖提示更有效。
一些特定的输出格式,比如AI出题或生成问卷时,因输出结果有多种选项类型,这些格式通常需要对模型进行微调,以确保输出能被正确呈现。
04—在扩大规模时降低延迟或成本 在一些场景中,开发者通过提示工程成功让大模型完成复杂任务。但当规模扩大后,如果大模型速度缓慢或成本过高,团队可能希望转向小模型。然而,如果小模型的性能不足,通过微调可以使其在特定应用中达到和大模型相当的表现。同时,大模型也可以生成数据,帮助小模型进行微调。
05—总结
在前沿研究中,部分团队通过微调提升特定语言的理解能力。但若目标是让大模型更好地理解训练数据中未包含的知识,使用检索增强生成(RAG)可能是更简便的选择。总体来看,大约75%的团队能通过提示或智能体工作流取得良好结果,只有25%的团队需要微调来实现目标。
在技术上,微调的实施、超参数的设置及计算资源的优化仍具挑战性。不过,越来越多的公司致力于优化这些方面并提供高效的微调服务。
许多公司允许对开放权重模型进行微调并提供下载,而有些则对封闭模型进行微调但不允许下载微调后的权重。前者更具可移植性,并减小对服务提供商支持的依赖。
综上所述,在决定微调之前,可以优先考虑提示或智能体工作流,这将可能帮助你找到更简单且易于维护的方案。我的团队中大多数应用并未使用微调,但在某些关键环节上,微调依然发挥着重要作用。
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。原始发表:2025-04-02,如有侵权请联系 cloudcommunity@tencent 删除部署工作流模型数据优化发布者:admin,转转请注明出处:http://www.yc00.com/web/1747986266a4715151.html
评论列表(0条)