博客
技术分享
我们什么时候该对 LLM 进行微调和使用 RAG ?
2024.10.18
38分钟阅读
这个决定不仅仅是关于偏好;这是一个影响性能、成本和适用性的战略选择。了解何时选择微调而不是 RAG 需要深入研究模型大小、功能、优缺点的复杂性,以及现实世界的应用程序和硬件,综合各种因素做考虑。
RAG | 微调 | |
---|---|---|
信息刚性 | 灵活-集成实时、最新的信息,为提示提供上下文。 | 刚性-模型的知识在训练后是固定的,在重新训练之前不会更新。 |
培训时间 | 较少训练时长-主要依赖于预先训练的模型。 | 更长时间的训练-尤其是对于较大的模型。更新需要重新培训。 |
专业性 | 专业性较低;依赖于外部来源的广泛知识。 | 高专业性;通过微调数据为特定任务量身定制。 |
可扩展性 | 高可扩展性-添加、更新或引入新的数据源和主题域很容易。 | 可扩展性较低-需要针对新任务或新数据进行再培训或微调。 |
使用案例 | 需要广泛而深入的背景理解。 | 任务定义明确、具体,需要一致性。 |
动态性质 | 非常适合信息频繁变化的环境。 | 最适合信息在较长时间内保持一致的稳定环境。 |
-
优势:
-
缺点:
-
优势:
-
缺点:
“重塑高性能计算新标准--半岛.综合体育入口 GA4228 G3”
如您有任何计算负载方面的问题和疑问,欢迎随时咨询我们 400-100-3811。
相关贴子
-
技术分享
为何最新的大型语言模型(LLM)倾向于采用 MoE(Mixture of Experts, MoE)架构作为其设计核心?
2024.09.06 41分钟阅读 -
技术分享
深度解析 | 新型智算中心技术构建中 AI 大模型应用的建设
2024.07.11 86分钟阅读 -
技术分享
【技术大讲堂】ShengBTE 的安装与使用
2024.09.20 32分钟阅读