Dataiku 中的微调:可访问性和效率
Posted: Sun Feb 16, 2025 5:00 am
在 Dataiku 中,非技术用户和经验丰富的数据科学家现在都可以利用 LLM 微调。它既有可视化方法,也有基于代码的方法,确保整个组织都能享受微调 LLM 的好处。这两种方法都允许将微调后的模型保存到LLM Mesh,并具有与其他连接的 LLM 相同的控制和治理。
可视化、管理的配方方法
从视觉微调配方开始,您可以微调 Hugging Face 本地模型和来自 OpenAI 等服务提供商的托管模型(Azure OpenAI 和 AWS Bedrock 支持即将推出)。该配方只需要在您的 LLM Mesh 中注册一个 LLM 和一个训练数据集,以及一个可选的验证数据集。
在配方界面中,超参数部分默认处于“自动”模式,但可以转为“显式”进行手动调整。
在配方界面中,超参数部分默认处于“自动”模式,但可以转为“明确”进行手动调整。
此方法非常适合非程序员,可使用微调的 LLM 进行快速测试。它简化了流程,无需编写代码即可根据自己的喜好调整模型。对于技术含量更高的用户,托管配方可用于快速迭代和测试,允许在各种用例上使用微调的 LLM 进行实验。
Python,基于代码的方法
数据科学家和技术用户还可以选择使用 Python 配方微调 LLM。这种方法为程序员提供了灵活性,可以尝试更高级的配置来微调 HuggingFace 本地模型,同时仍可利用 Dataiku LLM Mesh 的安全托管体验。
通过代码微调 HuggingFace 模型并将其导入到已保存模型的示例。
通过代码微调 HuggingFace 模型并将其导入到已保存模型的示例。
简而言之,这种方法确保了完全的可定制性,允许您选择 LLM 的权重和配置,并精确调整模型以满足您的需求。此外,将经过微调的 LLM 保存到 LLM Mesh 可确保控制和可听性,保持清晰的活动记录并实现模型的安全管理。
有了这两种强大的微调方法,调整你的 LLM 变得前所未有的简单——但知道何时进行微调与知道如何进行微调同样重要。问题是,与 RAG 等其他方法相比,我们应该何时使用微调?
何时使用微调而不是 RAG
即使对于某些最复杂的用例,RAG 也是获得所需输出的最有效方法。RAG 非常适合适应 塞内加尔 电话号码数据 性至关重要的场景。如果您想访问新数据或动态数据,RAG 允许使用简单的管道快速包含最新信息。微调更加静态,取决于用于训练的数据集,而不是信息检索。
然而,微调最适合需要一致且高度专业化性能的场景。它允许 LLM 具有高水平的专业化,而 RAG 的定制性有限。即使将 RAG 与最密集的即时工程结合使用,也可能无法像微调那样始终如一地提供所需的输出。在现实世界中,情况会怎样?
例如,医疗机构的团队可能希望每天检索有关患者护理、保险信息等的相关信息。RAG 显然是更好的方法。最新的研究、临床指南、保险政策和患者记录可以通过系统内的聊天机器人访问,为医疗专业人员提供前所未有的可视性。但是,如果重点是根据护士图表更新为临床试验生成潜在的给药方案,那么微调 LLM 可能更有意义。根据大量给药方案和先前试验的文本进行微调的 LLM 将实现更高的专业化和精确度。这将确保生成的输出更紧密地遵循历史协议和指南,为医疗专业人员提供开始治疗的平台。
可视化、管理的配方方法
从视觉微调配方开始,您可以微调 Hugging Face 本地模型和来自 OpenAI 等服务提供商的托管模型(Azure OpenAI 和 AWS Bedrock 支持即将推出)。该配方只需要在您的 LLM Mesh 中注册一个 LLM 和一个训练数据集,以及一个可选的验证数据集。
在配方界面中,超参数部分默认处于“自动”模式,但可以转为“显式”进行手动调整。
在配方界面中,超参数部分默认处于“自动”模式,但可以转为“明确”进行手动调整。
此方法非常适合非程序员,可使用微调的 LLM 进行快速测试。它简化了流程,无需编写代码即可根据自己的喜好调整模型。对于技术含量更高的用户,托管配方可用于快速迭代和测试,允许在各种用例上使用微调的 LLM 进行实验。
Python,基于代码的方法
数据科学家和技术用户还可以选择使用 Python 配方微调 LLM。这种方法为程序员提供了灵活性,可以尝试更高级的配置来微调 HuggingFace 本地模型,同时仍可利用 Dataiku LLM Mesh 的安全托管体验。
通过代码微调 HuggingFace 模型并将其导入到已保存模型的示例。
通过代码微调 HuggingFace 模型并将其导入到已保存模型的示例。
简而言之,这种方法确保了完全的可定制性,允许您选择 LLM 的权重和配置,并精确调整模型以满足您的需求。此外,将经过微调的 LLM 保存到 LLM Mesh 可确保控制和可听性,保持清晰的活动记录并实现模型的安全管理。
有了这两种强大的微调方法,调整你的 LLM 变得前所未有的简单——但知道何时进行微调与知道如何进行微调同样重要。问题是,与 RAG 等其他方法相比,我们应该何时使用微调?
何时使用微调而不是 RAG
即使对于某些最复杂的用例,RAG 也是获得所需输出的最有效方法。RAG 非常适合适应 塞内加尔 电话号码数据 性至关重要的场景。如果您想访问新数据或动态数据,RAG 允许使用简单的管道快速包含最新信息。微调更加静态,取决于用于训练的数据集,而不是信息检索。
然而,微调最适合需要一致且高度专业化性能的场景。它允许 LLM 具有高水平的专业化,而 RAG 的定制性有限。即使将 RAG 与最密集的即时工程结合使用,也可能无法像微调那样始终如一地提供所需的输出。在现实世界中,情况会怎样?
例如,医疗机构的团队可能希望每天检索有关患者护理、保险信息等的相关信息。RAG 显然是更好的方法。最新的研究、临床指南、保险政策和患者记录可以通过系统内的聊天机器人访问,为医疗专业人员提供前所未有的可视性。但是,如果重点是根据护士图表更新为临床试验生成潜在的给药方案,那么微调 LLM 可能更有意义。根据大量给药方案和先前试验的文本进行微调的 LLM 将实现更高的专业化和精确度。这将确保生成的输出更紧密地遵循历史协议和指南,为医疗专业人员提供开始治疗的平台。