如何在 NVIDIA GPU 上使用 Unsloth 微调『大语言模型』(LLM)(如何在家无声的把屁股打烂)

今日霍州(www.jrhz.info)©️

现代工作流展示了生成式 AI 和 代理式 AI 在 PC 上的无限可能性。

这些应用场景包括让聊天『机器人』️处理产品支持问题,或作为管理日程的个人助理。但如何让小语言模型(SLM)在执行专用的代理式任务时持续以高准确率进行响应,仍然是一个挑战。

这正是微调发挥作用的地方。

Unsloth 是全球应用最广泛的开源『大语言模型』(LLM)微调框架之一,为模型定制提供了一个易于上手的途径。它针对 NVIDIA GPU 进行了高效、低显存占用的训练优化,覆盖 GeForce RTX 台式机和笔记本📓电脑💻️、RTX PRO 工作站,以及全球最小的 AI 超级计算机 DGX Spark。

另一个强大的微调起点是刚刚发布的 NVIDIA Nemotron 3 系列开放模型、数据和代码库。Nemotron 3 引入了目前最高效的开放模型系列,适合用于代理式 AI 的微调。

教会 AI 新招式

微调就像是为 AI 模型进行一次有针对性的训练。通过与特定主题或工作流程相关的示例,模型可以学习新的模式并适应当前任务,从而提升准确性。

为模型选择哪种微调方法,取决于开发者希望对原始模型进行多大程度的调整。根据不同目标,开发者可以采用三种主要的微调方法之一:

参数高效微调(如 LoRA 或 QLoRA):

● 工作原理:仅更新模型的一小部分,以更快、更低成本完成训练。这是一种在不大幅改变模型的情况下提升能力的高效方式。

● 适用场景:几乎适用于所有传统需要完整微调的场景,包括引入领域知识、提升代码准确性、使模型适配法律或科学任务、改进推理能力,或对语气和行为进行对齐。

● 要求:小到中等规模的数据集(100–1,000组示例提示词对)。

jrhz.info

完整微调:

● 工作原理:更新模型的所有参数,适用于训练模型遵循特定格式或风格。

● 适用场景:高级应用场景,例如构建 AI 智能体和聊天『机器人』️,这些系统需要围绕特定主题提供帮助、遵循既定的约束规则,并以特定方式进行响应。

● 要求:大规模数据集(1,000+ 组示例提示词对)。

强化学习:

● 工作原理:通过反馈或偏好信号来调整模型行为。模型通过与环境交互进行学习,并利用反馈不断改进自身。这是一种复杂的高级技术,将训练与推理交织在一起,并且可以与 参数高效微调 和 完整微调 技术结合使用。详情请参考 Unsloth 的强化学习指南。

● 适用场景:提升模型在特定领域(如法律或医学)中的准确性,或构建能够为用户设计并执行动作的自主智能体。

● 要求:一个包含行为模型、奖励模型和可供模型学习的环境的流程。

另一个需要考虑的因素是各种方法的显存需求。下表提供了在 Unsloth 上运行每种微调方法的需求概览。

今日霍州(www.jrhz.info)©️

Unsloth:在 NVIDIA GPU 上实现快速微调的高效路径

LLM 微调是一种对内存和计算要求极高的工作负载,在每个训练步骤中都需要进行以十亿次记的矩阵乘法来更新模型权重。这类重型并行计算需要依托 NVIDIA GPU 的强大算力,才能高效、快速地完成。

Unsloth 在这类负载中表现出色,可将复杂的数学运算转化为高效的定制 GPU kernel,从而加速 AI 训练。

Unsloth 可在 NVIDIA GPU 上将 Hugging Face transformers 库的性能提升至 2.5 倍。这些针对 GPU 的优化与 Unsloth 的易用性相结合,使微调对更广泛的 AI 爱好者和开发者更加易于上手。

框架专为 NVIDIA 硬件构建并优化,覆盖从 GeForce RTX 笔记本📓电脑💻️,到 RTX PRO 工作站以及 DGX Spark,在降低显存占用的同时提供巅峰性能。

Unsloth 提供了一系列实用的指南,帮助用户快速上手并管理不同的 LLM 配置、超参数和选项,以及示例 notebook 和分步骤工作流程。

访问以下链接查看 Unsloth 指南:

● Fine-Tuning LLMs With NVIDIA RTX 50 Series GPUs and Unsloth

● Fine-Tuning LLMs With NVIDIA DGX Spark and Unsloth

查看链接了解如何在 NVIDIA DGX Spark 上安装 Unsloth。阅读 NVIDIA 技术博客,深入了解在 NVIDIA Blackwell 平台上进行微调和强化学习的相关内容。

现已发布:NVIDIA Nemotron 3 开放模型系列

全新的 Nemotron 3 开放模型系列 —— 包含 Nano、Super 和 Ultra 三种规模 —— 基于全新的异构潜在混合专家 (Mixture-of-Experts, MoE) 架构打造,带来了兼具领先准确率与高效率的开放模型系列,非常适合用于构建代理式 AI 应用。

目前已发布的 Nemotron 3 Nano 30B-A3B 是该系列中计算效率最高的模型,针对软件调试、内容摘要、AI 助手工作流和信息检索等任务进行了优化,具备较低的推理成本。其异构 MoE 设计带来以下优势:

● 推理 token 数量最多减少 60%,显著降低推理成本。

● 支持 100 万 token 的上下文处理能力,使模型在长时间、多步骤任务中能够保留更多信息。

Nemotron 3 Super 是一款面向多智能体应用的高精度推理模型,而 Nemotron 3 Ultra 则适用于复杂的 AI 应用。这两款模型预计将在 2026 年上半年推出。

NVIDIA 于 12 月 15 日还发布了一套开放的训练数据集合集以及先进的强化学习库。Nemotron 3 Nano 的微调现已在 Unsloth 上提供。

Nemotron 3 Nano 现可在 Hugging Face 获取,或通过 Llama.cpp 和 LM Studio 进行体验。

DGX Spark:紧凑而强大的 AI 算力引擎

DGX Spark 支持本地微调,将强大的 AI 性能集成在紧凑的桌面级超级计算机形态中,让开发者获得比普通 PC 更多的内存资源。

DGX Spark 基于 NVIDIA Grace Blackwell 架构打造,最高可提供 1 PFLOP 的 FP4 AI 性能,并配备 128GB 的 CPU-GPU 统一内存,使开发者能够在本地运行更大规模的模型、更长的上下文窗口以及更高负载的训练工作。

在微调方面,DGX Spark 可实现:

● 支持更大规模的模型。参数规模超过 30B 的模型往往会超出消费级 GPU 的 VRAM 容量,但可以轻松运行在 DGX Spark 的统一内存中。

● 支持更高级的训练技术。完整微调和基于强化学习的工作流对内存和吞吐量要求更高,在 DGX Spark 上运行速度显著更快。

● 本地控制,无需云端排队。开发者可以在本地运行高计算负载任务,无需等待云端实例或管理多个环境。

DGX Spark 的优势不仅限于在 LLM 上。高分辨率扩散模型通常需要超过普通桌面系统所能提供的内存。借助 FP4 支持和大容量统一内存,DGX Spark 可在短短几秒内生成1000张图像,并为创意或多模态工作流提供更高的持续吞吐量。

下表展示了在 DGX Spark 上对 Llama 系列模型进行微调的性能表现。

今日霍州(www.jrhz.info)©️

随着微调工作流的不断发展,全新的 Nemotron 3 开放模型系列为 RTX 系统和 DGX Spark 提供了可扩展的推理能力与长上下文性能优化。

请访问链接了解 DGX Spark 如何支持高强度 AI 任务。

#别错过 — NVIDIA RTX AI PC 的最新进展

FLUX.2 图像生成模型现已发布,并针对 NVIDIA RTX GPU 进行优化

Black Forest Labs 推出的新模型支持 FP8 量化,可降低显存占用并将性能提升40%。

Nexa.ai 通过 Hyperlink 为 RTX PC 扩展本地 AI,实现代理式搜索

这款全新的本地搜索智能体可将检索增强生成(RAG)索引速度提升3倍,将 LLM 推理速度提升2倍,使一个高密度1GB 文件夹的索引时间从约 15 分钟缩短至仅 4 到 5 分钟。『DeepSeek』 OCR 现已通过 NexaSDK 以 GGUF 形式在本地运行,可在 RTX GPU 上即插即用地解析图表、公式以及多语言 PDF。

Mistral AI 发布全新模型家族,并针对 NVIDIA GPU 进行优化

全新的 Mistral 3 模型从云端到边缘端均经过优化,可通过 Ollama 和 Llama.cpp 进行快速的本地实验。

特别声明:[如何在 NVIDIA GPU 上使用 Unsloth 微调『大语言模型』(LLM)(如何在家无声的把屁股打烂)] 该文观点仅代表作者本人,今日霍州系信息发布平台,霍州网仅提供信息存储空间服务。

猜你喜欢

海归青年导演的产业融合与创新路径(海归简历)

海纳圆桌对谈已是第二次落地该电影节,由大麦娱乐发起的海纳国际青年导演发展计划主办,旨在为海外留学归国的青年导演提供从创作孵化到资源对接的全链条支持。李捷补充,三位导演的共同点是将电影技术与本土故事结合,强调“…

海归青年导演的产业融合与创新路径(海归简历)

以网络威胁情报构建威胁驱动型网络安全体系-ISACA(以网络威胁情报违法吗)

威胁情报可分为战略、战术、运营、技术四类,分别对接不同业务需求:战略情报为高层提供威胁态势洞察,支撑长期决策;战术情报转化攻击者战术技术为防御措施;运营情报基于企业自身数据指导即时行动;技术情报以机器可读形式…

以网络威胁情报构建威胁驱动型网络安全体系-ISACA(以网络威胁情报违法吗)

加油站静电夹检测 视觉分析技术的安全赋能与实践 静电夹检测 加油站静电夹状态监测 静电接地报警器检测(加油站静电接地安装图)

近年来,随着计算机视觉技术的成熟,一种基于视频分析的加油站静电夹检测方案正在兴起,它旨在通过非接触、智能化、可追溯的方式,将这一关键安全操作从“人防”提升到“技防”的新高度。这是加油站静电夹检测技术的真正价值…

加油站静电夹检测 视觉分析技术的安全赋能与实践 静电夹检测 加油站静电夹状态监测 静电接地报警器检测(加油站静电接地安装图)

官媒发文,高调官宣54岁于和伟喜讯,全网恭喜,终于等到这一天(官媒发声)

就在这生命的初始线摇摇欲坠之际,亲情的奇迹降临了——他那年轻的姐姐,毅然将自己的乳汁化作生命的甘泉,哺育了这位未来的影帝。这些行为,与当年姐姐无私的哺育形成刺眼的反差——一种是无求回报的血脉亲情,另一种则是充…

官媒发文,高调官宣54岁于和伟喜讯,全网恭喜,终于等到这一天(官媒发声)

笑不活了!宁静回应与汪峰绯闻:我不喜欢他,又不是我找不着男人(宁静大笑照片)

她还提及网友跑到森林北评论区,说“那是个小孩儿啊,很年轻的,把人家吓到了”,言语间充满了对后辈的保护欲。 历经风雨的宁静什么场面没见过,这番高情商操作可谓面面俱到:既彻底辟了谣,又维护了朋友,还间接证实了汪峰…

笑不活了!宁静回应与汪峰绯闻:我不喜欢他,又不是我找不着男人(宁静大笑照片)