大模型本地部署训练和应用实践班

大模型本地部署训练和应用实践班

【课程概述】

随着人工智能技术的飞速发展,大模型在自然语言处理、计算机视觉、语音识别等众多领域取得了显著的成果,如GPT系列、DeepSeep系列在大语言模型方面的突破,为各行业带来了新的可能性。然而,大模型的训练和应用往往需要强大的计算资源和专业的技术知识,本地部署训练成为了一种实际且有效的解决方案,能够让使用者更好地掌控模型训练过程和数据隐私。

为了帮助从业者和高校教师更好地掌握这些前沿技术,我单位于4月18-20日举办“大模型本地部署训练和应用实践班”。该实战班采用理论与实战相结合的培训模式,旨在让学员全面掌握各个大模型的特点,部署本地大模型,并通过实战练习,学会将这些技术应用于实际业务。通过系统的培训,学员可以提升自己在AI领域的专业素养和实践能力。

【培训/地点】2025年4月18日——4月20日(17日报道) 线下昆明+线上直播

【课程大纲】

主题 知识点

第一节:主流大模型应用介绍和模型间的商业集成

典型大模型比较

1. GPT-4(OpenAI)

2. Claude(Anthropic)

3. Gemini(Google)

4. Llama(Meta)

5. QWen(阿里)

6. Coze(字节跳动)

7. DeepSeek(深度求索-幻方量化)

大模型整体技术阐述:主流技术、小众技术有哪些

基于Transformer架构和支持复杂上下文理解

大模型的量化压缩

GPT4的多模态能力(文本、图像输入)、逻辑推理、长文本生成。

GPT4应用场景建议:对话系统、内容创作、数据分析、教育

Claude的安全性和伦理对齐,支持超长上下文(最高支持200k tokens)

Claude的Constitutional AI框架特点

Claude应用场景建议:法律文档分析、长文本总结、合规性审核

Gemini原生多模态(文本、图像、视频、代码)和高性能推理

Gemini的TPU优化训练,支持实时多模态交互。

Gemini应用场景建议:跨媒体内容生成、科研数据分析、编程辅助

Llama区别于GPT4的重要做法:开源可商用,70B参数规模,支持微调

Llama社区驱动优化思路

Llama应用场景建议:企业私有化部署、学术研究、定制化AI服务

QWen的中文优化,行业垂类模型(如法律、医疗),支持插件扩展

QWen应用场景推荐:电商客服、金融风控、智慧城市

Coze的低代码AI Agent开发平台,多模态交互,工作流编排

Coze应用场景建议:智能客服、自动化流程、游戏NPC交互

Coze的插件市场、可视化流程设计器、多模型调度(支持集成第三方模型)的实践

DeepSeek的数学、中文问答、CoT、代码生成等方向的sota做法,长上下文优化

DeepSeek的MoE架构,在R1、V3两个不同模型上的对比技术亮点

DeepSeek应用场景建议:一般性问答、金融数据分析、科研计算、教育解题

DeepSeek与火山Coze的商用集成方案

插件开发、工作流开发、触发器配置

通过插件扩展Coze与DeepSeek的交互能力

调用DeepSeek的数学引擎处理数据

接口封装:将DeepSeek的API封装为Coze插件(如REST API适配)

权限控制:在Coze平台配置API密钥与访问权限

调用DeepSeek-Math处理用户输入的财务数据

调用DeepSeek生成Python脚本并返回结果到Coze对话流

在Coze中通过可视化工具串联DeepSeek与其他服务(如数据库、第三方API)。

用户输入触发:用户通过Coze聊天界面提问(如“计算公司季度增长率”)

数据预处理:Coze调用插件从数据库提取原始数据

调用DeepSeek:将数据发送至DeepSeek进行数学建模。

结果渲染:DeepSeek返回计算结果,Coze生成可视化图表并反馈给用户

定时触发:每日自动生成销售报告(调用DeepSeek分析数据)

条件触发:当用户提问包含“计算”“公式”等关键词时,自动路由到DeepSeek处理

API触发:外部系统通过Webhook触发Coze工作流(如ERP系统请求库存预测)

通过Coze的权限管理限制DeepSeek访问敏感数据

对DeepSeek的API请求做缓存(如高频计算问题结果缓存)

在Coze中设置异步调用,避免长流程阻塞。

第二节:技术对比和主流开源大模型选型

1.1 模型选择

  • Deepseek-R1 (7B/67B):中文领域表现SOTA,支持长上下文推理
  • Llama-3 (8B/70B):Meta最新开源模型,多语言通用底座
  • Mistral-8x7B:MoE架构标杆,推理效率提升3倍
  • Qwen-72B:阿里千问开源版,金融法律领域微调能力强

1.2 基础环境搭建实操

  • 硬件要求:至少24GB显存(如RTX 3090/A10) + 64GB内存
  • 软件依赖
  • CUDA 12.1 + cuDNN 8.9
  • PyTorch 2.2 + Transformers 4.38
  • FlashAttention-2加速库
  • 关键配置:LD_LIBRARY_PATH添加cuda路径,设置PYTORCH_CUDA_ALLOC_CONF防止显存碎片

第三节:大模型办公效率提升和提示词Prompt技巧

DeepSeek应用

AI工具对个人与企业影响

DeepSeek与Llama3、Qwen的对比

DeepSeek网页版与本地版功能对比

7B小模型与32B模型功能对比

DeepSeek角色扮演,打造不同领域的专属AI顾问

PPT中AI智能应用

AI自动排版

AI自动搜图

DeepSeek辅助PPT创意构思

DeepSeek融合专业PPT应用工具

DeepSeek关联PPT智能插件应用

Excel中的AI智能数据魔法

AI自动分析、格式化

AI自动图表、透视表

DeepSeek辅助Excel深度数据分析

DeepSeek函数编写“神助攻”,助力函数菜鸟成高手

DeepSeek编写VBA代码,让零基础写代码变得简单高效

将工作表数据拆分成多个工作表

将工作表数据拆分成多个工作簿

将多个工作表数据合并成一个工作表

多个工作簿中的工作表保存到一个工作簿

ChatGPT助力Excel自动化实战

DeepSeek创意枯竭时的灵感源泉

营销文案、工作报告、创意写作的生成案例

DeepSeek快速精准地提炼文档信息

DeepSeek助力文档智能纠错与优化建议

DeepSeek助力学术论文撰写得力助手

第四节:本地大模型私有化部署

2.1 Deepseek-R1部署流程

  1. 模型获取
  2. 通过HuggingFace官方仓库申请权限
  3. 下载deepseek-r1-7b-base的safetensors格式权重
  4. 推理服务启动
  5. 关键参数trust_remote_code、max_model_len等的讲解
  6. 解释器多种启动服务方式对比
  7. 服务验证
  8. 代码调用
  9. 服务API的参数设置

2.2 Llama-3-8B快速部署

  1. 量化加速
  2. FP8的特点
  3. 对比Deepseek原论文中量化章节的解读
  4. REST API调用
  5. 深度学习系统部署的常用方式
  6. 针对AI算法的部署框架

第五节:大模型行业数据的微调和模型训练

3.1 Deepseek-R1金融领域微调

  1. 数据准备
  2. 格式:JSONL文件,每条含instruction/input/output
  3. 数据源:财报、券商研报、金融问答对、运营商问答对、意图识别数据
  4. 关键处理:使用SentencePiece重组专业术语tokenization
  5. QLoRA训练配置
  6. 微调在大模型中的常用方法
  7. 多种LoRA方式的对别
  8. 启动训练
  9. 显存优化
  10. GPU并行

3.2 探讨适合微调的场景

  1. 阐述项目中RAG模式和LoRA模式的选择

第六节:基于DeepSeek私有化代码编程

本地化模型部署

模型获取与安装

DeepSeek获取私有化模型安装包,模型文件(权重+配置文件)

硬件选型:GPU算力、内存、存储,并安装依赖环境CUDA、Docker、Python库

服务器内网环境管理和必要的设置

开发工具本地化集成、IDE插件适配

Cursor、CodeGPT等工具配置,模型调用指向DeepSeek API,禁用云端服务

搭建本地模型服务(RESTful API或gRPC)

离线依赖管理:搭建私有仓库

禁用外部数据传输,关闭开发工具自动更新、云同步功能

对模型文件、代码库进行加密存储,记录所有模型调用日志

记录用户操作(如模型调用、代码提交)

确定DeepSeek的离线更新流程,及时模型补丁

第七节:自定义知识问答

4.1研报文档自动生成系统

架构设计

  1. 数据层:Wind API实时获取宏观指标 + PDF解析模块
  2. 推理层
  3. Deepseek-R1作为生成核心
  4. Mistral-8x7B进行事实核查
  5. 评估层
  6. Rouge-L评估内容一致性
  7. FinBERT检测财务数据矛盾

以部署拓扑理清整体脉络

常规分析、复杂计算、数据采集、向量数据库、路由决策、Deepseek-R1/Mistral-8x7B、合规审查、PDF输出

4.2 业务领域的对话系统(根据具体需要选择智能投顾、套餐产品等)

关键技术点

  1. RAG增强
  2. 使用LlamaIndex构建行业知识图谱
  3. FAISS向量库实现百万级文档秒级检索
  4. 记忆管理
  5. 缓存最近轮次的对话摘要
  6. 采用CoT(Chain-of-Thought)提示工程技术
  7. 风控拦截
  8. 关键词过滤(如“保证收益”、“100%”等违规表述)
  9. 置信度阈值设定(softmax概率<0.7时触发人工接管)

第八节:上线前的大模型系统优化

5.1 性能加速方案

  • 量化压缩
  • GPTQ 4bit量化使模型体积减少70%
  • 采用DeepseekV3提出的MTP技术实现tokens
  • 缓存策略
  • KV Cache分块存储,降低重复计算
  • 高频问题回答预生成

5.2 监控体系建设

  1. 业务指标
  2. 平均响应时间<2.5s
  3. 意图识别准确率>92%
  4. 模型指标
  5. PPL(困惑度)波动监控
  6. Attention熵值异常检测
  7. 硬件监控
  8. GPU利用率>85%时自动扩容
  9. 显存泄漏预警机制

【授课专家】

邹博:从事深度学习项目管理的人员,带队完成了数十个AI项目,内容不仅包括深度学习、机器学习、数据挖掘、大模型等具体技术要点,也包括AI的整体发展、现状、应用、商业价值、未来方向等,涵盖内容非常丰富,完成50多个深度学习实践项目,广泛应用于医疗、交通、农业、气象、银行、电信等多个领域。兼备大学老师和企业CEO双重身份,已经有10本人工智能领域的专著(数十所大学使用作为研究生教材,进入多家大学图书馆名录),可以结合实践项目进行重点关注内容的讲解和实操。

【费用标准】

线上2980元/人、线下3980元/人(课后均可获得线上回放),含上课期间专家授课费、教材资料费等,参加线下课程食宿费用自理;提供正式增值税电子发票或纸质发票。

特别声明:[大模型本地部署训练和应用实践班] 该文观点仅代表作者本人,今日霍州系信息发布平台,霍州网仅提供信息存储空间服务。

猜你喜欢

宁波联大取得聚乙烯放散球阀阀座密封结构专利,避免杂质微粒堆积磨损影响使用寿命(宁波联合学校)

金融界2025年8月2日消息,国家知识产权局信息显示,宁波联大塑料管件有限公司取得一项名为“一种聚乙烯放散球阀的阀座密封结构”的专利,授权公告号CN223178206U,申请日期为2024年08月。 专利摘要…

宁波联大取得聚乙烯放散球阀阀座密封结构专利,避免杂质微粒堆积磨损影响使用寿命(宁波联合学校)

演唱会“划水摆烂”引众怒,这次连郭德纲,也难救岳云鹏?

开场不到半小时,就有观众在社交平台吐槽:&quot;还不如听相声,至少不会跑调。1580元的票价,在同类演唱会里也算高价了。观众倒是坐满了,不少人是冲情怀去的。 有粉丝辩解:&quot;我们听的是回忆! 岳云鹏在相声界的地位

演唱会“划水摆烂”引众怒,这次连郭德纲,也难救岳云鹏?

郭凯敏:与相伴6年的张芝华离婚后,转身娶尤勇前妻,终收获幸福(郭凯敏的近照)

1991年,他们办理了结婚登记,郭凯敏已在海南发展,刘晓春放弃了北京的工作,陪着他一起去海南。 刘晓春和郭凯敏结婚已经超过30年,她曾演过一些小角色,但主要是支持丈夫的事业。两人共同经历了艰难的日子,随着郭凯…

郭凯敏:与相伴6年的张芝华离婚后,转身娶尤勇前妻,终收获幸福(郭凯敏的近照)

孙楠和86岁父亲同台演唱哭了 父子合唱感动全场(孙楠与女儿)

8月2日晚,孙楠在大连体育中心体育场举办了“给所有朋友的歌”巡回演唱会大连站。演唱会上,孙楠86岁的父亲惊喜现身,与他合唱了《我的祖国》。孙爸爸嗓音洪亮、慷慨有力,父子二人的歌声震撼了现场观众,许多人感动得热泪盈眶

孙楠和86岁父亲同台演唱哭了 父子合唱感动全场(孙楠与女儿)

刚刚,经纪公司回应“赵露思长文控诉”:深感震惊和突然!赵露思怒斥:你震惊什么?(的经纪公司)

都说不容易 ,做演员一步一步到今天不容易,你们就是拿捏着我的不容易,容易的成为今天的你们,我内核超烂,也不体面,但不用你们封杀我,我不干了,如果我当时报警,如果我当年报警 ,今天也说不出“合法”两个字吧,所…

刚刚,经纪公司回应“赵露思长文控诉”:深感震惊和突然!赵露思怒斥:你震惊什么?(的经纪公司)