岗位 1:大模型应用『工程师』(16-24K・13 薪)
核心职责:
基于开源大模型(如 Qwen、GLM、Llama)进行领域微调(SFT)、RLHF 优化,适配特定业务场景需求;
搭建 RAG(检索增强生成)知识库系统,实现海量文档的精准检索与智能问答,提升模型回答的准确性与专业性;
开发 AI Agent 工具链,实现多步骤任务自动化处理,如文档解析、数据提取、报告生成等;
负责大模型应用的工程化落地,包括模型部署(vLLM、Ollama)、接口开发、性能优化,确保系统高可用、低延迟;
对接业务部门,理解实际需求,提供大模型应用解决方案,协助业务人员使用 AI 工具提升工作效率。
任职要求:
本科及以上学历,计算机、软件工程、人工智能等相关专业,2-3 年大模型应用开发经验;
熟练掌握 Python 编程语言,熟悉 PyTorch 框架,具备大模型微调、部署相关实战经验;
深入理解 RAG 技术原理,熟悉向量数据库(如 Milvus、Chroma)的使用与优化;
了解 AI Agent 相关技术(如 LangChain、AutoGPT),能独立开发简单的 Agent 应用;
具备良好的问题排查能力与工程实践能力,能解决模型部署、性能优化中的常见问题。
岗位2:数据治理(15-22K)
核心职责:
负责搭建企业数据治理体系,包括数据标准、数据质量、数据安全、数据生命周期管理等模块的规划与落地;
制定数据标准规范(如数据字典、编码规则、命名规范),推动跨部门数据标准化落地,解决数据不一致问题;
设计数据质量评估指标与监控体系,建立数据质量问题台账,推动数据质量整改,提升数据资产可用性;
推动数据治理平台建设,实现数据治理流程自动化、可视化,沉淀数据治理方法论与最佳实践。
任职要求:
本科及以上学历,计算机、信息管理、统计学等相关专业,2-3 年数据治理工作经验;
熟悉数据治理方法论(如 DAMA-DMBOK),具备数据标准制定、数据质量管控、数据安全合规相关实战经验;
了解大数据技术栈(如 Hadoop、Hive、Spark),熟悉数据仓库架构,能从技术层面支撑数据治理落地;
具备较强的跨部门沟通协调能力、项目推动能力,能应对复杂的组织架构与业务场景;
投递:zhongjiamin@liaofanhui.com




