登录
登录
<< 返回
出品人:俞刚
QQ 影像中心算法负责人
主要研究方向包含图文视觉大模型, 生成 AI 等计算机视觉相关的能力。 在国际顶会期刊上面有近 100 篇论文, Google Scholar citaton 超过 10000 次。 通过研究计算机视觉/生成 AI 能力, 推动 AI 技术在社交等泛娱乐场景的落地。
立即报名 >
专题:大模型与 AIGC(下午场)
会议地址:三层·云南大宴会厅B(07/01下午)
以 GPT、Diffusion 为代表的大模型,以及以 ChatGPT、AI 绘画为代表的 AI 产品形态,引发了 AIGC 的新一波浪潮。从 LLM 到多模态大模型,大模型将如何演进,AIGC 还有哪些想象空间,我们是不是找到了通往 AGI 之路。本专题将带领大家一起深入探讨和复盘,破除迷雾,直面 AIGC 最核心的问题。
解密 Google Cloud 全新 PaLM2 及创新应用
14:00-14:35
刘士君
Google Cloud 机器学习解决方案架构师
Google Cloud AI 和机器学习专家,主要负责向出海用户介绍 Google Cloud AI 和机器学习技术的最佳实践,专注于深度神经网络算法、机器学习工程化、GPU/TPU 加速等领域。在近 10 年的云计算和人工智能从业经历中,积累了丰富的云上 AI 应用的落地、GPU 和 TPU 优化的经验。
Google Cloud AI 和机器学习专家,主要负责向出海用户介绍 Google Cloud AI 和机器学习技术的最佳实践,专注于深度神经网络算法、机器学习工程化、GPU/TPU 加速等领域。在近 10 年的云计算和人工智能从业经历中,积累了丰富的云上 AI 应用的落地、GPU 和 TPU 优化的经验。
内容介绍
2023 年 Google I/O 大会上,Google 向全球开发者发布了 PaLM2 大语言模型,并介绍了最新的研究进展,同时发布了基于 Google Cloud 和 Workspace 的多个创新应用和服务。本讲座会进一步介绍 Google 最新的大语言模型、多模态模型,以及微调的能力,同时通过实际应用场景来介绍大语言模型的实际落地。
演讲提纲
1. Google 大语言模型及多模态模型
2. 模型的训练及微调
3. 实际应用场景
基于 GPT 的智能客服落地实践
14:35-15:10
孙凤伟
好未来境外业务移动端负责人
曾任职百度、滴滴,现担任好未来境外分校移动端负责人,多年 toC 移动端研发经验,近半年转向大模型应用和调研。
曾任职百度、滴滴,现担任好未来境外分校移动端负责人,多年 toC 移动端研发经验,近半年转向大模型应用和调研。
内容介绍
自从 ChatGPT 上线以来,在全球范围内瞬间就掀起了大模型的热潮,我们团队也是第一时间开始关注。我们一边在感叹它的“聪明”,一边在思考如何合理的“应用”它,基于当时对它的理解和海外的一些开源项目,我们决定通过智能客服的形式来验证它的应用性。在整个实践过程中,随着对它理解的深入,我们的项目迭代方向也在不断的调整。本文通过介绍基于 GPT 实现智能客服的实践过程,讲解如何让 GPT 链接企业的知识库,以及知识库的搭建,最终完成 1.0 版本上线。根据 1.0 版本设计的一些缺点和弊端,引出 2.0 版本的设计,2.0 版本的核心思路是,大模型和业务 API 接口打通,如用户输入“课程”相关文字,智能客服可以直接调用业务的接口,给出体验课的课程卡片。为了实现和 API 联动的效果,我们参考了 AutoGPT 的设计思想,通过介绍 AutoGPT 的实现原理,讲解我们如何和业务 API 打通。最后会介绍对于大模型应用的一些心得和理解。
演讲提纲
1. 问答客服的搭建和技术设计
1.1 如何让大模型链接企业专有知识库
1.2 语料库的搭建
1.3 当前设计的一些弊端
2. 问答客服向智能客服的转变
2.1 如何让大模型业务 API 联动
2.2 工程相关的改造
3. 心得和展望
基于 LangChain 和 LangChain-serve 的智能文档问答系统
15:10-15:45
王楠
Jina AI 联合创始人兼 CTO
博士毕业于德国波鸿鲁尔大学。自 2009 年开始从事深度学习相关研究,之后先后担任德国知名电商 Zalando 高级数据科学家,腾讯高级研究员,在搜索和推荐领域的具有丰富的模型设计、实现和部署经验。专注于机器学习和深度学习算法在 NLP 和搜索领域的实际应用。作为开源神经搜索框架 Jina 的核心贡献者,热衷于开源软件和云原生技术。
博士毕业于德国波鸿鲁尔大学。自 2009 年开始从事深度学习相关研究,之后先后担任德国知名电商 Zalando 高级数据科学家,腾讯高级研究员,在搜索和推荐领域的具有丰富的模型设计、实现和部署经验。专注于机器学习和深度学习算法在 NLP 和搜索领域的实际应用。作为开源神经搜索框架 Jina 的核心贡献者,热衷于开源软件和云原生技术。
内容介绍
文档问答系统的任务是从文档数据中查找与用户问题相关的答案。由于文档数量不断增加,传统的搜索已经不能满足人们的需求。随着深度学习模型的发展,文档问答系统从基于字符匹配的方法迁移到基于向量表示的方法,大规模语言模型更为文档问答系统的答案生成问题提供了解决方案。新一代的文档问答系统将传统模型、深度学习问答模型和大规模语言模型技术融合在一起,为用户提供更完善的文档问答服务。本次演讲将介绍如何使用 Langchain 开发框架和 Langchain-serve 部署工具来开发智能文档问答系统。
演讲提纲
1. 文档问答系统的背景
2. 智能文档问答系统的算法方案
3. 智能文档问答系统的工程方案
4. 总结与展望
向量数据库:大模型的海量记忆体
15:45-16:20
郭人通
Zilliz 合伙人和产品总监
华中科技大学计算机软件与理论博士,CCF 分布式计算与系统专委会委员。专注于开发面向 AI 的高效并可扩展的数据分析系统,是 Milvus 项目的系统架构师和 Towhee 项目负责人。其工作成果曾发表于 SIGMOD、VLDB、USENIX ATC、ICS、DATE、IEEE TPDS 等国际顶级会议与期刊。在加入 Zilliz 前,曾就职于华为,是 ModelArts 平台核心研发成员。
华中科技大学计算机软件与理论博士,CCF 分布式计算与系统专委会委员。专注于开发面向 AI 的高效并可扩展的数据分析系统,是 Milvus 项目的系统架构师和 Towhee 项目负责人。其工作成果曾发表于 SIGMOD、VLDB、USENIX ATC、ICS、DATE、IEEE TPDS 等国际顶级会议与期刊。在加入 Zilliz 前,曾就职于华为,是 ModelArts 平台核心研发成员。
内容介绍
对于构建专有大型语言模型的组织而言,向量数据库至关重要。向量数据库的一个新型重要用例是 LLM,在文本生成过程中可用于检索领域特定事实或专有事实,用以存储、索引、搜索和检索非结构化数据的大型数据集。本次分享将重点介绍 AI 基础设施的开源向量数据库 Milvus 以及对应的云服务 Zilliz Cloud 是如何知识增强和赋能 LLM,并进而引出大模型与向量数据库的关系、生态集成、工具与应用等。
演讲提纲
1. 开源向量数据库 Milvus 技术能力详解
2. 相应云服务 Zilliz Cloud 赋能大模型能力介绍
3. 介绍大模型与向量数据库的关系、现有生态、工具与应用等
如何基于 RLHF 来优化 ChatGPT 类型的大语言模型
16:20-16:55
李俊毅
字节跳动算法工程师
爱丁堡大学 NLP 硕士,ACL/EMNLP 等 NLP 顶会审稿人,中文语言理解测评基准 CLUE 核心成员、执委会。目前在字节跳动担任算法工程师。
爱丁堡大学 NLP 硕士,ACL/EMNLP 等 NLP 顶会审稿人,中文语言理解测评基准 CLUE 核心成员、执委会。目前在字节跳动担任算法工程师。
内容介绍
本次分享会将剖析 ChatGPT 中提及的 RLHF 流程,包括数据收集、数据质量优化、SFT、Reward 模型,以及最终的 PPO 优化。内容将基于 WebGPT 系列已公开的论文和已知的数据收集方案,进行数据质量的验证和提升。考虑到当前存在很多开源模型并未公开详尽的 RLHF 流程和实现方案,我们将在此进行详细展开,相关代码也会开源。
演讲提纲
1. 背景简介:ChatGPT 基础信息与 Pretrain 流程
2. 数据工作:训练数据收集与清洗
2.1 业内公开数据与数据获取来源
2.2 数据标注机制
2.3 数据清洗与质量优化
3. RLHF 原理流程及实现方式介绍
4. 基于开源 LLM 进行 RLHF 的实现介绍
5. 总结