当前位置: 主页 > 人工智能

昆仑人工智能-人工语音智能计算器

发布时间:2023-03-09 12:20   浏览次数:次   作者:佚名

深度学习大规模预训练模型的兴起,以其强大的通用能力和突破性的效果,正在推动通用人工智能(AGI)的快速发展,为人工智能研发和应用带来新范式,逐步改变人工智能生态系统。 最近基于大规模语言模型的技术工作已经证明了大型模型的强大功能和更广阔的应用前景。 但同时,大模型也对应着更大的计算量,这给训练和推理带来了新的挑战。 从AI芯片到AI基础软件,不断针对大模型进行优化,助力大模型技术真正走向工业应用。

2月26日下午昆仑人工智能,百度飞桨在2023全球人工智能开发者大会(GAIDC)举办“智能未来:大规模模型技术与应用”论坛。 本次论坛由百度飞桨、上海市人工智能行业协会主办,英伟达、昆仑科技、北京致远人工智能研究院协办。 将邀请人工智能大模型领域的多位知名学者专家、中外人工智能科技公司大模型研发领域的资深工程师,从不同角度进行深入探讨,如作为算法、硬件和AI基础软件,介绍各领域大模型预训练的最新技术进展。 以及大型模型开发、训练和部署应用相关的优化和落地经验。

哪些嘉宾将来到本次论坛分享前沿技术? 一起来看看吧!

论坛主席

于殿海 百度飞桨首席架构师

自我介绍

百度飞桨首席架构师,集团旗下机器学习平台TOC主席,中国计算机学会(CCF)高级会员。 2008年从北京大学毕业后加入百度,长期从事机器学习相关的技术研发、平台建设和产品应用。 相关成果在广泛的业务中发挥了重要作用。 他构建了百度第一个大规模分布式机器学习训练系统,将机器学习技术引入百度搜索排名第一,构建了百度最早的机器学习基础算法库和实验平台,是百度深度学习技术最早的研究者之一。 参与国家“973计划”、国家重点研发计划、科技创新2030重大专项等多项国家级项目的研究,曾获中国电子科学技术学会一等奖进步奖,北京市科技进步一等奖,CCF杰出工程师奖。

与会者

邱锡鹏复旦大学计算机学院教授

自我介绍

复旦大学计算机学院教授,​​兼任中国中文信息学会理事,上海市计算机学会自然语言处理专业委员会主任。 主要研究方向为自然语言处理基础技术和基本模型。 他发表了 80 多篇 CCF A/B 论文。 被引用10000余次,获ACL 2017杰出论文奖(CCF A类)、CCL 2019年度最佳论文奖、2021年《中国科学:技术科学》高影响力论文奖,5篇论文入选ACL/ EMNLP等会议最具影响力的论文,主持开发了国内外数百家单位使用的开源框架FudanNLP和FastNLP,发布了CPT、BART-Chinese等中文预训练模型、ElasticBERT,在中国模型中位列下载量前列。 曾获得中国科协青年人才托付项目、国家优青计划、2030“新一代人工智能”科技创新重大项目课题。 2020年获第四届上海市高校青年教师教学大赛优秀奖。 上海市计算机学会教学成果奖一等奖(第一完成人),2022年钱伟昌中文信息处理科学技术奖一等奖(第一完成人)。 培养出多名学生获得国家一级学会优秀奖。

演讲题目:ChatGPT能力分析与应用

2022 年底,OpenAI 发布了 ChatGPT。 ChatGPT可以根据用户输入的指令完成各种与语言相关的任务,比如写文章、写代码、回答问题、日常聊天等,可以大大提高人们的工作效率,得益于其强大的意图理解能力,流利的谈话技巧和广泛的世界知识。 ChatGPT 基于具有数千亿参数的大型语言模型。 目前,ChatGPT的技术细节和模型参数并未公开,但显示出基于大语言模型开发通用人工智能助手的广阔研究和应用前景。 本报告主要围绕ChatGPT介绍大型语言模型的能力评估、能力演进路线分析以及如何在下游任务中更高效地使用大型模型的能力。

北京致远人工智能研究院吴宇研究员

自我介绍

致远人工智能研究院自然语言与多模态研究负责人,FlagAI飞智开源项目负责人,目前专注于生成模型和多语言多模态模型的研究。 Facebook AI Research(FAIR)早期成员之一,领导了通用Embedding模型StarSpace、超大规模图模型PyTorch-BigGraph、entity link等多个深度学习研究项目及相应的工程实现模型眨眼。

演讲题目:多语言多模态大模型开发与应用

近年来,多模态大模型技术发展迅速。 语言和视觉模态的融合和对齐,使得多模态大模型在多个任务中取得了惊人的表现,也带来了AIGC在研究和应用层面的爆发。 本报告将介绍多模态预训练大模型发展过程中的几个关键里程碑,以及致远研究院在多语言、多模态大模型方向所做的工作。 同时介绍多模态大模型的典型应用场景。

王敬东 百度计算机视觉首席科学家

自我介绍

百度计算机视觉首席科学家,负责计算机视觉领域的研究、技术创新和产品开发。 在加入百度之前,他是微软亚洲研究院视觉计算组的首席研究员。 他的研究领域是计算机视觉、深度学习和多媒体搜索。 代表作包括高分辨率神经网络(HRNet)、基于监督区域特征融合的显着目标检测(DRFI)、基于邻域图的大规模最近邻搜索(NGS、SPTAG)等。 CVPR、ICCV、ECCV、AAAI、IJCAI、ACM MM等多个人工智能会议领域主席昆仑人工智能,现任IEEE TPAMI和IJCV编委,曾任IEEE编委TMM 和 IEEE TCSVT。 由于在视觉内容理解和检索领域的杰出贡献,被选为电气电子工程师学会和国际模式识别协会会士(IEEE/IAPR Fellow),国际杰出会员计算机协会。

演讲题目:百度文心·CV大模型VIMER:算法与应用

本报告将整体介绍百度文心·CV大模型,分享表示预训练算法,包括自监督算法Context Autoencoder,以及基于图模型引导的推广。 最后介绍预训练算法和大CV模型在百度产品中的应用,包括OCR、工业视觉、度数测量、自动驾驶数据挖掘等。

何景洲百度深圳自然语言处理部技术总监

自我介绍

百度深圳研发中心自然语言处理部技术总监,国家人工智能高级工程师。 何景舟毕业于北京大学计算机系。 拥有超过10年的人工智能技术研发和管理经验。 主要研究领域包括自然语言处理、机器学习、生物计算、智能机器人等,带领团队获得十余项国际比赛和奖项。 权威榜单冠军,5次获得百度最高奖。 何景舟是200多项人工智能专利的发明人,获得中国专利优秀奖,被聘为中国专利审查技术专家。 何景舟还是中国人工智能学会(CAAI)会员、中国信息学会(CIPS)青年工作委员会委员、香港人工智能与机器人学会(HKSAIR)会员,以及深圳市国家高新技术产业创新中心专家。

演讲题目:百度文心·文图生成大模型:技术与产品创新

本报告首先介绍了跨模态文本图像生成技术的背景和发展,并呈现了ERNIE-ViLG 2.0、飞桨文心AI绘画模型的技术解读,最后分享了AI艺术创作辅助平台“文心一格”产品创新。

吴磊 NVIDIA GPU计算专家团队高级经理

自我介绍

2008年毕业于北京理工大学电子工程系,获硕士学位。 2011年开始从事基于CUDA的GPU开发,拥有十余年GPU加速相关产品开发经验。 熟悉前几代GPU架构和NVIDIA深度学习生态工具链。 在深度学习和大型模型的训练加速和推理优化,以及HPC领域的GPU加速应用方面有着丰富的经验。

演讲题目:NVIDIA大模型优化实践与思考

目前,大型语言模型(LLM)已成为业内外关注的焦点。 但同时,大型模型的训练和推理部署的高成本带来了极大的挑战。 作为全球领先的加速计算平台公司,英伟达在大型语言模型的训练优化和推理优化方面积累了丰富的经验。 本次演讲围绕大模型的发展趋势和英伟达在大模型训练和推理场景的实践,分享了英伟达加速优化大模型(GPT-3)的方法和效果,希望能为大模型的研究和应用提供依据中国大型语言模型。 强烈支持。

昆仑芯科技互联网产业研发总监王志鹏

自我介绍

现任昆仑万维互联网行业研发总监,原百度高级架构师。 毕业于电子科技大学,获硕士学位。 拥有十余年互联网产品技术研发和管理经验,在云计算和AI芯片行业拥有多年​​的规划、开发和实施经验。 曾主导研发百度云基础IAAS技术体系,支持并扩展至数万规模。 近年来,负责国内互联网最大规模部署的自研AI芯片“昆仑芯片1”和“昆仑芯片2”。 产品研发工作涵盖AIGC、大型语言模型、搜索、推荐、商业等广泛的人工智能技术和应用领域。 相关工作拥有多项技术专利。

演讲题目:昆仑核心大规模模型推理优化及应用实践

大模型对应的模型体积和计算量给实际工业应用的推理部署带来严峻挑战。 基于飞桨框架,昆仑芯针对不同类型的大模型进行了深度优化,实现了大规模应用落地。 本次报告将详细介绍Paddle + Kunlun Core针对大规模模型推理的优化加速技术,并分享其在百度搜索等大规模业务场景中的应用实践经验。

曾金乐 百度高级工程师

自我介绍

毕业于清华大学,获博士学位。 其博士研究课题为机器视觉技术在工业自动化控制中的应用。 现任百度高级研发工程师,研究兴趣涉及深度学习框架基础架构设计、大规模分布式训练技术、推理部署加速、Kubernetes、AutoML等领域。 作为核心成员,他设计并开发了飞桨的静态图和动态图基础设施。 目前负责大规模分布式训练加速技术。 2022年带领团队使用飞桨框架获得MLPerf Training v2.0和国际权威AI benchmark榜单v2。 .1在相同GPU配置下实现了世界第一的训练性能。

实战讲解:PaddlePaddle大模型训练,压推全过程实战

针对大模型开发应用的挑战,PaddlePaddle提供了从核心框架到开发平台的大模型训练、压缩、推理部署的全流程支持。 本环节首先简单介绍一下Paddle框架在大模型分布式训练和压缩推理方面的特色技术。 之后我们将以GPT模型为例,现场演示如何使用飞桨框架从单卡模型扩展数据并行、Group Sharded、张量模型并行、流水线模型并行等不同的分布式并行策略,并依靠百度智能云上的飞桨。 Paddle开发平台演示了大模型训练、压缩、推理的全过程。

现场交流名额有限,报名从速~

图片

2023年2月26日13:30-17:00

上海临港中心一楼多功能会议室2

“以智慧引领未来:大模型技术与应用”论坛

不见不散!