首页 > 资讯 > > > 正文
WAIC上的芯片企业:积极靠近大模型,寻求算力新突破|WAIC观察
发布时间:2023-07-08 17:14:47   来源:界面新闻  

AI席卷世界,但AI也需要算力。

正如2023世界人工智能大会(WAIC)芯片主题论坛上嘉宾发言称,随着ChatGPT横空出世,以语言训练模型为代表的通用人工智能技术发生了革命性的变化。但不管它怎么变化,高性能的智能芯片是人工智能发展的硬件基础。


(资料图片)

芯片企业是WAIC展会的一大主力军,在展区环节,燧原科技、登临科技、翰博半导体、曙光、昆仑芯、拟未科技(Graphcore)、算能等公司悉数登场,展示各自产品布局、生态进展和AI落地情况,伴随着生成式人工智能火热,如何贴近AIGC(AI生成内容)需求构建算力支持,也是一大重点,不仅展出更针对性硬件,多数展位都有AI大模型或AIGC应用演示专区。

这些初创企业在架构、应用生态均有自身理解,显示在AI算力领域,市场最大玩家英伟达以外的独特选择。会场就有天数智芯通用GPU推理产品智恺100、瀚博半导体的全功能GPU SG100、昆仑芯2代AI芯片、珠海芯动力通用GPU芯片RPP-R8、海飞科第一代GPU产品Compass C10、沐曦集成电路的曦云通用计算GPU等。

本次WAIC上,燧原科技的“云燧智算机”(CloudBlazer POD)被评为“镇馆之宝”,据燧原科技创始人兼CEO赵立东在芯片主题论坛上介绍,“云燧智算机”专为智能算力中心打造,作为一体化平台,集成了软硬件、系统等,液冷设计方案也可做到高能效,利于即插即用和部署。在横向扩展以后,也可满足大算力需要,因此满足未来智能算力需求。

基于云燧智算机构建的云燧智算集群,产品已在国家级重点实验室之江落地千卡规模训练集群,提供超过100PAI算力,支撑融媒体、文本生成PPT、跨模态图像生成等AIGC应用以及多种科学计算应用的开发和前沿探索。

在WAIC展会现场,燧原科技发布全新文生图MaaS平台服务产品“燧原曜图(LumiCanvas)”,满足企业级需求的文本生成图像能力。该产品基于燧原科技“邃思”系列芯片提供算力,通过软硬件一体的高适应性方案赋能多等领域客户群体,降低在AIGC应用的工程上的人力投入与算力成本。

国内通用GPU公司登临科技,是国内实现规模化商业落地的通用GPU企业,登临科技2017年成立,首款基于登临GPU+(基于GPGPU的软件定义的片内异构计算架构)的AI加速器Goldwasser(高凛)2021年量产投入市场,2022年销售过万片,兼容CUDA/OpenCL在内的编程模型和软件生态,应用场景覆盖互联网、智慧城市、电力、能源、金融等领域。

据介绍,经过大量客户产品验证下,针对AI计算,GPU+比主流GPU在性能及能效上有显著提升。高凛二代产品在2022年流片, 在2023年实现量产。根据现有客户测试结果,二代产品针对基于Transformer类型的模型提供3-5倍的性能提升,能够大幅降低类ChatGPT及生成式AI应用的硬件成本。

在AIGC应用上,登临科技称,已经与多家合作伙伴合力打造多款云端训推一体的产品方案,可覆盖众多大模型应用场景。在WAIC期间,登临科技还宣布获得中国互联网投资基金独家投资。

另一家GPU初创企业瀚博半导体在WAIC上带来了新品发布,包括第二代GPU SG 100、南禺系列GPU加速卡VG1600、VG1800、VG14,以及LLM大模型AI加速卡VA1L、AIGC大模型一体机、VA12高性能生成式AI加速卡等,为AI大模型、图形渲染和内容生产提供完整解决方案。

在GPU领域,瀚博半导体走全功能方案,即支持图形渲染、视频编解码等工作,据介绍,支持Windows/Linux下的DirectX 11、OpenGL、Vulkan等API接口,支持H.264、H.265、AV1等多种视频编解码格式,支持数字孪生、数字人、云桌面、云手机、云游戏、云渲染、工业软件等多领域应用,打造元宇宙产业算力底座。

针对大模型时代算力需求,瀚博本次首发了LLM大模型AI加速卡VA1L,具备200 TOPS INT8/72 TFLOPS FP16算力,并支持ChatGPT、LLaMA、Stable Diffusion等主流AIGC网络模型。

与燧原科技类似,瀚博半导体同样为其GPU打造了一体机平台,用于AIGC大模型。该一体机使用8张LLM大模型AI加速卡VA1L,支持512GB显存,可支持1750亿参数的大模型。瀚博半导体称,这是目前针对AI大语言模型最低价格的大模型一体机方案。

作为少有参展的海外AI芯片初创企业,英国Graphcore也带来了自己的AI计算解决方案,Graphcore展台设计颇为活泼,糖果色调在一众参展国产芯片厂商中显得非常与众不同。

Graphcore本次展出了自家的IPU产品C600,以及世界首款3D Wafer-on-Wafer(3D晶圆级封装)处理器Bow IPU和基于Bow IPU构建的Bow-2000。据介绍,Bow IPU单个封装中拥有超过600亿个晶体管,可为人工智能应用程序提供1.4 petaFLOPS的AI计算能力和显著的电源效率提升。C600在Graphcore Wafer-on-Wafer IPU的基础上,增加了用于低精度和混合精度AI的FP8。本届WAIC上,Graphcore的C600 IPU处理器PCIe卡也被评为“镇馆之宝”。

针对AIGC应用,Graphcore已提出相应解决方案,称其IPU加速计算卡C600可保证较低的延迟和能耗,同时具有能够快速迁移模型和软件栈易用性特点,有利于提供更高效的服务、降低模型部署和运行成本。例如在GPT2-XL模型上,C600推理延时已经达到1ms/token的水平,功耗仅为30瓦。也因此,降成本是其面向AI应用的主要卖点。

展台上还将现场演示在IPU上运行的生成式AI模型,包括中英双语模型ChatGLM-6B和开源文本-图像模型Stable Diffusion。Graphcore向界面新闻展示的技术Demo显示,相比传统ChatGPT聊天机器人一字一字“蹦”出文字回答,基于Graphcore IPU的ChatGLM-6B聊天回复更快,实现了几百个字一秒内显示的“刷屏”式回复。

国内OEM厂商中科曙光此次参加WAIC,也集中展示了面向智能计算的产品及解决方案,包含核心部件、服务器、液冷技术、工业数智底座,以及智算中心和全国算力一体化服务平台。从从核心算力来看,中科曙光拥有自主的CPU、DCU加速卡等核心算力产品,为人工智能算力提供算力支持。

云服务商、OEM厂商拥有广泛客户群,对新型芯片选择持开放态度,中科曙光介绍,其构建了开放通用的智能算力基础设施,具备更高的适应性、灵活性和可扩展性。既能满足多元复杂的应用场景需求,还能通过丰富的软件、算法等生态环境,进一步降低应用开发和部署门槛,加速科技创新进程。

但对于初创企业而言,与巨头企业同处一个舞台,竞争仍遍布荆棘。但正如燧原科技CEO赵立东在芯片主题论坛的发言,长远去看,产业界需要第二解决方案,给市场、客户第二选择,他认为,创新架构和开源生态,对比现有主流方案可以促进市场化竞争,满足市场对性价比、能效比等需求。从市场机会来看,AIGC大模型提供了一个契机,原因是可以在基础大模型之上在衍生出针对不同行业的一些微调的训练,再针对不同的行业在进行推理和部署。从硬件支持的角度,将导致架构更加集约化,生态更容易构建。

关键词:

推荐内容

Copyright@  2015-2032 华西器材装备网版权所有  备案号: 京ICP备2022016840号-35   联系邮箱:295 911 578@qq.com