通信行业:国内AI行业蓄势待发,国产算力迈入自强新纪元

sw

报告出品方:中信建投

以下为报告原文节选

------

一、国内AI产业有望迎来跨越式发展

1.1海外AI产业蓬勃发展

OpenAI于2023年3月发布GPT-4,谷歌于2023年12月发布Gemini大模型,并在近期推出以及开源模型Gemma,大模型能力持续迭代升级。伴随大模型能力的提升,海外AI应用蓬勃发展,云大厂比如微软推出copilot、bingAI等,谷歌推出workspece、聊天机器人Gemini等外,B端垂直企业服务、C端应用等层出不穷。据SensorTower数据显示,2023年,AI应用年度下载量和内购收入分别上涨60%和70%,超过21亿次和17亿美元(其中2023H1下载量突破3亿次)。英伟达提到,FY24全年估计40%收入来自AI推理端。

从支撑AI发展的基础设施角度,不管是从英伟达、超微电脑、台积电、AMD等硬件厂商的业绩和指引,还是从海外云厂商的capex投入,都印证海外AI产业的持续提速。
英伟达FY24Q3、FY24Q4业绩持续超过分析师预期,主要来自AI带动数据中心业务超预期带动,英伟达对下一季度指引乐观,预计FY25Q1收入240亿美元,同样超过分析师预期的219亿美元。超微电脑FY24Q2营收超预期,FY24Q3预计净销售额在37亿美元至41亿美元之间,远超市场预期,主要得益于AI系统强劲需求的驱动。台积电预计未来几年AI相关业务CAGR将达50%,上调远期AI营收占比目标,预期2027年AI营收占比达到高双位数(highteen),此前预期为低双位数(lowteen)。AMD在2023年12月上调加速器规模预测,预计到2027年,人工智能加速器的整体市场规模将达4000亿美元,CAGR达到70%,此前2023年8月AMD预计2027年人工加速器行业规模为1500亿美元。
海外云厂商对AI投入展望持续乐观。谷歌指引2024年资本支出将明显增长。meta指引2024年资本开支300亿美元-370亿美元,上限上调20亿美元。微软表示,基于对云和人工智能基础设施的投资、第三方产能合同的交付转移到下一季度,预计下一季度资本支出将环比大幅增加。亚马逊预计2024年资本支出将同比增加。

1.2国内大模型基本实现能力边界突破

国内厂商也加快研发节奏,纷纷发布大模型产品,并不断持续迭代更新。2023年3月-6月间,包括百度、清华智谱、阿里巴巴、科大讯飞、百川智能等厂商相继发布自己的大模型产品,后续持续迭代更新,在2023年9月、10月前后发布重要更新,提升模型能力。国内领先的大模型基本在2023年10月至11月实现了能力边界的突破,实现看齐甚至部分能力超越ChatGPT,并且后续在持续的进一步迭代升级。随着国内大模型能力的提升,AI应用预计2024年也将迎来加速落地。

参考国内中文模型评测机构SuperCLUE发布中文大模型基准测评,对比来看,国内大模型厂商的能力在快速提升。2023年5月,国内大模型总体与有约20分的差距,国产得分最高的星火认知大模型总分53.58,而为66.18。2023年11月,国产头部大模型已基本完成对的总分超越,与GPT4-Turbo的差距也在快速缩小,74.02分的文心一言4.0、72.88分的Moonshot等大模型超越了59.39分的,与89.79分的GPT4仍有距离。SuperCLUE最新的2024年2月测评结果显示,国产第一梯队大模型已将与的得分差距拉至10分以内,其中文心一言4.0总分87.75,GLM-4总分86.77,通义千问2.1总分85.7、Baichaun3总分82.59、Moonshot(kimichat)总分82.37、讯飞星火总分81.01,而总分92.71、总分64.34。

近期Kimi支持200万字超长文本,用户数激增,国内模型的能力和应用的展望进一步乐观。2024年3月18日,月之暗面宣布Kimi智能助手已支持200万字超长无损上下文(2023年10月刚发布时,Kimi可支持的无损上下文输入长度为20万字),在长文本处理能力上取得了突破性进展,并于即日起开启产品内测。Kimi的月活用户从2023年底的50万左右增至接近300万,网页端的日活从3月9日的12万多增至14日的35万左右,3月21日,Kimi因访问量暴增而疑似宕机。
1.3国家大力推动AI建设与应用落地

2024年2月19日,国务院国资委召开中央企业人工智能专题推进会。会议认为,加快推动人工智能发展,是国资央企发挥功能使命,抢抓战略机遇,培育新质生产力,推进高质量发展的必然要求。中央企业要主动拥抱人工智能带来的深刻变革,把加快发展新一代人工智能摆在更加突出的位置,不断强化创新策略、应用示范和人才聚集,着力打造人工智能产业集群,发挥需求规模大、产业配套全、应用场景多的优势,带头抢抓人工智能赋能传统产业,加快构建数据驱动、人机协同、跨界融合、共创分享的智能经济形态。会议强调,中央企业要把发展人工智能放在全局工作中统筹谋划,深入推进产业焕新,加快布局和发展人工智能产业。要夯实发展基础底座,把主要资源集中投入到最需要、最有优势的领域,加快建设一批智能算力中心,进一步深化开放合作,更好发挥跨央企协同创新平台作用。开展AI+专项行动,强化需求牵引,加快重点行业赋能,构建一批产业多模态优质数据集,打造从基础设施、算法工具、智能平台到解决方案的大模型赋能产业生态。10家头部中央企业签订倡议书,表示将主动向社会开放人工智能应用场景。

二、国产算力基础设施迎来发展机会

2.1AI发展需要强大算力基础设施支撑

大语言模型所使用的数据量和参数规模呈现“指数级”增长,带来智能算力需求爆炸式增长。OpenAI在2018年推出的GPT参数量为1.17亿,预训练数据量约5GB,而GPT-3参数量达1750亿,预训练数据量达45TB,而当前来看,大模型参数进一步提升,已经达到万亿级,并持续迭代发展。训练阶段算力需求与模型参数数量、训练数据集规模等有关,参考天翼智库测算信息,根据OpenAI发布的论文《ScalingLawsforNeuralLanguageModels》数据,训练阶段算力需求=6×模型参数数量×训练集规模,GPT-3模型参数约1750亿个,预训练数据量为45TB,折合成训练集约为3000亿tokens,GPT-3的总算力消耗约为3646PFLOPS-day,实际运行中,GPU算力除用于模型训练,还需处理通信、数据读写等任务,对算力会有更大消耗。面向推理侧算力需求,参考天翼智库测算信息,根据OpenAI发布的论文《ScalingLawsforNeuralLanguageModels》数据,平均每1000个token对应750个单词,推理阶段算力需求=2×模型参数数量×token数。ChatGPT上市仅5天就突破100万用户,两个月内用户就突破1亿大关,现在每周活跃用户维持在亿量级。假设按照1亿的ChatGPT的活跃用户数、日活跃用户2000万人,平均每位用户单次查询对应1000个token,每天查询10次,GPT-3模型每日对话产生推力算力需求为810PFLOPS-day,同样考虑到有效算力比率,实际运行中需要更大算力支撑。

人工智能的发展将带动算力规模高速增长,继而刺激算力基础设施的需求。根据中国信通院数据,2022年全球计算设备算力总规模达到906EFLOPS,预计未来5年全球算力规模增速将超50%。IDC数据显示,2022年中国通用算力和智能算力规模分别达54.5EFLOPS(基于FP64)和259.9EFLOPS(基于FP16),2027年通用算力和智能算力规模将达到117.3EFLOPS和1117.4EFLOPS,预估未来5年复合增长率16.6%和33.9%。

运营商加大智能算力基础设施投入。中国移动2024年计划总体资本开支1730亿元同比下降4%,用于算力资本开支计划475亿元同比增长21%。中国电信2024年计划总体资本开支960亿元同比下降4%,用于产业数字化资本开支370亿元同比增长4%,用于云/算力投资180亿元。中国联通2024年计划总体资本开支650亿元同比下降12%,公司表示投资重点将由稳基础的联网通信业务转向高增长的算网数智业务。在相关AI服务器采购方面,2023年8月,中国电信启动2023-2024年AI算力服务器集采,整体采购规模为4175台,中标总价超84亿元。2023年9月,中国移动启动了2023年至2024年新型智算中心(试验网)采购项目,采购人工智能服务器(2454台)、数据中心交换机(204套)及其配套产品等,总价约33亿元(标包4-12总额,标包1-3采购失败)。2024年3月,中国联通发布2024年人工智能服务器集中采购项目资格预审公告,涵盖人工智能服务器合计2503台,关键组网设备RoCE交换机合计688台。同时,三大运营商也在积极加快智算中心等基础设施的建设。

国内互联网厂商资本开支呈现回暖态势。2023年全年腾讯资本开支为238.93亿元,同比增长32.6%,2023Q1、2023Q2、2023Q3、2023Q4腾讯的资本开支分别为44.11、39.35、80.05、75.24亿元,分别同比-36.7%、+31.1%、+236.8%、+33.1%。阿里巴巴在2023年前三季度单季资本开支同比均呈现下滑,2023Q1、2023Q2、2023Q3阿里巴巴的资本开支分别为25.13、60.07、41.12亿元,分别同比-72.7%、-46.0%、-62.5%,2023Q4同比转为正增长,资本开支为72.86亿元,同比增长25.8%。

英伟达持续升级GPU,算力持续提升。2024年3月GTC上,英伟达发布GB200超级芯片,采用Blackwell架构,采用台积电的4纳米(4NP)工艺,整合两个独立制造的裸晶(Die)形成一个BlackwellGPU,两个BlackwellGPU与一个GraceCPU结合成为GB200superchip。BlackwellGPU共有2080亿个晶体管,上一代H100只有800亿晶体管,整体性能明显提升。一个GB200NVL72就最高支持27万亿参数的模型。英伟达表示,过去在90天内训练一个1.8万亿参数的MoE架构GPT模型,需要8000个Hopper架构GPU,15兆瓦功率,如今同样给90天时间,在Blackwell架构下只需要2000个GPU,以及1/4的能源消耗。

2.2禁运持续升级,国产化大势所趋

美国对中国先进芯片进口限制持续升级。2023年10月,美国颁布新的半导体出口限制,对芯片算力和性能密度做了更严格的规定,A100/A800、H100/H200/H800、L4、L40s均不满足出口条件。在2022年8月,美国首次针对中国实施大规模芯片出口制裁,停止出口A100和H100两款芯片和相应产品组成的系统。本次制裁主要限制总计算性能(算力*位宽)≥4800且互联带宽≥600GB/s的高端AI芯片出口,在制裁后,英伟达为中国重新设计了A800和H800两款“阉割版”芯片,主要在互联速率和双精度计算性能上做了限制。2023年10月升级版本的芯片禁令加大了打击力度,性能满足以下条件均受出口管制:(1)总计算能力TPP(算力*位宽)超过4800的芯片;(2)TPP超过1600且PD(TPP/芯片面积)超过5.92的芯片;(3)2400≤TPP4800,且1.6≤的芯片;(4)1600≤TPP,且3.2≤的芯片。在此要求下,A100/A800、H100/H200/H800、L4、L40s均不满足出口条件,英伟达只能全方位削弱芯片算力,向中国提供H20、L20、L2芯片。而近日美国政府再次升级对华半导体出口管制措施。参考钛媒体信息,北京时间2024年3月30日凌晨,美国商务部下属的工业与安全局(BIS)发布“实施额外出口管制”的新规措施,修订了BIS于2022、2023年10月制定的两次出口限制新规,全面限制英伟达、AMD以及更多更先进AI芯片和半导体设备向中国销售,此次新规中,BIS删除和修订了部分关于美国、中国澳门等地对华销售半导体产品的限制措施,包括中国澳门和D:5国家组将采取“推定拒绝政策”,并且美国对中国出口的AI半导体产品将采取“逐案审查”政策规则,包括技术级别、客户身份、合规计划等信息全面查验。
国内算力自立自强是必然趋势。此前国内对英伟达芯片依赖度较高,2022年,中国AI加速卡市场中,英伟达占据85%的出货量,而国产芯片中,华为、百度昆仑、寒武纪、燧原各自占比10%、2%、1%、1%。IDC数据显示,2023年上半年,中国加速芯片的市场规模超过50万张。从技术角度看,GPU卡占有90%的市场份额,从品牌角度看,中国本土AI芯片品牌出货超过5万张,占比整个市场10%左右的份额。当前禁运持续升级,但是国内人工智能发展的趋势和力度并不会因此而发生变化,相反我们更需要重视人工智能的发展,美国对于中国先进芯片的限制升级可能将进一步推动我国高水平科技自立自强的步伐。
预计未来国产化比例将大幅提升,短期由于国内算力芯片供需的缺口,包括H20等在内的海外芯片也预计对国内算力行业进一步形成补充。H20芯片在单卡性能上不具备突出优势,但利用NVLINK技术集群性能提升。

2.3当前国产芯片性能或已接近A100,或优于H20

目前华为海思、寒武纪、平头哥、壁仞科技、百度昆仑芯、燧原科技、海光等国内GPU厂商均已推出用于训练、推理场景的算力芯片,并且持续迭代升级,性能在不断提升。而生态方面,国内GPU厂商也推出软件开发包,支持TensorFlow、Pytorch等主流框架,并且基于自身的软件建立了开发平台,吸引更多的开发者建立完善生态体系。
国产头部芯片单芯片算力或已接近A100,或优于H20。以FP16精度为例,国产芯片中华为昇腾910算力为256TFLOPS,略低于A100的312TFLOPS,相较于H100的1513TFLOPS有较大差距,但强于H20的148TFLOPS。此外,平头哥含光800在INT8精度,壁仞科技BR100在FP32精度均超过A100。在单颗芯片峰值算力上,国产芯片已经满足大规模使用条件。随着国产芯片能力的提升,国内算力产业发展将进一步提速。

三、国产算力产业链环节梳理

3.1服务器:AI高增,国产算力芯片发展或带来格局生变

通用服务器相对疲软,AI服务器高增。受经济持续疲软、高通胀、企业资本支出缩减、去库存等影响,2023年服务器市场整体出货量不及预期。IDC数据显示,2023年第三季度,全球服务器销售额为315.6亿美元,同比增长0.5%;出货量为306.6万台,同比下降22.8%;预计2023年全球服务器市场规模微幅增长至1284.71亿美元,增长率4.26%;预计未来四年的年增长率预计分别为11.8%、10.2%、9.7%和8.9%。到2027年,市场规模预计将达到1891.39亿美元。Trforce数据显示,预计2023年中国服务器需求将同比下降9.7%。通用服务器受AI需求暴涨、全球整机支出向AI倾斜影响,通用服务器市场被进一步压缩。IDC数据,2023年上半年全球通用服务器市场和CPU市场规模均出现下滑,其中二季度CPU市场同比下滑13.4%。AI服务器高增。IDC预计,全球人工智能硬件市场(服务器)规模将从2022年的195亿美元增长到2026年的347亿美元,年复合增长率达17.3%。IDC预计,2023年中国人工智能服务器市场规模将达到91亿美元,同比增长82.5%,2027年将达到134亿美元,五年年复合增长率达21.8%。

AI服务器占比提升和国产化率提升,国内服务器厂商竞争格局或存变数。此前服务器竞争格局中,浪潮、新华三等厂商份额较高。2022年中国服务器市场份额来看,浪潮、新华三、超聚变、宁畅、中兴位列前五,份额分别为28%、17%、10%、6%、5%。2022年我国AI服务器市场份额来看,浪潮、新华三、宁畅、安擎、坤前、华为位列前六,份额分别为47%、11%、9%、7%、6%、6%。随着国产AI芯片占比的提升,AI服务器供应商格局或存在变化。当前昇腾在国产GPU中性能较为领先,国内深度参与华为昇腾算力服务器供应的厂商有望更为受益,具体可参考中国电信、中国移动等中标候选人情况。未来随着国内其他厂商GPU新产品的推出以及推理等场景的丰富,国内GPU生态也有望更加丰富,进一步可能存在新的变化。
国产化的大趋势下,通用服务器市场格局或同样产生变化。国产化CPU服务器中,X86解决方案目前有海光、兆芯、澜起,并以海光为主;ARM解决方案有华为鲲鹏、飞腾等。中国移动2021-2022年PC服务器集采中,采用海光芯片的服务器59982台占比20.90%,采用鲲鹏芯片的服务器58901台,占比20.53%,合计整体国产服务器占比高达41.43%。近期中国移动2024年PC服务器产品集采项目中,ARM服务器对比X86服务器的招投标数量达1.71:1,ARM服务器份额超越X86。

3.2交换机:以太网高速产品逐步成熟,高端产品预计实现快速增长

AI部署需要更大的网络容量,数据中心交换带宽当前处于每两年翻一番的速度快速增长。2022年8月,博通发布Tomahawk5,交换带宽提升至51.2T,serdes速率达到100Gb/sec,单通道速率最高达到800G,可以支持800G、1.6T网络部署。下一代交换机带宽将向102.4T升级,进一步为1.6T、3.2T网络奠定基础。



受益于AI发展的带动,高端交换机需求快速增长。根据IDC数据,2023年全球以太网交换机收入达到442亿美元,同比增长20.1%,其中数据中心部分的市场收入同比增长13.6%,占整个市场收入的41.5%,2023年全年,数据中心部分200/400GbE交换机的收入同比增长68.9%。工业富联2023年年报显示,800G高速交换机已进行NPI,预计2024年将开始上量并贡献营业收入,预计2024年将是800Gbps端口部署的重要一年,预计到2027年400Gbps/800Gbps的端口数量渗透率将达到40%以上。国内由于政企等需求较弱、高端AI算力芯片供应短缺等影响,IDC数据,2023年中国以太网交换机收入同比下降4%(2022年规模近50亿美元),但2023年四季度同比增长了9.1%,随着国内算力建设,预计国内高端交换机渗透提升将加速,拉动整体需求。

Infiniband当前份额提升。AI高性能计算场景对于网络性能要求进一步提升。InfiniBand最重要的一个特点是采用RDMA协议(远程直接内存访问),从而实现低时延。相较于传统TCP/IP网络协议,RDMA可以让应用与网卡之间直接进行数据读写,无需操作系统内核的介入,从而使得数据传输时延显著降低。InfiniBand技术以端到端流量控制为网络数据包收发的基础,能够确保无拥塞发出报文,从而大幅降低规避丢包所导致的网络性能下降的风险。并且InfiniBand引入SHARP技术(可扩展分层聚合和归约协议),使得系统能够在转发数据的同时在交换机内进行计算,以降低计算节点间进行数据传输的次数,从而大幅提升计算效率。InfiniBand作为一个用于高性能计算的网络通信标准,其优势在于高吞吐和低延迟,可以用于计算机和计算机、计算机和存储以及存储之间的高速交换互连,InfiniBand目前传输速度达到400Gb/s。根据技术发展路线图,2024年IBTA计划推出XDR产品,四通道对应速率800Gb/s,八通道对应速率是1600Gb/s,并将于2年后发布GDR产品,四通道速率达1600Gb/s。当前在IB市场上,主要是Nvidia(收购的Mellanox公司)和Intel(收购的Qlogic公司)两大玩家。得益于更优秀的性能以及英伟达的一体化销售战略,目前Infiniband在AI市场处于领先地位。

以太网也持续提升性能支撑高性能计算场景。以太网也有相关RDMA技术标准,尤其是RoCE(RDMAoverConvergedEthernet)的出现和成熟,RDMA在基于以太网的数据中心得到规模应用。IBTA在2010年发布了RoCE协议技术标准,在2014年发布了RoCEv2协议技术标准,经过多年的发展,RoCE已经具备路由能力,且在性能表现提升明显。2022年11月,Broadcom和Arista宣布了针对基于融合以太网(RoCE)的远程直接内存访问(RDMA)优化的开放式端到端网络解决方案。2023年5月,英伟达推出NVIDIASpectrum-X,交换带宽51.2T,通过RoCE扩展提升NVIDIA集体通信库性能。但RDMA原本设计用于连接较小规模的节点,其设计本身是为了高性能低延时,这使得它对网络有很高的要求,特别是网络不能丢包,否则性能下降会很大,这对底层网络硬件提出了更大的挑战,同时也限制了RDMA的网络规模。另外RDMA通过硬件实现高带宽低时延,对CPU的负载很小,硬件的使用和管理较为复杂。面对AI高性能计算场景,全球成立超以太网联盟UEC、中国移动推动全调度以太网GSE,进一步提升以太网传输性能。2023年7月,硬件设备厂商博通、AMD、思科、英特尔、Arista、Eviden、HP和超大规模云厂商Meta、微软共同创立UEC(UltraEthernetConsortium,超以太网联盟),在物理层、链路层、传输层和软件方面致力于开发开放的“UltraEthernet”解决方案,打造高性能以太网,以新形式进行传输层处理,在非无损网络的情况下也可实现以太网性能提升,较RDMA更灵活。
2023年8月,中国移动研究院携手30余家合作伙伴启动“全调度以太网(GSE)推进计划”,基于逐包的以太网转发和全局调度机制,突破传统无损以太性能瓶颈,2023年9月,中国移动研究院携手合作伙伴发布业界首款“全调度以太网(GSE)”样机。综合来看,以太网支撑高性能计算场景已经逐步得到验证。

CPO、硅光等技术将在高端交换机中使用。共封装光学(CPO)是业界公认的未来更高速率光通信的主流产品形态之一,可显著降低交换机的功耗和成本。随着交换机带宽从最初的640G升级到51.2T,Serdes速率不断升级叠加数量的持续增加,交换机总功耗大幅提升约22倍,而CPO技术能够有效降低Serdes的功耗,因此在51.2T及以上带宽交换机时代,CPO有望实现突破。硅光芯片是CPO交换机中光引擎的最佳产品形态,有望在未来得到广泛应用。海外博通、英特尔、Meta等厂商在CPO交换机产品均有布局。新华三2023年6月首发51.2T800GCPO硅光数据中心交换机,融合CPO硅光技术、液冷散热设计、智能无损等技术,满足智算网络对高吞吐、低时延、绿色节能的需求,其基于数据中心RoCE全业务场景的解决方案也已经逐步商用落地。锐捷网络也已经推出51.2T硅光NPO交换机和25.6T硅光NPO交换机等产品。



国内AI服务器部署规模的增加、国内GPU芯片的持续迭代、以太网高速交换机方案的成熟,将利好国内交换机厂商参与国内算力建设,国内交换机厂商400G、800G相关订单预计将实现高速增长。交换机具备技术壁垒,国内厂商已推出高端产品应对AI需求。全球来看,全球以太网交换机领域,思科份额第一,此外Arista、华为、HPE等份额居前。国内市场来看,参考IDC数据,2023年一季度,新华三(34.5%)、华为(30.9%)、锐捷(14.9%)位列国内前三。目前国内多家交换机厂商均推出了51.2T交换机,锐捷在2022年3月推出了51.2T硅光NPO冷板式液冷交换机,新华三在2023年6月推出了51.2T800GCPO硅光数据中心交换机(H3CS9827系列),浪潮在2023年11月推出了旗舰级51.2T高性能交换机(SC8670EL-128QH)。
互联网厂商加大自研,或引起格局新的变化。阿里、腾讯、字节在2023年均发布了自研的51.2T白盒交换机并宣布规模商用,分别是阿里的“白虎”、腾讯的TCS9500和字节跳动的B5020。互联网厂商的强势入局或带来市场份额新的变化。



以太网交换设备由以太网交换芯片、CPU、PHY、PCB、接口/端口子系统等组成,高速交换机需求也将直接拉动高速交换芯片需求。全球以太网交换芯片主要以博通、美满、高通、华为、瑞昱、英伟达、英特尔等厂商为主,其中思科、华为以自用芯片为主。国内交换机市场以博通、美满、瑞昱、华为、盛科通信等厂商参与为主,参考盛科通信招股书,2020年中国商用以太网交换芯片市场以销售额口径统计,份额排名前三的供应商合计占据了97.8%的市场份额,其中博通、美满和瑞昱分别以61.7%、20.0%和16.1%的市占率排名前三位,盛科通信的销售额排名第四,占据1.6%的市场份额。国内厂商在高速交换芯片领域与海外仍有差距,国产化趋势下,国内厂商也正在加速追赶,盛科通信在招股说明书中提到,公司拟于2024年推出Arctic系列,交换容量最高达到25.6Tbps,支持最大端口速率800G,面向超大规模数据中心,交换容量基本达到头部竞争对手水平。


---报告摘录结束更多内容请阅读报告原文---

报告合集专题一览X由【报告派】定期整理更新

科技/电子/半导体/

人工智能|Ai产业|Ai芯片|智能家居|智能音箱|智能语音|智能家电|智能照明|智能马桶|智能终端|智能门锁|智能手机|可穿戴设备|半导体|芯片产业|第三代半导体|蓝牙|晶圆|功率半导体|5G|GA射频|IGBT|SICGA|SICGAN|分立器件|化合物|晶圆|封装封测|显示器|LED|OLED|LED封装|LED芯片|LED照明|柔性折叠屏|电子元器件|光电子|消费电子|电子FPC|电路板|集成电路|元宇宙|区块链|NFT数字藏品|虚拟货币|比特币|数字货币|资产管理|保险行业|保险科技|财产保险|

文章版权声明:除非注明,否则均为机床资讯库原创文章,转载或复制请以超链接形式并注明出处。

上一个 自组公路车,车店师傅不会告诉你的十大注意和技巧(上)

下一个 中企承建科特迪瓦可可加工厂正式交付