电子科技大学
11-24
2020

碳化硅功率模块及电控的设计、测试与系统评估

前言:臻驱科技(上海)有限公司(以下简称“臻驱科技”)是一家以研发、生产和销售新能源车动力总成及其功率半导体模块为核心业务的高科技公司。2019年底,臻驱科技与日本罗姆半导体公司成立了联合实验室,并签订战略合作协议,合作内容包含了基于某些客户的需求,进行基于罗姆碳化硅芯片的功率半导体模块,及对应电机控制器的开发。本文即介绍臻驱对碳化硅功率模块的开发、测试及系统评估。

 

Introduction

碳化硅功率半导体近年来在能源转换应用中正在成为一个热门的话题:由于材料属性,使得它具有比硅基半导体器件更高的最大结温、更小的损耗,以及更小的材料热阻系数等。

 

因此,很多人宣称,当碳化硅功率器件应用于能源转换后,变频器系统将有更高的功率密度、更小的体积、更高的允许工作温度,以及更低的损耗,从而给应用系统带来更大优势。

 

臻驱科技计划将碳化硅芯片封装至功率模块,并应用于新能源车的电机驱动器中(以下简称“电控”),用于取代其现有的硅基IGBT功率模块(峰值功率约为150 kW)。

 

进行开发之前,应用者需要进行评估,哪些碳化硅的特性能给主驱应用带来最大的价值。例如,对于此类DC-AC的拓扑结构,碳化硅技术的导入对于电控体积的减小并没有显著的作用,因为电控的体积主要取决于其各子部件的封装技术而功率模块只占其中很小的百分比;另一些人宣称可以利用碳化硅更高工作结温的优势,少安装芯片数量并使其工作在高温,从而降低成本。也许,此特性适用于如地下钻探等环境温度很高的应用,但对于新能源车而言,是否有必要将结温推高而牺牲效率(注:碳化硅在高温下的损耗会显著增加),以及是否因为节省了芯片数量就能节省系统成本,是需要被质疑的。

 

在臻驱看来,碳化硅技术应用于主驱电控的主要系统优势,是在于效率的提升,以及峰值输出功率的增加。前者可以提升续航里程或减少电池安装数量,后者可以给整车带来更大的百公里加速度。臻驱第一款开发的是750V的碳化硅模块,针对A级及以上的乘用车型;第二款是1200V碳化硅模块,应用于800V系统的乘用车或商用车。在臻驱开发的碳化硅模块中,臻驱采用的是罗姆最新的第四代750V及1200V芯片,以1200V芯片为例,其综合性能较上一代产品有显著提升,见表1。

 

本文介绍了该项目的研发过程:包含系统性能评估(top-down flow),用于选择芯片并联数量;碳化硅模块的本体设计,包括封装形式、电磁、热、结构、可制造性等;模块性能测试,对标某知名IGBT功率模块;根据模块的标定结果迭代系统性能评估,包括最大输出功率、高效区并辅以台架实测结果,并展开其对续航里程影响的分析。基于以上结果,本文最后将总结一下关于碳化硅模块应用于主驱设计的方法论。

 

系统分析
 

根据罗姆提供的第四代SiC芯片规格书,作者将其相关参数导入至臻驱的系统分析工具——ScanTool中。ScanTool是一种时域-频域混合的稳态仿真工具,主要用于电力电子系统的前期方案设计,可用于计算系统在不同软硬件配置下的功率、效率、输出波形失真、母线电容的电压纹波及电流应力等。ScanTool的计算原理是将时域激励波形转成频域的频谱,同时将负载用频域矩阵的形式表述,两者相乘从而获得频域的响应,再对该频域响应逆变换成时域波形。通过此种方式,该工具的输出波形具有极高的稳态精度,同时又避免了一般的时域仿真工具从初始状态到最终稳态的等待时间,使其仿真时间可以从每个仿真数十分钟缩减至1-2秒。因此ScanTool特别适合动辄需要仿真成百上千种软硬件设计组合的高自由度的电力电子系统的前期设计。一个图像化的原理介绍见图1。


图1.Scantool原理框图

 

一般而言,当人们设计一款基于IGBT芯片的功率模块时,芯片的种类及并联数量的选择依据大多为芯片的结温(或者说是最大结温时能输出的峰值功率)。此项目采用碳化硅芯片,单个面积小、适合多芯片并联,但其价格较IGBT高出不少。另一方面,碳化硅属于单极性器件,因此碳化硅芯片的并联数量越多,其总导通损耗越低,并可因此提高电控的效率。所以,选择芯片并联数量时,除了最高结温限制了最大输出功率,还必须考虑它对于系统层面的优势——如之前所提到过的,即必须考虑综合的效率提升,尤其是如在NEDC、WLTC、CLTC等循环路况下的续航里程的提升,并结合财务回报模型进行综合分析。一种简化的财务模型可以包含使用碳化硅的模块(较IGBT模块)导致的成本差异、电池安装成本减少,以及后续的充电使用成本减少。前两者为初始投资支出(CAPEX),后者为运营支出(OPEX),最终可以折算出获得财务回报的时间点。根据车型与用户使用频次,该盈亏平衡点可以在1-4年之间。由于该系统层面测算模型涉及到很多变量的假设,本文不再赘述。

 

经过一系列的系统分析,我们验证了芯片并联数量过多,不会对续航里程进一步提升有过多帮助,而只能提升该车的最大加速度;芯片数量过少,貌似模块成本降低,但也可能失去效率/经济优势——尤其是考虑碳化硅芯片的正温度系数后。

 

基于此结果,作者对选择的芯片数量依据财务模型进行了优化,既能避免无谓的多安装的芯片而导致的成本增加,也避免了芯片并联数量过少而导致的经济优势不再。同时,臻驱碳化硅模块也引入了平台化设计的理念,即当客户对于整车加速性有更高要求的时候(例如对于部分高端车型),模块内部可以根据客户需求而并联更多的芯片,从而提高最大瞬时输出功率,给整车用户提供更大的推背体验。

 

模块本体设计
 

当芯片选型与并联数量确定后,我们进入功率半导体模块的本体设计阶段,它一般包含电磁、热、结构与可制造性等内容。需要注意的是,碳化硅的开关速度比硅基的IGBT高很多,所以,一些在IGBT模块中通常并不严苛的指标,会在碳化硅模块的设计中变得十分关键。这些指标包括了各并联碳化硅芯片之间的开关时刻同步性、芯片的瞬态电流电压应力的均衡性、功率链路对于门极的干扰等。其中,前两个指标体现在模块外特性上,它们会决定该模块的极限电压与电流输出能力;功率链路对门极的干扰,是器件在开通关断的瞬间,将电磁能量通过空间耦合到控制链路上,其造成的后果可能是导致门极瞬态电压应力过大导致门极老化加快、寿命减少,严重的可导致功率的误触发,造成模块及系统的损坏。

 

此外,在臻驱之前的碳化硅功率模块的设计项目中,发现碳化硅模块中较为明显的振荡现象,它是由功率模块的漏感与碳化硅芯片的结电容构成的LC谐振,通常其频率在数十兆赫兹。该振荡会影响到电控系统的电磁兼容表现,并降低碳化硅模块的效率优势,甚至在某些极限工况下,此谐振会进一步恶化,使电压电流幅值超越器件的安全工作区域(SOA)。为了解决这个问题,臻驱开发了一系列设计辅助工具,并基于此优化了模块本体设计,最终将该问题基本解决。图2是两个输出波形的对比。可以看出,在相同的工况下,优化后的模块设计不再有明显的振荡现象。

 

最终,臻驱设计的碳化硅功率模块经过多次迭代,将模块内部多芯片之间的瞬态应力不平衡度降低到了10%以下。根据团队内部进行的竞品对标评估,认为仅此性能就已经做到了业内的顶尖水平。同时,功率链路对于门极的电压毛刺干扰也大大减小;模块开关时刻的高频振荡问题也得到了较好的解决。

 

碳化硅模块性能对标测试
 

功率模块的测试包含性能与可靠性测试,而性能测试可以分为用于导通损耗评估的静态测试与用于开关损耗评估的动态测试。后者通常的实现方法是一种称为“双脉冲测试”的方法,它需要对于被测器件施加不同的电压、电流、器件温度,甚至不同的门极驱动电阻,以进行全面测试评估。一个完整的测试DoE表格(Design of Experiment)可包含数千个工作点。考虑到接着还需要进行大量的测试数据的后处理工作,功率器件的动态测试显然是一个费时费力的任务。因此,很多情况下,用户不得不选择降低测试点密度,即删减DoE表格的长度来缩短测试时间。

 

臻驱科技开发出了一套高精度、高测试速度的功率模块动态测试标定平台,它基本可以做到“一键”完成数千个工作点的全自动测试,并自动化后做数据的后处理,并半自动地生成标准化的模块测试报告。使用者所需要做的,只是对测试前期硬件进行配置、生成科学的DoE表格,以及对最终的测试报告添加主观评估的内容。对一个有3000多个测试点的模块标定任务,相较于一般的手动/半手动测试系统,该自动化标定平台可以将工作从2个月压缩到2天,且包含了数据后处理及报告生成。图3介绍了该测试平台的核心功能。

 


 

本项目中,动态性能的参考对象为一知名的IGBT功率模块。测试结果显示,臻驱开发的碳化硅功率模块在动态性能上全面超越了参考的IGBT功率模块,这包括了开通损耗、关断损耗及体二极管的反向恢复损耗。同时,碳化硅模块在极端温度下也没有出现明显的振荡。

 

碳化硅电控的效率对标测试
 

接着,基于碳化硅功率模块及其配套的门极驱动被装入了电机控制器,并匹配一永磁电机进行效率图的标定,其结果用于与基于IGBT功率模块的电控的对标。电控及驱动电机测试系统见图4。

 

IGBT电控与碳化硅电控的实测效率图与关键参数对比分别见图5与表2。可以看到,采用了碳化硅功率模块的电控无论是在最高效率、最低效率,还是高效区都有了显著的提升。尤其是在低扭矩的轻载情况下,碳化硅的效率优势极为明显。这主要是得益于单极性功率器件在轻载时的导通损耗低,及全区域的开关损耗低的特性。

 

 

碳化硅电控的效率仿真验证
 

此外,我们也将双脉冲测试的数据导入了系统评估工具ScanTool,对效率图进行了仿真计算。需要指出的是,由于碳化硅器件有较明显的正温度系数特性(即损耗随着温度升高而增加),ScanTool中设置了温度迭代功能,即根据前一次仿真结果的器件结温计算该器件在此结温下的损耗,再进行结温复算,直至前后两次计算结果的温度偏差小于1度。可以想象的是,当芯片并联数量过少的时候,由于结温升高会引起器件的损耗增加;反之,芯片并联数量较多时,单个器件的损耗较低,使其工作结温也较低,在此较低的结温下,碳化硅芯片的损耗将进一步减少。可见,具备温度-损耗的迭代功能的ScanTool是保证建模精度的一个关键。

 

仿真的结果显示在图6及表3。对照图5和表2的实测结果,我们可以看到,分析工具与实测结果是十分吻合的。两者之间的剩余差异主要体现在低速区,在这个区域内的电控输出功率很低,因此电控内的残余损耗显得明显,如铜排与母线电容上的损耗等。此外,脉宽调制的方案、测试设备的精度也是可能的原因,但这些较小的差异不影响接下去的系统级续航里程分析。

 

碳化硅电控的最大输出能力分析

 

碳化硅模块内部的芯片并联数量越多,其电控的输出能力越大。在这项分析中,我们假设碳化硅与IGBT允许工作在相同的最高结温下即150℃。ScanTool的仿真结果显示,当模块采用6芯片并联时,最大输出功率增加12.4%;当采用8芯片并联时,功率增加31%。

 

在实验中,由于动力总成台架的能力限制,我们使用了电感作为负载来测试最大输出能力。相较于采用真实电机负载,这个妥协的方案用于评估碳化硅模块测试是可以接受的,原因是碳化硅芯片双向导通的特点使得其损耗对于负载的功率因数的大小并不敏感。
 

图9展示了碳化硅电控输出达到了600 Arms,且已达到了测试设备的最大能力。需要指出的是,在电控应用场景中,我们保持了10kHz的开关频率,而此时碳化硅模块的开关损耗的百分比仍是较低的(约20%)。因此,通过升级软件的控制频率和驱动电路的功率能力,可以显著提升电控的开关频率而不导致明显的功率降额。在高开关频率下,负载的基波频率也可以显著提升,即将电控用于如高速空压机、航天等应用场景。
 

图 9 碳化硅电控实际运行波形(基波频率300Hz, 电流有效值600A,直流母线420V)

 

碳化硅电控带来的系统优势评估

此处的系统评估指的主要是整车层面的续航里程。为此,臻驱科技已开发了一套整车基于指定路谱的计算工具:使用者选定一款车型,并指定路况模板后,该工具将输出对应于动力总成(电机+电控)的扭矩与转速指令,并根据ScanTool计算或实际标定得出的碳化硅电控及电机的效率图,计算出整车的续航里程。

 


图 10  整车续航里程系统评估工具概念图 (*注:部分子部件图片来自网络)

图11  搭载IGBT电控与SiC电控的整车能耗分布对比 (一个CLTC-P循环路况下)
 

此处我们选择了一款低风阻的轿车车型,并匹配如图5所示的IGBT/SiC电控及其对应驱动电机实测效率,置于CLTC-P(China Light-duty Vehicle Test Cycle – passenger car, 中国轻型汽车行驶工况-乘用车)路谱下进行仿真分析,整车系统能耗对比见图11。较原来搭载的IGBT电控方案,搭载了臻驱碳化硅电控的整车能耗降低4.4%,即搭载相同电池容量情况下,续航里程可增加4.4%!这个令人振奋的结果,证明了碳化硅技术在新能源车主驱应用中的显著优势。用户可根据此结果,进一步进行整车经济性方面的分析。
 

项目总结

本文介绍了臻驱科技对于碳化硅功率模块及电控的开发、测试及系统评估。实测结果证明,该碳化硅功率模块工作稳定,并相较于IGBT模块在损耗方面有明显降低;所对应的碳化硅电控,相较于IGBT电控,无论在最大输出功率还是续航里程上都有显著的优势。此项目也侧面证明了,碳化硅技术应用于新能源车的主驱是大势所趋。
 

图12 臻驱自动化产线
 

本文所开发的碳化硅功率模块与某主流IGBT功率模块在功率端子部分兼容,而门极位置经过了优化改动,其目的是优化模块内部的电气性能。本文所开发的碳化硅电控与IGBT电控的功能完全兼容而性能优势明显,并可在臻驱科技现有的电控自动化产线上实现批量生产。

 

臻驱科技自主研发了一套自动化产线(见图12),其规划产能为每年15万台,组装线自动化率约85%,测试线自动化率为100%。工厂通过了TUEV(德国技术监督协会的)的IATF16949质量体系认证。

 

临近尾声,作者对碳化硅电控的心得讨论如下:
 

1. 碳化硅用于电控的主要优势在于效率,而更高效率带来的经济优势在于电池安装成本及充电成本的降低;

2. 碳化硅模块设计时,其芯片并联数量需要一定过设计以实现最佳经济性;更多的芯片并联会降低经济性,但可帮助整车实现更大的加速度;

3. 碳化硅模块本体设计难点在于电磁部分,需要开发出精确的建模和设计辅助工具;

4. 碳化硅技术用于小风阻车型时续航里程可增加4%以上。

 

总体而言,碳化硅电控适用于续航里程长、风阻小的高端车型,并对整车使用频次较高的用户有更高经济价值。


电子科技大学
11-24
2020

IoT\t、5G与边缘计算将会擦出怎样的火花?

边缘计算是数字世界中最令人兴奋的新概念之一。利用占用空间很少的微型数据中心网络,边缘计算使系统能够实时收集并分析重要数据,而不会增加现有基础设施的负担。


在物联网系统中,通常以端到端的方式,在特定的高度传感器密集型环境中获得大量数据,且数据是在边缘生成并处理的,以降低延迟并减轻数据中心的负载。此前,边缘计算的重点是连接在物联网上的设备的技术,比如工业机器人。

不过,随着技术的不断发展,大数据、IoT 和AI的组合带来了无限潜力,对于边缘计算的需求已经从解决由IoT生成的数据增长而导致的数据长距离传输的带宽成本问题,进化至处理实时应用程序。在这类组合中,边缘计算需要满足低延迟、加速实时创建和支持应用。

什么是边缘计算?


边缘计算有很多术语,包括“边缘云计算”和“雾计算”。“边缘计算”本身通常被描述为在本地服务器上运行的应用,旨在让云进程更靠近终端设备。

“企业计算”与边缘计算类似,但更倾向于准确地描述网络功能,却非描述计算的位置。“雾计算”概念是由Cisco创造的,许多人将其定义为位于边缘计算空间上下的计算,甚至作为边缘计算的一个子集。

作为参考,端点设备和端点通常被称为“边缘设备”,以免与边缘计算相混淆。边缘计算可以采用多种形式,包括小型聚合器、本地服务器或微型数据中心。微型数据中心可以按区域分布在永久性或可移动的存储容器中。

边缘计算的价值


一般来说,传感器、摄像头、麦克风以及一系列不同的物联网和移动设备从其所在位置收集数据,再发送到集中式数据中心或云中。

数据显示,到2020年,全世界会有超过500亿台智能设备实现连接。这些设备每年将产生以泽字节(ZB)计算的数据,到2025年将增长到150 ZB以上。这些数据发送到云会带来一些重大问题。

首先,150ZB的数据会造成容量问题。其次,将大量数据从其原始位置传输到集中式数据中心代价高昂。据估计,目前只有12%的数据得到了分析处理,而只有3%的数据有助于产生有意义的结果,剩余97%的数据在收集和传输之后,就被浪费了。第三,存储、传输和分析数据能耗巨大。因此,我们需要找到一种有效的方法来降低成本并减少浪费。

引入边缘计算,在本地存储数据,可以降低传输成本。同时,利用AI功能也能够消除数据浪费。例如,现在正在使用中的新型低功耗边缘计算服务器CPU,它们以GPU和ASIC或一系列芯片的形式连接到AI加速 SoC。

除了解决容量、能源和成本问题外,边缘计算还可以提高网络可靠性,因为应用可以在发生普遍的网络中断期间继续运行,通过清除某些威胁配置文件(例如全局数据中心拒绝服务 (DoS) 攻击),可以提高安全性。

最重要的是,边缘计算能够为实时场景(例如虚拟现实商场、移动设备视频缓存)缩减延迟,同时在自动驾驶汽车、游戏平台或快节奏制造等环境中创造许多新的应用机会。

5G成为边缘计算的最强推动力


5G基础架构是边缘计算最具说服力的驱动力之一。5G电信提供商发现,除了传统的数据和语音连接之外,他们还可以构建生态系统以托管独特的本地应用。通过将服务器置于基站旁边,蜂窝流量提供商可以向第三方主机应用开放其网络,从而改善带宽和延迟。

Credence Research认为,到2026年,整个边缘计算市场的价值将为96亿美元左右。相比之下,Research and Markets分析认为,移动边缘计算市场将从今天的几亿美元增长到2026年的超过27.7亿美元。尽管电信行业可能是发展最快的增长动力,但是据估计,它们仅会占据边缘计算市场总量的三分之一。这是因为web scale、工业和企业集团也将为其传统市场提供边缘计算硬件、软件和服务,期望边缘计算也将开创新的应用机遇。

比如目前大众快餐店的厨房正朝着更加自动化的方向发展,以确保食品质量,减少员工培训,提高运营效率并确保客户体验达到预期。Chick-fil-A 是一家连锁快餐企业,2018 年 他们宣称: “通过提高厨房设备智能化,我们能够收集更多数据。通过这些数据,我们可以构建更多智能系统,进而拓展业务。” 他们还指出,在边缘计算的帮助下,许多餐厅现在可以处理的业务量提高到之前的三倍。

总体而言,成功的边缘计算基础架构需要结合本地服务器计算功能、AI 计算功能以及与移动/汽车/IoT 计算系统的连接(图 1)。

图 1:边缘计算通过使用微数据中心来分析和处理数据,从而使云计算过程更靠近终端设备


用实例了解边缘计算


为了解使用边缘计算带来的延迟改善优势,罗格斯大学和 Inria 使用 Microsoft HoloLens分析了边缘计算(或称“边缘云”)的可扩展性和性能。

在案例中,HoloLens 读取条形码扫描仪,然后使用建筑物中的场景分割功能将用户导航到指定房间,并在 Hololens 上显示箭头。该过程同时使用了映射坐标的小数据包和连续视频的较大数据包,以验证边缘计算与传统云计算相比延迟的改善。HoloLens 先读取二维码,然后将映射坐标数据发送到边缘服务器,该服务器使用了 4 个字节加上标头,花费了 1.2 毫秒 (ms),服务器找到坐标,并通知用户该位置,总共耗时 16.22 ms。如果将同样的数据包发送到云,则大约需要80ms(图 2)。

图 2:比较边缘设备到云服务器与边缘设备到边缘云服务器的延迟

同样,他们还测试了在使用 OpenCV 进行场景分割以将 Hololens 的用户导航到适当位置时的延迟。HoloLens 以 30 fps 的速度流传输视频,并在边缘计算服务器中以 3.33 GHz 的频率在配备 15GB RAM 的 Intel i7 CPU 上处理图像。将数据流传输到边缘计算服务器需要 4.9 ms,处理 OpenCV 图像额外花费了 37 ms,总计 47.7 ms。云服务器上的相同过程花费了将近 115 ms,清楚显示了边缘计算降低延迟的明显优势。

该案例研究显示了边缘计算在降低延迟方面的显著优势,但是未来还会有更多新技术可以更好地实现低延迟。

5G 概述了当今延迟少于 1ms 的案例(图 3),而 6G 已经在讨论将其降低到 10 微秒 (µs) 的问题。5G 和 Wi-Fi 6 会增加连接带宽,其中5G 预计将带宽提高到 10Gbps,而 Wi-Fi 6 已经支持 2Gbps 带宽。AI 加速器声称场景分割的时间少于 20µs,这与上述示例技术论文中引用的 Intel i7 CPU 在大约 20ms 内处理每个帧的速度相比,又有了显著进步。

图 3:与图 2 中 10s 和 100s 的 Msps 相比,从 Hololens 到路由器以及从路由器到边缘服务器的带宽改善高达 10Gbps,另有 AI 处理的改进(从 20ms 改善到 20us),往返延迟 < 1ms。

显然,如果边缘计算表现的比云计算更具优势,那么将计算全都转移到边缘设备中不是最好的解决方案吗?很不幸,目前并不是所有的应用程序都是如此(图 4)。在 HoloLens 案例研究中,如果数据使用的 SQL 数据库太大,则无法存储在耳机中。今天的边缘设备,特别是发生物理磨损的设备,没有足够的计算能力来处理大型数据集。除了计算能力之外,云或边缘服务器上的软件比边缘设备上的软件开发成本更低,因为云/边缘软件不需要压缩到更小的内存资源和计算资源中。

图 4:比较云计算和边缘计算与端点设备。

由于某些应用程序可以根据基础架构不同位置的计算能力、存储能力、存储器可用性和延迟能力来合理地运行,因此无论是在云中、在边缘服务器还是在边缘设备中,未来的趋势是混合计算能力(图 5),边缘计算是建立全球混合计算基础架构的第一步。

图 5:安装在 Hololens、边缘服务器和云中的 AI,使混合计算架构能够根据应用需求优化计算、存储器和存储资源。


边缘计算与AI


许多使用边缘计算的新服务都有低延迟需求,因此许多新系统都采用了最新的行业接口标准,包括PCIe 5.0、LPDDR5、DDR5、HBM2e、USB 3.2、CXL、基于PCIe的NVMe以及其他基于新一代标准的技术。与上一代产品相比,这些技术都通过改进带宽来降低延迟。

这些边缘计算系统还增加了AI加速功能。例如,某些服务器芯片通过x86扩展AVX-512向量神经网络指令 (AVX512 VNNI)等新指令提供AI加速。

除此之外,大多数新系统中还添加了自定义AI加速器。这些芯片所需的连接性通常采用带宽最高的主机来实现加速器连接。例如,在具有多个AI加速器的某种交换配置中,由于带宽要求影响了延迟,因此很多系统中采用了PCIe 5.0接口。

除了本地网关和聚合服务器系统之外,单个AI加速器通常无法提供足够的性能,所以需要借助带宽非常高的芯片到芯片SerDes PHY来扩展这些加速器。最新发布的PHY支持56G和112G连接。

图 7:常见服务器SoC位于边缘,根据任务数量、功率、延迟和其他需求,具有不同的处理器数量、以太网吞吐量和存储能力。

AI算法正在突破内存带宽要求的极限。例如,最新的BERT和GPT-2型号分别需要345M和1.5B参数,为了满足这些需求,不仅需要高容量的内存能力,还需把许多复杂的应用放在边缘云中执行。为了实现这种能力,设计人员正在新的芯片组中采用DDR5。除了容量挑战之外,还需要存取AI算法的系数,以进行非线性序列中并行执行的大量多次累加计算。因此,HBM2e也成为一种被迅速采用的新技术,有些芯片实现了单芯片中的数次HBM2e实例化。

图 8:通用AI SoC具有高速、高带宽、内存、主机到加速器,以及高速芯片到芯片接口,用于扩展多个AI加速器。

未来,边缘计算的需求将集中在降低延迟和功率,确保有足够的处理能力来处理特定任务上。新一代服务器SoC解决方案不仅将具有更低的延迟和更低的功耗,而且还将纳入AI功能,也就是AI加速器。

但是很明显,AI和边缘计算的需求也在迅速变化,我们今天看到的许多解决方案在过去两年中已多次取得了进步,并将继续加以改进。

图 9:新一代服务器SoC再加上AI加速器,将加快边缘计算速度


结语


Futuriom曾在《5G,物联网和边缘计算趋势》中写道,5G将成为边缘计算技术的催化剂,使用5G技术的应用将改变流量需求模式,为移动蜂窝网络的边缘计算提供最大的推动力。

总的来说,边缘计算是实现数据快速连接的一项重要技术,它将云服务更靠近边缘设备,降低延迟,为消费者提供新的应用和服务;还将衍生出更多的AI功能,将其扩展到云以外。此外,它还将成为支持未来混合计算的基础技术。

来源: 半导体行业观察

电子科技大学
11-24
2020

从iPhone的发展,看苹果的芯片变迁

来源:内容由半导体行业观察(ID:icbank)编译自 「 eetimes.jp 」,谢谢。


2020年10月,苹果两款新的手机—iPhone 12 Pro和 iPhone 12正式出售。在11月,大屏幕的 iPhone 12 Pro Max和小型化的 iPhone 12 mini将出售,这就是苹果在智能手机领域的所谓的高中低端布局,但但和其他厂商给你不一样,苹果的这些手机都采用了最先进的“ A14 Bionic”处理器。

众所周知,许多专业的半导体制造商都根据手机市场定位开发和销售两种或三种类型的芯片/例如,高通公司的“ Snapdragon”具有8系列、7系列、6系列、4系列和2系列,联发科的“ DIMENSITY”也具有1000系列、800系列和700系列等等。同样,在Intel的“ Core”系列中,也有i3,i5,i7,i9等由单独的硅制成的芯片。

但是,在苹果方面,公司的差异化手机布局基本使用的都是同一款芯片,其差异化主要是通过其他功能方面体现。

据我们了解,苹果正在将处理器的硅类型最小化。过去用于顶级型号的处理器会在下一代顶级型号诞生时进入中端和入门级,新的顶级型号将使用相同的处理器,高端和中端范围会根据相机的数量等而有所不同。

苹果公司通过最大限度地减少昂贵的硅种类来不断创建新的差异化布局的策略非常有效。增加硅类型的数量不仅会增加设计,而且会成比例地增加制造成本和测试。此外,存在问题时的校正工作也很大。


图1 显示了拆下包装盒,外部和显示屏的iPhone 12 Pro。以前附带的电源适配器和耳机已被取消,包装盒也越来越薄。外观也让人联想到“ iPhone 4”。卸下显示屏时,您可以看到内部结构。


图2 显示了拆卸iPhone 12 Pro的过程。 按左上角的箭头顺序拆卸。 内部使用了两种螺钉和双面胶带,因此不能强行打开,而是在观察的同时准备好工具,并在拍照时进行拆卸,因此实际上需要一个多小时。 花了时间。 只需几分钟即可完成简单的拆卸(第二款iPhone需要6分钟才能卸下面板)。

将按顺序描述图2。(1)拆下左侧中央的板子(2)拆下右上方的三目镜相机,(3)拆下右侧中央的电池,(4)拆下左下方的SIM卡插槽,(5)拆下右下方的扬声器单元,( 6)去除左下的TAPTIC(振动),(7)去除中心的非接触充电线圈,(8)去除左上方的UWB通信天线,(9)去除Lightning端子和麦克风的底部。

尽管在图2中被省略,但是操作按钮(音量等)和天线单元被嵌入在框架的侧面。

拆下的物品无需螺丝或双面胶带即可重新排列并存放,以便无需工具即可用指尖将其拆开。我们计划将其用于研讨会和讲座(用于2分钟的拆卸展示等)。

具有替换结构的“ iPhone 12”


图3 并排显示了从2017年iPhone X到2020年iPhone 12 Pro的所有最近四年拆除的摄像头和主板。iPhone X已经成为一个巨大的转折点!除了通过以L形排列组合两个电池来确保电池容量外,还通过采用两层板结构使板小型化,在该结构中,两块板通过垫片堆叠在一起。


这完全破坏了常规单层基板和电池的形状。2018年发布的iPhone XS使用变形电池,该电池将两个电池合并为L形。采用变形的电池是一个巨大的挑战。在2019年,iPhone 11 Pro的主计算机板更小,因为相机有三个摄像头。

从iPhone X到iPhone 11,基本内部布局相同。中心的左侧是电池,中心的右侧是计算机板。

在最新的iPhone 12 Pro中,基本布局已被替换。乍看右侧的电池和左侧的板,看起来像是一个替代品,但实际上是一个很大的改变,因为布线路径和信号方向也会改变。通过将产生大量热量(=增加内部距离)的相机和处理器分开来进行散热的对策可能是更换的背景。将来,Tecanarier计划拆除iPhone 11和iPhone 12的显示屏,并实际操作它们以用温度计澄清温差。

iPhone 12 Pro具有更多的ToF传感器(Apple称其为“ LiDAR”),并且相机区域约占总数的20%。

主要芯片的过渡,可以一眼看出半导体制造商的合并和废除


表1 总结了从iPhone X到iPhone 12 Pro的主要芯片的一些变化。从这张表中,我们可以看到由于半导体制造商的合并/并购而发生的变化(我们还总结了自2007年以来iPhone中出现的半导体历史)。


对于2018年的iPhone XS Max,苹果采用了内部开发的用于优化电源的PMIC(电源管理IC)芯片,而不是一直使用的Dialog Semiconductor(以下称为Dialog)制造的芯片。从那时起,苹果就使用了自己的PMIC。

在2018年和2019年,苹果使用了Intel的LTE调制解调器,但为了实现5G(第五代移动通信)通信,苹果把高通基带用于iPhone 12 。英特尔的调制解调器业务最初是从德国的英飞凌科技(Infineon Technologies)手中收购的,苹果在2019年收购了英特尔的调制解调器业务。也许2021或2022年的iPhone将使用Apple的5G调制解调器。

处理器集成密度


图4 显示了处理器从iPhone X到iPhone 12 Pro的过渡。近年来,苹果公司宣布了A系列晶体管的数量。根据晶体管的数量和实际取出的硅片以及测量的面积,计算出每单位面积的集成密度,并在每一代之间进行比较。顺便说一句,苹果还宣布了基本的内部配置,它告诉我们处理器如何成为差异化和优势的源头。


从使用10nm工艺的“ A11”到使用7nm的“ A12”,集成密度提高了约1.9倍。从A12(7nm)到A13(7nm +),改进了4%(实际上,通过扩大芯片面积可以改善功能)。而在A14中,通过从7nm +转移到5nm,集成密度又显着提高到1.6倍。这样,小型化的结果非常清晰。我们拥有每一代芯片的清晰照片(我们拥有几乎所有制造商的所有处理器照片,而不仅仅是Apple),并且将来我们将在各个地方(包括该系列)报告A14的分析结果。

通过iPhone可以看到半导体的发展吗?


2020年是日本“ 5G的元年”。随着3月份开始提供5G服务,许多5G智能手机已经发布。廉价机型和旗舰机型等型号已投放市场,而5G通信被视为下一次增长的关键。

我们已经拆解并观察了数十种5G智能手机, 表2列出了其中的 六种代表性型号。两者都支持低于6GHz的频段(表2中只有一种型号支持毫米波),并且相机是差异化的来源。


“ Google Pixel 5”(发布于2020年10月15日)和iPhone 12(发布于10月23日)是双摄像头,其他四个型号均配备了可以测量距离的ToF传感器。对5G的支持并不是高端/旗舰产品定位的要素,但是通过结合摄像头和ToF传感器等新技术,它已成为高端/旗舰产品。

图5 显示了2007年发布的首款iPhone 2G和最新的iPhone 12 Pro的外观和内部板,以及iPhone中使用的处理器芯片。在此期间,Apple几乎每年都在不断发展处理器,通信和传感器。他们是从“ A4”开始推动内部处理器制造的。iPhone 12中使用的A14是苹果处理器的第十个芯片。它已经持续发展到可以完全适应其他领域(自动驾驶和机器人技术)的程度,例如增强AI(人工智能)功能和GPU功能以及相机处理。


对我而言,苹果是我分析上一个半导体制造商时代以及当前评估和分析许多系统和芯片(另一个伟大的制造商)时代最激动人心的半导体发展之一。


电子科技大学
11-24
2020

分析师:PCM和MRAM将主导新兴存储器市场

来源:内容来自 半导体行业观察综合,谢谢。


MKW Ventures的Mark Webb表示,在接下来的十年中,两种新兴的非易失性存储器类型(相变存储器和磁RAM)将在独立存储器中处于领先地位。

Mark Webb在最近的虚拟闪存峰会上做了一系列演讲。他得出的结论是,尽管目前正在开发中的新兴存储器技术种类繁多,但英特尔的相变存储器(称为3D XPoint存储器或Optane)将在2025年和2030年主导独立的新兴非易失性存储器市场,这是部分原因是英特尔亏本出售内存业务的原因。

Webb将新兴内存定义为PCM,MRAM,ReRAM和FeRAM以及其他。它不包括NAND,DRAM,NOR,SRAM,EEPROM等。在这些分析中,Webb并不讨论开始受到关注的嵌入式/ SoC新兴存储器MRAM。

韦伯认为,由英特尔提供的PCM将在2025年占据独立新兴存储器市场90%的份额,而MRAM仅次于第二,在2030年仍将如此。

韦伯表示,尽管英特尔亏本出售了相变内存。但韦伯在FMS演讲中说,3D Xpoint的营业利润率非常低,并估计出售Xpoint会使英特尔每季度损失3亿多美元。韦伯说,尽管随着内存生产规模的扩大,这种损失可能会减少,但这种损失将持续下去。

他补充说,没关系。永久内存非常适合数据中心,可以将英特尔架构与AMD和其他竞争对手区分开来。韦伯说,内存余量并不是英特尔的目标。

韦伯在一篇博客文章中说:“我们预测Optane的收入将大幅增长,这仅仅是因为英特尔正在向它投资数十亿美元,并正在为其发展新的总线连接。如果没有英特尔,则将数字除以5到10。”

尽管韦伯的分析对于诸如ReRAM和FeRAM之类的替代存储器的支持者似乎是黯淡的,但他提供了一些理由。他指出,在英特尔和美光共同推出PCM五年后,除对英特尔的销售外,美光的年销售额还不到1000万美元。韦伯表示,在同意一项技术可行之后,要想达到高产量,需要很长时间。

韦伯观察到:“如果ReRAM或FeRAM起飞,它将在四到五年内,并且不会取代其他市场。”

延伸阅读:

MRAM/ReRAM/PCM/XPoint/FRAM谁主沉浮?


PCM:也称为PRAM,相变存储器技术基于在正常环境温度下无定形或结晶的材料。晶态具有低电阻,非晶态具有高电阻。

在化学和物理学中,任何无定形的物质都被称为液态或气态。固态,液态和气态也称为“相位”。相变存储器的名称源于位单元在晶相和非晶相之间切换的结果。


自20世纪60年代开始研究以来,PCM 于2006年首次出货。该技术通常基于硫属化物玻璃(chalcogenide glasses),英特尔/美光联合开发的3D XPOINT内存就是基于PCM的。PCM的最大优势是:它可以使用简单的2端二极管,而不是双向器件进行选择,因为在设置、复位或读取位时电流的运行方向相同。

MRAM: 磁性RAM基于巨磁阻(GMR),其自20世纪90年代初以来一直用于HDD记录头。当多层GMR堆叠的某些层在相同方向上被磁化时,另一层将表现为低电阻。当它们以相反方向磁化时,层的电阻会很高。这种磁化可以通过导线周围的场(Toggle Mode MRAM)产生,也可以通过使正向或反向电流通过位单元(Spin-Tunnel Torque或STT MRAM)来实现。目前,这两种产品都有出货。

MRAM已经获得了大量投资,这产生了许多STT MRAM变体,包括垂直STT、过程自旋扭矩、旋转轨道扭矩(SOT)等。尽管迄今为止所有设备都使用了三端选择器,但最近的研究表明,未来几年可能会使用双端选择器。

ReRAM: 电阻式RAM有许多名称,ReRAM、RRAM和Memristor是最常见的。ReRAM最广泛的定义包括使用电阻存储元件的任何存储器; 包括PCM和MRAM。为了将它们区分开来,这里的ReRAM是任何非PCM或MRAM的、基于电阻的存储技术。


大多数ReRAM中的位设置/复位机制涉及金属丝或氧空位的产生和消除:原子实际上在器件内移动。这自然会导致磨损,但研究人员认为这种磨损可以大大低于NAND闪存。该过程使用正向和反向电流,这有时使得三端子选择器比双端子选择器更容易使用。但是,某些ReRAM可以与双端选择器配合使用,某些变体甚至可以在位单元内执行选择。这使得它们在单层中使用时是经济的,并且允许它们在多层中构造以进一步降低成本。

虽然大多数ReRAM使用新材料,但一些公司已经开发出可以使用已经用于大批量芯片生产的成熟材料制造。目前,某些ReRAM已经批量出货。

FRAM: 铁电存储器,FRAM或FeRAM,但它并不使用铁,这项技术之所以这样命名,是因为它的机制与铁被磁化和去磁时的机制十分类似。在一个方向上的电流将使FRAM单元内的原子转移到分子的一端,反向电流将它们转移到另一端。

FRAM通常不是电阻存储器。今天生产的FRAM使用破坏性读取机制,其向单元施加写入电压。如果电流流动,则意味着原子从单元的一端移动到另一端,并且单元处于擦除状态。如果没有电流流动,则原子已经在电池的那一端。如果读取操作导致原子移动,则在读取单元格之后必须将该原子恢复到原始位置。


最近的研究发现,FRAM可以使用氧化铪制成,氧化铪是一种广泛应用于半导体工厂的材料。这是FRAM区别于其他新兴存储技术的决定性优势。目前的FRAM使用三端选择器,这对其承载能力有一定限制。

其他技术: NRAM由碳纳米管,石墨烯存储器,导电电子RAM(CeRAM)和上述技术的变体制成,如聚合物铁电体,铁电隧道结(FTJ),铁电FET(FeFET),界面PCM(iPCM,也称为Superlattice PCM或TRAM),磁电RAM(MeRAM),Racetrack Memory等等。

综上,当DRAM和NAND闪存无法继续降低成本时,所有新技术都会争夺下一代存储市场地位,但在此之前必须克服诸多技术和应用障碍。


电子科技大学
11-23
2020

台积电难以逾越得五大优势

来源:内容来自「钜亨网」,谢谢。

三星目标 2022 年以 3 奈米製程超越台积电,不过,台积电 现阶段仍具备先进制程技术与产能优势,并以先进封装稳固金字塔顶端客户需求,且与客户没有竞争关係也是最大优势之一;即便三星 3 纳米要以 GAA 架构迎战台积电,但必须建立新的 GAA 生态系统,且从良率、技术成熟度等层面来看,台积电仍相对具备优势,三星短期内要与台积电抗衡,恐怕还有段距离。

三星近来动作频频,除日前发表採用自家 5 纳米制程生产的 5G 手机芯片,近期又传出目标 2022 年量产 3 纳米制程,赶上台积电的 3 纳米量产时程,是近年来双方在先进制程争霸竞赛中,量产时间最接近的一次。

台积电与三星为目前全球唯「二」能同时生产 7 纳米、5 纳米制程的厂商,不过,从目前双方最先进的制程来看,台积电 5 纳米制程已于今年第二季量产,通吃苹果、超微等大客户订单,5 纳米强化版也预计明年量产;三星则传出今年底可望量产 5 纳米,除满足自家 5G 手机芯片需求外,客户也包括高通、Vivo。

不过,台积电在客户积极抢单下,5 纳米制程已满载,产能供不应求,明年更将大增 3 倍之多,今年 5 纳米制程营收占比约 8%,明年至少 20%,据研调机构集邦科技最新报告指出,台积电积极扩充 5 纳米制程明年底将囊括近 6 成先进制程市占率,而三星 5 纳米虽有扩产计划,但相较台积电仍有约 2 成的产能落差。

除在先进制程技术与产能领先三星,台积电也搭配先进封装技术,整合 SoIC(系统整合芯片)、InFO(整合型扇出封装技术)、CoWoS(基板上晶圆上晶片封装) 等 3DIC 技术平台为 3D Fabric,以服务 Google、超微等金字塔顶端客户的高阶封装需求。

三星也以 3D IC 封装技术 X-Cube 要与台积电比拚,并宣布已在旗下 7 纳米与 5 纳米制程技术进行验证;但台积电在先进封装技术上已大有斩获,传出正与 Google 共同开发 SoIC 创新封装科技,且先进封装产能将在明年启动建置,并于 2022 年开始量产。

相较三星,台积电身为纯晶圆代工厂,多年来始终强调「不与客户竞争」,成为其最大优势之一,对客户来说,台积电没有竞争利害关係;反观三星并非纯晶圆代工厂,本身也生产手机等终端产品,客户向其投片容易存有疑虑,信任成为客户是否愿意交付订单的影响因素之一。

另一方面,台积电 3 纳米仍将沿用现行的、较成熟的鳍式场效应电晶体 (FinFET) 架构,三星则计划采用全新的闸极全环场效电晶体 (Gate-All-Around, GAA),能更精准控制通道电流、缩小芯片面积、降低耗电量,要藉此弯道超车台积电。

不过,台积电过去累积下来的 FinFET 架构与设计生态系统,可直接将验证过的 IP,提供给 3 奈米客户使用,让客户能快速完成设计;三星采用 GAA 架构下,客户需要调整 IC 设计,三星也必须建立新的 GAA 生态系统。

此外,随著先进制程难度持续推进,台积电在量产时程或产能拉升速度上,均按部就班、甚至优于原定时程,而三星新製程良率始终备受质疑,无论从 3 纳米的成本、技术成熟度等层面来看,台积电仍相对具备优势;这也是即便三星积极抢单,目前还是只能分食台积电「吃」不下、或以低价争取而来的订单的原因。

来源:半导体行业观察

Copyright ©上海洺太电子科技有限公司,Inc.All rights reserved.  沪ICP备 17053682号  Powered by 上海洺太电子科技有限公司