芯片设计的奥林匹克观感-ISSCC2016参会纪实(三)
黄乐天  |  2016-03-19  |  电子技术应用网  |  508次阅读

版权声明:

本文由电子技术应用博主“老莫”发布。欢迎转载,但是不得擅自更改博文内容,也不得用于任何盈利目的。转载时不得删除作者简介和作者单位简介。以下引用的图片版权归原作者,我在引用时已经说明了出处。请勿盗用。如有盗用而不说明出处引起的版权纠纷,由盗用者自负。

作者简介:黄乐天,电子科技大学集成系统实验室青年教师,网名“老莫",电子科技大学网络名师,《FPGA异构计算》一书作者。主要研究领域为计算机机系统结构与片上系统设计、混合信号集成电路设计与模拟计算技术,博客官方地址:http://blog.chinaaet.com/molf

作者单位简介:电子科技大学集成系统实验室是电子科技大学从事系统级芯片设计主要科研团队,在电子科技大学历史上创造了多个“首次”。实验室主要研究方向为:研究方向包括模拟与数模混合集成电路、射频IC、计算机系统结构与大规模集成电路设计等。首页:http://www.me.uestc.edu.cn/team/viewTeam?id=27

由于上两周一直在写自然基金的申报书,期间还涉及到一些研究生招生面试的事情,所以停更了一段时间。近期的事情真是太多了,几乎每天都是工作12个小时以上。由于笔记本电脑失窃,原本写好的草稿遗失,在极大的压力下抓紧时间重写了,自己也被搞得有点疲惫不堪。所以,今天的更新嘛,准备简单的开个头,先给大家交个差((⊙o⊙)…,希望各位看官大爷们满意)。

这几天虽然忙,但是也还是时刻在关心科技界和学术界的各种进展。最近一段时间大家最关心的事情当然是阿尔法狗啦。阿尔法狗给广大人民群众科普了人工智能的最新进展,让大家看到了现在人工智能技术的强大。其实,人工智能在经历了20多年的沉寂以后,早已经在近几年成为了”显学“。但由于各个研究领域中存在着一定的”时间差“或者说”代差“,集成电路领域的人工智能研究来得比较迟了一些。

人工智能的技术扩散或者说转移,基本上是按着算法->系统->架构->芯片这样路径(其实大多数技术演进路线也是这样的)。目前人工智能主流的研究尚处在系统往架构演进的过程中,芯片方面更多的是一些针对特定领域的预先研究,但目前已经呈现出星星之火可以燎原之势。

2016年,这个燎原之势已经燎起来了。在ISSCC上Next-Generation Processing这个Session里面,关于人工智能、神经网络方面的专用芯片在7篇中占了6篇(最后一篇是传统的视频编解码,日本人做的8K高清解码器)。不过让人比较不爽的是呢,这6篇里面居然是有4篇是由KAIST(韩科院)。剩下的两篇,一篇是Intel公司的,一篇是MIT的。

这6篇具体的情况是这样的,首先简介一下KAIST的4篇。

第一篇(14.1),A 126.1mW Real-Time Natural UI/UX Processor with Embedded Deep-Learning Core for Low-Power Smart Glasses,是面向智能眼镜的嵌入式深度学习核心设计。这个智能眼镜是用于增强现实击碎(AR),和谷歌眼镜面向的目标类似。

第二篇(14.2),A 502GOPS and 0.984mW Dual-Mode ADAS SoC with RNN-FIS Engine for Intention Prediction in Automotive Black-Box System,ADAS的全称是(Advanced Driver Assistance System)高级行车辅助系统,虽然离最终的自动驾驶还差一点距离,但是可以辅助预测前面是不是有可能发生驾驶危险(比如老太太横穿马路之类的)。

第三篇(14.3),A 0.55V 1.1mW Artificial-Intelligence Processor with PVT Compensation for Micro Robots,已经是”明目张胆“的把人工智能处理器的牌子亮出来了。这个处理器主要是用于机器人的,更准确的说是用于机器视觉的。这篇文章除了讲功能外,强调了低功耗和抗PVT的特性。

第四篇(14.6),A 1.42TOPS/W Deep Convolutional Neural Network Recognition Processor for Intelligent IoE Systems,题目说这事一篇面向IoE的处理器,而且明说了是深度卷积神经网络。其实这篇文章的基本想法是要在传感器节点上面去做识别处理器(Recognition Processor),这样就不用把大量原始数据传到云端处理而只用传识别以后的数据回去即可。这样做当然是有道理的,但是传识别后的数据回云端却有可能损失很大信息细节。对于大数据处理器其实是不利的。这篇文章用的例子是数字识别和目标识别,其实也是图像相关的。

所以纵观整个KAIST的4篇文章,都是围绕图像识别在做文章。只是应用场景上有所区别。KAIST自爱图像识别上耕耘多年,而今找到一个出口突然爆发也不奇怪。

剩下的两篇,一篇是MIT的,题目是:Eyeriss: An Energy-Efficient Reconfigurable Accelerator for Deep Convolutional Neural Networks,也是做的深度卷积神经网络加速器。其核心是做了一个ALU阵列出来。中间做了一点data reuse的工作。最后的测试也是用的图像识别。

最后一个题目就不是那么时髦了,是Intel的A 21.5M-Query-Vectors/s 3.37nJ/Vector Reconfigurable k-NearestNeighbor Accelerator with Adaptive Precision in 14nm Tri-Gate CMOS。和前面那些动辄就深度学习,神经网络相比。Intel却做了一个看起来非常Low的东西:KNN。这几乎是任何一本机器学习的教程开篇首先会讲的东西,因为它过于简单,也非常的好理解。但是问题在于,简单的东西才往往能够被普遍应用的。KNN在很多应用上往往简单粗暴有效。Intel的这篇文章结构非常清晰明了,电路实现简洁高效。在这里面我其实最感兴趣的还是这一篇。

这次就先简单的介绍一下,等后面有空我会慢慢来详细分析一下。

最后提醒大家一下:

转发时不得删除版权声明部分!


文章原载于作者的电子技术应用网文章,所述内容属作者个人观点,不代表本平台立场。
本文经过系统重新排版,阅读原内容可点击 阅读原文