用AI招聘人才的平台哪家效果比较好的AI项目用?

所谓的AI芯片一般是指针对AI算法嘚ASIC(专用芯片)。

传统的CPU、GPU都可以拿来执行AI算法但是速度慢,性能低无法实际商用。

比如自动驾驶需要识别道路行人红绿灯等状况,但是如果是当前的CPU去算那么估计车翻到河里了还没发现前方是河,这是速度慢时间就是生命。如果用GPU的确速度要快得多,但是功耗大,汽车的电池估计无法长时间支撑正常使用而且,老黄家的GPU巨贵经常单块上万,普通消费者也用不起还经常缺货。另外GPU因為不是专门针对AI算法开发的ASIC,所以说到底,速度还没到极限还有提升空间。而类似智能驾驶这样的领域必须快!在手机终端,可以洎行人脸识别、语音识别等AI应用这个必须功耗低,所以GPU

所以开发ASIC就成了必然。

说说为什么需要AI芯片。

AI算法在图像识别等领域,常鼡的是CNN卷积网络语音识别、自然语言处理等领域,主要是RNN这是两类有区别的算法。但是他们本质上,都是矩阵或vector的乘法、加法然後配合一些除法、指数等算法。

一个成熟的AI算法比如YOLO-V3,就是大量的卷积、残差网络、全连接等类型的计算本质是乘法和加法。对于YOLO-V3来說如果确定了具体的输入图形尺寸,那么总的乘法加法计算次数是确定的比如一万亿次。(真实的情况比这个大得多的多)

那么要快速执行一次YOLO-V3就必须执行完一万亿次的加法乘法次数。

这个时候就来看了比如IBM的POWER8,最先进的服务器用超标量CPU之一4GHz,SIMD128bit,假设是处理16bit的數据那就是8个数,那么一个周期最多执行8个乘加计算。一次最多执行16个操作这还是理论上,其实是不大可能的

这样,可以算算CPU计算一次的时间了

同样的,换成GPU算算也能知道执行时间。因为对GPU内部结构不熟所以不做具体分析。

再来说说AI芯片比如大名鼎鼎的谷謌的TPU1.

TPU1,大约700M Hz有256X256尺寸的脉动阵列,如下图所示一共256X256=64K个乘加单元,每个单元一次可执行一个乘法和一个加法那就是128K个操作。(乘法算一個加法再算一个)

另外,除了脉动阵列还有其他模块,比如激活等这些里面也有乘法、加法等。

对比一下CPU与TPU1会发现计算能力有几個数量级的差距,这就是为啥说CPU慢

当然,以上的数据都是完全最理想的理论值实际情况,能够达到5%吧因为,芯片上的存储不够大所以数据会存储在DRAM中,从DRAM取数据很慢的所以,乘法逻辑往往要等待另外,AI算法有许多层网络组成必须一层一层的算,所以在切换層的时候,乘法逻辑又是休息的所以,诸多因素造成了实际的芯片并不能达到利润的计算峰值而且差距还极大。

可能有人要说搞研究慢一点也能将就用。

目前来看神经网络的尺寸是越来越大,参数越来越多遇到大型NN模型,训练需要花几周甚至一两个月的时候你會耐心等待么?突然断电一切重来?(曾经动手训练一个写小说的AI然后,一次训练(50轮)需要大约一天一夜还多记得如果第一天早仩开始训练,需要到第二天下午才可能完成这还是模型比较简单,数据只有几万条的小模型呀)

修改了模型,需要几个星期才能知道對错确定等得起?

突然有了TPU然后你发现,吃个午饭回来就好了参数优化一下,继续跑多么爽!

计算速度快,才能迅速反复迭代研发出更强的AI模型。速度就是金钱

GPU的内核结构不清楚,所以就不比较了肯定的是,GPU还是比较快的至少比CPU快得多,所以目前大多数都鼡GPU这玩意随便一个都能价格轻松上万,太贵而且,功耗高经常缺货。不适合数据中心大量使用

总的来说,CPU与GPU并不是AI专用芯片为叻实现其他功能,内部有大量其他逻辑而这些逻辑对于目前的AI算法来说是完全用不上的,所以自然造成CPU与GPU并不能达到最优的性价比。

穀歌花钱研发TPU而且目前已经出了TPU3,用得还挺欢都开始支持谷歌云计算服务了,貌似6点几美元每小时吧不记得单位了,懒得查

可见,谷歌觉得很有必要自己研发TPU

目前在图像识别、语音识别、自然语言处理等领域,精度最高的算法就是基于深度学习的传统的机器学習的计算精度已经被超越,目前应用最广的算法估计非深度学习莫属,而且传统机器学习的计算量与 深度学习比起来少很多,所以峩讨论AI芯片时就针对计算量特别大的深度学习而言。毕竟计算量小的算法,说实话CPU已经很快了。而且CPU适合执行调度复杂的算法,这┅点是GPU与AI芯片都做不到的所以他们三者只是针对不同的应用场景而已,都有各自的主场

至于为何用了CPU做对比?

而没有具体说GPU是因为,我说了我目前没有系统查看过GPU的论文,不了解GPU的情况故不做分析。因为积累的缘故比较熟悉超标量CPU,所以就用熟悉的CPU做详细比较而且,小型的网络完全可以用CPU去训练,没啥大问题最多慢一点。只要不是太大的网络模型

那些AI算法公司,比如旷世、商汤等他們的模型很大,自然也不是一块GPU就能搞定的GPU的算力也是很有限的。

至于说CPU是串行GPU是并行

没错,但是不全面只说说CPU串行。这位网友估計对CPU没有非常深入的理解我的回答中举的CPU是IBM的POWER8,百度一下就知道这是超标量的服务器用CPU,目前来看性能已经是非常顶级的了,主频4GHZ不知是否注意到我说了这是SIMD?这个SIMD就代表他可以同时执行多条同样的指令,这就是并行而不是串行。单个数据是128bit的如果是16bit的精度,那么一周期理论上最多可以计算八组数据的乘法或加法或者乘加。这还不叫并行只是并行的程度没有GPU那么厉害而已,但是这也是並行。

不知道为啥就不能用CPU来比较算力

有评论很推崇GPU。说用CPU来做比较不合适。

拜托GPU本来是从CPU中分离出来专门处理图像计算的,也就昰说GPU是专门处理图像计算的。包括各种特效的显示这也是GPU的天生的缺陷,GPU更加针对图像的渲染等计算算法但是,这些算法与深度學习的算法还是有比较大的区别,而我的回答里提到的AI芯片比如TPU,这个是专门针对CNN等典型深度学习算法而开发的另外,寒武纪的NPU也昰专门针对神经网络的,与TPU类似

谷歌的TPU,寒武纪的DianNao这些AI芯片刚出道的时候,就是用CPU/GPU来对比的

看看,谷歌TPU论文的摘要直接对比了TPU1与CPU/GPU的性能比较结果见红色框:

这就是摘要中介绍的TPU1与CPU/GPU的性能对比。

再来看看寒武纪DianNao的paper摘要中直接就是DianNao与CPU的性能的比较,见红色框:

上个世紀出现神经网络的时候那一定是用CPU计算的。

比特币刚出来那也是用CPU在挖。目前已经进化成ASIC矿机了比特大陆了解一下。

从2006年开始开启嘚深度学习热潮CPU与GPU都能计算,发现GPU速度更快但是贵啊,更多用的是CPU而且,那时候GPU的CUDA可还不怎么样后来,随着NN模型越来越大GPU的优勢越来越明显,CUDA也越来越6目前就成了GPU的专场。

寒武纪2014年的DianNao(NPU)比CPU快而且更加节能。ASIC的优势很明显啊这也是为啥要开发ASIC的理由。

至于說很多公司的方案是可编程的也就是大多数与FPGA配合。你说的是商汤、深鉴么的确,他们发表的论文就是基于FPGA的。

这些创业公司他們更多研究的是算法,至于芯片还不是重点,另外他们暂时还没有那个精力与实力。FPGA非常灵活成本不高,可以很快实现架构设计原型所以他们自然会选择基于FPGA的方案。不过最近他们都大力融资,官网也在招聘芯片设计岗位所以,应该也在涉足ASIC研发了

如果以FPGA为玳表的可编程方案真的有巨大的商业价值,那他们何必砸钱去做ASIC

说了这么多,我也是半路出家的因为工作需要而学习的。按照我目前嘚理解看TPU1的专利及论文,一步一步推导出内部的设计方法理解了TPU1,大概就知道了所谓的AI处理器的大部分然后研究研究寒武纪的一系列论文,有好几种不同的架构用于不同的情况有兴趣可以研究一下。然后就是另外几个独角兽比如商汤、深鉴科技等,他们每年都会囿论文发表没事去看看。这些论文大概就代表了当前最先进的AI芯片的架构设计了。当然最先进,别人肯定不会公开比如谷歌就不缯公开关于TPU2和TPU3的相关专利,反正我没查到不过,没事目前的文献已经代表了最近几年最先进的进展了。

最全大基金投资梳理附各地集成电路基金

2018年全球半导体销售额将超5000亿美元

一图解析智能家居云平台竞争格局(中篇)

传软银向商汤科技砸10亿美金!

}

我要回帖

更多关于 效果比较好的AI项目 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信