首页 科技内容详情
欧博开户:十年磨一剑 英伟达能否掌控人工智能的未来?

欧博开户:十年磨一剑 英伟达能否掌控人工智能的未来?

分类:科技

网址:

反馈错误: 联络客服

点击直达

Filecoin收益官网

www.ipfs8.vip)是FiLecoin致力服务于使用FiLecoin存储和检索数据的官方权威平台。IPFS官网实时更新FiLecoin(FIL)行情、当前FiLecoin(FIL)矿池、FiLecoin(FIL)收益数据、各类FiLecoin(FIL)矿机出售信息。并开放FiLecoin(FIL)交易所、IPFS云矿机、IPFS矿机出售、租用、招商等业务。

,

【划重点】

(本文约7000字,阅读全文约莫需要10分钟)

【编者按】现在英伟达的GPU主导着人工智能芯片领域。但十年已往,越来越多的企业最先行使人工智能来从网络的海量数据寻找纪律,而许多机构和组织也在向深度学习研究投入巨额资金。许多初创企业示意,单靠GPU已经落伍,快速生长的人工智能领域需要新的架构。加之物联网天生的海量数据扑面而来,英伟达将若何掌控人工智能的未来?

以下为文章正文:

英伟到达底是若何从显卡制造商生长到主宰人工智能芯片领域的?这个故事似乎和猫有关系。现任英伟达首席科学家的比尔・戴利(Bill Dally)在2010年曾与斯坦福大学同事、盘算机科学家吴恩达吃过一次早餐。吴恩达那时正和谷歌互助开发一个项目。戴利回忆道,“他正试图在互联网上找猫。他那时没有这么说,但这就是他正在做的。”

吴恩达那时正在谷歌旗下的Google X实验室从事研究项目,试图开发出一个能够自主学习的神经网络。这个神经网络播放YouTube上的1000万段视频,并学会若何识别人脸、身体和猫。但吴恩达实现这一点用了几千个CPU芯片。“我那时说,’我赌博我们只用几个GPU就能做到,’”戴利回忆。那时图形图像处置器(GPU)主要用于处置3D渲染等更麋集的事情负载,这使得它们在人工智能方面比CPU效果更好。

戴利求助于英伟达深度学习现任研究主管布莱恩・卡坦扎罗(Bryan Catanzaro),希望实现这一想法。效果他做到了。他们只用了12个GPU,就证实GPU的并行处置能力在训练吴恩达的人工智能识别模子时比CPU更快更高效。

但卡坦扎罗想让人人知道的是,英伟达深耕人工智能并不只是源自那次有时的早餐。事实上,早在2008年加入英伟达之前,卡坦扎罗照样伯克利大学的研究生时就已经在开发用于人工智能的GPU了。他示意:“英伟达现在所拥有的市园职位绝非有时。”

英伟达深度学习现任研究主管布莱恩・卡坦扎罗(Bryan Catanzaro)

岂论若何,英伟达已经在人工智能芯片领域占有了主导职位,关于公司何时最先以及若何实现这一目的的说辞似乎已无关紧要。现在英伟达的主要营收泉源仍然是游戏显卡,但上一财年公司用于数据中央的GPU销售额攀升至67亿美元。2019年,在亚马逊云服务(AWS)、谷歌、阿里巴巴和微软Azure这四大云服务商的数据中央中,97.4%的人工智能加速器中部署的都是英伟达GPU芯片。市场研究公司Cambrian AI Research剖析师卡尔・弗罗因德(Karl Freund)示意,英伟达在人工智能算法训练市场上占有“近100%”的份额。在全天下500强超级盘算机中,近70%使用的也是英伟达GPU。险些所有的人工智能里程碑都少不了英伟达的芯片。吴恩达的YouTube视频猫识别系统、DeepMind开发的围棋冠军AlphaGo、OpenAI的语言展望模子GPT-3都是在英伟达的硬件上运行。可以说,英伟达GPU成了人工智能研究职员的驻足点。

只管英伟达取得了乐成,但卡坦扎罗仍然对有关英伟达是误打误撞从游戏领域进入人工智能领域的说法很不满。“我立誓,我读过的每一个故事险些都是这样的:GPU恰巧在人工智能方面显示精彩,英伟达通过向新市场出售现有芯片暂时得手了笔意外之财,很快它们就会被初创公司所取代。”卡坦扎罗说,“但10年来,英伟达在进武士工智能市场方面一直异常注重战略性。”

十年已往,推翻现有市场的时机已经成熟。越来越多的企业最先行使人工智能来从网络的海量数据寻找纪律,而许多机构和组织也在向深度学习研究投入巨额资金。德勤剖析师科斯蒂・佩里科斯(Costi Perricos)示意,人工智能将成为各国竞相争取的焦点。与此同时,深度学习模子的规模和庞大性都在不停增添,需要硬件能提供更多算力。

OpenAI的GPT-3就是其中最极端的例子。这个深度学习系统可以自动天生人们可明白的文本。整个系统由1750亿个参数及变量组成,盘算成本约为460万美元。随后,GPT-3被拥有1.6万亿参数的谷歌语言模子所逾越。为了提高精度,人工智能系统往往需要更高效的硬件来处置更多参数和数据,但同时也要防止人工智能自己成为更大的环境灾难。丹麦研究职员示意,训练GPT-3所需的能量相当于汽车行驶70万公里的碳排放量。

人们需要更多的人工智能芯片,也需要更好的人工智能芯片。只管英伟达的早期研发事情在业内领先一步,但挑战者们正在竞相追赶。谷歌于2015年最先制造自家的人工智能芯片;亚马逊在2016年收购了以色列芯片设计公司Annapurna Labs,从去年最先将数字助理Alexa的大脑换成自家的Inferentia机械学习芯片;百度旗下的昆仑芯片最近估值到达了20亿美元;高通在2019年宣布推出一款人工智能专用芯片Cloud AI 100;IBM正在研究一种低能耗人工智能芯片设计;AMD收购赛灵思,专注于人工智能数据中央;英特尔在2019年为其至强数据中央CPU添加了人工智能加速功效。此外,英特尔先是在2016年以4.08亿美元的价钱收购了神经网络芯片公司Nervana,又在2019年以20亿美元收购人工智能芯片制造商Habana Labs。在已往的几年里,Graphcore、SambaNova、Cerebras、Mythic AI、Blaize和TensTorrent等初创公司陆续宣布或最先测试人工智能芯片。

但全天下仍处于人工智能领域的早期阶段。吴恩达的猫是十年前才盘算出来的;业内大多数初创公司只有几年的历史。随着智能物联网装备最先一场机械对机械的革命,更多的数据集将会流动起来,所有人的看法都集中在统一件事上:若何掌控人工智能芯片的未来。

打开人工智能大门的GPU

机械学习是一种完全差其余盘算事情负载,需要用不那么准确的大量数据完成大量数学运算。传统的高性能盘算是将多个系统并在一起,构建出超级盘算机来处置科学模拟或金融建模等庞大事情负载。这些义务通常用高精度的64位数据完成盘算。相比之下,人工智能盘算也需要重大的盘算基础设施,但所使用的数据并没有那么准确,只有16位甚至是8位,这有些类似于超现实图像和上世纪80年月像素化游戏之间的区别。人工智能芯片初创公司Cerebras首席执行官安德鲁・费尔德曼(Andrew Feldman)示意:“数据处置基本上很简朴,但也很庞大。”

人工智能芯片可以是任何针对谷歌TensorFlow或Facebook的PyTorch等机械学习事情负载举行过优化的处置器。在训练或运行深度学习模子时,人工智能芯片纷歧定要完成所有的盘算事情,主要是看成加速器来处置最麋集的事情负载。例如,英伟达封装的人工智能系统DGX A100就用8个安培A100 GPU看成加速器,此外另有一个128核的AMD CPU。

人工智能并不是什么新鲜事,但之前人们缺少让深度学习模子成为现实的盘算能力,这让研究职员花时间守候硬件的提高。另一家制造人工智能芯片的初创公司SambaNova团结首创人兼首席执行官Rodrigo Liang示意:“GPU打开了人工智能的大门。”

一年一度的ImageNet盘算机视觉挑战赛让研究职员相互竞争,开发能够识别图像或物体的算法。2012年,多伦多大学研究职员亚历克斯・克里热夫斯基(Alex Krizhevsky)基于GPU的深度学习系统击败了其他参赛者。到2015年,所有在ImageNet中排名靠前的参赛者用的都是基于GPU硬件的算法。

这让深度学习研究出现爆炸式增进的事态。英伟达的手艺让深度学习处置速率提高了20倍以上。但英国芯片初创公司Graphcore团结首创人在公司刚刚确立时却一度找不到投资者。“我们从风投那里经常听到的一句话是:’什么是人工智能?’”该公司团结首创人兼首席手艺官西蒙・诺尔斯(Simon Knowles)回忆起2015年去加州追求融资的履历时这样说。“令人惊讶的是,几个月后,也就是2016年头,一切都变了。那时每小我私人都热衷于人工智能,”诺尔斯说。“然而,他们对芯片硬件却没有那么感兴趣。”新的芯片架构那时被以为没有需要,英伟达已经占有了整个行业。

然则2016年5月,谷歌改变了一切。Cerebras的费尔德曼称谷歌做出了一个“夸张的战略决议”,宣布谷歌已经为人工智能应用自行开发芯片。这些所谓张量处置单元(TPU)的芯片就是为了与谷歌TensorFlow机械学习编程框架协同事情。Graphcore的诺尔斯示意,此举向投资者发出了一个信号,即新的人工智能芯片设计或许有市场。“突然间所有的风投都在想:那些疯狂的英国人现在在哪儿?”诺尔斯说。从那之后,Graphcore拿到了7.1亿美元的融资。

英伟达的竞争对手们以为,GPU是为图形图像处置而非机械学习设计的,只管其壮大的处置能力意味着比CPU更胜任人工智能义务。但由于系统优化的局限性和软件层的庞大性,它们的市场主导职位只能维持这么长的时间。“英伟达在隐藏GPU庞大性方面做得异常精彩,”Graphcore团结首创人兼首席执行官奈杰尔・图恩(Nigel Toon)示意。“GPU之以是有用,是由于他们开发的软件库、框架并举行优化,隐藏了盘算层面的庞大性。对于英伟达来说,这是一项异常艰难的义务。”

但抛开GPU的话,可能需要重新最先设计拥有全新架构的人工智能芯片。谷歌的TPU芯片是针对特定事情负载设计的专用集成电路;Cerebras开发的则是晶圆级引擎,这种巨型芯片要比其他芯片大56倍;IBM和BrainChip则是以人脑为模子开发神经形态芯片;而Mythic和Graphcore生产的是智能处置单元(IPU),但设计有所差异。

但卡坦扎罗以为,许多芯片只是人工智能加速器的变体。他说:“我们可以说GPU、TPU或IPU或其他什么,但人们只是很习惯这些字母。“我们这样称谓GPU是由于以前就这么说……但GPU一直是用于加速盘算的,而人们所体贴的事情负载性子在不停转变。”

有谁能和英伟达抗衡?现在英伟达仍主导MLPerf基准测试.MLPerf是深度学习芯片的黄金尺度。市场研究公司Cambrian AI Research剖析师卡尔・弗罗因德(Karl Freund)指出,由学术界和行业介入者设计的标杆工具MLPerf现在由谷歌和英伟达主导,但初创企业通常不会费心去完成所有这类测试,由于打造一个系统的成本最好花在别处。

每个英伟达SuperPOD内有20个DGX人工智能系统

欧博开户

欢迎进入欧博开户(www.aLLbetgame.us),欧博官网是欧博集团的官方网站。欧博官网开放Allbet注册、Allbe代理、Allbet电脑客户端、Allbet手机版下载等业务。

英伟达在每年的MLPerf测试中都要跨越谷歌的TPU。“谷歌发现MLPerf来显示他们的TPU有多好,”英伟达解决方案架构和工程主管马克・汉密尔顿(Marc Hamilton)说,“黄仁勋说,只要每次跑MLPerf测试时我们的GPU都能跨越谷歌TPU就行,哪怕只有一点就很好。”

据称,为了确保能在某次基准测试中压倒一切,英伟达将一台超级盘算机所搭载的DGX系统从36个升级到96个,这需要对整台装备重新布线。为了尽快完工,工程师们直接剪断了种种线缆,汉密尔顿说整套线缆价值100万美元。这种疯狂行为凸显出基准测试的刺激作用,但也启发英伟达对DGX系统举行重新设计。现在的DGX系统能以20个为一组自由组合,无需重新布线。

转战边缘推理

当涉及到基准测试和组装超级盘算机时,人们总是可以通过添加更多人工智能芯片来提高性能。但对于另一种人工智能盘算,也就是边缘推理则完全差异。

2020年,英伟达宣布将以400亿美元的价钱收购英国芯片设计公司ARM,吸引了全天下的眼光。要知道,后者的芯片架构被用于全球95%的智能手机。但业内回响并不很起劲。仍持有公司股份的ARM团结首创人赫尔曼・豪泽(Hermann Hauser)称这是一场“灾难”,可能会损坏ARM在市场中的中立职位。天下各地的羁系机构都在亲热关注这笔生意。

ARM只设计芯片,并将知识产权授权给芯片制造公司。若是某小我私人工智能芯片制造商需要一款CPU,他们可以从ARM获得芯片设计允许,并根据自家规格举行制造。竞争对手忧郁英伟达控制ARM后可能会限制相关互助,不外黄仁勋曾“明确”示意,英伟达将尊重ARM现有的开放模式。

边缘推理芯片能够将深度学习用于现实天下,而ARM正是这种芯片的主要设计者。英伟达收购ARM意味着可能对现有市场态势发生伟大影响。在ARM的辅助下,英伟达可以依附GPU和边缘推理方面的优势职位在数据中央领域占有主导职位。

什么是边缘推理?为了训练和应用人工智能模子,英伟达的高性能系统会对数据举行大量处置。但在人工智能领域,另有推理这种更轻量级的义务,也就是使用训练过的模子来注释某些现真相景。好比无人驾驶汽车明白摄像头看到的器械,一个智能手机应用程序扫描用户脸部,把猫耳朵贴在自摄影上,或者一个对医学影像举行病理剖析等等。由于训练需要伟大算力,通常会在数据中央完成;但推理可以在数据中央、也可以在边缘装备上完成。

第一种推理在数据中央完成。当你问数字助理Alexa或Siri一个问题时,其会被传送回亚马逊和苹果的服务器举行转录并回复。第二种推理则发生在相机、汽车或智能手机等终端用户装备中,这被称为边缘盘算。第二种推理需要的算力不多,但处置速率要快。

英伟达现在主导着数据中央领域的推理事情。其A100行使数据举行训练,而推理被虚拟化到更小的迷你服务器中,在统一硬件上能同时完成50个或更多推理事情负载。这对AWS等提供人工智能服务的科技巨头很有辅助,由于多家公司可以使用相同硬件而且不会有数据泄露的风险。在边缘盘算领域,英伟达拥有用于无人驾驶汽车的DRIVE芯片和用于现场推理的EGX芯片,但低功耗芯片并不是英伟达的专长所在。若是你曾经使用过搭载英伟达显卡的游戏条记本电脑,就会发现其电池续航时间比Chromebook要短。但设计低功耗芯片是ARM最善于的事情,这也是为什么英伟达不惜斥资400亿美元收购ARM的缘故原由。

ARM在人工智能领域的研究主要集中在两个方面。首先,其将软件框架整合到现有CPU上。为了应对更麋集的事情负载,ARM开发了一种名为Ethos的神经处置单元(NPU)看成人工智能加速器使用。ARM IP产物部门总裁雷内・哈斯(Rene Haas)说,使用Ethos-U55设计的装备应该很快就会上市,由于获得该设计允许的公司已经生产出了制品芯片。

有了边缘推理,语音助手将不再需要将用户语音上传到AWS或苹果服务器举行处置,而可以基于内陆智能做出响应。哈斯说:“这使得事情可以在内陆装备上完成,在许多方面都有助于提高效率。”他指出,将数据在装备和云端之间往返传送需要消耗电池能量。

英伟达认真欧洲、中东和非洲区域(EMEA)的副总裁戴维・霍根(David Hogan)示意:“很长一段时间以来我们都在谈论物联网,但这个愿景直到现在才实现。”“这种转型是我们收购ARM的设计焦点。”

打造人工智能超级盘算机

去年,英伟达解决方案架构和工程主管马克・汉密尔顿(Marc Hamilton)花许多时间和精神打造一台价值5000多万美元的超级盘算机,这就是“剑桥1号”。搭积木般的系统设计气概闪开发“剑桥1号”变得更容易。“剑桥1号”由一排排成组的DGX人工智能系统组成,每组有20个DGX,被称为SuperPod。而单个DGX售价19.9万美元,堪称一台完整的人工智能盘算机,其中用8个A100芯片作为DGX盘算系统焦点,同时具有内存、网络和其他功效。

汉密尔顿说,“剑桥1号”建成后将是英国最壮大的人工智能超级盘算机,在全天下排名第30位,但在英伟达打造的人工智能超级盘算机中只能排到第五。“剑桥1号”有80个DGX A100系统,而最大的Selene超级盘算机有560个。

英伟达的“剑桥1号”人工智能超级盘算机

虽然“剑桥1号”不是最快的,也不是最大的超级盘算机,但它拿到了两个第一。汉密尔顿称其为天下上第一台原生云超级盘算机,有类似于AWS的区划功效,企业能够使用相同硬件而不会有平安破绽或数据泄露的风险。此外,“剑桥1号”也是英伟达唯一直外部互助同伴开放的超级盘算机,各个大学机构、医疗巨头阿斯利康、牛津纳米孔和葛兰素史克都可以在“剑桥1号”上运行自己的深度学习模子。

为什么英伟达要打造超级盘算机?一个缘故原由是,英伟达需要超级盘算机来吸引行内最优异的人才。2016年,英伟达还没有超级盘算机,而Facebook和谷歌正在抢最好的人工智能研究员。汉密尔顿说:“这并不是由于他们付的人为更高。而是由于谷歌和Facebook在运营营业方面有成千上万的GPU,他们可以让人工智能研究员接见这些GPU。”

现在,英伟达的超级盘算机Selene是全球第五大盘算机,仅次于日本的一台、中国的一台和美国拥有的两台。汉密尔顿示意,这意味着,若是你是一名想要接触到最快人工智能硬件的研究职员,完全可以来英伟达事情。

单纯提高硬件算力有用吗

在卡坦扎罗的40人实验室里,研究职员开发用于英伟达自家系统的人工智能,但该实验室也充当系统架构师的培育基地,让他们得以领会深度学习模子未来可能若何事情。卡坦扎罗说:“若是你想为未来制造芯片,你想让它在未来有用,你必须具备展望未来最主要的事情负载是什么。”“若是你搞砸了,你就造错了芯片。”芯片的设计和制造往往需要数年时间,因此这种研究很有需要。

若是开发的人工智能模子以后不在GPU上运行,或者至少不能在GPU上运行,那会怎么样?英伟达的戴利认可有这种可能性,但由于大多数研究职员都在研究GPU,他以为这种想法不太可能成为现实。他说:“在新模子上线之前,我们通常都听说过它,并有时机对其举行测试,确保其在我们的GPU上运行优越。”

其他人则差异意戴利的这种说法。他们以为GPU可能影响到深度学习模子施展所有潜力。Cerebras公司的费尔德曼说:“每小我私人都在凭证当今的手艺调整自己的模子。”“我们最喜悦、最兴奋的事情之一,是有一群正在编写全新模子的客户。”他说今年Cerebras将展示所谓的“GPU不能能完成的事情”实例。费尔德曼强调,GPU基本无法完成某些人工智能事情。

Graphcore公司的图恩则示意,研究职员早就埋怨,当今硬件已经成了绊脚石,影像人们思索更庞大的问题。图恩说:“好比概率机械学习等想法仍然被弃捐,由于现在GPU等硬件不允许这种想法向宿世长。”“竞争的焦点在于英伟达能以多快速率升级GPU,照样用新的器械来实现这一点?”

麻省理工学院盘算机科学和人工智能实验室研究员尼尔・汤普森(Neil Thompson)在人工智能集会上注重到一个趋势,研究职员示意,盘算能力的限制影响了他们的模子开发,限制了他们的选择和数据集,由于他们无法肩负高昂成本、通过重新运行模子来解决问题。他说:“这真的很普遍。就深度学习的未来而言,这是一个异常大的问题。”

汤普森和同事剖析了1058篇人工智能论文,发现机械学习对算力的需求远远跨越硬件改善或模子训练的效率。长此以往,系统总有一天需要破费数亿甚至数十亿美元来举行训练,这还没有算其他成本。汤普森说:“使用更多GPU的问题在于,将GPU数每增添一倍,成本就会增添一倍,由此带来的碳排放和环境污染也会增添一倍。”

他以为,仅靠英伟达等公司的硬件解决方案都不足以阻止人工智能创新陷入逆境。相反,研究员需要开发更高效的模子,更好行使现有模子。诸如希罕性(忽略数据集中的零以节约算力)之类的想法可以提供辅助,由于这种方式可以更有条理地处置数据,只将其与相关参数举行对照。另一个想法是将人们从模子中学到的器械提炼成更轻量级的方程,只运行模子中和问题相关的部门。

若是没有这方面的起劲,人们将需要更大的数据中央。但人工智能不应局限于那些肩负得起超级盘算机的人。汤普森说,在从事高端深度学习研究事情的大学中,“盘算性能力较弱的大学越来越少”。“现在仍然有相当多的机构可以介入人工智能研究,然则随着算力的增添,玩家数目越来越少。我们已经到了有些人被清扫在外的境界。”

削减成本可能是初创公司击败现有公司赢得客户的一种方式。AWS去年将Habana Labs的人工智能芯片添加到其云服务中,称Habana Labs人工智能系统的运行成本要低40%。Habana Labs首席商务官埃坦・麦地那(Eitan Medina)示意:“要让人工智能惠及所有人,而不仅仅是富人,你真的需要提高性价比。”

人工智能已经存在私见问题,而硬件接见方面的不同等加剧了这一问题。英伟达新兴领域主管凯特・卡洛(Kate Kallot)示意:“这意味着我们考察问题会存在片面性。”“若是你忽略了天下上很大一部门人口……那我们若何能解决天下各地的挑战?”她示意许多人工智能研究职员正将事情转向应对贫困和天气危急等挑战,但接见硬件的问题将在很洪水平上影响新兴市场。

除此之外另有其他挑战。最近芯片制造一直受到限制。欧盟最近答应,到2030年设计生产全球五分之一的高端芯片。今年3月,英特尔宣布设计首次在美国开设两家新工厂,并代工芯片。

随着这些障碍被战胜,芯片会继续升级,人工智能将扩展到生涯中的方方面面。在未来,智能不仅仅意味着联网,还意味着嵌入人工智能。“它将无处不在,”ARM的哈斯说。“在未来几年内,它将无处不在地泛起在每一个盘算应用程序中。”(皎晗)

  • 帮人买usdt赚手续费(www.usdt8.vip) @回复Ta

    2021-09-28 00:01:18 

    Max pool官网(www.ipfs8.vip)是FiLecoin致力服务 wu[于使用FiLecoin存储『chu』和检“jian”索数据的{de}官方权威平台。IPFS官网实时更新FiLecoin(FIL)行《xing》情、当前FiLecoin(FIL)矿池、FiLecoin(FIL)收益数据「ju」、各类FiLecoin(FIL)矿机出售信息。并开放FiLecoin(FIL)交易所、IPFS云矿机、IPFS矿机出售、租用、招商“shang”等业务。我要废寝忘食了

发布评论