微软开发定制AI芯片“由软变硬”
微软开发定制AI芯片“由软变硬”具体又是什么情况的呢?不晓得朋友们都知道吗?咱们一起来看看以及了解下吧!以下是小编为大家带来的微软开发定制AI芯片“由软变硬”(什么原因),欢迎参阅呀!
微软开发定制AI芯片“由软变硬”(什么原因)
微软Azure硬件系统和基础设施主管Rani Borkar解释说:“在芯片开发方面微软实际上有很长的历史。”20多年前微软就曾联合其它企业开发Xbox芯片,还曾开发过Surface芯片。 “所有这些努力都是建立在经验之上的。2017年我们开始研究云计算硬件,开始研发自己的定制处理器。”
Rani Borkar称,Azure Maia AI芯片和Cobalt CPU都是微软自己开发的,当中还涉及到云服务器堆栈,兼顾性能、能耗和成本。“AI时代来临,我们重新思考云基础设施,重新优化了基础设施的每一层。”
Azure Cobalt CPU是一款128核芯片,它是基于ArmNeoverse CSS设计的,属于微软定制产品。芯片将会用来驱动Azure云服务。Rani Borkar说:“我们除了深入思考性能,还考虑到能耗管理。在设计时我们有意做了一些选择,比如可以控制每个内核的性能和能耗,还有它在虚拟机上的表现。”
目前微软已经在Teams、SQL服务器上测试Cobalt CPU,明年就会向客户提供虚拟机。
全面提升性能
亚马逊也开发了Graviton 3服务器,它与微软服务器相比谁更胜一筹呢?微软没有明说,不过考虑到微软Azure Cobalt CPU是基于Arm架构开发的,性能上应该有一些优势。Rani Borkar称:“最初的测试显示,微软新品的性能比微软现有数据中心中产品的性能高40%,目前用的是商用版Arm服务器。”
至于Maia 100 AI,它是面向AI开发的。有些企业想在Azure平台上执行AI任务,Maia 100 AI可以帮上忙。微软已经与OpenAI携手合作,设计测试Maia。
OpenAI CEO Sam Altman说:“很高兴微软在第一时间向我们分享了Maia芯片的设计,我们正在努力改进、测试模型。Azure提供的端到端AI架构已经针对Maia进行了优化,未来可以帮助客户训练更强大的模型,让模型变得更便宜。”
Maia芯片是用台积电5纳米工艺制造的,拥有1050亿晶体管,比AMD MI300X AI GPU的1530亿个少30%。微软、AMD、英特尔、Meta、英伟达、高通都在努力,它们试图让下一代AI模型数据模式实现标准化。
Rani Borkar说:“Maia是微软开发的第一款真正的液冷服务器处理器。我们的目标是打造更高密度、更高效率的服务器。”微软新系统与当前的数据中心是契合的,所以部署时会更快。
目前微软正在利用GPT 3.5 Turbo、必应AI、GitHub Copilot对Maia 100进行测试,只是部署还处在早期阶段,所以微软没有提供具体的性能测试数据。
打造多样化供应链
因为缺少具体数据支撑,我们不知道Maia相比英伟达H100、AMD MI300X谁更强大。Rani Borkar不愿意和竞争对手对比,她只是说微软与AMD、英伟达都有合作。微软主要还是想打造多样化供应链,不想过度依赖英伟达。
照估计,为了让ChatGPT商用,OpenAI采购了3万颗A100 GPU芯片,如果微软能拥有自己的芯片,就可以帮OpenAI降低成本。至于微软为Azure开发的芯片,它不会对外出售。Borkar解释称:“它更多像是补充,不是为了与对手竞争。我们的云计算平台上有AMD、英特尔芯片,在AI方面,除了英伟达芯片,我们也会用AMD芯片。对于我们的基础设施而言,这些合作伙伴相当重要,我们也想给客户更多选择。”
从Maia 100和Cobalt 100的命名看,微软肯定已经在设计第二代产品。Borkar说:“这是一个系列的产品,不只有100,还会有更多……不过我们暂时不会透露路线图规划。”
到目前为止微软并没有透露Maia的价格,不过微软已经悄悄推出微软365 Copilot服务,每月每用户收费30美元,并不便宜,照此推测,Maia应该也不会便宜。
从微软的规划看,Maia 100人工智能芯片的直接对手是英伟达GPU,Cobalt 100芯片主要针对英特尔处理器。截止10月底,微软拥有现金1440亿美元,2022年在全球云计算市场占据21.5%的份额。到了2024年,运行Cobalt 100芯片的虚拟机服务将会正式商用。
苏茨克维是OpenAI成功的关键
苏茨克维生于苏联(俄罗斯),在以色列长大,后来到多伦多大学学习,成为Machine Learning Group的学生,师从AI先驱Geoffrey Hinton。2018年Geoffrey Hinton因为深度学习研究成果获得图灵奖,他曾在谷歌工作,但最终离开,据说是因为他担心AI会变得比人类更聪明。
后来苏茨克维到斯坦福大学读博士后,与知名AI科学家吴恩达(Andrew Ng)是同学。再后来苏茨克维创建了名叫AlexNet的神经网络,大约10年前他成为谷歌Brain Team的一员。苏茨克维在谷歌呆了3年,然后成为OpenAI联合创始人。苏茨克维精通俄语、希伯来语和英语。
上个月《麻省理工科技评论》曾采访Y Combinator高管Dalton Caldwell,他谈到苏茨克维时说:“我记得奥特曼曾说苏茨克维是世界上最受尊敬的研究者之一,他认为苏茨克维能吸引更多的顶级AI人才加入,他甚至还提到了另一名顶级AI科学家Yoshua Bengio,他说很难找到比苏茨克维更合适的人来担任OpenAI首席科学家。”
马斯克也曾说,苏茨克维是OpenAI成功的关键。
早在2016年时OpenAI就推出了GPT大语言模型,但直到去年11月才向公众开放。因为免费,OpenAI模型快速流行起来,影响了科技产业。
十种常用的AI算法:
(1)人工神经网络(ANN)
人工神经网络的灵感来自人类的大脑,用于图像和语音识别以及自然语言处理。人工神经网络背后的基本思想是输入数据,网络通过人工神经元层发送数据。每个神经元从上一层获取信息并计算输出,然后将其传递到下一层。深度学习使用多层人工神经网络,是当今几乎所有AI应用程序的首选架构。人工神经网络首次使用是在20世纪50年代。
(2)支持向量机(SVM)
支持向量机(SVM)用于分类和回归问题,其工作原理是找到分离不同数据点组的最佳直线或曲线(称为“超级平台”)。然后,这个超级平台可以用来预测新数据点属于哪一组。支持向量机(SVM)可以告诉人们哪些电子邮件是否是垃圾邮件,并被广泛用于生物信息学、金融和计算机视觉等领域。
(3)决策树
决策树是一种用于进行预测的监督学习算法。它的工作原理是根据所选特征的值将数据递归地划分为子集。
(4)随机森林
随机森林是决策树的延伸。它们通过组合多个决策树的结果来提高预测的准确性。
(5)K-means聚类
K-means聚类是一种无监督机器学习算法,它根据数据点的相似性将数据点划分为K个聚类(不同的子集)。K的值由用户预先定义或使用算法确定,它在图像分割和文档聚类等领域很有用。
(6)梯度增强
梯度增强是一种机器学习技术,它通过结合许多弱模型的结果来构建预测模型。它被用于网络搜索排名和在线广告。
(7)卷积神经网络(CNN)
卷积神经网络的灵感来自于人类大脑的视觉皮层,可以自动从图像中学习边缘和角落等特征。人工神经网络是通用的,而卷积神经网络是专门用于处理网格数据(如像素)的网络,因此用于图像和视频处理。
(8)长短期记忆网络(LSTM)
长短期记忆网络是一种神经网络,用于处理语音和文本等顺序数据,因此对语音识别、机器翻译和手写文字识别非常有用。
(9)主成分分析(PCA)
主成分分析(PCA)是一种通过将数据投影到低维空间来降低数据维数的技术。它被用于人脸识别和图像压缩。
(10)Apriori算法
Apriori是一种关联规则学习算法,这是一种通过识别变量之间的频繁模式、关联或相关性来发现大型数据集中变量之间关系的技术。在市场购物分析中,识别经常一起购买的商品是很受欢迎的。
当人们与AI互动时,就是在与这些算法进行互动。人们倾向于将AI系统拟人化,但这对理解AI来说是没有必要的。因为这只是数学问题,而且有局限性,其中的一个限制是对数据的依赖。AI算法需要采用大量高质量的数据才能得到有效的训练。在AI中,需要更多更好的数据进行训练。相比之下,一个人只需要通过一个例子就能学到更多的知识,也就是人更具备举一反三的能力。
AI系统的普及应用需要满足以下条件中的一个或几个:
(1)扩展假设是正确的(简单地增加更多的数据和计算将产生人工通用智能(AGI))。
(2)与生物路径(例如飞机实现飞行,但设计得并不像鸟类)相比,大型语言模型(LLM)代表了一条可行的通用智能替代路径。
(3)需要新的或创新的算法和架构,使AI系统能够从一个或几个例子中学习任何知识(这样的系统可能需要一个有凝聚力的世界模型和虚拟/物理体现)。
我们从AI那里学到了什么?
AI虽然功能强大,令人敬畏,但它也仅仅是一套基于公认的数学原理、概率和统计学的优化算法。目前还不清楚,一个融入AI的信息处理系统在什么时候会成为一个完全实现的有意识的数字生物,而且它的能力超过了人类的思维。然而,有一点是明确的,我们正在进入一个新时代,而不断增加的数据和计算资源正在改变我们所知道的世界。