NVIDIA专家关于2024年AI技术应用趋势的预测

光纤在线编辑部  2023-12-12 09:22:10  文章来源:原文转载  

导读:麦肯锡表示,像 OpenAI 的 ChatGPT 这样的深度学习算法在经过企业数据的进一步训练后,每年可在 63 个业务用例中创造相当于 2.6 万亿至 4.4 万亿美元的价值。

12/12/2023,光纤在线讯,今年的《韦氏企业词典》(Merriam-Webster: Enterprises)年度词汇候选者颇多。随着整个行业都聚焦于变革性的新技术,继 “生成式 AI” 和 “生成式预训练Transformer” 之后,又出现了 “大语言模型(LLM)”、“检索增强生成(RAG)” 等词汇。

生成式 AI 从年初开始崭露头角,到年末已经引起了轰动。许多企业正在竞相依靠 AI 提取文本、语音和视频的能力,生成能够彻底改变生产力、创新和创造力的新内容。

企业纷纷顺势而为。麦肯锡表示,像 OpenAI 的 ChatGPT 这样的深度学习算法在经过企业数据的进一步训练后,每年可在 63 个业务用例中创造相当于 2.6 万亿至 4.4 万亿美元的价值。

然而,管理海量内部数据往往被认为是扩大 AI 规模的最大障碍。NVIDIA 的 AI 专家预测,企业在 2024 年的工作重点将是“广交良友”,即与云服务提供商、数据存储和分析公司以及其他擅长高效处理、微调和部署大数据的公司建立合作伙伴关系。

这一切都将围绕大语言模型展开。NVIDIA 专家表示,LLM 研究的进展将被越来越多地应用于商业和企业应用中。RAG、自主智能体和多模态交互等 AI 功能将变得更易于获取,并且几乎可以通过任何平台轻松部署。

以下是 NVIDIA 专家对未来 2024 年的展望:


MANUVIR DAS
NVIDIA 企业计算副总裁
不存在一款万能的应用:企业正在接受定制化。任何企业都不会只有一到两个生成式 AI 应用,许多企业将拥有数百个定制化应用,这些应用使用的是适用于业务各个部分的专有数据。
    在投入到生产中后,这些定制 LLM 将使用 RAG 功能连接数据源与生成式 AI 模型,从而作出更加准确、明智的回答。Amdocs、Dropbox、基因泰克公司(Genentech)、SAP、ServiceNow 和 Snowflake 等头部企业已经在使用 RAG 和 LLM 构建新的生成式 AI 服务。
    开源软件引领潮流:借助开源预训练模型,企业将把能够解决特定领域挑战的生成式 AI 应用纳入其运营战略中。
     如果企业能够将这些领先的模型与私有或实时数据相结合,就能加速提升整个企业的生产力和成本效益。AI 计算和软件将可以在几乎任何平台上使用,无论是云计算和 AI 模型代工服务,还是数据中心、边缘和桌面。
    现成的 AI 和微服务:生成式 AI 推动了应用编程接口(API)端点的采用,使开发者能够更轻松地构建复杂的应用。
    随着开发者将在 2024 年使用 RAG 等 AI 微服务定制成品 AI 模型,软件开发工具套件和 API 将更上一层楼。这将帮助企业运用能够获取最新业务信息的智能助手和摘要工具,充分挖掘出 AI 驱动的生产潜力。
    开发者可以将这些 API 端点直接嵌入其应用,而且无需再为维护支撑这些模型和框架所需的基础设施而操心。终端用户也能体验到更加直观、反应更迅速且更符合其需求的定制应用。

NVIDIA 高性能计算和超大规模数据中心业务副总裁IAN BUCK表示:宝藏技术的国家应用:AI 将成为新时代的“太空竞赛”,每个国家都希望建立自己的卓越中心,以推动研究和科学的重大进步,提高国内生产总值。
    只需要几百个节点的加速计算,就能快速建立起高效率、高性能的百亿亿次级 AI 超级计算机。由政府出资建造的生成式 AI 卓越中心,将通过创造新的工作岗位和建立更强大的大学项目来培养下一代科学家、研究人员和工程师,进而推动国家经济的增长。
    量子飞跃:企业领导者将在两大关键驱动力之下发起量子计算研究计划:一是使用传统 AI 超级计算机模拟量子处理器的能力;二是混合经典-量子计算统一开放式开发平台的可用性。这使开发者能够使用标准编程语言构建量子算法,无须掌握需要定制的专业知识。
    量子计算方面的探索曾被认为是计算机科学中的一个非主流的小领域。但随着企业与学术界和实验室共同推进材料科学、医药研究、亚原子物理和物流领域的快速发展,量子计算探索将成为主流

NVIDIA AI 软件业务副总裁 KARI BRISKI表示:将RAG变成财富:企业将在 2024 年大力采用检索增强生成(RAG)AI 框架,围绕此的讨论也会跟多。
    模型有时会因为无法获得与指定用例相关的足够准确信息而作出这种不准确或无意义的回答。
      随着企业训练用于构建生成式 AI 应用和服务的 LLM,越来越多的人将 RAG 视为一种能够避免作出不准确或无意义回答的方法。
      通过语义检索,企业将使用开源基础模型打通自己的数据,这样用户就能够从索引中检索到相关数据,然后在运行时将这些数据传递给模型。
      企业可以使用更少的资源,为医疗、金融、零售和制造等行业创造出更准确的生成式 AI 应用。终端用户有望看到更加精进、更加符合上下文的多模态聊天机器人和个性化内容推荐系统,这将使他们能够自然、直观地与数据进行对话。
      多模态“大显身手”:基于文本的生成式 AI 将成为过去式。尽管生成式 AI 仍处于起步阶段,但预计许多行业都将采用多模态 LLM,使消费者能够结合文本、语音和图像,对有关表格、图表或示意图的查询作出更加符合语境的回答。
     Meta、OpenAI 等公司将通过加强对感官的支持来推动多模态生成式 AI 的发展,进而促进物理科学、生物科学和整个社会的进步。企业将不仅能够理解文本格式的数据,还能够理解 PDF、图表、幻灯片等格式的数据。

NVIDIA 电信高级副总裁RONNIE VASISHTA表示:RAN 既是目标,也是起点:预计对 5G 投资案例将展开大规模重新评估。
      经过五年的发展,5G 的网络覆盖范围和容量都有了显著的提升,但收入增长却很缓慢,而且大部分专有且灵活性欠佳的基础设施的成本也在上升。同时,5G RAN 的利用率仍止步于 40% 以下。
      在新的一年里,我们将在现有频谱上,积极开辟新的收入来源,发掘可商业化的新应用。电信行业还将重新考量资本支出结构,更加关注以通用组件构建的灵活高利用率的基础设施。此外,由于企业正在使用 AI 工具来提高性能和效率以降低成本,所以预计运营费用将全面降低。这些举措的成效将决定运营商对 6G 技术的投资力度。
      从聊天机器人到网络管理:为提升客户服务和支持力度,电信公司已将生成式 AI 应用于聊天机器人和虚拟助手。在新的一年里,他们将进一步在网络规划和优化、故障和欺诈检测、预测分析和维护、网络安全运营以及能源优化等领域加强生成式 AI 的使用,实现运营方面的改进。
      鉴于生成式 AI 的普及度和战略性,建立新型 AI 工厂基础设施来推动其发展也将成为当务之急。越来越多的电信公司将建立供内部使用的 AI 工厂,并以平台即服务的形式,将这些工厂提供给开发人员。这类基础设施将能够支持作为额外租户的 RAN。

NVIDIA 网络业务高级副总裁GILAD SHAINER表示:AI 飞速增长,连接需求激增:企业正在使用 GPU 和基于 GPU 的系统获得加速计算所需要的网络带宽,网络效率和性能也将再度成为其关注的焦点。
      万亿参数的 LLM 将需要更快的传输速度和更广的覆盖范围。想要快速推行生成式 AI 应用的企业将需要投资于加速网络技术或者选择能够满足这一需求的云服务提供商。实现最佳连接的关键在于将其融入到加入了新一代软硬件的全栈系统中。
      网络将成为设计数据中心的决定性因素:企业将认识到数据中心不必千篇一律。为数据中心选择合适网络的第一步是确定数据中心的用途。传统数据中心的带宽有限,而能够运行大型 AI 工作负载的数据中心需要成千上万个 GPU,而且这些 GPU 在运行时必须保证高度确定且较低的尾部延迟。
      网络在大规模满负荷情况下的运行能力是确定性能的最佳指标。未来的企业数据中心需要通过独立的管理网络(又称南北向网络)和 AI 网络(又称东西向网络)连接。其中的 AI 网络包含专门用于高性能计算、AI 和超大规模云基础设施的网内计算。
关键字: N AI算力 人工智能
光纤在线

光纤在线公众号

更多猛料!欢迎扫描左方二维码关注光纤在线官方微信
微信扫描二维码
使用“扫一扫”即可将网页分享至朋友圈。