BlueXP is now NetApp Console
Monitor and run hybrid cloud data services
[字幕已自动生成。] 大家好、欢迎观看今天的网络广播、标题为"人工智能时代"。 我是 NetApp解决方案产品管理高级主管、 我将主持今天的会议。 我们制定了一个极好的议程、我相信您会发现、 在继续加深 对最成功的企业如何采用AI 以及您可以在自己的旅程中运用哪些经验教训的了解方面、我们将发挥极其宝贵的作用。 为了让我们了解这一点、我非常荣幸能 有 包括NetApp、NVIDIA和IDC在内的众多领先AI公司的专家加入。 今天我与大家一起是 NetApp高级副总裁兼首席技术官Yancey Staverson、 IDC全球AI和自动化研究部门副总裁Ritu Jyoti和 NVIDIA高级营销总监Tony皮卡德。 Ritu和Yancey将讨论 IDC近期AI转型研究的结果和主要内容。 然后、Tony和我将花一些时间介绍 我们最新的联合解决方案公告、 最后我们将讨论一些问答 首先,让我介绍一下 我们今天将要讨论的研究报告和相关报告。 负责任地扩展AI计划。 智能数据基础架构 在负责任地扩展AI计划方面的关键作用。 企业需要智能数据基础架构。 这种智能数据基础架构必须 能够灵活地 随时随地访问任何数据、并通过主动 数据管理实现卓越的数据安全性、数据保护和数据监管以及 自适应运营、从而最大限度地提高 基础架构和应用程序的性能和效率、 同时优化成本和可持续性。 总之、这些优势可以最大限度地提高 人工 接下来、让我向Ritu和Yancey介绍 报告中的主要内容。 谢谢你, 今天参加这次讨论真是太棒了。 如今、我们可以轻松地说、生成型AI已 成为影响企业 和社会的最大颠覆者之一。 随着 技术的所有这些指数级变化、 企业环境似乎就像 一个流畅、不可预测、激烈的Ocean。 事实上、根据IDC的研究、37.4%的 受访者表示、生成性 AI将颠覆其竞争地位。 因此,它引发了一个问题,那就是到底发生了什么? 谁能比拉里·萨穆斯更好地回答这个问题呢? 我喜欢他的回答。 他表示AI将 面向认知类、 所以他说的是,这 将影响到每一位知识型员工 ,从而影响到这个星球上的每一个组织。 对于IDC的AI支出指南、我们预测 全球AI支出将超过512亿、 而新一代AI是 推动这种指数级增长的关键催化剂。 我们看到、 AI和机器学习的 应用正在广泛应用于各种解决方案和应用程序、无论是ERP 解决方案、制造 、软件、内容管理、协作、 需要注意的是、IDC预计AI将在 但 我想重点谈谈的最有趣的一点是、 不断变化的生成性 AI市场机会格局、正如我所指出的、 J'en Chenai将成为 整个AI采用的一个 巨大催化剂、但当您深入了解Chenai市场在2023和2024年早期如何发展的更细 的细节时、大量投资将流向基础架构。 但是、最终用户 能够实现的真正意义和价值将推动 应用程序、平台和服务的预测。 因此、鉴于 2023年12月和2024年1月行业中存在的所有这些因素、 IDC 与全球AI决策者开展了定性和定量研究、以评估 其组织的AI计划状况。 在这项研究中、我们实际研究了 51项不同的投入来评估 企业的成熟度、无论是AI战略、 从数据角度来看是否 已做好准备、还是从基础架构 角度来看是否已做好准备、无论是存储延迟 、可扩展性、访问、 数据从分布式环境中 正如您和我所知、我们都知道安全 是每个人的头等大事。 因此、无论是数据安全还是数据隐私、 他们处理数据集的效率如何? 成本。 成本是最大的阻碍因素。 因此、我们 在成本效益存储优化、 存储、正确的规模估算流程和数据 科学工具以及开发人员工作效率方面也有一些不足。 作为这项研究的一部分,在研究结束时,我们 将它们分为四个不同的成熟阶段。 如您在本幻灯片中所见、 从AI新兴应用到AI大师。 我们的评估给了我们一个非常有趣的 见解,它是 我的出现和我的先驱者之间的一种同样的分裂。 如果将 两者结合起来、它们几乎会拆分为5050个、 但 处于主阶段的组织比例非常小。 当我们开始研究 导致I失败的原因和首要原因时, 无论是眼睛还是眼睛主人,它实际上是 由数据和组织限制造成的。 对于这两种情况、您知道、 由于业务限制或基础架构限制(因为数据驻留在 不同基础架构系统的不同格式中)、参与者无法访问 数据 也是阻碍训练模型的数据不足的关键因素、 这一点也非常重要、企业真的需要对此进行研究。 他们将数据可访问性与 一组合适的隐私或合规性因素考虑在内。 这项研究的另一个重要方面是、AI 大师正在制定更加复杂的计划。 他们在这一过程中已经进步了很多、但 与AI的兴起相比、他们仍然在 努力解决数据问题、AI的兴起仍在开始他们的旅程、他们正在制定更加简单的计划。 我想邀请Yancy 就他从房子的一侧看到的情况发表意见。 是的。 谢谢你。 嗯、我的意思是、 有些公司真的很难开启 AI之旅的原因之一是缺少可靠的数据集。 坦率地说、您知道没有足够的 数据或自我造成的 孤岛、这些孤岛会阻止访问不同的数据格式、或者 很难将数据提供到需要的位置。 您需要通过云连接实现可移动性。 您比以往任何时候都更需要 智能数据基础架构的企业级数据管理。 您需要了解自己的数据。 您需要能够 跟踪数据、并且需要合规。 如果没有这种可追溯性、您将面临数据风险。 因此、我会将安全性作为 不断从合作伙伴 和客户那里听到的首要问题之一。 因此、当我们从整体角度审视它时、 我们发现、 如果每个组织想要 扩展其AI计划、它们都必须考虑一些关键要务。 我不应该说、我不应该这样说、 以防万一、因为我们都已经认识到这一点、 因为AI不再是一种短暂的趋势、 而是最具破坏性的力量之一、 因此、当您考虑关键要务时、 它们确实需要整合在一起、或者 从监管和安全角度做好准备。 成本也是第一位抑制因素之一 ,资源不丰富。 人们确实需要研究如何 优化其资源。 我们 将在接下来的几分钟内详细介绍所有这些部分。 但是、如果您能满足这些关键要务 、则 可以提高团队的工作效率、从而 推动您取得整体业务成果、推动您 在行业中的变革力量。 所以、我和我的南锡已经开始 关注数据的关键作用以及 数据成熟度在 以下方面的重要性:他们可以如何实际管理 数据、他们如何提高数据的可访问性和就绪性、以 推动洞察力和卓越的AI转型? 无论是结构化数据还是非结构化数据 或流式数据、 在所有情况下、您都可以轻松地看到 所需改进的百分比、 无论是小改进还是大改进、还是彻底的改进。 我们要强调的一点是, 师父在这段旅程中已经有 很长的时间了。 我们经常从 最终用户那里听到这样的消息:那些已经踏上AI之旅的人、 尤其是一些组织和金融服务机构 、零售或制造和医疗保健 利用新一代AI应对不断变化、变革性的机遇。 从这个图表中可以看出、 有一些非常有趣的见解表明、企业 并不处理存储在一个特定 位置的数据。 它实际上分布在 不同的数据位置。 您知道、无论是在云上、它可以是不同类型的 数据、尤其是混合数据、而且您知道、 私有云场景也会逐渐形成。 因此、可以 无缝集成企业的私有数据与存储在公共云中的数据。 尤其是当我们 谈论第一代时、 企业正在努力将 自己的数据与自己的私有数据进行环境化。 而这种抹布的技术是真正的 、真正的前沿和核心。 在所有这些情况下、底层数据架构 就绪性至关重要。 我很想听听Yancey的意见。 我想邀请他 从 NetApp的角度了解他从客户那里听到的观点以及他的观点。 是的、我从根本上认为、工作负载 将永远保持混合状态。 嗯、您知道、企业必须能够 在需要时自由地将数据迁移和复制到公共云或选择的服务提供商。 这就是我们在 公有云中将第一方存储产品与原生服务(例如、顶点AI和Google、例如 SageMaker和Brock)集成在一起方面投入了大量工作的原因、 当然、我们还在AWS (例如适用于Azure的Azure AI服务)集成方面投入了大量精力。 我们拥有自己的AI工具包、 您可以直接与数据聊天。 老实说、没有人像NetApp那样进行数据管理。 这也是这三家 超大 它可以提供数据管理功能和易 迁移性、以及我们与NVIDIA的集成。 Nemo恢复器基本上是机架式的、支持 ONTAP的每一项部署、 无论是内部部署还是我们的第一方 超大存储产品。 因此、您可以真正充分利用 AI的混合云或多云战略。 我的意思是、最终、您经过训练的模型 与您的数据一样好。 是的。 谢谢Yancey、我非常同意 这一点、因为没有数据、就没有AI。 我与之交谈过的许多组织都 对此有抱怨。 您知道、在 过去十年左右、他们一直在努力解决数据问题、但这仍然是一个持续存在的问题。 在 AI日益成为主流的时代、它变得非常重要。 接下来、我们进入下一张幻灯片。 因此、我们希望 企业负责任地扩展AI计划的第二个要务 是切实负起核心责任。 每个组织都需要定义自己 需要遵守的原则。 他们需要有一个能够 实际确保遵守的AI监管委员会。 此外、组织中的每个人都需要 接受教育、并了解关键要求 或原则是什么。 此外、他们还需要 拥有 一套合适的工具和技术、因为负责任的AI不仅仅是堆栈的一部分。 从基础架构到模型、再到 应用程序和最终用户层、它在整个AI生命周期内都发挥着作用。 每个组织都需要了解、 这不是一个目标、而是一个旅程 、他们需要继续 从自己的经验中学习、重复这些经验、 并继续加强和改进 他们负责任的遵守。 所以,确实,你知道, 我们从 我们在这里讨论的调查中获得的一些见解。 有一点让我们感到非常突出、就是如果您 看一下图表的右侧、 就会发现标准化策略已经到位、并且 由组织内的独立团队严格执行。 我想强调的是,严格执行, 仅仅制定政策和原则是不够的, 而且,你知道,还需要 一套正确的工具和技术来观察它,并在持续的过程中这样做。 这与 我掌握的技术和AI的兴起形成了鲜明的对比。 如果您看一下AI的兴起、他们仍在 制定政策 和程序、但他们没有 标准化的流程来实施。 这就是关键区别。 因此、所有策略都必须 标准化、并不断得到遵守、监控 和改进。 当 我们谈论数据安全和隐私时、当您审视一些关键的方面或(您知道的)一些方面时 、因为这是真正的前沿和中心、 我们开始了这方面的对话。 大多数 故障都是由于数据问题而发生的。 嗯、我为组织如何 从核心开始承担责任、 在减少 偏见或数据控制权问题方面、他们的进步之大。 同样、在 数据安全和隐私方面也是如此。 所以、让我花几分钟时间谈谈 AI大师在AI出现时已经确定的最佳实践。 因此、首先、当您 谈论偏见或数据控制权时、 他们真的需要知道并放入一组正确的数据、 根据 他们所处理的用例准备数据、 使用一组正确的工具和技术 来实现数据的正确平衡。 在某些情况下、他们可能会使用合成数据。 如果有一些数据控制权规则、 可以实施联合学习、这样您就不会 真正将数据迁移到其他地区。 在数据安全和隐私方面、这一点极为 重要、尤其是在AI时代、 每个人都在谈论您的数据、而这正是您的数据。 这 不应该是一种IP泄漏。 如果组织 愿意共享数据、以便( 您知道的)将其用于模型的进一步训练、则应请求他们的许可。 因此,这些制衡措施是非常严格的, 它们确保所有的监管 政策也包括在内。 如果您回顾一下我分享的幻灯片 、 其中谈到了核心责任、这就是我所说的、因为 监管政策在不断演变。 他们确实拥有一套合适的工具和技术 来确保这些工具和技术到位。 但同时、他们也会确保 与正确的技术供应商合作 、并使用技术供应商需要有 正确的负责任的原则和负责任 的防护措施、以便 让他们有信心。 明确的防护措施以及了解您的数据将为 您的创新和成功提供自由。 人工智能。 如今、您的数据是 黑客的头号攻击面、 我们在这一领域不断创新、 能够训练我们自己的模型 、以便从根本上监控自身并对任何异常 正常情况自动做出反应 、这是唯一的途径、而且只能通过AI实现 、因为人类很难及时捕获数据、 更不用说在造成损害之前进行修复了。 这就是为什么我们对 向客户提供Rans潘 莫瑞的担保充满信心。 另一个问题是、您确实需要 绘制数据。 我的意思是、这是关键所在。 这是能够利用 AI混合云或多云战略的一个关键方面。 您可能拥有 不能上传到任何LLM的个人数据、HIPAA、PCI或GDPR数据。 嗯、您知道什么、什么需要在 之前进行模糊处理或在之前进行准备、等等。 因此、要真正加快 AI之旅或AI进步、唯一的方法就是了解您的数据、 映射数据并保护数据安全。 Yancy说得很好。 我认为、您知道、 所有这些工具都 将真正改变游戏规则 、提高效率、 加快上市速度和企业发展。 你知道,特别是大师们, 在使用 像 你们这样的人提供的卓越解决方案方面还有更先进的方法。 请在下一张幻灯片中介绍。 因此、现在我们来谈谈下一个 组织扩展其AI计划的第三要务。 这一切都与资源效率有关。 因此、随着AI工作流日益 融入各个行业、 我们必须认识到它 对计算和存储基础架构、 数据和能源资源及其相关成本的影响。 我们从IDC 研究中获得了一个非常有趣的见解、我们正在研究AI数据中心的 能耗、其CAMR将以44.75%的速度增长、从 2022年的23太瓦小时增长到2027年的146太瓦小时、 这非常令人担忧。 我们确实需要 作为一个行业来共同探讨 如何才能更好 地优化和利用资源。 我们并不是说您 需要限制GPU的使用、 而是必须考虑 适用于您的使用情形的最节省资源的技术、并做出务实的选择。 我们还必须研究如何更好地管理 支持AI和AI所需的基础架构、 同时关注及时取得业务成果。 但是、我们必须了解如何进行 端到端成本优化、性能优化、 能源利用率、同时不要忘记 GPU目前的稀缺性。 因此、当您考虑资源效率指标时、 需要对其进行标准化。 当我们在这项调查中询问 他们是如何看待天气的时候。 他们明确定义了用于评估 资源效率的指标。 答案是非常非常令人吃惊的、因为 如果你想到主人、 他们已经在各个 AI项目中完成并实现了标准化、而AI的兴起、只有9%的人完成了。 就尚未启动而言, 这个数字非常非常高。 这就是为什么我们要呼吁并分享 AI大师们的这些最佳实践 、告诉他们如何真正了解您所知道的、首先、 您始终可以监控某些内容。 您可以在某些方面做得更好。 只有当您开始 将此记录为 您必须关注的真正重要指标时、才会这样做。 这里可以清楚地看到 AI兴起与AI大师之间的区别。 所以我想邀请Yancy就他 从他那一边听到的消息发表评论。 您知道、该报告 就像每次客户会议一样、实际上也会发出相应的呼吁。 我的意思是、每一只眼睛都在 您今天参加的任何会议的议程上。 您知道、云会议不再是 云会议。 它们是AI会议。 你知道,看到NVIDIA GTC真的很棒,你 基本上遇到了业内的每个人。 但有趣的是,每个人似乎都在 制造更多孤岛上处于死气沉沉的状态。 他们应该 能够使用 与其他工作负载相同的技术和数据管理功能、而不是进行标准化。 我的意思是,比如说,你不能牺牲,呃, 你知道,你的标准,你的管理, 您只需满足速度要求即可。 单靠速度 不会让您更快。 让您加快发展速度的是了解您的环境、 拥有大师级的标准。 而这正是出现的真正困难之处。 我们看到、在我们帮助的公司帮助下、我们 将帮助他们起步。 因此、从我的角度来看、标准化是关键。 嗯、另一个重要的 事情就是数据的统一。 选择一家供应商、为您提供 适用于任何工作负载的所有存储协议、而不仅仅是AI。 我的意思是、让块文件对象全部通过 一个管理平台进行管理、或者全部由同一个管理 这是与所有MLOps平台集成的关键、因为您不能指望它们会做到这一点。 您知道、这仅 适用于文件。 这只是您在此处只需要块。 对象是归档的关键。 但您知道、NetApp帮助 客户成为数据管道。 AI数据管道支持您在 AI之旅的不同阶段使用。 您需要不同的性能指标 或特征。 因此、我们基本上可以 在需要时调用您的数据并将 其移动到高性能控制器、 当您不需要训练 或微调模型时、或者像Nemo再查找器一样、 您实际上可以就地进行数据采集。 与法庭一样、与 这一领域的ISV协作和合作也是一个关键。 你知道, 基本上你需要能够和每个人玩,但不要牺牲你的标准。 是的、我非常赞同您的观点、Yancy、因为 当我与最终用户交谈时、 他们通常告诉我、他们 在移动事物上花费了大量时间、而且 这真的是减慢了 他们的速度。 说得非常好。 在资源效率充足的基础上、 我们 现在讨论的主题只是一种。 我们 实际上也通过调整某种讨论来构建这一点非常非常重要、 因为这 对您的资源效率有着至关重要的影响。 嗯、您知道、在 这个行业已经有很长一段时间了、看着整个AI、传统AI、嗯、 爆炸式增长、我已经看到 、许多组织直观地看到 、他们对自己去做和构建事情感到非常自豪、呃、市场 在GENII中是一种快速发展创新步伐的市场。 如果企业 考虑执行一切构建、这将是不可能的。 因此、请确保您确实拥有 一套正确的决策、以及它 对您所做的决策的影响、无论是 对投资回报、 您是否拥有正确的技能? 您是否拥有 合适的数据集? 您是否拥有合适的资源? 这是一种改变游戏的游戏,是真正 与众不同的,还是有一种场景是一种很好的体验。 你有没有,你可以 考虑你是否要 通过做一些事情, 通过建立自己来真正移动针。 但在大多数情况下、 通过微调或根据具体情况进行调整 以及自动化的即时工程、您可能已经足够好了。 但 在某些情况下、您可以将某些东西从货架上取下来 进行调整、或者 更好地满足您的独特需求。 因此、请记住、此决策实际上 也会对您的资源效率产生直接影响。 因此、请尝试简化决策过程。 因此、在此基础上、 您知道一定要考虑这一点。 您知道、当您考虑所有这些决策时 、 您确实必须专注于改进、您需要哪些改进才能 为AI提供合适大小的存储。 对。 您可能会认为、 可以让您的GPU保持利用率并扩充到云中 以供GPU访问的存储、因为我们一直在谈论混合 场景、这种场景非常普遍。 您可能会考虑研究存储。 数据和能效都可以实现。 IT可以统一数据并减少数据孤岛。 这是 我从所有最终用户那里听到的最大问题之一 、同时还围绕以下方面制定了最佳实践 :缓解、您正在使用的存储层、 如何在适用的情况下无缝移动存储。 您可以将联合学习与所有正确的 数据安全和隐私要求结合使用。 因此、 对于如何真正优化存储以 提高AI计划的资源效率、它提供了许多有趣的见解。 Yancy、我很乐意听到您的心声。 你从你那一边的房子里听到了什么? 当然、我们听说、我们针对NVIDIA GPU优化了存储、 我们一直致力于 为我们 共同的客户最大限度地提高性能和利用率。 但我的意思是,我相信, 就像我前面所说的那样,我的工作负载基本上是我的工作负载。 工作负载将是混合的。 用于模型训练。 他们自己的数据中心的模型训练、 甚至可能不需要、 他们需要为该特定任务提供GPU。 因此、您需要能够 像NVIDIA DGX、云那样进行突发和连接。 这就是 我们称之为智能数据基础架构的概念的设计原则。 您知道、无论数据位于何处、 保护数据并安全地将数据部署到 客户希望的任何位置。 我们一直在努力实现可持续性、您知道、 例如数据压缩、重复数据删除连接等 。 这样可以降低或提高效率。 我们将尽自己的一份力量来促进、或者 在考虑性能、 成本和可持续性的情况下尽可能高效地完成工作。 这是 我们使命宣言的一部分。 谢谢你,Yancey。 我们都同意这一点、 正确的规模估算通常意味着减少数据 孤岛、并整合非常全面的混合、 统一和多云存储方法、为 企业提供所需的灵活性。 因此、我们 就 企业需要 扩展其AI计划的所有不同要务进行了如此有趣的讨论。 我想在 这里结束这个非常有趣的数据点。 因此、如果您认为 我们真的很感兴趣、那么 所有AI计划都将推动 实现卓越的业务成果、而且、您知道、 企业将开启他们的防御 模式、继续蓬勃发展。 当您考虑这一点时、如果您 看一下AI主节点 和AI新兴AI主节点之间的数据点、他们的 业务成果在12个月内的改善幅度是最低的。 因此,人们不禁要问,为什么要这样做? 原因是他们 从旅程的前几个阶段积累了收益。 他们正在实施更复杂的计划。 所以这可能有点让人困惑, 但是他们仍然在经历着 不是漫长旅程的重大改进。 虽然AI的兴起、但他们 只是从旅程开始、 业务成果得到了最显著的改善、因为 他们希望变得更加简单、 但他们没有积累、 从旅程的前几个阶段中积累的收益。 因此、这可能会有点误导。 但是,实际上,呃, 细节需要关注一下, 我的出现与我的大师有什么区别。 最后,我想强调一点,我 不是个好的人。 这不是一种选择、也不是一种选择。 每一个处于新兴阶段的组织都 需要加快 成为AI大师的步伐。 同时、我们 将与大家分享详细研究的一部分。 所以看看这个、我鼓励大家 与我们所有人进行互动、以便进一步学习。 谢谢大家。 很好地讨论了 我们从集体研究中获得的见解。 接下来、我将把它转交给了一个叫 哇! 这些都是一些很棒的、可指导行动的见解。 我衷心感谢Ritu和Yancey 帮助我们深入了解了我们可以学到的内容 、尤其是更多 AI大师在这个AI时代引领潮流的最佳实践。 如您所述、 我们一直在讨论的报告 今天可通过NetApp获得。 com注册参加网络广播的用户 也会收到一封电子邮件、其中包含报告的链接。 但在我继续发言之前、我想花一分钟时间总结一下 我们今天讨论的内容、以及 数据在帮助 企业将AI扩展到整个企业中所发挥的基本和关键作用。 让我们从数据无处不在这一现实开始。 它并不局限于 内部或云的传统定义。 它在任何地方生成、在任何地方都需要。 因此、我们相信 希望加速取得成功的企业。 在中。 我需要一个灵活的数据和存储架构、该架构 的核心是无缝的混合云和多云。 数据可能会因 所谓的专用存储和数据孤岛的激增而受到限制、 这大大增加了实现AI的复杂性。 我们相信、AI的未来将由 一个 在整个生命周期内针对AI进行优化的统一数据环境来实现。 企业正在 利用最宝贵的数据推动AI 变革。 这些数据不仅受到 法律和法规的影响、 而且还具有商业上非常敏感的 知识产权。 然而、负责 以惊人的速度围绕AI进行创新的人、 例如数据科学家和数据工程师、 通常不会专注于负责任地使用这些数据。 因此、我们认为企业必须 拥有一个智能数据基础架构、该基础架构必须提供 内置的监管、安全模式和数据可追溯性、 并提供针对恶意攻击的自动防御。 AI需要这些不可思议的资源需求。 因此、尽管这看起来像是 一个赌注、但拥有一个能够无缝 提供 任何AI工作负载所需性能的统一数据 环境至关重要、同时确保从成本和环境角度高效地完成工作。 最后、 实际需要 协同工作来交付AI的用户、该采用什么架构? 因此、我们坚信、数据环境必须 与每天用于 人工智能创新的MLOps平台紧密集成、专注于 提高工作效率并最大限度地 利用这些难以找到的角色。 接下来、让我们 换个位置、谈谈我们与NVIDIA的合作伙伴关系。 我们刚刚从3月份的NVIDIA GTC活动中出来、 NVIDIA和NetApp一起 发布了许多令人兴奋的联合公告、我们现在将对这些公告进行回顾。 首先是 NVIDIA首席执行官黄延森的这段精彩引言。 这说明了 我们继续扩大 围绕AI的六年多的长期合作关系的主要原因之一。 数据是推动当前 生成型AI解决方案爆炸式增长的动力、NetApp在 AI 领域的领导地位和智能数据基础架构使我们成为NVIDIA及其在该领域惊人创新速度的完美补充。 特别是、我们的非结构化文件数据功能 是检索、 增强型生成或RAG等解决方案的基础、这些解决方案是 GTC的前台和核心。 要详细介绍这一点、NVIDIA的 高级营销总监Tony Picard将与我一起。 Tony。 嗨、谢谢、 所以、我有幸 与NetApp合作、我可以说、在 过去的八年中、从我们 为企业创建第一个集成基础架构解决方案开始。 而且,你知道,从那时起,我们 两家公司开始了 一个旅程,去做一些过去 可能是科学和学术界的领域。 我的意思是、对上述任何一种行为都没有冒犯、AI也没有实现的。 您知道、对于 需要更好的新平台进行创新的每一位企业开发人员和数据科学家而言。 在接下来的几分钟里、我很高兴 您和我能够分享。 谢谢、Tony。 是的、让我们继续讨论这个问题。 回顾这些GTC公告。 首先、我想介绍一下新的NetApp i Pod。 NetApp AI POD采用NVIDIA DGX基础POD架构和DGX SuperPOD产品、是一组参考架构 、旨在帮助客户加速采用 广泛的企业级AI培训环境。 I POD基于 NetApp和NVIDIA六年多的联合创新成果构建而成、 将NetApp、AFF、E系列和C系列 存储解决方案与NVIDIA的DGX相结合 AI生命周期内所需的无中断可扩展性 和统一数据管理方法的性能。客户可通过内置的数据安全和威胁保护享受简化的部署和操作体验。 借助先前 发布的采用NetApp的NVIDIA DGX超级POD、 E系列客户可以 从 他们在AI管道中信任的同一合作伙伴那里获得极致的HPC和超高性能工作负载速度和密度。 那么、Tony、如果您不得不选择、 为AI构建的架构方面、您从客户那里听到的最重要的三件事是什么? 不、这就是为什么我 对我们的合作关系感到非常兴奋的原因。 您知道、我们的两家公司在 帮助企业克服AI平台的挑战方面都是一心一意的。 首先、客户一再告诉我们、 帮助我消除 设计基础架构的复杂性 、并 在计算、存储、网络 和软件之间实现微妙的平衡、这些都可以作为一个全堆栈解决方案协同工作。 我想第二件事是,嗯,把所有的 组件放在一起是很难的。 部署时间会延长、从而延迟了 您知道自己的开发人员实际上可以高效工作的时间。 他们说、 在有 能力完成所有任务的合作伙伴的支持下、让我加快部署速度。 我想第三件事是提高性能、 深厚HPC专业知识的人来说、提高基础架构利用率似乎是一个黑盒子。 因此、他们说、您知道、 为我提供可提供可 扩展的线性可预测性能的解决方案、就是这样。 易管理。 企业级支持和 AI专家为您提供支持、帮助您解决问题。 因此、我们对i POD感到兴奋、因为它 解决了所有这三个问题。 是的。 感谢Tony的这些见解。 那些能够抓住主题演讲的人和NVIDIA GTC可能 在Jensen后面的主屏幕上看到了这张图片。 我们非常高兴地重点介绍 NetApp在演示如何 将ONTAP存储操作系统集成到 最近发布的NVIDIA Nemo恢复器中所做的工作。 基于我们在企业数据中心的优势、 我们帮助客户轻松快速地将 现有非结构化文件数据集成到 由NVIDIA AI企业级软件套件提供支持的生成性AI知识管理解决方案中。 我们谈论的是帮助客户交流数据。 借助此解决方案、我们正在加快联合客户 从这些数据中发掘潜在价值的步伐。 那么Tony、您如何看待检索增强的一代产品 对我们客户的AI格局产生影响? 您知道、是 吗?是的、多年来、我们一直致力于帮助领先的公司从头开始培训任务关键型模型。 我们在这方面做得非常好。 但我们正 因为几个原因进入AI的新时代。 首先、嗯、而不是提供 现有的答案和内容。 AI的未来具有可生成性、可以 使用自然语言作为API来创建真正从未有过的答案和内容。 我想第二件事是随着 HRAG的出现、正如您所指出的、 我们现在正在帮助企业利用 他们已经拥有的 大量非结构化数据、并真正地谈论他们的数据、谈论他们庞大的 PDF文件、技术文档、客户记录、 财务报告、等等。 因此、 与 因此、与过去十年的范式不同、 AI不再局限于那些 经常从头开始创建自己的基础模型的人。 现在、几乎任何人都可以 利用 NVIDIA、 Nemo恢复器和NetApp联合解决方案释放的数据、获得难以置信的精确答案。 是的。 很好、Tony。 我们认为这是因为我们都认为这 是真正的革命,而不仅仅是进化。 现在、让我们将注意力转向NVIDIA 和NetApp如何合作、帮助企业 大规模实施AI工作负载。 NVIDIA最近发布了 针对企业优化的更新Ovx平台。 它面向推理、微调 和大规模轻型训练等关键功能、非常适合 我们刚刚讨论过的生成性AI和RAG等技术等工作负载。 NetApp的智能数据基础架构 功能和企业级技术、 再加上对 整个AI数据生命周期的全面支持、 意味着我们非常适合NVIDIA Ove、 而且我们最近宣布NetApp ONTAP已通过 OV平台存储合作伙伴认证。 所以、Tony、我们非常高兴能 在Ovex上与NVIDIA合作。 您能否分享它如何与 企业的端到端AI解决方案的其余部分相辅相成? 是的、您知道、在这 家企业中、我们看到了两种AI开发模式。 我的意思是、基础 模型的训练和自定义需要巨大的计算能力 才能交付可投入生产的模型、可能需要数小时或 数天、而不是以前需要数周或数月的时间。 此外、我们还看到了在我们讨论时出现的问题 、例如利用经过预先训练的模型、 与嵌入模型和向量 数据库结合使用、利用实时企业数据来扩充这些模型 、以便获得更及时、更准确的答案。 第二种模式需要一个平台、该平台 可以位于创建数据的位置、 可以位于部门或业务单位级别 、甚至是企业的边缘、这样 可以减轻持续 重新训练大型或超大型模型的压力、 或者基础架构 可以通过一个可以经济高效地部署在数据所在位置的平台来满足这一需求。 经过优化、可 通过NetApp智能数据基础架构进行微调和快速部署、 使数据集和 模型能够轻松移动到任何位置。 谢谢、Tony。 是的。 我们当然看到这一巨大的 投入运行的动力。 这是下一个重要领域。 这正是我们开始看到人们 从其AI投资中创造真正价值的地方。 现在、我们将进入问答部分。 因此、如 本课程前面所述、请学员继续。 使用缩放的问答功能提问。 我将继续进行、并拿起它们来询问 演示者并提出问题。 我很高兴地说、 NVIDIA全球技术销售和战略总监Will Vick也加入了我们的行列。 所以,让我们看看我们对面板有什么问题。 嗯、 好的。 让我们从这一个开始。 您能否解释一下 此次研究中使用的统一存储的定义 及其与加速 实现业务价值的关系? 嗯、让我们来吧。 Yancey、您是否可以选择这一个? 是的。 你能不能再重复一次、只是稍微破裂了一下。 是的。 抱歉。 您能否解释一下 本研究中使用的统一存储的定义 及其在加速实现业务价值方面的关系? 是的。 我的意思是、当您能够 在所有工作负载下统一存储时、 这对AI来说是一个巨大的优势。 您知道、 不再存在这些孤岛。 嗯、我的意思是、正如您在报告中所看到的 、最大的问题是访问数据 、避免孤岛、让 数据100%安全、并映射和了解您的数据。 对我来说、这就是一个统一存储。 而不仅仅是 统一存储。 这也是关于人。 能够根据需要移动数据。 当您需要更多GPU时、您可以 在需要时进入或进入任何公有云中。 全部运行在NVIDIA上。 因此、从 我的角度来看、 为您的工作负载 、尤其是AI工作负载制定统一的存储策略至关重要。 是的。 谢谢。 感谢Retto。 要在此处添加的任何内容。 是的。 谢谢你,鲁谢。 所以、正如我 在研究中分享的那样、 AI项目失败的首要原因是 基础架构限制了数据访问。 对。 因此、基础架构可以打破数据孤岛、 加快多种数据类型的访问速度。 我们不再只处理 以结构化数据库格式存储的结构化数据类型、 而是处理大量数据、尤其是在AI时代。 我们正在处理非结构化数据、 以及半结构化数据。 因此、任何有助于 灵活访问 和更快访问多种数据类型并加快 工作流速度的基础架构都将真正改变 企业的游戏规则。 所以我只想强调一下。 是的、谢谢。 谢谢Reetu。 我在这里有一个有趣的问题、 NVIDIA可能会帮我们解决。 DGX、Cloud或Equ无限 等解决方案能否解决 传统数据中心的电耗问题? 我想问这个问题的人是 指最近宣布的一些 Blackwell训练环境,这些环境有一些 相当不错的电源要求。 嗯、是的。 是的、当然可以。 嗯、您知道、 准备 好这样的数据中心基础架构就是 我们与EquNIX合作的一个例子。 嗯、如果您 自己的数据中心没有强大的功能 、或者假设您正在构建全新的 环境、您需要立即部署数据中心、那么您可以利用它。 您知道、 从 API的角度来看、与他们合作 不仅非常简单、而且还可以很好地连接到如何交付AI、以及如何连接到云以及如何 在数据之间移动其他资源。 对。 因此、关键在于提高效率和降低总 拥有成本、呃、在您现有的资源之间。 是的。 谢谢。 嗯、您没有看到任何可添加的内容? 否 我的意思是、只是强调Bill所说的、我的意思是、 许多公司还没有准备好改变、 将数据中心重新设计为InfiniBand。 我的意思是、他们可能会采用 基于以太网的解决方案、作为一名作家、 我们也在与NVIDIA合作。 但您知道、关键在于能够 在需要时扩充到Equin.、DGX、云和公有云。 不仅如此、您还必须能够支持所有 这些不同的协议、您知道、文件对象块。 所有这些都必须经过管理、能够 分配或扩充到这些具有 电源设计和 GPU可满足您需求的服务提供商。 谢谢、Reto。 从您的角度来看、 您在IDC方面看到了什么? 是的、我想补充一点、我认为Bill和 Nancy非常好、简洁地阐述了这一点。 我唯一想补充的 是、我们发现、 数据隐私以及其他方面的原因、主机代管是许多培训实例的一个非常可行的选择。 数据惯性。 您知道、许多客户确实遇到了 自己的情况。 传统AI的训练。 我们已经忘记了传统。 AI时代的AI、但他们确实会 从内部进行大量训练和推理。 出于所有这些原因、请勿复制 数据副本。 从 自有专用 防火墙内的主机代管中心快速访问是一个非常可行的选择。 此外,您 太棒了 谢谢。重至 嗯、我有一个很好的 问题、我要问 、嗯、如果他能回答、NetApp 对负责任地管理AI数据有什么贡献? 嗯、我的意思是、我们非常重视 NetApp内部的监管和合规性。 当然、这也是未来发展的关键、因为您 需要满足许多要求、 在 移动数据或上传数据并使用数据训练模型 甚至进行微调之前或之前、跟踪数据或模糊数据。 所以 我认为我们的许多竞争对手,坦率地说, 嗯、好的。 这是另一个很好的例子。 嗯、我觉得 这也很适合你。 那么、关于资源效率、 我应该如何考虑将数据迁移到AI训练中? 我应在何时执行此操作?何时才能更好地 将AI应用于数据? 记住某 种关于时间的准则是非常重要的。 首先、在切内时代、借助所有这些 经过预先训练的模型、您不必 仅仅为了大量数据而使用海 量数据块。 使用高质量数据集。 确保您拥有适当的数据 安全性和数据隐私、 并确保您拥有 IT数据监管方面的正确整个生命周期。 但是当你训练的时候,你知道, 高质量的数据集, 因为我已经说过了 ,数据有重力。 您不必移动整个数据区块、因为它 会在安全性、 隐私性、数据移动方面产生开销、并且与数据相关的成本 以及所有数据安全要求都相关。 如果您希望将AI应用于数据、即您自己的训练、 您实际上可以帮助 更高效地管理AI。 与此同时、边缘AI、 我们都知道、最重要的优势是、 将AI真正引入数据中用于推理、 出于隐私原因、资源原因、您知道、 电耗更低、 减少实际移动数据时的带宽使用量。 所以 有很多组合,你知道的。 我也提到了当我们 谈论同地办公的时候, 有些情况下,当你已经 在同地办公设施中运行你的现有数据集。 将其保留在该位置非常有意义。 嗯、是的、我想我们在现场 会议上也有一个关于边缘的问题、所以可以随时向我们所有人提问。 我很乐意就此提供一些看法。 是的。 从 要求、部署模式、 采用率、增长和数据管理角度来看、这基本上就是专家小组对边缘AI的认识。 是。 是的。 我是的。 请继续。 你是对的。 您是否要先进行、然后再进行。 然后、我 也可以从IDC的角度来回答一些问题。 当然可以。 嗯、从边缘AI的角度来看、嗯、 我们看到这种趋势在急剧增长。 你知道,近几年来,我想说我第一次 在NVIDIA工作了五年半, 我想说的是,前几年更像是, 你如何建立培训,以及如何开始 在现实中补充这些东西。 嗯、现在我们确实看到了 大量边缘AI功能升级的巨大趋势、比如说、 它是否存在于 面向不同受众、 全球不同语言的不同Web应用程序中。 嗯、我们看到很多 客户都在向这种方向迁移。 此外、从采用的角度来看、您知道 客户正在利用大量AI功能来 构建这种功能。 嗯、从我们所看到的来看。 对。 您将获得大量的新资金、您知道、您 如何为自己的 利益解决这个市场、让我们来说一下多元化计划。 但是、那么、您该如何 将其推向市场来为客户提供服务呢? 我们看到这是一 个新的难题、 也是他们 为客户提供的新功能。 再说一遍,你知道,很多 时间都是关于环境的地方。 内部限制因素可能包括历史偏见、 监管、数据控制权等。 我也要指出这一点。 谢谢你Bill。 所以,让我补充一些看法。 我们从IDC的角度也看到了什么。 我们都知道 边缘AI有一些关键优势、对吧? 但我想指出、 传统AI和AI在AI谱系中存在一些细微差别。 现在,我们处于非常早期的阶段。 迄今为止、我们还没有看到这么多的边缘AI。 话虽如此,仍有。 这项工作正在进行中、而且是在口袋里完成的。 对。 但 现在正在进行的推理以及大部分推理都在云中进行。 但是、我们预计这种情况将在边缘出现、也会出现在AI代身上。 但现在回到更传统的AI、 我们都知道、AGI最重要的优势是、 它为 边缘带来了高性能计算功能、传感器和物联网设备位于边缘、 我们看到、 如果云中的Data Processing只需几秒钟、 Data Processing位于边缘、 在许多情况下、这些决策会影响人类的生活、 而近乎实时的处理至关重要、 我们看到、隐私的某些方面 在医疗保健和所有领域中都变得非常重要。 我们看到、客户进行了大量边缘 训练和边缘推理。 是在潜艇边缘设备上进行训练的。 对。 而且不符合时间要求。 我不打算详细介绍、但在 所有这些情况下、 数据可用性、数据可访问性都非常重要。 同时、它还减少了互联网 带宽和成本、并减少了电耗。 此外、还有许多有趣的边缘用例。 但我想在这一 特定主题的最后一点是,我有点提到 联合学习这个词。 在许多情况下、我们看到数据 隐私处于前沿和核心位置。 这些工作正在进行中。 边缘AI模型、它们在边缘设备上运行、 并且只有结果会传输到主要的中央 模型、以使其处于循环循环状态。 我只谈一个非常简单的联合学习。 它有不同的选项。 这些是我们看到的不同模型。 我们将在 不久的将来看到AI时代的这种彻底转变、但现在还没有这么大的改变。 好的。 给你,你, 太棒了 谢谢、Rita。 下面有一个问题我要回答自己。 嗯、是否有一个 NetApp集成的MLOps平台列表? 答案是、我们集成了 一整套MLOps平台。 我们当然相信、 通过NetApp、 ONTAP Everywhere实现的固有价值、 可以通过 真正简化数据集管理。 嗯、 对于这些人、请举一些例子。 Domino数据实验室在云中的 AWS SageMaker上运行AI Iguazio、这是GCP顶点的基岩。 此外、 我们还在Azure上实现了一些集成。 我的意思是,在三个主要的超 大型云提供商以及一组企业控制平台解决方案之间。 NetApp IS拥有一个非常广泛的 解决方案生态系统、我们 在这一领域为其提供支持 。显然、运行AI特别有趣、因为NVIDIA刚刚 宣布收购了运行AI。 嗯。 哦、是的 。 好的。 最后一个问题。 我想、各位、在我们总结 竞争格局之前、 与竞争对手相比、NetApp在 这些AI工作负载方面的优势何在? 我们是否有优势? 嗯、竞争对手是否有 NetApp没有的东西? 这是非常直接的。 嗯、我觉得这对你来说很好。 是的。 我的意思是、使我们 从竞争对手中脱颖而出的独特之处在于、我们是 唯一能够说我们无处不在的人。 嗯、您知道、我们不必指定客户 的工作负载部署位置。 嗯、嗯。 另一件事是,呃,你知道,特别是当 我们谈论广告和广告的时候 ,因为很多,就像你说的, 很多推理会 发生在广告上。 它们是数据管理功能。 您知道如何 根据自己的需求将核心与云(从广告到核心再到云)联系起来。 拥有。 对于 我们这类竞争对手而言、能够在任何特定时刻将数据重定向到需要的位置是一项非常独特的NetApp功能。 我的意思是、当您使用 InfiniBand时、您会喜欢 并行文件系统以及 那里的一切。 当然、在某些情况下、 我们的竞争对手可能会闪耀、 但他们没有数据管理功能。 老实说,他们制造的孤岛比他们 实际解决的问题多。 但我们当然有。 采用Beegfs的E系列 也是一个解决方案。 但是、您又会失去数据管理 功能。 这是关键,因为,你知道,要加快速度。 好的。 感谢John Cena。 我对 我们在 所以,好的,嗯,我想这是 我们所有的问题时间。 最后、我想回顾一下 NetApp提供的智能数据基础架构如何帮助克服在 (尤其是新一代AI)计划的道路上面临的诸多挑战和难点。 首先、一个灵活的数据和存储 架构、其核心是无缝的 混合云和多云、可 跨各种数据类型提供统一的数据访问。 其次、数据管理架构可提供内置的 监管和安全模式、数据可追溯性 以及针对恶意攻击的自动防御。 第三、即使 要求最苛刻的AI工作负载也需要所有性能、 同时优化成本和可持续性。 第四、一个与 MLOps平台紧密集成的数据环境、该平台每天都用于AI创新、 专注于改善 组织中负责交付AI的关键人员的日常生活和工作效率、无论他们是 数据科学家、数据工程师、开发人员还是IT人员。 最后、重点关注目标业务成果、 而不是推动这些成果的技术。 正如我前面提到的、我们有一个基本信念、 即数据是推动AI创新的动力、 释放数据的潜能是您 充分利用我们面前机会的关键。 在此、我要感谢我们的嘉宾 和与会者今天的参与。 请记住、我们在本次 网络广播中介绍的成熟度研究将发送给已注册本次 会议的人员、并可在NetApp上查看。 Com. 此外、在我们的网站上、您还可以找到我们的 高管对AI的一些观点、以及 有关我们与NVIDIA联合解决方案的更多详细信息。 谢谢 、祝您度过美好的一天。
NVIDIA and IDC guest speakers join NetApp experts for a deep dive on the AI maturity model white paper and the future of AI.