人工智能(AI)已无处不在,逐渐成为推动未来科技发展的重要力量。然而,尽管 AI 应用日益广泛,市场上却一直缺乏专门用于开发、测试和运行生成式 AI 模型的 Linux 发行版。不过,这一局面现在已经发生了改变。
Red Hat 推出专为 AI 设计的 RHEL AI
今年五月初,我们曾报道过 Red Hat 正在开发一款全新的 Red Hat Enterprise Linux (RHEL) 版本,专为那些需要可靠平台来开发 AI 应用的企业而设计,并集成了开源的 Granite 模型。几天前,Red Hat 正式宣布推出了这一期待已久的版本——Red Hat Enterprise Linux AI(RHEL AI)。
集成 Granite 模型与 InstructLab 校准工具
RHEL AI 集成了开源许可证的 Granite 大型语言模型系列(基于 Apache-2.0 许可发布)和创新的 InstructLab 校准工具。Granite 模型提供了强大的自然语言处理能力,而 InstructLab 校准工具则帮助开发者微调和优化模型,以便更好地满足企业需求。这一组合不仅使 RHEL AI 在生成式 AI 的开发和部署上具备显著优势,还针对混合云中的独立服务器部署进行了优化,为企业带来了全新的 AI 应用开发体验。
高效便捷的生成式 AI 解决方案
RHEL AI 作为一个可启动镜像形式发布,集成了 Red Hat Enterprise Linux 操作系统和 PyTorch 等常用 AI 库,并针对 NVIDIA、Intel 和 AMD 等主流硬件厂商进行了深度优化,以确保高性能的 AI 推理能力。这一设计让企业能够更轻松地将生成式 AI 融入其日常运营中。
RHEL AI 通过提供更便捷、高效的 AI 解决方案,帮助企业应对训练生成式 AI 模型的高成本挑战。考虑到某些大型模型的训练费用可能高达 2 亿美元,RHEL AI 旨在通过优化性能和提升性价比,降低企业将 AI 技术集成到业务中的门槛。
强大的订阅服务与支持体系
RHEL AI 由 Red Hat 的订阅模式支持,提供企业级产品分发、24×7 全天候生产支持、扩展的模型生命周期支持,以及在开源保证下的法律保护。这种全面的支持体系为企业在使用生成式 AI 过程中保驾护航,帮助企业更自信地迈向 AI 驱动的未来。
多平台灵活部署与未来规划
从 9 月 5 日起,RHEL AI 已可通过 Red Hat 客户门户网站获取,用于本地部署。除此之外,它还可以以“自带订阅”(BYOS)的形式在 AWS 和 IBM Cloud 上使用。Red Hat 还计划在 2024 年第四季度将 BYOS 方案扩展至 Azure 和 Google Cloud,并计划进一步扩大其云和 OEM 合作伙伴关系,为用户提供更多选择和更广泛的部署渠道。
总结
RHEL AI 的发布标志着 Red Hat 在生成式 AI 领域的重大进展。通过整合高效的 AI 模型、优化的硬件兼容性以及强大的订阅支持体系,RHEL AI 为企业提供了一个可靠的生成式 AI 开发和运行平台。无论是本地部署还是云端集成,这一平台都能为企业带来便捷、高效且具备成本效益的 AI 解决方案。
想了解更多关于 RHEL AI 的信息,请访问 Red Hat 官方公告或查看完整更新日志。这一全新的 Linux 发行版,无疑将成为推动企业迈向 AI 时代的重要工具。