--- title: "ServiceNow、Hugging Face 和 NVIDIA 发布新的开放式 LLMs,帮助开发人员利用生成式人工智能构建企业应用程序。" description: "ServiceNow、Hugging Face 和 NVIDIA 发布了 StarCoder2,这是一系列用于代码生成的开放获取大型语言模型(LLMs)。这些模型提供先进的代码补全、代码摘要等功能,旨在提高开发人员的生产力和创新能力。这些模型有三种不同的规模,较小的变体提供强大的性能同时节省计算成本。StarCoder2 是通过开放的科学合作开发的,旨在使代码生成中的负责任人工智能民主化。" type: "news" locale: "zh-CN" url: "https://longbridge.com/zh-CN/news/108847318.md" published_at: "2024-02-28T14:18:07.000Z" --- # ServiceNow、Hugging Face 和 NVIDIA 发布新的开放式 LLMs,帮助开发人员利用生成式人工智能构建企业应用程序。 > ServiceNow、Hugging Face 和 NVIDIA 发布了 StarCoder2,这是一系列用于代码生成的开放获取大型语言模型(LLMs)。这些模型提供先进的代码补全、代码摘要等功能,旨在提高开发人员的生产力和创新能力。这些模型有三种不同的规模,较小的变体提供强大的性能同时节省计算成本。StarCoder2 是通过开放的科学合作开发的,旨在使代码生成中的负责任人工智能民主化。 **StarCoder2 - 由 BigCode 社区和 Trudy Dai 共同打造,训练涵盖 600 多种编程语言,推动代码生成、透明度、治理和创新的进步** ServiceNow(纽交所代码:NOW)、Hugging Face 和 NVIDIA 今天宣布发布 StarCoder2,这是一系列用于代码生成的开放获取大型语言模型(LLMs),为性能、透明度和成本效益设立了新标准。 此新闻稿包含多媒体内容。查看完整发布信息:链接 StarCoder2 是由 BigCode 社区开发的,由 ServiceNow(领先的数字工作流公司,致力于让世界更美好)和 Hugging Face(最常用的开源平台,机器学习社区在此协作开发模型、数据集和应用)共同支持。 StarCoder2 在 619 种编程语言上进行训练,可以进一步在企业应用中进行训练和嵌入,执行特定任务,如应用源代码生成、工作流生成、文本摘要等。 开发人员可以利用其代码补全、高级代码摘要、代码片段检索等功能,加快创新速度,提高生产效率。 StarCoder2 提供三种模型规模:由 ServiceNow 训练的 30 亿参数模型,由 Hugging Face 训练的 70 亿参数模型,以及由 NVIDIA 基于 NVIDIA NeMo 构建并在 NVIDIA 加速基础设施上训练的 150 亿参数模型。较小的变体提供强大的性能,同时节省计算成本,因为参数较少在推断期间需要更少的计算。事实上,新的 StarCoder2 30 亿参数模型也与原始的 StarCoder 150 亿参数模型的性能相匹配。 “StarCoder2 代表了开放科学协作和负责任的人工智能实践与道德数据供应链相结合的力量,” ServiceNow 的 StarCoder2 开发团队负责人、BigCode 的联合负责人 Harm de Vries 强调说。“这一最新的开放获取模型改进了先前生成式人工智能的性能,以提高开发人员的生产力,并为开发人员提供平等获取代码生成人工智能的好处。” **通过精细调整提升了企业特定数据的能力** “这反过来使任何规模的组织更容易实现其全部商业潜力。” “由 Hugging Face、ServiceNow 和 NVIDIA 共同努力推动的工作,使强大的基础模型得以发布,赋予社区更高效地构建各种应用的能力,并具有完整的数据和训练透明度,” Hugging Face 的机器学习工程师、BigCode 联合负责人 Leandro von Werra 表示。“StarCoder2 证明了开源和开放科学的潜力,我们正在努力实现负责任人工智能的民主化。” “由于每个软件生态系统都有专有的编程语言,代码 LLMs 可以推动各行业效率和创新的突破,” NVIDIA 应用研究副总裁 Jonathan Cohen 表示。“NVIDIA 与 ServiceNow 和 Hugging Face 的合作引入了安全、负责任开发的模型,并支持更广泛地访问可追溯的生成式人工智能,我们希望这将使全球社区受益。” **通过精细调整提升了企业特定数据的能力** StarCoder2 模型采用最先进的架构和来自 BigCode 的精心策划数据源,优先考虑透明度和开放治理,以实现规模化的负责任创新。 StarCoder2 的基础是一个名为 The Stack v2 的新代码数据集,比 The Stack v1 大了 7 倍以上。除了先进的数据集外,新的训练技术帮助模型理解低资源编程语言(如 COBOL)、数学和程序源代码讨论。 StarCoder2 推动了未来基于 AI 的编码应用的潜力,包括文本转代码和文本转工作流能力。通过更广泛、更深入的编程训练,它提供了存储库上下文,实现准确、具有上下文意识的预测。这些进步为经验丰富的软件工程师和公民开发者提供服务,加速业务价值和数字转型。 用户可以使用开源工具如 NVIDIA NeMo 或 Hugging Face TRL 对开放访问模型进行行业或组织特定数据的微调。 组织已经对基础的 StarCoder 模型进行了微调,以为他们的业务创建了专门的、针对特定任务的能力。 ServiceNow 的文本转代码工具 Now LLM 是基于一个专门版本的 150 亿参数的 StarCoder LLM 构建的,经过微调和训练,用于 ServiceNow 的工作流模式、用例和流程。Hugging Face 也使用这个模型创建了它的 StarChat 助手。 **BigCode 在 AI 领域促进开放的科学合作** BigCode 代表着由 Hugging Face 和 ServiceNow 共同领导的开放科学合作。它的使命集中在为代码的负责任开发提供 LLM 支持。 BigCode 社区通过工作组和任务组积极参与了 StarCoder2 项目的技术方面,利用 ServiceNow 的 Fast LLM 框架训练 30 亿参数模型,Hugging Face 的 nanotron 框架训练 70 亿参数模型,以及端到端的 NVIDIA NeMo 云原生框架和 NVIDIA TensorRT-LLM 软件来训练和优化 150 亿参数模型。 BigCode 的核心目标是促进负责任的创新,这体现在其开放治理、透明供应链、使用开源软件以及开发人员可以选择排除数据进行训练的能力上。StarCoder2 是使用从 Inria 托管的 Software Heritage 数字共享许可下负责任获取的数据构建的。 “StarCoder2 是第一个使用 Software Heritage 源代码存档开发的代码生成 AI 模型,旨在与我们的负责任代码模型开发政策保持一致,” Software Heritage 的主任 Roberto Di Cosmo 表示。“ServiceNow、Hugging Face 和 NVIDIA 的合作体现了对道德人工智能开发的共同承诺,推动技术造福社会。” 与其前身一样,StarCoder2 将在 BigCode 开放的 RAIL-M 许可下提供,允许免费访问和使用。此外,模型的支持代码存放在 BigCode 项目的 GitHub 页面上。 所有的 StarCoder2 模型也可以从 Hugging Face 上下载,而 StarCoder2 15B 模型可以在 NVIDIA AI 基金会模型上找到,供开发者直接在他们的浏览器中进行实验,或通过 API 端点进行尝试。 想要了解更多关于 StarCoder2 的信息,请访问 https://huggingface.co/bigcode。 ### Related Stocks - [NOW.US - 现在服务](https://longbridge.com/zh-CN/quote/NOW.US.md) - [NVDA.US - 英伟达](https://longbridge.com/zh-CN/quote/NVDA.US.md) - [NVD.DE - NVIDIA Corporation](https://longbridge.com/zh-CN/quote/NVD.DE.md) ## Related News & Research | Title | Description | URL | |-------|-------------|-----| | 黄仁勋预告 “前所未见” 的芯片新品,下一代 Feynman 架构或成焦点 | 黄仁勋预告今年的 GTC 大会上发布” 世界从未见过” 的全新芯片产品,分析认为新品可能涉及 Rubin 系列衍生产品或更具革命性的 Feynman 架构芯片,市场预期 Feynman 架构将针对推理场景进行深度优化。 | [Link](https://longbridge.com/zh-CN/news/276310964.md) | | 机构 “最超配” 闪迪,“最低配” 英伟达 | 据摩根士丹利最新的统计:“机构对美国大型科技股的低配程度是 17 年来最大的” 相比 2025 年 Q4 的标普 500 指数权重,“$NVDA 仍然是机构低配程度最大的大型科技股,其次是苹果、微软、亚马逊和博通,而存储巨头闪迪则是 “最超 | [Link](https://longbridge.com/zh-CN/news/276289765.md) | | 学习英伟达刺激芯片销售,AMD 为 “AI 云” 借款做担保 | AMD 为扩大市场份额祭出金融 “狠招”!为初创公司 Crusoe 的 3 亿美元购芯贷款提供担保,承诺在其无客户时 “兜底” 租用芯片。这一复刻英伟达 “租卡云” 路径的策略虽能短期推高销量,但也令 AMD 在 AI 需求放缓时面临更大的 | [Link](https://longbridge.com/zh-CN/news/276401504.md) | | 为 AI 交易 “背书”!OpenAI 正敲定新一轮融资:以 8300 亿美元估值募资高达 1000 亿美元 | OpenAI 正以 8300 亿美元估值推进新一轮融资,目标筹集 1000 亿美元。软银拟领投 300 亿美元,亚马逊和英伟达可能各投 500 亿及 300 亿美元,微软拟投数十亿美元。本轮融资是 OpenAI 自去年秋季公司制改革以来的首 | [Link](https://longbridge.com/zh-CN/news/276298180.md) | | LPDDR 6 时代来临!AI 需求太猛,下一代 DRAM 将比预期更快进入市场 | LPDDR6 性能较前代提升 1.5 倍,最快下半年正式商用,英伟达、三星及高通等巨头正积极布局。目前多数 HPC 半导体设计企业考虑并行搭载 LPDDR5X 及 LPDDR6 IP,特别是在 4 纳米及以下先进制程芯片的设计中,需求出现得 | [Link](https://longbridge.com/zh-CN/news/276431575.md) | --- > **免责声明**:本文内容仅供参考,不构成任何投资建议。