英伟达OCR代码推理AI模型开源,性能超越OpenAI同类产品!

   发布时间:2025-05-09 15:34 作者:陆辰风

近日,全球知名科技媒体marktechpost报道了一则重要消息,英伟达正式开源了其Open Code Reasoning(OCR)模型套装。该套装包含了三种不同规模的模型,分别是32B、14B和7B,均基于Apache 2.0许可证进行发布。用户现在可以在Hugging Face平台上轻松下载这些模型的权重和配置。

OCR模型套装中的三种模型均采用了Nemotron架构,这是一种专为多语言和多任务学习优化的Transformer框架。32B模型定位在高性能推理和研究领域,为用户提供卓越的效果;14B模型则在降低计算需求的同时,依然保持了强大的推理能力;而7B模型则更适合资源受限的环境,能够在基准测试中展现出不俗的表现。

尤为32B模型还推出了指令微调版本,这一版本与开放推理生态系统无缝兼容,并支持适配llama.cpp、vLLM、Hugging Face Transformers和TGI等主流框架。这无疑为开发者提供了极大的便利,使他们能够快速集成并应用这一先进的模型。

在代码推理领域,OCR模型套装展现出了惊人的实力。根据LiveCodeBench基准测试的结果,OCR模型全面超越了OpenAI的o3-Mini和o1(low)模型。这一成就不仅彰显了模型架构的优化成果,也凸显了英伟达在打造定制“OCR数据集”方面的深厚功底。该数据集专注于高质量代码训练,注重指令遵循、推理能力和多步骤问题解决能力的培养。

具体来看,在LiveCodeBench的各项测试中,OCR-Qwen系列模型表现尤为突出。7B版本的OCR-Qwen-7B-Instruct在Avg.CodeContest和All两项指标上分别达到了51.3和18.1的高分;14B版本的OCR-Qwen-14B-Instruct则分别取得了59.4和23.6的优异成绩;而32B版本的OCR-Qwen-32B-Instruct也毫不逊色,两项指标分别为61.7和24.4。这些数据充分证明了OCR模型套装在代码推理领域的领先地位。

除了OCR-Qwen系列模型外,其他经过蒸馏的模型如Bespoke-Stratos、OpenThinker、R1-Distill-Qwen和OlympicCoder等也在测试中取得了不俗的成绩。然而,与OCR模型相比,它们在Avg.CodeContest和All两项指标上的表现仍有一定的差距。

LiveCodeBench是一个专注于调试、代码生成和逻辑补全等真实开发者环境中任务的综合评估平台。通过在该平台上的测试,OCR模型套装充分展示了其在代码推理领域的卓越性能和广泛应用前景。这无疑为英伟达在人工智能领域的持续创新和领先地位注入了新的动力。

 
 
更多>同类内容
全站最新
热门内容
本栏最新