在由州房地产监督监督和管理委员会协调和指导的AI 2025世界会议的关键节点中,由中国移动设备AI的开源开放平台的“更新社区”标志着中国“国家团队”在实质阶段的进入。作为第一批联合建筑单元,中兴通讯同时开始了11项中央技术成就,涵盖了大型模型,数据集,培训范式和专业现场评估工具。利用铁杆的技术力量帮助建立国家AI的生态系统,并展示技术公司支持国家AI策略的坚实决策。国家级平台建立蜡烛。中兴有三个重要说明:“更新社区”。作为中国AI“国家团队”的中心承载者,我将成为一项战略使命,以整合中央公司的资源,打破技术障碍并促进整数人工智能的发展。该平台采用“开源,联合开放和创新”,例如其核心,在打开计算机电源组,共享模型资源和建立发展社区时,降低了AI技术应用的阈值。我们的目标是培养国际竞争激烈的国家竞争性人工智能生态系统。在这种国家战略设计中,中兴通讯已成为IA的40年通信技术和研发技术的生态建设中的重要力量。中兴通讯高级副总裁张·旺昌(Zhang Wanchun)在启动仪式上说:“开源生态系统的建设要求“国家设备”协调一致。 “中兴通讯使用开放技术来源作为加深参与的链接:模型创新,能源优化和舞台行业的实施。涵盖“模型数据工具”的技术矩阵,并注入了第一个高质量的高质量技术资产进入“更新社区”。 Strue建立了坚实的生态基础。在六个开源模型中,NTELE-R1-32B-V1电信模型已成为重点。该模型基于DeepSeek-32B-Distill架构培训,仅使用精心选择的样本(包括400个数学问题和400个代码任务),并超过具有多个授权资格的行业参考模型。数据显示,在AIME2024等级中获得了82.5,在QWEN3-32B中超过78.75。在Math500测试中,精度达到95.2%,以1-2个百分点领先类似的模型。 “低效率训练”的这种特征为降低AI的开发成本提供了新的范式。 ZTE AI R&D中心的负责人解释说:“自从DeepSeek-32B-Distill以来,NTEL-R1-32B-V1接受了训练,以实现“较少的”训练效果。在多模式智能的领域,开源模型7B重生和3B式浏览 - 还引起了人们的注意。SE两个模型基于QWEN2.5-VL教学的精细调整,并使用原始的Curr-Ref-Reft训练范式,“课程的强化学习”和“拒绝个人样本改进的机制”,这允许小参数模型可证明与大型模型可比的推理能力。 Curr-Reft在两个模型的原始基线中都有很大的作用,在多个公共参考点中克服了26B(Intervl-26b)和32B(Llava-Next-32b)模型。实际数据表明,AI2d 3b-Cur refter reft的数学推理测试中有83%的精度,该测试超过了参数26B InternVL-26B。 7B版在MathVista评级中赢得了92.2%,基本模型的33.6个百分点增加。 “弯曲的核核就像人类的学习,它是关于分阶段移动模型的。”技术专家说,范式将任务分为三个阶段。结合拒绝GPT-4-O得分的采样机制,它不仅是损坏的GH是小型模型的“瓶颈墙”,但也避免了基本功能的退化。该轻型解决方案特别适用于资源限制场景,例如智能终端和行业计算。数学,代码和视觉识别涵盖了重要领域。从简单到并行函数的调用。工具”。使用huanxina的社区平台,开发人员可以使用支持数据并使用Curr工具链优化的培训培训开源模型来构建行业解决方案。这11个核心结果不仅增强了“更新社区”的技术基础,而且还为ZTE提供了ZTE的研究。开源模型和国内芯片。目前,与流行解决方案相比,计算机能源效率提高了40%。不是终点,而是共同创新的起点。 “张旺昌强调,中兴通讯将采用通信技术作为基础,继续使用“硬核”。“国家团队”创建一个全球技术生态系统竞争。