http://www.gkong.com 2026-02-07 10:23 来源:优必选科技
国家最高领导人强调:“我们依靠创新为高质量发展赋能”“创新创造催生了新质生产力,也让生活更加多姿多彩”。回望过去一年,中国经济向新而行、活力澎湃,科技与产业深度融合,创新成果竞相涌现,我国成为创新力上升最快的经济体之一。
新春来临之际,《人民日报》记者分赴山西、上海、河南、广东、海南等地,走近奋战在基层一线的科研工作者,听他们讲述勇于挑战、集智攻关的创新故事。
2月6日,《人民日报》要闻版刊登2026新春走基层系列特别报道——《听,来自科研一线的创新声音》。继1月18日登上《人民日报》“十五五”系列报道后,优必选视觉算法工程师曾钰胜再次作为人形机器人行业的杰出青年代表接受《人民日报》专访,向记者讲述了他在2025年奔赴产业一线,扎根中国智能制造的故事。
以下为《人民日报》报道原文:
机器人从“看得见”到“看得懂”
曾钰胜
华灯初上,实验室里仍是一片繁忙。曾钰胜趴在操作台前,调试工业人形机器人Walker S2的视觉感知系统。调试完毕后,他启动程序,机器人面对桌面上堆叠的螺丝,快速完成位姿识别,准确分拣螺丝,放置到指定位置……看着人形机器人精准的全流程操作,曾钰胜露出了笑容。

如果说人形机器人正在成为智能制造的“新员工”,那我们视觉算法工程师研发的视觉系统,就是为它装上“眼睛”。视觉不仅是人形机器人感知环境的“输入”工具,更是其理解世界、做出决策、与人协同工作的“认知”基础,是实现其在复杂环境中自主行动、与人交互最核心的感知能力。
过去一年,我们团队伴随着Walker S系列走进工厂、走上产线,见证它从实验室走向规模化应用。这背后,是无数个在调试车间、在应用现场、在代码与算法中奋战的日子,于我而言,也是一段在解决实际问题中不断成长的经历。

比如,在一次机器人实训中,车间里有不少黑色工件,由于表面吸光,深度相机很难捕捉到有效的点云数据,机器人无法准确识别它们的姿态。为此,我们团队研发了RGB与环境深度融合的位姿估计算法,利用RGB图像提取丰富的纹理与边缘特征,并融合工件周围非黑色区域的深度信息进行空间推理,从而使机器人在深度数据不完整的情况下,仍能精准推算出物体的6D位姿。经过持续的算法迭代与现场调试,团队最终实现了全流程分拣精度超过99%的突破,成功将机器人的视觉感知从“看得见”提升至“看得懂”的水平。
就这样,随着人形机器人走进更多工业场景,我们针对实际作业中的“小意外”,不断优化模型、调整策略。每一个技术突破,都不是一蹴而就的;每一个落地场景,都凝结着团队日夜攻坚的汗水。新的一年,我们将继续朝着让机器人“看得懂、看得准、能思考、能执行”的目标努力,在智能制造的广阔天地里贡献自己的一份力量。