AI周报:人形机器人出货破五千,预制菜国标将征意见,多模态与AI医疗新突破

其他

1, 宇树科技:2025全年人形机器人实际出货量超5500台

宇树科技近期澄清了2025年人形机器人销量数据,确认全年实际出货量超5500台,本体量产下线超6500台——全部为纯人形机器人,不含轮式或双臂等其他形态产品。这一数字在当前全球人形机器人仍处产业化早期的阶段尤为可贵:它意味着技术正从实验室走向真实场景,从单台验证迈向小批量交付。值得注意的是,宇树强调‘不同形态机器人不可简单合并统计’,这背后是对行业健康发展的清醒认知——当市场尚在厘清‘什么是真正的人形机器人’时,扎实的本体交付能力,比宽泛的‘机器人总数’更具参考价值。它反映的不是概念热度,而是供应链整合、运动控制、安全冗余等底层能力的实质性落地。

2, 小米YU7获SUV质量排名第一;邓承浩称向雷军学直播;预制菜将有国家标准|晚集

小米YU7在车质网2025年四季度SUV质量排行中登顶,这一成绩并非孤立事件,而是智能汽车从‘参数竞争’转向‘可靠性兑现’的缩影。同期,深蓝汽车董事长邓承浩公开表示欣赏雷军的直播风格,认为其‘场景感强、感染力足’,折射出行业对‘技术表达力’的重视升级——产品力需匹配沟通力。更值得关注的是,预制菜国标草案启动征求意见,标志着行业正从野蛮生长迈向规范发展:食品安全标准、术语分类、加工明示等细则,意在建立消费者信任的基础设施。三者共同指向一个趋势:中国消费科技产业的成熟,正体现在对‘交付质量’‘用户沟通’和‘行业底线’的同步夯实上。

3, 国务院食安办等部门将对预制菜国家标准等公开征求意见

预制菜国标草案启动征求意见,是行业从规模扩张转向质量立身的关键一步。它不是否定创新,而是为创新划定安全边界——《食品安全国家标准 预制菜》与《预制菜术语和分类》两项草案,直指当前痛点:定义模糊导致良莠不齐,加工信息不透明削弱消费者信任。标准的意义在于建立共识:什么算预制菜?哪些环节必须明示?如何确保微生物与添加剂合规?当‘热炒即食’与‘复热即食’有了清晰分野,当冷链运输、标签标注有了统一要求,企业才能真正比拼口味、营养与供应链效率,而非在模糊地带打擦边球。这不仅是监管动作,更是对产业长期价值的守护。

4, 卢宗青团队新作:人类先验打底,统一动作对齐,通用机器人模型正在落地

卢宗青团队提出的Being-H0.5模型,没有追求单一硬件上的极限性能,而是选择了一条更难却更接近本质的路径:以人类手部动作为先验,构建跨形态统一的动作空间。实验显示,其通用型模型在长程任务与双臂协同等高难度场景中,表现逼近专用模型,甚至在清桌等依赖通用子技能的任务中反超——这说明‘泛化’不是妥协,而是对真实世界复杂性的尊重。其核心洞见在于:机器人智能的瓶颈,不在算法多炫酷,而在能否把‘理解’稳定转化为‘行动’,并在换环境、换物体、换任务时依然可靠。当行业还在比拼单点demo成功率时,这项工作已悄然将竞争焦点,引向‘可部署的稳定性’这一更硬核的工程闭环。

5, Nature 正刊收录!清华 FIB 实验室揭示:AI 提升科学家个人影响力,却收缩科学整体探索空间

清华FIB实验室发表于Nature的研究揭示了一个深刻悖论:AI显著提升了个体科学家的论文产出与引用量(使用AI者发文量是未使用者的3.02倍),但整个科学界的知识广度却收缩了4.63%,研究互动减少22%。这不是技术缺陷,而是效率机制的自然结果——当AI在数据充沛、路径明确的领域带来更高回报时,科研资源会自发向这些‘舒适区’集中,挤压对基础性、非共识问题的探索。研究的价值,正在于戳破‘效率即进步’的幻觉:真正的科学突破,常诞生于数据贫瘠的荒原。它提醒我们,评价AI for Science的价值,不能只看个体KPI,更要审视它是否拓宽了人类认知的边疆。

6, 人大高瓴赵鑫团队新作:先拆掉 RLVR,再重建推理模型训练

人大高瓴赵鑫团队的A3PO方法,没有陷入‘堆大模型’的惯性,而是回归强化学习训练的本质:正样本的作用是‘收缩策略空间’,让模型在已有正确路径上更笃定;负样本的作用是‘扩张策略空间’,迫使模型跳出旧模式持续探索。真正决定训练质量的,不是整条样本,而是那些冷门却正确的token(需重点奖励)和自信却错误的token(需重点惩罚)。A3PO正是围绕这两类关键决策点设计的非对称加权机制。这项研究的价值,在于将模糊的RLHF训练,转化为可解释、可调控的精细工程——它表明,推理能力的跃迁,正从依赖算力规模,转向对训练机制本身的深度理解。

7, 上科大何旭明团队新作:克服简单样本偏置,让多模态模型学会「难题优先」

上科大何旭明团队提出的DA-DPO框架,直击多模态幻觉的根源:不是数据不够多,而是训练过程被大量简单样本主导,导致模型对复杂、歧义性强的真实场景准备不足。DA-DPO不依赖人工标注或额外模型,仅通过预训练视觉语言模型动态评估样本难度,并自适应提升困难样本权重。实验证明,它在显著降低幻觉率的同时,反而保持甚至提升了模型的综合理解能力。这揭示了一个关键认知转变:提升AI可靠性,未必靠‘更多数据’,而在于‘更准的难度结构’——让模型的学习重心,从易答的套路,转向难解的真实。

8, AI 医疗还在比进度,百川已在比高度

百川智能的Baichuan-M3医疗大模型,跳出了‘问答像不像医生’的浅层竞赛,将目标锚定在‘能否参与真实医疗决策’这一核心。它不满足于生成合理回答,而是被训练为能主动收集关键信息、构建完整推理路径、并在过程中持续抑制幻觉。在HealthBench、幻觉控制与SCAN严肃问诊三项评测中均达SOTA,尤其在临床问诊环节得分(74.9分)远超人类基线(53.5分)。这标志着AI医疗的分水岭正在形成:从追求连接医生数量的‘广度’,转向锤炼诊断能力的‘深度’;从提供情绪价值的‘轻助手’,转向承担决策责任的‘科学工具’。

本文由互联网行业信息家-AI助手发布,信息来源于2026/1/23热搜,如侵权请联系983171730@qq.com,请附带证明材料将第一时间删除!

互联网大厂就看--->互联网行业信息家