阿里巴巴
1, 阿里巴巴Qwen3.5即将开源:混合注意力+原生视觉理解,开启高效多模态新路径
近期,Qwen3.5在Hugging Face提交至Transformers库的PR引发开发者广泛关注——这通常意味着模型已进入发布前最后验证阶段。不同于单纯参数堆砌,Qwen3.5的核心突破在于混合注意力机制与原生视觉理解能力的深度耦合:它不再依赖后置图像编码器拼接,而是从底层支持跨模态token协同建模,让文本与图像理解真正同频。更值得关注的是其架构设计逻辑——计划开源的2B密集版与35B-A3B MoE版本,分别面向轻量部署与高精度场景,体现对真实应用梯度的务实回应。此前Qwen3已以‘混合推理’理念打破‘快/慢思考’二分法,而Qwen3.5在此基础上进一步压缩多模态任务的算力冗余。这种不追求单一指标登顶、而聚焦任务效率与部署友好性的演进路径,正代表中国AI开源力量从‘能做’走向‘好用’的关键跃迁。
快手
1, 被罚1.191亿元,快手致歉:坚决整改,教训极其惨痛
一次1.191亿元的处罚,背后不是简单的数字,而是平台对内容安全底线的一次失守。快手在致歉声明中没有回避技术响应滞后、风险识别缺位、处置机制迟缓等具体问题——这些恰恰是当前内容平台普遍面临的治理难点。真正值得思考的是:算法推荐与人工审核如何协同?流量逻辑与责任逻辑怎样平衡?当用户日均使用时长持续增长,平台的安全基建是否同步升级?快手此次全面排查安全基建与应急响应体系,本质上是在重新校准‘规模’与‘可控性’的关系。整改不是被动止损,而是主动重建信任的过程。公众期待的,从来不是一个永不犯错的平台,而是一个出错后能快速归因、系统纠偏、透明回应的运营者。这起事件提醒所有内容生态参与者:技术越强大,托底的责任就越厚重。
滴滴
1, 新春用滴滴天天6折起 多重奖励致谢司机师傅保障春运出行
春运不只是归途,更是人与人之间流动的温度。今年滴滴以‘天天6折起’为起点,不是简单让利,而是把实惠拆解成可感知的日常:杭州、长沙等城市每日限量5折券,承德、西宁等地用户邀好友助力就能稳稳拿下6折——优惠不靠抢,而靠参与感;宠物友好地图覆盖北上广深等六城,满20减10的宠物快车券,让带‘毛孩子’出门不再是负担,而是被认真托住的小确幸。对司机师傅,滴滴发放11亿元补贴,但更关键的是‘免佣卡+流水加速卡+完单奖’组合拳,让多劳者真正多得;14万份新春礼盒送到福州家宴、苏州福利站,不是仪式感,是把尊重具象成一餐热饭、一份手写贺卡。‘车费卫士’‘行程卫士’背后,是算法对异常体验的主动识别与补偿;机场实景引导、滴滴车站建设,则把陌生城市的上车点变成可预期的安心坐标。技术与心意从不二分——它藏在一张券的诚意里,也落在司机师傅握方向盘时多出的那几分踏实中。
其他
1, 英伟达拥抱AI编程:3万工程师用Cursor实现代码产量翻三倍
英伟达将AI深度融入研发流程,3万名工程师规模化采用定制版Cursor工具,代码产出效率提升至原先的三倍。这一转变并非简单叠加工具,而是构建了严苛的‘人机协同’闭环:所有AI生成代码必须通过完整测试、人工复核与多层验证,确保在GPU驱动等零容错场景中依然可靠。DLSS 4开发与芯片面积缩小25%等成果印证,AI在此不是替代者,而是放大工程师判断力与经验沉淀的‘认知协作者’——它加速的是已知路径的执行,而非代替未知问题的决策。
2, 首个多模态记忆湖MemoryLake发布:AI基础设施迈入记忆驱动时代
质变科技发布的MemoryLake标志着AI正从‘处理数据’迈向‘管理记忆’的新阶段。它不追求更大参数,而是让系统像人一样组织知识:理解文档间的逻辑关联、动态更新认知、按需提取带证据链的结论。在企业决策、游戏NPC交互、制造风控等场景中,它将数周分析压缩至小时级,把AI从‘回答问题’推向‘记住上下文、持续演进、主动推理’。这背后是对真实业务复杂性的尊重——真正的智能不在于单次输出多惊艳,而在于每一次响应都建立在过往所有经验之上。
3, 中美AI应用的分岔路,出现在这个春节
千问30亿免单不是一场营销,而是一次对AI落地能力的极限压力测试:它要求模型精准解析‘点一杯奶茶’背后的地址、偏好、支付规则,并与淘宝、饿了么、支付宝等数十个异构系统稳定协同履约。当千万用户涌入时,任何Token延迟或接口报错都会被真实反馈。这揭示了一条务实路径——中国AI的突破不在实验室指标,而在能否嵌入买菜、订票、修车等毛细血管般的日常交易。它不比谁更‘聪明’,而比谁更‘靠谱’:能理解意图、调用资源、完成闭环、承受并发。这种扎根真实世界的工程韧性,恰是Agent时代最稀缺的护城河。
4, 上线两天登顶全球榜单,阶跃星辰怎么让 AI 又「聪明」又「快」?
阶跃星辰Step 3.5 Flash的突破,在于打破了‘大模型必慢’的惯性思维。它用1960亿参数的‘专家团’底座,仅激活约110亿参数应对具体任务,如同调度最合适的顾问而非唤醒全部大脑。配合滑动窗口注意力与多Token预测技术,它让复杂推理不再是卡顿的等待,而是流畅的对话。这并非牺牲深度换速度,而是用架构创新让‘思考’更聚焦、更高效。当AI能即时处理财报分析或长链编程时,它才真正从演示工具变成可嵌入工作流的生产力伙伴——快,是为了让智能不被延迟扼杀在落地前。
5, 清华刘知远团队论文:最小化结构改动,短文本到长文本丝滑升级 | ICLR 2026
清华团队InfLLM-V2的价值,是为长上下文难题提供了一种‘温和进化’方案。它不推翻现有模型结构,而是在dense attention基础上增加可切换的稀疏模式,让已训练好的8B模型无需重训即可支持32k长度。实验证明,它在RULER、LongBench等真实任务上性能媲美全注意力,且切换回短序列时能力不退化。这指向一个关键共识:工业级AI升级不应是颠覆式重建,而应是兼容式热升级——保护已有投入,降低迁移成本,让长文本能力成为可插拔的模块,而非一场豪赌。
本文由互联网行业信息家-AI助手发布,信息来源于2026/2/10热搜,如侵权请联系983171730@qq.com,请附带证明材料将第一时间删除!
互联网大厂就看--->互联网行业信息家