AI前沿速览:Qwen3.5发布、MemoryLake问世、Cursor提效、阶跃星辰登顶……

阿里巴巴

1, 阿里巴巴新一代Qwen3.5模型发布在即

近期,Qwen3.5在Hugging Face开源社区悄然现身,其代码合并请求(PR)已提交至Transformers主干,引发开发者广泛关注。不同于简单参数升级,Qwen3.5在架构层面有实质性突破:采用新型混合注意力机制,并原生支持视觉理解能力,初步验证其为真正端到端的多模态基础模型(VLM)。更值得关注的是,阿里计划开源至少两个关键版本——20亿参数的密集模型与350亿参数、激活30亿的MoE稀疏模型,兼顾轻量部署与高阶推理需求。此前Qwen3已在2025年4月登顶全球开源模型榜单,首次实现‘快思考’(快速响应)与‘慢思考’(深度推理)在同一模型内协同运行,显著降低单位任务算力成本。Qwen3.5并非单纯迭代,而是向更通用、更高效、更易用的AI基座演进的关键一步——它让复杂任务不再依赖堆砌硬件,而始于更聪明的结构设计。

快手

1, 被罚1.191亿元,快手致歉:坚决整改,教训极其惨痛

一次1.191亿元的处罚,背后不是简单的数字,而是平台内容治理失守的真实代价。快手公开致歉中没有回避技术响应滞后、风险识别缺位、处置流程断点等关键问题——这些恰恰是算法驱动时代许多内容平台共有的隐性短板。真正值得关注的,不是罚款本身,而是它倒逼出的系统性反思:当流量逻辑压过安全底线,再庞大的用户基数也难以掩盖治理能力的脆弱。快手提出补强安全基建、重构应急机制、压实内部责任,其价值不在表态,而在能否把‘人工审核+模型迭代+规则前置’真正嵌入产品生命周期。公众期待的,从来不是一个不出错的平台,而是一个犯错后能清晰归因、敢于刀刃向内、并让改进可感知的平台。这次教训的分量,最终要由后续三个月的生态变化来称量。

滴滴

1, 新春用滴滴天天6折起 多重奖励致谢司机师傅保障春运出行

春运是中国人最朴素也最坚韧的奔赴——从车间到老家,从校园到车站,一趟车程承载的不只是距离,更是一整年的牵挂与回响。今年滴滴推出‘天天6折起’打车优惠,在超100城发放阶梯式折扣券,覆盖返乡、返工、探亲、短途出游等真实出行场景;同步加码司机激励:免佣卡、流水加速卡、完单奖叠加发放,部分城市司机日增收可达140元以上。值得关注的是,平台首次在242城为出租车司机定制‘接驾无忧’‘爽约保障’等专项权益,并为带宠物出行用户上线友好地图与专属券,让‘毛孩子’也能体面出门。技术层面,‘车费卫士’‘行程卫士’实时守护异常体验,机场火车站实景引导+滴滴车站建设,则把不确定性降到最低。这不是一场单向补贴,而是一次供需双方共同参与的服务进化:乘客省心,司机安心,城市流动更有温度。

其他

1, 英伟达拥抱AI编程:3万工程师用Cursor实现代码产量翻三倍

英伟达将AI深度融入研发流程,3万名工程师规模化采用定制版Cursor工具,代码产出效率提升至原先的三倍。这一转变并非简单叠加工具,而是构建了严苛的‘人机协同’闭环:所有AI生成代码必须通过完整测试、人工复核与多层验证,确保在GPU驱动等零容错场景中依然可靠。DLSS 4开发与芯片面积缩小25%等成果印证,AI在此不是替代者,而是放大工程师判断力与经验沉淀的‘认知协作者’——它加速的是已知路径的执行,而非代替未知问题的决策。

2, 首个多模态记忆湖MemoryLake发布:AI基础设施迈入记忆驱动时代

质变科技发布的MemoryLake标志着AI正从‘处理数据’迈向‘管理记忆’的新阶段。它不追求更大参数,而是让系统像人一样组织知识:理解文档间的逻辑关联、动态更新认知、按需提取带证据链的结论。在企业决策、游戏NPC交互、制造风控等场景中,它将数周分析压缩至小时级,把AI从‘回答问题’推向‘记住上下文、持续演进、主动推理’。这背后是对真实业务复杂性的尊重——真正的智能不在于单次输出多惊艳,而在于每一次响应都建立在过往所有经验之上。

3, 中美AI应用的分岔路,出现在这个春节

千问30亿免单不是一场营销,而是一次对AI落地能力的极限压力测试:它要求模型精准解析‘点一杯奶茶’背后的地址、偏好、支付规则,并与淘宝、饿了么、支付宝等数十个异构系统稳定协同履约。当千万用户涌入时,任何Token延迟或接口报错都会被真实反馈。这揭示了一条务实路径——中国AI的突破不在实验室指标,而在能否嵌入买菜、订票、修车等毛细血管般的日常交易。它不比谁更‘聪明’,而比谁更‘靠谱’:能理解意图、调用资源、完成闭环、承受并发。这种扎根真实世界的工程韧性,恰是Agent时代最稀缺的护城河。

4, 上线两天登顶全球榜单,阶跃星辰怎么让 AI 又「聪明」又「快」?

阶跃星辰Step 3.5 Flash的突破,在于打破了‘大模型必慢’的惯性思维。它用1960亿参数的‘专家团’底座,仅激活约110亿参数应对具体任务,如同调度最合适的顾问而非唤醒全部大脑。配合滑动窗口注意力与多Token预测技术,它让复杂推理不再是卡顿的等待,而是流畅的对话。这并非牺牲深度换速度,而是用架构创新让‘思考’更聚焦、更高效。当AI能即时处理财报分析或长链编程时,它才真正从演示工具变成可嵌入工作流的生产力伙伴——快,是为了让智能不被延迟扼杀在落地前。

5, 清华刘知远团队论文:最小化结构改动,短文本到长文本丝滑升级 | ICLR 2026

清华团队InfLLM-V2的价值,是为长上下文难题提供了一种‘温和进化’方案。它不推翻现有模型结构,而是在dense attention基础上增加可切换的稀疏模式,让已训练好的8B模型无需重训即可支持32k长度。实验证明,它在RULER、LongBench等真实任务上性能媲美全注意力,且切换回短序列时能力不退化。这指向一个关键共识:工业级AI升级不应是颠覆式重建,而应是兼容式热升级——保护已有投入,降低迁移成本,让长文本能力成为可插拔的模块,而非一场豪赌。

本文由互联网行业信息家-AI助手发布,信息来源于2026/2/9热搜,如侵权请联系983171730@qq.com,请附带证明材料将第一时间删除!

互联网大厂就看--->互联网行业信息家