韩国SK电信发布了A.X 3.1 Lite,这是一个70亿参数的韩语大语言模型,完全从零开始自主开发。该模型在1.65万亿多语言标记上训练,重点关注韩语内容,可在智能手机上运行且无需云端支持。模型在韩语多任务推理基准测试中表现优异,响应时使用的标记数比同类GPT模型少三分之一。已开源并应用于SK电信的A.dot语音助手,支持实时通话摘要等功能。
希捷宣布其28TB和30TB Exos M数据中心硬盘和IronWolf Pro NAS硬盘全球上市,均采用HAMR热辅助磁记录技术。HAMR技术通过激光临时加热实现更高存储密度。希捷将这些新硬盘定位为边缘AI数据存储设备,支持实时边缘分析。30TB版本售价599.99美元,28TB版本售价569.99美元,现已通过官方商店和授权经销商全球发售。
语音AI解决方案提供商Krisp发布了VIVA语音隔离AI模型和软件开发工具包,专为语音AI智能体设计。VIVA每月处理超过10亿分钟的语音音频,能在20毫秒内处理音频,将对话轮转准确性提升3.5倍,减少50%的通话中断。该工具可过滤背景噪音和笑声,避免AI误判,提升转录准确性和用户体验。
StepFun公司推出的Step1X-Edit是首个能够媲美GPT-4o和Gemini2 Flash等商业模型的开源图像编辑AI。该模型通过整合多模态语言理解和扩散图像生成技术,能够处理11种编辑任务,在新构建的GEdit-Bench基准测试中表现优异,为图像编辑技术的民主化开辟了新道路。
谷歌DeepMind和伦敦大学学院研究发现,大语言模型在面对反驳时会迅速失去信心并改变答案,即使反驳是错误的。研究显示LLM既会对自己的答案过度自信,又对批评异常敏感,表现出与人类相似但又独特的认知偏差。这种行为对多轮对话AI系统构成威胁,最新信息可能对LLM推理产生不成比例的影响。
一加正式推出AI功能Plus Mind和Mind Space,将率先在一加13和13R上线。Plus Mind可保存、建议、存储和搜索屏幕内容,并将信息整理到Mind Space应用中。该功能可通过专用按键或手势激活,能自动创建日历条目并提供AI搜索功能。一加还计划推出三阶段AI战略,包括集成大语言模型和个人助手功能,同时将推出AI语音转录、通话助手和照片优化等工具。
美国薪资调查数据显示,大型企业(员工超过1000人或年收入超过5亿美元)的IT专业人员薪资更高,福利更好,离职率更低。大企业高管级IT职位薪资比小企业高13%,三个层级员工平均年薪多5119美元。科技公司员工薪资比其他行业高5.7%,且差距在扩大。AI需求持续旺盛,首席AI官平均薪资达225945美元,仅次于CIO。然而整体IT薪资增长疲软,仅0.88%,低于通胀率。
法国AI初创公司Mistral发布首个音频模型家族Voxtral,旨在为企业提供真正可用的语音智能解决方案。该模型可转录30分钟音频,理解40分钟内容,支持问答、摘要生成和语音命令执行。Voxtral支持英语、西班牙语、法语等8种语言,提供24B参数的Small版本和3B参数的Mini版本。定价从每分钟0.001美元起,声称成本不到同类方案的一半。
Google在其搜索应用的Discover新闻推送中开始推出AI摘要功能,用户将看到多个新闻发布商的标识和AI生成的摘要,而非传统的新闻标题。该功能目前仍在测试阶段,尚未覆盖所有新闻故事。此举引发出版业担忧,因为AI概览等功能已导致网站流量大幅下降。数据显示,全球搜索流量同比下降15%,无点击新闻搜索比例从56%增至69%。尽管Google推出了Offerwall等工具帮助发布商创收,但对许多发布商而言已为时过晚。
北航团队推出Easy Dataset框架,通过直观的图形界面和角色驱动的生成方法,让普通用户能够轻松将各种格式文档转换为高质量的AI训练数据。该工具集成了智能文档解析、混合分块策略和个性化问答生成功能,在金融领域实验中显著提升了AI模型的专业表现,同时保持通用能力。项目已开源并获得超过9000颗GitHub星标。
卢森堡计算机事件响应中心开发的VLAI系统,基于RoBERTa模型,能够通过阅读漏洞描述自动判断危险等级。该系统在60万个真实漏洞数据上训练,准确率达82.8%,已集成到实际安全服务中。研究采用开源方式,为网络安全专家提供快速漏洞风险评估工具,有效解决了官方评分发布前的安全决策难题。
中国电信研究院等机构联合开发的xVerify系统,专门解决复杂AI推理模型的评估难题。该系统能够准确判断包含多步推理过程的AI输出,在准确率和效率方面均超越现有方法,为AI评估领域提供了重要突破。
这项研究首次提出了"任意条件到文字描述"的视频生成新模式,通过多模态大语言模型将用户的各种创意输入转化为结构化描述,再驱动现有视频生成系统。研究团队构建了包含33.7万实例的大规模数据集,并设计了创新的渐进式训练策略,实现了对图像、人体姿态、摄像机轨迹等多种条件的统一理解,显著提升了视频生成的可控性和质量。
南京大学团队提出DDT(解耦扩散变换器)架构,通过"分工合作"方式将AI绘画中的语义理解和细节生成任务分离。该方法在ImageNet数据集上创下1.31 FID的新纪录,训练效率提升4倍,推理速度提升3倍,为AI图像生成领域带来突破性进展。
微软研究院开发出革命性的1位大语言模型BitNet b1.58 2B4T,仅需0.4GB内存就能运行2千亿参数规模的AI模型,相比传统模型内存消耗降低90%以上,能耗降低95%,推理速度提升40%,在保持相当性能的同时让AI技术真正实现普及化。
上海交大团队首次建立AI视觉推理评估标准RISEBench,测试发现即使最先进的GPT-4o-Image在推理驱动的图像编辑任务中准确率仅28.8%。研究涵盖时间、因果、空间、逻辑四大推理维度,揭示当前AI缺乏真正理解物理规律和逻辑关系的能力,为AI发展指明了从模式识别向深层推理转变的重要方向。
阿里巴巴等机构联合研究团队通过分析2021-2024年间148个国家发布的2000多个多语言AI评测基准,发现尽管全球已投入超过1100万美元,但现有评测体系与人类真实判断仍存在巨大鸿沟,特别是在语言理解任务上关联度仅11-30%,远低于数学推理任务的70-85%。
这项由上海交通大学与OPPO人工智能中心合作的研究首次深入探索了多模态大语言模型的视频空间推理能力提升方法。研究发现传统提示词对小型模型无效,转而采用GRPO强化学习训练法,构建了包含10万样本的VSI-100k数据集。最终,仅20亿参数的vsGRPO-2B模型性能提升12.1%并超越GPT-4o,证明了正确训练方法能够显著释放AI模型的空间理解潜力。
KAIST研究团队开发出革命性AI检索系统UniversalRAG,首次实现跨文字、图片、视频的智能信息路由。该系统能根据问题特点自动选择最合适的信息类型和详细程度,在8个基准测试中显著优于传统方法,平均性能提升15-20%,同时将计算开销降低50-75%。
StepFun和清华大学联合提出Open-Reasoner-Zero,这是首个开源的大规模推理导向强化学习训练框架。该方法采用极简的vanilla PPO算法直接在基础模型上训练,无需复杂预处理,仅用十分之一训练时间就在多个数学推理基准上超越了DeepSeek-R1-Zero。研究证明了简单方法在AI推理训练中的强大潜力。