Red Hat 推出的 AI 推理服务器基于 vLLM 与 Neural Magic 技术,通过压缩模型和优化 GPU 内存管理,实现生成式 AI 快速推理和混合云部署。
科技公司 Stability AI 同芯片厂 Arm 合作推出“Stable Audio Open Small”,这是一款基于无版权音库训练、可在智能手机上迅速生成短音频样本的立体声音频 AI 模型,虽仅支持英文提示并存在部分局限,但对研究者和小型企业免费开放。
Epoch AI 分析指出,以推理为核心的 AI 模型(如 OpenAI 的 o3)近年来虽取得显著进步,但因强化学习阶段所需的庞大运算和高昂研究成本,未来性能提升可能放缓,预计到2026年将趋向封顶。
Google I/O 2025 将展示 Google 全线产品更新,重点包括升级的 Gemini Ultra AI 模型、全新 Gemini 订阅计划以及 Android 16 的革新体验,全面提升系统响应与用户交互。
Mistral AI 近日发布全新 Medium 3 模型及企业智能助手 Le Chat Enterprise,新模型性能超越主流竞品且成本更低,助力企业实现智能系统定制升级。
本文介绍了Google DeepMind推出的升级版Gemini 2.5 Pro I/O版,其在代码生成方面表现卓越,刷新了相关基准测试成绩,并获得开发者一致好评,加速真实编程场景落地应用。
Waymo公布现拥有逾1500台商用机器人出租车,并与 Magna 合作将在亚利桑那工厂生产超过2000台自动驾驶 Jaguar I-Pace,借助全新自动化装配线迅速实现车辆量产和上路运营。
文章探讨企业选择大型语言模型时应结合业务目标、数据质量、集成及安全性,通过详尽调研和试点验证实现渐进部署,避免资源浪费与安全风险。
微软第三财季云服务表现超预期,推动数据中心、Intelligent Cloud及 Azure 业务显著增长,同时优化系统效率、降低成本。
2025年1月,DeepSeek 从中国闪亮登场,挑战 OpenAI 及美国巨头。其通过优化 KV 缓存、采用 MoE 策略及强化学习,提升硬件与能源效率,为大语言模型领域开辟新路径。
阿里巴巴全新发布的 Qwen 3 系列模型支持 119 种语言,采用混合思考模式,可根据任务需求灵活调整“思考预算”。该系列模型规模从 0.6 亿到 2350 亿参数不等,在编程、数学推理等多项测试中部分超越 OpenAI 与 Google 同类产品,且大部分模型将通过 Hugging Face 和 GitHub 开放下载。
英伟达发布 NeMo 微服务,帮助企业构建自主学习、持续优化的 AI 代理,实现数据驱动的业务升级。
这次更新为Microsoft 365 Copilot加入了AI搜索、推理机器人、Agent Store、新的图像生成及文件管理功能,全方位提升企业办公体验。
Regent Surgical Health 的CIO Rusty Strange在快速扩张中,从零建立IT部门,通过评估现有系统、标准化设备、搭建云平台及制定网络安全策略,有效整合各ASC分散系统,确保运营稳定与患者安全。
根据 Akamai 报告,2023 至 2024 年间,API 攻击次数超 1500 亿,网络攻击总量激增至 3110 亿次。报告指出,AI 助力的 API 虽提升了威胁检测能力,却也因普遍缺乏充分认证等安全防护,拓宽了攻击面,同时催生了更多自动化、智能化的攻击手段。企业需采纳包含 shift-left、DevSecOps、持续监控及零信任等多层防护措施,以应对日益严峻的安全挑战。
Experian信用局采用了一种审慎的AI应用方法,开发了内部流程、框架和治理模型,帮助其测试和大规模部署生成式AI。这种方法融合了先进的机器学习、代理式AI架构和基层创新,改善了业务运营,并为约2600万美国人扩大了金融服务的可及性。Experian的AI之旅展示了传统数据公司如何转型为AI驱动的平台企业,为负责任的AI治理提供了蓝图。
研究人员提出了一种名为长度控制策略优化(LCPO)的训练技术,可以让开发者更好地控制大语言模型的思维链长度。这种方法通过在训练过程中引入长度约束,使模型能够在保持准确性的同时生成更简洁的推理过程。实验表明,采用LCPO训练的模型在准确性和成本之间提供了平滑的权衡,并且在相同推理长度下可以超越更大的模型。这项技术有望大幅降低企业应用中推理的成本。
Zoom Communications的研究团队开发了一种突破性技术,能够显著降低人工智能系统在处理复杂推理问题时所需的成本和计算资源,可能会改变企业大规模部署AI的方式。该方法称为草稿链(Chain of Draft,CoD),使大型语言模型能够用最少的文字解决问题——所需文本仅为当前方法的7.6%,同时保持或甚至提高准确性。研究结果上周在arXiv研究库中发表。
{一项来自上海交通大学的研究表明,大型语言模型(LLMs)可以在不依赖大数据集的情况下学习复杂的推理任务。研究结果显示,仅需少量精心挑选的示例,就能训练LLM完成原本认为需要数万个训练实例的任务。这种高效性源于现代LLM在预训练阶段获得的内在知识。随着新的训练方法变得更加数据和计算高效,企业可能能够在不需要大型AI实验室资源的情况下创建定制模型。}
本文探讨了链式思维提示技术在生成式AI和大语言模型中的应用。作者指出,新一代AI模型已内置链式思维功能,无需额外要求。但显式使用该技术可能导致重复、延迟或错误。文章就如何正确使用链式思维提示给出了建议,以充分发挥AI的推理能力。