https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
🤖 Anthropic 与 SpaceX 达成算力合作,提高 Claude Code 与 Claude API 使用限制

Anthropic 称已与 SpaceX 达成算力合作,将使用其 Colossus 1 数据中心全部算力;一个月内可获得超过 300 兆瓦新增容量,包含逾 22 万块 NVIDIA GPU。

即日起,Claude Code 的五小时速率限制面向 Pro、Max、Team 和席位制 Enterprise 套餐翻倍;Pro 和 Max 账号取消高峰时段限制下调。Claude Opus 模型的 API 速率限制也将提高。

Anthropic

🌸 在花频道 · 茶馆讨论 · 投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
美国白宫准备下令加强人工智能安全

美国白宫正在研究一项行政命令,该命令将为像 Anthropic PBC 公司的Mythos这样的人工智能新模型创建一个审查系统,以保护商业和政府网络免受与人工智能相关的网络风险,一位高级经济顾问周三表示。“ 我们正在研究,或许可以颁布一项行政命令,为所有人提供一份清晰的路线图,说明这项工作将如何进行,以及未来可能发现漏洞的人工智能应该如何经过一个流程,以便在证明其安全性后才能像FDA批准的药物一样投入使用,” 国家经济委员会主任凯文·哈塞特告诉福克斯商业。哈塞特表示,命令中明确规定的任何测试最终 “非常有可能” 会扩展到所有人工智能公司。

—— 彭博社

via 风向旗参考快讯 - Telegram Channel
Investigating service degradation — Cloud Agents, CLI, and IDE

May 6, 15:33 UTC
Investigating - We are investigating a service degradation affecting Cloud Agents, CLI, and IDE. Affected agent surfaces: Anthropic models.

via Cursor Status - Incident History
Elevated errors across multiple models

May 6, 15:29 UTC
Investigating - We are currently investigating this issue.

via Claude Status - Incident History
NVIDIA 与 OpenAI 等联合发布 MRC 协议,提升 AI 超算集群效率

NVIDIA、OpenAI 及微软等联合发布并开源了多路径可靠连接(MRC)协议。该 RDMA 协议采用数据包喷射技术,支持流量在多路径间并发传输,并具备微秒级故障重路由能力。它能有效减少网络拥塞导致的 GPU 闲置,提升千兆级 AI 训练集群的吞吐量与稳定性。

该协议已在 NVIDIA Spectrum-X 平台及 Blackwell 架构中应用,目前正支撑微软 Fairwater 和甲骨文 OCI Abilene 等集群运行,并用于 GPT-5.5 等模型训练。作为 OCP 开放规范,MRC 旨在通过标准化减少行业碎片化,加速 Stargate 等未来 AI 基础设施建设。

NVIDIA Blog | The Deep View

🌸 在花频道 · 茶馆讨论 · 投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
Google Chrome 被发现在合格设备上静默下载 Gemini Nano

2026-05-06 21:00 by 乌鸦从高塔坠落

Google Chrome 被发现在合格设备上静默下载了 4GB 大小的 Gemini Nano 模型,而且会在用户删除之后重新下载。Gemini Nano 就是 Google 受争议的 Prompt API 所针对的本地模型,运行该模型需要至少有 4GB 显存、16GB 内存和至少 22GB 可用空间(浏览器安装包所在分区)。Google Chrome 有 36 亿用户,是市场份额最高的浏览器,满足运行 Gemini Nano 要求的设备至少数以亿计,即使不考虑重复下载,为如此多的设备静默下载 4GB 数据也是难以想象的资源浪费。此外值得一提是 Chrome 安装包大小是 1GB 左右,悄悄下载的模型大小四倍于浏览器本身,超出了大多数用户对额外功能大小的预期。Gemini Nano 下载在被称为 OptGuideOnDeviceModel 的文件夹内,该名字代表 OptimizationGuide on-device model storage。

https://www.thatprivacyguy.com/blog/chrome-silent-nano-install/
https://news.ycombinator.com/item?id=48019219
https://www.solidot.org/story?sid=84199

#人工智能

via Solidot - Telegram Channel
Chrome的AI功能会额外占用电脑4GB存储

由于一个大型设备端人工智能模型文件,谷歌 Chrome 可能正在占用比预期更多的存储空间,在某些情况下,该文件会被自动下载到浏览器的系统文件夹中。注意到桌面设备可用存储空间出现不明原因减少的用户们现在发现,当某些AI功能启用时,Chrome会在其浏览器目录内安装一个4GB的weights.bin文件。这个有问题的weights.bin文件与谷歌的Gemini Nano AI模型相关,该模型驱动着Chrome的AI工具,如诈骗检测、写作辅助、自动填充和建议功能。由于 Gemini Nano 模型被设计为在本地运行,它需要使用存储在你设备上的训练参数,而不是从基于云服务的人工智能模型中拉取信息。

—— Theverge

via 风向旗参考快讯 - Telegram Channel
商汤科技押注成本效率作为AI竞争优势

中国人工智能公司商汤科技正押注成本效率作为竞争优势。据联合创始人兼首席科学家林达华称,该公司借鉴了深度求索在财务和技术限制下交付高性能模型的方法。林达华表示,虽然 ChatGPT Images 2.0(OpenAI 的一款根据文本提示生成图像的人工智能工具)产生“精致而美丽”的结果,但SenseNova U1的成本要低十倍。“在很多情况下,当一个模型能够处理大多数任务时,你可能并不需要顶级模型,”林达华称。“我们与OpenAI公司的GPT Image 2 和(Gemini 的)Nano Banana等国际前沿模型之间仍有差距,但我们的成本要低得多 —— 效率非常高。”

—— CNBC

via 风向旗参考快讯 - Telegram Channel
Anthropic 2千亿豪赌,谷歌云成最大赢家?

AI初创公司Anthropic已承诺在未来五年内向谷歌云支付约两千亿美元,用于获取5吉瓦的TPU算力和云服务。交易的结构分两层。第一层是Anthropic向谷歌云购买5吉瓦的下一代TPU算力。这些芯片由谷歌与博通联合开发,与英伟达GPU形成直接竞争。第二层是Alphabet的投资:谷歌计划向Anthropic追加投资至少100亿美元,如果Anthropic达到特定业绩目标,总额可升至400亿美元。对谷歌来说,这笔订单也至关重要。这笔交易从2027年开始兑现,占谷歌上周向投资者披露的谷歌云待确认收入订单规模的40%以上。

—— 雷锋网

via 风向旗参考快讯 - Telegram Channel
Google Chrome 被指在未经许可下静默下载 4 GB AI 模型

安全研究员 Alexander Hanff 称,Google Chrome 在未征得用户同意的情况下,向符合硬件条件的设备后台静默下载约 4 GB 的 Gemini Nano AI 模型文件(weights.bin)。即便手动删除该文件,浏览器也会自动重下。该行为被指违反欧盟 GDPR 等法律,剥夺了用户设备控制权。

此次静默部署引发了对环境及带宽成本的担忧。研究员估算,若覆盖 10 亿用户,仅模型分发产生的碳排放就可能达 6 万吨。此外,4 GB 的数据传输也会增加限额上网用户的经济负担。此前 Anthropic 的 Claude 应用也被指存在类似行为,反映出科技巨头强推 AI 部署的趋势。

Tom's Hardware

🌸 在花频道 · 茶馆讨论 · 投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
🔁 #Update #ChatGPT

Forwarded From Agent Copilot

#Update #ChatGPT

ChatGPT for Excel/Google Sheets 插件现已发布,所有用户可用:https://chatgpt.com/apps/spreadsheets/

via AI Copilot - Telegram Channel
AMD:代理式 AI 时代,CPU 或将超越 GPU 的崛起

在 2026 年第一季度财报发布后,AMD 首席执行官苏姿丰在电话会议中透露,随着代理式人工智能(Agentic AI)时代的来临,数据中心对 CPU 的需求正在迅速攀升。苏姿丰指出,单个计算节点中 CPU 与 GPU 的数量正在从传统的一对多逐渐接近一对一,未来甚至可能出现 CPU 数量超过 GPU 的情况。

她解释说,以往的 AI 训练和推理通常采用 “一颗 CPU 配四到八颗 GPU” 的配置,CPU 主要负责调度和启动 GPU 的计算任务。然而,在代理式 AI 模式下,大量具有自治能力的智能体依赖 CPU 进行状态更新和任务协调,这一变化正深刻影响着计算节点的形态。随着智能体数量的迅猛增长,CPU 与 GPU 的比例正在向 1:1 靠拢。

苏姿丰进一步提出,假如未来集群中运行大量智能体,完全有可能实现单节点 CPU 数量超出 GPU 的配置。这意味着,过去由 GPU 主导的计算扩张趋势正被由 “智能体工作负载” 推动的 CPU 需求潮流所取代。所谓的代理式 AI,是在大语言模型的基础上运行多个自主的智能体,以自动完成复杂任务。例如,在软件开发领域,智能体可以自行审阅代码、实施修改、编译完成后等待反馈,并在发现 Bug 时继续修复,这一过程几乎不需要人工干预。

为了有效协调并调度这些并行运行的智能体,系统必须依赖 CPU 提供持续的控制和管理功能。在这种新型工作负载下,CPU 不再仅仅是 “启动 GPU 训练或推理” 的角色,而是成为整个代理式 AI 系统的核心动力。尽管目前 GPU 加速计算仍在快速扩张,但 CPU 的利用率也在不断提升。

AMD 表示,当前几乎所有能提供的 CPU 都已销售给 AI 实验室和超大规模云服务商,以满足来自智能体任务的激增需求。这一趋势意味着,在未来的 AI 基础设施设计中,CPU 与 GPU 的关系将可能从 “主从” 变为更加对等,甚至 CPU 的使用密度会更高。

划重点:

🖥️ CPU 与 GPU 的比例正在逐渐接近 1:1,未来可能出现 CPU 数量超过 GPU 的情况。

🤖 代理式 AI 时代,智能体依赖 CPU 进行状态更新和任务协调,改变计算节点的形态。

📈 AMD 当前几乎所有 CPU 都售予 AI 实验室和云服务商,以应对激增的智能体任务需求。



via AI新闻资讯 (author: AI Base)
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
admin@oaibest.com