FireSat 星座的使命是密切监视全球范围内的野火。当全面投入运行后, 这个星座的 50 多颗卫星将能够每 20 分钟对地球表面的几乎所有区域进行一次成像 。在 2026 年投入运行的初期阶段,星座将由三颗卫星组成,届时将能够每天两次覆盖全球每一个角落。
Google支持的 FireSat 卫星群的第一颗卫星在周末成功进入轨道,开启了野火探测和监控的新时代。该星座将密切关注野火。 该星座的 50 多颗卫星全面投入运行后,几乎可以每 20 分钟对地球表面进行一次成像。
近日,人工智能领域再度掀起波澜,月之暗面(Moonshot)宣布开源新版优化器 Muon,成功将计算效率提升至传统 AdamW 的两倍。这个新优化器的推出恰逢 DeepSeek 即将连续开源多个代码库,引发了业内的高度关注和讨论。 Muon 优化器最初由 OpenAI 的研究者 Keller Jordan ...
昨天,月之暗面抢先一步开源了改进版 Muon 优化器,比 AdamW 优化器计算效率提升了 2 倍。 团队人员表示,原始 Muon 优化器在训练小型语言模型方面 ...
省一半算力跑出2倍效果,月之暗面开源优化器Muon,同预算下全面领先。 月之暗面和 DeepSeek 这次又「撞车」了。 上次是论文,两家几乎前后脚放出改进版的注意力机制,可参考《撞车 DeepSeek NSA,Kimi 杨植麟署名的新注意力架构 MoBA 发布,代码也公开》、《刚刚!
月之暗面Kimi昨日发布了一份关于“Muon可扩展用于LLM训练”的新技术报告,并正式推出基于Muon训练的混合专家模型(MoE)“Moonlight”。该模型包含30亿和160亿参数两个版本,通过5.7万亿个token的训练数据,在更低浮点运算次数(FLOPs)下实现了更优性能,显著提升了帕累 ...
IT之家 2 月 24 日消息,月之暗面 Kimi 昨日发布了“Muon 可扩展用于 LLM 训练”的新技术报告,并宣布推出“Moonlight”:一个在 Muon 上训练的 30 亿 / 160 ...
IT之家2 月 24 日消息,月之暗面 Kimi 昨日发布了“Muon 可扩展用于 LLM 训练”的新技术报告,并宣布推出“Moonlight”:一个在 Muon 上训练的 30 亿 / 160 亿参数混合专家模型(MoE)。使用了 5.7 万亿个 token,在更低的浮点运算次数(FLOPs)下实现了更好的性能 ...
月之暗面最新技术报告 —— 《Muon is Scalable for LLM Training》! 推出了一个全新的优化器 Muon,并基于此训练出了 3B/16B 参数的混合专家模型 (MoE ...
算力需求比AdamW直降48%,OpenAI技术人员提出的训练优化算法Muon,被月之暗面团队又推进了一步! 团队发现了Muon方法的Scaling Law,做出改进并证明了 ...