搜索优化
English
搜索
Copilot
图片
视频
地图
资讯
购物
更多
航班
旅游
酒店
笔记本
Top stories
Sports
U.S.
Local
World
Science
Technology
Entertainment
Business
More
Politics
时间不限
过去 1 小时
过去 24 小时
过去 7 天
过去 30 天
按相关度排序
按时间排序
腾讯网
21 小时
记忆层增强的 Transformer 架构:通过可训练键值存储提升 LLM 性能的 ...
点击上方“Deephub Imba”,关注公众号,好文章不错过 ...
3 天
MiniMax震撼开源,突破传统Transformer架构,4560亿参数,支持400万长上下文
基于以上一系列创新,MiniMax 最终得到了一个拥有 32 个专家 共 4560 亿参数 的 LLM,每个 token 都会激活其中 459 亿个参数。MiniMax 将其命名为 MiniMax-Text-01。在执行推理时,它的上下文长度最高可达 ...
腾讯网
7 天
Transformer作者初创重磅发布Transformer²!AI模型活了,动态调整自己权重
文章转载于新智元从章鱼通过改变皮肤颜色来融入周围环境,到人类大脑在受伤后重新连接神经网络,无不体现着那句经典的名言——「物竞天择,适者生存」。然而,对于LLM来说,想要加入哪怕只是一句话的新知识,都必须要再训练一次。针对这一挑战,来自Sakana ...
8 天
Transformer²要做「活」的AI模型,动态调整权重,像章鱼一样适应环境
在自然界,「适应」是一种非常普遍的现象。例如,章鱼能够迅速改变自身的肤色和纹理,以融入周围环境,从而躲避天敌和捕捉猎物;人脑在受伤后能够重新连接自身神经回路,使个体能够恢复失去的功能并适应新的思维方式或行动方式。生物体展现出的适应能力使得生命能够在不 ...
10 天
Transformer从自然语言到计算机视觉的跨界之旅:解密AI革命的基石
在全球人工智能(AI)领域,随着ChatGPT的崛起,一场掀起的AGI革命如火如荼。但在这背后,鲜有人知的是,推动这一变革的技术基石便是Transformer模型。这项集各种神经网络精华于一体的架构,不仅在自然语言处理(NLP)中表现卓越,更在计算机 ...
中华网
7 天
Transformer作者初创重磅发布Transformer²,AI模型活了,动态调整自己权 ...
针对这一挑战,Sakana ...
来自MSN
1 个月
LLM很难变成AGI?科学家:创造AGI理论上可行
Transformer可以让模型知道有一些token会对其它token造成更大影响,如此一来,LLM可以像人一样解析语言。 到了这一步,LLM可以生成计算机程序 ...
来自MSN
9 个月
直接扩展到无限长,谷歌Infini-Transformer终结上下文长度之争
Infini-Transformer 引入了一种有效的方法,可以将基于 Transformer 的大型语言模型 ( LLM ) 扩展到无限长输入,而不增加内存和计算需求。使用该技术 ...
当前正在显示可能无法访问的结果。
隐藏无法访问的结果
反馈