搜索优化
English
搜索
Copilot
图片
视频
地图
资讯
购物
更多
航班
旅游
酒店
笔记本
Top stories
Sports
U.S.
Local
World
Science
Technology
Entertainment
Business
More
Politics
时间不限
过去 1 小时
过去 24 小时
过去 7 天
过去 30 天
按相关度排序
按时间排序
腾讯网
11 天
记忆层增强的 Transformer 架构:通过可训练键值存储提升 LLM 性能的 ...
点击上方“Deephub Imba”,关注公众号,好文章不错过 ...
2 天
无需训练,性能提升100%!谷歌提出CoA「智能体链」,多LLM协作搞定长 ...
近日,谷歌在博客中介绍了「智能体链」(Chain-of-Agents,CoA)框架,无需训练、任务无关且高度可解释。它通过大语言模型(LLM)间的协作来解决长上下文任务,在性能上超越了RAG和长上下文 LLM。
10 天
高效Attention引擎是怎样炼成的?陈天奇团队FlashInfer打响新年第一枪!
高效的Attention引擎FlashInfer,无疑是大型语言模型推理技术中的又一里程碑。它的推出不仅优化了现有技术架构、提升了运行效率,还充分展示了将深度学习与工程实践相结合的潜力。面向未来,随着AI技术的进一步成熟,不断推动社会各个层面的变革与发展,成为每一个追随科技潮流者的必经之路。
51CTO
17 天
Transformer作者初创重磅发布Transformer²!AI模型活了,动态调整自己权重
Sakana AI发布了Transformer²新方法,通过奇异值微调和权重自适应策略,提高了LLM的泛化和自适应能力。新方法在文本任务上优于LoRA;即便是从未见过的任务,比如MATH、HumanEval和ARC-Challenge等,性能也都取得了提升。 从章鱼通过改变皮肤颜色来融入周围环境 ...
腾讯网
3 天
知识图谱:企业 AI 中的关键纽带
知识图谱是位于原始数据存储之上的连接层,将信息转化为具有上下文意义的知识。因此理论上,它们是帮助 LLM 理解企业数据集含义的绝佳方式,使公司更容易、更高效地找到相关数据嵌入查询中,同时使 LLM 本身更快速、更准确。
ZAKER科技 on MSN
3 个月
大语言模型:LLM的基本原理解读
二、LLM 的发展历程 LLM 的发展可以追溯到几年前。它始于简单的语言模型,如 n-gram 模型、LSTM 网络等等,直到 Transformer 模型的出现,才彻底的催生了 LLM。 1、N-gram 模型 n-gram 模型通过使用词频来根据前面的词预测句子中的下一个词,其预测结果是在训练文本中 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果
反馈