📢 Gate广场专属 #WXTM创作大赛# 正式开启!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),总奖池 70,000 枚 WXTM 等你赢!
🎯 关于 MinoTari (WXTM)
Tari 是一个以数字资产为核心的区块链协议,由 Rust 构建,致力于为创作者提供设计全新数字体验的平台。
通过 Tari,数字稀缺资产(如收藏品、游戏资产等)将成为创作者拓展商业价值的新方式。
🎨 活动时间:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 参与方式:
在 Gate广场发布与 WXTM 或相关活动(充值 / 交易 / CandyDrop)相关的原创内容
内容不少于 100 字,形式不限(观点分析、教程分享、图文创意等)
添加标签: #WXTM创作大赛# 和 #WXTM#
附本人活动截图(如充值记录、交易页面或 CandyDrop 报名图)
🏆 奖励设置(共计 70,000 枚 WXTM):
一等奖(1名):20,000 枚 WXTM
二等奖(3名):10,000 枚 WXTM
三等奖(10名):2,000 枚 WXTM
📋 评选标准:
内容质量(主题相关、逻辑清晰、有深度)
用户互动热度(点赞、评论)
附带参与截图者优先
📄 活动说明:
内容必须原创,禁止抄袭和小号刷量行为
获奖用户需完成 Gate广场实名
大模型突破40万token 长文本能力引领LLM新时代
大模型长文本能力迅速提升,40万token或仅是开始
大模型的长文本处理能力正在以惊人的速度提升。从最初的4000 token到如今的40万token,这一能力的增长可谓是肉眼可见的。
长文本处理能力似乎已成为大模型厂商的新标配。国际上,OpenAI通过多次升级将GPT-3.5和GPT-4的上下文输入长度分别提升至1.6万和3.2万token。Anthropic更是一举将其模型Claude的上下文长度提升至10万token。LongLLaMA甚至将这一数字扩展到了25.6万token。
国内市场也不甘落后。据了解,初创公司月之暗面推出的Kimi Chat支持输入20万汉字,约合40万token。港中文和MIT联合开发的LongLoRA技术则可将7B模型的文本长度扩展到10万token,70B模型扩展到3.2万token。
目前,包括OpenAI、Anthropic、Meta和月之暗面在内的多家顶级大模型公司都将上下文长度的扩展作为重点更新方向。这些公司无一例外都是资本市场的宠儿,融资规模动辄数十亿美元。
长文本技术的突破意义重大。从表面上看,这意味着模型可以处理更长的输入文本,阅读能力大幅提升。更深层次来看,这项技术正在推动大模型在金融、法律、科研等专业领域的应用落地。
然而,需要注意的是,文本长度并非越长越好。研究表明,模型支持更长的上下文输入并不等同于性能的提升。关键在于模型如何有效利用上下文内容。
尽管如此,当前的文本长度探索似乎还远未触及上限。40万token可能只是一个开始,大模型公司仍在不懈努力突破这一界限。
长文本技术的突破不仅解决了大模型早期面临的一些问题,还增强了其功能。这标志着通用大模型进入了新的发展阶段——从LLM到Long LLM时代。
长文本技术为大模型带来了诸多新的能力。例如,它可以快速分析长文章、提取财报关键信息、实现整本书的问答交互等。在代码方面,甚至可以直接将论文转化为代码。在长对话场景中,还可以实现更加专业化、个性化和深度化的交互。
然而,长文本技术的发展也面临着"不可能三角"的困境:文本长度、注意力和算力之间存在相互制约。随着文本长度增加,模型难以集中足够的注意力,同时也需要更多的算力支持。
目前,业界主要采用三种方案来应对这一挑战:利用外部工具辅助处理长文本、优化自注意力机制计算,以及对模型进行优化。每种方案都有其优缺点,大模型公司正在努力在文本长度、注意力和算力之间寻找最佳平衡点。
随着技术的不断进步,长文本处理能力有望进一步提升,为大模型在更多领域的应用铺平道路。