B站开源长文本大模型:我很小但很能“装”
Source :
mp.weixin.qq.com
Author :
AI
Index-1.9B-32K 是一个拥有 1.9B (19亿)参数并具备 32K 上下文长度的语言模型(这意味着,这个超小精灵可以一次性读完 3.5 万字以上的文档)。
在多项长文本评测任务中,该模型在相近尺寸的模型中表现突出。以极小的体积和算力开销(仅仅约为 GPT-4 的 2%),实现了出色的长文本处理能力。
View
26
Technology
lddgo
Shared on
2024-09-18