1249 条查询结果
本文介绍了LangChain框架,它能够将大型语言模型与其他计算或知识来源相结合,从而实现功能更加强大的应用。接着,对LangChain的关键概念进行了详细说明,并基于该框架进行了一些案例尝试,旨在帮助读者更轻松地理解LangChain的工作原理。
随着大语言模型的广泛应用,如何构建低成本高性能的推理服务,越来越成为业界关注的方向。RTP-LLM是阿里巴巴智能引擎团队推出的大模型推理加速引擎,已被广泛应用于阿里内部,积累了一定的实践经验,我们曾在《LLM推理加速:decode阶段的Attention在GPU上的优化》一文中分析了当前MMHA在GPU上的计算:
本文阐述了阿里云表格存储(Tablestore)如何通过其向量检索服务应对大规模数据检索的需求,尤其是在成本、规模和召回率这三个关键挑战方面。