B站直播平台近年来迅猛发展,为了吸引更多观众和优质主播,直播平台通常会推出多样玩法(包括节日活动、任务、榜单、抽奖),以激励用户参与和创造高质量内容,拉动平台营收,丰富直播生态。诸多玩法都存在一个共同的场景:给用户发放奖励。为了满足奖品种类以及发放场景的多样性,我们设计了通用奖励系统,用于支撑各类上层业务。本文将介绍直播奖励系统的技术架构,从需求分析到实现细节,全面解析其背后的技术方案。
本文概述了携程酒店前端BFF层在架构迁移及效能提升过程中面临的挑战和应对方案。第一部分描述了BFF实践过程中遇到的问题,分析了两种BFF模式的对比并提出了一码多端的BFF研发方案;第二部分通过介绍携程云函数平台能力来阐述其如何帮助提升BFF研发的效能;第三部分简单介绍了前端动态化能力的未来规划。
北京时间9月10日凌晨,苹果正式发布了iPhone 16,这是苹果第一款真正意义上的 AI iPhone。Apple Intelligence采用“端侧大模型+云端大模型”的方式,将为用户带来更丰富的智能体验。而这仅仅是端侧智能的开始,未来我们可以想象,一个由大模型带来的移动智能生态正在缓缓打开。
我们对于组件的设计并不是一蹴而就的,通常是随着需求在不断地迭代。我们希望,组件能够更好地扩展和复用,纠结于未来可能潜在的场景。本文主要是通过需求的不断迭代,来讨论组件的设计和实现。
随着大语言模型的广泛应用,如何构建低成本高性能的推理服务,越来越成为业界关注的方向。RTP-LLM是阿里巴巴智能引擎团队推出的大模型推理加速引擎,已被广泛应用于阿里内部,积累了一定的实践经验,我们曾在《LLM推理加速:decode阶段的Attention在GPU上的优化》一文中分析了当前MMHA在GPU上的计算:
广义的容灾,可以认为是业务连续性计划当中的灾难恢复,即能够容忍灾难的能力,如何在灾难发生时,保证生产业务系统的不间断运行,需要我们健全快速容错/故障切换能力,即容灾能力,包含了常态化容灾建设以及针对能力进行的周期性演练验收。 今天,我将与大家分享字节跳动的容灾实践。大家对字节跳动的业务形态应该有所了解,在业务规模持续扩大和多样化部署模式下,字节跳动基础架构团队面临的容灾挑战是巨大的。因此今天的分享将分为三个主要部分:首先是基础演进路径,然后结合演进介绍容灾实践,最后我会简要说明容灾实施情况。
前段时间,张雪峰一句“文科都是服务业”再次引起了舆论上的“文理之争”,从专业课的质量不一到就业前景的不明朗,文科生承受着普遍的焦虑。而随着生成式AI在各领域的应用,也有一种声音认为,AI将在不久后取代一些文科生的就业机会,比如一些机构媒体设立了 AI编辑、AI记者;一些企业也尝试用AI取代原画师。 然而,以上两种假设反映了社会长久以来对文科的误解,也是近年来对AI的误解。AI在一定程度上打破了文理科生的技术壁垒,而过去一些 AI产品被诟病太“生硬”,更需要文科生的人文素养与情感关怀,比如对于聊天式AI语料库的筛选。纵观人类历史,技术一直在重塑我们对于学业和工作的理解, AI并非“洪水猛兽”,或许更应该思考是:如何运用 AI、如何打磨那些无法被AI取代的能力。 从被热议的“文理之争”出发,这期播客试图讨论在人工智能时代,文科何为?当一波技术浪潮袭来,如何应对AI焦虑并发现真实的需求?以及从知识生产的角度去来看,创造力将如何诞生于人与AI的交互中?
内存不是无限的,总有不够用的时候,linux内核用三个机制来处理这种情况:内存回收、内存规整、oom-kill。 当发现内存不足时,内核会先尝试内存回收,从一些进程手里拿回一些页;如果这样还是不能满足申请需求,则触发内存规整;再不行,则触发oom主动kill掉一个不太重要的进程,释放内存。