插件是软件系统中非常常见的一部分,无论是前后端的开发框架,亦或是我们使用的 IDE、浏览器,或者是我们日常接触到的其他各种软件系统。插件作为一种灵活、可定制和可扩展的软件模块,让用户能够根据自己的需求对软件进行定制化配置和功能增强。它们被设计成可以在不改变主系统代码的情况下添加到主系统中,并能够与主系统进行交互和协同工作。插件可以被视为主系统的补充,通过增加新的功能或修改现有功能,满足用户个性化的需求。 在 SaaS 领域中,插件也扮演着非常重要的角色。它们满足用户对于个性化、定制化、扩展性和协作的需求,使 SaaS 应用程序更加灵活、强大和适应不同用户的需求。同时,插件也为开发者提供了一个扩展和创新的平台,促进 SaaS 生态系统的繁荣和发展。
WebAssembly 可以作为一种部署应用程序的方式,可以在服务器操作系统上运行,且在许多不同的硬件环境中表现出色。与 Kubernetes 相比,WebAssembly 的优点在于简易性和安全性。但是,Kubernetes 始终有其用途,它将始终用于编排微服务和容器。因此,对于某些用例来说,WebAssembly 可以替代 Docker 和容器,但是在高度分布式的云原生环境中,使用 WebAssembly 来编排容器和微服务程度上与 Kubernetes 相同的程度是不可能的。
DeepFlow 利用 eBPF 采集并解析应用协议,实现了零侵扰的分布式追踪和指标数据的采集。DeepFlow 已经内置支持了十多种应用协议的解析,并且还在持续增加中。但我们发现实际业务环境中情况会更加复杂:开发会坚持返回 HTTP 200 同时将错误信息放到自定义 JSON 结构中,大量 RPC 的 Payload 部分使用 Protobuf、Thrift 等依赖 Schema 进行解码的序列化方式,调用的处理流程中发生了跨线程导致 eBPF AutoTracing 断链。 针对这些复杂场景,DeepFlow 实现了一套零侵扰的 WebAssembly 插件机制,使得开发人员可针对自己的业务环境定制化 DeepFlow 的协议解析能力。本文将分享两个案例,来介绍 DeepFlow 中的 Wasm 插件能力。
随着人们认知和意识的提升,越来越重视生活质量、越发关注产品使用体验,即使是儿童类产品,家长更是希望孩子们可以使用到最好的产品、获得最好的使用体验。 AI、无线网络、数字信息、物联网的普及,逐步加速了智能生活场景,越来越多产品具备复合功能、智能值守、操作简便、符合人体力学等,这些都对产品的设计提出很高要求,儿童类产品同样要考虑到儿童在使用产品时的特殊需求和场景。 对于厂商,开始注重自身产品的用户群体,针对儿童的心理、意识、操作习惯、思维逻辑定向的设计产品,并结合细分市场、产品运营、营销策略参与市场竞争。 来自联合儿童基金会的新闻数据,由于 2019 冠状病毒病对世界各地的教育系统造成影响,数字化学习依然成为一项基本服务,这将意味着每一名儿童青少年(到 2030 年约为35 亿)会连接到世界级的数字化教育解决方案中。
如何科学地推断某个产品策略对观测指标产生的效应非常重要,这能够帮助产品和运营更精准地得到该策略的价值,从而进行后续方向的迭代及调整。 在因果推断框架下,效果评估的黄金准则一定是“AB实验”,因为实验的分流被认为是完全随机且均匀的,在此基础上对比实验组与对照组的指标差异就可以体现某个干预带来的增量值。但是很多场景下,我们较难进行严格的AB实验,例如对于酒店的定价;现金奖励的发放等等,不适宜向不同人群展现不同的内容。对于这些问题,我们会采取因果推断的方法来进行策略的效果评估。 本文主要介绍BSTS模型原理以及CausalImpact对模型的代码实现,旨在面对一些具有特定周期性特点的数据时,更精准科学地进行因果效应值的估计。下文将首先对模型原理进行简要阐释;随后利用模拟数据展示代码逻辑,最后在具体的业务场景中进行实践。
在 Web 开发中,经常会需要在页面中引入一些特殊字体,这些字体通常不在系统字体库的范围内,并且动辄 4~5MB,甚至有些字体超过 10MB,会影响用户加载体验,尤其在手机端使用移动网络的情况下。 针对不同的业务场景,通常会有以下几种解决方案:
9月12日,淘天集团联合爱橙科技正式对外开源大模型训练框架——Megatron-LLaMA,旨在让技术开发者们能够更方便地提升大语言模型训练性能,降低训练成本,并保持和LLaMA社区的兼容性。测试显示,在32卡训练上,相比HuggingFace上直接获得的代码版本,Megatron-LLaMA能够取得176%的加速;在大规模的训练上,Megatron-LLaMA相比较32卡拥有几乎线性的扩展性,且对网络不稳定表现出高容忍度。
当前 LLM(Large Language Model) 大语言模型越来越火,在业务和生活中已经逐渐变得人尽皆知,作为一名技术同学,可以不精通其中的细节,但了解其大致的奥义是应该必备的技术素养,最起码应该清楚大模型是怎么运作的,在业务中我们可以与其建立什么链接,这也是我写这篇文章的主要原因。 本文借鉴了多方文章,加入了自己的理解,由于大部分相关文章都比较有技术壁垒,很多同事包括我读起来都比较晦涩,因此我尽可能将其转化为比较易懂的语言。 我本人也不是专业的算法同学,因此只能用比较浅薄的视角窥探一部分大模型的理论和实践,如果有描述不清或有误之处还请批评指出。
1.比较 LLaMA、ChatGLM、Falcon 等大语言模型的细节:tokenizer、位置编码、Layer Normalization、激活函数等。2. 大语言模型的分布式训练技术:数据并行、张量模型并行、流水线并行、3D 并行、零冗余优化器 ZeRO、CPU 卸载技术 ZeRo-offload、混合精度训练、激活重计算技术、Flash Attention、Paged Attention。3. 大语言模型的参数高效微调技术:prompt tuning、prefix tuning、adapter、LLaMA-adapter、 LoRA。