在房地产 2B 业务场景中,有这样一种情况,每个季度或者每个月,甚至每个周,交付侧需要定期产出一份报告向客户开发商汇报各种产品的使用情况,投用效率,收益比率等等,制作这样一份报告通常会耗费掉大量时间,需要排版布局,需要统计数据制作图表,需要分析总结。我们知道报告样式可以直接套用模板,如果更进一步,有这么一份模板,模板包括了所需的文字,图表,你需要做的只是选择数据源,就可以生成对应的报告,这样的模板可以大大提高工作效率,将一天的工作量缩短到简单的1分钟就能够完成。针对这个诉求,自定义报告导出平台应运而生,在需要定期汇报的情况下都可以快捷简单迅速地生成一份完整的汇报 ppt ,从“苦 ppt 久矣”的工作中解放出来。
在一个大型团队中,bug协同管理是一件复杂的事情,我们基于go-git开发实现了通用化的git-poison,通过分布式源码管理bug追溯、查询,可复制性高,适用于所有git仓库,与分支模式和代码仓库无关。
Kubernetes 的新 sidecar container 特性允许用户在规范中定义辅助容器的行为,以帮助配置、网络、日志和度量收集等方面。这个新功能旨在为多容器 pod 中的 sidecar 容器提供更精细的粒度,使其能够比 initContainer 更好地反映 sidecar 的特定要求,简化常见用法模式并为未来开辟了一些有趣的设计空间。
随着旅游市场的回暖、出行需求的激增,去哪儿网酒店的单日预订量也刷新了历年的前高还在不断突破产生新高。 与此同时,酒店数仓每天处理的数据也在不断上涨,为了保障日常 SA 级的报表正常产出,需要我们持续优化数据处理的链路,消除存在的瓶颈与卡点。 酒店流量链路产出的核心宽表为:搜索( search S页 )、列表( list L页 )、详情( Detail D 页)、预订( booking B 页)和提交订单( order O 页)流量表,对应了酒店主流程各个页面的用户流量数据。 我们以一个具体的案例 “ L 页流量表” 优化作为切入点,来展开对流量链路的优化实践,承诺 SLA、体量够大、关联够多、逻辑够复杂、使用够广一直是 L 页流量表的内在标签。
研发效能是目前互联网和传统软件企业都高度关注的领域,其核心目标是:更高效、更高质量、更可靠、可持续地交付更优的项目。随着安居客技术研发团队的人员规模不断地扩大,业务对研发效能的期望越来越高,业务实现复杂度的提升,技术不断细分化,研发管理面临的问题越加复杂。基于这种情况,安居客QA团队在围绕着研发效能度量体系进行探索,经过几年的建设,目前整个体系已经形成,相应的平台也搭建完成。
dora是一个哈啰的开源的taro小程序微前端集成框架,具有把多页业务拆分并集成编译与通讯的能力,解耦了业务与业务,降低了总体的复杂度与多业务线合作难度,有轻量化扩展性强等特点。
随着携程机票BU业务规模的不断提高,业务系统日趋复杂,各种问题和挑战也随之而来。对于研发测试团队,面临着各种效能困境,包括业务复杂度高、数据构造工作量大、回归测试全量回归、沟通成本高、测试用例数量多且难以复用、测试数据维护量大以及自动化用例管理等问题。每个都会影响测试团队的效率和质量,给软件研发过程带来挑战。 总结下来主要是两个核心困难点:成本与复杂度。 成本方面,我们通常需要在成本和质量之间做出取舍,需要在快速迭代的同时保证质量,又需要在限定的投入下保证质量。 复杂度方面,当业务规则积累一段时间后,业务流程、规则、场景和数据处理的复杂度在叠加后呈二次或者指数等形式增加,给测试质量工作带来很大的挑战。
携程作为在线旅游公司,对外提供机票、酒店、火车票、度假等丰富的旅游产品,其系统稳定性关乎用户是否具有顺滑的出行体验。然而,流量激增、代码发布、运维变更等都会给系统稳定性带来挑战。 我们在2020年对生产故障的“发现-定位-解决效率”提出了“1-5-10”的目标(即一分钟发现故障,五分钟定位故障,十分钟解决故障),这无疑对监控告警提出了很高的要求。订单量是生产故障异常检测场景中最核心最显性的指标,订单量在自身形态上具有周期性、规律上升和下降、业务高峰和低谷等特点,影响因素包括节假日、促销等。倘若数以万计的业务线通过人工配置规则的方式来覆盖到所有业务场景,并且做到高准确率和召回率,是非常不现实的。因此,迫切需要一套配置费力度低、普适性强、准确率高、时效性强的智能异常检测算法体系来及时发现异常。 指标异常检测是智能运维领域的重要落地场景,携程AIOPS团队致力于提升告警质量,寻找告警效率、准确率和真实故障召回率三者之间的平衡点。我们将统计学方法和机器学习方法结合,根据指标的历史数据,将训练的多个模型组成一套异常检测系统,在覆盖真实故障的基础上,减少告警数量,产生更有价值的告警。
提示工程是一门新兴学科,就像是为大语言模型(LLM)设计的"语言游戏"。通过这个"游戏",我们可以更有效地引导 LLM 来处理问题。只有熟悉了这个游戏的规则,我们才能更清楚地认识到 LLM 的能力和局限。 这个"游戏"不仅帮助我们理解 LLM,它也是提升 LLM 能力的途径。有效的提示工程可以提高大语言模型处理复杂问题的能力(比如一些数学推理问题),也可以提高大语言模型的扩展性(比如可以结合专业领域的知识和外部工具,来提升 LLM 的能力)。 提示工程就像是一把钥匙,为我们理解和应用大语言模型打开了新的大门,无论是现在还是未来,它的潜力都是无穷无尽的。