随着大型语言模型的迅猛增长,各种模型在各个领域的应用如雨后春笋般迅速涌现。在研发全流程的效能方面,也出现了一系列贯穿全流程的提效和质量工具,比如针对成本较高的Oncall,首先出现了高质量的RAG助手;在开发阶段的Copilot、Comate、Tabnine等辅助编程应工具;在测试阶段,也有缺陷检查、安全合规检查、智能Code Review等工具;哪怕在交付阶段,也有替代人工的自动化Agent... 当使用git commit提交代码时,需要写繁杂的CommitMessage,有时候写了后却不符合提交规范被hook,有时候还被CodeReview的同学点评写不到点上...智能CommitMessage就是这样一个小助手,帮你按照提交规范自动生成符合规范的CommitMessage。 以百度APP 的提交规范为例,规范包括提交类别、产品版本、需求卡片、变更摘要等,其中类别又包括:功能、更新、优化、提测、上车、Merge、FixBug等,手动抒写较为复杂。
在 AI Native(人工智能原生)时代,广告营销平台经历了根本性的变革,这些变化不仅提升了广告的效率和精准度,还重塑了广告行业的整体运作方式。其中,强大的广告营销智能体是下一代商业广告平台面向客户交付商业价值的首要载体。进一步,生成式 AI 又是广告营销智能体的内核及灵魂,真正达成让客户放开说、简单用、都搞定的极致体验。
本文整理自 4 月 16 日的 2024 百度 Create 大会的公开课分享《百舸 AIAK-LLM:大模型训练和推理加速实践》。 今天要分享的主题是 AI Infra 相关的内容,主要内容分为四部分。 首先和大家一起讨论大模型给基础设施带来的挑战。 第二部分则是向大家介绍一个大模型训练和推理过程中的关键性能指标 MFU,以及为了提升这个 MFU 业界已经做的一些技术和手段。 第三部分则是从百度百舸 AIAK-LLM 实际落地过程中遇到的一些问题出发,通过解决这些问题我们将大模型训练和推理的 MFU 提升到了一个非常好的状态。 最后一部分则是从产品维度简单介绍下相关能力和理念。
随着以ChatGPT、文心一言为代表的大语言模型相继涌现,AI+电商也带来新的购物体验和新的经营模式。 「电商AI数字人直播解决方案-慧播星」依托自研StyleSync技术/音频自恢复预训练技术/文心一言/自研PicGen技术等,实现AI复刻/定制优质主播、稳定7*24小时在线开播。低成本搭建多元直播场景,专家级商品讲解、实时互动问答、丰富的互动形态精准传达信息,既让消费者获得全新的购物体验,也赋能中小商家零门槛、零成本一键创建商品售卖直播间、助推GMV增量,减少生产成本,实现消费体验和生产效能的“双提升”。
近日,在全球软件开发大会上暨智能软件开发生态展上,来自 Baidu Comate 的资深研发工程师分享了精彩的专题演讲,小编整理了演讲精华,和大家一起玩转“大模型+软件研发”。 今天带来——吴玮琦《智能代码助手 Baidu Comate 的核心能力揭秘》,一起解锁 Baidu Comate 硬核能力。
在这个数据驱动的时代,我们每天都在与海量的用户数据打交道。这些数据不仅是洞察用户行为的宝贵资源,也是推动产品创新和市场决策的关键。然而,面对大数据的挑战,尤其是数十万、数百万级别的规模,我们经常会遇到软件性能不足的问题,比如中途卡顿、崩溃、页面闪退,或有数据清洗、匹配等一系列繁琐的数据预处理过程,耗费大量的时间和精力。 在这样的背景下,对日常用户研究的量化工作来说,选择一款高效好用、容易上手的数据处理和分析软件,能让研究过程事半功倍。 在用户研究工具探索和学习过程中,KNIME(Konstanz Information Miner)这款软件脱颖而出。它于2004年由康斯坦茨大学软件工程师团队研发,目前已被广泛应用于制造业、汽车、能源、电信、媒体技术、金融、零售与消费等多个行业领域。 KNIME在驾驭大数据、融合多元分析工具以及实现任务自动化等方面展现出显著的优越性。对于需要进行大规模数据处理、复杂分析或重复性任务的研究场景来说,KNIME是一个很好的“增效”选择。
测试用例作为质量保障的核心,影响着研发-测试-发布-上线的全过程,如单元测试用例、手工测试用例、接口自动化用例、UI 自动化用例等,但用例撰写的高成本尤其是自动化用例,导致了用例的可持续积累、更新和迭代受到非常大制约。长久以来,我们在用例创作技术上一直未有过很大的突破,协助 QA 做好最基本的工作。 直到2023年,生成式 AI 的到来,为用例智能创作带来了可能,借由 AI 技术,尤其是生成式 AI,一切就变得不一样了。 我们可以通过 AI 更好地理解需求,理解 UI 页面,理解接口访问的含义,智能化的生成测试用例,辅助研发测试提效的同时借由数据飞轮不断巩固沉淀测试经验。 为此,百度移动生态质量效能部启动了 QAMate 用例智能创作项目,从基于需求生成脑图用例,基于真机操作的 UI 自动化用例录制回放,基于流量或代码生成接口自动化用例三个场景深耕,通过 AI 技术实现测试用例的智能创作,进而辅助研发测试提效,为业务质量保驾护航。
由于外部环境的变化,适用于大模型训练任务的 GPU 整体规模无法继续增长。这些存量 GPU 组成的集群,仍然是当前加速大模型训练的主要 AI 算力来源。同时,各类国产 AI 芯片开始大规模投入实际生产任务。在未来一段时间内,数据中心的 AI 算力将保持多种芯片并存的现象。 但是,当前基础大模型训练所需要的最大 AI 算力集群规模,已经从单一集群千卡逐步提升至万卡量级。同时,很多智算中心已经部署的 GPU 集群,通常是十几台至数百台服务器不等,难以满足未来行业大模型训练的需求。 所以,在已有 AI 算力集群的基础上,构建由 GPU、昆仑芯、昇腾等不同芯片混合组成的单一集群,为大模型训练提供更大 AI 算力,成为了一个自然的选择。
本文由飞桨星河社区开发者张洪申贡献。张洪申,本科毕业于浙江大学竺可桢学院求是数学班,目前浙江大学控制科学与工程学院博士在读,研究方向为数据科学、电力系统。科研工作曾被 Nature 官方公众号 Nature portfolio 专题报道。