时至 2024 年 10 月,生成式 AI 的热潮尚未褪去,但现实也已经与 GPT-3 刚刚发布时的那种狂热图景完全不同。人们开始更冷静地审视大模型的技术局限,更关注大模型在各种领域的实际应用与落地情况,以及由此带来的改变。 腾讯研究院持续关注生成式 AI 对于新闻传媒行业的影响。在过去一段时间,我们做了三件事,第一件事是在 2023 年 8 月,发布了《拐点时刻?AIGC 时代的新闻业》报告,这份报告得到了内外部许许多多的关注和反馈。
还记得当年刚来文档的时候,有人问我要不要接卡顿,又有人跟我说别接啊很难的这个,页面都卡没了不好定位。 去年机缘巧合,卡顿这个事情又到我头上了,同事调侃说性能这个事情接手的都跑路了。 但问题不大,咱没事不惹事,来事不怕事,遇事能抗事,是只顶顶好的开发吗喽。 像腾讯文档这样的大型前端应用,面临的卡顿问题比常规前端页面要频繁得多。但卡顿本身难以监测,即使检测到卡顿的发生,也常常难以快速定位,更别提说想要了解大盘的用户真实体验。 需求产生了,便总会要研究解决方案的。本文记录了腾讯文档在线表格的卡顿体系搭建过程,包括卡顿检测、卡顿定位、卡顿指标、大盘数据搭建等内容。
推荐系统在人们的日常生活中越来越普遍,程序员也往往面临从 0 到 1 去构建一套推荐系统的技术问题。 本文将为你分享从 0 搭建一套灵活可插拔,并且能为多种不同业务提供高可用推荐服务的系统。
微信存在大量AI计算的应用场景,主要分为三种:流量分发、产品运营和内容创作。流量分发场景中的 AI 计算主要用于搜索、广告、推荐场景的核心特征生产,产品运营相关的 AI 计算主要用于产品功能相关和内容运营相关(低质、优质、生态建设),由于大模型的兴起,AIGC 相关的文生图、图生图、AI 特效等内容创作场景的 AI 计算也有了较多的落地。目前AI 计算几乎覆盖了微信的所有业务场景。
缓存合理使用确提升了系统的吞吐量和稳定性,然而这是有代价的。这个代价便是缓存和数据库的一致性带来了挑战,本文将针对最常见的 cache-aside 策略下如何维护缓存一致性彻底讲透。
11 月 5 日,腾讯混元一天内正式开源 2 大核心模型:MoE 模型“混元 Large”以及 3D 生成模型。各位开发者朋友可在 GitHub 、 Huggingface 等技术社区直接下载使用。 腾讯云 TI 平台和高性能应用服务 HAI 也同步宣布开放接入以上两大模型,为模型的精调、 API 调用及私有化部署提供一站式服务。
当前,识别AI生成内容的技术手段均未成熟。如何在潜在风险,治理成本、目标成效之间取得合理平衡成为关键所在。建议小步试错,探寻科学的风险管理方案。