腾讯与中国人民大学数据工程与知识工程教育部重点实验室共同撰写的论文“Toward Timeliness-Enhanced Loss Recovery for Large-Scale Live Streaming”(提高大规模实时流媒体损失恢复的时效性)已被多媒体领域的国际顶级会议 ACM Multimedia (MM) 2024录用,并被选为大会中口头报告论文(录取比例为3.97%)。值得一提的是,论文提出的 AutoRec 机制已在腾讯云 EdgeOne 产品落地,并且经现网验证能够使客户端直播视频卡顿的平均次数和持续时间分别减少11.4%和5.2%。这也是今年继 ICDCS 24之后,腾讯-人大联合实验室在多媒体数据传输领域今年的又一项最新研究成果。
在《说个暴论》一文中,我们揭露了当前关于大模型行业的一些乱象和痛点问题,其中重点提到了当前企业私有训练,不能调用外部 API 的情况下,可以利用开源 LLM+RAG 部署的方式,但这种方式的最大痛点是硬件成本和维护成本。而如果能调用 API,完全不用管有几台服务器,可以在任意时间,随意拉高并发量。 本文介绍了一种免去部署、维护、硬件成本的解决方案,利用腾讯乐享 AI 助手,企业可以实现基于企业内部知识库进行智能问答的业务场景,读者也可以从腾讯乐享 AI 助手的研发历程看到类似技术产品实现的方案逻辑。
很多应用都属于数据密集型应用,而非计算密集型;对于这类应用,CPU 往往不是第一限制性因素,关键在于数据量 、数据复杂度 和 数据的快速多变性;因此数据库的选型在应用系统设计中就显得比较重要。数据库(数据引擎)最核心的任务就是“读到写入的值”,我们尝试从“最简单的脚本文件数据读写”一步一步扩展讨论到“分布式键值数据库”,在这个过程中我们会遇到很多“挑战”,并尝试逐步解决。
Linux下开发者习惯在物理机或者虚拟机环境下使用top和free等命令查看机器和进程的内存使用量,近年来越来越多的应用服务完成了微服务容器化改造,过去查看、监控和定位内存使用量的方法似乎时常不太奏效。如果你的应用程序刚刚迁移到K8s中,经常被诸如以下问题所困扰:容器的内存使用率为啥总是接近99%?malloc/free配对没问题,内存使用量却一直上涨?内存使用量超过了限制量却没有被OOM Kill? 登录容器执行top,free看到的输出和平台监控视图完全对不上?... 本文假设读者熟悉Linux环境,拥有常见后端开发语言(C/C++ /Go/Java等)使用经验,希望后面的内容能在读者面临此类疑惑时提供一些有效思路。
2022 年,Stable Diffusion 和 ChatGPT 先后点燃了 AI 图像生成和大语言模型的燎原火星,两个领域也一同组成了此次生成式 AI 浪潮的最大两块版图。与之相对的是,AI 视频生成虽受关注,却因技术进展缓慢鲜见波澜。直至 2024 年 2 月,OpenAI 以世界模拟器的名号发布了视频生成模型 Sora,可以生成长达一分钟的逼真视频。这个领域自此变天了。
在程序员的日常工作中,解决技术问题往往是最后要做的事情,而在此之前总是要面临诸多跨服聊天的无效沟通:你这个文档怎么没更新?变更了我怎么不知道?这乱七八糟的错误码都是啥意思?我们拉个会对齐一下?
从2020年《全球数据安全倡议》作出尊重各国数据主权的郑重承诺,到2024年《全球数据跨境流动合作倡议》明确提出加快数据领域国际合作,推动以数据流动为牵引的新型全球化,我国在数据跨境流动议题上的立场行动日益清晰。