最近几年,大模型在技术领域的火热程度属于一骑绝尘遥遥领先,它已经深刻地影响了“编程”领域,且正在各个领域迅速渗透。与此同时,普通开发者也变得非常地焦虑,因为实实在在感受到了它强大的威力,担心哪天自己就被取代。与其担忧,我们不如主动拥抱这种技术变革。
近年来,AI 内容生成(AIGC)领域的快速发展令人雀跃,OpenAI 在 2023 年初推出大型语言模型(LLM)GPT-4 受到了学术界和工业界的极大关注。OpenAI 随后在 2024 年初推出文生视频(T2V)模型Sora,能够根据文本指令制作出具有现实风格和富有想象力的场景视频,更是展示了令人惊喜的“世界模拟器”能力。 B站作为UGC内容丰富的视频网站,在视频生成模型领域有着天然数据优势和广泛应用场景。在此之前我们已经有了一段时间的LLM模型训练经验,文生视频模型结构、语料以及训练过程有一定的差异性,本文重点介绍B站TTV团队在文生视频模型上积极探索后的经验及感悟。
3 月 8 日,第 19 届 D2 终端技术大会,茅晓锋将给大家带来主题为《midscene.js:AI 在前端测试领域的应用》的分享。 Midscene.js 是一个开源的 UI 自动化工具。通过引入多模态 AI 推理能力,Midscene.js 将帮助开发者打破传统 UI 自动化难于编写和维护的困境。
时光飞逝间,2024 年已悄然划过技术长河。纵览这一年前端技术大舞台,虽没有出现革命性的明星项目,但各细分领域都呈现持续深耕与创新突破的态势。接下来让我们一起乘坐时光机重回 2024,共同开启这段技术巡礼,透过专业视角看看前端行业发生了哪些重要的事情吧。
LSM-Tree(Log-Structured Merge Tree)是一种高效的键值存储数据结构,广泛应用于NoSQL数据库和大数据处理系统中。其核心思想是通过分层、有序地利用磁盘顺序写入的性能优势,优化写入操作,同时牺牲部分读取性能以换取更高的写入吞吐量。
多集群部署微服务带来了可扩展性和容灾性等优势,但也引入了全局层面的脆弱性——中心控制平面的任何问题都会级联影响所有被管理集群,造成灾难性后果。其中最严重的场景之一是由于Pod删除导致的服务容量丢失。这在Kubernetes复杂的事件链中可能由多种原因引发,例如: 意外删除所有Deployment的owner资源类型的CRD 集群拓扑配置错误,导致用其他集群的spec覆盖当前集群 多集群滚动更新实现缺陷,同时在所有集群触发更新 联邦主集群的etcd磁盘损坏,导致Deployment对象从索引中移除 多个集群同时独立进行Pod驱逐操作,并发度不受控 虽然这些问题均可单独解决,但成因多样且在持续变化的基础设施中难以穷举。更便捷的方式是采用端到端处理:只要全局要求未满足就阻止Pod删除。因此我们开发了Podseidon项目——当跨集群的最小可用性要求不满足时,拒绝删除请求的准入webhook。
在C/C++开发领域,运行时库(Run Time Library)是一个非常重要且基础的概念,但是相关的介绍文章却很少,以至于对很多开发同学来说,这是一个偏神秘的存在,本文作者查阅了大量资料,并结合自己的理解,希望能够通俗易懂的科普和揭秘一下这一领域,内容包括什么是C/C++运行时库,它的主要功能,各平台的存在形式,以及开发中要注意的问题。