在短短不到两年的开发生涯里,加上这次,印象中已经碰到过至少3次FastJson的问题了。而且FastJson不同版本之间的差异很大,各位同学在使用时一定注意不要踩坑。 下面讲一下我碰到的这个细思极恐的问题。
随着 B 站直播常量用户带宽需求增多,结合自身的直播流模型,进一步推动了 CDN 边缘节点的基建工作,这些节点具有很大的异构性,能力差距大,价格不一,计费方式不同。如何利用这些异构资源,在保障稳定性的前提下,在成本和质量之间做好动态平衡,是我们需要解决的问题。
我们正身处一场技术革命的历史开端,以 ChatGPT 为标志的这轮 AI 科技浪潮是算法和软件诞生以来人类科技最重要的技术变革,由此开启了以智能为核心的第四次工业革命。这次 AI 变革是由以 Scaling Law 为底层逻辑的基础模型驱动,其整体的发展脉络由基础模型的技术逻辑主导。 进入 2025 年,我们清晰地看到,Scaling Law本身仍然成立,但以堆算力以及一味追求扩大模型尺寸的迭代路径已经被打破。同时,基础模型本身的迭代趋于阶段性收敛,Transformer-like逐渐成为统一的底层架构。此外,生成模型的潜力远远还没有得到释放,其将快速深入科学研究在内的多个领域,或大放异彩…... 本文对当前 AI 的发展逻辑进行梳理,展望2025年的 AI 趋势,初探未来的景象。限于篇幅,仅对于部分方向加以讨论阐述。
随着人工智能技术的飞速发展,大语言模型(Large Language Models, LLMs)在各领域展现出强大的潜力。本文深入剖析了 LLMs 预训练阶段的核心算法和关键源代码实现,旨在全面、系统地阐述其背后的技术原理和实现细节。通过对算法架构、训练方法和代码实现的详实分析,我们期望这些内容能够为大模型领域的学习者和研究者提供有益参考,感兴趣的读者可以沿着文中技术脉络深入探索。
自大型语言模型(LLM)问世以来,其影响力逐渐渗透到推荐算法领域。在推荐算法领域中,如何有效利用大模型的能力,主要存在两种思路:一种是“改良派”,旨在通过大模型技术增强现有系统性能,在实际应用中逐步优化;另一种是“革命派”,认为现有推荐框架限制了大模型发挥,与其在已有的框架下小修小补,不如直接掀桌重开。认知推荐属于“改良派”的一种,它快速锚定了推荐中的“信息茧房”问题,通过大模型构建认知链路来深化用户兴趣探索,提升整个链路发现性水平,最终提升用户体验。