• ARTICLE
  • STRING
  • CONVERTER
  • ENCRYPT
  • NETWORK
  • MORE
    CHART
    MATH
    COORDINATE
    IMAGE
    FILE
    OPEN API
  • ARTICLE
    STRING
    CONVERTER
    ENCRYPT
    NETWORK
    MORE
    CHART
    MATH
    COORDINATE
    IMAGE
    FILE
    OPEN API
logo Online Tools
All Chinese English Newest Hottest
1209 search results

这是斩获353个offer的程序员大牛同事推荐的6个面试神器!每个都是宝藏,最后一个一定不能错过!

229 Technology lddgo Shared on 2024-10-09

程序员工作的终极意义,就是干掉复杂度,用一套通用的方法解决大部分问题。在大模型时代,这个通用的方法就是——Prompt 工程。作为用好大模型最重要的武器,Prompt 的好坏对模型效果有着决定性的影响。 然而,网络上大量相关文章多是罗列“Prompt 工程” 中的若干技巧,少有体系化的总结,让人看完依然不知道该如何入手。本文希望结合腾讯工程师在 “Prompt 工程” 中的实践经验,更加体系化地对 “Prompt 工程” 进行梳理,希望可以一步步地帮助大家用好大模型,人人都是 Prompt 工程师。

284 Technology lddgo Shared on 2024-09-27

本文主要分享我们近期在Embedding模型训练上的工作「Conan-Embedding」。目前,Conan-Embedding已在最全面、最大规模的中文语义向量评测榜单C-MTEB上达到SOTA,超越了阿里、百川、OpenAI等众多Embedding模型。

411 Technology lddgo Shared on 2024-09-27

本文作者通过优化腾讯文档业务里的相关实现,将高频调用场景性能优化到原来的十倍,使文档核心指标耗时实现 10~15% 的下降,与此同时内存的增加仍细微到可忽略不计。本文将从 V8 整体架构出发,深入浅出 V8 对象模型,从汇编细节点出其 ICs 优化细节以及原理,最后根据这些优化原理来编写超快的 JS 代码

200 Technology lddgo Shared on 2024-09-26

上一篇文章《 10 本拍手叫绝的编程好书》中,我们为大家推荐了 10 本适合国庆长假阅读的经典好书。有读者朋友表示书都很好,但自己读书的时候总感觉效率不高,输入不多。为此,我们特别向腾讯内部的知识分享达人做了本期约稿,为大家分享一些他总结的程序员高效阅读经验,帮助大家提升获取知识的能力。

286 Technology lddgo Shared on 2024-09-25

大模型热潮,会是一场泡沫吗?

268 Technology lddgo Shared on 2024-09-25

这一期给大家分享程序员们在工作用到的好用的办公软件/插件分享,包含可以兼容各种功能的启动插件,完全免费的清理软件,功能强大的截图工具,页面简洁的全盘搜索工具,开源的跨平台终端应用程序等等,每款都让你生产力max!最后一款千万别错过

342 Technology lddgo Shared on 2024-09-25

在前两篇推文《9本相见恨晚的“计算机”好书》、《 9 本醍醐灌顶的计算机好书》中,腾讯云开发者公众号为大家分享了腾讯工程师们强烈推荐的计算机经典图书。 这些好书,涵盖了从计算机理论科学、软件工程等基础知识,到实现阶层跃升、视野开拓、站位升维的方法论。希望能帮助大家在追求技术极致的同时,跳出技术的局限,用高维视角去剖析问题本质。 国庆长假即将来临,我们为大家精心准备了 10 本适合假期阅读的计算机好书,从编程语言到 AI,从游戏到计算机文化不一而足。参与本文有奖互动,我们将挑选 10 位幸运读者,送出本书单任意一本图书!

291 Technology lddgo Shared on 2024-09-24

人机共生新框架:《AI与可持续发展展望》报告发布

246 Technology lddgo Shared on 2024-09-23

近来,随着大型语言模型的发展,视觉语言大型模型的能力也在逐步增强,GPT-4[1]、Gemini Pro 1.5[2]和Claude 3[3]等著名的闭源模型成功将 LLM 扩展到视觉语言模型领域。LLaVA[4],InternVL[5]等开源模型也在迅速发展。目前,视觉语言模型领域存在一些关键问题亟待解决:1)闭源模型很少公开关于其架构的详细信息。相比之下,开源模型虽公开了其训练策略,但这些策略的详细消融并没有完全披露。2)在目前的开源工作中,对于预训练阶段,大多都是凭经验添加不同来源的数据集,这使得预训练过程难以得到深入的探索。3)在微调阶段,绝大多数工作关注的重点通常是添加和消融更多的数据集,这样性能会较快触及瓶颈。我们针对以上几点给出了我们的方案,并进行了清晰充分的实验论证。

304 Technology lddgo Shared on 2024-09-23