About 104,000 results
Open links in new tab
  1. 一文了解Transformer全貌(图解Transformer)

    Sep 26, 2025 · 网上有关Transformer原理的介绍很多,在本文中我们将尽量模型简化,让普通读者也能轻松理解。 1. Transformer整体结构 在机器翻译中,Transformer可以将一种语言翻译成 …

  2. 如何最简单、通俗地理解Transformer? - 知乎

    Transformer最开始应用于NLP领域的机器翻译任务,但是它的通用性很好,除了NLP领域的其他任务,经过变体,还可以用于视觉领域,如ViT(Vision Transformer)。 这些特点 …

  3. 如何从浅入深理解 Transformer? - 知乎

    Transformer升级之路:12、无限外推的ReRoPE? Transformer升级之路:13、逆用Leaky ReRoPE Transformer升级之路:14、当HWFA遇见ReRoPE 预训练一下,Transformer的长序 …

  4. Transformer两大变种:GPT和BERT的差别(易懂版)-2更

    Jul 16, 2025 · Transformer是GPT和BERT的前身。谷歌和OpenAI在自然语言处理技术上的优化,都是基于这个模型。 更多关于的Transformer可以看文章: ChatGPT与Transformer(无公 …

  5. Transformer模型怎么用于regression的问题? - 知乎

    回归问题概述 Transformer模型基础 回归问题中的Transformer架构调整 应用案例 优化与技巧 挑战与改进 1. 回归问题概述 回归问题是监督学习中的一种任务,目标是预测一个连续值。这类问 …

  6. 深度学习中“Transformer”怎么翻译为中文? - 知乎

    Transformer 个人觉得不翻译为好。 Transformer按在机器翻译中原意可以翻译为变形器或变换器。但随着Transformer的普及,它已经成为一类以 自注意力 为主要部件的特定模型,其原本在机 …

  7. 为什么 2024 年以后 MMDiT 模块成为了大规模文生视频或者文生 …

    而且对于纯transformer架构,文本tokens和图像tokens拼接在一起也是很自然且容易的事情(UNet的图像是2D特征,而文本是1D特征)。 而且,SD3的技术报告中其实也对不同的架构 …

  8. Transformer不是编解码器都有的吗?为什么会发展出仅 解/编 码器 …

    Transformer的核心部分,是右边的两个黑色实线框圈起来的两部分,左边是编码器(Encoder),右边是解码器(Decoder)。 下图是 Transformer 用于中英文翻译的整体结 …

  9. 训练最基础的transformer模型用多大的gpu就行? - 知乎

    8gb或者12gb就够训练 12层的 encoder-decoder 架构 transformer 模型了。 序列长度在512左右。 batch size什么的可以通过 gradient checkpoint 或者 accumulate gradient 等操作间接提升。 小 …

  10. 哪位大神讲解一下Transformer的Decoder的输入输出都是什么?能 …

    Transformer 是大模型,除了一些特例(如 DistilBERT)外,实现更好性能的一般策略是增加模型的大小以及预训练的数据量。 其中,GPT-2 是使用「transformer 解码器模块」构建的,而 …