跳转至

引擎

1️⃣ 神经网络架构 = 引擎

  • RNN(Recurrent Neural Network,循环神经网络)
  • 擅长处理序列数据(比如文本、语音)。
  • 比喻:老式发动机,按顺序处理信息,长距离依赖不太擅长(容易“累积疲劳”)。
  • CNN(Convolutional Neural Network,卷积神经网络)
  • 擅长处理网格状数据(比如图像、视频)。
  • 比喻:特化发动机,擅长提取局部特征,比如车轮齿轮咬合精密。
  • Transformer(自注意力网络)
  • 擅长处理序列数据,能捕捉全局依赖,训练速度快且易扩展。
  • 比喻:高性能涡轮增压发动机,速度快、适合大规模任务。

2️⃣ LLM = 用引擎造出来的“汽车”

  • LLM 是概念层面的“大型语言模型”,它选择 Transformer 引擎 来驱动。
  • 如果你用 RNN 或 CNN 也能训练模型,但效果、效率和扩展性不如 Transformer。

3️⃣ vLLM = 高效跑车系统

  • 它不是模型,而是 高效运行 LLM 的平台,优化内存、并行和调度。
  • 类比:高速公路 + 智能交通系统,让你的 Transformer 引擎的大车跑得更快、更稳。

总结:

  • RNN / CNN / Transformer → 引擎(神经网络架构)
  • LLM → 汽车(大模型)
  • vLLM → 高速公路和智能调度系统(高效推理平台)