更新时间:作者:小小条
如果你听过“向量”“矩阵”“内积”“Transformer”,那你一定和“点积”擦肩而过无数次。
它是线性代数里最简单的运算之一,却又是现代人工智能的底层秘密武器。今天,我们就来聊聊这个小小的“点积”,到底藏着怎样的大智慧。
假设你有两个向量:

点积定义为:
听起来像是在“相乘再相加”,其实它衡量的是——两个向量方向有多相似。
当它们方向完全一致时,点积最大;
当它们垂直时,点积为0;
当它们方向相反时,点积为负数。
简单说:
点积大,说明“志同道合”;点积为0,说明“互不干扰”;点积负,说明“背道而驰”。是不是立刻就有画面感了?
举个最生活化的例子:
你骑自行车时,脚的发力方向与脚踏板方向越一致,推进力就越大。
这其实就是一个力的点积过程。
力 × 方向一致程度 = 有效功。
物理课上的“做功”公式,其实就是点积!
如果你接触过 Transformer、ChatGPT、BERT 等模型,你会发现它们都离不开一个词——“Scaled Dot-Product Attention”(缩放点积注意力)。
什么意思?
模型会把“词语”变成向量,然后计算它们之间的点积。
点积越大,表示两个词的语义越相关。
于是模型就能“知道”哪些词要重点关注——
这就是“注意力机制”的核心。
简而言之:
点积帮助模型理解“谁和谁更有关系”。
比如:
在句子 “我爱吃苹果” 里,
“我” 与 “爱” 的点积比 “我” 与 “苹果” 的点积更大,
因为语义更紧密。
从几何角度看:
这公式简直优雅到爆。
它说明点积不仅和数值有关,还和方向夹角有关。
这也是为什么点积能同时描述“强度”和“相似性”。
点积最早是19世纪的数学概念,
却在21世纪的AI世界中成为“神经网络的燃料”。
每一次矩阵乘法、每一层神经元连接、每一个注意力计算……
都在默默地做着点积。
可以说:
没有点积,就没有深度学*。
“点积”看似只是两个数相乘相加,
实则是相似性、方向性、能量传递、语义理解的统一语言。
下次你再听到“AI算法”“神经网络”“Transformer”,
不妨心里默默地想一句:
“哦,原来你们都在点积啊。”
#点积# #向量# #向量的点积到底是什么# #transformer#
版权声明:本文转载于今日头条,版权归作者所有,如果侵权,请联系本站编辑删除