跳至主要內容

Wikipedia

CyletixGPT-4大约 6 分钟

Wikipedia

在线性代数中,多重线性映射是有多个向量变量而对每个变量都是线性的函数。

n个变量的多线性映射也叫做n重线性映射。

如果所有变量属于同一个空间,可以考虑对称、反对称和交替的n重线性映射。后两个是一致的,如果底层的环(或域)有不同于二的特征,否则前两个是一致的。

一般讨论可见多重线性代数。

示例

  • 在实数域上的内积(点积)是两个变量的对称双线性函数,
  • 矩阵的行列式是方矩阵的列(或行)的斜对称多重线性函数。
  • 矩阵的迹数是方矩阵的列(或行)的多重线性函数。
  • 双线性映射是多重线性映射。

性质

多重线性映射有零值,只要它的一个参数是零。 对于n>1,唯一的也是线性映射的n-线性映射是零函数。


GPT-4

线性映射(Linear Mapping)是线性代数中的一个基本概念。它是指两个向量空间之间的一种函数,该函数保持向量的加法和标量乘法运算。具体来说,如果VVWW是两个向量空间,并且T:VWT: V \to W是一个映射,那么TT是一个线性映射当且仅当对所有的向量v1,v2Vv_1, v_2 \in V和所有的标量aRa \in \mathbb{R}C\mathbb{C},满足以下两个条件:

  1. 加法封闭性T(v1+v2)=T(v1)+T(v2)T(v_1 + v_2) = T(v_1) + T(v_2)
  2. 标量乘法封闭性T(av1)=aT(v1)T(a \cdot v_1) = a \cdot T(v_1)

线性映射通常也被称为线性变换或线性算子。

示例

假设VVWW都是实数域R\mathbb{R}上的向量空间,定义一个映射T:R2R2T: \mathbb{R}^2 \to \mathbb{R}^2,使得对于所有(x,y)R2(x, y) \in \mathbb{R}^2

T(x,y)=(2x,3y) T(x, y) = (2x, 3y)

我们可以验证这个映射是线性的:

  • 加法封闭性:

T((x1,y1)+(x2,y2))=T(x1+x2,y1+y2)=(2(x1+x2),3(y1+y2))=(2x1+2x2,3y1+3y2)=(2x1,3y1)+(2x2,3y2)=T(x1,y1)+T(x2,y2) T((x_1, y_1) + (x_2, y_2)) = T(x_1 + x_2, y_1 + y_2) = (2(x_1 + x_2), 3(y_1 + y_2)) = (2x_1 + 2x_2, 3y_1 + 3y_2) = (2x_1, 3y_1) + (2x_2, 3y_2) = T(x_1, y_1) + T(x_2, y_2)

  • 标量乘法封闭性:

T(a(x,y))=T(ax,ay)=(2(ax),3(ay))=(a2x,a3y)=a(2x,3y)=aT(x,y) T(a \cdot (x, y)) = T(ax, ay) = (2(ax), 3(ay)) = (a \cdot 2x, a \cdot 3y) = a \cdot (2x, 3y) = a \cdot T(x, y)

矩阵表示

在线性代数中,线性映射通常可以用矩阵表示。如果AA是一个m×nm \times n的矩阵,那么矩阵AA定义了一个从nn维向量空间到mm维向量空间的线性映射。具体地,如果v\mathbf{v}是一个nn维向量,那么AvA\mathbf{v}是通过矩阵乘法得到的mm维向量。

例如,对于矩阵

A=(2003) A = \begin{pmatrix} 2 & 0 \\ 0 & 3 \end{pmatrix}

和向量

v=(xy) \mathbf{v} = \begin{pmatrix} x \\ y \end{pmatrix}

矩阵乘法AvA\mathbf{v}给出

Av=(2003)(xy)=(2x3y) A\mathbf{v} = \begin{pmatrix} 2 & 0 \\ 0 & 3 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} 2x \\ 3y \end{pmatrix}

这与前面的例子中的线性映射形式相同。

结论

线性映射是保持向量空间结构的重要函数,它在许多数学和应用领域中起着关键作用。了解线性映射的基本性质和表示形式对于进一步学习线性代数和其他相关领域是非常重要的。


常见向量运算的判断

内积

内积(也称点积或标量积)是一个将两个向量映射到一个标量的运算。对于两个nn维向量u\mathbf{u}v\mathbf{v},它们的内积定义为:

uv=i=1nuivi \mathbf{u} \cdot \mathbf{v} = \sum_{i=1}^{n} u_i v_i

内积在每个向量固定时,对另一个向量是线性的:

  • 对于固定的向量u\mathbf{u},映射vuv\mathbf{v} \mapsto \mathbf{u} \cdot \mathbf{v}是一个线性映射。
  • 对于固定的向量v\mathbf{v},映射uuv\mathbf{u} \mapsto \mathbf{u} \cdot \mathbf{v}是一个线性映射。

这意味着内积在向量空间的某个方向上是线性的,但它不是两个向量之间的双线性映射。

外积

外积(也称叉积或向量积)通常是指在三维空间中的向量运算。对于两个三维向量u\mathbf{u}v\mathbf{v},它们的外积定义为:

u×v=ijku1u2u3v1v2v3=(u2v3u3v2)i(u1v3u3v1)j+(u1v2u2v1)k \mathbf{u} \times \mathbf{v} = \begin{vmatrix} \mathbf{i} & \mathbf{j} & \mathbf{k} \\ u_1 & u_2 & u_3 \\ v_1 & v_2 & v_3 \end{vmatrix} = (u_2 v_3 - u_3 v_2)\mathbf{i} - (u_1 v_3 - u_3 v_1)\mathbf{j} + (u_1 v_2 - u_2 v_1)\mathbf{k}

外积的结果是一个新的向量,并且具有以下性质:

  1. 反对称性u×v=(v×u)\mathbf{u} \times \mathbf{v} = -(\mathbf{v} \times \mathbf{u})
  2. 线性性:对每个固定的向量,外积是线性的。例如,对于固定的向量u\mathbf{u},映射vu×v\mathbf{v} \mapsto \mathbf{u} \times \mathbf{v}是线性的。

因此,外积在每个向量固定时,对另一个向量是线性的。

结论

  • 内积:对一个固定向量来说,是一个线性映射。
  • 外积:对一个固定向量来说,也是一个线性映射。

两者在某一向量固定时都可以看作是线性映射,但从整体上看,它们不是从两个向量空间到另一个向量空间的线性映射(即它们不是双线性映射)。内积映射到标量,外积在三维空间中是一个反对称的向量积。


线性映射在有限维向量空间中一定可以表示为矩阵相乘。具体来说,如果T:VWT: V \to W是一个从nn维向量空间VVmm维向量空间WW的线性映射,那么存在一个m×nm \times n的矩阵AA使得对于任意向量vV\mathbf{v} \in V,都有T(v)=AvT(\mathbf{v}) = A\mathbf{v}

理论基础

VVWW分别是nn维和mm维的向量空间,T:VWT: V \to W是一个线性映射。选择VVWW的基{e1,e2,,en}\{ \mathbf{e}_1, \mathbf{e}_2, \ldots, \mathbf{e}_n \}{f1,f2,,fm}\{ \mathbf{f}_1, \mathbf{f}_2, \ldots, \mathbf{f}_m \},则对于VV中的任意向量v\mathbf{v},可以表示为基向量的线性组合:

v=v1e1+v2e2++vnen \mathbf{v} = v_1 \mathbf{e}_1 + v_2 \mathbf{e}_2 + \cdots + v_n \mathbf{e}_n

由于TT是线性的,我们可以写:

T(v)=T(v1e1+v2e2++vnen)=v1T(e1)+v2T(e2)++vnT(en) T(\mathbf{v}) = T(v_1 \mathbf{e}_1 + v_2 \mathbf{e}_2 + \cdots + v_n \mathbf{e}_n) = v_1 T(\mathbf{e}_1) + v_2 T(\mathbf{e}_2) + \cdots + v_n T(\mathbf{e}_n)

T(ej)=i=1maijfiT(\mathbf{e}_j) = \sum_{i=1}^m a_{ij} \mathbf{f}_i,将其写成矩阵形式,则矩阵AA的第jj列是T(ej)T(\mathbf{e}_j)f\mathbf{f}基下的表示,矩阵AA可以表示为:

A=(a11a12a1na21a22a2nam1am2amn) A = \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix}

对于任意的向量v\mathbf{v}T(v)T(\mathbf{v})可以表示为矩阵乘法:

T(v)=Av T(\mathbf{v}) = A\mathbf{v}

其中v\mathbf{v}是一个n×1n \times 1的列向量,AA是一个m×nm \times n的矩阵,T(v)T(\mathbf{v})是一个m×1m \times 1的列向量。

例子

假设T:R2R2T: \mathbb{R}^2 \to \mathbb{R}^2是一个线性映射,使得:

T((10))=(21),T((01))=(13) T\left(\begin{pmatrix} 1 \\ 0 \end{pmatrix}\right) = \begin{pmatrix} 2 \\ 1 \end{pmatrix}, \quad T\left(\begin{pmatrix} 0 \\ 1 \end{pmatrix}\right) = \begin{pmatrix} 1 \\ 3 \end{pmatrix}

TT的矩阵表示为:

A=(2113) A = \begin{pmatrix} 2 & 1 \\ 1 & 3 \end{pmatrix}

对于任意向量v=(v1v2)\mathbf{v} = \begin{pmatrix} v_1 \\ v_2 \end{pmatrix},有:

T(v)=Av=(2113)(v1v2)=(2v1+v2v1+3v2) T(\mathbf{v}) = A\mathbf{v} = \begin{pmatrix} 2 & 1 \\ 1 & 3 \end{pmatrix} \begin{pmatrix} v_1 \\ v_2 \end{pmatrix} = \begin{pmatrix} 2v_1 + v_2 \\ v_1 + 3v_2 \end{pmatrix}

结论

任何有限维向量空间之间的线性映射都可以表示为一个矩阵乘以一个向量。这种矩阵表示不仅提供了计算的便利性,也使得理解和分析线性映射的性质变得更加直观和系统。