当前位置: 首页 > news >正文

机器学习的数学基础(三)——概率与信息论

目录

  • 1. 随机变量
  • 2. 概率分布
    • 2.1 离散型变量和概率质量函数
    • 2.2 连续型变量和概率密度函数
  • 3. 边缘概率
  • 4. 条件概率
  • 5. 条件概率的链式法则
  • 6. 独立性和条件独立性
  • 7. 期望、方差和协方差
    • 7.1 期望
    • 7.2 方差
    • 7.3 协方差
  • 8. 常用概率分布
  • 9. 贝叶斯规则
  • 10. 部分信息论
    • 10.1 自信息和香农熵
    • 10.2 KL散度和交叉墒
  • 参考

1. 随机变量

  随机变量是可以随机地取不同值的变量。一个随机变量只是对可能的状态的描述,它必须伴随一个概率分布来指定每个状态的可能性。
  随机变量可以是离散的或者连续的。离散随机变量拥有有限或者可数无限多的状态(这些状态不一定非要是整数,它们可能只是一些被命名的状态而没有数值)。连续随机变量伴随着实数值。

2. 概率分布

  概率分布用来描述随机变量或一簇随机变量在每一个可能取到的状态的可能性大小。描述概率分布的方式取决于随机变量是离散的还是连续的。

2.1 离散型变量和概率质量函数

  离散型变量的概率分布可以用概率质量函数来描述,用大写字母 P \mathrm{P} P来表示。概率质量函数将随机变量能够取得的每个状态映射到随机变量取得该状态的概率。 x = x \mathrm{x}=x x=x的概率用 P ( x ) \mathrm{P}(x) P(x)来表示。概率为1表示 x = x \mathrm{x}=x x=x是确定,概率为0表示 x = x \mathrm{x}=x x=x是不可能发生的。用如下符号表示随机变量服从何种分布:
x ∼ P ( x ) . \mathrm{x}\sim \mathrm{P}(\mathrm{x}). xP(x).
  概率质量函数可以同时作用于多个随机变量,这种多个变量的概率分布称为联合概率分布, P ( x = x , y = y ) \mathrm{P}(\mathrm{x}=x,\mathrm{y}=y) P(x=x,y=y)表示 x = x \mathrm{x}=x x=x y = y \mathrm{y}=y y=y同时发生的概率,可以简写为 P ( x , y ) \mathrm{P}(x,y) P(x,y)
  如果一个函数 P \mathrm{P} P是随机变量 x \mathrm{x} x的概率质量函数,必须满足如下几个条件:
  1. P \mathrm{P} P的定义域必须是 x \mathrm{x} x所有可能状态的集合。
  2. ∀ x ∈ x , 0 ≤ P ( x ) ≤ 1 \forall x\in \mathrm{x}, 0\le \mathrm{P}(x)\le 1 xx,0P(x)1
  3. ∑ x ∈ x P ( x ) = 1 \displaystyle\sum_{x\in \mathrm{x}}\mathrm{P}(x)=1 xxP(x)=1

2.2 连续型变量和概率密度函数

  但研究的对象是连续型随机变量时,用概率密度函数来描述它的概率分布。如果一个函数 p \mathrm{p} p是概率密度函数,必须满足下面几个条件:
  1. p \mathrm{p} p的定义域必须是 x \mathrm{x} x所有可能状态的集合。
  2. ∀ x ∈ x , p ( x ) ≥ 0 \forall x\in \mathrm{x}, \mathrm{p}(x)\ge0 xx,p(x)0
  3. ∫ p ( x ) d x = 1 \displaystyle\int \mathrm{p}(x)dx=1 p(x)dx=1
  概率密度函数 p ( x ) \mathrm{p}(x) p(x)并没有直接对特定状态给出概率,可以对概率密度函数求积分来获得点集的真实概率质量。在单随机变量的例子中, x x x落在区间 [ a , b ] [a, b] [a,b]的概率是 ∫ a b p ( x ) d x \displaystyle\int_a^b \mathrm{p}(x)dx abp(x)dx

3. 边缘概率

  在已知一组变量的联合概率分布时,要求出其中一个子集的概率分布。这种定义在子集上的概率分布被称为边缘概率分布。
  对于离散型随机变量,假设有离散型随机变量 x \mathrm{x} x y \mathrm{y} y,已知 P ( x , y ) \mathrm{P}(x,y) P(x,y),可以通过求和法则来计算 P ( x ) \mathrm{P}(x) P(x)
∀ x ∈ x , P ( x = x ) = ∑ y P ( x = x , y = y ) . \forall x\in \mathrm{x}, \mathrm{P}(\mathrm{x}=x)=\sum_{y}\mathrm{P}(\mathrm{x}=x, \mathrm{y}=y). xx,P(x=x)=yP(x=x,y=y).
  对于连续型随机变量,需要用积分代替求和:
p ( x ) = ∫ p ( x , y ) d y . \mathrm{p}(x)=\int \mathrm{p}(x, y)dy. p(x)=p(x,y)dy.

4. 条件概率

  在很多情况下,我们更关心的是某个事件在给定其他事件发生时出现的概率,这种概率称为条件概率,将给定 x = x \mathrm{x}=x x=x y = y \mathrm{y}=y y=y发生的条件概率记作 P ( y = y ∣ x = x ) \mathrm{P}(\mathrm{y}=y|\mathrm{x}=x) P(y=yx=x)。这个条件概率可以通过如下的公式计算:
P ( y = y ∣ x = x ) = P ( x = x , y = y ) P ( x = x ) . \mathrm{P}(\mathrm{y}=y| \mathrm{x}=x)=\frac{\mathrm{P}(\mathrm{x}=x, \mathrm{y}=y)}{\mathrm{P}(\mathrm{x}=x)}. P(y=yx=x)=P(x=x)P(x=x,y=y).
条件概率只在 P ( x = x ) > 0 \mathrm{P}(\mathrm{x}=x)\gt0 P(x=x)>0时有定义。

5. 条件概率的链式法则

  任何多维随机变量的联合概率分布,都可以分解成只有一个变量的条件概率相乘的形式:
P ( x ( 1 ) , ⋯ , x ( n ) ) = P ( x ( 1 ) ) ∏ i = 2 n P ( x ( i ) ∣ x ( 1 ) , ⋯ , x ( i − 1 ) ) . \mathrm{P}(\mathrm{x}^{(1)}, \cdots, \mathrm{x}^{(n)})=P(\mathrm{x}^{(1)})\prod_{i=2}^n \mathrm{P}(\mathrm{x}^{(i)}|\mathrm{x}^{(1)}, \cdots, \mathrm{x}^{(i-1)}). P(x(1),,x(n))=P(x(1))i=2nP(x(i)x(1),,x(i1)).
这个规则称为概率的链式法则,它可以直接从条件概率的定义中得到。
  比如:
P ( a , b , c ) = P ( a ∣ b , c ) P ( b , c ) = P ( a ∣ b , c ) P ( b ∣ c ) P ( c ) . \begin{aligned}\mathrm{P}(\mathrm{a}, \mathrm{b}, \mathrm{c})&=\mathrm{P}(\mathrm{a}|\mathrm{b}, \mathrm{c})\mathrm{P}(\mathrm{b}, \mathrm{c})\\&=\mathrm{P}(\mathrm{a}|\mathrm{b}, \mathrm{c})\mathrm{P}(\mathrm{b}|\mathrm{c})\mathrm{P}(\mathrm{c}). \end{aligned} P(a,b,c)=P(ab,c)P(b,c)=P(ab,c)P(bc)P(c).

6. 独立性和条件独立性

  两个随机变量 x \mathrm{x} x y \mathrm{y} y,如果它们的概率分布可以表示为两个因子的乘积形式,并且一个因子只包含 x \mathrm{x} x,另一个因子只包含 y \mathrm{y} y,则称这两个随机变量是相互独立的:
∀ x ∈ x , y ∈ y , p ( x = x , y = y ) = p ( x = x ) p ( y = y ) . \forall x\in \mathrm{x}, y\in \mathrm{y}, \mathrm{p}(\mathrm{x}=x, \mathrm{y}=y)=\mathrm{p}(\mathrm{x}=x)\mathrm{p}(\mathrm{y}=y). xx,yy,p(x=x,y=y)=p(x=x)p(y=y).
  如果关于 x \mathrm{x} x y \mathrm{y} y的条件概率分布对于 z \mathrm{z} z的每一个值都可以写成乘积的形式,那么这两个随机变量 x \mathrm{x} x y \mathrm{y} y在给定随机变量 z \mathrm{z} z时是条件独立的:
∀ x ∈ x , y ∈ y , z ∈ z , p ( x = x , y = y ∣ z = z ) = p ( x = x ∣ z = z ) p ( y = y ∣ z = z ) . \forall x\in \mathrm{x}, y\in \mathrm{y}, z\in \mathrm{z}, \mathrm{p}(\mathrm{x}=x, \mathrm{y}=y| \mathrm{z}=z)=\mathrm{p}(\mathrm{x}=x|\mathrm{z}=z)\mathrm{p}(\mathrm{y}=y|\mathrm{z}=z). xx,yy,zz,p(x=x,y=yz=z)=p(x=xz=z)p(y=yz=z).
   x ⊥ y \mathrm{x}\perp \mathrm{y} xy表示 x \mathrm{x} x y \mathrm{y} y相互独立, x ⊥ y ∣ z \mathrm{x}\perp \mathrm{y}|\mathrm{z} xyz表示 x \mathrm{x} x y \mathrm{y} y在给定 z \mathrm{z} z时条件独立。

7. 期望、方差和协方差

7.1 期望

  函数 f ( x ) f(x) f(x)关于某分布 P ( x ) \mathrm{P}(\mathrm{x}) P(x)的期望或者期望值是指当 x x x P \mathrm{P} P产生, f f f作用于 x x x时, f ( x ) f(x) f(x)的平均值。对于离散型随机变量,期望可以通过求和得到:
E x ∼ P [ f ( x ) ] = ∑ x P ( x ) f ( x ) . E_{x\sim \mathrm{P}}[f(x)]=\sum_{x}\mathrm{P}(x)f(x). ExP[f(x)]=xP(x)f(x).
  对于连续型随机变量,期望可以通过积分得到:
E x ∼ p [ f ( x ) ] = ∫ p ( x ) f ( x ) d x . E_{x\sim \mathrm{p}}[f(x)]=\int \mathrm{p}(x)f(x)dx. Exp[f(x)]=p(x)f(x)dx.
  期望是线性的: E x [ α f ( x ) + β g ( x ) ] = α E x [ f ( x ) ] + β E x [ g ( x ) ] . E_{\mathrm{x}}[\alpha f(x)+\beta g(x)]=\alpha E_{\mathrm{x}}[f(x)]+\beta E_{\mathrm{x}}[g(x)]. Ex[αf(x)+βg(x)]=αEx[f(x)]+βEx[g(x)].

7.2 方差

  方差衡量的是对 x x x依据它的概率分布进行采样时,随机变量 x \mathrm{x} x的函数值会呈现多大的差异:
V a r ( f ( x ) ) = E [ ( f ( x ) − E [ f ( x ) ] ) 2 ] = E [ f 2 ( x ) ] − 2 E [ f ( x ) E [ f ( x ) ] ] + E [ E 2 [ f ( x ) ] ] = E [ f 2 ( x ) ] − 2 E 2 [ f ( x ) ] + E 2 [ f ( x ) ] = E [ f 2 ( x ) ] − E 2 [ f ( x ) ] \begin{aligned}Var(f(x))&=E[(f(x)-E[f(x)])^2]\\ &=E[f^2(x)]-2E[f(x)E[f(x)]]+E[E^2[f(x)]]\\ &=E[f^2(x)]-2E^2[f(x)]+E^2[f(x)]\\ &=E[f^2(x)]-E^2[f(x)]\end{aligned} Var(f(x))=E[(f(x)E[f(x)])2]=E[f2(x)]2E[f(x)E[f(x)]]+E[E2[f(x)]]=E[f2(x)]2E2[f(x)]+E2[f(x)]=E[f2(x)]E2[f(x)]
当方差很小时, f ( x ) f(x) f(x)的值形成的簇比较接近它们的期望值。方差的平方根被称为标准差。

7.3 协方差

  协方差在某种意义上给出了两个变量线性相关性的强度以及这些变量的尺度:
C o v ( f ( x ) , g ( y ) ) = E [ ( f ( x ) − E [ f ( x ) ] ) ( g ( y ) − E [ g ( y ) ] ) ] = E [ f ( x ) g ( y ) − E [ f ( x ) ] g ( y ) − E [ g ( y ) ] f ( x ) + E [ f ( x ) ] E [ g ( y ) ] ] = E [ f ( x ) g ( y ) ] − 2 E [ f ( x ) ] E [ g ( y ) ] + E [ f ( x ) ] E [ g ( y ) ] = E [ f ( x ) g ( y ) ] − E [ f ( x ) ] E [ g ( y ) ] \begin{aligned}Cov(f(x), g(y))&=E[(f(x)-E[f(x)])(g(y)-E[g(y)])]\\ &=E[f(x)g(y)-E[f(x)]g(y)-E[g(y)]f(x)+E[f(x)]E[g(y)]]\\ &=E[f(x)g(y)]-2E[f(x)]E[g(y)]+E[f(x)]E[g(y)]\\ &=E[f(x)g(y)]-E[f(x)]E[g(y)]\end{aligned} Cov(f(x),g(y))=E[(f(x)E[f(x)])(g(y)E[g(y)])]=E[f(x)g(y)E[f(x)]g(y)E[g(y)]f(x)+E[f(x)]E[g(y)]]=E[f(x)g(y)]2E[f(x)]E[g(y)]+E[f(x)]E[g(y)]=E[f(x)g(y)]E[f(x)]E[g(y)]
协方差的绝对值如果很大,则意味着变量值变化很大,并且它们同时距离各自的均值很远。如果协方差是正的,那么两个变量都倾向于同时取得相对较大的值;如果协方差是负的,那么其中一个变量倾向于取得相对较大的值的同时,另一个变量倾向于取得相对较小的值。
  协方差和相关性是有联系的,如果两个变量相互独立,那么它们的协方差为零;如果两个变量的协方差不为零,那么它们一定是相关的。
  如果两个变量的协方差为零,它们之间一定没有线性关系。
  随机向量 x ∈ R n x\in \mathbb{R}^n xRn的协方差矩阵是一个 n × n n\times n n×n的矩阵,并且满足 C o v ( x ) i , j = C o v ( x i , x j ) Cov(x)_{i, j}=Cov(x_i, x_j) Cov(x)i,j=Cov(xi,xj),该矩阵的对角元是方差: C o v ( x i , x i ) = V a r ( x i ) Cov(x_i, x_i)=Var(x_i) Cov(xi,xi)=Var(xi)

8. 常用概率分布

8.1 均匀分布 U ( a , b ) U(a, b) U(a,b)

  实数区间上的均匀分布 U ( a , b ) U(a, b) U(a,b),其中 a a a b b b是区间的端点且满足 b > a b\gt a b>a,均匀分布的概率密度函数为:
u ( x ; a , b ) = { 0 , x ∉ [ a , b ] 1 b − a , x ∈ [ a , b ] . \begin{aligned}u(x;a, b)=\left\{\begin{aligned}0\quad, &x\notin [a, b]\\ \frac{1}{b-a},&x\in [a, b].\end{aligned}\right.\end{aligned} u(x;a,b)= 0,ba1,x/[a,b]x[a,b].
  期望:
E ( x ) = ∫ a b x b − a d x = x 2 2 ( b − a ) ∣ a b = b 2 − a 2 2 ( b − a ) = a + b 2 . \begin{aligned}E(x)&=\int_a^b \frac{x}{b-a}dx =\left.\frac{x^2}{2(b-a)}\right|_a^b=\frac{b^2-a^2}{2(b-a)}=\frac{a+b}{2}.\end{aligned} E(x)=abbaxdx=2(ba)x2 ab=2(ba)b2a2=2a+b.
  方差:
V a r ( x ) = E ( x 2 ) − E 2 ( x ) = ∫ a b x 2 b − a d x − ( a + b ) 2 4 = x 3 3 ( b − a ) ∣ a b − ( a + b ) 2 4 = b 3 − a 3 3 ( b − a ) − ( a + b ) 2 4 = b 2 + a b + a 2 3 − a 2 + 2 a b + b 2 4 = 4 b 2 + 4 a b + 4 a 2 − 3 a 2 − 6 a b − 3 b 2 12 = a 2 − 2 a b + b 2 12 = ( a − b ) 2 12 \begin{aligned}Var(x)&=E(x^2)-E^2(x)\\ &=\int_a^b \frac{x^2}{b-a}dx-\frac{(a+b)^2}{4}\\ &=\left. \frac{x^3}{3(b-a)}\right|_a^b-\frac{(a+b)^2}{4}\\ &=\frac{b^3-a^3}{3(b-a)}-\frac{(a+b)^2}{4}\\ &=\frac{b^2+ab+a^2}{3}-\frac{a^2+2ab+b^2}{4}\\ &=\frac{4b^2+4ab+4a^2-3a^2-6ab-3b^2}{12}\\ &=\frac{a^2-2ab+b^2}{12}=\frac{(a-b)^2}{12}\end{aligned} Var(x)=E(x2)E2(x)=abbax2dx4(a+b)2=3(ba)x3 ab4(a+b)2=3(ba)b3a34(a+b)2=3b2+ab+a24a2+2ab+b2=124b2+4ab+4a23a26ab3b2=12a22ab+b2=12(ab)2

8.2 Bernoulli分布

  Bernoulli分布是单个二值随机变量的分布,它由单个参数 ψ ∈ [ 0 , 1 ] \psi\in[0,1] ψ[0,1]控制, ψ \psi ψ给出了随机变量等于1的概率,它的概率质量函数为:
P ( x = x ) = ψ x ( 1 − ψ ) 1 − x = { 1 − ψ , x = 0 ψ , x = 1. \begin{aligned}\mathrm{P(x}=x)=\psi^x(1-\psi)^{1-x}=\left\{\begin{aligned}1-\psi,&x=0\\ \psi\quad,&x=1.\end{aligned}\right.\end{aligned} P(x=x)=ψx(1ψ)1x={1ψ,ψ,x=0x=1.
  期望:
E ( x ) = 0 × ( 1 − ψ ) + 1 × ψ = ψ . E(\mathrm{x})=0\times(1-\psi)+1\times \psi=\psi. E(x)=0×(1ψ)+1×ψ=ψ.
  方差:
V a r ( x ) = E ( x 2 ) − E 2 ( x ) = ψ − ψ 2 = ψ ( 1 − ψ ) . Var(x)=E(x^2)-E^2(x)=\psi-\psi^2=\psi(1-\psi). Var(x)=E(x2)E2(x)=ψψ2=ψ(1ψ).

8.3 Multinoulli分布

  Multinoulli分布是指在具有 k k k个不同状态的单个离散型随机变量上的分布,其中 k k k是一个有限值。Multinoulli分布由向量 p ∈ [ 0 , 1 ] k − 1 p\in[0, 1]^{k-1} p[0,1]k1参数化,其中每一个分量 p i p_i pi表示第 i i i个状态的概率,最后第 k k k个状态的概率可以通过 1 − ∑ i = 1 k p i \displaystyle1-\sum_{i=1}^kp_i 1i=1kpi给出,其中 ∑ i = 1 k p i ≤ 1 \displaystyle\sum_{i=1}^kp_i\le1 i=1kpi1
  Multinoulli分布经常用来表示对象分类的分布,因此通常不需要计算该分布的期望和方差。

8.4 高斯分布(正态分布) N ( x ; μ , σ 2 ) N(x;\mu,\sigma^2) N(x;μ,σ2)

  高斯分布的概率密度函数为:
N ( x ; μ , σ 2 ) = 1 2 π σ 2 e x p ( − ( x − μ ) 2 2 σ 2 ) . N(x;\mu,\sigma^2)=\sqrt{\frac{1}{2\pi\sigma^2}}exp\left(-\frac{(x-\mu)^2}{2\sigma^2}\right). N(x;μ,σ2)=2πσ21 exp(2σ2(xμ)2).
  高斯分布的概率密度函数如下图所示。高斯分布由两个参数控制, μ ∈ R \mu\in \mathbb{R} μR σ ∈ ( 0 , ∞ ) \sigma\in(0, \infty) σ(0,),概率密度函数的峰值在 x = μ x=\mu x=μ处取到。
  另一种更高效的参数化分布的方式是使用 β ∈ ( 0 , ∞ ) \beta\in(0, \infty) β(0,)来控制分布的精度:
N ( x ; μ , β − 1 ) = β 2 π e x p ( − β 2 ( x − μ ) 2 ) N(x;\mu,\beta^{-1})=\sqrt{\frac{\beta}{2\pi}}exp\left(-\frac{\beta}{2}(x-\mu)^2\right) N(x;μ,β1)=2πβ exp(2β(xμ)2)
在这里插入图片描述
  期望:
E ( x ) = ∫ − ∞ ∞ 1 2 π σ 2 e x p ( − ( x − μ ) 2 2 σ 2 ) x d x = ∫ − ∞ ∞ 1 2 π σ 2 e x p ( − y 2 2 ) ( μ + σ y ) σ d y ( 换元 y = x − μ σ ) = ∫ − ∞ ∞ 1 2 π e x p ( − y 2 2 ) ( μ + σ y ) d y = σ ∫ − ∞ ∞ y 1 2 π e x p ( − y 2 2 ) d y + μ ∫ − ∞ ∞ 1 2 π e x p ( − y 2 2 ) d y \begin{aligned}E(x)&=\int_{-\infty}^{\infty}\sqrt{\frac{1}{2\pi\sigma^2}}exp\left(-\frac{(x-\mu)^2}{2\sigma^2}\right)xdx\\ &=\int_{-\infty}^{\infty}\sqrt{\frac{1}{2\pi\sigma^2}}exp\left(-\frac{y^2}{2}\right)(\mu+\sigma y)\sigma dy(换元y=\frac{x-\mu}{\sigma})\\ &=\int_{-\infty}^{\infty}\sqrt{\frac{1}{2\pi}}exp\left(-\frac{y^2}{2}\right)(\mu+\sigma y)dy\\ &=\sigma\int_{-\infty}^{\infty}y\sqrt{\frac{1}{2\pi}}exp\left(-\frac{y^2}{2}\right)dy+\mu\int_{-\infty}^{\infty}\sqrt{\frac{1}{2\pi}}exp\left(-\frac{y^2}{2}\right)dy\end{aligned} E(x)=2πσ21 exp(2σ2(xμ)2)xdx=2πσ21 exp(2y2)(μ+σy)σdy(换元y=σxμ)=2π1 exp(2y2)(μ+σy)dy=σy2π1 exp(2y2)dy+μ2π1 exp(2y2)dy
其中 ∫ − ∞ ∞ y 1 2 π e x p ( − y 2 2 ) d y \displaystyle\int_{-\infty}^{\infty}y\sqrt{\frac{1}{2\pi}}exp(-\frac{y^2}{2})dy y2π1 exp(2y2)dy是奇函数在对称区间上的积分,结果为0, ∫ − ∞ ∞ 1 2 π e x p ( − y 2 2 ) d y \displaystyle\int_{-\infty}^{\infty}\sqrt{\frac{1}{2\pi}}exp(-\frac{y^2}{2})dy 2π1 exp(2y2)dy是标准正态分布 N ( x ; 0 , 1 ) N(x;0,1) N(x;0,1)的总概率,结果为1。因此期望 E ( x ) = σ × 0 + μ × 1 = μ . E(x)=\sigma\times0+\mu\times1=\mu. E(x)=σ×0+μ×1=μ.
  方差:
V a r ( x ) = E [ ( x − E ( x ) ) 2 ] = E [ ( x − μ ) 2 ] = ∫ − ∞ ∞ 1 2 π σ 2 e x p ( − ( x − μ ) 2 2 σ 2 ) ( x − μ ) 2 d x = ∫ − ∞ ∞ 1 2 π e x p ( − y 2 2 ) σ 2 y 2 d y ( 换元 y = x − μ σ ) = σ 2 1 2 π ∫ − ∞ ∞ y 2 e x p ( − y 2 2 ) d y . 令 I = ∫ − ∞ ∞ y 2 e x p ( − y 2 2 ) d y I 2 = ( ∫ − ∞ ∞ y 2 e x p ( − y 2 2 ) d y ) 2 = ∫ − ∞ ∞ y 1 2 e x p ( − y 1 2 2 ) d y 1 ∫ − ∞ ∞ y 2 2 e x p ( − y 2 2 2 ) d y 2 = ∫ − ∞ ∞ ∫ − ∞ ∞ y 1 2 y 2 2 e x p ( − y 1 2 + y 2 2 2 ) d y 1 d y 2 = ∫ 0 2 π ∫ 0 ∞ r 4 c o s 2 ( θ ) s i n 2 ( θ ) e x p ( − r 2 2 ) r d r d θ ( 换元 y 1 = r c o s ( θ ) , y 2 = r s i n ( θ ) ) = ∫ 0 2 π ∫ 0 − ∞ − c o s 2 ( θ ) s i n 2 ( θ ) 4 x 2 e x p ( x ) d x d θ ( 换元 x = − r 2 2 ) = ∫ 0 2 π c o s 2 ( θ ) s i n 2 ( θ ) d θ ∫ − ∞ 0 4 x 2 e x p ( x ) d x = ∫ 0 2 π s i n 2 ( θ ) − s i n 4 ( θ ) d θ ( 点火公式 ) × 4 ( x 2 − 2 x + 2 ) e x ∣ − ∞ 0 = 4 × ( 1 2 × π 2 − 3 4 × 1 2 × π 2 ) × 8 = 2 π . V a r ( x ) = σ 2 1 2 π I = σ 2 1 2 π 2 π = σ 2 . \begin{aligned}Var(x)&=E[(x-E(x))^2]\\ &=E[(x-\mu)^2]\\ &=\int_{-\infty}^{\infty}\sqrt{\frac{1}{2\pi\sigma^2}}exp\left(-\frac{(x-\mu)^2}{2\sigma^2}\right)(x-\mu)^2dx\\ &=\int_{-\infty}^{\infty}\sqrt{\frac{1}{2\pi}}exp\left(-\frac{y^2}{2}\right)\sigma^2y^2dy(换元y=\frac{x-\mu}{\sigma})\\ &=\sigma^2\sqrt{\frac{1}{2\pi}}\int_{-\infty}^{\infty}y^2exp\left(-\frac{y^2}{2}\right)dy.\\ 令I&=\int_{-\infty}^{\infty}y^2exp\left(-\frac{y^2}{2}\right)dy\\ I^2&=(\int_{-\infty}^{\infty}y^2exp\left(-\frac{y^2}{2}\right)dy)^2\\ &=\int_{-\infty}^{\infty}y_1^2exp\left(-\frac{y_1^2}{2}\right)dy_1\int_{-\infty}^{\infty}y_2^2exp\left(-\frac{y_2^2}{2}\right)dy_2\\ &=\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}y_1^2y_2^2exp\left(-\frac{y_1^2+y_2^2}{2}\right)dy_1dy_2\\ &=\int_0^{2\pi}\int_0^{\infty} r^4cos^2(\theta)sin^2(\theta)exp\left(-\frac{r^2}{2}\right)rdrd\theta(换元y_1=rcos(\theta),y_2=rsin(\theta))\\ &=\int_0^{2\pi}\int_0^{-\infty}-cos^2(\theta)sin^2(\theta)4x^2exp(x)dxd\theta(换元x=-\frac{r^2}{2})\\ &=\int_0^{2\pi}cos^2(\theta)sin^2(\theta) d\theta\int_{-\infty}^04x^2exp(x)dx\\ &=\int_0^{2\pi} sin^2(\theta)-sin^4(\theta)d\theta(点火公式)\times\left. 4(x^2-2x+2)e^x\right|_{-\infty}^0\\ &=4\times(\frac{1}{2}\times\frac{\pi}{2}-\frac{3}{4}\times\frac{1}{2}\times \frac{\pi}{2})\times8\\ &=2\pi.\\ Var(x)&=\sigma^2\sqrt{\frac{1}{2\pi}}I=\sigma^2\sqrt{\frac{1}{2\pi}}\sqrt{2\pi}=\sigma^2. \end{aligned} Var(x)II2Var(x)=E[(xE(x))2]=E[(xμ)2]=2πσ21 exp(2σ2(xμ)2)(xμ)2dx=2π1 exp(2y2)σ2y2dy(换元y=σxμ)=σ22π1 y2exp(2y2)dy.=y2exp(2y2)dy=(y2exp(2y2)dy)2=y12exp(2y12)dy1y22exp(2y22)dy2=y12y22exp(2y12+y22)dy1dy2=02π0r4cos2(θ)sin2(θ)exp(2r2)rdrdθ(换元y1=rcos(θ),y2=rsin(θ))=02π0cos2(θ)sin2(θ)4x2exp(x)dxdθ(换元x=2r2)=02πcos2(θ)sin2(θ)dθ04x2exp(x)dx=02πsin2(θ)sin4(θ)dθ(点火公式)×4(x22x+2)ex 0=4×(21×2π43×21×2π)×8=2π.=σ22π1 I=σ22π1 2π =σ2.
  采用正态分布在很多应用中都是一个明智的选择:
  1. 我们想要建模的很多分布的真实情况是很接近正态分布的。中心极限定理说明了很多独立随机变量的和近似服从正态分布。
  2. 在具有相同方差的所有可能的概率分布中,正态分布在实数上具有最大的不确定性。因此正态分布是对模型加入的先验知识量最少的分布。

8.5 多维正态分布

  正态分布可以推广到 R n \mathbb{R}^n Rn空间,这种情况下称为多维正态分布,它的参数是一个正定对称矩阵 Σ \Sigma Σ
N ( x ; μ , Σ ) = 1 ( 2 π ) n ∣ Σ ∣ e x p ( − 1 2 ( x − μ ) T Σ − 1 ( x − μ ) ) . N(x;\mu,\Sigma)=\sqrt{\frac{1}{(2\pi)^n|\Sigma|}}exp\left(-\frac{1}{2}(x-\mu)^T\Sigma^{-1}(x-\mu)\right). N(x;μ,Σ)=(2π)n∣Σ∣1 exp(21(xμ)TΣ1(xμ)).
其中参数 μ \mu μ是向量,表示分布的均值, Σ \Sigma Σ是分布的协方差矩阵。
  一个高效化的参数化分布的方式:
N ( x ; μ , β − 1 ) = ∣ β ∣ ( 2 π ) n e x p ( − 1 2 ( x − μ ) T β ( x − μ ) ) . N(x;\mu, \beta^{-1})=\sqrt{\frac{|\beta|}{(2\pi)^n}}exp\left(-\frac{1}{2}(x-\mu)^T\beta(x-\mu)\right). N(x;μ,β1)=(2π)nβ exp(21(xμ)Tβ(xμ)).

8.6 指数分布

  指数分布:
p ( x ; λ ) = λ I ( x ≥ 0 ) e x p ( − λ x ) . \mathrm{p}(x;\lambda)=\lambda I(x\ge0)exp(-\lambda x). p(x;λ)=λI(x0)exp(λx).
其中 I ( x ≥ 0 ) I(x\ge0) I(x0)是指示函数,当 x < 0 x\lt0 x<0时,值为0,否则为1。

8.7 Laplace分布

  Laplace分布:
L a p l a c e ( x ; μ , γ ) = 1 2 γ e x p ( − ∣ x − μ ∣ γ ) . Laplace(x;\mu,\gamma)=\frac{1}{2\gamma}exp(-\frac{|x-\mu|}{\gamma}). Laplace(x;μ,γ)=2γ1exp(γxμ).

8.8 Dirac分布

  Dirac分布:
p ( x ) = δ ( x − μ ) . \mathrm{p}(x)=\delta(x-\mu). p(x)=δ(xμ).
Dirac分布在除了 x = μ x=\mu x=μ以外的所有点的值为0,但是积分为1。

8.9 经验分布

  经验分布:
p ^ ( x ) = 1 m ∑ i = 1 m δ ( x − x ( i ) ) . \mathrm{\hat{p}}(x)=\frac{1}{m}\sum_{i=1}^m\delta(x-x^{(i)}). p^(x)=m1i=1mδ(xx(i)).
经验分布将概率密度 1 m \frac{1}{m} m1赋给 m m m个点 x ( 1 ) x^{(1)} x(1) ⋯ \cdots x ( m ) x^{(m)} x(m)中的每一个,这些点是给定的数据集或者采样的集合。只有在定义连续型随机变量的经验分布时, δ ( x ) \delta(x) δ(x)是必要的;对于离散型随机变量,经验分布可以被定义为一个Multinoulli分布,对于每一个可能的输入,其概率可以简单地设为在训练集上那个输入值的经验频率。

9. 贝叶斯规则

P ( x y ) = P ( x ∣ y ) P ( y ) = P ( y ∣ x ) P ( x ) \mathrm{P(xy)}=\mathrm{P(x|y)P(y)}=\mathrm{P(y|x)P(x)} P(xy)=P(x∣y)P(y)=P(y∣x)P(x)
  贝叶斯公式:
P ( x ∣ y ) = P ( y ∣ x ) P ( x ) P ( y ) \mathrm{P(x|y)}=\frac{\mathrm{P(y|x)P(x)}}{\mathrm{P(y)}} P(x∣y)=P(y)P(y∣x)P(x)
此外 P ( y ) \mathrm{P(y)} P(y)通常使用 P ( y ) = ∑ x P ( y ∣ x ) P ( x ) \displaystyle\mathrm{P(y)}=\sum_{x}\mathrm{P(y|}x)\mathrm{P(}x) P(y)=xP(y∣x)P(x)来计算。

10. 部分信息论

10.1 自信息和香农熵

  信息论的基本想法是一个不太可能的事情居然发生了,要比一个非常可能的事件发生,能提供更多的信息。我们想要通过这种基本想法来量化信息,特别是:
  1. 非常可能发生的事件信息量要比较少,并且极端情况下,确保能够发生的事件应该没有信息量。
  2. 较不可能发生的事件具有更高的信息量。
  3. 独立事件应具有增量的信息。例如,投掷的硬币两次正面向上传递的信息量,应该是投掷一次硬币正面朝上的信息量的两倍。
  为了满足上述三个性质,定义一个事件 x = x \mathrm{x}=x x=x的自信息为 I ( x ) = − log ⁡ P ( x ) I(x)=-\log\mathrm{P(}x) I(x)=logP(x),其中 log ⁡ \log log表示自然对数。自信息的单位是奈特,1奈特是以 1 e \displaystyle\frac{1}{e} e1的概率观测到一个事件时获得的信息量。
  当 x \mathrm{x} x是连续的,我们使用类似的关于信息的定义,但是有些来源于离散形式的性质就丢失了。例如,一个具有单位密度的事件信息量仍然为零,但是不能保证它一定发生。
  自信息只处理单个的输出。可以用香农熵来对整个概率分布中的不确定性总量进行量化:
H ( x ) = E x ∼ P [ I ( x ) ] = − E x ∼ P [ log ⁡ P ( x ) ] . H(\mathrm{x})=E_{\mathrm{x\sim P}}[I(x)]=-E_{\mathrm{x\sim P}}[\log \mathrm{P}(x)]. H(x)=ExP[I(x)]=ExP[logP(x)].
也记作 H ( P ) H(\mathrm{P}) H(P)。一个分布的香农熵是指遵循这个分布的事件所产生的期望信息总量。它给出了对依据概率分布 P \mathrm{P} P生成的符号进行编码所需的比特数在平均意义上的下界( log ⁡ 是以 2 为底时,单位为比特 \log是以2为底时,单位为比特 log是以2为底时,单位为比特)。那些接近确定性的分布具有较低的墒;那些接近均匀分布的概率分布具有较高的墒。当 x \mathrm{x} x是连续的,香农熵称为微分墒。
  计算Bernoulli分布的香农熵:
H ( P ) = − E [ log ⁡ P ( x ) ] = − E [ l o g ( ψ x ( 1 − ψ ) 1 − x ) ] = − E [ x log ⁡ ψ + ( 1 − x ) log ⁡ ( 1 − ψ ) ] = − E ( x ) log ⁡ ψ − ( 1 − E ( x ) ) log ⁡ ( 1 − ψ ) = − ψ log ⁡ ψ − ( 1 − ψ ) log ⁡ ( 1 − ψ ) . \begin{aligned}H(\mathrm{P})&=-E[\log \mathrm{P}(x)]\\ &=-E[log(\psi^x(1-\psi)^{1-x})]\\ &=-E[x\log\psi+(1-x)\log(1-\psi)]\\ &=-E(x)\log\psi-(1-E(x))\log(1-\psi)\\ &=-\psi\log\psi-(1-\psi)\log(1-\psi)\end{aligned}. H(P)=E[logP(x)]=E[log(ψx(1ψ)1x)]=E[xlogψ+(1x)log(1ψ)]=E(x)logψ(1E(x))log(1ψ)=ψlogψ(1ψ)log(1ψ).
  下图中水平轴是 x x x,表示二值随机变量等于1的概率,当 x x x接近0时,分布几乎是确定的,因为随机变量总等于0;当 x x x接近1时,分布也几乎是确定的,因为随机变量总等于1;当 x = 0.5 x=0.5 x=0.5时,熵是最大的,因为分布在两个结果上是均匀的。
在这里插入图片描述

10.2 KL散度和交叉墒

  如果对于同一个随机变量 x \mathrm{x} x有两个单独的概率分布 P ( x ) \mathrm{P(x)} P(x) Q ( x ) \mathrm{Q(x)} Q(x),可以使用KL散度来衡量两个分布的差异:
D K L ( P ∣ ∣ Q ) = E x ∼ P [ log ⁡ P ( x ) Q ( x ) ] = E x ∼ P [ log ⁡ P ( x ) − log ⁡ Q ( x ) ] . D_{KL}(\mathrm{P||Q})=E_{\mathrm{x\sim P}}[\log \frac{\mathrm{P(}x)}{\mathrm{Q(}x)}]=E_{\mathrm{x\sim P}}[\log \mathrm{P(}x)-\log \mathrm{Q(}x)]. DKL(P∣∣Q)=ExP[logQ(x)P(x)]=ExP[logP(x)logQ(x)].
  在离散型变量的情况下,KL散度衡量的是,当我们使用一种被设计成能够使得概率分布 Q \mathrm{Q} Q产生的消息的长度最小的编码,发送包含由概率分布 P \mathrm{P} P产生的符号的信息时,所需要的额外信息量。
  性质:
  1. 非负性。
  2. KL散度等于0,当且仅当 P \mathrm{P} P Q \mathrm{Q} Q在离散型变量的情况下是相同的分布,或在连续型变量的情况下是“几乎处处”相同的。
  3. 不对称性: D K L ( P ∣ ∣ Q ) ≠ D K L ( Q ∣ ∣ P ) D_{KL}(\mathrm{P||Q})\ne D_{KL}(\mathrm{Q||P}) DKL(P∣∣Q)=DKL(Q∣∣P)
  一个和KL散度密切联系的量是交叉熵:
H ( P , Q ) = H ( P ) + D K L ( P ∣ ∣ Q ) = − E x ∼ P [ log ⁡ Q ( x ) ] . H(\mathrm{P, Q})=H(\mathrm{P})+D_{KL}(\mathrm{P||Q})=-E_{\mathrm{x\sim P}}[\log \mathrm{Q(}x)]. H(P,Q)=H(P)+DKL(P∣∣Q)=ExP[logQ(x)].
针对 Q \mathrm{Q} Q最小化交叉熵等于最小化KL散度。
  当计算时,遇到 0 log ⁡ 0 0\log0 0log0处理为 lim ⁡ x → 0 x log ⁡ x = 0 \lim\limits_{x\rightarrow 0}x\log x=0 x0limxlogx=0

参考

[美]伊恩·古德费洛(lan Goodfellow)[加]约书亚·本吉奥(Yoshua Bengio)[加]亚伦·库维尔(Aaron Courville) 深度学习(中文翻译版)

相关文章:

机器学习的数学基础(三)——概率与信息论

目录 1. 随机变量2. 概率分布2.1 离散型变量和概率质量函数2.2 连续型变量和概率密度函数 3. 边缘概率4. 条件概率5. 条件概率的链式法则6. 独立性和条件独立性7. 期望、方差和协方差7.1 期望7.2 方差7.3 协方差 8. 常用概率分布8.1 均匀分布 U ( a , b ) U(a, b) U(a,b)8.2 Be…...

使用Docker Desktop部署GitLab

1. 环境准备 确保Windows 10/11系统支持虚拟化技术&#xff08;需在BIOS中开启Intel VT-x/AMD-V&#xff09;内存建议≥8GB&#xff0c;存储空间≥100GB 2. 安装Docker Desktop 访问Docker官网下载安装包安装时勾选"Use WSL 2 instead of Hyper-V"&#xff08;推荐…...

推理模型时代:大语言模型如何从对话走向深度思考?

一、对话模型和推理模型的区别概述 对话模型是专门用于问答交互的语言模型,符合人类的聊天方式,返回的内容可能仅仅只是一个简短的答案,一般模型名称后面会带有「chat」字样。 推理模型是比较新的产物,没有明确的定义,一般是指输出过程中带有<think>和</think&…...

GESP2024年3月认证C++七级( 第三部分编程题(1)交流问题)

参考程序&#xff1a; #include <iostream> #include <vector> #include <unordered_map> using namespace std;// 深度优先搜索&#xff0c;给每个节点染色&#xff0c;交替染色以模拟两校同学的划分 void dfs(vector<vector<int>>& graph…...

DeepSeek:AI商业化的新引擎与未来蓝图

摘要 在人工智能迅猛发展的浪潮中&#xff0c;DeepSeek以其卓越的技术实力和高超的商业化能力崭露头角。作为一款现象级AI产品&#xff0c;它不仅在算法性能上位居行业前列&#xff0c;还通过灵活的定制解决方案渗透到金融、医疗、零售等多个领域。DeepSeek以创新的商业模式和场…...

2025年度福建省职业院校技能大赛中职组“网络建设与运维”赛项规程模块三

模块三&#xff1a;服务搭建与运维 任务描述&#xff1a; 随着信息技术的快速发展&#xff0c;集团计划把部分业务由原有的 X86 服 务器上迁移到ARM 架构服务器上&#xff0c;同时根据目前的部分业务需求进行 了部分调整和优化。 一、X86 架构计算机操作系统安装与管理 1&…...

Python----数据结构(队列,顺序队列,链式队列,双端队列)

一、队列 1.1、概念 队列(Queue)&#xff1a;也是一种基本的数据结构&#xff0c;在队列中的插入和删除都遵循先进先出&#xff08;First in First out&#xff0c;FIFO&#xff09;的原则。元素可以在任何时刻从队尾插入&#xff0c;但是只有在队列最前面 的元素才能被取出或…...

【自学笔记】Spring Boot框架技术基础知识点总览-持续更新

提示&#xff1a;文章写完后&#xff0c;目录可以自动生成&#xff0c;如何生成可参考右边的帮助文档 文章目录 Spring Boot框架技术基础知识点总览一、Spring Boot简介1.1 什么是Spring Boot&#xff1f;1.2 Spring Boot的主要特性 二、Spring Boot快速入门2.1 搭建Spring Boo…...

神经网络剪枝技术的重大突破:sGLP-IB与sTLP-IB

神经网络剪枝技术的重大突破:sGLP-IB与sTLP-IB 在人工智能飞速发展的今天,深度学习技术已经成为推动计算机视觉、自然语言处理等领域的核心力量。然而,随着模型规模的不断膨胀,如何在有限的计算资源和存储条件下高效部署这些复杂的神经网络模型,成为了研究者们亟待解决的…...

Django-Vue 学习-VUE

主组件中有多个Vue组件 是指在Vue.js框架中&#xff0c;主组件是一个父组件&#xff0c;它包含了多个子组件&#xff08;Vue组件&#xff09;。这种组件嵌套的方式可以用于构建复杂的前端应用程序&#xff0c;通过拆分功能和视图&#xff0c;使代码更加模块化、可复用和易于维…...

【Gin】2:快速上手Gin框架(模版、cookie、session)

本文目录 一、模版渲染二、自定义模版函数三、cookie四、Session五、cookie、session区别六、会话攻击 一、模版渲染 在 Gin 框架中&#xff0c;模板主要用于动态生成 HTML 页面&#xff0c;结合 Go 语言的模板引擎功能&#xff0c;实现数据与视图的分离。 模板渲染是一种动态…...

Linux修改主机名称

hostnamectl set-hostname 主机名称 exit 退出登录重新进入即可...

亲测Windows部署Ollama+WebUI可视化

一. Ollama下载 登录Ollama官网(Ollama)点击Download进行下载 如果下载很慢可用以下地址下载&#xff1a; https://github.com/ollama/ollama/releases/download/v0.5.7/OllamaSetup.exe 在DeepSeek官网上&#xff0c;你可以直接点击【model】 到达这个界面之后&#xff0c;…...

Java四大框架深度剖析:MyBatis、Spring、SpringMVC与SpringBoot

目录 前言&#xff1a; 一、MyBatis框架 1. 概述 2. 核心特性 3. 应用场景 4. 示例代码 二、Spring框架 1. 概述 2. 核心模块 3. 应用场景 4. 示例代码 三、SpringMVC框架 1. 概述 2. 核心特性 3. 应用场景 4. 示例代码 四、SpringBoot框架 1. 概述 2. 核心…...

ubuntu部署小笔记-采坑

ubuntu部署小笔记 搭建前端控制端后端前端nginx反向代理使用ubuntu部署nextjs项目问题一 如何访问端口号配置后台运行该进程pm2 问题二 包体过大生产环境下所需文件 问题三 部署在vercel时出现的问题需要魔法访问后端api时&#xff0c;必须使用https协议电脑端访问正常&#xf…...

23. AI-大语言模型-DeepSeek简介

文章目录 前言一、DeepSeek是什么1. 简介2. 产品版本1. 类型2. 版本3. 参数规模与模型能力 3. 特征4. 三种访问方式1. 网页端和APP2. DeepSeek API 二、DeepSeek可以做什么1. 应用场景2. 文本生成1. 文本创作2. 摘要与改写3. 结构化生成 3. 自然语言理解与分析1. 语义分析2. 文…...

基于SpringBoot的智慧家政服务平台系统设计与实现的设计与实现(源码+SQL脚本+LW+部署讲解等)

专注于大学生项目实战开发,讲解,毕业答疑辅导&#xff0c;欢迎高校老师/同行前辈交流合作✌。 技术范围&#xff1a;SpringBoot、Vue、SSM、HLMT、小程序、Jsp、PHP、Nodejs、Python、爬虫、数据可视化、安卓app、大数据、物联网、机器学习等设计与开发。 主要内容&#xff1a;…...

Java NIO与传统IO性能对比分析

Java NIO与传统IO性能对比分析 在Java中&#xff0c;I/O&#xff08;输入输出&#xff09;操作是开发中最常见的任务之一。传统的I/O方式基于阻塞模型&#xff0c;而Java NIO&#xff08;New I/O&#xff09;引入了非阻塞和基于通道&#xff08;Channel&#xff09;和缓冲区&a…...

基于YOLO11深度学习的果园苹果检测与计数系统设计与实现【python源码+Pyqt5界面+数据集+训练代码】

《------往期经典推荐------》 一、AI应用软件开发实战专栏【链接】 项目名称项目名称1.【人脸识别与管理系统开发】2.【车牌识别与自动收费管理系统开发】3.【手势识别系统开发】4.【人脸面部活体检测系统开发】5.【图片风格快速迁移软件开发】6.【人脸表表情识别系统】7.【…...

基于SpringBoot畅购行汽车购票系统

作者简介&#xff1a;✌CSDN新星计划导师、Java领域优质创作者、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和学生毕业项目实战,高校老师/讲师/同行前辈交流。✌ 主要内容&#xff1a;&#x1f31f;Java项目、Python项目、前端项目、PHP、ASP.NET、人工智能…...

基于 Spring Boot + 微信小程序的短文写作竞赛管理系统设计与实现(源码+文档)

大家好&#xff0c;今天要和大家聊的是一款基于 Spring Boot 微信小程序的“短文写作竞赛管理系统”的设计与实现。项目源码以及部署相关事宜请联系我&#xff0c;文末附上联系方式。 项目简介 基于 Spring Boot 微信小程序的“短文写作竞赛管理系统”设计与实现的主要使用…...

pytest运行用例的常见方式及参数

标题pytest运行用例方式及参数 用例结构目录 “”" 在最外层目录下执行所有的用例 参数说明&#xff1a; -s:显示用例的打印信息 -v:显示用例执行的详细信息 –alluredir:指定allure报告的路径 –clean-alluredir:清除allure报告的路径 -n:指定并发的进程数 -x:出现一条用…...

Miniconda + VSCode 的Python环境搭建

目录&#xff1a; 安装 VScode 安装 miniconda 在VScode 使用conda虚拟环境 运行Python程序 1.安装 vscode 编辑器 官网链接&#xff1a;Visual Studio Code - Code Editing. Redefined 下载得到&#xff1a;&#xff0c;双击安装。 安装成功…...

图解MySQL【日志】——Redo Log

Redo Log&#xff08;重做日志&#xff09; 为什么需要 Redo Log&#xff1f; 1. 崩溃恢复 数据库崩溃时&#xff0c;系统通过 Redo Log 来恢复尚未写入磁盘的数据。Redo Log 记录了所有已提交事务的操作&#xff0c;系统在重启后会重做这些操作&#xff0c;以保证数据不会丢…...

Trae AI驱动开发实战:30分钟从0到1实现Django REST天气服务

目录 一、Trae 安装 1、Trae 介绍 2、Trae 安装 二、项目构建 1、项目背景与技术选型 2、开发环境准备 三、需求分析 1、功能模块设计 2、数据库设计 四、功能实现 1、用户系统开发 2、天气服务实现 3、测试用例编写 五、Trae 体验总结 随着人工智能技术的迅猛发…...

【Linux网络编程】IP协议格式,解包步骤

目录 解析步骤 1.版本字段&#xff08;大小&#xff1a;4比特位&#xff09; 2.首部长度&#xff08;大小&#xff1a;4比特位&#xff09;&#xff08;单位&#xff1a;4字节&#xff09; &#x1f35c;细节解释&#xff1a; 3.服务类型&#xff08;大小&#xff1a;8比特…...

中诺CHINO-E G076大容量录音电话产品使用注意事项

•本机需插上随机配置的电源适配器才能正常工作&#xff0c;切勿插入其它的适配器&#xff0c;以免损坏话机&#xff1b; •当本机出现异常时&#xff0c;请按“Δ/上查”键3秒&#xff0c;屏幕弹出确定恢复&#xff0c;按“设置”键恢复出厂设置&#xff1b; 注&#xff1a;…...

2025最新智能优化算法:改进型雪雁算法(Improved Snow Geese Algorithm, ISGA)求解23个经典函数测试集,MATLAB

一、改进型雪雁算法 雪雁算法&#xff08;Snow Geese Algorithm&#xff0c;SGA&#xff09;是2024年提出的一种新型元启发式算法&#xff0c;其灵感来源于雪雁的迁徙行为&#xff0c;特别是它们在迁徙过程中形成的独特“人字形”和“直线”飞行模式。该算法通过模拟雪雁的飞行…...

✨ 索引有哪些缺点以及具体有哪些索引类型

索引的定义与原理 索引是数据库中用于提高数据检索效率的数据结构。它就像是书籍的目录&#xff0c;通过目录可以快速定位到所需内容的页码&#xff0c;而在数据库中&#xff0c;索引可以帮助数据库系统快速找到符合查询条件的数据行&#xff0c;而不必对整个表进行扫描。 其…...

Promptic:Python 中的 LLM 应用开发利器

Promptic 是一个基于 Python 的轻量级库,旨在简化与大型语言模型(LLMs)的交互。它通过提供简洁的装饰器 API 和强大的功能,帮助开发者高效地构建 LLM 应用程序。Promptic 的设计理念是提供 90% 的 LLM 应用开发所需功能,同时保持代码的简洁和易用性。 1. Promptic 的核心…...

本地部署DeepSeek R1大模型

一、安装软件 1.1 安装Ollama 你可以访问Ollama的官方网站https://ollama.com/download&#xff0c;选择适合你操作系统的安装包进行下载。老周这里是Mac系统&#xff0c;所以选择下载macOS系统。 1.2 安装cherry studio 前往官网https://cherry-ai.com/download下载对应操…...

搅局外卖,京东连出三张牌

明牌暗牌&#xff0c;都不如民牌。 作者|古廿 编辑|杨舟 “京东来整顿外卖了”&#xff0c;这一网络热梗正在成为外界对京东近期一系列动作的高度概括。 0佣金、五险一金、品质外卖&#xff0c;京东连出三张牌打破外卖市场的旧秩序。此前这三项分别对应着长期被社会所诟病的…...

【ELK】【Elasticsearch】数据查询方式

1. 简单查询&#xff08;URI Search&#xff09; 通过 URL 参数直接进行查询&#xff0c;适合简单的搜索场景。 示例&#xff1a; bash 复制 GET /index_name/_search?qfield_name:search_value 说明&#xff1a; index_name&#xff1a;索引名称。 field_name&#xf…...

基于 JavaWeb 的 Spring Boot 网上商城系统设计和实现(源码+文档+部署讲解)

技术范围&#xff1a;SpringBoot、Vue、SSM、HLMT、Jsp、PHP、Nodejs、Python、爬虫、数据可视化、小程序、安卓app、大数据、物联网、机器学习等设计与开发。 主要内容&#xff1a;免费功能设计、开题报告、任务书、中期检查PPT、系统功能实现、代码编写、论文编写和辅导、论…...

C++17中的std::scoped_lock:简化多锁管理的利器

文章目录 1. 为什么需要std::scoped_lock1.1 死锁问题1.2 异常安全性1.3 锁的管理复杂性 2. std::scoped_lock的使用方法2.1 基本语法2.2 支持多种互斥锁类型2.3 自动处理异常 3. std::scoped_lock的优势3.1 避免死锁3.2 简化代码3.3 提供异常安全保证 4. 实际应用场景4.1 数据…...

Linux内核实时机制7 - 实时改造机理 - 软中断优化下

Linux内核实时机制7 - 实时改造机理 - 软中断优化下 https://blog.csdn.net/u010971180/article/details/145722641以下分别以Linux4.19、Linux5.4、Linux5.10、Linux5.15 展开分析,深入社区实时改造机理的软中断优化过程。https://blog.csdn.net/weixin_41028621/article/det…...

计算机网络:应用层 —— 文件传送协议 FTP

文章目录 FTP 是什么&#xff1f;FTP 的应用FTP 的基本工作原理主动模式被动模式 总结 FTP 是什么&#xff1f; 将某台计算机中的文件通过网络传送到可能相很远的另一台计算机中&#xff0c;是一项基本的网络应用&#xff0c;即文件传送。 文件传送协议FTP&#xff08;File T…...

[笔记.AI]如何判断模型是否通过剪枝、量化、蒸馏生成?

以下摘自与DeepSeek-R1在线联网版的对话 一、基础判断维度 技术类型核心特征验证方法剪枝模型参数减少、结构稀疏化1. 检查模型参数量是否显著小于同类标准模型1 2. 分析权重矩阵稀疏性&#xff08;如非零参数占比<30%&#xff09;4量化权重/激活值精度降低、推理速度提升1…...

python: SQLAlchemy (ORM) Simple example using mysql in Ubuntu 24.04

mysql sql script: create table School 表 (SchoolId char(5) NOT NULL comment主鍵primary key&#xff0c;學校編號,SchoolName nvarchar(500) NOT NULL DEFAULT comment 學校名稱,SchoolTelNo varchar(8) NULL DEFAULT comment電話號碼,PRIMARY KEY (SchoolId) #主…...

【前端】【nuxt】nuxt优势(MVP开发),转换SSR与SPA模式

Nuxt.js 核心优势 自动化路由系统 无需手动配置路由&#xff1a;在 pages/ 目录下创建 .vue 文件即可自动生成路由&#xff0c;支持动态路由&#xff08;如 pages/user/[id].vue → /user/:id&#xff09;。嵌套路由&#xff1a;通过 parent.vue parent/child.vue 目录结构自动…...

洛谷B3619(B3620)

B3619 10 进制转 x 进制 - 洛谷 B3620 x 进制转 10 进制 - 洛谷 代码区&#xff1a; #include<algorithm> #include<iostream> #include<vector> using namespace std;int main(){int n,x;cin >> n >> x;vector<char> arry;while(n){if(…...

基于springboot+vue的酒店管理系统的设计与实现

开发语言&#xff1a;Java框架&#xff1a;springbootJDK版本&#xff1a;JDK1.8服务器&#xff1a;tomcat7数据库&#xff1a;mysql 5.7&#xff08;一定要5.7版本&#xff09;数据库工具&#xff1a;Navicat11开发软件&#xff1a;eclipse/myeclipse/ideaMaven包&#xff1a;…...

android调用ffmpeg解析rtsp协议的视频流

文章目录 一、背景二、解析rtsp数据1、C层功能代码2、jni层的定义3、app层的调用 三、源码下载 一、背景 本demo主要介绍android调用ffmpeg中的接口解析rtsp协议的视频流&#xff08;不解析音频&#xff09;&#xff0c;得到yuv数据&#xff0c;把yuv转bitmap在android设备上显…...

cursor使用记录

一、如何查看自己登录的是哪个账号 操作路径&#xff1a;Cursor -- 首选项 -- Cursor Setting &#xff08;有快捷键&#xff09; 二、状态修改为竖排&#xff08;默认是横排&#xff09; 默认如图展示&#xff0c;想要像vscode、idea等等在左侧竖着展示 操作路径&#xff1…...

Java 使用websocket

添加依赖 <!-- WebSocket 支持 --> <dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-websocket</artifactId> </dependency>添加配置类 Configuration public class WebSocketConfig {B…...

蓝桥杯 Java B 组之背包问题、最长递增子序列(LIS)

Day 4&#xff1a;背包问题、最长递增子序列&#xff08;LIS&#xff09; &#x1f4d6; 一、动态规划&#xff08;Dynamic Programming&#xff09;简介 动态规划是一种通过将复杂问题分解成更小的子问题来解决问题的算法设计思想。它主要用于解决具有最优子结构和重叠子问题…...

在PyTorch中使用插值法来优化卷积神经网络(CNN)所需硬件资源

插值法其实就是在已知数据点之间估计未知点的值。通过已知的离散数据点,构造一个连续的曲线函数,预测数据点之间的空缺值是什么并且自动填补上去。 适用场景: 在卷积神经网络(CNN)中的应用场景中,经常遇到计算资源有限,比如显存不够或者处理速度慢,需要用插值来降低计…...

seacmsv9 SQL注入漏洞(报错注入)

一、海洋CMS简介 海洋cms是为解决站长核心需求而设计的视频内容管理系统&#xff0c;一套程序自适应电脑、手机、平板、APP多个终端入口&#xff0c;无任何加密代码、安全有保障&#xff0c;是您最佳的建站工具。——来自seacms官网&#xff08;简而言之就是专门搭建看片网站的…...

Java 中的内存泄漏问题及解决方案

在 Java 中&#xff0c;内存泄漏&#xff08;Memory Leak&#xff09;是指在程序运行过程中&#xff0c;某些对象已经不再使用&#xff0c;但由于引用仍然存在&#xff0c;这些对象无法被垃圾回收器回收&#xff0c;从而导致内存无法释放&#xff0c;最终可能导致系统性能下降甚…...

解决 ERROR: Failed building wheel for vllm Failed to build vllm

1. 完整报错 copying build\lib\vllm\model_executor\layers\fused_moe\configs\E256,N128,device_nameNVIDIA_H100_80GB_HBM3,dtypefp8_w8a8,block_shape[128,128].json -> build\bdist.win-amd64\wheel.\vllm\model_executor\layers\fused_moe\configs error: could not …...