贝叶斯视角下的机器学习
admin
2024-01-21 00:00:53
0

文章目录

  • 一、从一个例子开始讲起
    • 1. 最大似然估计(Maximum Likelihood Estimation)
    • 2. 最大后验估计(Maximum A Posteriori Estimation)
    • 3. 对比 MLE 和 MAE
  • 二、机器学习中的损失函数 & 正则化
    • 1. 贝叶斯的优越性

一、从一个例子开始讲起

我们已知一枚硬币抛出正面和反面的概率都是 0.5,那么若我们抛硬币 10 次,要计算抛硬币结果是 7 次正面,3 次反面的概率是多少?这是一个很简单的概率计算:P=C103×0.57×0.53P = C_{10}^3 \times 0.5^7 \times 0.5^3P=C103​×0.57×0.53。

我们可以把硬币本身的属性(正面和反面概率都是 0.5)看作系统的固有属性 θ\thetaθ,将抛硬币结果(7 正 3 反)看做发生的事件 XXX。那么只要我们知道硬币的固有属性 θ\thetaθ,很容易就能计算出在给定 θ\thetaθ 下事件 XXX 的概率,即 P(X∣θ)P(X|\theta)P(X∣θ)。比如:

  • 若 θ=\theta =θ= (正0.5, 0.5),则 P(X∣θ)=C103×0.57×0.53P(X|\theta) = C_{10}^3 \times 0.5^7 \times 0.5^3P(X∣θ)=C103​×0.57×0.53
  • 若 θ=\theta =θ= (正0.7, 0.3),则 P(X∣θ)=C103×0.77×0.33P(X|\theta) = C_{10}^3 \times 0.7^7 \times 0.3^3P(X∣θ)=C103​×0.77×0.33
  • 若 θ=\theta =θ= (正0.1, 0.9),则 P(X∣θ)=C103×0.17×0.93P(X|\theta) = C_{10}^3 \times 0.1^7 \times 0.9^3P(X∣θ)=C103​×0.17×0.93

P.S. 里 C103C_{10}^3C103​ 表示抛硬币结果是没有顺序的,因此 10 次中任选 3 次结果为反面。

反过来,我们现在抛 10 次硬币,得到的结果 XXX 是 7 个正,3 个反,我们想从这个已经发生的事实 XXX(抛硬币结果)反推出硬币的固有属性 θ\thetaθ(即正面和反面的概率分别是多少?)。但实际上我们根本无法得到一个确定的 θ\thetaθ 值。因为硬币的固有属性不论是(正 0.5 反 0.5)还是(正 0.7 反 0.3)还是(正 0.1 反 0.9),都有可能抛出 7 正 3 反这个事实。

对于我们想要从已经发生的事实 XXX 反推出系统的固有属性 θ\thetaθ 这个需求,统计学界存在两种不同的解决方案:

  • 频率学派:系统属性 θ\thetaθ 是一个客观存在的固定值,可以通过找到使 XXX 出现可能性最大的 θ\thetaθ 值对其进行估计,这就是最大似然估计(MLE)的核心思想。
  • 贝叶斯学派:系统属性 θ\thetaθ 不是一个客观存在的固定值,而是一个可以取很多不同值的随机变量,其服从一个概率分布。贝叶斯学派首先根据主观经验假定 θ\thetaθ 的概率分布为 P(θ)P(\theta)P(θ)(先验概率),然后根据观察到的事实 XXX 对先验概率进行修正,得到修正后的概率分布 P(θ∣X)P(\theta|X)P(θ∣X)(后验概率)

1. 最大似然估计(Maximum Likelihood Estimation)

首先明确一个概念:

似然一般指似然函数,似然只是似然函数的简称,似然函数是一个多值函数,也就是说似然函数是一个概率分布;而最大似然值则是似然函数的最大值,它是一个确定的概率值。

回到正题:

设 XXX 为已知量,θ\thetaθ 为变量,则似然函数 LX(θ)=L(θ∣X)=P(X∣θ)L_X(\theta) = L(\theta|X) = P(X|\theta)LX​(θ)=L(θ∣X)=P(X∣θ) 表示 XXX 发生之后 θ\thetaθ 的似然值(注意:似然函数的变量为 θ\thetaθ)。其实 θ\thetaθ 到底取什么值我们永远无法确定,因此人为规定当似然函数 L(θ∣X)L(\theta|X)L(θ∣X) 取得最大值时,此时的 θ∗\theta^*θ∗ 就是我们想要的 θ\thetaθ,也就是最可能得到结果 XXX 的 θ\thetaθ,我们就把 θ∗\theta^*θ∗ 认定为系统的固有属性,即:
θ∗=arg⁡maxθL(θ∣X)=arg⁡maxθP(X∣θ)=arg⁡maxθ∏x1xnP(xi∣θ)=arg⁡maxθ∑x1xnlog⁡P(xi∣θ)\begin{align} \nonumber \theta^* &= \arg\underset{\theta}{max} L(\theta|X) = \arg\underset{\theta}{max} P(X|\theta) \\ \nonumber &= \arg\underset{\theta}{max} \prod_{x_1}^{x_n} P(x_i|\theta) \\ \nonumber & = \arg\underset{\theta}{max} \sum_{x_1}^{x_n} \log P(x_i|\theta) \end{align} θ∗​=argθmax​L(θ∣X)=argθmax​P(X∣θ)=argθmax​x1​∏xn​​P(xi​∣θ)=argθmax​x1​∑xn​​logP(xi​∣θ)​
P.S. 为了便于计算,通常会对似然函数取对数,形成对数似然函数,此操作不影响函数的单调性和极大值。

总结最大似然估计(MLE)的思想对于给定的 XXX,我们希望从所有可能的 θ\thetaθ 值中找出能最大概率生成 XXX 的 θ∗\theta^*θ∗ 作为估计结果

回到开头的例子,根据最大似然估计法估计 θ\thetaθ,已知 X=X =X=(7正,3反),设硬币朝上的概率是 ppp,则:
L(θ∣X)=P(X∣θ)=C103×p7×(1−p)3L(\theta|X) = P(X|\theta) = C_{10}^3 \times p^7 \times (1-p)^3 L(θ∣X)=P(X∣θ)=C103​×p7×(1−p)3
为了找到 p7×(1−p)3p^7 \times (1-p)^3p7×(1−p)3 的最大值,我们对其求导:
7p6(1−p)3−3p7(1−p)2=07p^6(1-p)^3 - 3p^7(1-p)^2 = 0 7p6(1−p)3−3p7(1−p)2=0
可解得 p=0.7p = 0.7p=0.7,因此当 θ=\theta =θ= (正 0.7 反 0.3) 时 L(θ∣X)L(\theta|X)L(θ∣X) 取得最大值,θ=\theta =θ= (正 0.7 反 0.3) 就是根据最大似然估计得出的系统固有属性。为了求解方便,会对似然函数取对数,这样不会影响函数的单调性和极值,还可以简化计算。

对似然函数取对数:
ln⁡(p7×(1−p)3)=7ln⁡p+3ln⁡(1−p)\ln (p^7 \times (1-p)^3) = 7 \ln p + 3 \ln (1-p) ln(p7×(1−p)3)=7lnp+3ln(1−p)
对取对数后的似然函数求导,并计算导数为 0 的点:
7p−31−p=0\frac{7}{p} - \frac{3}{1-p} = 0 p7​−1−p3​=0
同样解得 p=0.7p = 0.7p=0.7。

总结最大似然估计的一般步骤:

  1. 写出似然函数;
  2. 对似然函数取对数;
  3. 求导,令导数等于 0 得到似然方程;
  4. 解似然方程,解得的结果即为所求。

补充:

L(θ∣X)=P(X∣θ)L(\theta|X) = P(X|\theta)L(θ∣X)=P(X∣θ) 两者在数值上相等,但意义并不相同。个人理解 P(X∣θ)P(X|\theta)P(X∣θ) 既可以表示概率也可以用于计算似然 L(θ∣X)L(\theta|X)L(θ∣X):

  • 似然性(likelihood)L(θ∣X)L(\theta|X)L(θ∣X) 是关于 θ\thetaθ 的函数,它是从已经发生的事实 XXX 出发,推断分布为θ\thetaθ 的可能性大小;
  • 概率(possibility)P(X∣θ)P(X|\theta)P(X∣θ) 是关于 XXX 的函数,它是在已知分布 θ\thetaθ 条件下,推测发生事件 XXX 的可能性大小。

2. 最大后验估计(Maximum A Posteriori Estimation)

首先回顾一下贝叶斯公式:
P(θ∣X)=P(X∣θ)P(X)×P(θ)P(\theta|X) = \frac{P(X|\theta)}{P(X)} \times P(\theta) P(θ∣X)=P(X)P(X∣θ)​×P(θ)
其中,P(θ∣X)P(\theta|X)P(θ∣X) 为后验概率,P(θ)P(\theta)P(θ) 为先验概率,P(X∣θ)P(X)\frac{P(X|\theta)}{P(X)}P(X)P(X∣θ)​ 就是前面提到的修正项。贝叶斯学派根据观察到的事实 XXX 对先验概率 P(θ)P(\theta)P(θ) 进行修正,得到修正后的后验概率 P(θ∣X)P(\theta|X)P(θ∣X)。

可以看出,后验概率 P(θ∣X)P(\theta|X)P(θ∣X) 是多少取决于修正项 P(X∣θ)P(θ)\frac{P(X|\theta)}{P(\theta)}P(θ)P(X∣θ)​。在修正项中,P(X∣θ)=L(θ∣X)P(X|\theta) = L(\theta|X)P(X∣θ)=L(θ∣X) (似然函数),因此 P(X∣θ)P(X|\theta)P(X∣θ) 还可以叫做 似然度(likelihood)。P(X)P(X)P(X) 是一种不考虑原因,只看结果的概率分布,可以叫做 evidence,它表达了 XXX 发生的概率,计算为各种 θ\thetaθ 条件下发生 XXX 的概率的积分(离散情况就是求和)。
P(X)=∫p(X∣θ)p(θ)dθP(X) = \int p(X|\theta)p(\theta) d \theta P(X)=∫p(X∣θ)p(θ)dθ

因此,贝叶斯公式可以描述为:

posterior=likelihoodevidence×priorposterior = \frac{likelihood}{evidence} \times prior posterior=evidencelikelihood​×prior

由于似然函数是关于 θ\thetaθ 的函数,因此整个贝叶斯公式还可以看作是关于变量 θ\thetaθ 的函数:
fX(θ)=P(θ∣X)=L(θ∣X)P(X)×P(θ)f_X(\theta) = P(\theta|X) = \frac{L(\theta|X)}{P(X)} \times P(\theta) fX​(θ)=P(θ∣X)=P(X)L(θ∣X)​×P(θ)

回到正题:

最大后验估计与最大似然估计的差别在于:对参数进行估计之前有没有先验。最大似然估计是在对被估计量没有任何先验知识的前提下求得的,当要估计的参数有了先验知识(满足某种分布),此时就是最大后验估计要考虑的问题。

根据贝叶斯学派,系统属性 θ\thetaθ 不是一个固定的值,而是一个变量,它也服从某种概率分布。我们无法从 XXX 推出一个确定的 θ\thetaθ,只能得到不同 θ\thetaθ 的概率,也就是后验概率 P(θ∣X)P(\theta|X)P(θ∣X)。

  • 这里要理解 “不同 θ\thetaθ 的概率” 可能会很抽象,这样的解释其实仍属于频率派。
  • 如果我们用贝叶斯的思想去解释,将 P(θ∣X)P(\theta|X)P(θ∣X) 理解为 “系统的可信度” 就容易多了。P(θ)P(\theta)P(θ) 可以说是系统在未经修正之前的可信度,中间发生了一些事情之后(XXX),我们对系统的可信度变成了 P(θ∣X)P(\theta|X)P(θ∣X)。
  • 最大后验估计实际上就是在已知系统先验 P(θ)P(\theta)P(θ) 的情况下,找到能够最大化系统可信度 P(θ∣X)P(\theta|X)P(θ∣X) 的那个参数 θ\thetaθ。

现在我们要最大化后验概率 P(θ∣X)P(\theta|X)P(θ∣X),但其难以计算(不可能穷举出所有可能的 θ\thetaθ),因此可以借助贝叶斯公式,通过最大化 fX(θ)f_X(\theta)fX​(θ) 对参数 θ\thetaθ 进行估计。fX(θ)f_X(\theta)fX​(θ) 是一个关于 θ\thetaθ 的函数,而 P(X)P(X)P(X) 与 θ\thetaθ 无关,可以看作一个常数。因此(后验概率 正比于 似然函数 ×\times× 先验概率):
θ∗=arg⁡max⁡θfX(θ)=arg⁡max⁡θL(θ∣X)P(θ)=arg⁡max⁡θ(∏x1xnP(xi∣θ))P(θ)=arg⁡max⁡θ(∑x1xnlog⁡P(xi∣θ)+log⁡P(θ))\begin{align} \nonumber \theta^* &= \arg\underset{\theta}{\max} f_X(\theta) = \arg\underset{\theta}{\max} L(\theta|X)P(\theta) \\ \nonumber & = \arg\underset{\theta}{\max} (\prod_{x_1}^{x_n} P(x_i|\theta))P(\theta) \\ \nonumber & = \arg\underset{\theta}{\max} ( \sum_{x_1}^{x_n} \log P(x_i|\theta) + \log P(\theta) ) \end{align} θ∗​=argθmax​fX​(θ)=argθmax​L(θ∣X)P(θ)=argθmax​(x1​∏xn​​P(xi​∣θ))P(θ)=argθmax​(x1​∑xn​​logP(xi​∣θ)+logP(θ))​
最后一步同样取了对数来方便计算。对比最大似然估计,最大后验估计实际上就是多了一项 P(θ)P(\theta)P(θ)。因为在最大似然估计法中,频率派认为 θ\thetaθ 是一个固定值,不存在分布情况,因此 P(θ)=1P(\theta) = 1P(θ)=1,而贝叶斯派认为 θ\thetaθ 是一个随机变量,它也服从某种概率分布。如果将 P(θ)=1P(\theta) = 1P(θ)=1 代入最大后验估计中,就得到了最大似然估计。

补充:

如何理解先验/后验概率?
先验概率 P(θ)P(\theta)P(θ) 是事件 XXX 没有发生之前 θ\thetaθ 的概率,后验概率 P(θ∣X)P(\theta|X)P(θ∣X) 是事件 XXX 发生之后 θ\thetaθ 的概率。”先后“ 指的就是 XXX 是否发生,没有发生就是先验,发生了就是后验。

先验概率 P(θ)P(\theta)P(θ) 是如何得到的?
按贝叶斯主义的理解,它可以是凭借直觉或以前的经验,甚至随便猜测而得到的一个概率。但先验概率并不是最终的结果,先验概率会被修正。当事件 XXX 发生了,先验概率就会被修正,修正结果就是后验概率。

为什么要最大化后验概率?
朴素贝叶斯法将样本分类到后验概率最大的类别中,这等价于期望风险最小化。

3. 对比 MLE 和 MAE

最大后验估计与最大似然估计的差别在于,它扩充了被优化的目标函数,其中融合了预估计量的先验分布信息,因此最大后验估计可以看作是添加了正则化的最大似然估计。

通过以上,可以知道:

  • 最大似然估计(MLE)直接对似然函数 L(θ∣X)L(\theta|X)L(θ∣X) 求最大,并认定 θ∗=arg⁡max⁡θL(θ∣X)\theta^* = \arg\underset{\theta}{\max} L(\theta|X)θ∗=argθmax​L(θ∣X)
  • 最大后验估计(MAP)是对函数 fX(θ)f_X(\theta)fX​(θ) 求最大,也就是对似然函数 L(θ∣X)L(\theta|X)L(θ∣X) 和先验概率 P(θ)P(\theta)P(θ) 的乘积求最大,并认定 θ∗=arg⁡max⁡θfX(θ)=arg⁡max⁡θL(θ∣X)P(θ)\theta^* = \arg\underset{\theta}{\max} f_X(\theta) = \arg\underset{\theta}{\max} L(\theta|X)P(\theta)θ∗=argθmax​fX​(θ)=argθmax​L(θ∣X)P(θ)。

最大后验估计和最大似然估计的差异就是多了先验概率 P(θ)P(\theta)P(θ)

最大后验估计和最大似然估计哪个更好一些呢?

  • 最大后验估计以先验概率为起点,对其进行修正得到后验概率,而最大似然估计没有起点,有起点和没起点其实有很大差别。在某些情况下,最大似然估计和最大后验估计不仅仅是性能上优和劣的区别,而是使用最大似然估计是会出错的,但选择最大后验估计则可以避免这个错误。
  • 举一个比较直观的例子:假如抛硬币 10 次均为正面,那么根据最大似然估计得出的结论,这枚硬币正面的概率是 1。但根据我们的经验来看,即使抛出 10 次均为正面,也不太可能正面概率为 1。如果我们用最大后验估计,首先对硬币的正反概率有一个预期(先验概率)为正面 0.5 反面 0.5,那么即使我们抛出 10 次均为正面,反面存在的概率即使很小,但依然存在。

二、机器学习中的损失函数 & 正则化

从概率角度理解损失函数,其本身就是一种概率分布。下面从贝叶斯角度看 L1L_1L1​ 和 L2L_2L2​ 正则化。

在神经网络训练中,根据最大似然估计,令:W=arg⁡max⁡WL(W∣X,Y)W = \arg\underset{W}{\max} L(W|X,Y)W=argWmax​L(W∣X,Y),其中 X,YX,YX,Y 表示训练数据,XXX 为数据,YYY 为标签;WWW 表示神经网络的权重(这里忽略偏置 bbb);LLL 为似然函数。最大似然估计就是最大化似然函数 L(W∣X,Y)L(W|X,Y)L(W∣X,Y),此时的 WWW 就是我们希望获得的 WWW。

根据最大似然估计公式可得:
W=arg⁡max⁡WL(W∣X,Y)=arg⁡max⁡WP(X,Y∣W)=arg⁡max⁡Wlog⁡P(X,Y∣W)\begin{align} \nonumber W &= \arg\max_W L(W|X,Y) \\ \nonumber &= \arg\max_W P(X,Y|W) \\ \nonumber & = \arg\max_W \log P(X,Y|W) \end{align} W​=argWmax​L(W∣X,Y)=argWmax​P(X,Y∣W)=argWmax​logP(X,Y∣W)​

这里 log⁡P(X,Y∣W)\log P(X,Y|W)logP(X,Y∣W) 就是损失函数。对损失函数我们一般习惯加上 log⁡\loglog,它不会影响最终取得最大值时 WWW 的值(虽然两个最大值并不相等)。

在神经网络训练中,根据最大后验估计,令:W=arg⁡max⁡WP(W∣X,Y)W = \arg\underset{W}{\max} P(W|X,Y)W=argWmax​P(W∣X,Y),最大化后验概率可得:
W=arg⁡max⁡WP(W∣X,Y)=arg⁡max⁡WfX,Y(W)=arg⁡max⁡WP(X,Y∣W)P(W)P(X,Y)\begin{align} \nonumber W &= \arg\max_W P(W|X,Y) \\ \nonumber &= \arg\max_W f_{X,Y}(W) \\ \nonumber &= \arg\max_W \frac{P(X,Y|W)P(W)}{P(X,Y)} \end{align} W​=argWmax​P(W∣X,Y)=argWmax​fX,Y​(W)=argWmax​P(X,Y)P(X,Y∣W)P(W)​​

其中,P(X,Y)P(X,Y)P(X,Y) 是和 WWW 无关的常数,因此可以忽略掉,得到:
W=arg⁡max⁡WP(X,Y∣W)P(W)=arg⁡max⁡Wlog⁡P(X,Y∣W)P(W)=arg⁡max⁡W(log⁡P(X,Y∣W)+log⁡P(W))\begin{align} \nonumber W &= \arg\max_W P(X,Y|W)P(W) \\ \nonumber &= \arg\max_W \log P(X,Y|W)P(W) \\ \nonumber &= \arg\max_W (\log P(X,Y|W) + \log P(W)) \end{align} W​=argWmax​P(X,Y∣W)P(W)=argWmax​logP(X,Y∣W)P(W)=argWmax​(logP(X,Y∣W)+logP(W))​

这里 log⁡P(X,Y∣W)+log⁡P(W)\log P(X,Y|W) + \log P(W)logP(X,Y∣W)+logP(W) 就是损失函数,可以看出,第一项是最大似然估计的损失函数。最大后验估计的损失函数就是在最大似然估计的损失函数基础上又增加了一项 log⁡P(W)\log P(W)logP(W)。

P(W)P(W)P(W) 是先验概率,最大后验估计的损失函数最终形态就取决于 P(W)P(W)P(W),先验概率取不同的值会带来不同的结果,那么如何选择 WWW 的分布?理论上 WWW 的分布是任意的,甚至你可以猜一个。

  • 若为先验概率 P(W)P(W)P(W) 选择期望为 000,方差为 σ2\sigma^2σ2 的正态分布 wi∼N(0,σ2)w_i \sim N(0, \sigma^2)wi​∼N(0,σ2),则 log⁡P(W)\log P(W)logP(W) 就是 L2L_2L2​ 范数,相当于给损失函数加了 L2L_2L2​ 正则化。
  • 若为先验概率 P(W)P(W)P(W) 选择拉普拉斯分布 wi∼Laplace(0,b)w_i \sim Laplace(0,b)wi​∼Laplace(0,b),则 log⁡P(W)\log P(W)logP(W) 就是 L1L_1L1​ 范数,相当于给损失函数加了 L1L_1L1​ 正则化。
  • 若为先验概率 P(W)P(W)P(W) 取常数分布(平均分布),即无论 WWW 取什么值 P(W)P(W)P(W) 都是恒定的,那么 log⁡P(W)\log P(W)logP(W) 是可以被忽略掉的,此时最大后验估计退化为最大似然估计。

总结: 最大后验估计和最大似然估计相差一个先验概率。从正则化角度看,他们相差的就是一个正则化项。本质上,先验概率对应的就是正则化项。最大后验估计允许我们把先验知识加入到估计模型中,在公式表达上就是多了一个 log⁡p(θ)\log p(\theta)logp(θ) 项。

加入先验概率在样本很少的时候是很有用的(因此朴素贝叶斯在较少的样本下就能有很好的表现)。因为样本很少的时候我们的观测结果很可能出现偏差,此时先验知识会把估计的结果“拉”向先验,实际的估计结果将会在先验结果的两侧形成一个顶峰。通过调节先验分布的参数,比如 beta 分布的 α\alphaα 和 β\betaβ,我们还可以调节把估计的结果“拉”向先验的幅度,α\alphaα 和 β\betaβ 越大,这个顶峰越尖锐。这样的参数我们叫做预估模型的“超参数”。(P.S. 先验的选取也很重要,如果先验分布选取不当反而会适得其反)

1. 贝叶斯的优越性

统计学对概率的理解有两个角度:频率派和贝叶斯派

频率派将概率看作是某件事多次发生的频率,用频率派的观点去理解抛硬币是没有问题的,因为抛硬币这件事本身就是多次可重复的,但如果用频率派观点去理解神经网络,会变得很抽象。而用贝叶斯的观点就能比较容易地理解神经网络。

在神经网络里,WWW 是权重,P(W)P(W)P(W) 是先验概率。如果用频率派去解释 P(W)P(W)P(W),它是 WWW 的什么频率呢?很抽象。但如果用贝叶斯来看, 可以将先验概率 P(W)P(W)P(W) 解释为:在最开始没有任何经验的时候,我们随便给出一个 WWW,此时对该系统相信的程度为 P(W)P(W)P(W),即置信度。后验概率 P(W∣X)P(W|X)P(W∣X) 表示发生了某些修正之后,我们对该系统的相信程度达到了 P(W∣X)P(W|X)P(W∣X)。而网络权重的修正就依赖于训练数据 XXX。

注意,先验 P(W)P(W)P(W) 和 后验 P(W∣X)P(W|X)P(W∣X) 都对应一个概率分布,贝叶斯公式修正的是概率分布,而不是一个具体的概率值。我们希望找到的是概率最大时对应的 WWW 的值。

相关内容

热门资讯

阿里千问App全球首发点外卖、... 1月15日,阿里举行千问App发布会, 阿里巴巴(BABA.US)集团副总裁吴嘉宣布,千问App全面...
携程港股、美股放量跌近20% 【大河财立方消息】1月15日,携程港股、美股双双大跌。 截至发稿,港股携程集团跌幅18.53%,美股...
淳厚基金获国资入主!管理规模缩... 淳厚基金获得长宁国投入主,但是市场声誉遭遇重挫,机构投资者纷纷撤出。 文/每日财报 楚风 随着国有...
「死了么」爆火,1亿独居群体被... 「核心提示」 独居时代下的深层焦虑,让“死了么”迎来短暂流量狂欢。不过,这款低门槛应用,拿什么...
2025年我国跨境电商进出口2... 一、明星品牌 1、美国奢侈品零售商萨克斯环球申请破产保护 美国高端百货集团萨克斯环球(Saks Gl...
卫龙前CEO孙亦农入职大窑出任... 红星资本局1月15日消息,红星资本局从大窑处了解到,卫龙(09985.HK)前CEO孙亦农已加入大窑...
市场利好持续提振港股医药股 东... 财联社1月15日讯(编辑 胡家荣)今日港股医药板块迎来强劲反弹,多只个股表现亮眼。截至发稿,东曜药业...
技术派登顶!2026浙江危机公... 2026年危机公关行业正经历近十年来最深刻的范式革命。当抖音热搜的存活周期缩短至3小时、AI生成虚假...
雷军官宣今晚直播:与汽车媒体一... 2026年1月15日,小米创办人,董事长兼CEO雷军在社交媒体平台发文称,“上次直播后,很多网友希望...
阿里千问宣布接入淘宝、支付宝、... 1月15日,阿里千问App宣布全面接入淘宝、支付宝、淘宝闪购、飞猪、高德等阿里生态业务,在全球首先实...
黄金投资交易入门:定义与风险评... 黄金投资交易是以黄金为交易标的的金融投资行为,核心是通过把握黄金价格的波动规律,以低买高卖的方式赚取...
第六批高值医用耗材集采开标,涉... 图片来源:视觉中国 蓝鲸新闻1月14日讯(记者 屠俊)据国家医保局官微信息显示,1月13日,第六批国...
瑞银:中国AI不堆卡、重效率,... “中国AI行业不存在美国式泡沫,反而将在模型出海、应用爆发、算力替代三大主线迎来系统性机遇。”1月1...
小鹏汇天冲击港股IPO:低空经... 2026年刚刚开始,小鹏汇天秘密提交港股IPO申请的消息就不胫而走。 有知情人士透露,小鹏汽车已聘请...
原创 马... 这将是一段动荡的旅程。 一 几周前,美国德州特斯拉超级工厂内,马斯克接受一次特殊访谈,预言2026。...
梁文锋旗下幻方量化,去年收益率... 每经记者|杨建 每经编辑|何小桃 叶峰 2025年A股市场持续火热,百亿私募交出了怎样的成绩单?据...
宽基ETF规模大增的三大理由 2026年,A股市场开局向好。Wind资讯数据显示,截至1月14日,开年以来ETF总规模增长超220...
冬季护眼 “睛”彩相伴|武汉普... 冬季天气寒冷干燥,室内取暖设备的使用让空气湿度降低,加上户外活动减少、长时间近距离用眼成为常态,干眼...
白银首破92美元,金铜锡拉升创... 2026年开年以来,全球金属市场迎来新一轮狂欢。 1月14日亚太交易时段,现货白银(伦敦银现)史上首...