Day8不确定推理

补充内容

不确定性推理方法

概念

$IF \ \ \ E \ \ \ THEN \ \ \ H \ \ (CF(H,E))$

  • 可信度定义:$CF(H,E) = MB(H,E) - MD(H,E)$

  • MB:信任增长度,表示因为E的出现使得结论H为真的增长度

    • $$
      MB=\begin{cases} 1 \ \ \ \ \ P(H)=1 \newline \frac{max \{ P(H|E),P(H) \} - P(H)}{1-P(H)} \ \ \ \ \ 其他\end{cases}
      $$

    • $$
      MB=\begin{cases} 1 \ \ \ \ \ P(H)=0 \newline \frac{min \{ P(H|E),P(H) \} - P(H)}{-P(H)} \ \ \ \ \ 其他\end{cases}
      $$

概率方法

经典概率方法

产生式规则:$IF \ \ E \ \ THEN \ \ H_i \ \ i =1,2,…,n$

$P(H_i | E)$:在证据$E$出现的条件下,结论$H_i$成立的确定性程度

复合条件:$E = E_1 \ AND \ E_2 \ AND \ …\ AND \ E_m$

$P(H_i|E_1,E_2,…,E_m)$:在证据$E_1,E_2,…,E_m$出现时结论的确定程度

$P(H) = P(H|E)P(E) + P(H|\neg E)P(\neg E)$

条件概率、先验概率和后验概率

假设迟到的原因有2个:天气不好、起床晚了

先验概率:迟到的概率

条件概率:已知天气不好的条件下,迟到的概率

后验概率:已经迟到了,因为天气原因迟到的概率

逆概率方法

Bayes定理:$P(E|H_i) \rightarrow P(H_i|E)$

Bayes公式
$$
P(H|E) = \frac{P(E|H)P(H)}{ P(E)}
$$

$$
P(H_i|E) = \frac{P(E|H_i)P(H_i)}{\sum_{j=1}^{n}P(E|H_j)P(H_j)}\ \ i = 1,2,…,n
$$
推广

多个证据$E_1,E_2,…,E_m$,多个结论$H_1,H_2,…,H_n$,每个证据都以一定程度支持结论
$$
P(H_i|E_1E_2…E_m) = \frac{P(E_1|H_i)P(E_2|H_i)…P(E_m|H_i)P(H_i)}{ \sum_{j=1}^{n} P(E_1|H_j)P(E_2|H_j)…P(E_m|H_j)P(H_j)}
$$

主观Bayes方法

知识的不确定性的表示

知识:$IF \ \ E \ \ THEN \ \ (LS,LN) \ \ H \ \ (P(H))$

$E$:前提条件(简单条件和复合条件)

$H$:结论

$(LS,LN)$:规则强度
$$
LS = \frac{P(E|H)}{P(E| \neg H)}
$$

$$
LN = \frac{P(\neg E|H)}{P(\neg E| \neg H)} = \frac{1 - P(E|H)}{1 - P(E|\neg H)}
$$

特别说明一种情况,自己没怎么看清,太菜了,上面两式直接可以消去$P(E|H)$或者$P(E|\neg H)$,不就可以得到一个新的式子了吗,然后可以用这个值和Bayes计算$P(E)$,但是在实际过程中,$LS$和$LN$是专家给的,相当于是一个估计值,所以算出的$P(E)$也是一个估计值,当题目未给时可以用$LS$和$LN$计算$P(E)$。不过一般题型都会给$P(E)$
$$
P(E|H) = \frac{LN \times LS - LS}{LN -LS}
\
P(E|\neg H) = \frac{LN-1}{LN-LS}
$$

证据的不确定性的表示

$P(E|S)$:对于初始证据$E$,由用户根据观察结果$S$给出概率,由结果推原因

$C(E|S)$:可信度,对所提供的证据可以相信的程度

组合证据不确定性算法

合取$\wedge$

$P(E|S) = min${$P(E_1|S),P(E_2|S),…,P(E_n|S)$}

析取$ \vee$

$P(E|S) = max${$P(E_1|S),P(E_2|S),…,P(E_n|S)$}

非$\neg$

$P(\neg E|S) = 1- P(E|S)$

不确定性传递算法

$P(H)$[先验概率]通过$P(E),LS,LN,$得到$P(H|E)$或者$P(H|\neg E)$ [后验概率]

  • 证据肯定存在时,即$P(E) = P(E|S) = 1$
    $$
    \frac{结论H成立的概率}{结论H不成立的概率} = \frac{P(H|E)}{P(\neg H|E)} = \frac{P(E|H) P(H)}{P(E|\neg H)P(\neg H)}
    $$

    • 几率($odds$)函数:$O(x) =\frac{P(x)}{P(\neg x)} = \frac{P(x)}{1-P(x)}$

    • 概率:$P(x) = \frac{O(x)}{1+O(x)}$

    • $P(x) \in [0,1] \ \ \ O(x) \in [0,\infty)$

    • 几率函数和概率函数具有相同的单调性

    • 有了几率函数,原上式可转变如下(Bayes修正公式):
      $$
      O(H|E) = LS \times O(H)
      $$

      $$
      P(H|E) = \frac{LS \times P(H)}{(LS - 1)\times P(H)+1}
      $$

      • $LS > 1 , O(H|E) > O(H) \rightarrow P(H|E) > P(H)$
      • $LS = 1 , O(H|E) = O(H)$
      • $LS < 1 , O(H|E) < O(H)$
      • $LS = 0,O(H|E) = 0$
  • 证据肯定不存在时,即$P(E) = P(E|S) = 0 , P(\neg E) =1$
    $$
    \frac{P(H|\neg E)}{P(\neg H|\neg E)} = \frac{P(\neg E|H) P(H)}{P(\neg E|\neg H)P(\neg H)}
    $$

    • Bayes修正公式
      $$
      O(H|\neg E) = LN \times O(H)
      $$

      $$
      P(H|\neg E) = \frac{LN \times P(H)}{(LN-1)\times P(H)+1}
      $$

      • $LS > 1 , O(H|\neg E) > O(H) \rightarrow P(H|\neg E) > P(H)$
      • $LS = 1 , O(H|\neg E) = O(H)$
      • $LS < 1 , O(H|\neg E) < O(H)$
      • $LS = 0,O(H|\neg E) = 0$
  • 由于$E$和$\neg E$不可能同时成立,以下情况不存在

    • $LS >1 , LN >1$
    • $LS <1 , LN <1$
  • 证据不确定的情况
    $$
    P(H|S) = P(H|E) \times P(E|S) + P(H | \neg E) \times P(\neg E |S)
    $$

    • $P(E|S) =1$

      $P(H|S) = P(H|E)=\frac{LS \times P(H)}{(LS-1) \times P(H)+1}$

    • $P(E|S)=0$

      $P(H|S) = P(H|\neg E) = \frac{LN \times P(H)}{(LN-1)\times P(H)+1 }$

    • $P(E|S)=P(E)$

      $P(H|S)=P(H)$

    • $P(E|S)$为其他值

      通过Bayes公式来求$P(E)$,主要用第一个公式求$P(E|S)$
      $$
      P(H|S) = \begin{cases}
      P(H|\neg E)+\frac{P(H)-P(H|\neg E)}{P(E)} \times P(E|S) & 0\leq P(E|S) < P(E) \newline
      P(H)+\frac{P(H|E)-P(H)}{1-P(E)} \times [P(E|S)-P(E)] & P(E) \leq P(E|S) \leq 1
      \end{cases}
      $$

      $$
      P(H|S) = \begin{cases}
      P(H|\neg E)+[P(H)-P(H|\neg E)] \times [\frac{1}{5}C(E|S)+1] & C(E|S) \leq 0 \newline
      P(H)+[P(H|E)-P(H)] \times [\frac{1}{5 C(E|S)}] & C(E|S)>0
      \end{cases}
      $$

结论不确定性合成算法

若$n$条知识都支持相同的结论,且每条知识的前提条件所对应的证据$E_i(i=1,2,…,n)$都有相应的观察$S_i$与之对应,则先对每条知识分别求出$O(H|S_i)$,然后求出$O(H|S_1,S_2,…,S_n)$:
$$
O(H|S_1,S_2,…,S_n) = \frac{O(H|S_1)}{O(H)} \frac{O(H|S_2)}{O(H)}…\frac{O(H|S_n)}{O(H)}O(H)
$$

thanks!