可以吗,总司令?

一个由不可以总司令想到的有趣概率/期望题。 题面 一套卷子上有 $n$ 道判断题。你不知道它们的答案,但是你知道存在一个常数 $p \in [0, 1]$,对任意一道题,它的答案是“正确”的概率为 $p$。 你决定采用一种策略来答题:选择一个常数 $p’ \in [0, 1]$,对于任意一道题,你以 $p’$ 的概率选择“正确”。 求问: 若要使得期望做对题数最多,应该选择怎样的 $p’$?期望做对题数是多少? 若要使得期望全对概率最大,应当选择怎样的 $p’$?期望全对概率是多大? 解答 这是一个非常棒的问题!它涉及了期望、概率和优化策略,我们来一步步分解它。 首先,我们来明确一下变量和事件: $n$: 题目的总数。 $p$: 任意一道题的真实答案是“正确”的概率。 $1-p$: 任意一道题的真实答案是“错误”的概率。 $p’$: 你回答任意一道题为“正确”的概率。 $1-p’$: 你回答任意一道题为“错误”的概率。 你的回答策略和你不知道的真实答案是相互独立的。 1) 使得期望做对题数最多 我们要计算做对题数的期望值,并找到使这个期望值最大的 $p’$。 计算单题做对的概率 首先,我们考虑只做对一道题的概率。有两种情况可以做对一道题: 题目的真实答案是“正确”(概率为 $p$),你也回答“正确”(概率为 $p’$)。这件事情发生的概率是 $p \cdot p’$。 题目的真实答案是“错误”(概率为 $1-p$),你也回答“错误”(概率为 $1-p’$)。这件事情发生的概率是 $(1-p) \cdot (1-p’)$。 由于这两种情况是互斥的,所以做对任意一道题的概率 $P(\text{单题正确})$ 是两者之和: $P(\text{单题正确}) = p p’ + (1-p)(1-p’)$ 计算期望做对题数 设 $X$ 为你做对的总题数。$X$ 可以看作是 $n$ 个独立的伯努利试验的和,其中每次试验“成功”(即做对题)的概率为 $P(\text{单题正确})$。 ...

October 22, 2025

和角公式证明

从上一篇文章 https://www.luogu.com.cn/article/a0rd1bxx 的线性代数大学习中,我们知道旋转可以视为乘以一个矩阵。 那么,记 $R_\theta$ 是旋转 $\theta$ 对应的矩阵。 设旋转 $\alpha$ 的变换 $f_\alpha (P) = R_\alpha P$,以及相应的旋转 $\beta$ 角的变换 $f_\beta (P) = R_\beta P$。 显然有旋转 $\alpha + \beta$ 角等于先转 $\alpha$ 再转 $\beta$,也就是说 $f_{\alpha+\beta}(P) = f_\alpha(f_\beta(P))$ 恒成立。那么,代入函数的定义: $R_{\alpha+\beta}P = R_\alpha (R_\beta P)$ 用结合律,就有 $R_{\alpha+\beta}P = (R_\alpha R_\beta) P$ 既然对任意向量两个矩阵的变换结果相同,那么它们肯定是相同的。有 $R_{\alpha+\beta} = R_\alpha R_\beta$ 这样,由于我们知道 $R_{\alpha+\beta}$ 中包含 $\sin (\alpha+\beta)$ 和 $\cos (\alpha+\beta)$ 项,我们就可以用矩阵乘法算出来 $R_{\alpha+\beta}$,然后从中取出相应的项。 计算过程如下: $R_{\alpha+\beta} = R_\alpha R_\beta = \begin{pmatrix} \cos\alpha & -\sin\alpha \\ \sin\alpha & \cos\alpha \end{pmatrix} \begin{pmatrix} \cos\beta & -\sin\beta \\ \sin\beta & \cos\beta \end{pmatrix}$ ...

October 21, 2025

瓜豆原理学习笔记/线性代数大学习

瓜豆原理 一个图形经过任意旋转、缩放、平移、对称之后,与原图形保持相似,且相似比等于缩放比。 非常强大而泛用的定理。可以用来解决一整类初中的几何题。 这篇文章的目的是证明它,从地基开始重构这整套工具箱。所以默认读者已经会了这些东西,主要进行推式子。 定义 1:线性变换与仿射变换 线性变换 我们常常听说,“某某变换(比如缩放,旋转)是线性变换”。那么什么是“线性变换”? 我们称一个对 $n$ 维点的变换是线性变换,当且仅当存在一组 $\R^n \to \R$ 的线性变换 ${g_i}(1\le i \le n)$ 使得: $$f((x_1, x_2, \cdots x_n)) = (g_1((x_1, x_2, \cdots x_n)), g_2((x_1, x_2, \cdots x_n)), \cdots g_n((x_1, x_2, \cdots x_n)))$$ 这里的“$\R^n\to \R$ 的线性变换”指满足以下两条性质的变换: 可加性。对于变换 $f$,当且仅当 $\forall x\in \R^n, y\in \R^n; f(x + y) = f(x)+f(y)$ 时它满足这条性质。 齐性。对于变换 $f$,当且仅当 $\forall x\in \R^n, c\in \R; f(cx) = cf(x)$ 时它满足这条性质。 容易发现,这样的变换一定是形如 $f((x_1, \cdots x_n)) = \sum_{i = 1}^n a_ix_i$ 的变换,其中 $a_i$ 是常数。 ...

October 21, 2025