なんかブラウン運動を構成するところの章とか見ると、多分舟木とかカラザスーシュリーヴとかはハール関数を使って構成しててどっかに(あれかな?重川確率解析かな?忘れた)Ito-Nishioの補題っていうのがあって、それ使うと、一般の正規直交基底でもいいよ っていうのが分かるのがあるので、ここで紹介しておきます。この定理を使って、イキリンコからのブリジュラスで優勝してください。
Bは実可分Banach sp.とし, $\{X_n\}_{n\geq 1}$を独立な対称的な$B$-値確率変数の列とする。また, $S_n = \sum_{j=1}^n X_j$とする.
Theorem. 次の主張は全て同値である:
$\{S_n\}_{n\in \mathbb{N}}$はB-値確率変数$S$にa.s.収束する.
$\{S_n\}_{n\in \mathbb{N}}$はB-値確率変数$S$にprob. 収束する.
$\mu_n$を$S_n$に関する確率分布とする。この時, 分布収束の意味で$\mu_n {\to} \mu $するような$B$上の確率測度が存在する(唯一とは限らない.).
任意の$f\in B^{*}$に対して,
\[
\int_{S} \exp\{i(f,x)\}d\mu_n \to \int_{S} \exp\{i(f,x)\}d\mu
\]
が成立する. ただし, $(f,x)$は$x\in B$での$f$の値を意味する.
(証明)Banach-Mazurの定理から, Bは$C([0,1])$内の或る閉部分空間に等長同型であることがわかる。ただし, $C([0,1])$は, $\sup$-normを備えた$[0,1]$上の連続関数の空間である. $B$をこのように表現する.
(1)ならば(2)は確率論の基礎で示す場合と全く同じである.
$\mu$ は$C([0,1])$上の確率速度とする.
A random variable X with values in B is called symmetric if X and – X have the same distribution. Equivalently, X has the same distribution as c:X where c: denotes a symmetric Bernoulli or Rademacher random variable taking values ±1 with probability 1/2 which is independent of X. (Although the name of Bernoulli is historically more appropriate, we will speak of Rademacher variables since this is the most commonly used terminology in the field.)
Xが対称的なのは、XとーXの分布が一致すること。
A random process $X = (X_t)_{t\in T}$ defined on $(\Omega, A, P)$ is said to be separable if there exist a negligible set $N \subset \Omega$ and a countable set $S$ in $T$ such that, for every $\omega \notin N$, every $t in T$ and $\varepsilon > 0$,
$X_t(\omega) \in \overline{\{Xs(\omega); s \in S, d(s, t) < c\} } $where the closure is taken in $\mathbb{R} \cup \{\infty\}$.
Proposition 2.3. Let $(X_i)$ be a symmetric sequence of random variables with values in B. For every k, set $S_k =\sum_{i=1}^{k}X_i$. Then, for every integer $N$ and every $t > 0$, (2.6)
and
(2.7)
If $(S_k)$ converges in probability to $S$, the inequalities extend to the limit as $P\{\sup ||Sk|| > t\} \leq 2P\{||S|| > t\}$
and similarly for (2.7). As a consequence of Proposition 2.3, note also that by integration by parts, for every $0 < p < \infty$,
$E\max_{k\leq N} ||S_k||^p \leq 2 E||S_N||^p$.
and similarly with $X_k$ instead of $S_k$.
(Proof)
We only detail (2.6), (2.7) being established exactly in the same way.
Let $\tau = \inf\{k \leq N ; ||S_k|| > t\}. We have
$P\{IIS_NII > t\} = \sum_{k=1}^N \{IIS_NII > t, \tau = k\}.$
Now, since, for every k, $(X_l, … ,X_k,-X_{k+1}, … ,-X_N) $has the same distribution as $(X_1, … ,X_N)$, and ${\tau = k}$ only depends on $X_1, … ,X_k$, we also have that
$P\{||S_N|| > t\} = \sum_{k=1}^N P\{||S_k – R_k||> t, \tau = k\} $
where $R_k = S_N – S_k$, $k \leq N$. Using the triangle inequality
$2||S_k||\leq ||S_k + R_k||+ ||S_k – R_k|| = ||S_N|| + ||S_k-R_k||$
Then, summing the two preceding probabilities yields
$ 2P\{||S_N|| > t\} \geq \sum_{i=1}^{k} P{\tau = k} = P\{\max_{k\geq N} ||Sk|| > t\} . k=1 -$
The proof of Proposition 2.3 is complete.
