Ngẫu nhiên trên mạch điện

May 26, 2013 Leave a comment

Mạch điện một chiều có thể xem như là một đồ thị đơn G=(V,E) không có khuyên, liên thông, không định hướng, trong đó các đỉnh là nút của mạng điện còn các cạnh là dây dẫn giữa chúng. Đoạn dây dẫn giữa hai nút kề nhau xy bất kì đều coi là có một điện trở R(x,y), hay nói tương đương, độ dẫn (trọng số) của cạnh (x,y)C(x,y)=1/R(x,y).

Bây giờ giả sử có một người đi dạo trên các nút của đồ thị với quy tắc như sau: nếu người này đang ở nút x sẽ đi đến một nút kề cận y với xác suất tỉ lệ với độ dẫn của cạnh (x,y) so với các cạnh còn lại kề với x, nghĩa là xác suất này bằng

\displaystyle p(x,y)=\frac{\displaystyle C(x,y)}{\displaystyle\sum_{y\sim x} C(x,y)}.

Bây giờ kí hiệu X_n là vị trí của người đi dạo tại lần đi thứ n, thế thì với hai đỉnh x, y kề nhau thì \text{Pr}(X_{n+1}=y|X_{n}=x)=p(x,y), và xem p(x,y)=0 trong trường hợp x,y không kề nhau hoặc x\equiv y. Ma trận P=\{p(x,y)\}_{x,y\in V} gọi là ma trận xác suất chuyển. Rõ ràng vị trí của người đi bộ trong tương lại chỉ phụ thuộc vào vị trí hiện tại mà độc lập với các vị trí đã đi trong quá khứ, đặc trưng như vậy của quá trình đi dạo ngẫu nhiên của người đi bộ được gọi là tính “mất trí nhớ”.

Ta giả sử các quãng thời gian người đi dạo đi giữa các cặp hai nút kề nhau kế tiếp trong hành trình của mình là độc lập và cùng phân phối lũy thừa \text{Exp}(1) và kí hiệu vị trí của người đi bộ trên tại điểm tY_t. Khi đó nếu \tau_n là thời điểm mà người đi dao thực hiện bước đi thứ n  thì Y_{\tau_n}=X_n, hay nói cách khác quá trình vị trí của người đi dạo (X_n) có thể được nhúng trong quá trình (Y_t) với thời điểm liên tục. Với t\in \mathbb{R}_+ xét toán từ P_t xác định trên không gian các hàm bị chặn trên V như sau

P_tf(x)=\mathbf{E}(f(Y_t)|Y_0=x)=\displaystyle\sum_{y\in V}f(y)\text{Pr}(Y_t=y|Y_0=x).

Khi t đủ nhỏ, ta có

\text{Pr}(Y_t=y| Y_0=x)=\mathbf{1}_{\{x\sim y\}}p(x,y)(1-e^{-t})+o(t),

\text{Pr}(Y_t=x| Y_0=x)=e^{-t}+o(t).

Dễ thấy (P_t)_{t\in \mathbb{R}_+} có tính chất nửa nhóm, tức là P_{t+s}=P_tP_s. Toán tử đặc trưng của nửa nhóm toán từ này được tính bằng

\displaystyle\lim_{t\to 0}\frac{P_t-I}{t}=P-I=\Delta.

Viết một cách tường minh thì toán tử đặc trưng \Delta được xác định bởi

\displaystyle\Delta r(x)=(P-I)r(x)=\frac{\displaystyle\sum_{y\sim x} C(x,y)r(y)}{\displaystyle\sum_{y\sim x} C(x,y)}-r(x)

và được gọi là toán từ Laplace-Beltrami ứng với trọng số hàm trọng số C: V\to \mathbb{R}_+ trên đồ thị G. Hàm bị triệt tiêu bởi toán tử Laplace-Beltrami gọi là hàm điều hòa. Một hàm điều hòa trên một miền \Omega thì sẽ hoặc là hằng số hoặc là chỉ đạt cực trị trên biên \partial \Omega. Thật vậy, giả sử như hàm này đạt cực trị tại một điểm x_0 nào đó thuộc miền trong của \Omega. Trong khi đó do tính chất điều hòa, giá trị của hàm tại x_0 cũng là chính là trung bình giá trị của hàm tại các điểm kề cận với x_0. Do đó giá trị của hàm tại x_0 cũng như điểm kề cần với nó đều bằng nhau, và nguyên lý “domino” này làm cho hàm bằng hằng số trên trên toàn miền \Omega. Hệ quả của nguyên lý cực trị này của các hàm điều hòa là chúng có thể xác định một các duy nhất nếu xác định được các giá trị trên biên. Điều này dễ dàng nhận ra bằng tính chất là hiệu của hai hàm điều hòa cùng giá trị biên là một hàm điều hòa bị triệt tiêu trên biên, và đó bị triệt tiêu trên toàn miền nhờ nguyên lý cực trị. Bài toán tìm một hàm duy nhất xác định bằng giá trị như vậy gọi là bài toán Dirichlet.

Trở lại bài toán người đi dạo, ta đánh dấu nút đầu tiên mà người này xuất phát là 0 và kí hiệu B_n\subset V xem như là một “quả cầu” gồm tất cả các nút mà đường đi ngắn nhất từ 0 đến các nút đó không quá n, trong đó “biên” \partial B_n của “quả cầu” này là các nút với đường đi ngắn nhất đến 0 đúng bằng n. Bài toán thú vị đầu tiên mà chúng ta xét là giả sử rằng khi người đi bộ đến một nút x\in B_n thì xác suất sau đó người này quay về nút 0 trước khi đến biên \partial B_n là bao nhiêu?

Kí hiệu xác suất này là r(x). Thế thì dựa vào tính “mất trí nhớ” của người đi dạo và công thức xác suất đầy đủ dễ thấy

\displaystyle r(x)=\sum_{y\sim x}p(x,y)r(y),\ \ \forall x\in B_n\setminus (\partial B_n\cup\{0\})

r(0)=1,r(x)=0 với x\in \partial B_n.

Như vậy hàm xác suất r điều hòa trên miền \Omega= B_n\setminus (\partial B_n\cup\{0\}) và do đó nó luôn có thể được xác định duy nhất bằng điều kiện biên tại \partial B_n\cup\{0\}.

Trên đồ thị G với vai trò là một mạch điện, chúng ta biết hai định luật cơ bản:

– Định luật Kirchhoff: Tổng đại số cường độ dòng điện ra vào một nút trên mạch điện ngoại trừ cực âm và cực dương của nguồn điện luôn luôn bằng 0

\sum_{y\sim x} I(x,y)=0.

-Định luật Ohm: Cường độ dòng điện qua một đoạn dây dẫn bằng hiệu điện thế và độ dẫn của dây dẫn này

I(x,y)=(V(x)-V(y))C(x,y).

Bây giờ chúng ta xem xét mạch điện là đồ thị con B_n\subset G, trong đó các nút trên biên \partial B_n được chập lại thành một nút duy nhất s_n và mắc vào cực âm, còn cực dương được mắc vào gốc 0 với điện thế 1, đồ thị mới được tạo ra kí hiệu là \widehat{B_n}.

NetworkVới mọi đỉnh x\in\widehat{B_n}\setminus\{0,s_n\}, áp dụng định luật Kirchhoff và định luật Ohm, ta có

\sum_{y\sim x} I(x,y)=\sum_{y\sim x}(V(x)-V(y))C(x,y)=0.

Từ đó ta rút ra được

V(x)=\frac{\displaystyle\sum_{y\sim x} C(x,y)V(y)}{\displaystyle\sum_{y\sim x} C(x,y)},\ x\in\widehat{B_n}\setminus\{0,s_n\}.

Đặc biệt trên các cực thì V(0)=1, V(x)=V(s_n)=0 với mọi x\in\partial B_n. Như vậy, từ tính chất duy nhất của hàm điều hòa xác định bởi điều kiện biên ta có thể kết luận rằng xác suất r(x) chính là điện thế của nút x trên mạch điện \widehat{B_n}.

(còn tiếp)

Advertisements
Categories: Probability Theory

Phương trình Maxwell và định luật Kirchhoff

May 12, 2013 Leave a comment

Định luật Kirchhoff là một phương trình cơ bản trên mạch điện này được Gustav Kirchhoff đưa ra năm 1845. Thực ra, định luật này có thể xem là hệ quả rời rạc của phương trình Maxwell trong lý thuyết điện từ được công bố sau đó bởi James Maxwell sau đó trong những năm 1861, 1862.

Gustav Kirchhoff        Maxwell

Hình 1. Gustav Kirchhoff (trái)  và  James Maxwell (phải).

Bản chất của phương trình Maxwell nằm trong sự thống nhất cách mạng đầu tiên trong lý thuyết trường vật lý cổ điển. Điện trường E (xem như 1-dạng vi phân) cùng với từ trường B (xem như 2-dạng vi phân) trong không gian ba chiều Euclid thống nhất thành điện từ trường F trong không thời gian bốn chiều Minskowski

\displaystyle F=B+E\wedge dt.

Mặt khác, mật độ dòng điện j=(j_x,j_y,j_z) mà mật độ điện tích \rho cũng có thể thống nhất với nhau thành một 3-dạng vi phân, gọi là dạng dòng điện

\displaystyle J= \rho dx \wedge dy \wedge dz - (j_x dy\wedge dz + j_y dz\wedge dx + j_z dx\wedge dy)\wedge dt.

Phương trình Maxwell mô tả bản chất động lực học của điện từ trường, nếu sử dụng toán tử vi phân ngoài và đối ngẫu Hodge thì ta có cách nhìn khá đẹp đẽ

Đồng nhất thức Bianchi:  \displaystyle dF=0,        (1)

Phương trình Yang-Mills:  d\star F= J.       (2)

Hay nói cách khác, trong không thời gian Minskowski, điện từ trường là một 2-dạng vi phân đóng và suất khuyếch tán (div) của nó đúng bằng đối ngẫu Hodge dạng dòng điện. Viết dưới dạng hiệp biến, đó chính là các phương trình mô ta các định luật điện từ
– Luật từ trường Gauss:

\displaystyle \text{div} B=0,

– Luật cảm ứng điện từ Faraday:

\displaystyle \text{curl} E + \frac{\partial B} {\partial t}=0,

– Luật điện trường Gauss:

\displaystyle \text{div} E = \rho,

– Luật Ampère:

\displaystyle \text{curl} B - \frac{\partial E} {\partial t}=j.

Lấy vi phân ngoài của phương trình không thuần nhất (2) thì ta có hệ quả là dạng dòng điện là 3-dạng vi phân đóng

\displaystyle dJ=0.        (3)

Phương trình (3) cũng chính là phương trình bảo tồn của điện tích, được viết dưới dạng hiệp biến

\displaystyle \frac{\partial \rho} {\partial t}=-\text{div}j.        (4)

Lấy tích phân trên một đa tạp \Omega \subset \mathbb{R}^3 có biên là mặt kín \partial \Omega với trường vector định hướng ngoài n, sau  đó áp dụng định lý Gauss–Ostrogradsky thì (4) trở thành

\displaystyle\frac{\partial}{\partial t}\int_{\Omega}\rho dV =-\int_{\partial\Omega}\langle j, n \rangle dS.       (5)

Hay nói cách khác thì (5) chính là nội dụng của định lý tiêu tán: khác cường độ dòng điện đi ra ngoài một mặt kín chính bằng suất tiêu tán của điện tích trong thể tích bọc bởi mặt kín này.

Trong trường hợp mật độ điện tích không đổi theo thời gian, thì vế trái của phương trình trên triệt tiêu. Mạch điện kín một chiều thường được xem xét là có điện tích không đổi. Với một lân cận \Omega đủ nhỏ để chỉ chứa một nút nối của mạch này và giả sử các dây dẫn chạy ra từ nút này giao với mặt biên \partial \Omega tại các thiết diện \partial \Omega_k. Thế thì từ (5) ta có

\displaystyle \sum_{k}I_k=\sum_{k}\int_{\partial \Omega_k} \langle j, n \rangle dS_k =0.

và đây cũng là phát biểu của định luật Kirchhoff: tổng đại số cường độ dòng điện qua một nốt của một mạch điện kín luôn bằng 0.

Kirchhoff's_law

Hình 2. Định luật Kirchhoff cho một nút có 2 dòng chạy vào và 3 dòng chạy ra.

Construction of Borel sigma-algebra

February 6, 2013 Leave a comment

Let (S, <) be an uncountable well-ordered set, and let 1 stand for the minimum element of S. We denote A as the set of all elements \alpha\in S such that the set of its predecessors \text{Pre}_{\alpha}=\{x\in S \ | \ x<\alpha\} is uncountable. If the set A is empty, we will replace S by S\cup\{s^*\}, where s^*\notin S, and set x<s^* for all x\in S.

Since A is a nonempty subset of the well-order set S, so there exists a unique minimum element \omega_1 called first uncountable ordinal. Therefore, if x<\omega_1 then \text{Pre}_x is countable.

Exercise. Give an example for an uncountable set with a well-order relation.

Theorem 1. (Transfinite induction) Let P(\alpha) be a property defined for all \alpha \in S. Suppose that:

1. P(1) is true,

2. for each \alpha<\omega_1, if P(\beta) is true for all \beta < \alpha, then P(\alpha) is also true.

Therefore, P(\alpha) is true for all \alpha <\omega_1.

Proof.

Let \Omega be the set of \alpha <\omega_1 such that P(\alpha) is false. Suppose that \Omega \neq \emptyset. Since \Omega is nonempty subset of the well-ordered set S, there exists an unique minimum element \alpha^*\in \Omega. Observe  that, \alpha^*\neq 1 and the set of its predecessors \text{Pre}_{\alpha^*} is countable. Hence, the property P is true for 1 and all  predecessors of \alpha^*. So it implies that P(\alpha^*) is also true. This inconsistency completes our proof.

Theorem 2. For any sequence \alpha_1,\alpha_2 .... in S, \alpha_i<\omega_1, there exists \alpha^*<\omega_1 such that \alpha_i<\alpha^*<\omega_1 .

Proof. Note that T =\bigcup_{i=1}^{\infty}\left(\{\alpha_i\}\cup \text{Pre}_{\alpha_i}\right) is countable. Therefore, we can choose \alpha^* as an element in the uncountable set \text{Pre}_{\omega_1}\setminus T .

Now let \Sigma_1 stand for the family of all open sets, and \Pi_1 be the family of all closed sets (considered in a topology space). Suppose that \Sigma_{\beta}, \Pi_{\beta} are defined for all \beta <\alpha,  then we can define

By the principle of transfinite induction, \Sigma_{\alpha},\Pi_{\alpha} are well-defined for every \alpha<\omega_1.

Lemma 3. 1. \Pi_{\alpha}=\{A^c \ | \ A\in\Sigma_{\alpha}\}, \Sigma_{\alpha}=\{A^c \ | \ A\in\Pi_{\alpha}\} for 1\le \alpha <\omega_1

and for 1\le \beta<\alpha<\omega_1 then

2.  \Sigma_{\beta}\subset \Pi_{\alpha}, \Pi_{\beta}\subset \Sigma_{\alpha};

3. \Sigma_{\beta}\subset \Sigma_{\alpha}, \Pi_{\beta}\subset \Pi_{\alpha}.

Proof.

1. The fact is true for \alpha=1. Assume that it is true for all \beta<\alpha, then

for each A\in \Pi_{\alpha}, we have A=\bigcap_{i=1}^{\infty} A_{i}, where A_i\in \Sigma_{\beta_i}, \beta_i<\alpha. Moreover,  A_{i}^c \in \Pi_{\beta_i}. It allows that A^c=\bigcup_{i=1}^{\infty} A_{i}^c \subset \Sigma_{\alpha}. Therefore, by the principle of transfinite induction, we conclude that \Pi_{\alpha}=\{A^c \ | \ A\in\Sigma_{\alpha}\}, and similarly, \Sigma_{\alpha}=\{A^c \ | \ A\in\Pi_{\alpha}\} for 1\le \alpha <\omega_1.

2. This fact is obvious.

3. If A\in \Sigma_{\beta}, then  A=\bigcup_{i=1}^{\infty} A_{i}, A_i\in \Pi_{\gamma_i} where \gamma_i<\beta < \alpha. This obviously implies that A\in \Sigma_{\alpha}. So \Sigma_{\beta}\subset \Sigma_{\alpha} and similarly, \Pi_{\beta}\subset \Pi_{\alpha}.

Theorem 4. The Borel sigma-algebra, i.e. smallest sigma-algebra that consists all open (closed) sets, is given by \mathfrak{B}=\bigcup_{\alpha<\omega_1}\Sigma_{\alpha}=\bigcup_{\alpha<\omega_1}\Pi_{\alpha}

Proof.  Lemma 3.2 help us to prove the identity \bigcup_{\alpha<\omega_1}\Sigma_{\alpha}=\bigcup_{\alpha<\omega_1}\Pi_{\alpha}.

It is easy to show that \mathfrak{B} is closed under complement by applying Lemma 3.1.

If A_i\in \mathfrak{B}, i=1,2,... then A_i \in \Pi_{\alpha_i}, \alpha_i<\omega_1.

Applying Theorem 2, there exists \alpha^* such that \alpha_i<\alpha^*<\omega_1. So it implies that

Moreover, one can show by the transfinite induction that \Sigma_{\alpha}, \Pi_{\alpha} are subsets of any sigma algebra that contains all closed (open) sets. So we can conclude that \mathfrak{B} is the Borel sigma-algebra that we need to understand its structure.

Categories: Real Analysis

Malliavin-Stein Method for Muti-dimensional U-statistics of Poisson point processes

November 17, 2011 Leave a comment

Here is my new manuscript submitted to ARXIV [math.PR]. The preprint version can be found here.

 

MALLIAVIN-STEIN METHOD FOR MULTI-DIMENSIONAL
U-STATISTICS OF POISSON POINT PROCESSES

 

Abstract. In this paper, we give an upper bound for a probabilistic distance between a Gaussian vector and a vector of U-statistics of Poisson point processes by applying Malliavin-Stein inequality on the Poisson space.

I – Introduction

The theory of Malliavin calculus on the Poisson space was firstly studied by Nualart and Vives in their excellent paper of Strasbourg’s seminars [Nualart1990]. For some important contributions and applications for Poisson point processes, we refer to [Houdre1995, Wu2000, Peccati2011, Last2011]. The combination of Stein’s method and Malliavin calculus on the Poisson space related to the normal approximations of Poisson functionals has been considered by Peccati, Solé, Taqqu, Utzet and Zheng in their recent papers [Peccati2010a, Peccati2010b].

The basic theory of U-statistics was introduced by Hoeffding [Hoeffding1948] as a class of statistics that is especially important in estimation theory. Further applications are widely regarded in theory of random graphs, spatial statistics, theory of communication and stochastic geometry, see e.g. [Lee1990, Koroljuk1994, Borovskikh1996].

Recently, the idea of central limit theorems for U-statistics of Poisson point processes by using Malliavin calculus and Stein’s method has been given by Reitzner and Schulte in [Reitzner2011]. Our main work in the current paper is to extend their results to vectors of U-statistics by applying the muti-dimensional Malliavin-Stein inequality, that was proved by Peccati and Zheng in [Peccati2010b]. Some preliminaries of Malliavin calculus on the Poisson space and U-statistic will be introduced in Section 2. An upper bound for a probabilistic distance between a Gaussian vector and a square integrable random variable with finite Wiener-Itô chaos expansions will be shown in Section 3 and its application for multi-dimensional U-statistics of Poisson point processes will be given in Section 4.

II – Malliavin Calculus on the Poisson space

Let (E, \mathcal A, \mu) be some measure space with \sigma-finite measure \mu. The Poisson point process or Poisson measure with intensity measure \mu is a family of random variables \{{N}(A)\}_{A\in\mathcal{A}} defined on some probability space (\Omega, \mathcal F, \mathrm{P}) such that
1.  \forall A\in\mathcal{A}, N(A) is a Poisson random variable with rate \mu(A).
2. If sets A_1,A_2,\ldots,A_n\in\mathcal{A} don’t intersect then the corresponding random variables {N}(.) from i) are mutually independent.
3. \forall\omega\in\Omega, {N}(.,\omega) is a measure on (E, \mathcal A).

Note that, for some \sigma-finite measure space (E, \mathcal A, \mu), we can always set

\Omega=\{\omega =\sum_{j=1}^n\delta_{z_j}, \ n\in\mathbb{N}\cup\{\infty\}, z_j\in E  \},

where \delta_z denotes the Dirac mass at z, and for each A\in \mathcal{A}, we give the mapping {N} such that

\omega\mapsto {N}(A,\omega)=\omega(A).

Moreover, the \sigma-field \mathcal{F} is supposed to be the \text{P}-completion of the \sigma-field generated by {N}.

Let \mathcal{M}(E) denote the space of all integer-valued \sigma-finite measures on E, which can be equipped with the smallest \sigma-algebra \Sigma such that for each A\in\mathcal{A} then the mapping \eta\in\mathcal{M}(E)\mapsto \eta(A) is measurable. We can give on (\mathcal{M}(E),\Sigma) the probability measure P_{N} induced by the Poisson measure N and denote L^p(P_{N}) as the set of all measurable functions F:\mathcal{M}(E)\to \overline{\mathbb R} such that \mathbf{E}[|F|^p]<\infty, where the expectation takes w.r.t. the probability measure P_{N}.

Let L^p(\mu^n) be the space of all measurable functions f: E^n \to\overline{\mathbb{R}} such that

\|f\|=\int\limits_{E^k}|f(z_1,\hdots,z_n)|^p \, \mu^n(dz_1, \dots ,dz_n)<\infty.

Note that L^2(\mu^n) becomes a Hilbert space when we define on it the scalar product

 \langle f, g\rangle =\int\limits_{E^k}f(z_1,\hdots,z_n) g(z_1,\hdots,z_n)\, \mu^n(dz_1, \dots ,dz_n).

We denote L^p_{\text{sym}}(\mu^n) as the subset of symmetric functions in L^p(\mu^n), in the sense that the functions are invariant under all permutations of the arguments. Now, for each A\in\mathcal{A}, we define the random variable \widehat{N}(A)=N(A)-\mu(A), which is also known as a compensated Poisson measure.
For each symmetric function f\in L^2_{\text{sym}}(\mu^n), one can define the multiple Wiener-It\^o integral I_n(f) w.r.t the compensated Poisson measure \widehat{N} denoted by

I_n(f)=\int_{E^n}f(z_1,\hdots, z_n) \widehat{N}^n(dz_1, \dots ,dz_n). \ \ \ (1)

At first, let \mathcal{S}_n be the class of simple functions f, which takes the form

f(z_1,z_2,....,z_n)=\sum_{k=1}^m\lambda_k \mathbf{1}_{A_{1}^{(k)}\times\ldots \times A_{n}^{(k)}}(z_1,z_2,....,z_n), \ \ (2)

where A_{i}^{(k)}\in\mathcal{A}, \lambda_k\in \mathbb{R} and the sets A_{1}^{(k)}\times\ldots \times A_{n}^{(k)} are pairwise disjoint such that f is symmetric and vanishes on diagonals, that means f(z_1, \ldots , z_n) = 0 if z_i = z_j for some i\neq j. The multiple Wiener-It\^o integral for a simple function f in the form (2) with respect to the compensated Poisson measure \widehat{N} is defined by

I_n(f)=\sum_{k=1}^m\lambda_k\widehat{N}(A_1)\ldots\widehat{N}(A_n).

Since the class \mathcal{S}_n is dense in L^2_{\rm sym}(\mu^n) then for every f\in L^2_{\rm sym}(\mu^n), there exists a sequence \{f_l\}_{l\ge0}\subset\mathcal{S}_n such that f_l\to f in L^2_{\rm sym}(\mu^n). Moreover, one can show that \mathbf{E}[I_n(f_l)^2] = k!\|f_l\|^2. Hence, the the multiple Wiener-It\^o integral I_n(f) for a symmetric function f\in L^2_{\rm sym}(\mu^n) can be defined as the limit of the sequence \{I_n(f_l)\}_{l\ge 0} in L^2(P_N) and we denote it as (1).

Proposition 2.1. For n,m\geq 1 and f\in L_{\rm sym}^2(\mu^n), g\in L_{\rm sym}^2(\mu^m), then
1. \mathbf{E}[I_n(f)]=0,
2. \mathbf{E}[I_n(f) I_m(g)]=  \delta_{n,m} n!\langle f,g  \rangle_{L^2(\mu^n)}
where \delta_{n,m} is the Kronecker delta
.

For a measurable function F:\mathcal{M}(E)\to\overline{\mathbb R} and z\in E we define the difference operator as

D_zF(\eta)=F(\eta+\delta_z)-F(\eta),

where \delta_z is the Dirac measure at the point z. The iterated difference operator is given by

D_{z_1,\hdots,z_n}F=D_{z_1}D_{z_2,\hdots,z_n}F.

We define the kernels of F as functions f_n: E^n\to \overline{\mathbb R} given by

f_n(z_1,\hdots,z_n)=\frac{1}{n!}\mathbf{E}[D_{z_1,\hdots,z_n}F], n \geq 1,

Note that f_n is a symmetric function.

We define the Ornstein-Uhlenbeck generator as

LF(\eta) = \int\limits_E (F( \eta - \delta_z) - F(\eta)) \eta(dz) - \int\limits_E (F(\eta) - F(\eta + \delta _z))\,  \mu(dz).

Proposition 2.2. For each F\in L^2(P_N), then the kernels f_n are elements of L^2(\mu^n), n\ge 1 and uniquely admit the Wiener-It\^o chaos expansion in the form

F=\mathbf{E}[F]+\sum_{n=1}^{\infty}I_n(f_n),


where the sum converges in L^2(P_N). Furthermore, for F,G\in L^2(P_N)

{\rm Cov}(F,G)=\mathbf{E}[FG]- \mathbf{E}[F]\mathbf{E}[G]=\sum_{n=1}^\infty n!\langle f_n, g_n \rangle_{L^2(\mu^n)}.

Proposition 2.3. Let F\in L^2(P_N), and assume that

\sum_{n=1}^\infty n \, n!\|f_n\|^2<\infty.


Then the difference of F at z\in E is given by

D_zF=\sum_{n=1}^\infty n I_{n-1}(f_n(y,\cdot)).


Proposition 2.4. For each random variable F\in L^2(P_N) such that

\sum_{n=1}^\infty i^2i!\|f_n\|^2<\infty,


then the Ornstein-Uhlenbeck generator L is calculated as

LF=-\sum_{n=1}^{\infty}n I_n(f_n).


Moreover, its inverse operator is calculated as

L^{-1}F=-\sum_{n=1}^\infty\frac{1}{n}I_n(f_n).


for each F\in L^2(P_N) such that \mathbf{E}[F]=0.

For more details of the Malliavin calculus on Poisson space, we refer the reader to [Nualart1990].

III – Multi-dimensional Malliavin-Stein inequality

In the next sequence, we use the probabilistic distance of two d-dimensional random vectors X,Y such that \mathbf{E}(\|X\|_{\mathbb{R}^d}), \mathbf{E}(\|Y\|_{\mathbb{R}^d})<\infty, which is defined by

\Delta(X,Y)=\sup_{g\in \mathcal H}|\mathbf{E}(g(X))-\mathbf{E}(g(Y))|,

where  \mathcal{H} is the family of all real-valued functions g\in C^2(\mathbb{R}^d) such that

\|g\|_{{\rm Lip}}=\sup_{x\neq y}\frac{|g(x)-g(y)|}{\|x-y\|_{\mathbb{R}^d}}\le 1, \sup_{x\in\mathbb{R}^d}\| {\rm Hess}( g(x))\|\le 1.

In the above inequality,

{\rm Hess}(g(z))=\left.\left(\frac{\partial^2 g}{\partial x_i\partial x_j}(z)\right)_{i,j=1}^d\right.

stands for the Hessian matrix of g evaluated at a point z and we use the notation of operator norm for a d\times d real matrix A given by

\|A \| = \sup_{\|x\|_{\mathbb{R}^d}=1} \|Ax\|_{\mathbb{R}^d}.


Theorem 3.1.
[Multi-dimensional Malliavin-Stein inequality] Consider a random vector F=(F_1,\ldots,F_d)\subset L^2(P_N), d\ge2 such that for 1\leq i\leq d, F_i\in{\rm dom}(D), and \mathbf{E}(F_i)=0. Suppose that  X\sim\mathcal{N}_d(0,C) , where C=\{C(i,j): i,j= 1,\ldots,d  \} is a d\times d positive definite symmetric matrix. Then,

\begin{array}{ll}\displaystyle\Delta(F,X) \leq \|C^{-1}\| \|C\|^{1/2} \sqrt{\sum_{i,j=1}^{d} \mathbf{E}[(C(i,j) - \langle  DF_i,-DL^{-1}F_j \rangle_{L^2(\mu)} )^2 ] } \\\displaystyle+ \cfrac{\sqrt{2\pi}}{8} \|C^{-1}\|^{3/2} \|C\| \int_E \mu(dz)\mathbf{E}\left[\left(\sum_{i=1}^d|D_z F_i | \right)^2 \left(\sum_{i=1}^d|D_z L^{-1} F_i |  \right) \right].\end{array}

For the proof, we refer to [Peccati2010b].

Now we consider a d-dimensional random vector F=(F_1,\ldots,F_d) \subset L^2(P_N) with the covariance matrix \Sigma=\{\Sigma(i,j): i,j= 1,\ldots,d  \} such that each component F_i has finite Wiener-It\^o chaos expansions with kernels f_{i}^{(n)}, which vanishes if n>k. Let give the centered random vector

G=\sqrt{C\Sigma^{-1}}\left(F-\mathbf{E}[F]\right),

where \sqrt{A} stands for the square root of a positive definite matrix A, i.e if A has the eigenvalues decomposition A= P^{-1}{\rm diag}({\lambda_1},\ldots,{\lambda_d})P
then

\sqrt{A}=P^{-1}{\rm diag}(\sqrt{\lambda_1},\ldots,\sqrt{\lambda_d})P.

Let us use vector notations

\nabla_zF=(D_zF_1,\ldots,D_zF_d), \ \nabla_z L F=(D_z LF_1,\ldots ,D_z LF_d)

and note that the inequality

{\rm trace}(AB)\le {\rm trace}(A) {\rm trace}(B)

holds for all positive definite matrices A,B.
Therefore, by the properties matrix trace {\rm trace}(AB)={\rm trace}(BA) and using the inequality (3), we have

\sum_{i,j=1}^{d}(C(i,j) - \langle  DG_i,-DL^{-1}G_j \rangle_{L^2(\mu)} )^2 ={\rm trace}\left[\left(C- \int_E\mu(dz) \nabla_z G(-\nabla_z L G)^T\right)^2\right]
={\rm trace}\left[\left(\sqrt{C\Sigma^{-1}}\left( \Sigma - \int_E\mu(dz) \nabla_z [F-\mathbf{E}(F)](-\nabla_z L [F-\mathbf{E}(F)])^T\right)\sqrt{C\Sigma^{-1}}^T\right)^2\right]
={\rm trace}\left[ (C\Sigma^{-1})^2 \left( \Sigma - \int_E\mu(dz) \nabla_z [F-\mathbf{E}(F)](-\nabla_z L [F-\mathbf{E}(F)])^T\right)^2\right]
\le {\rm trace} [(C\Sigma^{-1})^2]{\rm trace} \left[\left( \Sigma - \int_E\mu(dz) \nabla_z [F-\mathbf{E}(F)](-\nabla_z L [F-\mathbf{E}(F)])^T\right)^2\right]
=\|C\Sigma^{-1}\|_{F}^2 \sum_{i,j=1}^{d}\left(\Sigma(i,j) - \langle  D[F_i-\mathbf{E}(F)],-DL^{-1}[F_j-\mathbf{E}(F)] \rangle_{L^2(\mu)} \right)^2,

where

\|A\|_F=\sqrt{{\rm trace}(A^TA)}

denotes the Frobenius norm of matrix A.
Note that

\Sigma(i,j)={\rm Cov}(F_i,F_j)=\sum_{n=1}^{k}n!\left\langle f_i^{(n)}, f_j^{(n)} \right\rangle_{L^2(\mu^n)},

and

 \langle  D[F_i-\mathbf{E}(F_i)],-DL^{-1}[F_j-\mathbf{E}(F_j)] \rangle_{L^2(\mu)}=\left \langle \sum_{n=1}^knI_{n-1}(f_i^{(n)}(z,\cdot)),\sum_{n=1}^k I_{n-1}(f_j^{(n)}(z,\cdot))\right\rangle_{L^2(\mu)}.

Hence,

\begin{array}{l} \displaystyle\mathbf{E}[(\Sigma(i,j) - \langle  D[F_i-\mathbf{E}(F_i)],-DL^{-1}[F_j-\mathbf{E}(F_j)] \rangle_{L^2(\mu)} )^2]\\ \displaystyle\le k^2\left(  \sum_{n=1}^{k}\mathbf{E}\left[\left(n!\left\langle f_i^{(n)}, f_j^{(n)} \right\rangle_{L^2(\mu^n)}-n\left \langle I_{n-1}(f_i^{(n)}(z,\cdot)),I_{n-1}(f_j^{(n)}(z,\cdot)) \right\rangle_{L^2(\mu)}\right)^2 \right]\right.\\  \displaystyle +\left. \sum_{n,m=1,\, n \neq m}^k  \mathbf{E} \left[n^2 \left\langle I_{n-1}(f_i^{(n)}(z,\cdot)),I_{m-1}(f_j^{(m)}(z,\cdot))\right\rangle_{L^2(\mu)}^2\right]\right)\\  \displaystyle =\ k^2 \sum_{1\le n,m\le k}n^2{\rm Var}\left( \left \langle I_{n-1}(f_i^{(n)}(z,\cdot)),I_{m-1}(f_j^{(m)}(z,\cdot)) \right\rangle_{L^2(\mu)} \right).\end{array}

It follows that

\sqrt{\sum_{i,j=1}^{d} \mathbf{E}[(C(i,j) - \langle  DG_i,-DL^{-1}G_j \rangle_{L^2(\mu)} )^2 ] }
\le k^2 \|C\Sigma^{-1}\|_{F} \sqrt{\sum_{i,j=1}^{d}\sum_{n,m=1}^{k} {\rm Var}\left( \left \langle I_{n-1}(f_i^{(n)}(z,\cdot)),I_{m-1}(f_j^{(m)}(z,\cdot)) \right \rangle_{L^2(\mu)} \right) }. \ \ (4)

Moreover, by using Holder inequality and the property of matrix norm, we have

 \int_E \mu(dz)\mathbf{E}\left[\left(\sum_{i=1}^d|D_z G_i | \right)^2 \left(\sum_{i=1}^d|D_z L^{-1} G_i |  \right) \right]\le d^{3/2}\int_E \mu(dz)\mathbf{E}\left[\|\nabla_z G \|_{\mathbb{R}^d}^2\|\nabla_zL^{-1} G \|_{\mathbb{R}^d} \right]
=d^{3/2}\int_E \mu(dz)\mathbf{E}\left[\| \sqrt{C\Sigma^{-1}} \nabla_z [F-\mathbf{E}(F)]\|_{\mathbb{R}^d}^2\|\sqrt{C\Sigma^{-1}} \nabla_zL^{-1}[F-\mathbf{E}(F)]  \|_{\mathbb{R}^d} \right]
\le d^{3/2}\|\sqrt{C\Sigma^{-1}}\|^3\int_E \mu(dz)\mathbf{E}\left[\|  \nabla_z [F-\mathbf{E}(F)]\|_{\mathbb{R}^d}^2\| \nabla_zL^{-1} [F-\mathbf{E}(F)] \|_{\mathbb{R}^d} \right]
\le d^{3/2}\|\sqrt{C\Sigma^{-1}}\|^3 \left( \int_E \mu(dz) \mathbf{E}\left[\left(\sum_{i=1}^d|D_z [F_i-\mathbf{E}(F_i)] |^2\right)^2\right]  \right)^{1/2}
\times \left( \int_E \mu(dz) \mathbf{E}\left[ \sum_{i=1}^d|D_z L^{-1} [F_i-\mathbf{E}(F_i)] |^2   \right]  \right)^{1/2}

\le d^2 \|\sqrt{C\Sigma^{-1}}\|^3  \left( \sum_{i=1}^d \int_E \mu(dz) E\left[|D_z [F_i-\mathbf{E}(F_i)] |^4\right]  \right)^{1/2}

\times \left( \sum_{i=1}^d \int_E \mu(dz) \mathbf{E}\left[|D_z L^{-1} [F_i-\mathbf{E}(F_i)] |^2\right]  \right)^{1/2}

\le  d^2 \|\sqrt{C\Sigma^{-1}}\|^3  \left( \sum_{i=1}^d   \int\limits_E\mu(dz) k^3 \sum_{n=1}^k  n^4 \mathbf{E}[I_{n-1}(f_i^{(n)}(z,\cdot))^4] \right)^{1/2}

\times \left( \sum_{i=1}^d                 \int\limits_E\mu(dz)\sum_{n=1}^k \mathbf{E}[I_{n-1}(f_i^{(n)}(z,\cdot))^2]\right)^{1/2}

=  d^2  \|\sqrt{C\Sigma^{-1}}\|^3 \left( \sum_{i=1}^d  k^3 \sum_{n=1}^k n^4 \mathbf{E}[\|I_{n-1}(f_i^{(n)}(z,\cdot))^2 \|^2] \right)^{1/2}  \left( \sum_{i=1}^d \sum_{n=1}^k  (n-1)!\|f_i^{(n)}\|^2  \right)^{1/2}

\le d^{2} k^{7/2} \|\sqrt{C\Sigma^{-1}}\|^3({\rm trace}(\Sigma))^{1/2} \sqrt{\sum_{i=1}^d\sum_{n=1}^k \mathbf{E}\left[\|I_{n-1}(f_i^{(n)}(z,\cdot))^2 \|^2\right]}. \ \ (5)
Substituting (4) and (5) to the inequality in Theorem 3.1 for G, we obtain that

Theorem 3.2. Let give a d-dimensional Gaussian random variable  X\sim \mathcal{N}_d(0,C). Assume that F=(F_1,\ldots,F_d) \subset L^2(P_N) such that {\rm Cov}(F_i,F_j)=\Sigma(i,j), \ i,j=1,d and F_i has finite Wiener-It\^o chaos expansions with kernels f_{i}^{(n)}, which vanishes if n>k. Then

\begin{array}{lll}\displaystyle\Delta\left(\sqrt{C\Sigma^{-1}}\left(F-\mathbf{E}(F)\right),X\right) \leq \\ \displaystyle  \cfrac{ \sqrt{2\pi}}{8}d^{2} k^{7/2} \|\sqrt{C\Sigma^{-1}}\|^3 \|C^{-1}\|^{3/2} \|C\| ({\rm trace}(\Sigma))^{1/2} \sqrt{\sum_{i=1}^d\sum_{n=1}^k \mathbf{E}\left[\|I_{n-1}(f_i^{(n)}(z,\cdot))^2 \|^2\right]}\\ \displaystyle +  k^2\|C\Sigma^{-1}\|_{F} \|C^{-1}\| \|C\|^{1/2}\sqrt{\sum_{i,j=1}^{d}\sum_{n,m=1}^{k} {\rm Var}\left( \left \langle I_{n-1}(f_i^{(n)}(z,\cdot)),I_{n-1}(f_j^{(m)}(z,\cdot)) \right \rangle_{L^2(\mu)} \right) }.\end{array}
IV – Application for multi-dimensional U-statistics

In this section we consider the d-dimensional vector of U-statistics of the Poisson point process N

 F = \left(\sum_{({z}_1,\ldots,{z}_{k_1}) \in S_{k_1}(N)} \phi_1({z}_1,\dots,{z}_{k_1}),\ldots,\sum_{({z}_1,\dots,{z}_{k_d}) \in S_{k_d}(N)} \phi_d({z}_1,\dots,{z}_{k_d}) \right), \ \ (6)

where \phi_i\in L^1_{\rm sym}(\mu^{k_i}), and S_{k_i}(N) denotes the set of all k_i-tuples of distinct points of N. This means that each component

F_i=\sum_{({z}_1,\dots,{z}_{k_i})\in S_{k_i}(N)} \phi_i({z}_1,\dots,{z}_{k_i})

is an U-statistic of order k_i with respect to the Poisson point process N, i=1,d.

The following properties of (one-dimensional) U-statistics are obtained by Reitzner and Schulte in [Reitzner2011]

Proposition 4.1. Let F\in L^2(P_N) be a U-statistic of order k in the form

F=\sum_{({z}_1,\dots,{z}_{k})\in S_k(N)} \phi({z}_1,\dots,{z}_k)


Then the kernels of the Wiener-It\^o chaos expansion of F have the form

 f_n(z_1,\hdots,z_n)= \begin{cases}\displaystyle \binom{k}{n}\int\limits_{E^{k-n}}\phi(z_1,\hdots,z_n,x_1,\hdots,x_{k-n})\, \mu^{k-n}(dx_1,\dots,dx_{k-n}), &n\leq k\\ 0, & n>k. \end{cases}

Proposition 4.2. Assume F\in L^2(P_N), then
1. If F is a U-statistic, then F has a finite Wiener-It\^o chaos expansion with kernels f_n\in L^1(\mu^n)\cap L^2(\mu^n) , n=1,\hdots,k.
2. If F has a finite Wiener-Itô chaos expansion with kernels f_n\in L^1(\mu^n) \cap L^ 2 (\mu^n), n=1,\hdots,k, then F is a finite sum of U-statistics and a constant.

Proposition 4.3. Let f_i\in \mathcal{S}_{k_i}, \ i=1,\hdots,m and  \Pi be the set of all partitions of Z=\{z_1^{(1)},\dots,z_{n_1}^{(1)},\dots,z_{1}^{(m)} ,\dots, z_{n_m}^{(m)}\}, n_i\le k_i such that for each \pi \in \Pi,
1. z^{(i)}_{l}, z^{(i)}_{h}\in Z, l\neq h are always in different subsets of \pi, and such that
2. every subset of \pi has at least two elements.
For every partition \pi\in\Pi we define an operator R^{\pi} that replaces all elements of Z in \prod_{i=1}^m f_i(z_1^{(i)},\hdots,z_{n_i}^{(i)}) that belong to the same subset of \pi by a new variable x_j, j =1, \hdots,{|\pi|}, where |\pi| denotes the number of subsets of the partition \pi. Then

\mathbf{E} \left[\prod_{i=1}^m I_{n_i}(f_i)\right]=\sum_{\pi\in\Pi}\int\limits_{E^{|\pi|}}R^{\pi}(\prod_{i=1}^m f_i(\cdot))(x_1,\hdots,x_{|\pi|})\, \mu^{|\pi|}(dx_1,\dots,dx_{|\pi|}).

Using the Proposition 4.3 and the same technique in [Reitzner2011] (Lemma 4.6), we also obtain that if F=(F_1,F_2,...,F_d)\subset L^2(P_N) is a vector of U-statistics in the form (6) such that \phi_i, i=1,d are simple functions, then all kernels f_i^{(n)} are also simple functions and

{\rm Var}\left( \left \langle I_{n-1}(f_i^{(n)}(z,\cdot)),I_{m-1}(f_j^{(m)}(z,\cdot)) \right \rangle_{L^2(\mu)} \right)
= \mathbf{E}\left[ \left \langle I_{n-1}(f_i^{(n)}(z,\cdot)),I_{m-1}(f_j^{(m)}(z,\cdot)) \right \rangle_{L^2(\mu)}^2\right]- \delta_{n,m}\left((n-1)!\left\langle f_i^{(n)}, f_j^{(m)} \right\rangle_{L^2(\mu^n)}\right)^2
= \int_{E^2}\mathbf{E}\left[ I_{n-1}(f_i^{(n)}(z,\cdot))^2 I_{m-1}(f_j^{(m)}(y,\cdot))^2 \right] \mu^2(dy,dz)
-\delta_{n,m}\left((n-1)!\left\langle f_i^{(n)}, f_j^{(m)} \right\rangle_{L^2(\mu^n)}\right)^2
\le \sum_{\pi\in \overline{\Pi}_{n,m}}\int_{E^{|\pi|}}R^{\pi}\left( \left|f^{(n)}_i(.)f^{(n)}_i(.)f^{(m)}_j(.)f^{(m)}_j(.)\right|\right)(x_1,\ldots, x_{|\pi|})\mu^{|\pi|}(dx_1,\ldots, dx_{|\pi|}),

and

\mathbf{E}\left[\|I_{n-1}(f_i^{(n)}(z,\cdot))^2 \|^2\right]=\int_{E}\mathbf{E}\left[I_{n-1}(f_i^{(n)}(z,\cdot))^4\right]\mu(dz)

\le \sum_{\pi\in \overline{\Pi}_{n,m}}\int_{E^{|\pi|}}R^{\pi}\left( \left|f^{(n)}_i(.)f^{(n)}_i(.)f^{(n)}_i(.)f^{(n)}_i(.)\right|\right)(x_1,\ldots, x_{|\pi|})\mu^{|\pi|}(dx_1,\ldots, dx_{|\pi|}),
where  \Pi_{n,n} stands for the set of partitions satisfying the conditions in Proposition 4.3 with Z_{n,m}=\{z_{1}^{(1)}\ldots z_{n-1}^{(1)},z_{1}^{(2)}\ldots z_{n-1}^{(2)},z_{1}^{(3)}\ldots z_{m-1}^{(3)},z_{1}^{(4)}\ldots z_{m-1}^{(4)}\} and \overline{\Pi}_{n,m} \subset \Pi_{n,m} denotes the set of all partitions in \Pi_{n,m} of such that for any \pi \in \overline{\Pi}_{n,m} and any decomposition of \{ 1, 2,3,4\} into two disjoint sets M_1, M_2 there are i \in M_1, j \in M_2 and two variables z_l^{(i)}, z_h^{(j)} which are in the same subset of \pi.
By the formula of kernels in Proposition 4.1., we note that

\sum_{\pi\in \overline{\Pi}}\int_{E^{|\pi|}}R^{\pi}\left( \left|f^{(n)}_i(.)f^{(n)}_i(.)f^{(m)}_j(.)f^{(m)}_j(.)\right|\right)(x_1,\ldots, x_{|\pi|})\mu^{|\pi|}(dx_1,\ldots, dx_{|\pi|})
\le M_{n,m}(i,j) = \mathbf{1}_{n\le k_i, m\le k_j} \binom{k_i}{n}^2\binom{k_j}{m}^2  \sum_{\pi \in \overline{\Pi}_{n,m}}\int\limits_{E^{|\pi|}} \int\limits_{E^{2(k_i-m)}}   \int\limits_{E^{2(k_j-n)}}
R^{\pi} \left(  |\prod_{l=1}^2 \phi_i(\cdot , x^{(l)}_1,\hdots,x^{(l)}_{k_i-n})\prod_{l=3}^4 \phi_j(\cdot , x^{(l)}_1,\hdots,x^{(l)}_{k_j-m})| \right)(y_1,\hdots,y_{|\pi|}),
\mu^{|\pi|+2(k_i+k_j-j-i)}(dx_1^{(1)},\hdots,dx_{k_i-n}^{(2)},dx_{1}^{(3)} \ldots dx_{k_j-m}^{(4)}, dy_1, \dots dy_{|\pi|}). \ \ (7)

This fact follows that

Theorem 4.1. Assume that F=(F_1,F_2,...,F_d)\subset L^2(P_N) is a vector of U-statistics in the form (\ref{ustat}) such that \phi_i, i=1,d are simple functions. Then

\begin{array}{lll}\displaystyle\Delta\left(\sqrt{C\Sigma^{-1}}\left(F-\mathbf{E}(F)\right),X\right) \leq \\ \displaystyle  \cfrac{ \sqrt{2\pi}}{8}d^{2} k^{7/2} \|\sqrt{C\Sigma^{-1}}\|^3 \|C^{-1}\|^{3/2} \|C\| ({\rm trace}(\Sigma))^{1/2} \sqrt{\sum_{i=1}^d\sum_{n=1}^k M_{n,n}(i,i)}\\ \displaystyle +  k^2\|C\Sigma^{-1}\|_{F} \|C^{-1}\| \|C\|^{1/2}\sqrt{\sum_{i,j=1}^{d}\sum_{n,m=1}^{k} M_{n,m}(i,j) },\end{array}


where k=\max\{k_i, 1\le i\le,d\} and M_{n,m}(i,j), 1\le i,j\le d, 1\le n,m\le k are defined in (7).

Now, we consider that F=(F_1,F_2,....,F_d)\subset L^2(P_N) a vector of U-statistics in the form (6) such that

\sum_{({z}_1,\dots,{z}_{k_i})\in S_{k_i}(N)} |\phi_i({z}_1,\dots,{z}_{k_i})|\in L^2(P_N).

Then, for each i=1,2,\ldots,d there exists a sequence \{\phi_{i,l}\}_{l\ge 0}\subset \mathcal{S}_{k_i} such that |\phi_{i,l}|\le |\phi_i| and \phi_{i,l} converges to \phi_i \mu^{k_i}-almost everywhere. Let give the vector of U-statistics F^{(l)}=(F_{1,l},\ldots,F_{d,l}), where

F_{i,l}=\sum_{({z}_1,\dots,{z}_{k_i})\in S_{k_i}(N)} \phi_{i,l}({z}_1,\dots,{z}_{k_i}).

Hence,

|F_{i,l}|\le \sum_{({z}_1,\dots,{z}_{k_i})\in S_{k_i}(N)} |\phi_{i,l}({z}_1,\dots,{z}_{k_i})|\le \sum_{({z}_1,\dots,{z}_{k_i})\in S_{k_i}(N)} |\phi_i({z}_1,\dots,{z}_{k_i})|\in L^2(P_N).

Its follow that F_{i,l}\in L^2(P_N), F_{i,l} converges to F_i almost surely and all kernels f_{i,l}^{(n)} in the Wiener-It\^o chaos expansion of F_{i,l} are simple functions.
Note that

\Sigma(i,j)={\rm Cov}(F_i,F_j)= =\sum_{n=1}^{\infty}n!\binom{k_i}{n}\binom{k_j}{n}\int\limits_{E^n}\ \int\limits_{E^{k_i-n}} \phi_i(z_1,\hdots,z_n,x_1,\hdots,x_{k_i-n})\mu^{k_i-n}(dx_1, \dots dx_{k_i-n}) \times \int\limits_{E^{k_j-n}}\phi_j(z_1,\hdots,z_n,x_1,\hdots,x_{k_j-n})\, \mu^{k_j-n}(dx_1, \dots dx_{k_j-n}) \mu^n(dz_1, \dots, dz_n).

Moreover, the integrals

\int\limits_{E^n}\ \int\limits_{E^{k_i-n}} |\phi_i(z_1,\hdots,z_n,x_1,\hdots,x_{k_i-n})|\mu^{k_i-n}(dx_1, \dots dx_{k_i-n}) \times \int\limits_{E^{k_j-n}}|\phi_j(z_1,\hdots,z_n,x_1,\hdots,x_{k_j-n})|\, \mu^{k_j-n}(dx_1, \dots dx_{k_j-n}) \mu^n(dz_1, \dots, dz_n)

always exist for 1\le n\le k_i, 1\le i,j\le d.
Therefore, by applying the Lebesgue dominated convergence theorem, we obtain that \Sigma^{(l)}(i,j)\to \Sigma(i,j) and \mathbf{E}(F_{i,l})\to\mathbf{E}(F_{i}) for l\to\infty. Hence,

\sqrt{C(\Sigma^{(l)})^{-1}}\left(F^{(l)}-\mathbf{E}(F^{(l)})\right)\to \sqrt{C\Sigma^{-1}}\left(F-\mathbf{E}(F)\right)

almost surely for l\to\infty.
Note that, the almost sure convergence implies the convergence in the probabilistic distance \Delta and |M^{(l)}_{n,m}(i,j)|\le |M_{n,m}(i,j)| , where M^{(l)}_{n,m}(i,j) is defined when we replace \phi_{i},\phi_{j} by \phi_{i}^{(l)},\phi_{j}^{(l)} in (7). Therefore, by using Theorem 4.1 and applying the triangular inequality, we conclude that

Theorem 4.2. Assume that F=(F_1,\ldots,F_d)\subset L^2(P_N) is a vector of U-statistics in the form (6) such that

\sum_{({z}_1,\dots,{z}_{k_i})\in S_{k_i}(N)} |\phi_i({z}_1,\dots,{z}_{k_i})|\in L^2(P_N).


Then

\begin{array}{lll}\displaystyle\Delta\left(\sqrt{C\Sigma^{-1}}\left(F-\mathbf{E}(F)\right),X\right) \leq \\ \displaystyle  \cfrac{ \sqrt{2\pi}}{8}d^{2} k^{7/2} \|\sqrt{C\Sigma^{-1}}\|^3 \|C^{-1}\|^{3/2} \|C\| ({\rm trace}(\Sigma))^{1/2} \sqrt{\sum_{i=1}^d\sum_{n=1}^k M_{n,n}(i,i)}\\ \displaystyle +  k^2\|C\Sigma^{-1}\|_{F} \|C^{-1}\| \|C\|^{1/2}\sqrt{\sum_{i,j=1}^{d}\sum_{n,m=1}^{k} M_{n,m}(i,j) }, \end{array}


where k=\max\{k_i, 1\le i\le,d\} and M_{n,m}(i,j), 1\le i,j\le d, 1\le n,m\le k are defined in (7).

Corollary 4.3. Assume that \{F^{(l)}\}_{l\ge 0} is a sequence of vectors of U-statistics, which are defined as in Theorem 4.2, such that

\max_{1\le i,j\le d, 1\le n,m\le k}M_{n,m}^{(l)}(i,j)\to 0


for l\to\infty, then the law of \sqrt{C(\Sigma^{(l)})^{-1}}\left(F^{(l)}-\mathbf{E}(F^{(l)})\right) converges to the multivariate Gaussian law  \mathcal{N}_d(0,C).

References

[Bor96] Yu. V. Borovskikh, U-statistics in Banach spaces, VSP, Utrecht, 1996. MR1419498
[Hoe48] W. Hoeffding, A class of statistics with asymptotically normal distribution, Ann. Math. Statistics 19 (1948), 293–325. MR0026294
[HPA95] C. Houdr´e and V. P´erez-Abreu, Covariance identities and inequalities for functionals on Wiener and Poisson spaces, Ann. Probab. 23 (1995), no. 1, 400–419. MR1330776
[KB94] V. S. Koroljuk and Yu. V. Borovskich, Theory of U-statistics, Mathematics and its Applications, vol. 273, Kluwer Academic Publishers Group, Dordrecht, 1994. MR1472486
[Lee90] A. J. Lee, U-statistics, theory and practice, Statistics: Textbooks and Monographs, vol. 110, Marcel Dekker Inc., New York, 1990. MR1075417
[LP11] G. Last and M. Penrose, Poisson process fock space representation, chaos expansion and covariance inequalities, Probability Theory and Related Fields 150 (2011), 663–690.
[NV90] D. Nualart and J. Vives, Anticipative calculus for the Poisson process based on the Fock space, S´eminaire de Probabilit´es, XXIV, 1988/89, Lecture Notes in Math., vol. 1426, Springer, Berlin, 1990, pp. 154–165. MR1071538
[PSTU10] G. Peccati, J. L. Sol´e, M. S. Taqqu, and F. Utzet, Stein’s method and normal approximation of Poisson functionals, Ann. Probab. 38 (2010), no. 2, 443–478. MR2642882
[PT11] G. Peccati and M. S. Taqqu, Wiener chaos: moments, cumulants and diagrams, Bocconi & Springer Series, vol. 1, Springer, Milan, 2011. MR2791919
[PZ10] G. Peccati and C. Zheng, Multi-dimensional Gaussian fluctuations on the Poisson space, Electron. J. Probab. 15 (2010), no. 48, 1487–1527. MR2727319
[RS11] M. Reitzner and M. Schulte, Central Limit Theorems for U-Statistics of Poisson Point Processes, ArXiv e-prints (2011).
[Wu00] L. Wu, A new modified logarithmic Sobolev inequality for Poisson point processes and several applications, Probab. Theory Related Fields 118 (2000), no. 3, 427–438.

CSIST’ 2011

November 1, 2011 Leave a comment

“International congress on Computer Science:  Information Systems and Technologies” (CSIST’2011) will start on November 1st at the Lyceum of Belarusian State University. Organizers of the congress – Belarusian State University, Joint Institute of Informatics Problems of National Academy of Sciences of Belarus and the Scientific and Technological Association “Infopark”.

The forum program includes plenary sessions and the work of 11 sections:

Information Security and Computer Data Analysis
Intellectual Information Systems
Information and Communication Infrastructure
Information Systems and Technologies of Support of the Scientifically-Educational Environment
Computer-Focused Instrumentation and Measuring Systems
Optimization and Reliability of Information Systems
Parallel and Distributed Data Processing,
Software Engineering
Pattern Recognition, Information Management Systems
Theoretical Computer Science
Digital Media Technologies

The discussion will bring together scientists from Belarus, Russia, Moldova, Lithuania, Poland, Germany, France, Spain, USA, Vietnam, and UNESCO.

Link: http://www.csist.bsu.by/en/main.aspx

My talk entitled “Queueing system GI/M/1 with randomized threshold admission control” is a part of the section “Optimization and Reliability of Information Systems”.  The presentation is available here.

Nghiệm Cauchy-Kovalevski-Somigliana cho hệ Navier

August 9, 2011 Leave a comment

Từ định luật II Newton chúng ta có phương trình Cauchy cho chuyển động của một thể vật chất liên tục

\displaystyle \nabla .\,\mathbf{\sigma }+\mathbf{f}=\rho \frac{\partial^2 \mathbf{u}}{\partial t^2}

trong đó \boldsymbol{\sigma} là trường Cauchy stress tensor, \mathbf{u} là trường vector dịch chuyển của thể vật chất, \mathbf{f} là trường lực khối, và \rho là mật độ vật chất.

Ở đây chúng ta xét cho một thể đàn hồi đẳng hướng. Khi đó theo định luật Hooke

\boldsymbol{\sigma} = \lambda~\mathrm{trace}(\boldsymbol{\varepsilon})~\mathbf{I} + 2\mu~\boldsymbol{\varepsilon}
trong đó \lambda,\mu>0 là các hệ số Lamé, \mathbf{I} tensor bậc hai đơn vị và \boldsymbol{\varepsilon} là trường infinitesimal strain tensor xác định bởi
 \boldsymbol{\varepsilon} =\tfrac{1}{2} \left[\boldsymbol{\nabla}\mathbf{u}+(\boldsymbol{\nabla}\mathbf{u})^T\right]\,\!

Thay nó vào lại phương trình Cauchy ta thu được phương trình Navier (còn gọi là phương trình sóng động đàn hồi)

(\lambda+\mu)\nabla(\nabla\cdot\mathbf{u})+\mu~\nabla^2\mathbf{u}+\mathbf{f}= \rho~\ddot{\mathbf{u}}

Dưới dạng tọa độ, ta có hệ

(\lambda+\mu)\frac{\partial }{\partial x_k}\text{div}(u)+\mu \nabla^2 u_k +f_k = \rho \frac{\partial^2 u_k}{\partial t^2}, \ \ k=1,2,3

Có nhiều biểu diễn nghiệm riêng cho hệ trên, ở đây thì ta bàn đến một sự liên quan đến nghiệm của phương trình sóng kép (biwave equation).

Bây giờ nếu ta đặt a^2=(\lambda+2\mu)/\rho, b^2=\mu/\rho, thì phương trình Navier viết lại thành

\left( \frac{\partial^2 }{\partial t^2} -b^2 \nabla^2 \right)\mathbf{u}-(a^2-b^2)\nabla(\text{div}(\mathbf{u}))-\mathbf{f}/\rho =0 \ \ \ \ (*)
Giả sử \mathbf{w} là nghiệm của phương trình sóng kép có dạng
\left( \frac{\partial^2 }{\partial t^2} -a^2 \nabla^2 \right)\left( \frac{\partial^2 }{\partial t^2} -b^2 \nabla^2 \right)\mathbf{w}=\mathbf{f}/\rho

Khi đó công thứ Cauchy-Kovalevski-Somigliana

u=\left( \frac{\partial^2 }{\partial t^2} -a^2 \nabla^2 \right)\mathbf{w}+(a^2-b^2)\nabla(\text{div}(\mathbf{w})) \  \  \ (**)cho ta một nghiệm của (*).

Thật thế, nếu thay (**) vào vế trái của (*) thì ta được
LHS=\left( \frac{\partial^2 }{\partial t^2} -b^2 \nabla^2 \right)\left(\left( \frac{\partial^2 }{\partial t^2} -a^2 \nabla^2 \right)\mathbf{w}+(a^2-b^2)\nabla(\text{div}(\mathbf{w})) \right)

- (a^2-b^2)\nabla\left( \left( \frac{\partial^2 }{\partial t^2} -a^2 \nabla^2 \right)\text{div}(\mathbf{w})+(a^2-b^2)\nabla^2(\text{div}(\mathbf{w})) \right)-\mathbf{f}/\rho

Trong đó chú ý

\left( \frac{\partial^2 }{\partial t^2} -a^2 \nabla^2 \right)\text{div}(\mathbf{w})+(a^2-b^2)\nabla^2(\text{div}(\mathbf{w})) = \left( \frac{\partial^2 }{\partial t^2} -b^2 \nabla^2 \right)\text{div}(\mathbf{w})

Như vậy

LHS=\left( \frac{\partial^2 }{\partial t^2} -b^2 \nabla^2 \right)\left( \frac{\partial^2 }{\partial t^2} -a^2 \nabla^2 \right)\mathbf{w}+(a^2-b^2) \left( \frac{\partial^2 }{\partial t^2} -b^2 \nabla^2 \right)\nabla(\text{div}(\mathbf{w}))
-(a^2-b^2) \nabla\left( \frac{\partial^2 }{\partial t^2} -b^2 \nabla^2 \right)(\text{div}(\mathbf{w})) - \mathbf{f}/\rho =0

Phương trình chuyển động Cauchy

August 4, 2011 5 comments

Ngoại lực tác động lên một thể vật chất gồm có:
– Lực khối (body force) tác động vào mỗi đơn vị thể tích, ký hiệu bởi trường vector \mathbf{f}=({{f}_{i}}).
– Lực bề mặt (surface force) hay ứng suất (stress) là lực tác động mỗi đơn vị diện tích bề mặt.
Xét thể vật chất chiếm thể tích trong miền \Omega \subset {{\mathbb{R}}^{d}} với biên bị chặn, trơn từng miếng \partial \Omega với trường vector pháp tuyến tương ứng là \mathbf{n}. Giả sử {{\mathbf{T}}^{(\mathbf{n})}}=(T_{i}^{(\mathbf{n})}) là một trường vector ứng suất tác động lên mỗi đơn vị diện tích của bề mặt \partial \Omega . khi đó định lý ứng suất Cauchy (Cauchy’s stress theorem) phát biểu rằng tồn tại trường tensor bậc hai \mathbf{\sigma }=({{\sigma }_{ij}}) sao cho

\displaystyle{{\mathbf{T}}^{(\mathbf{n})}}=\mathbf{\sigma }\,.\,\mathbf{n} hay T_{j}^{(\mathbf{n})}={{\sigma }_{ij}}{{n}_{i}}.             (1)

https://i0.wp.com/upload.wikimedia.org/wikipedia/commons/thumb/b/b3/Components_stress_tensor_cartesian.svg/500px-Components_stress_tensor_cartesian.svg.png

Ta gọi \mathbf{\sigma }=({{\sigma }_{ij}}) là trường tensor ứng suất Cauchy (Cauchy stress tensor), và nó mô tả trường vector ứng suất như là một hàm phụ thuộc tuyến tính theo trường vector pháp tuyến.
Theo định luật thứ hai của Newton, ta có

\displaystyle \int_{\partial \Omega }{{{\mathbf{T}}^{(\mathbf{n})}}}ds+\int_{\Omega }{\mathbf{f}}dV=\frac{d}{dt}\int_{\Omega }{\rho }\mathbf{v}dV,      (2)

trong đó \mathbf{v} là trường vector vận tốc của mỗi phần tử của thể vật chất, \rho là mật độ vật chất.
Ta lại có

\displaystyle \frac{d}{dt}\int_{\Omega }{\rho \,\mathbf{v}dV} =\int_{\Omega }{\frac{\partial (\rho \,\mathbf{v})}{\partial t}dV}+\int_{\partial\Omega }{(\rho \,\mathbf{v}.\,\mathbf{n})\,\mathbf{v}\,ds}

\displaystyle =\int\limits_{\Omega }{\left[ \left( \rho \frac{\partial \mathbf{v}}{\partial t}+\frac{\partial \rho }{\partial t}\mathbf{v} \right)+\,\left( \nabla .\,\rho \,\mathbf{v}\, \right)\,\mathbf{v}+\left( \rho \mathbf{v}.\nabla \right)\mathbf{v} \right]dV}.

\displaystyle =\int\limits_{\Omega }{\rho \left[ \frac{\partial }{\partial t}+\mathbf{v}.\nabla \right]\mathbf{v}dV}+\int\limits_{\Omega }{\left[ \frac{\partial \rho }{\partial t}+\nabla .(\rho \,\mathbf{v}) \right]\mathbf{v}dV}.      (3)
trong đó chú ý áp dụng định lý Gauss–Ostrogradsky (Gauss–Ostrogradsky’s divergence theorem). Giả sử khối lượng được bảo tồn, khi đó số hạng thứ hai trong biểu thức cuối ứng với sự thay đổi của luồng khối lượng theo thời gian sẽ bị triệt tiêu (chúng ta chú ý phương trình của thể vật chất liên tục

\displaystyle \frac{\partial \rho }{\partial t}+\nabla .(\rho \,\mathbf{v}) =0

)

Thay thế (1)-(3) vào (2) và ta có

\displaystyle \int\limits_{\Omega }{\left( \nabla .\,\mathbf{\sigma }+\mathbf{f}-\rho \frac{D\,\mathbf{v}}{Dt} \right)}\,\,dV=\mathbf{0}.

Trong đó D/Dt là ký hiệu của đạo hàm vật chất (material derivative), xác định với mỗi trường vector \mathbf{\varphi } như sau

\displaystyle\frac{D\mathbf{\varphi }}{Dt}=\frac{\partial \mathbf{\varphi }}{\partial t}+(\mathbf{v}\,.\nabla )\mathbf{\varphi }.

Từ đó ta thu được

\displaystyle \nabla .\,\mathbf{\sigma }+\mathbf{f}=\rho \frac{D\mathbf{v}}{Dt}          (4)

và được gọi là phương trình chuyển động Cauchy (Cauchy’s equation of motion). Có thể viết (4) dưới dạng tọa độ Cartesian như sau

\displaystyle\sum\limits_{j=1}^{n}{\frac{\partial }{\partial {{x}_{j}}}{{\sigma }_{ij}}}+{{f}_{i}}=\rho \left[ \frac{\partial }{\partial t}+\sum\limits_{j=1}^{d}{{{v}_{j}}\frac{\partial }{\partial {{x}_{j}}}} \right]{{v}_{i}}