Задачки по случайным процессам

stream_24

Помогите, п-та, с решением следующих задач:
1. Пусть Х(t) и Y(t) - два независимых пуассоновских процесса c параметрами \lambda и \mu соотвественно. Рассмотрим Z(t) = Х(t) - Y(t) и обозначим [math] [res=100] { \begin{equation*} p_n(t)=P(Z(t)=n n\in Z \end{equation*} }  [/math]. Требуется доказать формулу [math] [res=100] { \begin{equation*} \sum_{n=-\infty}^{+\infty}p_n(t)z^n=\exp(-(\lambda+\mu)t)\cdot \exp(\lambda z t + \frac{\mu}{z} t ) \end{equation*} [/math] и найти первый и второй моменты Z(t).
2. Пусть марковская цепь имеет R состояний и состояние K достижимо из состояния N. Показать, что состояние К может быть достигнуто менее, чем за R шагов.
3. Рассматривается процесс броуновского движения [math] [res=100] { \begin{equation*}  \{\xi_t\}_{t>0} \end{equation*} [/math] с [math] [res=100] { \begin{equation*}  \xi(0)=0 \end{equation*} [/math] и [math] [res=100] { \begin{equation*}  D\xi(t)=t \end{equation*} [/math] . Пусть T_0(t)- максимальный нуль функции [math] [res=100] { \begin{equation*}  \xi(s) \end{equation*} [/math], не превышающий t, а T_1(t) - минимальный нуль функции превышающий t. Доказать формулу [math] [res=100] { \begin{equation*} P(T_0(t)<t_0, T_1(t)>t_1)=\frac{2}{\pi}\arcsin\sqrt{\frac{t_0}{t_1}} \end{equation*} [/math].

griz_a

 
2. Пусть марковская цепь имеет R состояний и состояние K достижимо из состояния N. Показать, что состояние К может быть достигнуто менее, чем за R шагов.
  

Цепь однородная, я так понимаю?
Идея: Если состояние достижимо, то есть какой-то путь с ненулевой вероятностью из N в К. Ясно, что если мы вернулись в состояние, где уже были, то кусок между ними можно выкинуть. Таким образом получим путь длины не больше R-1 шага.
Реализация:
Раз K достижимо, то по определению найдется m, такое, что [math]$P(X_m=K|X_0=N)>0$[/math]
Значит [math]$\sum_{1<=a_1,...a_m<=R} P(X_m=K,X_{m-1}=a_1,X_{m-2}=a_2,...X_1=a_{m-1}|X_0=N)>0$[/math]
Значит, одно из слагаемых больше нуля. Воспользуемся марковским свойством для него.
[math]$0<P(X_m=K,X_{m-1}=a_1,X_{m-2}=a_2X_1=a_{m-1}|X_0=N)=P(X_m=K|X_{m-1}=a_1)P(X_{m-1}=a_1|X_{m-2}=a_2)...P(X_1=a_{m-1}|X_0=N)$ [/math]
Раз произведение неотрицательных чисел больше нуля, то все они больше нуля.
Заметим теперь, что если [math]$a_i=a_j, i<j $[/math], то если мы выкинем сомоножители от i+1 до j, то положительность останется [math]$0<P(X_m=K|X_{m-1}=a_1)P(X_{m-1}=a_1|X_{m-2}=a_2)..P(X_{m-i+1}=a_{i-1}|X_{m-i}=a_i) P(X_{m-j}=a_j|X_{m-j-1}=a_{j+1})...P(X_1=a_{m-1}|X_0=N)=P(X_{m-j+i}=K|X_{m-j+i-1}=a_1)P(X_{m-j+i-1}=a_1|X_{m-j+i-2}=a_2)..P(X_{m-j+1}=a_{i-1}|X_{m-j}=a_i) P(X_{m-j}=a_j|X_{m-j-1}=a_{j+1})...P(X_1=a_{m-1}|X_0=N)=P(X_m-j+i=K,X_{m-j+i-1}=b_1,....X_1=b_{m-j+i-1}|X_{0}=N)$[/math]
 (в предпоследнем равенстве мы воспользовались однородностью и сместили индексы у множителей до i-ого на j-i)
Таким образом, каждый раз, когда в наборе a_i есть совпадающие индексы, мы можем перейти к набору меньшей длины, для которого вероятность тоже будет положительна.
Значит, т.к. [math]$m<\infty$[/math] после конечного числа таких операции мы придем к [math]$m \leq R-1$[/math]
Что и требовалось

griz_a

Идея: При фиксированном моменте времени X(t Y(t) - просто пуассоновские величины и их разность считается через производящие функции и с моментами тоже очевидно
Реализация:
 Заметим, что в терминах одномерных распределений P(Z(t)=n)=P(X(t)-Y(t)=n) вообще слабо касается случайных процессов. Нужно просто посчитать распределение разности пуассоновской величины с параметром [math]$\lambda t $[/math] и величины с параметром [math]$\mu t$[/math].
Т.к. величины независимы, то "производящая функция" их разности равна произведению производящей функции одной величины и минус второй величины. (Тут под "производящими функциями" понимается ряд по всем целым точкам, где сходящийся при значениях параметра в некотором кольце)
[math]$p_{Z(t)}(s)=p_{X(t)}(s)p_{-Y(t)}(s)$[/math]
[math]$p_{X(t)}(s)=\sum_{k=0}^{\infty} e^{-\lambda t}(\lambda t)^k/k!s^k=e^{-\lambda t} e^{\lambda t s}$[/math]
Заметим, что этот ряд сходится в любом ограниченном круге
[math]$p_{-Y(t)}(s)=\sum_{k=0}^{-\infty} e^{-\mu t}(\mu t)^{-k}/{-k}!s^k=e^{-\mu t} e^{- \mu t/ s}$[/math]
Этот ряд сходится в любом кольце, не содержащем 0.
Значит их произведение определено на [math]$0<s</infty$[/math]
Имеем [math]$p_{Z(t)}(s)=e^{-\lambda t} e^{\lambda t s} e^{-\mu t} e^{- \mu t/ s} = e^{-(\lambda+\mu)t} e^{\lambda t s - \mu t / s}$[/math]
Найти моменты разности двух независимых величин несложно :)
Матожидание равно разности матожиданий, т.е. [math]$\lambda t - \mu t $[/math]
Дисперсия - сумме дисперсия, т.е. [math]$\lambda t + \mu t$ [/math]
Второй момент т.е. равен [math]$(\lambda t - \mu t)^2+\lambda t + \mu t $[/math]

griz_a

А что в 3ьей считается известным про винеровский процесс? Можно, например по принципу инвариантности посчитать в полпинка...

stream_24

да, цепь однородная :)
а что обозначено за b_k в последнем равенстве? Просто сдвиг a_k?

stream_24

а из найденной производящей функции ведь тоже можно получить выражения для мат.ожидания и второго момента?

stream_24

"Принцип инвариантности" - это теорема Донскера? Если да, то ей пользоваться нельзя. Правда, считается известным принцип отражения, а также можно пользоваться непрерывностью траекторий (если надо, конечно).

stream_24

В записи производящей функции для p_{-Y(t)}(s) мне кажется ты описался. После замены переменной суммирования получается разложения в ряд Маклорена функции exp{\mu*\frac{t}{s}}, а не exp{-\mu*\frac{t}{s}}. Т.е. другой знак в показателе экспоненты. Правильно?

griz_a

На 1,2,4 вопросы да. Во втором можно посчитать матожидание и второй момент через дифференцирование ряда, т.к. он в любом кольце сходится равномерно.
Тогда производная ряда в нуле будет искомым м.о., а вторая производная + м.о - вторым моментом.
Как в 3 обойтись без сложностей, я, кажется, понял.

stream_24

ОК! Подскажи, п-та, куда копать в последней по счёту задаче? Может, книгу какую-то поглядеть стоит?

griz_a

А, ну вот так проще всего.
Рассматриваем траекторию на отрезке [math]$[t_0,t_1]$[/math]
Нас интересует [math]$P(W_t>0, t \in [t_0,t_1])=\int_{0}^{\infty}\int_{0}^{\infty}P(W_{t_0} \in dx_0, W_{t_1} \in dx_1, W_t>0, t \in [t_0,t_1])$[/math]
Пусть T - момент первого после t_0 возвращения в 0. Ясно, что это марковский момент.
 [math]$\int_{0}^{\infty}\int_{0}^{\infty}P(W_{t_0} \in dx_0, W_{t_1} \in dx_1, W_t>0, t \in [t_0,t_1])=\int_{0}^{\infty}\int_{0}^{\infty}P(W_{t_0} \in dx_0, W_{t_1} \in dx_1)-\int_{0}^{\infty}\int_{0}^{\infty}P(W_{t_0} \in dx_0, W_{t_1} \in dx_1, T<t_1)=\int_{0}^{\infty}\int_{0}^{\infty}P(W_{t_0} \in dx_0, W_{t_1} \in dx_1)-  \int_{0}^{\infty}\int_{0}^{\infty}P(W_{t_0} \in dx_0, W_{t_1} \in -dx_1)  $[/math]
Где в последнем равенстве мы воспользовались принципом отражения. Дальше легко:
[math]$\int_{0}^{\infty}\int_{0}^{\infty}P(W_{t_0} \in dx_0, W_{t_1} \in dx_1)-  \int_{0}^{\infty}\int_{0}^{\infty}P(W_{t_0} \in dx_0, W_{t_1} \in -dx_1)=\int_{0}^{\infty}\int_{0}^{\infty} e^{-\frac{x_0^2}{2t_0}}(e^{-\frac{(x_1-x_0)^2}{2(t_1-t_0)}}-e^{\frac{(x_1+x_0)^2}{2(t_1-t_0)}})\frac{1}{2\pi \sqrt{t_0(t_1-t_0)}} $[/math]

stream_24

Спасибо ещё раз! Собирай плюсы! :cool:

griz_a

Незачто. Последний интеграл легко к арксинусу сводится полярной заменой, если что
Оставить комментарий
Имя или ник:
Комментарий: