Теория вероятностей
Даша Оля
Две девочки - 40000 рефератов
Ваш регион: Москва
 
Математика>>

Теория вероятностей Теория вероятностей

Вопрос 1
События и явления. Все события  и  явления  реального  мира  разделяются  на
закономерные (детерминированные) и случайные (вероятностные).
Случайным  событием  называется  такое  событие,  изменить  или  предсказать
которое в процессе случайного явления невозможно. Случайное  событие  -  это
результат (исход) конкретной единичной реализации случайного  явления.  Так,
выпадение чисел 1-6  при  бросании  игральной  кости  -  случайное  явление.
Выпадение числа 6 в единичном испытании - случайное событие. Если оно  может
задаваться, то это уже не игральная  кость,  а  инструмент  шулера.  Типовое
обозначение  случайных  событий  -  крупными  буквами  алфавита   (например,
событие А - выпадение 1 при бросании  кости,  событие  В  -  выпадение  2  и
т.д.).
Классификация случайных событий. Событие называют достоверным (и  обозначают
индексом (), если оно  однозначно  и  предсказуемо.  Выпадение  суммы  чисел
больше 1 и меньше  13  при  бросании  двух  костей  -  достоверное  событие.
Событие является невозможным (и обозначается  индексом  (),  если  в  данном
явлении оно полностью исключено. Сумма чисел, равная 1 или  большая  12  при
бросании двух костей -  события  невозможные.  События  равновозможны,  если
шансы на их  появление  равны.  Появление  чисел  1-6  для  игральной  кости
равновозможно.
Два события называются совместными, если появление одного из них  не  влияет
и не исключает появление другого.  Совместные  события  могут  реализоваться
одновременно, как, например, появление какого-либо числа на одной  кости  ни
коим  образом  не  влияет  на  появление  чисел  на  другой  кости.  События
несовместны, если в одном явлении или  при  одном  испытании  они  не  могут
реализоваться одновременно и появление одного  из  них  исключает  появление
другого (попадание в цель и промах несовместны).
1. Вероятность любого случайного события А является неотрицательной
величиной, значение которой заключено в интервале от 0 до 1. 0 ( Р(А) ( 1.
2.   Вероятность   достоверного    события    равна    1.    Р(?)    =    1.

В общем случае событие ? представляет собой сумму  полной  группы  возможных
элементарных событий данного случайного явления:  ?=[pic]?i.  Следовательно,
вероятность реализации хотя бы одного случайного события  из  полной  группы
возможных событий также равна 1, т.е. является событием достоверным.
Сумма противоположных  событий  тоже  составляет  полную  группу  событий  и
соответственно вероятность суммы противоположных событий равна  1:P(A+[pic])
= 1.
Примером может служить бросание горсти монет.  Орел  или  решка  для  каждой
монеты – противоположные события. Сумма событий для горсти в целом  равна  1
независимо от соотношения выпавших орлов и решек.
3.   Вероятность   невозможного    события    равна    0.    Р(()    =    0.

[pic]
                                 Рис. 8.2.3.
      Пусть Ф - пустое пространство (не содержащее событий). Тогда ?+Ф  =  ?
и пространство ? не содержит событий, общих с пространством Ф (рис.  8.2.3).
Отсюда следует, что Р(?+Ф) = Р(?) + Р(Ф) = Р(?), что выполняется при Р(Ф)  =
0. Другими словами, если одно из событий обязательно должно происходить,  то
вероятность отсутствия событий  должна  быть  равна  нулю.  Но  при  этом  ?
является  достоверным  событием,  а  Ф   =   (   (невозможное   событие)   и
соответственно Р(() = 0.



Вопрос 2
Диаграмма Вьенна-Эйлера

А) событие A
Б) Сложение – событие, кот состоит в том, что происходит хотя бы одно из
событий A или B
В) произведение событий- А и B одновременно
Г) Дополнение – событие принадлежит к А, но не принадлежит к B
 Д) противоположное событию A событие В
Е) Несовместимые события – если они не могут произойти одноременно
Ж) События образуют полную группу, если хотя бы одно из них обязательно
происходит в результате испытания
З) А влечет за собой В



Вопрос 3
Классическая формула вероятности
Если множество элементарных событий ?={?1,?2,…?N},конечно и все
элементарные события равновозможны, то такая вероятностная схема носит
название классической. В этом случае вероятность Р{А} наступления события
А, состоящего из М элементарных событий, входящих в ?, определяется как
отношение числа М элементарных событий, благоприятствующих наступлению
события А, к общему числу N элементарных событий. Эта формула носит
название классической формулы вероятности: Р{А}= M/N.
В частности, согласно классической формуле вероятности:
Р{?i }=1/N   (i=1,2,... , N)
Р{?}= N/N =1
P{(}=0/N =0
Комбинаторика, 1) то же, что математический комбинаторный анализ. 2) Раздел
элементарной математики, связанный с изучением количества комбинаций,
подчинённых тем или иным условиям, которые можно составить из заданного
конечного множества объектов (безразлично, какой природы; это могут быть
буквы, цифры, какие-либо предметы и т.п.). Число размещений. Пусть имеется
n различных предметов. Сколькими способами можно выбрать из них т предметов
(учитывая порядок, в котором выбираются предметы)? Число способов равно Anm
= [pic]? Anm называют числом размещений из n элементов по m. Число
сочетаний. Пусть имеется n различных предметов. Сколькими способами можно
выбрать из них т предметов (безразлично, в каком порядке выбираются
предметы)? Число способов такого выбора равно  Cnm = [pic] Cnm называют
числом сочетаний из n элементов по m. Числа Cnm получаются как коэффициенты
разложения n-й степени двучлена: (a+b) n=Cn0 an + Cn1 an-1b +Cn2an-2b2
?+... + Cnn-1abn-1 + Cnn bn, и поэтому они называются также биномиальными
коэффициентами. Основные соотношения для биномиальных коэффициентов:
Cnm=Cnn-m, Cnm? + Cnm+1 = Cn+1m+1, Cn0 + Cn1 + Cn2 +...+ Cnn-1 + Cnn =2n, ?
Cn0 - Cn1 + Cn2-...+ (-1) nCnn = 0.  Числа Anm, Pm и Cnm связаны
соотношением:  Anm=Pm Cnm. Рассматриваются также размещения с повторением
(т. е. всевозможные наборы из m предметов n различных видов, порядок в
наборе существен) и сочетания с повторением (то же, но порядок в наборе не
существен). Число размещений с повторением даётся формулой nm, число
сочетаний с повторением - формулой Cmn+m-1.

Вопрос 4
При аксиоматическом построении вероятностей в каждом конкретном
пространстве элементарных событий ( выделяется (-поле событий S для каждого
события A( S задается вероятность P{A} – числовая функция, определенная на
(-поле событий S и удовлетворяющая следующим аксиомам.
Аксиома неотрицательности вероятности для всех A ( S: P{A}( 0.
Аксиома нормированности вероятности: P{(}=1.
Аксиома адаптивности вероятности: для всех A,B(S,таких, что A(B((:
P{A(B}=P{A} +P{B}
Каждая определенная теоретико-вероятностная схема задается тройкой {(, S,
P}, где ( конкретное пространство элементарных событий, S - (-поле событий,
выделенное на (, З – вероятность заданная на (-поле S. Тройка {(, S, P}
называется вероятностным пространством
Пусть проводится конечное число n последовательных испытаний, в каждом из
которых некоторое событие А может либо наступить (такую ситуацию назовём
успехом),либо не наступить (такую ситуацию назовём неудаxей),причём эти
испытания удовлетворяют следующим условиям:
1)каждое испытание случайно относительно события А, т.е. до проведения
испытания нельзя сказать появится А или нет;
2)испытания проводятся в одинаковых с вероятностной точки зрения условиях,
т.е. вероятность успеха в каждом отдельно взятом испытании равна р и не
меняется от испытания к испытанию;
3)испытания независимы, т.е. исход любого из них никак не влияет на исходы
других испытаний.
Такая последовательность испытаний называется схемой Бернулли или
биноминальной схемой, а сами испытания- испытаниями Бернулли.
Ф-ла Бернулли: Рmn = Cmn* pm * q n-m = Cmn* pm * (1-p) n-m
Cmn= n!/ m!(n-m)!


Вопрос 5
Сложение вероятностей зависит от совместности и несовместности событий.
Несовместные события. Вероятность суммы двух  несовместных  событий  А  и  В
равна сумме вероятностей этих событий. Это вытекает из того,  что  множество
С = А+В включает подмножества А и В, не имеющие  общих  точек,  и  Р(А+В)  =
Р(А)+Р(В)  по  определению  вероятности  на  основе  меры.   По   частотному
определению вероятности в силу несовместности событий имеем:
                 P(A+B) = [pic] = [pic]+[pic]= P(A) + P(B),
где n и m - число случаев появления событий  А  и  В  соответственно  при  N
испытаниях.
       Противоположные  события  также  являются  несовместными  и  образуют
полную группу. Отсюда, с учетом: P([pic]) = 1 - Р(А).
[pic]
                                 Рис. 8.2.4.
В общем случае для группы несовместных событий: P(A+B+...+N) = P(A)  +  P(B)
+ ... + P(N),
если все подмножества принадлежат одному множеству событий и не имеют  общих
точек (попарно несовместны). А если эти подмножества образуют полную  группу
событий,   то   с   учетом:   P(A)   +   P(B)   +   ...   +   P(N)   =    1.
     (8.2.7)
[pic]
                                 Рис. 8.2.5.
Совместные события. Вероятность появления хотя бы одного из двух  совместных
событий  равна  сумме  вероятностей  этих   событий   без   вероятности   их
совместного появления : P(A+B) = P(A) + P(B) - P(A(B).
Разобьем события А и В каждое на два множества, не имеющие общих точек:  А',
A'' и B',  B''.  Во  множества  А''  и  B''  выделим  события,  появляющиеся
одновременно, и объединим  эти  множества  в  одно  множество  С.  Для  этих
множеств действительны выражения:
     С = A''(B'' ( А'' ( В'' ( А(В,     P(C) = P(A'') = P(B'') = P(A(B).
       P(A) = P(A')+P(A''),        P(A') = P(A)-P(A'') = P(A)-P(A(B).
       P(B) = P(B')+P(B''),        P(B') = P(B)-P(B'') = P(B)-P(A(B).
Множества A', B' и С не имеют общих точек и можно записать:
P(A+B) = P(A'+B'+C) = P(A') + P(B') + P(С).
Подставляя  в  правую  часть  этого  уравнения  вышеприведенные   выражения,
приходим к  выражению  (8.2.8).  Физическая  сущность  выражения  достаточно
очевидна: суммируются вероятности событий А и  В  и  вычитаются  вероятности
совпадающих событий, которые при суммировании сосчитаны дважды.
В общем случае, для m различных событий А1, А2, ..., Аm:
     P(A1+...+  Am)  =[pic]P(Ai)  -[pic]P(Ai(Aj)  +[pic]P(Ai(Aj(Ak)  -...+(-
1)m+1P(A1(A2( ... (Am).    (8.2.9)
[pic]
                                 Рис. 8.2.6.
      На рис.  8.2.6  на  примере  трех  пространств  можно  видеть  причины
появления в выражении (8.2.9) дополнительных сумм  вероятностей  совпадающих
пространств  и   их   знакопеременности.   При   суммировании   вероятностей
пространств А,В  и  С,  имеющих  общее  пространство  АВС,  его  вероятность
суммируется   трижды,   а   при   вычитании   вероятностей   перекрывающихся
подпространств  АВ,  АС  и  ВС  трижды  вычитается  (т.е.   обнуляется),   и
восстанавливается дополнительным суммированием с  вероятностью  пространства
АВС.


Вопрос 6
1) Условная вероятность события А при условии  В  равна  Р(А/B)=P(A*B)/P(B),
Р(В)>0.
 2) Событие А не зависит  от  события  В,  если  Р(А/B)=P(A).  Независимость
событий взаимна, т.е. если событие А не  зависит  от  В,  то  событие  В  не
зависит     от     А.     В     самом     деле     при     Р(А)>0      имеем
Р(B/A)=P(A*B)/P(A)=P(A/B)*P(B)/P(A)=P(A)*P(B)/P(A)=P(B). Вытекает  следующая
формула умножения вероятностей: Р(А*В)=Р(А)*Р(В/A). Для независимых  событий
вероятность  произведения  событий  равна  произведению   их   вероятностей:
Р(А*В)=Р(А)*Р(В). 3) События  А1,А2,…,Аn  образуют  полную  группу  событий,
если они попарно несовместны и вместе  образуют  достоверное  событие,  т.е.
Аi*Aj=0, i не=j, U по i от 1 до n Аi=омега.
Вероятность  совместного   появления   двух   событий   равна   произведению
вероятности одного из них на условную  вероятность  другого,  вычисленную  в
предположении,  что  первое  событие  уже  наступило:  Р(АВ)=Р(А)*Ра(В).   В
частности  для  независимых  событий   Р(АВ)=Р(А)*Р(В),   т.е.   вероятность
совместного  появления   двух   независимых   событий   равна   произведению
вероятностей этих событий.
Вопрос 7
      Формула полной вероятности. Систему событий А1, А2, ...,AN называют
конечным разбиением (или просто разбиением), если они попарно несовместны,
а их сумма образует полное пространство событий: А1 + А2 + ... + АN = ?.

Если события Аi образуют разбиение пространства событий и все P(Ai) > 0, то
для любого события В имеет место формула полной вероятности: P(B)
=[pic]P(Ak)(P(B/Ak),
что непосредственно следует из (8.2.14) для попарно несовместных событий:
B = B(? = BA1+BA2+...BAN.
P(B) = P(BA1)+P(BA2)+... +P(BAN) =
P(A1)P(B/A1)+P(A2)P(B/A2)+...+P(AN)P(B/AN).

Вопрос 8
 [pic]

Вопрос 9
[pic]
[pic]
[pic]

Вопрос 10
Случайной величиной  называется  числовая  величина,  которая  в  результате
опыта может принять какое-либо  значение  из  некоторого  множества,  причем
заранее, до проведения опыта, невозможно сказать, какое именно значение  она
примет. Случайные величины обозначают заглавными латинскими  буквами  X,  Y,
Z,..., а их возможные значения —  строчными  латинскими  буквами  х,  у,  z.
Случайная  величина  называется  дискретной,  если  множество  ее   значений
конечно или счетно, и непрерывной в противном случае. Законом  распределения
случайной  величины  называется  любое  соотношение,  связывающее  возможные
значения этой случайной величины и  соответствующие  им  вероятности.  Закон
распределения дискретной случайной величины задается чаще всего не  функцией
распределения, а рядом распределения, т.е, таблицей
|Х|x1|x2|..|xn|..|
| |  |  |. |  |. |
|P|p1|p1|..|pn|..|
| |  |  |. |  |. |


В которой  x1, x2, ..., xn, ...  -  расположенные  по  возрастанию  значения
дискретной случайной величины X, а р1, р2, ..., рп, ...  —  отвечающие  этим
значениям вероятности: pi = Р{Х =  хi),  i=  1,  2,  ...,  п,  ...  .  Число
столбцов   в  этой  таблице  может  быть  конечным   (если   соответствующая
случайная величина  принимает  конечное  число  значений)  или  бесконечныи.
Очевидно,( pi= 1.
Многоугольником распределения дискретной  случайной  величины  X  называется
ломаная, соединяющая точки {xi; pi),  расположенные  в  Порядке  возрастания
хi.

Вопрос 11
 Функцией распределения случайной величины Х называется функция FX(x)=
P{X=0. 2) Несобственный  интеграл
от плотности распределения в пределах  от  –бесконечности  до  бесконечности
равен единице: интеграл от –бесконечности до бесконечности f(x)dx=1.

Вопрос 18
Мат. ожидание Н.С.В. Х, возможные значения которой принадлежат всей оси  ОХ,
определяется равенством: М(Х)=интеграл от  –бесконечности  до  бесконечности
хf(x)dx, где f(x) - плотность  распределения  С.В.  Х.  Предполагается,  что
интеграл сходится  абсолютно.  В  частности,  если  все  возможные  значения
принадлежат интервалу (а,b),  то  М(Х)=интеграл  от  а  до  b  xf(x)dx.  Все
свойства мат. ожидания, указаны выше,  для  Д.С.В.  Они  сохраняются  и  для
Н.С.В.
Дисперсия Н.С.В. Х, возможные значения  которой  принадлежат  всей  оси  ОХ,
определяется равенством: D(X)=интеграл от  –бесконечности  до  бесконечности
[x-M(X)]*2f(x)dx,   или   равносильным    равенством:    D(X)=интеграл    от
–бесконечности до бесконечности x*2f(x)dx – [M(X)]*2. В частности, если  все
возможные значения х принадлежат интервалу (a,b),то D(X)=интервал от а до  b
[x – M(X)]*2f(x)dx,или D(X)=интеграл от a до b  x*2f(x)dx  –  [M(X)]*2.  Все
свойства дисперсии Д.С.В. сохраняются и для Н.С.В.

 Вопрос  19
Моменты распределения. При решении  многих  практических  задач  нет  особой
необходимости в полной  вероятностной  характеристике  каких-либо  случайных
величин, которую дает функция плотности  распределения  вероятностей.  Очень
часто приходится также иметь дело с анализом  случайных  величин,  плотности
вероятностей которых не отображаются аналитическими  функциями  либо  вообще
неизвестны. В этих случаях достаточно  общее  представление  о  характере  и
основных особенностях распределения  случайных  величин  можно  получить  на
основании усредненных числовых характеристик распределений.
Числовыми   характеристиками   случайных   величин,    которые    однозначно
определяются функциями распределения их вероятностей, являются моменты.
Начальные моменты n-го порядка случайной величины  X  (или  просто  моменты)
представляют собой усредненные значения n-й  степени  случайной  переменной:
mn ( М{Xn}( [pic]= [pic] xn  p(x)  dx,  где  M{Xn}  и  [pic]-  символические
обозначения математического  ожидания  и  усреднения  величины  Хn,  которые
вычисляются по пространству состояний случайной величины Х.
Соответственно,   для   случайных   дискретных   величин:   mn   (    М{Xn}(
[pic]=[pic]xin pi.
Центральные  моменты  n-го  порядка,  это   моменты   относительно   центров
распределения (средних значений) случайных величин:
?n ( M{(X-[pic])n}( [pic]=[pic](x-m1)n p(x) dx
?n ( M{(X-[pic])n}( [pic]=[pic](xi-m1)n pi, где [pic] - начальный момент  1-
го порядка (среднее значение величины Х),  X0  =  X-[pic]  -  центрированные
значения величины Х.
Связь между центральными и начальными моментами достаточно проста:
?1=0,     ?2=m2-m12,     ?3=m3-3m2m1+2m13,     ?4=m4-4m1m3+6m12m2-3m14,    и
т.д.
Соответственно,  для  случайных  величин  с  нулевыми  средними   значениями
начальные моменты равны центральным моментам.
По результатам  реализации  случайных  величин  может  производиться  только
оценка моментов, т.к. количество измерений  всегда  конечно  и  не  может  с
абсолютной точностью отражать все пространство состояний случайных  величин.
Результаты  измерений  -  выборка  из  всех  возможных  значений   случайной
величины  (генеральной  совокупности).  Оценка  моментов,  т.е.  определение
средних значений n-й степени по выборке из  N  зарегистрированных  значений,
производится   по   формулам:   [pic]   =   (1/N)[pic]xin   ([pic],[pic]   =
(1/N)[pic](xi-[pic])n ([pic]

Вопрос 20
Равномерным называют распределение вероятностей Н.С.В. Х, если на  интервале
(а,b), которому принадлежат все возможные значения  Х,  плотность  сохраняет
постоянное значение, а именно  f(x)=1/(b-a);  вне  этого  интервала  f(x)=0.
Нетрудно  убедиться,  что  интеграл  от  –бесконечности   до   бесконечности
р(х)dx=1. Для С.В., имеющей равномерное распределение  ,  вероятность  того,
что С.В. примет значения из заданного интервала  (х,х+дельта)  прин.  [a,b],
не зависит от положения этого интервала на числовой  оси  и  пропорциональна
длине этого интервала дельта: P{xb.
Вопрос 21
Случайная величина Х с функцией распределения
F(x)=  {0,         x0,  если  ее  плотность  распределения   имеет   вид:   р(х)=1/(корень
квадратный из 2пи *сигма) * е в степени  –1/2*(x-a/сигма)*2.  Если  Х  имеет
нормальное распределение, то будем кратко записывать это  в  виде  Х  прибл.
N(a,сигма). Так как фи(х)=1/(корень из 2пи)*е в степени –х*2/2  –  плотность
нормального закона распределения с параметрами а=0  и  сигма=1,  то  функция
Ф(х)=1/(корень из  2пи)*  интеграл  от  –бесконечности  до  х  е  в  степени
–t*2/2dt, с помощью которой вычисляется вероятность  P{a0. P{|X  –  MX|>=t} 0 справедливо предельное равенство
[pic]
где т — число успехов в серии из п испытаний.

Вопрос 27
Локальная  теорема  Лапласа.   Вероятность  того,  что   в   n   независимых
испытаниях,  в  каждом  из  которых  вероятность  появления  события   равна
р(0

=F(x1,y), если х2>x1. F(x,y2)>=F(x,y1), если y2>y1. 3) Имеют место предельные соотношения: 1) F(-бесконечность, у)=0, 2) F(x,- бесконечность)=0, 3) F(-бесконечность, -бесконечность)=0, 4) F(бесконечность, бесконечность)=1. 4) а) при у=бесконечность функция распределения системы становится функцией распределения составляющей Х: F(x,бесконечность)=F1(x). Б) при х=бесконечность функция распределения системы становится функцией распределения составляющей У: F(бесконечность, у)=F2(y). Вопрос 29 Вопрос 30 Корреляционным моментом СВ ( и ( называется мат. ожидание произведения отклонений этих СВ. (((=М(((—М(())*((—М(())) Для вычисления корреляционного момента может быть использована формула: (((=М((*()—М(()*М(() Доказательство: По определению (((=М(((—М(())*((—М(())) По свойству мат. ожидания (((=М(((—М(()—(М(()+М(()*М(())=М((()—М(()*М(()—М(()*М(()+М(()*М(()=М((()—М(( )*(() Предполагая, что ( и ( независимые СВ, тогда (((=М((()—М(()*М(()=М(()*М(()—М(()*М(()=0; (((=0. Можно доказать, что если корреляционный момент=0, то СВ могут быть как зависимыми, так и независимыми. Если ((( не равен 0, то СВ ( и ( зависимы. Если СВ ( и ( зависимы, то корреляционный момент может быть равным 0 и не равным 0. Можно показать, что корреляционный момент характеризует степень линейной зависимости между составляющими ( и (. При этом корреляционный момент зависит от размерности самих СВ. Чтобы сделать характеристику линейной связи ( и ( независимой от размерностей СВ ( и (, вводится коэффициент корреляции: К((=(((/((()*((() Коэффициент корреляции не зависит от разностей СВ ( и ( и только показывает степень линейной зависимости между ( и (, обусловленную только вероятностными свойствами ( и (. Коэффициент корреляции определяет наклон прямой на графике в системе координат ((,() Свойства коэффициента корреляции. 1. -10, то с ростом одной составляющей, вторая также в среднем растет. К(( хп. Выборочная ча- стость [pic]где mi — число вариант, попавших в i-й интервал (i= 1,2, ...,v). Выборочным аналогом плотности распределения fx(x) случайной величины X служит выборочная плотность распределения Вопрос 33 Выборочным аналогом плотности распределения fx(x) случайной величины X служит выборочная плотность распределения [pic] при х ([ai; ai+1) (i= 1, 2,..., V), ее график называется гис тограммой, а ломаная с вершинами в точках[pic]где через х’=(ai+ai+1)/2 обозначены середины интервалов, — полигоном частот. Выборочное среднее и выборочную дисперсию при этом вычисляют по формулам (4.2.1), (4.2.2) соответственно, в которых к = v. По выборочной плотности распределения легко построить выборочную функцию распределения, при этом линия, соединяющая точки[pic]называется кумулятой Гистограмма (тонкая линия), полигон частот (полужирная линия) (а) и кумулята (б) [pic] Вопрос 34 Вопрос 35 Прежде всего, от оценки ?n хотелось бы требовать, чтобы по мере роста числа наблюдений п она стремилась к оцениваемому параметру, т.е. чтобы для любого сколь угодно малого Ј>0 было справедливо предельное равенство [pic] Также от «хорошей» оценки естественно требовать, чтобы она не содержала систематической ошибки, т.е. при любом фиксированном объеме выборки результат осреднения по всем возможным выборкам данного объема должен приводить к точному значению параметра: [pic] Наконец, от оценки ?n желательно требовать, чтобы она была наиболее точной в некотором классе оценок в, т.е. имела минимальную дисперсию: [pic] Вопрос 36 Статистической оценкой ( * неизвестного параметра ( теоретического распределения называют функцию f(X1,X2,…,Xn) от наблюдаемых С.В. X1,X2,…,Xn. Точечной называют статистическую оценку, которая определяется одним числом ( *=f(x1,x2,…,xn), где х1,х2,…,xn – результаты n наблюдений над количественным признаком Х (выборка). Несмещенной называют точечную оценку, мат. ожидание которой равно оцениваемому параметру при любом объеме выборки. Смещенной называют точечную оценку, мат. ожидание которой не равно оцениваемому параметру. Несмещенной оценкой генеральной средней (мат. ожидания) служит выборочная средняя: Хв=(сумма по i от 1 до k nixi)/n, где xi – варианта выборки, ni – частота варианты xi, n=сумма по i от 1 до k ni – объем выборки. Вопрос 37 Вопрос38 Метод моментов точечной оценки неизвестных параметров заданного распределения состоит в приравнивании теоретических моментов соответствующим эмпирическим моментам того же порядка. Если распределение определяется одним параметром, то для его отыскания приравнивают один теоретический момент одному эмпирическому моменту того же порядка. Например, можно приравнять начальный теоретический момент первого порядка начальному эмпирическому моменту первого порядка: v1=M1. Учитывая, что v1=M(X) и М1=Хв, получим М(Х)=Хв. Если распределение определяется двумя параметрами, то приравнивают два теоретических момента двум соответствующим эмпирическим моментам того же порядка. Учитывая, что v1=M(X),M1=Хв,мю=D(X),m2=Dв, имеем систему: М(Х)=Хв, D(X)=Dв. Метод наибольшего правдоподобия точечной оценки неизвестных параметров заданного распределения сводится к отысканию максимума функции одного или нескольких оцениваемых параметров. Д.С.В. Пусть Х – Д.С.В., которая в результате n опытов приняла возможные значения х1,х2,…,xn. Допустим, что вид закона распределения величины Х задан, но неизвестен параметр (, которым определяется этот закон; требуется найти его точечную оценку (*=( (x1,x2,…,xn). Обозначим вероятность того, что в результате испытания величина Х примет значение xi через р(xi;(). Функцией правдоподобия Д.С.В. Х называют функцию аргумента (: L (x1,x2,…,xn;()=p(x1;()*p(x2;()…p(xn;(). Оценкой наибольшего правдоподобия параметра ( называют такое его значение (*, при котором функция правдоподобия достигает максимума. Функции L и lnL достигают максимума при одном и том же значении (, поэтому вместо отыскания максимума функции L ищут, что удобнее, максимум функции lnL. Н.С.В. Пусть Х – Н.С.В., которая в результате n испытаний приняла значения х1,х2,…,xn. Допустим, что вид плотности распределения – функции f(x) – задан, но неизвестен параметр (, которым определяется эта функция. Функцией правдоподобия Н.С.В. Х называют функцию аргумента (: L(x1,x2,…,xn;()=f(x1;()*f(x2;()…f(xn;(). Вопрос 39 Интервальной называют оценку, которая определяется двумя числами – концами интервала, покрывающего оцениваемый параметр. Доверительный интервал – это интервал, который с заданной надежностью гамма покрывает заданный параметр Интервальной оценкой (с надежностью гамма) среднего квадратического отклонения сигма нормально распределенного количественного признака Х по «исправленному» выборочному среднему квадратическому отклонению s служит доверительный интервал s(1-q)1. 3. Интервальной оценкой ( с надежностью гамма) неизвестной вероятности р биномиального распределения по относительной частоте w служит доверительный интервал ( с приближенными концами р1 и р2). Вопрос 40 Интервальной называют оценку, которая определяется двумя числами – концами интервала, покрывающего оцениваемый параметр. Доверительный интервал – это интервал, который с заданной надежностью гамма покрывает заданный параметр. 1. Интервальной оценкой с надежностью гамма мат. ожидания а нормально распределенного количественного признака Х по выборочной средней Хв при известном среднем квадратическом отклонении сигма генеральной совокупности служит доверительный интервал: Хв – t(сигма/корень из n) a, либо H1: M(() = a1. Для проверки гипотез используются критерии, и они представляют собой специальным образом подобранные СВ, k – точечный или приближенный закон, который известен. Обычно предполагается, что если гипотеза Н0 выполняется, то вычисляемая по выборочным данным kнабл. Этого критерия и гипотеза Н0 принимается, если kнабл.( (kкритич. левостор.; kкритич. правостор.) Если kнабл. попадает в критическую область (все остальные значения k ((- ( ; kкритич. лев.) ( (kкритич. прав. ; (), то гипотеза Н0 отвергается и принимается конкурирующая гипотеза Н1. При этом возможны ошибки двух типов: Первого рода: что гипотеза Н0 отвергается, в то время, как она верна. Вероятность этой ошибки: P(H1/H0) = ( - уровень значимости критерия. Критерий подбирается так, чтобы ( была как можно меньше. Второго рода: что отвергается гипотеза Н1, в то время, как она верна. ( = P(H0/H1) Мощностью критерия – (1-() - вероятность попасть точке-выборке в критическое множество, когда верна конкурирующая гипотеза. 1-( = P(H1/H1) Вопрос 43 Вопрос 44 По независимым выборкам, объемы которых n1, n2, извлеченным из нормальных генеральных совокупностей, найдены исправленные выборочные дисперсии s^2*x и s^2*y. Требуется сравнить эти дисперсии. Правило I. Для того чтобы при заданном уровне значимости ?, проверить нулевую гипотезу HQ: D(X) = D(Y) о равенстве генеральных дисперсий нормальных совокупностей при конкурирующей гипотезе Ho: D (X) > D (Y), надо вычислить наблюдаемое значение критерия (отношение большей исправленной дисперсии к меньшей) [pic] и по таблице критических точек распределения Фишера—Снедекора, по заданному уровню значимости а и числам степеней свободы k1=n1—1, k2 = n2—1 (k1—число степеней свободы большей исправленной дисперсии) найти критическую точку FKР(a; k1, k2). Если Fнабл Fкр — нулевую гипотезу отвергают. Правило 2. При конкурирующей гипотезе Н1: D(X)(D(Y) критическую точку FKP (?/2; k1 ,k2) ищут по уровню значимости а/2 (вдвое меньшему заданного) и числам степеней свободы k1 и k2 (k1—число степеней свободы, большей дисперсии). Если FHАБЛ Fкр — нулевую гипотезу отвергают. Вопрос 45 Вопрос 46 Разобьем множество возможных значений случайной величины X Hav разрядов (для непрерывной случайной величины роль разрядов играют интервалы значений, а для дискретной — отдел ь-ные возможные значения или их группы). Выдвинем нулевую гипотезу Но: Fx(x) = Fтеор(x) (состоящую в том, что генеральная совокупность распределена по закону Fтеор(x)) при альтернативной гипотезе Н1: Fx(x) ( FTeop(x). Одним из критериев согласия выборочного и теоретического распределений (т.е. критериев соответствия генеральной совокупности определенному закону распределения) является критерий X^2 (критерий Пирсона), который основывается на том, что распределение статистики [pic] (где л, — число попаданий элементов выборки в i-й разряд, п - общее число элементов выборки, apiтеop — теоретическая вероятность попадания случайной величины Х в i-и разряд при условии истинности нулевой гипотезы) не зависит от выдвинутой гипотезы и определяется только числом степеней свободы k = v — l — 1, где v — число разрядов, аl— число оцениваемых параметров. Формулы закона распределения случайной величины X^2 довольно сложны, и мы их приводить не будем, но для этого распределения составлены таблицы значений X^2k;y таких, что Р{X2

Для добавления страницы "Теория вероятностей" в избранное нажмине Ctrl+D
 
 
2005 © Copyright, 2devochki.ru
E-mail:
Реклама на сайте
  


Посетите наши другие проекты:
Электронные книги
Электронные словари
Коды к играм и прохождение игр