Питання для іспиту за курсом Теорія ймовірностей

Теорія ймовірностей 1.doc (1 стор.)
Теорія ймовірностей 2.doc (1 стор.)
Оригінал


Основи комбінаторики.

Комбінаторика це розділ математики у якому вивчається питання про те скільки різних комбінацій підлеглих тим чи іншим умовам можна скласти з кінцевого числа різних елементів.

Комбінації відрізняються один від одного складом елементів або їх порядком називаються сполуками розрізняють три види з'єднань.

Розміщеннями називаються сполуки складені з n-різних елементів по m-елементам, які відрізняються один від Доуг або складом ел-тів або їх порядком.



Перестановки називають з'єднання складені з одних і тих же n-елементів, які відрізняються один від одного тільки їх порядком розміщення





Поєднаннями називаються сполуки складені з n-різних елементів по m-елементам, які відрізняються один від одного хоча б одним елементом.



Сполучення з повтореннями це такі сполуки які з n-різних елементів по m-елементам відрізняються один від одного або хоча б одним елементом або тим що хоча б один елемент входить різне число разів



^ Правило суми

Якщо деякий об'єкт А може бути вибраний з сукупності об'єктів М способами, а об'єкт В N способами, то вибір або об'єкта А небудь об'єкта В може бути здійснений М + N способами.

^ Правило твори

Якщо об'єкт А може бути вибраний з сукупності об'єктів М способами, а після такого вибору об'єкт В може бути вибраний N способами, то пара об'есков А і В можуть бути обрані А * В способами.

Основні поняття теорії ймовірностей

Подією називається будь-який результат досвіду, розрізняють такі види подій:

Поняття достовірного і неможливого події використовується для кількісної оцінки можливості появи того чи іншого явища, а з кількісною оцінкою пов'язана ймовірність.

Події називається неспільними в даному досвіді якщо поява однієї з них виключає появу іншого.

Події називається спільними якщо поява однієї з них не виключає появу інших.

Кілька подій утворюють повну групу подій якщо в результаті досвіду обов'язково з'явиться хоча б одне з них.

Якщо два несумісних події утворюють повну групу вони називаються протилежними

Події називається рівноможливими якщо поява жодного з них не є об'єктивно більш можливим ніж інші.

Події називаються неравновозможнимі якщо поява хоча б одного з них є більш можливим ніж інші.

Випадками називаються несумісні рівноможливими і утворюють повну групу події.
Обчислення ймовірностей

  1. класичний спосіб

  2. геометричний

  3. статистичний

Перші два способи називаються способами безпосереднього підрахунку ймовірності, а класичний заснований на підрахунку числа дослідів благоприятствующих цієї події серед всіх його можливих результатах.
^ Основи теорії ймовірності

Сумою подій А i називається подія С яке у появу події А чи події В або їх обох разом.

Сумою події А і В називається подія С укладену у виконанні хоча б однієї з названих подій.

Твором кількох подій називається подія полягає в спільному виконанні усіх цих подій.

^ Теорема множення ймовірностей.

Подія А називається залежним від події В якщо його ймовірність міняється залежно від того відбулася подія В чи ні.

Для незалежних подій умовна і безумовна ймовірність збігаються.

Імовірність появи двох залежних подій дорівнює добутку ймовірностей одного з них на ймовірність іншого обчислену за умови, що перша подія мало місце.

Р (А * В) = Р (А) * Р (В / А) = Р (В) * Р (В / А)

Ймовірність твори кількох подій дорівнює добутку ймовірностей цих подій причому ймовірність кожного наступного події обчислюється за умови, що всі попередні мали місце.

Р (А 1; А 2... А n) = Р (А 1) * Р (А 2 / А 1) * ...

* Р (А n / А 1, А 2... А n-1)

^ Теорема додавання ймовірностей сумісних подій

Ймовірність суми двох сумісних подій дорівнює сумі ймовірностей цих подій без ймовірності їх спільного появи.

Р (А) + Р (В) = Р (А) + Р (В)-Р (А * В)

^ Імовірність появи хоча б однієї події

Ймовірність появи події А що полягає в настанні хоча б одного з незалежних сукупностей подій. А 1, А 2... А n дорівнює різниці між одиницею і добутком імовірності протилежних подій А 1, А 2... А n

Р (А) = 1-q 1 * q 2 * ... * q n

^ Формула повної ймовірності

Нехай подія А може з'явитися разом з одним з утворюють повну групу попарнонесовместних подій Н 1, Н 2... Н n званих гіпотезами, тоді ймовірність події А обчислюється як сума добутків ймовірностей кожної гіпотези на ймовірність події А при цій гіпотезі



^ Формула Бейса

Нехай є повна група попарнонесовместних гіпотез Н 1, Н 2... Н n з відомими ймовірностями появи. У результаті проведення досвіду з'явилося деяке події А, потрібно переоцінити ймовірності гіпотез за умови, що подія А сталося



^ Повторення дослідів

Кілька дослідів називаються незалежними, якщо ймовірність однієї чи іншого з фіналів кожного їх дослідів не залежить від того які результати мали інші досліди.

Теорема. Якщо робиться n незалежних дослідів в кожному з яких подія А з'являється з однаковою ймовірністю р, причому то тоді ймовірність того, що подія А з'явиться рівно m разів визначається за формулою.

Формула Бернули



формула Бернули застосовується в тих випадках, коли число дослідів невелика, а ймовірності появи досить великі.

Якщо число випробувань n прагне до 0, а ймовірність появи події А в кожному з дослідів р прагне до 0, то для визначення ймовірності появи події А рівно m раз застосовують формулу Пуассона

a = n * p

Якщо число дослідів досить велике але не нескінченно, а ймовірність появи події А в кожному досвіді не прагне до 0, застосовують локальну і інтегральну теореми Лапласа

^ Локальна теорема Лапласа. Ймовірність того, що в n незалежних випробуваннях в кожному з яких імовірність появи події А дорівнює р причому 1> р> 0, то це подія настає рівно m раз приблизно дорівнює



^ Інтегральна теорема Лапласа. Ймовірність того, що в n незалежних випробуваннях в кожному з яких імовірність появи події А дорівнює р, причому 1> р> 0, то подія А настане не менше m 1 раз і не більше m 2 рази приблизно дорівнює


^ Випадкові величини і закони їх розподілу

Досвідом називається всяке провадження певних умов і дій при яких спостерігається досліджуване випадкове явище. Досліди можна характеризувати якісно і кількісно.

Випадкової називається величина, яка в результаті досвіду може приймати те чи інше значення., Причому заздалегідь не відомо яке саме. Випадкові величини прийнято позначати (X, Y, Z), а відповідні їм значення (x, y, z)

Дискретними називаються випадкові величини приймаючі окремі ізольовані один від одного значення, які можна переоцінити.

Безперервними величини можливі значення яких безперервно заповнюють певний діапазон.

Законом розподілу випадкової величини називається всяке співвідношення встановлює зв'язок між можливими значеннями випадкових величин та відповідними їм ймовірності.

^ Ряд і багатокутник розподілу.

Найпростішою формою закону розподілу дискретної величини є ряд розподілу.

x

x1

x2

x3

P

P1

P2

P3

Графічною інтерпретацією ряду розподілу є багатокутник розподілу.

^ Функція розподілу випадкової величини.

Для безперервних випадкових величин застосовують таку форму закону розподілу, як функція розподілу.

Функція розподілу випадкової величини Х, називається функцією аргументу х, що випадкова величина Х приймає будь-яке значення меншу х (Х <х)

F (х) = Р (Х <х)

F (х) - іноді називають інтегральною функцією розподілу або інтегральним законом розподілу.

Функція розподілу має такі властивості:

  1. 0 <F (х) <1

  2. якщо х 1> х 2, то F (х 1)> F (х 2)



функція може бути зображена у вигляді графіка. Для безперервної величини це буде крива змінюється в межах від 0 до 1, а для дискретної величини - ступінчаста фігура зі стрибками.

За допомогою функції розподілу легко знаходиться ймовірність попадання величини на ділянку від α до β

Р (α <х <β) розглянемо 3 події

А - α <Х

В - α <Х <β

С - Х <β

С = А + В

Р (С) = Р (А) + Р (В)

Р (α <х <β) = Р (α)-Р (β)

^ Щільність розподілу ймовірності неперервної випадкової величини.

Щільність розподілу ймовірності неперервної випадкової величини Х називається функція f (х) рівна першої похідної від функції розподілу F (х)

Графік щільності розподілу називається кривою розподілу.

Основні властивості щільності функції розподілу:

  1. f (х)> 0



Характеристики положення випадкової величини.

Модою (Мо) випадкової величини х називається найбільш ймовірне її значення. Це визначення суворо ставиться до дискретним випадковим величинам.

Для безперервної величини модою називається таке її значення для якого ф-ція щільності розподілу має максимальну величину.

^ Медіаною (Ме) випадкової величини називається таке її значення для якого виявиться випадкова величина менше цього значення.

Для неперервної випадкової величини медіана це абсциса точки в якій площа під кривою розподіляється навпіл.

Для дискретної випадкової величини значення медіани залежить від того парне чи непарне значення випадкової величини

n = 2k +1, то Ме = х до +1 (середнє по порядку значення)

Якщо значення випадкових величин парне, т.е n = 2k, то

^ Математичне сподівання випадкової величини.

Математичним очікуванням випадкової величини х (M [x]) називається середньо виважено значення випадкової величини причому в якості ваг виступають ймовірності появи тих чи інших значень.

Для дискретної випадкової величини



Для безперервної



З механічної точки зору мат. Очікування це абсциса центру ваги системи точок розташованих за однойменною осі. Розмірність мат. Очікування збігається з розмірністю самої випадкової величини.

Математичне сподівання випадкової величини завжди більше найменшого значення і менше максимального.


^ Характеристики розсіювання.

Дисперсія

Дисперсія (D [x]) характеризує розсіювання або разряженность випадкової величини близько її математичного сподівання.

Для дискретних

Для безперервних



Дисперсія випадкової величини завжди величина позитивна

Розмірність дисперсії дорівнює квадрату різниці випадкової величини

^ Середньоквадратичне (стандартне) відхилення.


Деякі закони розподілу випадкових величин.

Для дискретних випадкових величин - біноміальний розподіл і розподіл Пуассона

Для безперервних - рівномірний показове, експоненціальне і нормальний розподіл.

^ Біноміальний розподіл.

Біноміальним називають закони розподілу випадкової величини Х числа появи деякої події в n дослідах якщо ймовірність р появи події в кожному досвіді постійна



Сума ймовірностей являють собою біном Ньютона



Для визначення числових характеристик у біноміальний розподіл підставити ймовірність яка визначається за формулою Бернули.





При Біноміальний розподіл дисперсія дорівнює мат. Очікуванню помноженому на вірогідність появи події в окремому досвіді.

^ Розподіл Пуассона

Коли потрібно спрогнозувати очікувану чергу і розумно збалансувати число і продуктивність точок обслуговування і час очікування в черзі. Пуассоновским називають закон розподілу дискретної випадкової величини Х числа появи деякої події в n-незалежних дослідах якщо ймовірність того, що подія з'явиться рівно m разів визначається за формулою.

a = np

n-число проведених дослідів

р-ймовірність появи події в кожному досвіді

У теорії масового обслуговування параметр пуассонівського розподілу визначається за формулою

а = λt, де λ - інтенсивність потоку повідомлень t-час

Необхідно відзначити, що пуассонівської розподіл є граничним випадком біноміального, коли випробувань прямує до нескінченності, а ймовірність появи події в кожному досвіді прагне 0.



Пуассонівської розподіл є одиничним розподілом для якого такі характеристики як мат. Очікування і дисперсія збігаються і вони рівні параметру цього закону розподілу а.
^ Закон рівномірної щільності

Рівномірним називається розподіл неперервної випадкової величини Х всі значення якої лежать на відрізку [a; b] і мають при цьому постійну щільність розподілу



площа під кривою розподілу дорівнює 1 і тому з (в-а) = 1



ймовірність потрапляння випадкової величини Х на інтервал від (α; β)



α = а, якщо α <а

β = в, якщо β> в

основні числові характеристики закону розподілу щільності обчислюються за загальним формулам і вони рівні



^ Показовий (експоненційний розподіл)

Показовим називають розподіл неперервної випадкової величини Х яке описується наступною диференціальної функцією



Експоненціальне розподіл для безперервних випадкових величин є аналогом розподілу Пуассона для дискретних випадкових величин і має наступний вигляд.



ймовірність потрапляння випадкової величини Х на інтервал (α; β)



Слід зазначити, що час безвідмовної роботи задовольняється саме показовому закону, а тому це поняття часто використовується в понятті надійності.

^ Нормальний закон розподілу (закон Гаусса)

Нормальним називається розподіл випадкової величини Х якщо ф-ція щільності розподілу





Отриманий вираз через елементарні функції не може бути виражене, така функція так званий інтеграл ймовірності для якої складені таблиці, найчастіше в якості такої функції використовують





Часто за умовою задачі необхідно визначити ймовірність попадання випадкової величини Х на ділянку симетричний математичному очікуванню.



Правило трьох сигм це правило часто використовується для підтвердження або відкидання гіпотези про нормальний розподіл випадкової величини.
Навчальний матеріал
© uadoc.zavantag.com
При копіюванні вкажіть посилання.
звернутися до адміністрації