Пиши Дома Нужные Работы

Обратная связь

Оцінка функціональної ефективності СПР

 

4.1 Основні інформаційні характеристики СПР

 

Вчення про інформацію перебуває в процесі інтенсивного розвитку і його значення зростає через безперервне ускладнення та інтелектуалізацію СПР, які стають невід'ємною частиною сучасних АСК в різних областях соціально-економічної сфери суспільства. Поняття інформація характеризує кожне активне відбиття, тому і знання теж можна розглядати як інформацію про відповідний об'єкт дослідження.

Визначення 4.1.1. Під інформацією розуміються відомості, які містяться в повідомленні і є об'єктом отримання, обробки, збереження і передачі.

Таке визначення інформації у широкому розумінні підкреслює її ціннісний аспект, необхідність її використання.

Визначення 4.1.2. У логіко-гносеологічному аспекті інформація розглядається як перетин категорії відбиття з категорією різноманітності, тобто є відбитою різноманітністю.

Формування теорії інформації було обумовлено практичними потребами суспільства і мало вирішальне значення в становленні такої наукової дисципліни, як кібернетика.

Визначення 4.1.3. 3 логіко-гносеологічної точки зору кібернетика визначається як перетин категорії керування з відбитою різноманітністю, тобто інформацією (рис.4.1.1).

Таким чином, природа кібернетики має інформаційну основу.

Сучасний розвиток кібернетики тісно пов'язаний з вирішенням проблеми штучного інтелекту. Відомі два підходи до цієї проблеми, які розрізняються характером їх зв'язку із природним інтелектом людини.

 

 

Рисунок 4.1.1– До пояснення природи інформації

 

При першому (біонічному) підході штучний інтелект трактується як фізіологічне моделювання природного інтелекту. Вихідна ідея другого (функціонального) підходу полягає в тому, що одна й та сама функція може бути реалізована моделями різної природи. Тобто цей підхід ґрунтується на встановленні адекватності функціонування моделі та оригіналу. Але найбільш перспективним вважається комбінований (назвемо умовно інформаційний) підхід-Вченими-фізіологами експериментально доведено, що ефективність функціонування живої істоти: визначається ефективністю її процесу навчання прийняттю рішень. Основним запереченням проти такого підходу є думка деяких авторів про принципову різницю між людським сприйняттям та розпізнавальною функцією машини. У першому випадку результатом сприйняття є суб'єктивний образ об'єкта, а в другому — код ознак об'єкта, кількість яких визначається словником ознак розпізнавання. Однак останнім часом все більше вчених, як філософів, так і природознавців підтримують положення про діалектичний зв'язок чуттєвого пізнання із способом відбиття. Саме в рамках інформаційного підходу, який усуває недоліки біонічного та функціонального підходів, відкривається перспектива моделювання на ЕОМ розумових процесів, які притаманні людині при прийнятті рішень.



Інформацію можна виміряти. За одиницю вимірювання інформації приймається біт (бінарна одиниця)

Визначення 4.1.4. Біт – це кількість інформації, яку отримує особа, що приймає рішення, в результаті вибору однієї гіпотези із двох рівноймовірних, взаємовиключних гіпотез.

В обчислювальній техніці біт широко вживається в значенні одиниці ємкості пам'яті. Ця одиниця збігається з інформаційною одиницею у тому випадку, коли є обґрунтування рівноймовірної появи, наприклад.,"1" або "0" у бінарній комірці пам'яті, що насправді і має місце в сучасних швидкодіючих ЕОМ.

Кількість інформації, яка є мірою знятої невизначеності, може мати різну цінність або корисність. Проблема цінності інформації, яка має принципове значення для розробки штучного інтелекту, до цього часу не знайшла свого вирішення. В окремих галузях науки та техніки для оцінки цінності інформації прийнятним із практичних міркувань є так званий синтаксичний підхід. У рамках цього підходу згідно з першим принципом адитивності інформації: чим більше якісних елементів містить повідомлення, тим воно несе відповідно більшу і інформацію, цінність інформації визначається через її кількість. На жаль, два інших підходи визначення цінності інформації - це семантичний (змістовний) і прагматичний, який передбачає побудову деякої цільової функції в аналітичному або іншому вигляді, перебувають ще в початковій стадії поставлення с зав давня дослідження. У цілому вирішення проблеми цінності інформації є одним з найбільш складних завдань сучасної науки.

Існують різні інформаційні міри. Найпростішою такою мірою може бути в рамках синтаксичного підходу кількість повідомлень:

 

N =m n, (4.1.1)

 

де m – кількість якісних ознак у повідомленні, n – елементів у повідомленні.

Але при m=Const в (4.1.1) між кількістю повідомлень і кількістю елементів не існує адитивної залежності. У 1924 році Л. Хартлі запропонував інформаційну міру у вигляді

.(4.1.2)

Аналіз (4.1.2) показує, що в мірі Хартлі існує адитивна залежність між кількістю інформації та кількістю елементів у повідомленні, але ця міра не враховує ймовірнісних показників повідомлення. Серед імовірнісних мір найбільше поширення знайшла міра Шеннона [9,16].

Кількість безумовної інформації за Шенноном, яка міститься в повідомленні , дорівнює

 

, (4.1.3)

 

де р(аі) – безумовна ймовірність появи в повідомленні елемента аі.

Відомо, що детермінована міра дозволяє досліджувати поведінку системи у відносно "великих масштабах" зміни її координат у просторі та часі, в той час як статистична міра - у відносно "малих масштабах", забезпечуючи передусім підвищення достовірності рішень, що приймаються. Таким чином, детермінована міра є визначальною відносно статистичної, але вони не повинні бути взаємовиключними , а тільки доповнювати одна одну. Тому перехід статистичної міри Шеннона в граничному випадку при pi=1/m в детерміновану міру Хартлі:

 

,

є підтвердженням її правильності та доцільності розробки алгоритмів прийняття рішень у рамках детерміновано-статистичного підходу.

Визначення 4.1.1. Питома кількість інформації, яка, міститься в одному незалежному повідомленні А, називається загальною (середньою) безумовною ентропією і визначається за формулою

 

(4.1.4)

 

При цьому кількість інформації, яка міститься в одному незалежному елементі аі називається частинною безумовною ентропією:

 

 

Таким чином, ентропія, як і кількість інформації, є мірою невизначеності системи. Розглянемо основні властивості безумовної ентропії, позначивши p(ai) як рi.

1 Ентропія є величина дійсна і знакододатна як функція від імовірності, до того ж 0 рi 1, тобто .

2 Безумовна ентропія для детермінованих змінних (pi=1 або pi = 0) дорівнює нулю.

Оскільки , то для m=1 і pi=1 ентропія дорівнює . Для m>2 необхідно довести, що ентропія дорівнює нулю і при ймовірності pi=0, яку будуть мати m-1 елементів повідомлення. Оскільки функція (4.1.3) в цьому випадку дає невизначеність , то для використання правила Лопіталя її необхідно перетворити до вигляду шляхом підстановки k =1/pi. Тоді можна записати

 

 

де L – знак процедури Лопіталя.

Отже, при функція (4.1.4) дорівнює нулю, оскільки дорівнюють нулю всі її складові.

3. Безумовна ентропія максимальна при pi=1/m і дорівнює log2m. Для m 2 ця властивість доводиться шляхом дослідження функції (4.3.1) на екстремум із підстановкою в неї, наприклад, для m = 2 змінних pi=p і p2=1-p. Для доведення при m > 2 можна за допомогою нормованої функції сформувати функціонал [16]:

,

 

де — невизначений множник Лагранжа.

Після взяття похідної та прирівняння її до нуля:

, отримаємо .

Оскільки , то

.

Таким чином, і для m>2 маємо екстремум функції (4.1.4) при . Внаслідок першої та другої властивостей можна стверджувати без аналізу другої похідної, що цей екстремум є максимумом функції. На рис. 4.1.2 наведено графіки функції (4.1.4) при m = 2 (рис. 4.1.2а) і m>2 (рис. 4.1.26).

 

а) б)

 

Рисунок 4.1.2– Залежність ентропії від імовірності :

а) m=2; б) m>2

 

4 Ентропія об'єднання незалежних повідомлень дорівнює їх сумі. Відомо із теорії ймовірностей, що для двох незалежних подій має місце . Тоді

 

 

Оскільки і то

H (A,B)=H(A)+H(B).

 

При детальному розгляді всі події є залежними від певних умов. Так, вихідний вектор СПР В={bj} залежить від вектора вхідних даних А={аi} і випадкового збурення f(t), як це показано на рис. 4.1.3.

 

Рисунок 4.1.3– Узагальнена інформаційна модель СПР

 

Рішення, які приймаються системою, характеризуються в цьому випадку умовною апріорною (вихідною) ймовірністю p(bj/ai) появи на виході СПР події bj за умови, що на вході має місце подія аi. Тоді умовну ймовірність p(ai / bj)наявності події аi на вході системи за умови, що на виході отримано подію bj,будемо називати апостеріорною.

За апріорні інформаційні характеристики, які є мірою невизначеності виходу, можна розглядати частинну умовну ентропію:

 

(4.1.5)

 

і середню (загальну) умовну ентропію Н(В/А), яка є математичним сподіванням від відповідної частинної ентропії:

 

(4.1.6)

 

Аналогічно визначаються апостеріорні частинна умовна ентропія:

 

(4.1.7)

 

і середня умовна ентропія:

 

(4.1.8)

Середня умовна ентропія має такі специфічні властивості.

1. Об'єднання ентропій двох взаємозалежних повідомлень А і В дорівнює сумі середньої безумовної ентропії одного повідомлення і середньої умовної ентропії іншого повідомлення відносно першого:

 

H(A,B)=H(A)+H(B/A)=H(B)+H(A/B)=H(B,A). (4.1.9)

 

При доведенні (4.1.9) треба взяти до відома, що для взаємозалежних подій має місце: p(ai, bj)=p(ai)p(bj,ai)=p(bj,ai). Тоді

 

 

оскільки =l як сума ймовірностей подій, що складають повну групу.

2. Умовна ентропія незалежних подій А і В дорівнює відповідній безумовній ентропії:

 

оскільки

3. Умовна ентропія повідомлень А і В, які мають детерміновану (функціональну) залежність, дорівнює нулю. При доведенні треба взяти до уваги, що для подій аi і bj з детермінованим зв'язком має місце p(ai/bj)=1 і p(bj/ai)=1.

Надлишковість повідомлення обчислюється за формулoю

, (4.1.10)

 

де H – ентропія повідомлення; Нmax – максимальна ентропія повідомлення з рівноймовірними елементами.

З урахуванням властивостей умовної ентропії надлишковість інформації в повідомленнях із залежними елементами не може бути менше надлишковості інформації в повідомленнях тієї самої довжини з незалежними елементами, оскільки Н(А/В) Н(A). Надлишковість інформації не може розглядатися виключно як негативне явище, оскільки її збільшення підвищує завадозахищеність повідомлення, що є основним принципом теорії завадозахищеного кодування.

Однією із основних інформаційних характеристик є кількість середньої (загальної) умовної інформації про повідомлення А (або В), яка міститься у взаємозалежному повідомленні В (або А) і визначається за симетричною формулою:

 

IB(A)=H(A)-H(AB)=H(B) – H(BA)=IA(В). (4.1.11)

 

Середня кількість умовної інформації виражається через імовірності подій на вході та виході СПР, наприклад, у такому вигляді [16]:

 

 

Середню кількість умовної інформації можна розглядати як математичне сподівання відповідної кількості часткової умовної інформації, яка міститься в елементі аi, (векторі В) про вектор В (елемент ai):

 

(4.1.12)

 

Звідси з урахуванням (4.1.12) кількість частинної умовної інформації визначається як

 

(4.1.13)

 

Аналогічно кількість часткової умовної інформації є математичним сподіванням відповідної індивідуальної умовної інформації, яка міститься в елементі ai (bj) про елемент bj (ai):

 

(4.1.14)

 

З урахуванням (4.1.14) отримаємо формулу кількості індивідуальної умовної інформації

 

(4.1.15)

 

Аналіз виразу (4.1.15) показує, що індивідуальна умовна інформація може бути від'ємною, тобто розглядатися як дезінформація.

 

4.2. Ентропійний критерій функціональної ефективності СПР

 

Інформаційний підхід природно базується на використанні для оцінки функціональної ефективності інформаційного критерію, який, наприклад, за Шенноном має такий нормований вигляд :

 

, (4.2.1)

 

де - апріорна (безумовна) ентропія:

; (4.2.2)

 

апостеріорна умовна ентропія, яка характеризує залишкову невизначеність після прийняття рішень:

 

. (4.2.3)

Тут – апріорна ймовірність прийняття гіпотези gl; p(mm/gl) – апостеріорна ймовірність появи події mmза умови прийняття гіпотези ; М – число альтернативних гіпотез.

У загальному випадку КФЕ СПР повинен відповідати таким основним вимогам:

· бути прямим і об’єктивним критерієм;

· математично обчислюватися і мати геометричний сенс;

· характеризувати ступінь відповідності системи своєму призначенню та економічну придатність її використання;

· носити конструктивний характер, тобто дозволяти розробляти методи аналізу та синтезу СПР;

· бути універсальним, тобто здатним для оцінки функціональної ефективності СПР широкого призначення;

· бути чуттєвим до зміни параметрів функціонування і характеристик СПР;

· дозволяти оптимізувати процес прийняття рішень СПР з метою максимізації асимптотичної повної достовірності вирішального правила, яка визначає функціональну ефективність системи;

· мати функціональний зв¢язок з точнісними характеристиками вирішальних правил СПР;

· оцінювати надійність СПР;

· дозволяти прогнозувати зміну функціональної ефективності та надійності СПР.

Цим вимогам задовольняють критерії, які характеризують інформаційну спроможність інтелектуальної системи, що приймає рішення за умов апріорної невизначеності.

На практиці при оцінюванні функціональної ефективності СПР можуть мати місце такі допущення:

· рішення є двохальтернативним (М=2);

· оскільки СПР функціонує за умови невизначеності, то за принципом Бернуллі-Лапласа виправдано прийняття рівноймовірних гіпотез: .

Тоді критерій (4.2.1) з урахуванням виразів (4.2.2) і (4.2.3) приймає такий частинний вигляд:

 

. (4.2.4)

 

При двохальтернативному рішенні (M=2) за основну приймемо гіпотезу g1 про знаходження значення ознаки розпізнавання, що контролюється, в полі допусків d і як альтернативну їй - гіпотезу g2. При цьому мають місце чотири можливих результати оцінки виміру ознаки (рис. 4.2.1).

 

 
 

 


Рисунок 4.2.1 - Можливі результати контролю ознак

розпізнавання при М=2

 

Тут x, z - виміряне та дійсне значення ознаки розпізнавання відповідно.

Результати контролю ознак розпізнавання при двохальтернативному рішенні характеризуються такими ймовірностями – точнісними характеристиками:

· помилка першого роду– (рис. 4.2.1а);

· помилка другого роду– (рис. 4.2.1б);

· перша достовірність – (рис. 4.2.1в);

· друга достовірність – (рис. 4.2.1г).

Розіб’ємо множину значень ознак на області та . Область включає значення, що знаходяться в допуску , а – не в допуску. Тоді можна записати:

 

 

Виразимо апостеріорні ймовірності через апріорні за формулою Байеса, прийнявши p(m1)=p(m2)=0,5:

 

(4.2.5)

 

Після підстановки (4.2.5) в (4.2.4) отримаємо формулу для обчислення КФЕ за Шенноном:

 

(4.2.6)

У загальному випадку побудований за (4.2.6) графік функції є поверхнею у тривимірному просторі (рис. 4.1.2).

 

Рисунок 4.2.2-Залежність критерію (4.2.6) від точнісних

характеристик (М=2)

 

Як видно з рис. 4.2.2, функція (4.2.6) не є взаємно-однозначною. На практиці цей недолік обходять, обмежившись значеннями достовірностей в інтервалі [0,5;1], який характеризує робочу область визначення функції.

Е

На рис. 4.2.3 наведено номограму для обчислення ентропійного критерію (4.2.6)у робочій області визначення його функції.

 

Рисунок 4.6 - Номограма обчислення критерію (4.2.6)

у робочій області його визначення

4.3 Інформаційна міра Кульбака

 

Серед логарифмічних статистичних інформаційних мір найбільше розповсюдження знайшла ентропійна міра Шеннона, яка є інтегральною мірою. Разом з тим, ще недостатньо уваги приділяється вивченню властивостей міри Кульбака [5], яка дозволяє оцінювати диференційну інформативність ознак розпізнавання. Здобудемо робочу формулу для обчислення міри Кульбака та встановимо її зв’язок з точнісними характеристиками процесу навчання за МФСВ.

Нехай - основна гіпотеза про належність реалізацій m-го образу j-му діапазону області класу , тобто контейнеру . Тоді - апостеріорні ймовірності належності контейнеру реалізацій відповідно класів і , де - найближчий сусідній клас до . Відомо, що міра Кульбака розглядається як добуток відношення правдоподібності Lна міру відхилень розподілів імовірностей. У даному випадку, логарифмічне відношення правдоподібності визначимо як

 

 

де k - кількість діапазонів (контейнерів) в яких знаходяться реалізації класів і . За умови побудови контейнерів у радіальному базисі, верхня границя k дорівнюєкількості відбудованих на кожному кроці навчання концентрованих контейнерів класу , центрами яких є вершина еталонного вектора . Міра Кульбака тоді набуває вигляду:

 

*[ ]. (4.3.1)

 

Як і в попередніх випадках, приймемо , що спростить обчислення і не вплине на властивості міри Кульбака. Крім того, за аналогією з мірою Шеннона замінемо десятковий логарифм на двійковий. Тоді замість (4.3.1) отримаємо

 

* (4.3.2)

 

Оскільки

 

і

тобто це відповідно перша достовірність і похибка другого роду при розпізнаванні реалізацій класів і , які знаходяться в k-му контейнері класу , то вираз (4.3.2) подамо у модифікації, яку назвемо частинною мірою Кульбака:

 

(4.3.3)

 

З метою узагальнення формули (3.3.3) введемо логарифмічне відношення повної ймовірності правильного прийняття рішень про належність реалізацій класів і контейнеру до повної ймовірності помилкового прийняття рішень , яке для двохальтернативної системи оцінок рішення має такий вигляд:

 

 

де , – гіпотези про належність контейнеру реалізацій відповідно класів і .

При допущенні, що , загальна міра Кульбака остаточно набуває вигляду:

 

 

(4.3.4)

 

Нормовані модифікації критеріїв (4.3.3) і (4.3.4) можна подати відповідно у вигляді:

 

, (4.3.5)

 

де – значення критерію при і для формули (4.3.3) і при і для формули (4.3.4).

У задачах оптимізації параметрів функціонування СПР нормування критеріїв оптимізації є доцільним при порівняльному аналізі результатів досліджень і при оцінці ступеня близькості реальної СПР до потенційної.

 

4.4 Обчислення інформаційного критерію функціональної ефективності СПР

 

Обчислювальний аспект оцінювання функціональної ефективності набуває важливого значення в задачах інформаційного синтезу СПР, що навчаються, і потребує врахування специфіки як їх функціонування, так і їх призначення. Розглянемо процедуру обчислення інформаційного КФЕ машинного навчання СПР.

Оскільки інформаційний критерій є мірою різноманітності не менше ніж двох об¢єктів, то для його обчислення потрібна навчальна матриця, яка складається із векторів-реалізацій двох класів: і Нехай клас є основним, тобто найбільш бажаним для ОПР. Тоді належність вектора-реалізації із навчальної матриці класу приймається за основну гіпотезу g1 , а неналежність – за альтернативну гіпотезу g2. Алгоритм зчитування навчальної матриці може бути побудовано двома способами. За першим способом послідовно зчитуються реалізації , а потім – реалізації . За іншим способом при кожному випробуванні обробляються реалізації обох класів.

Розглянемо обчислення модифікації ентропійного інформаційного КФЕ за Шенноном для двохальтернативного рішення при рівноймовірних гіпотезах згідно з формулою (4.2.2). Оскільки інформаційний критерій є функціоналом від точнісних характеристик, то при обмеженому обсязі навчальних вибірок слід користуватися їх оцінками:

 

; ; ; ,

(4.4.1)

де , - кількість подій, які означають відповідно належність та неналежність реалізацій образу контейнеру , якщо дійсно ; , - кількість подій, які означають відповідно належність і неналежність реалізацій контейнеру , якщо вони насправді належать класу ; nmin- мінімальний обсяг репрезентативної навчальної вибірки.

Після підстановки відповідних позначень (4.4.1) в (4.2.2) отримаємо робочу формулу для обчислення інформаційного КФЕ навчання СПР розпізнаванню реалізацій класу за Шенноном для двохальтернативного рішення і при рівноймовірних гіпотезах:

 

.

(4.4.2)

Структурну схему алгоритму обчислення критерію (4.4.2) за паралельним способом оброблення навчальної матриці в процесі відновлення на кожному k-му кроці навчання оптимального контейнера класу , що будується в радіальному базисі, подано на рис. 4.4.1. Тут наведено такі вхідні дані: Х1, Х2 - еталонні двійкові вектори класів і відповідно; – навчальна матриця, яка складається з реалізацій цих класів; N= , де NM-обсяг репрезентативної навчальної вибірки; D – радіус контейнера класу . Вихідні дані: Е – значення КФЕ; А, В, D1, D2- значення точнісних характеристик процесу навчання СПР: помилки першого і другого роду, перша і друга достовірності відповідно. За схемою, що розглядається, блок 5 обчислює при кожному випробуванні кодову відстань D(N)шляхом складання за модулем два вектора Х1з поточним вектором-реалізацією X(N)і підрахунку кількості одиниць в отриманій сумі. При кожному непарному випробуванні визначається відстань D(N) між вектором Х1 і реалізацією свого класу, а на кожному парному - між вектором Х1 і реалізацією іншого класу. Обчислення коефіцієнтів К1, К2, КК4 здійснюється за таким алгоритмом (блоки 6 – 12):

а) порівняння (блок 6): якщо D(N) £ D (реалізація належить області класу ), то при непарному випробуванні обчислюється К1:=К1+1(²своя² реалізація), а при парному - К3:=К3+1 (²чужа² реалізація). Визначення парності або непарності реалізацій здійснюють блоки 7 і 8, які перевіряють виконання умови N/2=F, де F – ціле число. Якщо умова виконується, то випробування парне, інакше - непарне. Якщо D(N)>D (реалізація не належить області класу ), то при непарному випробуванні обчислюється коефіцієнт К2:=К2+1(²своя² реалізація), а при парному – К4:=К4+1 (²чужа² реалізація);

Рисунок 4.4.1 – Структурна схема обчислення інформаційного КФЕ

б) порівняння (блок 13): якщо N=NM (оброблено всі реалізації навчальної матриці), то обчислюються оцінки точнісних характеристик за (4.4.1), інакше обробляється наступна реалізація;

в) при виконанні умови блоку 15: (D1>0,5 і D2>0,5) обчислюється інформаційний критерій, наприклад, за формулою (4.4.2), інакше видається повідомлення «КФЕ не визначено».

Цінність знання точнісних характеристик процесу навчання полягає в тому, що вони, по-перше, виступають як асимптотичні точнісні характеристики СПР в режимі екзамену, а по-друге, дозволяють визначати робочу область визначення функції інформаційного КФЕ. Аналіз проведених паралельно вертикальній поверхні D10E перерізів тривимірної поверхні функції E=f (D1, D2), графік якої наведено на рис. 4.2.2,показав, що, виходячи із вимоги практичної цінності рішень, які приймаються СПР, на робочу область визначення функції інформаційного КФЕ необхідно вводити обмеження знизу: Так, для двохальтернативного рішення такими обмеженнями є: D1>0,5 і D2>0,5, тобто значення першої та другої достовірностей у робочій області не можуть бути менше значень відповідних помилок.

Розглянемо обчислювальний аспект оцінки функціональної ефективності СПР, що навчається, за Кульбаком. Після відповідної підстановки (4.4.1) у (4.3.3) отримаємо формулу для обчислення частинної міри Кульбака:

 

(4.4.3)

 

Недоліком наведеної формули обчислення критерію оптимізації є можливість появи нескінченних піків, якщо відповідні емпіричні частоти приймають нульові значення. Щоб уникнути необхідності блокувати цей недолік програмним шляхом, при обчисленні такої міри доцільно використовувати робочу модифікацію формули (4.4.3) у вигляді

 

, (4.4.4)

 

де r - число цифр у мантисі значення критерію .

Аналогічно при обчисленні КФЕ за формулою (4.3.4) слід використовувати таку його робочу модифікацію:

 

.

(4.4.5)

 

Зрозуміло, що залежно від величини числа r будуть змінюватися значення критеріїв (4.4.4) або (4.4.5), але це не впливає на положення глобального максимуму в робочій області визначення їх функцій.

 

4.5 Запитання та завдання для самопідготовки

 

1. Який вигляд має формула безумовної (апріорної) ентропії? Що вона характеризує при прийнятті рішень?

2. Який вигляд має формула умовної (апостеріорної) ентропії? Що вона характеризує при прийнятті рішень?

3. Який вигляд має загальна формула критерію Шеннона як функція ентропій?

4. Що називається першою достовірністю?

5. Що називається помилкою першого роду?

6. Що називається помилкою другого роду?

7. Що називається другою достовірністю?

8. Виразіть умовну (апостеріорну) ймовірність через точнісні характеристики двохальтернативного рішення.

9. Виразіть умовну (апостеріорну) ймовірність через точнісні характеристики двохальтернативного рішення.

10.Виразіть умовну (апостеріорну) ймовірність через точнісні характеристики двохальтернативного рішення.

11.Виразіть умовну (апостеріорну) ймовірність через точнісні характеристики двохальтернативного рішення.

12.Який вигляд має формула критерію Шеннона як функція точнісних характеристик?

13.Як обчислити оцінки точнісних характеристик?

14.Який вигляд має робоча формула критерію Шеннона?

15.Яким умовам повинна задовольняти робоча область визначення функції інформаційного критерію?

16.Яку конструкцію має критерій Кульбака?

17.Виразіть через точнісні характеристики повну ймовірність правильного прийняття рішень.

18.Виразіть через точнісні характеристики повну ймовірність неправильного прийняття рішень.

19.Наведіть аналітичну формулу критерію Кульбака як функцію від точнісних характеристик.

20.Наведіть робочу формулу критерію Кульбака.

21.Який вигляд має нормований критерій Кульбака?

22. За яких умов значення критерію Кульбака , що обчислюється за формулою (4.1), буде максимальним?

23.Яке максимальне значення має критерій Кульбака, що обчислюється за формулою (4.4), при і ?

 






ТОП 5 статей:
Экономическая сущность инвестиций - Экономическая сущность инвестиций – долгосрочные вложения экономических ресурсов сроком более 1 года для получения прибыли путем...
Тема: Федеральный закон от 26.07.2006 N 135-ФЗ - На основании изучения ФЗ № 135, дайте максимально короткое определение следующих понятий с указанием статей и пунктов закона...
Сущность, функции и виды управления в телекоммуникациях - Цели достигаются с помощью различных принципов, функций и методов социально-экономического менеджмента...
Схема построения базисных индексов - Индекс (лат. INDEX – указатель, показатель) - относительная величина, показывающая, во сколько раз уровень изучаемого явления...
Тема 11. Международное космическое право - Правовой режим космического пространства и небесных тел. Принципы деятельности государств по исследованию...



©2015- 2024 pdnr.ru Все права принадлежат авторам размещенных материалов.