You are on page 1of 15

Лабораторна роботa № 2

Тема: “Класифікація алфавітно-цифрової інформації з використанням


нейронних мереж”

з курсу "Основи штучного інтелекту"

Мета: вивчити сучасні методи класифікації образів із використанням


нейронних мереж.

1. Теоретичні відомості

1.1. Проблема розпізнавання образів


«Як ми впізнаємо індивідуальне людське обличчя, коли бачимо його в різних
положеннях: у профіль, у три-чверті або анфас? Як ми впізнаємо коло як таке,
незалежно від того, велике воно чи мале, поблизу чи воно чи вдалині? Як ми
бачимо обличчя тварин і географічні карти в хмарах? Як ми перекладаємо в слова
крик птахів чи комахи?
Щоб відповісти на ці, здавалося б, прості питання, необхідні знання процесів,
що відбуваються в людському мозку при сприйнятті зовнішніх явищ. Донедавна
механізми цих процесів представлялися зовсім неявними. Тому цілком зрозумілий
той інтерес, що викликали повідомлення про створення машин, що навчаються
розпізнаванню образів. Крім великого практичного значення таких «пізнаючих»
машин, що можуть бути використані в діагностичних установках, для читання і
перекладу, в аерофотозніманні, моделюванні процесів сприйняття дозволить до
деякої міри вивчити принципи розпізнавання образів і навчання в живих
організмах.
Істотною особливістю процесу сприйняття є наявність вродженого механізму
класифікації визначених груп подій або образів по їх найбільш характерних рисах.
Не маючи здатності класифікувати явища ми змушені були б запам'ятовувати
безліч конкретних об'єктів навколишнього світу.
Так, для читання книг необхідним було б вивчення шрифтів усіх друкарень,
оскільки кожна з них володіє власним, відмінним від інших, наборам друкарських
літерів. А постановка медичних діагнозів була дуже складною, тому що майже не
існує абсолютно тотожних симптомів однієї хвороби.

Рис.1 Приклади різних написань літери “А”

У дійсності все є не настільки трагічним. Ми читаємо книги, випущені в


різних місцях, розбираємо незнайомий почерк, можемо передбачати характер
хвороби і розпізнаємо безліч предметів, побачених уперше.
Це пояснюється тим, що в процесі сприйняття ми навчаємося розбивати всі
явища навколишнього світу на групи, що володіють характерними ознаками. Усі
фігури, показані на рис. 1, можуть бути названі літерою «А», хоча їхнє написання
значно відрізняються один від одного.
Розпізнавання безлічі об'єктів або ситуацій, що належать до одного класу, по
обмеженій кількості їхніх представників пов'язано з властивою тільки людині
здатністю до узагальнення й абстрактного мислення.
Людський мозок має здатності до формування деяких загальних
представлень, що охоплюють коло подібних по своїх зовнішніх ознаках явищ.
Завдяки цьому, процес сприйняття в людини заснований на минулому досвіді,
коли на стадії навчання при показі обмеженого числа об'єктів утворилося поняття
образу, який включає в собі безліч подібних об'єктів, які людина «упізнає» надалі.
Так, наприклад, учень, який знає літери в тому зображенні, яке йому
показував вчитель, розпізнає ці літери, скажемо, у слов'янському тексті.
Таким чином, мета навчання полягає в успішному впізнанні всієї множини
об'єктів після ознайомлення з його частиною.
В даний час, незважаючи на широкий спектр експериментальних досліджень,
найбільш повно вивчені лише біологічні аналізатори — приймаючі пристрої, в
яких відбувається первинна обробка і кодування інформації, яка надходить потім
по нервових каналах у відповідні ділянки мозку.
Між фоторецепторами і мозком включена складна нейронна мережа, що
виконує деяку первинну обробку зорової інформації. У цій мережі здійснюється
виділення рухів зображення за рахунок передачі сигналів тільки в момент зміни
освітленості і визначення контурів зображення. Крім того, "безпосередньо в
сітківці відбувається виділення з контурів найпростіших конфігурацій —
кривизни, кутів, відрізків ліній. Цей механізм є вродженим і здійснюється
спеціальними нейронами, що зв'язані з групами рецепторів, збуджуваних при
визначених конфігураціях деталей зображення. Так здійснюється виділення
елементарних ознак.
У результаті досліджень зорового органу людини і тварин було
сконструйовано велику кількість цікавих приладів, що дозволяють класифікувати
по простих ознаках деякі об'єкти незалежно від їхніх розмірів, орієнтації в
просторі або перспективних змінах.
Спроби з'ясувати механізм подальшої переробки інформації, пов'язаний з
асоціативними процесами в корі мозку, зустрічають значні складнощі.
Тому головну роль у вивченні розпізнавання складних явищ відіграють різні
аналітичні методи, у яких дані біологічних експериментів використовуються для
оцінки “істинності” запропонованих моделей.

1.2. Структура персептрону


При аналітичному моделюванні нервових структур можливі три підходи.
Використовуючи дані про будову елементарної нервової клітини – нейрону,
можна описати його математично, щоб надалі спробувати синтезувати складну
мережу, яка володіє комплексом заданих властивостей.
Найбільш цікаві в цьому напрямку роботи американських учених —
Рашевского і більш пізні дослідження Ходжкина і Хаксли, у яких емпіричні
властивості окремих нейронів описуються за допомогою диференціальних
рівнянь. У цих рівняннях автори прагнуть із достатньою точністю врахувати всі
параметри передачі сигналу через нейрон: просторове і тимчасове
підсумовування, постійні часу, іонну проникність і т.д. Однак додати отримані
вирази до інформаційних процесів у багаторівневих мережах виявляється
неможливим через неявну складність математичного апарату.
Інший метод полягає у формалізації нервових мереж за допомогою
представлення нейрона у виді граничної ключової схеми, що має два стани -
«включений» або «виключений» - і що спрацьовує, якщо алгебраїчна сума вхідних
сигналів перевищує поріг. Вхідні імпульси можуть бути або позитивними
(збудливими), або негативними (гальмуючими). Група таких схем утворить
універсальний обчислювальний елемент, який використовується для побудови
логічної мережі, що реалізує будь-які функції алгебри логіки.
Уперше такий підхід до моделювання складних систем був запропонований
Мак-Каллоком і Питтсом для вирішення логічних завдань, у тому числі навчання і
розпізнавання. Застосування такого підходу вимагає в основному написання
таблиці істинності, що встановлює зв'язок вхідних і вихідних співвідношень. А це
у свою чергу вимагає попереднього знання про очікувану поведінку всієї системи,
що конструюється, у відповідь на кожну комбінацію вхідних сигналів. Ясно, що
для складних систем складання такої таблиці вимагає значніих складностей.
Експериментальні дані про будову нервової тканини свідчать про
випадковий характер зв'язків між її елементами. Під мікроскопом добре видно
хаотичне переплетення сполучних волокон, що мають різну довжину і кількість
відгалужень. Представлення про випадковість міжнейронних з'єднань лягло в
основу статистичного підходу до моделювання нервових структур.
Такий підхід не означає, що в нервовій системі відсутні певні обмеження, що
забезпечують цілеспрямовану діяльність організму. Напроти, ці обмеження,
реалізовані або у формі щільності статистичного розподілу зв'язків, їхньої
направленості, або в якісних властивостях нейронів і т.д., є необхідними умовами
при моделюванні пристроїв, що розпізнають.
Вперше принцип статистичної організації був використаний американським
ученим Ф. Розенблатом для створення моделі розпізнаючої машини, яка
навчається, і одержала назву персептрон (від perception — сприйняття).
Персептроном ми будемо називати будь-яку модель нейронної мережі, яка
складається із рецепторних, асоціативних і реагуючих елементів, і володіючою
механізмом, здатним впливати на зв'язки між деякими з цих елементів, змінюючи
їх цілеспрямованим способом.
Блок-схема персептрона показана на рис. 2. В якості рецепторного пристрою
була використана матриця, що складається з фотоелементів і є по суті спрощеною
моделлю рецепторного поля сітківки. Зображення – літери, картинки, фотографії –
проектуються на це поле, створюючи конфігурацію світлих і темних місць.
Кожен фотоелемент служить світлочутливим датчиком, на виході якого або
існує, або відсутній сигнал у залежності від того, падає або ні на цей елемент
контур проектованої фігури.
Наступний блок персептрону являє собою набір граничних елементів, що
утворюють так зване асоціативне поле, у якому відбувається виділення основних
ознак зображення. Всі елементи цього поля однакові і являють собою одну з
різновидів формальної моделі нейрону. Кожен такий нейрон (Л-элемент) має один
вихід і декілька входів, на які надходять сигнали від фоторецепторів.
У процесі формування персептрону входи кожного А-элемента довільним
чином підключаються до виходів декількох рецепторів. При цьому кожне
з'єднання може передавати в залежності від включення позитивне або негативне
значення сигналу.
Рис. 2 Принципи організаційної структури
персептрону)

Рис. 3 Схема навчання персептрону

Таким чином, на кожному А-элементі відбувається підсумовування сигналів


від з'єднаних із ним сенсорів. У випадку, якщо вхідної сигнал А-элементу
перевищує значення власного порогу (однакового для всіх нейронів асоціативного
поля, то цей А-элемент збуджується і видає сигнал на спеціальний пристрій, що
реагує, (R-елемент). R-елемент, вхід якого зв'язаний із визначеною групою А-
элементів, показує в залежності від стану останніх наявність або відсутність
потрібної ознаки зображення, видаючи сигнал +1, якщо алгебраїчна сума вхідних
сигналів позитивна, і -1, якщо ця сума негативна. У випадку нульового сигналу
реакція є невизначеною.
Розглянемо тепер процес навчання елементарного персептрону за схемою
рис. 3, що складається з моделі зовнішнього середовища А, що володіє набором
деяких образів, навчаючої системи Б і власне персептрону В. В якості навчальної
системи може бути або автоматичний пристрій, або експериментатор. Ця система
порівнює інформацію, одержану від сприйманого в даний момент об'єкту, із
реакцією персептрону на об'єкт і здатна впливати на А-елементи, домагаючись
правильної відповіді.
Функції «вчителя» у цьому випадку зводяться до потрібної зміни ваг зв'язків
між асоціативним полем й елементом, що реагує. У найпростішому випадку
можна представити, що розмір сигналів від збуджених А-елементів змінюється за
допомогою підсилювачів із змінними коефіцієнтами підсилення, що з'єднують
вихід кожного А-елементу з R-елементом.
Таким чином, на R-елемент надходить сумарний сигнал від збуджених А-
елементів, у кожному з який присутні значення власної ваги зв'язку (коефіцієнта
підсилення ). Робота R-елементу визначається наступною умовою:
 n

 1,

якщо  y
i 1
i i 0
R n
 1,

якщо  y
i 1
i i 0

де уi— вихідний сигнал від А-елементу, збудженого в тому випадку, якщо


алгебраїчна сума сигналів від фоторецепторів перевищує його власний поріг .
Описаний персептрон володіє одним R-елементом і може розпізнавати з усієї
множини показаних йому об'єктів, тільки два класи образів, кожному з який
відповідають два можливих стани R-елементу: +1 і —1.
На вхідний пристрій персептрону послідовно проектуються зображення, що
належать одному з двох образів, наприклад різні написи літер «А» і «Б».
Навчальна система в залежності від правильної або неправильної реакції впливає
на ваги зв'язків. Про способи навчання персептрону буде сказано нижче.
Для тоги щоб персептрон міг розпізнавати більше число образів, наприклад
усі літери алфавіту, потрібно збільшити кількість R-елементів. На кожному R-
елементі будуть підсумовуватися сигнали, що відповідають визначеним ознакам
об'єкту. Дані про наявність або відсутність цих ознак, що знімаються з виходів А-
елементів, визначать приналежність показаного об'єкта до якогось образу. Процес
навчання в цьому випадку аналогічний описаному і полягає в посиленні корисних
ваг зв'язків.

Рис. 4 Персептрон «Марк-1»

Перша розпізнаюча машина, названа «Марк-1 » (рис. 4), була створена у 1958
р. під керівництвом Ф. Розенблата.
Зображення проектувалося на матрицю з 20х20 фотоопорів, яка могла бути
або встановлена у фотоапарат замість пластинки, або служити екраном для
діапозитивів. Сигнали з цієї матриці надходять на 512 асоціативних елементів, у
якості яких використовувалися електромеханічні реле, спеціальні інтегратори і
ваги А-елементів. Виходи А-елементів можуть подаватися на вісім А-елементів із
двома стійкими станами, що зв'язані з візуальними індикаторами.
Усі з'єднання між рецепторною, асоціативною і реагуючою частинами
персептрону можуть набиратися на двох комутуючих панелях, які зв’язують
фотоматрицю з А-елементами і А-елементи з R-елементами
Дослідження проводилися в трьох напрямках. У першому розглядалися
можливості персептрону розрізняти прості геометричні фігури.
Навчання «Марк-1», тобто зміна ваг зв'язків від А-елементів, здійснюване як
вручну, так і автоматично, може проводитися двояким способом.
У першому випадку на сітківку персептрону проектується деяка літера й
одночасно повідомляється правильну відповідь шляхом установки R-елементу в
потрібний стан зміною ваги А-елементів. Потім показується інша літера, для якої
знову повідомляється правильна відповідь.
Після деякого числа таких показів асоціативні елементи повинні взаємодіяти
на R-елементи в залежності від «розглянутої» літери, забезпечуючи їхнє
розпізнавання в будь-якій послідовності. Результат такого способу навчання, що
полягає в примусовій зміні ваг при кожному показі, незалежно від характеру
відповіді («пасивне» навчання), показаний на рис. 5 (крива а). Очевидно, що якість
розпізнавання в цьому випадку явно незадовільна.
Якщо ж роль «вчителя» полягає в корекції неправильних відповідей, то
результати виявляються цілком пристойними (крива б). Для цього потрібний
вплив на асоціативні елементи здійснюється тільки при помилкових показах
персептрону («активне» навчання).
Навчений «Марк-1» демонстрував розрізнення 26 латинських літер у тому
випадку, якщо вони були правильно орієнтовані і розташовані у визначеному місці
сітківки.
Другий напрямок досліджень полягав в розгляді впливу перешкод в частині
зображення, випадкових помилок навчального і поступового відключення частини
асоціативних елементів на нормальне функціонування персептрону. Тут
найбільший інтерес представляють результати, що показують збереження стійкої
роботи при виході з ладу деякого числа А-елементів. Як видно з графіків рис. 6,
«Марк-1» зберігає набуті в процесі навчання властивості і при значному
порушенні своєї структури.
В цьому ще раз проявляється схожість персептрону з мозком, який як відомо
здатний відновлювати багато своїх функцій навіть при значному видаленні його
частини.
І на кінець, ряд експериментів мали ціль виділити здатність персептрону до
узагальнень на основі накопиченого досвіду. Під цим розуміємо наступне. Якщо
персептрон навчений розрізняти декілька образів, наприклад літери чи
геометричні фігури, у визначеному місці поля сітчатки, то перенесення об’єкту в
інше місце потребує нового перенавчання. Це відбувається внаслідок того, що
потрібні ваги зв’язків були встановлені для визначення групи рецепторів, які після
переміщення об’єкту не збурюються.
Рис. 5 Криві навчання по розпізнаванню 8 букв

Рис. 6 Вплив зменшення А-елементів на навчений персептрон


1 –Відсутність шуму, 2 – наявність шуму, 3 очікуване значення при
випадковій відповіді

Аналогічним чином через порушення сталих ваг зв'язків помилкові відповіді


персентрону виникають при наявності деформацій в об'єктах, що демонструються:
розтяганні, стиску, поворотах. Результати експериментів у цій області, проведені
на «Марк-1», досить скромні. Але завдяки їм вдалось сформулювати деякі вимоги
до організаційної структури персептрону, що знайшли свій відбиток у подальших
розробках.

1.3. Методи узагальнення сприйняття


Наступним кроком моделювання сприйняття і розпізнавання було
використання перехресних зв'язків між А-елементами і створення
чотирьохслойних персептронів. Чотирьохслойні персептрони мають два шари
асоціативних елементів (рис. 7). Розглянемо чотирислойну організацію з одним R-
елементом.
Кожнен нейрон другого шару зв'язаний із групою нейронів першого шару,
причому поріг елементів А2 вибирається так, щоб сигнал від одного елемента А1 із
групи, зв'язаної з А2, був достатній для його збурення. Елементи першого шару
з'єднані з рецепторами, що утворять на фотоматриці конфігурації, що охоплюють
вcі можливі деформації і переноси зображення.
Пояснимо це на прикладі. Припустимо, що з елементом шару А2 з'єднано К
елементів А11 А12, ...А1к першого шару. Установимо тепер такі зв'язки елементів К-
групи з рецепторним полем, щоб елемент А11 розпізнавав заданий образ,
наприклад літеру «А», у лівій верхній частині фотоматриці, елемент А12
розпізнавав ту ж літеру в лівій нижній частині, елемент А13 – у відповідній правій
частині і т.д. Далі ми можемо встановити такі зв'язки з іншими елементами цієї
групи, які розпізнавали б стиснуті або розтягнуті зображення літери «А».
А1 - елементи

Рис. 7 Схема чотирислойного


персептрону

Таким чином асоціативний елемент другого шару А2 зможе узагальнювати


припустимі зміни зображення (літери «А») у тій мірі, у якій це закладено в
розподілі зв'язків елементів К-групи з фотоматрипею. Аналогічним чином інший
елемент другого шару А2 зможе узагальнювати будь-які з К-перетворень іншого
способу (літери «Б») і т.д.
Необхідно відмітити, що спочатку модель багатошарового персептрону
розглядалася в основному як деяка штучна система, що представляє чисто
теоретичний інтерес. У жорстких вимогах, запропонованих до організації з'єднань
А-елементів першого шару з рецепторами, убачався відхід від концепції
випадкових, статистичних зв'язків, властивим біологічним нервовим системам.
Однак дослідження, проведені Хьюбелем і Визелем на зоровій корі кішок, виявили
велику подібність структури їхніх асоціативних областей з ієрархічними
персептронами.
Це є ще одним переконливим прикладом двостороннього зв'язку між
дослідженнями над живими організмами і біонікою. Спираючись на дані про
будівлю біологічних систем, біоніка реалізує їхні технічні моделі, що у свою чергу
розширюють наше представлення про процеси в нервових мережах і направляють
діяльність експериментаторів на нові відкриття.

1.4. Деякі модифікації розпізнаючих пристроїв.


Дотепер розглядався процес навчання розпізнавання зорових образів. В
даний час відомі конструкції персептронів, здатні розрізняти окремі звуки і навіть
слова команди.
Зміни, які необхідно ввести в персептрон, щоб він зміг розпізнавати звукову
інформацію, торкають головним способом рецепторну частину. Замість матриці
фоторецепторів використовувалися спеціальні резонансні сенсори, настроєні на
визначені звукові коливання. Успішно виконана програма «Тоdеrмогу» у
Корнельском університеті (США), названої так до імені казкового кота, що
розумів людську мову. На тих же принципах можуть бути створені пристрої, що
класифікують і впізнають запахи, що володіють почуттям дотику або смаку.
Останнім часом у різних країнах сконструйовані дуже цікаві модифікації
класичного персептрона Розенблата.
Значний інтерес представляє оригінальна машина італійського вченого, що
впізнає, Гамба. У ній за допомогою дотепного пристрою вдалося позбутися від
безлічі асоціативних елементів, замінивши їхнім послідовним відтворенням
об'єкта по тактах, кожний із який відповідає одному А-элементу.
Крім того, у машині Гамба дуже просто вдасться досягти деякого збільшення
числа рецепторів, що приводить до зниження «зернистості» зображення і
підвищенню роздільної здатності системи.
Дуже перспективними представляються роботи Штайн-буха (ФРН), під
керівництвом якого створена універсальна матриця, призначена для розпізнавання
різних образів по великому числу ознак.
Конструктивно матриця являє собою правильну решітку, по вертикальним
складовим якої подається безліч ознак образу, а по горизонтальним — навчальну
сигнали про приналежність ознак тому або іншому образу. У процесі навчання
відбувається зміна провідностей у вузлах перетинання стовпців матриці з
відповідними рядками, здійснюване автоматично і спрямоване на виділення
потрібних ознак об'єкту і зведення до мінімуму впливу несуттєвих ознак. Після
закінчення навчання матриця може вирішувати завдання розпізнавання образів,
видаючи на виході рядків умовний код, що відповідає класу образу, що
показуються. Простота конструкції матриці дозволяє сподіватися на її
мікромініатюрне виконання, що є обов'язковою умовою при створенні
асоціативної матриці з числом елементів, близьким до числа нейронів у
біологічних мережах.
Великий інтерес представляють також роботи Эшби й Анджела, присвячені
розпізнаванню складних об'єктів. Асоціативні елементи Анджела являють собою
40 прямокутних решіток, складених із 1000 однакових логічних комірок, і здатні
розрізняти будь-які рукописні літери. Діюча система Эшби розпізнає після деякого
навчання об'єкти на екрані локатора й автоматично включає сигнал тривоги як
тільки з'явиться, наприклад, літаки визначеної форми. Таким чином, ідея
персептрона є досить плідною для реалізації великого числа класифікуючих і
«впізнаючих» автоматів.
Дотепер малось на увазі, що в процесі навчання персептрону є обов'язковим
присутність людини, функції якої полягають у попередній класифікації об'єктів,
введенні даних цієї класифікації в автомат і, крім того, у «навчанні» персептронів
методом «заохочення» і «покарання», як це було описано на початку глави.
У дійсності людський мозок має вроджений механізм класифікації по
визначених ознаках без участі “вчителя”. Якщо, наприклад запропонувати дитині
розсортувати колоду карт по подібності окремих листів, то він напевно через
якийсь час знайде схожі картинки і буде відкладати королів до короля, тузів до
тузів і т.д. При цьому він керується власними розуміннями, робить це самостійно,
без заохочення. Кожен живий організм здатний класифікувати сприймані з
зовнішнього середовища порушення і виділяти з них групи схожих подій і
ситуацій. Ясно, що якби пристрої типу персептронів мали таку властивість
самостійного виявлення загальних за своїм характером або поведінці об'єктів, то
це означало б значний якісний стрибок у створенні “розпізнаючих машин” і
відчинило б надзвичайно широке поле для їхнього застосування.
Постановка задачі
Проблема розпізнавання образів
Нехай алфавітно-цифрова інформація відображається бінарною матрицею
розмірністю МxN (рисунок 8).

N=5

M=7

Рисунок 8 – Зображення алфавітно-цифрового символу розмірністю


M=7, N=5

Задача нейронної мережі полягає в розпізнаванні таких цифр в умовах завад.

Підбір структури нейронної мережі


Для вирішення задачі будемо використовувати трирівневу нейронну
мережу, яка містить MxN нейроніввхіднорго рівня, 10 нейронів схованого рівня і
10 нейронів вихідного рівня. Таке співвідношення формується на основі правила
побудови нейронних мереж:
1. Нейронна мережа з одним схованим рівнем дозволяє здійснити будь-яке
відображення вхідних сигналів у вихідні;
2. Кількість нейронів проміжного рівня повинно бути меншим розмірності
навчальної вибірки;
3. Потужність нейронної мережі модна нарощувати як за рахунок кількості
нейронів в рівні, так і за рахунок кількості рівнів нейронної мережі. Якщо
на нейронну мережу накладаються обмеження п.2 і вона не може
вирішити поставлену задачу, потрібно збільшувати кількість схованих
рівнів нейронної мережі;
4. Випадкова ініціалізація вагових коефіцієнтів нейронної мережі повинна
проходити в досить вузькому діапазоні значень.
Кожному нейронному елементу вихідного рівня поставимо у відповідність
конкретний алфавітно-цифровий символ в порядку нумерації нейронів. Тоді номер
вихідного нейрону, який має максимальну активність на виході, визначить
відповідний алфавітно-цифровий символ. В межах даної лабораторної роботи,
розмірність навчальної вибірки рівна десяти. Структуру нейронної мережі
представлено на рисунок 9.

W11 B11
B21 B31
W12
B12
W13 B22 B32
B13
B23 B33
B14

B310
W1nm

Рисунок 9 – Структура нейронної мережі

2 Хід роботи
2.1. Ознайомитись із приведеними вище теоретичними відомостями.
2.2. Отримати завдання від викладача згідно із варіантом, який вказаний у
таблиці “Варіанти виконання лабораторної роботи”
2.3. Створити матриці алфавітно-цифрової інформації для навчання
нейронної мережі (кількість символів і кирилиця вибираються згідно
варіанту), виконавши наступні етапи:
2.3.1. Скопіювати файл “alph8х8.xls” або “alph7х5.xls” (далі
іменуватиметься як “Alfabet.xls”) в залежності від варіанту у свій
робочий каталог.
2.3.2. Відкрити файл “Alphabet.xls” за допомогою програми MS Excel.
При цьому, залишити підключеним наявний у файлі макрос, який
призначений для автоматизації процесу формування матриць.
2.3.3. Активувати “Лист1”.
2.3.4. Заповнити матриці алфавітно-цифрової інформації, ввівши нулі і
одиниці у відповідні клітинки (одиниця є признаком того, що
відповідний піксел зображення замальований).
2.3.5. Після формування матриць алфавітно-цифрової інформації,
перемістити курсор у положення верхнього лівого пікселя
кожного сформованого символу і виконати макрос (Ctrl+m). По
закінченні формування зберегти файл з матрицями під
відповідним ім’ям.
2.3.6. Активувати “Лист2”. При цьому, відобразиться “бітова матриця”
яка подаватиметься на вхід нейронної мережі. Виділити і
записати “бітову матрицю” у форматі “CSV (MS-DOS) *.csv”. Для
цього вибрати пункт “Сохранить как” в меню “файл” MS Excel,
вказати ім’я фалу і тип: “CSV (MS-DOS) (*.csv)”.
2.3.7. Відкорегувати створений “*.csv” файл засобами MS-DOS
(наприклад за доп. програми Total Commander) видаливши першу
стрічку, яка складається із розділювачів “;”.
2.4. Представити у звіті матриці входів нейронної мережі.
2.5. Розробити програмний модуль для навчання нейронної мережі з метою
розпізнавання алфавітно-цифрової інформації. При цьому забезпечити
відображення у звіті:
 структура нейронної мережі;
 умови навчання нейронної мережі;
 вхідну навчальну вибірку у формі матриць;
 результат процесу навчання нейронної мережі (наприклад на рис.
1)

Рисунок 1 – Результат процесу навчання нейронної мережі

2.6. Розробити програмний модуль для зашумлення вхідних зображень в


діапазоні від 0-100% пікселів за випадковим принципом(наприклад, на
рис. 2).
Рисунок 2 – формування вхідної вибірки

При цьому, у нові набори зашумлених символів, включити декілька


значень (до 10) для одного рівня зашумленості. У звіт включити по
одному екземпляру зображень для одного рівня зашумленості.

2.7. Розробити програмний модуль для розпізнавання вхідних зашумлених


зображень навченою нейронною мережею (наприклад, на рисунку 3).
При цьому забезпечити вивід

Рисунок 3 – результат розпізнавання символів нейронною мережею


2.8. Дослідити рівень розпізнавання символів алфавітно-цифрової
інформації нейронною мережею, в залежності від рівня зашумленості
зображень (наприклад, рис 4).

Рисунок 4 – Результат розпізнавання образів нейронною мережею, при


всіх тестах програми.

У звіті відобразити графік похибки навчання нейтронної мережі, один


рисунок розпізнавання образів для кожного досліджуваного рівня
шуму, графік похибки розпізнавання образів.
2.9. Оформити звіт і захистити роботу у викладача.

3 Змiст звiту.
3.1. Тема та мета лабораторної роботи.
3.2. Коротко теоретичні відомості.
3.3. Роздрукiвка програми з коментарями.
3.4. Копія екрану із результатами роботи програми
3.5. Представлення графічного відображення проведеного аналізу (згідно
п.4).
3.6. Висновки по виконанiй роботi.

4 Контрольнi запитання.
4.1. Проблеми розпізнавання образів
4.2. Що таке персептрон.
4.3. Які методи навчання.
4.4. Яка використана структура нейронної мережі при виконанні
лабораторної роботи
4.5. Які перші навчаючі машини розпізнавання образів
4.6. модифікації розпізнаючих пристроїв

5 Література.
1. Быков А.П., Вейц А.В., От нейрона к искуственному мозгу. М.: Наука, 1971
2. Головко В.А., Нейроинтеллект: теория и применение в 2 Т., Брест 1999.
3. Кузин О.Л., Основы кибернетики, Т1-2, М: “Энергия”, 1979.
4. Розенблат Ф., Принципи нейродинамики. М., 1965,

Додаток
6 Таблиця “варіанти виконання лабораторної роботи”
Символи
Структура Навчання
навчання Розмір Рівень
Варіант Кирилиця нейр. К-ть епох
(вхідна Похибка символу шуму
мережі навчання
матриця)
1 Укр 1-10 35-5-10 0,01 5000 7х5 1:10
2 Англ 1-10 35-6-10 0,1 5000 7х5 1:10
3 Цифр 0-9 35-10-10 0,001 5000 7х5 1:10
4 Російська 1-10 35-5-10 0,0001 5000 7х5 1:10
5 Укр 11-20 35-8-10 0,1 5000 7х5 1:10
6 Англ 10-19 35-9-10 0,001 5000 7х5 1:10
7 Цифр 10-20 35-5-10 0,1 5000 7х5 1:10
8 Російська 11-20 35-5-10 0,1 5000 7х5 1:10
9 Укр 21-30 35-6-10 0,01 5000 7х5 1:10
10 Англ 20-26 35-8-10 0,0001 5000 7х5 1:10
11 Цифр 20-29 35-5-10 0,001 5000 7х5 1:10
12 Російська 21-30 35-10-10 0,1 5000 7х5 1:10
13 Укр 1-10 64-10-10 0,01 5000 8х8 1:10
14 Англ 10-19 64-5-10 0,001 5000 8х8 1:10
15 Цифр 10-20 64-5-10 0,00001 5000 8х8 1:10
16 Російська 11-20 64-6-10 0,1 5000 8х8 1:10
17 Укр 21-30 64-10-10 0,01 5000 8х8 1:10
18 Англ 10-19 64-5-10 0,01 5000 8х8 1:10
19 Цифр 10-20 64-10-10 0,001 5000 8х8 1:10
20 Російська 11-20 64-9-10 0,0001 5000 8х8 1:10
21 Укр 21-30 64-5-10 0,1 5000 8х8 1:10
22 Англ 10-19 64-5-10 0,001 5000 8х8 1:10
23 Цифр 10-20 64-6-10 0,1 5000 8х8 1:10
24 Російська 11-20 64-10-10 0,01 5000 8х8 1:10
25 Укр 21-30 10-5-10 0,0001 5000 7х5 1:10
26 Англ 10-19 64-5-10 0,001 5000 8х8 1:10
27 Цифр 10-20 35-11-10 0,1 5000 7х5 1:10
28 Російська 11-20 64-5-10 0,001 5000 8х8 1:10
29 Укр 2-11 64-7-10 0,01 5000 8х8 1:10
30 Англ 5-15 35-6-10 0,1 5000 7х5 1:10
31 Цифр 5-15 64-10-10 0,001 5000 8х8 1:10
32 Англ. 15-25 64-5-10 0,0001 5000 8х8 1:10
33 Укр 3-12 35-7-10 0,01 5000 7х5 1:10

You might also like