Professional Documents
Culture Documents
Lab 2
Lab 2
1. Теоретичні відомості
1,
якщо y
i 1
i i 0
R n
1,
якщо y
i 1
i i 0
Перша розпізнаюча машина, названа «Марк-1 » (рис. 4), була створена у 1958
р. під керівництвом Ф. Розенблата.
Зображення проектувалося на матрицю з 20х20 фотоопорів, яка могла бути
або встановлена у фотоапарат замість пластинки, або служити екраном для
діапозитивів. Сигнали з цієї матриці надходять на 512 асоціативних елементів, у
якості яких використовувалися електромеханічні реле, спеціальні інтегратори і
ваги А-елементів. Виходи А-елементів можуть подаватися на вісім А-елементів із
двома стійкими станами, що зв'язані з візуальними індикаторами.
Усі з'єднання між рецепторною, асоціативною і реагуючою частинами
персептрону можуть набиратися на двох комутуючих панелях, які зв’язують
фотоматрицю з А-елементами і А-елементи з R-елементами
Дослідження проводилися в трьох напрямках. У першому розглядалися
можливості персептрону розрізняти прості геометричні фігури.
Навчання «Марк-1», тобто зміна ваг зв'язків від А-елементів, здійснюване як
вручну, так і автоматично, може проводитися двояким способом.
У першому випадку на сітківку персептрону проектується деяка літера й
одночасно повідомляється правильну відповідь шляхом установки R-елементу в
потрібний стан зміною ваги А-елементів. Потім показується інша літера, для якої
знову повідомляється правильна відповідь.
Після деякого числа таких показів асоціативні елементи повинні взаємодіяти
на R-елементи в залежності від «розглянутої» літери, забезпечуючи їхнє
розпізнавання в будь-якій послідовності. Результат такого способу навчання, що
полягає в примусовій зміні ваг при кожному показі, незалежно від характеру
відповіді («пасивне» навчання), показаний на рис. 5 (крива а). Очевидно, що якість
розпізнавання в цьому випадку явно незадовільна.
Якщо ж роль «вчителя» полягає в корекції неправильних відповідей, то
результати виявляються цілком пристойними (крива б). Для цього потрібний
вплив на асоціативні елементи здійснюється тільки при помилкових показах
персептрону («активне» навчання).
Навчений «Марк-1» демонстрував розрізнення 26 латинських літер у тому
випадку, якщо вони були правильно орієнтовані і розташовані у визначеному місці
сітківки.
Другий напрямок досліджень полягав в розгляді впливу перешкод в частині
зображення, випадкових помилок навчального і поступового відключення частини
асоціативних елементів на нормальне функціонування персептрону. Тут
найбільший інтерес представляють результати, що показують збереження стійкої
роботи при виході з ладу деякого числа А-елементів. Як видно з графіків рис. 6,
«Марк-1» зберігає набуті в процесі навчання властивості і при значному
порушенні своєї структури.
В цьому ще раз проявляється схожість персептрону з мозком, який як відомо
здатний відновлювати багато своїх функцій навіть при значному видаленні його
частини.
І на кінець, ряд експериментів мали ціль виділити здатність персептрону до
узагальнень на основі накопиченого досвіду. Під цим розуміємо наступне. Якщо
персептрон навчений розрізняти декілька образів, наприклад літери чи
геометричні фігури, у визначеному місці поля сітчатки, то перенесення об’єкту в
інше місце потребує нового перенавчання. Це відбувається внаслідок того, що
потрібні ваги зв’язків були встановлені для визначення групи рецепторів, які після
переміщення об’єкту не збурюються.
Рис. 5 Криві навчання по розпізнаванню 8 букв
N=5
M=7
W11 B11
B21 B31
W12
B12
W13 B22 B32
B13
B23 B33
B14
B310
W1nm
2 Хід роботи
2.1. Ознайомитись із приведеними вище теоретичними відомостями.
2.2. Отримати завдання від викладача згідно із варіантом, який вказаний у
таблиці “Варіанти виконання лабораторної роботи”
2.3. Створити матриці алфавітно-цифрової інформації для навчання
нейронної мережі (кількість символів і кирилиця вибираються згідно
варіанту), виконавши наступні етапи:
2.3.1. Скопіювати файл “alph8х8.xls” або “alph7х5.xls” (далі
іменуватиметься як “Alfabet.xls”) в залежності від варіанту у свій
робочий каталог.
2.3.2. Відкрити файл “Alphabet.xls” за допомогою програми MS Excel.
При цьому, залишити підключеним наявний у файлі макрос, який
призначений для автоматизації процесу формування матриць.
2.3.3. Активувати “Лист1”.
2.3.4. Заповнити матриці алфавітно-цифрової інформації, ввівши нулі і
одиниці у відповідні клітинки (одиниця є признаком того, що
відповідний піксел зображення замальований).
2.3.5. Після формування матриць алфавітно-цифрової інформації,
перемістити курсор у положення верхнього лівого пікселя
кожного сформованого символу і виконати макрос (Ctrl+m). По
закінченні формування зберегти файл з матрицями під
відповідним ім’ям.
2.3.6. Активувати “Лист2”. При цьому, відобразиться “бітова матриця”
яка подаватиметься на вхід нейронної мережі. Виділити і
записати “бітову матрицю” у форматі “CSV (MS-DOS) *.csv”. Для
цього вибрати пункт “Сохранить как” в меню “файл” MS Excel,
вказати ім’я фалу і тип: “CSV (MS-DOS) (*.csv)”.
2.3.7. Відкорегувати створений “*.csv” файл засобами MS-DOS
(наприклад за доп. програми Total Commander) видаливши першу
стрічку, яка складається із розділювачів “;”.
2.4. Представити у звіті матриці входів нейронної мережі.
2.5. Розробити програмний модуль для навчання нейронної мережі з метою
розпізнавання алфавітно-цифрової інформації. При цьому забезпечити
відображення у звіті:
структура нейронної мережі;
умови навчання нейронної мережі;
вхідну навчальну вибірку у формі матриць;
результат процесу навчання нейронної мережі (наприклад на рис.
1)
3 Змiст звiту.
3.1. Тема та мета лабораторної роботи.
3.2. Коротко теоретичні відомості.
3.3. Роздрукiвка програми з коментарями.
3.4. Копія екрану із результатами роботи програми
3.5. Представлення графічного відображення проведеного аналізу (згідно
п.4).
3.6. Висновки по виконанiй роботi.
4 Контрольнi запитання.
4.1. Проблеми розпізнавання образів
4.2. Що таке персептрон.
4.3. Які методи навчання.
4.4. Яка використана структура нейронної мережі при виконанні
лабораторної роботи
4.5. Які перші навчаючі машини розпізнавання образів
4.6. модифікації розпізнаючих пристроїв
5 Література.
1. Быков А.П., Вейц А.В., От нейрона к искуственному мозгу. М.: Наука, 1971
2. Головко В.А., Нейроинтеллект: теория и применение в 2 Т., Брест 1999.
3. Кузин О.Л., Основы кибернетики, Т1-2, М: “Энергия”, 1979.
4. Розенблат Ф., Принципи нейродинамики. М., 1965,
Додаток
6 Таблиця “варіанти виконання лабораторної роботи”
Символи
Структура Навчання
навчання Розмір Рівень
Варіант Кирилиця нейр. К-ть епох
(вхідна Похибка символу шуму
мережі навчання
матриця)
1 Укр 1-10 35-5-10 0,01 5000 7х5 1:10
2 Англ 1-10 35-6-10 0,1 5000 7х5 1:10
3 Цифр 0-9 35-10-10 0,001 5000 7х5 1:10
4 Російська 1-10 35-5-10 0,0001 5000 7х5 1:10
5 Укр 11-20 35-8-10 0,1 5000 7х5 1:10
6 Англ 10-19 35-9-10 0,001 5000 7х5 1:10
7 Цифр 10-20 35-5-10 0,1 5000 7х5 1:10
8 Російська 11-20 35-5-10 0,1 5000 7х5 1:10
9 Укр 21-30 35-6-10 0,01 5000 7х5 1:10
10 Англ 20-26 35-8-10 0,0001 5000 7х5 1:10
11 Цифр 20-29 35-5-10 0,001 5000 7х5 1:10
12 Російська 21-30 35-10-10 0,1 5000 7х5 1:10
13 Укр 1-10 64-10-10 0,01 5000 8х8 1:10
14 Англ 10-19 64-5-10 0,001 5000 8х8 1:10
15 Цифр 10-20 64-5-10 0,00001 5000 8х8 1:10
16 Російська 11-20 64-6-10 0,1 5000 8х8 1:10
17 Укр 21-30 64-10-10 0,01 5000 8х8 1:10
18 Англ 10-19 64-5-10 0,01 5000 8х8 1:10
19 Цифр 10-20 64-10-10 0,001 5000 8х8 1:10
20 Російська 11-20 64-9-10 0,0001 5000 8х8 1:10
21 Укр 21-30 64-5-10 0,1 5000 8х8 1:10
22 Англ 10-19 64-5-10 0,001 5000 8х8 1:10
23 Цифр 10-20 64-6-10 0,1 5000 8х8 1:10
24 Російська 11-20 64-10-10 0,01 5000 8х8 1:10
25 Укр 21-30 10-5-10 0,0001 5000 7х5 1:10
26 Англ 10-19 64-5-10 0,001 5000 8х8 1:10
27 Цифр 10-20 35-11-10 0,1 5000 7х5 1:10
28 Російська 11-20 64-5-10 0,001 5000 8х8 1:10
29 Укр 2-11 64-7-10 0,01 5000 8х8 1:10
30 Англ 5-15 35-6-10 0,1 5000 7х5 1:10
31 Цифр 5-15 64-10-10 0,001 5000 8х8 1:10
32 Англ. 15-25 64-5-10 0,0001 5000 8х8 1:10
33 Укр 3-12 35-7-10 0,01 5000 7х5 1:10