ДПИ - 2

Информации


Теоријата на информации е една од ретките научни
области за која прецизно може да се идентификува
нејзиниот почеток.
Тоа е објавувањето на трудот на Claud Shannon „A
Mathematical Theory of Communication“ во Bell Systems
Technical Journal во 1948 година.
Во него е покажано како информацијата може да биде
мерена со апсолутна прецизност.
Меѓу другото, во таа статија на некој начин беше
претставен и шематскиот план на новото дигитално
време, па од тие причини за нејзиниот автор се вели и
дека е татко на дигиталната ера.

Пред Shannon, уште неколку научници работеле на слични
проблеми, меѓутоа, нивните истражувања биле сврзани со
многу тесно ограничени подрачја на примена.
Shannon e тој кој, врз база на нивните поединечните
резултати, ги определил универзалните идеи што довеле
до револуција во комуникациите и биле основа за огромен
број на истражувања сврзани со преносот на податоци, што
денес се означува како поле на теоријата на информации.
Сепак, да не се сфати погрешно дека теоријата на
информации е производ само на Claud Shannon. Таа е
резултат на истражувачкиот придонес на различни
индивидуи од мноштво научни дисциплини кои ги презеле
неговите идеи и ги развиле за потребите на тие
дисциплини.

Иако фразата „теорија на информации“ никогаш
експлицитно не била употребена во иницијалната
статија, нагласувањето на зборот „информација“
во неа, веројатно придонело за оформувањето на
називот на нова наука.
Всушност, самиот Shannon го користи овој
термин само во дескриптивна смисла и
останува во рамки на телекомуникациите,
употребувајќи го за областа „теорија на
комуникации“.
Неговите следбеници ја преименувале областа и
сега е премногу доцна да и се врати називот
даден од Shannon.

така и кај аматерите истражувачи. отворајќи сосема нови хоризонти во третирањето на проблемите сврзани со преносот на информации: „оваа област е покруцијална за напредокот на човештвото во мир и неговата сигурност во војна. . 1953).  Самата идеја. била потребна армија истражувачи и големи финансиски ресурси. фасцинирало многу истражувачи и привлекло големо внимание. квантифицирано и редуцирано до математичка формула. како кај математичарите и инженерите. отколку Ајнштајновата нуклеарна физика“ (Fortune. Но за ова почетно возбудување да прерасне во нова наука. Поддршката од печатените медиуми и тоа не само од научните списанија. апстрактно и неодредено како што е информацијата да биде анализирано. нешто така нејасно. одиграла значајна улога во нејзината популаризација.

е. Меѓутоа.  Потврда за ова визионерско тврдење наоѓаме и денес. кој е нејзиниот предмет на истражување. кога речиси и да не постои сфера од човековиот живот и работа во која. пред поконкретно да видиме кои се тие и да направиме краток преглед на развојот на оваа млада научна област. не се користат придобивките од теоријата на комуникации – информации и нивниот пренос. неопходно е најпрво да се утврди што поконкретно таа проучува. во помала или поголема мера. т. . после шеесет години.

некои сметаат дека теоријата на информации е дел од теоријата на комуникации. во делот што се однесува на нејзините врски со други научни дисциплини. Од тие причини. и која е крајно можната стапка на пренос при комуникацијата (одговор: капацитетот на канал C).Предмет и фундаментални прашања  Теоријата на информации дава одговор на две фундаментални прашања од теоријата на комуникации:     која е крајно можната компресија на податоци (одговор: ентропијата H). . Од нив воедно може да се согледа и кои се општите проблеми со кои таа се занимава. Овде ќе се задржиме само на неколкуте основни концепти кои се застапени во трудот на Shannon и кои се суштински за разбирањето на теоријата на информации и за нејзиното огромно значење. Всушност теоријата на информации е многу повеќе од тоа.

без да изгубиме одредени информации. за жал. . изразена во битови по секунда. без оглед на тоа колку софистицирана да е шемата за корекција на грешки што се користи. без оглед на тоа колку ги компримираме податоците. значи дека математички е невозможно да се оствари комуникација ослободена од грешки при пренос со брзина над овој лимит. Ова. Значи. не можеме да го направиме преносот низ каналот побрз.Капацитет на канал и теорема за кодирање на канал со пречки   Најзначајниот резултат на Shannon е дека секој комуникациски канал има свое ограничување во поглед на брзината на пренос на податоци.

. без оглед на шумот или пречките.Капацитет на канал и теорема за кодирање на канал со пречки   Сепак. а тоа е дека под оваа граница е возможно да се пренесуваат информациите со произволно мала веројатност од грешка. постои и добра страна на овој резултат. или пак колку сигналот е слаб. Shannon математички докажал дека постојат начини на кодирање на податоците со кои ќе се овозможи да се достигне наведената горна граница на пренос без грешки.

Така. претставува база за развој на цела гранка на истражувања на кодови со поправање на грешки. тоа повторно ќе може да свири совршено. на пример. Но малку кој знае дека ова се должи на теоремата за канал со пречки.теоремата за кодирање на канал. . ако со некој предмет еднаш се загребе по површината на едно ново CD.   Капацитет на канал и теорема за кодирање на канал со пречки Овој фундаментален концепт . заради заштита од оштетувања. Овде е воведен концептот на воведување на редундантност. односно излишни информации при дигиталната репрезентација.

Доколку се погледне во било која книга за комуникации. неизбежно ќе се наиде на следниот дијаграм. . или на некоја негова несуштинска модификација.Формална архитектура на комуникациски систем   Во продолжение ќе биде презентирана и формалната архитектура на комуникациски систем што Shannon оригинално ја понуди во неговиот труд.

Сите денешни комуникациски системи суштински се сведуваат на овој модел.Оваа шема што ја претставува архитектурата и дизајнот на било кој комуникациски систем е од големо значење. така што со право може да се каже дека тој навистина е основниот структурален шематски план за дигиталната ера. како посебен математички модел. од причина што покажува дека истиот може да биде разграничен на компоненти и секоја од тие компоненти може да биде третирана независно од останатите. .

Дигитална репрезентација    Меѓу другото. Значи. тие може да бидат пренесени и регенерирани без грешка. Пораката може да биде     текст.  но за каналот сé се тоа нули и единици. . воопшто не е важно што претставува таа порака. или видео-запис.  И штом еднаш податоците се претставени дигитално. Shannon согледал дека содржината на пораката е ирелевантна за нејзиниот пренос. слика. звук.

Пред Shannon. комуникациските инжинери работеле на различни полиња. телефонија. секој со посебна техника:      телеграфија. аудио. . пренос на податоци.Дигитална репрезентација   Во тоа време ова било радикална идеја за инжинерите кои за преносот на информации биле навикнати да размислуваат како за електромагнетни бранови низ жица. и немале никакви допирни точки меѓу себе.

значи сите модови на комуникација. научно промовирајќи го концептот дека       текстот. . филмот. Ваквото дигитално претставување е основа за сé што имаме денес.Дигитална репрезентација  На извесен начин Shannon ги обединил сите нив. сликите. телефонските сигнали. може да бидат кодирани во битови – термин што за првпат во печатена форма бил употребен во неговата статија.

 Терминот што денес се користи е компресија на податоци.  Основната цел на оваа постапка е да се отстрани вишокот на информации за пораката да се направи помала. кодирање на извор. а кој подоцна е наречен Shannon-Fano код.Ефикасност во репрезентацијата: кодирање на извор  Во својата статија Shannon пишува и за т.н. што се однесува на ефикасното претставување на податоците. користејќи блок-код со варијабилна должина. .  Shannon дискутира и за еден метод на компресија на податоци.

дизајнира ново кодирање. што денес наоѓа широка примена при компресијата на податоци: JPEG. MP3 и ZIP-фајловите се само некои примери каде што се користи. студент на професорот Fano.н. Huffman-кодирање. . т.Ефикасност во репрезентацијата: кодирање на извор   Покрај ова. Три години подоцна David Huffman. тој го покренува и прашањето за конструкција на код што би бил оптимален во смисла дека ќе ја минимизира очекуваната должина (наведениот Shannon-Fano код не секогаш е оптимален).

Ентропија и содржина на информација   Во времето на Shannon. односно канали. шумот и моќта. Shannon понудил решение и за овој проблем. ваквите радија биле високо подложни на шумови. со редефинирање на врските помеѓу информацијата. Тој го квантифицирал количеството на информација во сигнал. Дополнително. Проблемот се појавувал со зголемувањето на бројот на корисници. наведувајќи дека тоа е количеството на неочекувани податоци што дадена порака ги содржи. традиционалното решение за трансмисија на податоци било да се користат радија кои ќе ја фокусираат целокупната своја моќ во мал опсег на фреквенции. .

Ентропија и содржина на информација    Оваа информациска содржина од пораката тој ја нарекол ентропија. . Оваа техника денес се користи во телефонијата. Освен тоа покажал дека е потребен носител со ниска ентропија за да се пренесуваат пораки со висока ентропија. На тој начин укажал дека алтернатива на тогашниот начин на пренос на информации (висока моќ и мал опсег) е испраќање на пораки со ниска моќ и ширење на сигналот низ широк опсег на фреквенции.

а потоа и напредни. што подоцна се трансформирале во стандардни курсеви. На тој начин биле продуцирана плејада млади истражувачи. Првичното воодушевување од резултатите на Shannon се манифестирала со понуда на различни семинари и симпозиуми од страна на универзитетите. . прво почетни. како ги пребродило различните кризи и кои беа факторите што придонесоа еден единствен труд да израсне во научно поле. кои понатаму станале експерти од таа област.Развој на теоријата на информации   Во овој дел накратко ќе биде проследен и историскиот развој на теоријата на информации: како ова поле еволуирало.

а на некои пак.Развој на теоријата на информации  Денес на некои универзитети има посебни курсеви од теорија на информации. содржините од оваа област се интегрирани низ курикулумот на повеќе предмети од различни области: компјутерски науки. IRE (The Institute of Radio Engineers) основале своја посебна група PGIT (Professional Group on Information Theory) и започна да издава специјализирано списание потполно посветено на теоријата на информации. а тоа е денес најпрестижниот IEEE (Institute of Electrical and Electronic Engineers). електротехника и математика. информациска технологија. . IRE потоа се припил кон AIEE (American Institute of Electrical Engineers) со цел да биде основан нов институт во 1963 година. Инаку.

Ова делумно било и заради конфузијата што всушност е теоријата на информации. а всушност станува збор за пренос на информации. Fano подоцна истакнувал дека за тоа виновик е називот кој наведува да се мисли дека тоа е наука за информациите.Развој на теоријата на информации   Кон средината на педесетите станало очигледно дека теоријата на информации. Некои истражувачи во своите трудови намерно ги вметнувале зборовите „теорија на информации“ и „кибернетика“ (тогашниот алтернативен назив). сметал дека треба да се остане исклучиво во рамки на телекомуникациите. а не да се применува и на други области. Мислењата по ова прашање биле поделени. Самиот Shannon пак. со цел да привлечат спонзори за својата работа. претставува мода. на некој начин. Се правеле бесмислени обиди теоријата на информации да се примени буквално на се и сешто. Затоа и не било јасно кои се нејзините граници. . во врска со овој проблем.

Интегралните кола ги заменија транзисторите. првенствено за воени потреби.Развој на теоријата на информации   Во тоа време на поставени теориски основи. . САД драстично го зголемиле буџетот за таа намена. Во 1958 година бил одобрен планот за сателити и NASA била основана. туку и во самиот хардвер. многу малку било постигнато во поглед на соодветната практична примена. Откако СССР го лансирал „Спутник“ и ја презеде водечката позиција во вселенската трка. Обезбедувањето на сигурни комуникациски врски во присуство на голем шум одеднаш станал вистински реален проблем. Вселенската технологија не само што довела до прогрес во кодирањето. а истражувањата биле насочени кон негово решавање. Она што следувало на тој план главно било финансирано од владата на САД.

Развој на теоријата на информации   По еуфоријата и брзата експанзија. Границите на капацитет на канал скоро биле достигнати. никаква нова примена не била на повидок. И токму кога песимизмот во поглед на теоријата на информации кулминирале во изјави од типот „кодирањето е мртво“. а посебно и кодирањето. но било прескапо за комерцијална употреба. повторно враќајќи ја во игра теоријата на информации. . а новите шеми за кодирање што биле предложени беа премногу сложени за имплементација. кон крајот на шеесетите години се појавил и период на стагнација во развојот на теоријата на информации. Микрочипот сеуште не бил пронајден. така што настана затишје во истражувањата. појавата на 4-битниот регистер направил преврат. Секвенцијалното декодирање било имплементирано во вселената.

Тие бараат технологија во форма на комплексен хардвер и пресметувачка моќ. . скапа и сложена. со цел да бидат употребени. а биле потребно да поминат 40 години да се развие технологија со која тие може да бидат имплементирани. Теоријата е само тоа – теорија: алгоритми. кодови. едни од најмоќните кодови (Low Density Parity Check Codes) биле предложени од Gallager во неговата докторска дисертација во 1960 година. концепти.Развој на теоријата на информации    Технологијата на хардверот отсекогаш била решавачки фактор за теоријата на информации. како што тоа било во шеесетите. тогаш апликациите се привилегија само на оние со најмногу пари: NASA и армијата. Кога технологијата е дефицитарна. Така на пример.

првиот комерцијален безжичен TDMA телефон. основани или раководени од професори кои работеле на подрачјето на теоријата на информации: Codex (модеми AE-96. Linkabit (Viterbi декодирање. сé понапредната и поевтина технологија придонела примената на теоријата на информации да ја извади надвор од границите на ултраскапите вселенски апликации и армија и да ја стави на располагање на комерцијалниот свет.Развој на теоријата на информации   Во 1971 година Intel го произвел својот прв микропроцесор. кодиран сателитски телевизиски систем (VideoCypher). . QAM 9600). Понатаму. Qualcomm (CDMA технологија). Во тој период успешно се развиле и поголем број мали компании.

Развој на теоријата на информации    Во годините што следеле. Но ако историјата е индикатор. развојот на теоријата на информации не бил праволински. Од ова воедно и се гледаат подрачјата што веројатно ќе продолжат да ги користат идеите на теоријата на информации и во иднина. сателити. Никој со сигурност не може да предвиди што таа ќе донесе. не го ползува бенефитот од теоријата на информации: компјутерски мрежи. MP3. мобилни телефони. Денес речиси и да нема подрачје од човековиот живот и работа кое. мемориски единици. првенствено од практична гледна точка. . Hamming-кодови за поправање на грешка. тогаш теоријата на информации ќе доживее уште многу продуктивни години. оптички комуникациски системи. интернет. Но за една релативно млада наука има остварено огромни достигнувања. во помала или поголема мера. ReedSolomon-кодови за компресија. безжични локални мрежи.

теоријата на информации не е само дел од теројата на комуникации. Во прилог на ова е и следниот дијаграм што ги претставува врските на теоријата на информации и со други области.Врски со други подрачја Како што веќе претходно беше кажано. .

Теоријата на информации иако предлага прекрасни теориски шеми за оптимална комуникација. Современите истражувања на комуникациските аспекти на теоријата на информации се концентрирани во мрежната теорија на информации. под услов стапката на пренос да е под капацитетот на каналот. Тоа е теоријата за истовремени комуникации од мноштво испраќачи кон мноштво примачи во комуникациска мрежа. имаат иредуцибилна комплексност под која сигналот не може да биде компримиран. Тој исто така тврдел дека одредени случајни процеси. како што се музиката и говорот. Ова тој го именуваше со ентропија и потврди дека доколку ентропијата на изворот е помала од капацитетот на каналот. тогаш може да биде постигната комуникација при која веројатноста од грешка асимптотски тежи кон нула.Електротехника (теорија на комуникации)   Во раните четириесетти години се мислело дека зголемувањето на стапката на пренос на податоци низ комуникациски канал доведува до зголемување на веројатноста од грешка при тој пренос. нејзината практична примена зависи од расположивата технологија. . Shannon ги изненадил сите докажувајќи дека ова тврдење не е точно.

Вака дефинираната сложеност е универзална. компјутерски независна и приближно еднаква на Шеноновата ентропија ако низата е продуцирана случајно од распределба со таква ентропија. Така. За разлика од поединечната минимизација. сложеноста е минималната должина за опишување. многу малку е направено во поглед на истовремената минимизација по однос на двете оски.е. .Компјутерски науки (комплексност на Kolmogorov)   Комплексноста на Kolmogorov е изразена преку идејата дека сложеноста на низа податоци може да биде дефинирана преку должината на најкусиот бинарен програм за пресметување на низата. т. За пресметковната (временската) комплексност и за комплексноста на Kolmogorov (програмска должина или описна комплексност) може да се размислува како за две оски што одговараат на времето потребно да се изврши програмата и за должината на програмата соодветно. Постои фина врска помеѓу ваквата алгоритамска комплексност и пресметковната комплексност.

Физика (термодинамика)    Ентропијата и вториот закон на термодинамиката се изродиле во рамки на статистичката механика. Во неа ентропијата се дефинира како логаритам од бројот на микросостојби во системот. . Ова одговара на поимот ентропија во теоријата на информации ако сите состојби се подеднакво веројатни. Еден од основните физички закони. вториот закон на термодинамиката гласи дека ентропијата на изолиран систем е неопаѓачка.

. Со нив се карактеризира однесувањето на долги низи од случајни променливи.Математика (веројатност и статистика)   Основните мерки за информација – ентропија. што ни овозможува да направиме проценка за ретките настани и да го најдеме најдобриот експонент на грешка при тестирањето на хипотези. релативна ентропија и заемна информација. се дефинирани како функции од распределба на веројатности.

Економија (инвестиции)    Повеќекратното инвестирање на берза резултира со експоненцијален раст на добивката. Во рамки на теоријата на инвестиции се испитува оваа условеност. Постои дуалност помеѓу стапката на раст на богатството и стапката на ентропија на берзата. .

Филозофија на науки    „Причините не би требало да се зголемуваат над неопходните“ или со други зборови кажано. бидејќи на пример. направени се доста аргументации за тоа дека може да се добие универзална постапка за предвидување. Во принцип со ваква постапка би можеле да бидат откриени многу физички закони. предвидувањата за утрешниот ден би ги добиле после стотина години пресметки. „наједноставното објаснување е најдобро“. ова е крајно непрактично. идејата е да се стави акцент на условеноста на настаните што следат од настаните што тековно се одвиваат. доколку се земе одмерена комбинација на сите програми кои ги објаснуваат податоците и се набљудува она што тие го печатат. . Ова се филозофски размисли кои имаат заеднички идеи со теоријата на информации. Во секој случај. Покрај ова. Меѓутоа.

.вовед    Современото проучување на различни појави и објекти се карактеризира со нивно разгледување како „системи“ кои влегуваат и излегуваат во одредени „процеси“. Тоа се прави преку придружување на множество вредности (конечно или бесконечно) кон секоја од состојбите.Поим за систем . Функционирањето на системот се состои во заземање на системот на одредени состојби и се претпоставува дека во секој момент може да се опише состојбата на системот. при што во секој момент во текот на процесот може да се зборува за „состојба“ на системот.

на пример. итн. тогаш добиваме егзактно опишина здравствена состојба на човекот. се разбира согласно современите здравствени достигнувања. x2. на пример. x1 ја означува неговата тежина. xn. човекот може да биде разгледуван како биолошки систем. x2 висина.вовед    Така. Доколку во оваа низа се вклучени сите релевантни параметри кои денешната медицина може да ги мери. x3.Поим за систем . x3 крвен притисок. x5 број на црвени крвни зрнца. …. . при што неговата здравствена состојба во секој момент од времето може да се опише со низа од броеви x1. Во овој случај. x4 телесна температура.

е. . Промена на состојбата настанува со промена на барем еден од параметрите со кои се дефинираат состојбите на системот.Поим за систем . да се прогнозираат идните состојби на системот. во смисла дека промената на еден од параметрите влијае на вредностите и на останатите параметри. Затоа една од главните цели на истражувањата е откривањето токму на тие врски. т. Тоа овозможува. претпоставуваме дека секоја состојба на системот може да биде окарактеризирана со помош на одредено множество од параметри. Во најголем дел од реалните системи параметрите најчесто се меѓусебно зависни. врз основа на познавањето на моменталната состојба.вовед    Најопшто. законитости на меѓусебна условеност помеѓу поединечните параметри.

тогаш се вели дека системот е веројатносен (стохастички). Кај веројатносните системи еднозначно не може да се определи состојбата на системот во иднина. врз основа на познавањето на состојбата на системот во даден момент и законитостите (врските) кои таму дејствуваат. Значи. .Поим за систем . туку може да се најде само одредена распределба на веројатностите на множеството од сите можни состојби на системот. може еднозначно да се предвиди состојбата во иднина.Детерминистички и веројатносни системи    Постојат системи за кои. За таквите системи се вели дека се детерминистички. тоа се системи кај кои постои каузална зависност помеѓу состојбите на системот во сегашноста и иднината. Доколку врз основа на познатите законитости и моментална состојба може да се одреди само веројатноста системот да премине во една од состојбите од множеството од сите можни состојби во иднина. бидејќи постои „помала или поголема неизвесност“ во врска со состојбата што системот ќе ја заземе во иднина.

при што на детерминистичките системи би им била придружена неизвесност нула. Притоа.Детерминистички и веројатносни системи   Затоа се поставува и проблемот на квантифицирање (мерење) на неизвесноста за даден веројатносен систем. Бројно голема неизвесност ќе им припадне на системите во кои владее „голем неред“ или „хаос“. Од тие причини и е невозможно да се предвиди како системот ќе се однесува во иднина. Со други зборови. . Разумно би било степенот на неизвесност да се изразува со реален број што ќе зависи само од распределбата на множеството од состојби после почетниот момент. во кои отсуствува било каква зависност помеѓу состојбите во сегашноста и иднината. најголема неизвесност би имало кај потполно хаотичните системи.Поим за систем . тоа се системи кај кои од една воочена состојба со подеднаква веројатност може да се премине во било која од можните состојби.

е. Тој показател. Еден од основните проблеми на теоријата на информации е како да се дефинира тој нумерички показател со кој кај веројатносните системи ќе се окарактеризира степенот на нивно разликување од детерминистичките системи. . треба прецизно да ја изразува јакоста на статистичките врски во рамки на набљудуваниот систем. Ако тие статистички зависности прераснат во функционални. односно ќе се „измери“ нередот. неизвесноста во нив. т.Детерминистички и веројатносни системи   Во нашето опкружување најчесто се среќаваме со системи кои се наоѓаат помеѓу овие две крајности – детерминистичките и потполно хаотичните системи. станува збор за детерминистички систем и тогаш ентропијата е нула. наречен ентропија.Поим за систем .

компонентите на неговата брзина и друго. Така на пример. човекот како систем може да се разгледува од медицински аспект и во тој случај е битна неговата здравствена состојба која се карактеризира со параметрите што претходно беа наведени. но и како конзумент. Но човекот може да биде разгледуван и од механички аспект и во тој случај параметрите што го опишуваат ќе бидат координатите каде се наоѓа во однос на даден координатен систем. генерира „информации“. восприемач на информации.Поим за систем . Многу важен аспект е разгледувањето на човекот како систем кој произведува.Комуникациски систем   Во научните истражувања секој систем се разгледува од различни аспекти и за дефинирањето на неговите состојби се земаат само оние параметри кои се релевантни за конкретниот аспект. .

. Значи. т.е.Комуникациски систем    Поимот „информација“ прилично е нејасен и неодреден. Најопшто може да се земе дека секој систем со промена на состојбата генерира определена информација.Поим за систем . неопходно е. да постои и примач на информации. покрај извор на информации. Обично се говори и за одреден „канал“ преку кој информацијата се пренесува. Меѓутоа. друг систем што ги „прифаќа и разбира“ пораките што првиот систем ги генерира. односно „шумови“. емисиите од други извори се јавуваат како одредени „пречки“. Често пати примачот на информации е преплавен со информации од бројни други системи кои штетно влијаат на правилното восприемање на испратените пораки. за да се зборува за информација. Затоа може да се зборува и за „пренос на информации“ од еден до друг систем. па треба да се разјасни.

примач на информациите и посредник што овозможува пренос на пораките да се нарекува комуникациски систем. . Значи. до него освен „корисна“. Во реални услови пренесувањето на информациите редовно е изложено на пречки. така што примачот не ги прима информациите чисто и потполно.Комуникациски систем Вообичаено е системот што се состои од извор на информации. доаѓа и „штетна“ информација што му го отежнува разбирањето на пораките.   Поим за систем .

Комуникациски систем    Во теоријата на информации се изградуваат апстрактни математички модели за различни типови комуникациски системи. Со тоа комуникациските системи меѓусебно ќе може да бидат споредувани и се добиваат насоки за нивно усовршување во смисла на зголемена брзина и сигурност при преносот на информации. една од поважните задачи е дефинирање на адекватни величини со кои квантитативно ќе се одредуваат карактеристиките на системот: количество на информација. брзина на пренос. со цел да се подобри функционирањето на системот. .Поим за систем . се истражуваат односите во тие модели и потоа добиените резултати се интерпретираат во пракса. Притоа. сигурност на пренос и слично.

се истражуваат односите во тие модели и потоа добиените резултати се интерпретираат во пракса. една од поважните задачи е дефинирање на адекватни величини со кои квантитативно ќе се одредуваат карактеристиките на системот: количество на информација.Поим за систем .Комуникациски систем    Во теоријата на информации се изградуваат апстрактни математички модели за различни типови комуникациски системи. . со цел да се подобри функционирањето на системот. Со тоа комуникациските системи меѓусебно ќе може да бидат споредувани и се добиваат насоки за нивно усовршување во смисла на зголемена брзина и сигурност при преносот на информации. брзина на пренос. Притоа. сигурност на пренос и слично.

примачот и каналот. . Shannon во 1948 година ја беше предложил општата шема на комуникациски систем.Како што веќе беше наведено. Покрај изворот. во неа има уште две суштински компоненти: кодер и декодер.

Комуникацискиот канал најопшто е медиумот низ кој „патуваат“ сигналите како носители на информациите. . Кодерот е направа што генерираните пораките ги трансформира во прикладна форма во која може да се пренесуваат низ дадениот канал. не секогаш влезната порака во него е идентична со излезната. Обично се вели дека во кодерот се врши кодирање на информациите.Комуникациски систем    Изворот на информации се замислува да биде објектот кој ги генерира пораките од некое множество од можни пораки. Како резултат на пречките на кои каналот е изложен. во склад со одредена распределба на веројатности.

Примачот е објектот/субјектот кој е крајна дестинација за испратените пораки. . во него е имплементиран механизмот со кој на секоја од можните примени пораки и се придружува соодветна испратена порака. Значи.Комуникациски систем   Декодерот е направа со која секоја примена порака се трансформира во една од можните испратени пораки.

Sign up to vote on this title
UsefulNot useful