You are on page 1of 304

Alma Mater Studiorum - Università di Bologna

Facoltà di Ingegneria Dipartimento di Elettronica, Informatica e Sistemistica Corso di Laurea in Ingegneria Elettronica Ingegneria e tecnologie dei Sistemi di Controllo

PROSPETTIVE DI ETHERNET COME BUS DI CAMPO NELL’AUTOMAZIONE INDUSTRIALE

Tesi di Laurea di: Gianluca Casadio

Relatore: Prof. Ing. Andrea Tilli Correlatori: Prog. Ing. Alberto Tonielli Prof. Ing. Carlo Rossi

Anno Accademico 2005 – 2006 Sessione seconda

Le TESI di Laurea, possono essere più o meno originali, possono richiedere più o meno tempo, possono essere più o meno interessanti per chi le legge e per chi le scrive… Ringrazio i miei genitori per la pazienza avuta e per avermi dato questa opportunità.

INDICE INTRODUZIONE……….…………………………………………..…………..…..1 Capitolo 1 RETI LAN E WAN 1.1 Introduzione………………………………….…………………………………..5 1.2 Tipi di topologie di rete……..……………………..…………………………….8 1.3 Cablaggi……………………..……………………………...…………………..11 1.4 Modi di accesso al mezzo trasmissivo della rete…………..…..……………….14 1.5 Wide Area Network (WAN)…………………...………………………………16 1.6 Reti Wireless…………………………………………………………………...19 1.7 Bibliografia……………………………………………………………………..21 Capitolo 2 ARCHITETTURA ISO/OSI 2.1 Descrizione architettura……………..…………………………..……...………23 2.2 Pila e protocolli……………………..………………………….……………….25 2.3 Livello 1: Strato fisico………………....……………………….………………27 2.4 Livello 2: Data link layer…...…..…………….................................…………...28 2.5 Livello 3: Network layer…..……..….…...…...............................…..………….29 2.6 Livello 4: Transport layer…….…........…..…...............................…..…………30 2.7 Livello 6: Session layer…….…...………..………………………..…..……….31 2.8 Livello 6: Presentation layer….…………..………………………...…..………32 2.9 Livello 7: Application layer.……………..………………………...….…..……33 2.10 Bibliografia……………………………………………………………………..34 Capitolo 3 ETHERNET 3.1 Introduzione…...…..………………………..…...…...…………..……..………35 3.2 Codifica Manchester……………………………...…………...……..…………39 3.3 Lo strato di collegamento di Ethernet……………………….………..………...41 3.4 Sottostrato MAC……………………………………………...………...………42 3.5 Protocollo CSMA/CD……………..….…………………….…………..………43
I

3.6 Sottostrato LLC…………………………………………..………….…………47 3.7 Frame Ethernet…………...………………………………..………...…..……..49 3.8 Algoritmo di backoff esponenziale binario………………………..…..….....…53 3.9 Ethernet classica……………………..............................………........…..…..…55 3.10 Fast Ethernet…………........…………...............................……………..……...63 3.11 Gigabit Ethernet………........…………...............................…..………………..68 3.12 Bibliografia……………………………………………………………………..72 Capitolo 4 DISPOSITIVI DI RETE E VLAN 4.1 Introduzione………..…..……………………...………………...….…………..73 4.2 Ripetitore...……..…..…………………….…….………..…..….………...……77 4.3 HUB…………….….….…………………………...……....…….……………..78 4.4 BRIDGE……..………....…………………………..….…...…………………..79 4.5 SWITCH……………………..………………………...........……………….…84 4.6 Reti locali virtuali (VLAN)………………………………………....……….…88 4.7 Bibliografia……………………………………………………………………..94 Capitolo 5 INTERNET PROTOCOL SUITE 5.1 Introduzione………………………………...………….….……………………95 5.2 Modello TCP/IP e Modello ISO/OSI……………..…………..……..………...98 5.3 Incapsulamento……………………..……………..……………...…...………101 5.4 Protocollo IP………………………………………..…………………………104 5.5 Indirizzi IP…………………………………………………………………….109 5.6 I protocolli dello strato Trasporto…………………………...………..……….113 5.7 Protocollo UDP…………..………………………………...………………….116 5.8 Protocollo TCP……..……………………………………………..…………..119 5.9 Traduzione indirizzi IP in indirizzi locali….…………………….……………126 5.10 Router……..………….……………………..……………….…….………….132 5.11 Instradamento (Routing IP)..…………..............................……..………....….134 5.12 Tabella di instradamento…...……………………………..…………………..137 5.13 Routing……………………………………………………..…………………139 5.14 Criteri di ottimalità per algoritmi di routing…………………………...…...…144
II

5.15 Bibliografia……………………………………………………………………146 Capitolo 6 BUS DI CAMPO 6.1 Introduzione…………………………………………………………...………147 6.2 Evoluzione della comunicazione nell’industria……………………...………..149 6.3 Sistemi di comunicazione nell’industria………………………...…………….154 6.4 Bus di campo……………….………….………………………..…………….157 6.5 Requisiti di un bus di campo………….……………………….....…………...161 6.6 Criteri di selezione di un bus di campo……………………..……...………....163 6.7 Vantaggi introdotti dai bus di campo……………………..………....………..165 6.8 AS-I (Actuator Sensor Interface)….................................………........………..167 6.9 Sercos Interface…….….……….................................………………………..168 6.10 Foundation Fieldbus (FF)…......................................…………………………170 6.11 Interbus-S.………………................................………………………………..172 6.12 Modbus........……………...............................……………………………...…174 6.13 CANbus (Controller Area Network)…..............................…...........…………176 6.14 Profibus (Process Fieldbus)….…………...............................………………...181 6.15 Tabelle comparative sui bus di campo….………………………..…………...193 6.16 Bibliografia……………………………………………………………………197 Capitolo 7 ETHERNET INDUSTRIALE 7.1 Introduzione……………………….……………………………..……………199 7.2 Esempio di confronto tra soluzioni diverse……………………...….………...205 7.3 Real-Time (RT)…………………………………………………..…………...207 7.4 Ethernet e il determinismo…….......……....….................................………….211 7.5 Ethernet e la ridondanza.…...……...…......................................…..………….218 7.6 Protocollo IEEE 1588 (PTP)...……….....…………………….…….….……..221 7.7 L’hardware in Ethernet Industriale..……………………………...…………...228 7.8 Foundation Fieldbus HSE………………………………...…………………...237 7.9 Sercos III………………………………………...…………………………….240 7.10 Modbus TCP…..…..…………………………...…………………………..….246 7.11 Ethernet/IP…………..........………...............................……....…..….……….250
III

7.12 Ethernet Powerlink (EPL)....……...….....................................…..…..……….255 7.13 EtherCAT…...…….…...………...............................……..........…….....……..263 7.14 PROFINET.……………...…………..........……………………………...…...269 7.15 Tabelle comparative sui bus di campo Ethernet...…………………….….…...288 7.16 Bibliografia……………………………………………………………………291 OSSERVAZIONI CONCLUSIVE……………...……………………...………...293 _______

IV

e personalizzabile per ogni impianto a seconda delle esigenze del cliente. con la possibilità di essere collegati tra loro in rete. Queste operazioni possono consistere in funzioni di servizio. comando e controllo di una macchina e/o di un procedimento industriale. nello sviluppo ed utilizzo dei sistemi a microprocessore per realizzare automazioni e controlli di processo. Essi rispondevano alle esigenze dell'industria chimica. discreto. Questo termine è stato coniato durante gli anni ‘40 per descrivere quei procedimenti in cui vengono utilizzati meccanismi per sostituire l’intervento intellettuale e/o manuale dell’uomo nell’esecuzione di determinate operazioni. 1 . in quel momento attuate tramite sistemi di logica cablata. forma contratta del vocabolo “automatization”. hanno cominciato a indirizzare i loro laboratori di ricerca. si divise in due macro categorie: sistemi a controllo distribuito (DCS) o a reti di controllori programmabili (PLC) che interagiscono con il processo tramite la strumentazione di campo. dalla sua dimensione ed in ultima analisi dal rapporto tra prestazioni richieste all’automazione e il budget a disposizione dell’azienda acquirente. L’applicazione di una o dell’altra soluzione dipende largamente dalla natura del processo o del sottoprocesso controllato (continuo. Fino agli anni ‘70 l’automazione ed il controllo di processo erano attuati tramite sistemi a logica cablata con numerevoli inconvenienti tipo: la grande complessità e l’enorme ingombro dei quadri elettrici che in caso di guasti o malfunzionamenti richiedevano molto tempo per raggiungere la causa ed la successiva riparazione con la conseguente lunga durata del fermo impianto e perdita di produzione. I DCS furono concepiti per elaborare grandi quantità di dati e sviluppi matematici complessi. retroazione e decisione.INTRODUZIONE Automazione deriva dal termine inglese “automation”. Il concetto di automazione si è evoluto nel tempo con l’invenzione degli elaboratori elettronici e lo sviluppo di concetti di logica-macchina e logica-controllo. avrebbe costituito un’altra piccola rivoluzione industriale. Lo sviluppo di questa tecnologia per diverse richieste del mercato industriale. Intorno alla fine degli anni ‘70 le aziende che producevano sistemi elettrici ed elettronici per l’industria. a lotti. Oggi la si può definire come la realizzazione di operazioni automatiche dirette da comandi programmati. in combinazione con misurazioni di controlli di azione. ibrido). Così questo nuovo prodotto basato su microprocessore che poteva essere unico per tutte le applicazioni.

Per questa ragione è da tempo in corso una convergenza architetturale tra DCS e PLC di alto livello infatti è oggi opinione comune parlare di PAS (Process Automation System). produzione di energia. dove numerosi standard alternativi. petrolchimica che aveva bisogno di elaborare segnali analogici per il controllo di processo (molto costosi). hanno reso possibile l’automazione industriale anche ad utenti prima esclusi. All’inizio l’automazione era appannaggio di pochi grandi utenti industriali in settori specifici: chimica. che pur con tutta la cautela del caso sta cominciando a prendere in seria considerazione l’utilizzo di reti Ethernet. Con l’informatizzazione dell’automazione. principalmente mediante reti di PC o comunque con tecnologie standard. e sostituivano relè.farmaceutica. contaimpulsi. dal settore delle telecomunicazioni classiche. petrolchimica. temporizzatori (poco costosi). stiamo assistendo al graduale realizzo di sistemi di controllo ed automazione di processi industriali per mezzo di macchine ed apparati general purpose. Sono ormai 2 . sistemi ibridi adatti per operare con qualsiasi tipologia di processo da controllare. Da diversi anni gli operatori dell’automazione industriale si chiedono qual è il modo migliore di far comunicare tra loro i dispositivi che fanno parte di un impianto. sono stati abbandonati in favore della tecnologia di rete più diffusa al mondo. Com’è facile comprendere. ma finora hanno sempre trovato risposte discordanti: chi sostiene che i tradizionali metodi di cablaggio punto-punto sono ancora oggi i più validi. Mentre il mondo industriale dibatteva sulla soluzione migliore. anche se più efficienti. con il chiaro scopo di sostituire la logica cablata. fino al mondo industriale. trainato dalle applicazioni dell’informatica. la diffusione del PLC è stata enorme grazie all’ampio parco utenti a cui si rivolgeva. I PLC furono concepiti per elaborare piccole quantità di dati prevalentemente di tipo digitale. ma l’introduzione dei microcontrollori e dei microprocessori che hanno portato alla realizzazione dei PLC. sta travolgendo tutti. ed in ragione della loro semplicità e costo contenuto. dotandolo in maniera modulare di funzioni sempre più complesse che lo hanno avvicinato al fratello maggiore DCS anche lui evolutosi in maniera sempre più mirata ai settori di sua competenza. qualcun altro l’ha trovata per lui. Il fenomeno Ethernet. Questa enorme diffusione e la continua innovazione industriale hanno permesso al PLC uno sviluppo tecnologico notevole. c’è chi sostiene che la soluzione ottima sia quella di usare un bus di campo (di solito quello proposto dalla propria azienda). Essi rispondevano alle esigenze dei costruttori di quadri elettrici per il controllo di macchine.

ossia sensori direttamente interfacciati su Internet consultabili e controllabili mediante un comune browser. Negli ultimi anni. 3 . Oggi. nell’Intranet aziendale. Ethernet ha la sua naturale intregrazione in Internet. I paladini dei bus di campo inorridiscono. infatti. per collegare azionamenti a PC industriali e via di questo passo. tutto o quasi. TCP. esso non veniva preso in considerazione per lo scambio di dati in campo e per applicazioni remote. facendosi la guerra tra di loro. E’ per questo motivo che anche a livello industriale vanno affermandosi protocolli standard. si è però assistito ad un’evoluzione di Ethernet. ma per entrare addirittura nel “cuore” di alcuni sistemi. a causa del grande utilizzo già consolidato di trasmissioni seriali di dati tramite i bus di campo che sono riusciti ad imporsi come standard de-facto. di riflesso. con gli opportuni accorgimenti. come Internet Explorer o Netscape Navigator (IP. Dopo aver predicato per anni. che consente una diagnostica decentrata di semplice implementazione. la tecnologia Ethernet è ormai entrata prepotentemente nel mondo dei bus di campo e sia sensori che attuatori hanno ormai un posto in prima fila anche nell’arena di Ethernet e. può essere connesso per mezzo di reti Ethernet. che il proprio bus di campo era stato studiato per risolvere esattamente le esigenze della comunicazione in ambito industriale. ma anche per le comunicazioni con gli I/O. HTTP) e cominciano a comparire sul mercato i primi web-sensors. attraverso l’utilizzo di particolari protocolli studiati appositamente per sopperire alle mancanze dei requisiti strettamente necessari per la comunicazione di campo e si è arrivati alla risoluzione dei problemi di determinismo e di Real-Time delle reti. L’inizio e l’utilizzo di Ethernet nell’ambito dell’industria era legato quasi esclusivamente a scambi di dati dal quadro elettrico verso i livelli superiori. UDP. si vedono oggi spuntare una tecnologia concorrente snobbata in quanto storicamente ritenuta tecnicamente inferiore. cioè dai sistemi a logica programmabile verso i sistemi di supervisione e poi da questi sistemi verso i livelli di fabbrica e/o impianto legati alla produzione e all’approvvigionamento fino alla parte finanziaria dell’azienda.diversi gli esempi dove si è usato Ethernet non più solamente per collegare gli impianti a qualche PC situato negli uffici. per collegare gli I/O distribuiti ai PLC. ma in particolar modo per le caratteristiche intrinseche stesse di Ethernet (protocollo non deterministico). In azienda Ethernet può essere utilizzata non solo a livello di supervisione e controllo. All’inizio. quali quelli utilizzati dai comuni browser.

• Capitolo 2: ARCHITETTURA ISO/OSI. Questa Tesi di Laurea è composta da 7 capitoli e. Descrive come Ethernet è introdotta nell’automazione industriale come bus di campo. senza pretendere di essere esaustiva. le diverse metodologie di collegamento dei dispositivi inseriti in rete. • Capitolo 3: ETHERNET. le problematiche e le soluzioni nell’impiego di Ethernet a livello di campo e le caratteristiche di alcuni bus di campo industriali basati sulla tecnologia Ethernet.Questa Tesi di Laurea. Descrive il modello ISO/OSI sul quale è basata la comunicazione tra dispositivi in una rete e la funzione svolta dai 7 strati da cui è composto il modello. • Capitolo 7: ETHERNET INDUSTRIALE. Descrive i dispositivi utilizzati per il collegamento degli elementi presenti in una rete e il concetto di rete locale virtuale (VLAN). su vantaggi e problematiche introdotte dall’introduzione nell’industria di Ethernet e la descrizione di alcuni protocolli industriali basati su Ethernet che secondo le previsioni deterranno nell’immediato futuro una significativa quota di mercato a livello mondiale e rimpiazzeranno i “vecchi” bus di campo. da personali conclusioni sugli argomenti trattati da parte dell’autore. • Capitolo 1: RETI LAN E WAN. • Capitolo 4: DISPOSITIVI DI RETE E VLAN. Sono riportate conclusioni personali dell’autore di questa Tesi di Laurea in relazione agli argomenti trattati. Descrive l’evoluzione della comunicazione industriale. Descrive la tecnologia Ethernet. Descrive cosa è una LAN. su alcuni bus di campo diffusi nell’industria. • OSSERVAZIONI CONCLUSIVE. • Capitolo 5: INTERNET PROTOCOL SUITE. nella parte finale. ha lo scopo di dare una panoramica sulle caratteristiche di Ethernet. Sono elencati qui di seguito i titoli e il contenuto degli argomenti di ogni capitolo. i mezzi fisici che normalmente sono impiegati in una rete e i possibili servizi che può offrire ai suoi utenti. • Capitolo 6: BUS DI CAMPO. 4 . Cenni sulle reti WAN e Wireless. cos’è un bus di campo e le caratteristiche di alcuni bus di campo diffusi nell’automazione industriale. Descrive i procolli su cui è basato il funzionamento di Internet. cos’è un indirizzo IP e in cosa consiste il routing.

fino alla costruzione del software applicativo che mette a disposizione degli utenti i servizi di rete. una fabbrica. Solo nell'ultimo decennio. invece. ciò esonera il sistema dal puntuale rispetto degli standard della telefonia e della trasmissione dati pubbliche. Il progetto di una rete copre ampie problematiche che vanno della sua architettura fisica alla codifica dei dati per facilitare la trasmissione. hanno fatto la loro comparsa negli anni ‘70. 5 . ecc. senza dimenticare la condivisione di risorse fisiche.Capitolo 1 RETI LAN E WAN 1. per sostituirli con reti di calcolatori indipendenti. le reti come le concepiamo oggi e i servizi ad esse legati. I primi tentativi di trasmissione dati fra due elaboratori risalgono agli anni ‘40 (collegamento fra elaboratore centrale e terminali remoti). Di pari passo sono aumentati i servizi messi a disposizione dalle reti che vanno dalla posta elettronica al trasferimento di file. Una rete locale o LAN (Local Area Network) è una rete di telecomunicazione pensata e ottimizzata per interconnettere un gruppo di elaboratori e di altri dispositivi elettronici che si trovano all'interno di un’area geografica limitata (un edificio. grazie alla rapida evoluzione delle tecnologie telematiche. L’affermarsi delle reti sta ristrutturando il mondo informatico attraverso un processo. dapprima in ambito militare e poi negli ambienti universitari per lo scambio di informazioni scientifiche. un campus) utilizzando mezzi trasmissivi dedicati e privati. abbiamo assistito all'espandersi frenetico delle reti sia a livello locale (nelle aziende e negli uffici).1 Introduzione Una rete è un complesso insieme di sistemi di elaborazione connessi tra loro attraverso dei collegamenti fisici (linee telefoniche. che spinge le aziende all'eliminazione dei grossi mainframe con le loro decine di terminali. ma fra loro interagenti e cooperanti. Una normale LAN è quindi una piccola rete. cavi dedicati. che comunque non attraversa il suolo pubblico con i propri mezzi trasmissivi. detto downsizing. sia a livello mondiale (Internet). però.) al fine di utilizzare nel miglior modo possibile le risorse disponibili e di offrire vari servizi di comunicazione.

L’utente di ogni singolo nodo della rete ha quindi il possesso virtuale di tutta una serie di risorse messe a disposizione dal complesso degli elaboratori componenti la rete. la predisposizione cioè di tutti i collegamenti di cui potrebbero avere bisogno gli utenti che andranno ad occupare gli uffici. L’elaboratore che mette a disposizione i propri dischi viene detto file server e. vengono inseriti nella struttura della rete dei dispositivi (quali HUB. BRIDGE o SWITCH) che consentono di potenziare il segnale che fluisce attraverso i cavi in modo che raggiunga in maniera comprensibile il destinatario. il numero di utenze. eccetera. • Prestazioni: Per esempio la velocità di trasmissione dati. se consente anche di 6 . in modo analogo al collegamento di una apparecchiatura telefonica o elettrica. • Affidabilità: Alla rete sono connessi molti dispositivi che devono essere progettati in modo che un guasto ad un componente agisca solo sul corrispondente nodo senza bloccare l’intera rete. attualmente le reti sono strutturate secondo lo schema a stella sfruttando gli economici doppini in rame o le veloci fibre ottiche. un duplice vantaggio: viene limitata la duplicazione dei dati e dei programmi presenti nella rete e si ottimizza l’utilizzo della memoria secondaria a disposizione. La condivisione delle unità disco (memoria secondaria) presenta. il collegamento fisico fra gli elaboratori. è la condivisione di risorse. l’inserimento di un nuovo nodo nella rete si risolve semplicemente collegando il cavo di rete dell’elaboratore alla presa predisposta. infatti.Le prime LAN (fine anni ‘70) avevano topologia a bus o ad anello e utilizzavano cavi coassiali per realizzare le connessioni. I principali parametri che caratterizzano una rete locale sono: • Compatibilità: La rete deve essere in grado di supportare dispositivi di diversi produttori ed eventualmente collegarsi ad altre reti locali e geografiche. I servizi che le reti locali possono offrire sono elencati qui di seguito: • Codivisione di risorse: Il servizio principale. la lunghezza massima del mezzo fisico. consente ad ogni elaboratore di poter raggiungere le risorse private di ogni altro sistema della rete. ad esempio. Quando la rete locale diventa fisicamente molto grande e le distanze fra gli elaboratori aumentano considerevolmente. che le reti hanno reso possibile fino dalla loro prima apparizione. Le reti locali stanno diventando così comuni che nella costruzione o ristrutturazione di edifici si effettua normalmente quello che si chiama cablaggio strutturato dell’edificio. • Espandibilità: La rete deve essere facilmente espandibile e riconfigurabile a costi contenuti.

oltre alla connessione fisica. ma collegati alla medesima rete. 7 . Il servizio è estremamente semplice e richiede unicamente. a distanza. il suo indirizzo di posta elettronica come password. prende il nome di application server. un programma di file transfer che sappia gestire il protocollo di trasferimento (FTP. immagini o semplici messaggi.• • • • condividere l’esecuzione dei programmi presenti. cioè. File Transfer Protocol). Gli elaboratori che offrono i file. Posta elettronica: La posta elettronica (electronic mail o. e-mail) è sicuramente il servizio di rete più conosciuto e più usato attualmente. richiedono un username ed una password per poter effettuare il trasferimento dei file prescelti. File transfer: Il trasferimento di file consente la copia di file tra due elaboratori collegati in rete. i ricercatori universitari che per primi cominciarono ad utilizzare efficacemente le reti. Internet: Internet è una rete di calcolatori che collega elaboratori situati in ogni parte del mondo. collega fisicamente tra loro centinaia di migliaia di reti locali di elaboratori. semplicemente. nel caso in cui i proprietari dei file decidano di rendere disponibili le loro risorse software anche ad utenti non registrati si parla di trasferimento anonimo: l’utente infatti usa la parola anonymous come username e. avevano infatti bisogno di confrontarsi. tramite di essa vengono resi possibili gli scambi di corrispondenza fra utenti residenti anche in zone del mondo lontanissime. attualmente consente a centinaia di milioni di utenti di collegarsi gli uni agli altri per scambiare documenti. Comunicazioni fra utenti: Un secondo servizio storico offerto dalle reti di elaboratori è la comunicazione interattiva fra vari utenti. discutendo sugli argomenti legati ai loro studi. In realtà Internet è una rete di reti e. a volte.

un unico canale collega tutti i nodi della rete. 8 . Le principali topologie utilizzate sono le seguenti: • Collegamento punto-punto: due elaboratori (nodi) vengono collegati direttamente per formare una piccola rete. in questo caso. • Collegamento punto-multipunto: un singolo canale trasmissivo collega più di due nodi che lo utilizzano in condivisione. Veniva usato per collegare terminali ad un mainframe. Le estremità del bus sono connesse ad appositi terminatori. attualmente non viene più utilizzato. non risulta tollerante ai guasti: l’interruzione del bus in un punto qualsiasi pregiudica il funzionamento di tutta la rete. è una topologia a modello gerarchico con un elemento principale che controlla gli altri ad esso connessi.2 Tipi di topologie di rete Il metodo con cui la rete rende possibile il collegamento fisico tra i vari elaboratori influenza notevolmente le caratteristiche della rete stessa soprattutto relativamente alla tolleranza ai guasti ed ai costi. un elaboratore (master) coordina il traffico su tale canale e l’attività degli altri elaboratori (slave). però. • Topologia a bus: simile alla precedente. l’utilizzo concorrente del bus viene gestito tramite particolari protocolli. questo tipo di collegamento è alla base di topologie più complesse quali il collegamento a stella o a maglia. non è gerarchica. Molto diffusa nelle piccole reti perchè molto economica.1.

i messaggi viaggiano nell’anello in un solo senso attraverso i nodi fino a giungere alla stazione di ricevimento.• Topologia a stella: gli elaboratori della rete sono collegati mediante canali punto-punto ad un elaboratore centrale (HUB) che funge da controllore della rete e del traffico su di essa. così. se non è destinato a sè lo ignora e lo trasmette al nodo successivo. 9 . questa struttura garantisce una facile individuazione dei guasti e permette la continuazione del lavoro sui nodi non interessati dalla interruzione del collegamento. In caso di interruzione di un collegamento la rete è bloccata. Un nodo che riceve un dato dal nodo precedente dell’anello. per ovviare a tale problematica. l’elemento centrale diventa però punto critico e deve essere sovradimensionato per dare garanzie di funzionamento. l’anello viene normalmente raddoppiato per consentire il trasferimento dei messaggi in entrambi i sensi di rotazione ed ovviare. • Topologia ad anello: i nodi della rete sono uniti tramite collegamenti punto-punto in modo da formare un anello chiuso. ad eventuali interruzioni. E’ attualmente la principale topologia per reti locali.

anche più di due connessioni con altri nodi della rete. 10 . la realizzazione è particolarmente costosa. Le reti geografiche. utilizzano la topologia a maglia incompleta. come Internet. dove. consentendo.• Topologia a maglia: è una configurazione che sfrutta i collegamenti punto-punto. per ogni elaboratore. per contro. • Topologia ad albero : nasce dalla combinazione di topologie a stella e a bus. Si parla di maglia completa quando tutti i nodi sono collegati con ogni altro nodo della rete: è una soluzione estremamente efficace perché molto tollerante ai guasti grazie all’esistenza di più percorsi alternativi per raggiungere l’elaboratore selezionato. non tutti i collegamenti possibili sono realizzati. pur essendoci percorsi alternativi.

Attualmente esistono tre grandi categorie di mezzi trasmissivi che si differenziano per il fenomeno fisico utilizzato: mezzi elettrici (dove viene sfruttata la capacità dei metalli di condurre energia elettrica). onde radio (dove si sfrutta la possibilità di trasferire variazioni di corrente elettrica a distanza tramite onde elettromagnetiche) e mezzi ottici (che utilizzano la luce per trasferire le informazioni).3 Cablaggi Ogni rete di calcolatori necessita di un supporto fisico di collegamento (cavi o similari) per scambiare i dati fra i vari utenti. cioè schermato.1. Per trasmissioni digitali sono utilizzati cavi coassiali da 50 Ohm. Tutti i mezzi utilizzati hanno la caratteristica di trasportare una qualche forma di energia e quindi sono soggetti a due fenomeni che ne limitano le prestazioni: l’attenuazione (dovuta alla resistenza opposta dal mezzo fisico attraversato) ed il rumore (la sovrapposizione alle informazioni di segnali provenienti da altri dispositivi vicini). • Cavo coassiale: formato da una coppia di cavi coassiali (e non affiancati come per il doppino) è particolarmente insensibile alle interferenze elettromagnetiche. La banda 11 . Si hanno due varianti: UTP. permette trasmissioni di dati fino a 100 Mbps ed una bassa sensibilità ai disturbi esterni. Nelle LAN sono utilizzati in prevalenza i doppini in categoria 3 (CAT3-banda massima 16 MHz) e in categoria 5 (CAT5-banda massima 100 MHz). cioè non schermato e STP. I mezzi trasmissivi attualmente usati nelle normali reti sono i seguenti: • Doppino intrecciato: formato da una coppia di fili di rame. è il mezzo trasmissivo attualmente più utilizzato sia per le reti locali e per alcuni tratti delle reti più grandi. il mezzo trasmissivo utilizzato incide notevolmente sulle caratteristiche della rete in termini di prestazioni e di costo. Di semplice uso (vengono usati i cavi già posati che consentono le conversazioni telefoniche) ed economico.

saranno il mezzo del futuro dopo l’abbattimento dei loro alti costi (unico difetto delle fibre ottiche).disponibile di un cavo coassiale dipende dalla qualità del cavo. inoltre le ridotte dimensioni permettono di inserire in un unico cavo centinaia di fibre. con l’attuale tecnologia è possibile ottenere fili di vetro del diametro di poche decine di micron (millesimo di millimetro) robusti e flessibili. Già attualmente molto usate. il costo della fibra minore. • Fibre ottiche: il supporto fisico dove viaggia la luce è vetro filato in diametri molto piccoli e ricoperto di materiale opaco. dalla sua lunghezza e dal rapporto segnale-rumore del segnale dati. è oggi in progressivo disuso sostituito dal doppino nelle reti locali e dalle fibre ottiche sulle distanze maggiori. Grazie al fatto che il segnale è portato da impulsi di luce. Un volta usato largamente. ma interfacce più costose. Altri vantaggi sono la banda teoricamente illimitata e la bassa attenuazione che consente lunghe distanze di interconnessione. costo maggiore e interfacce di connessione economiche e fibre multimodali che possiedono prestazioni più elevate. Possono essere utilizzate due diverse sorgenti luminose: l’economico diodo LED o la più costosa luce laser a semiconduttore. Si hanno due varianti: fibre monomodali che hanno prestazioni inferiori. Con la luce laser a semiconduttore è possibile ottenere velocità di trasmissione dati e distanze molto maggiori del diodo LED. di una purezza tale da consentire trasmissioni a centinaia di chilometri alla velocità di Gbps. le fibre ottiche sono immuni dai disturbi elettromagnetici. 12 .

• Ponti radio o satellitari: le onde elettromagnetiche sono inviate da un trasmettitore e viaggiando ad una velocità prossima a quella della luce. L’ostacolo maggiore alla diffusione di tali tecniche è l’elevato costo. Sono usati per collegamenti a grandi distanze visto che. quasi indipendentemente dalle posizioni del trasmettitore e del ricevitore. 13 . raggiungono l’antenna del ricevente (eventualmente utilizzando uno o più satelliti). il ritardo nelle comunicazioni è dell'ordine delle centinaia di millisecondi.

Ogni ampliamento della rete richiede una ridefinizione dei programmi di gestione e della lista di interrogazione del master. Questa tecnica consente una rigorosa temporizzazione delle operazioni e si presta in particolare alla rilevazione periodica delle variabili e all’implementazione a cicli costanti degli algoritmi di regolazione. In questo caso il dispositivo rimanda lo stesso segnale dopo avere atteso per un periodo di tempo di lunghezza casuale. mantenendo sempre la caratteristica di rete deterministica in quanto i vari master sono autorizzati alla trasmissione per un tempo prestabilito (tecnica del gettone analizzata in seguito). Token Bus (Bus a Gettone): Il gettone è una sequenza riconoscibile di bit che dà il diritto di accedere alla rete solo al nodo che in un dato momento ne è in possesso. Esso tuttavia non si presta alle applicazioni in cui il traffico è intenso e inoltre. le priorità dei dispositivi e le tecniche di distribuzione delle informazioni sono descritte da alcune modalità di cui si presentano qui di seguito le principali. significa che la linea era occupata e si è verificata una collisione (presenza contemporanea di due segnali). Ogni 14 . Master/Slave: Il controllo della rete è centralizzato e concentrato nell’unità master (mastro) che ne concede ai vari dispositivi slave (schiavi) l’accesso per inviare o richiedere segnali. il master provvede anche a mandare i segnali alla corretta destinazione. non è adatto quando è richiesta una gestione ciclica e deterministica dei nodi.4 Modi di accesso al mezzo trasmissivo della rete L’accesso alla rete. Questa tipologia si è evoluta verso l’architettura multimaster per cui viene a cadere la distinzione tra utente master e utente slave.1. Se il confronto è negativo. data la natura probabilistica dell’istante di accesso alla rete. CSMA/CD (Carrier Sense Multiple Access / Collision Detection): In questo caso ogni nodo può accedere alla rete in ogni momento inviando il suo segnale e rileggendolo successivamente. Questo metodo richiede una gestione ridotta dei segnali e consente l’ampliamento della rete senza necessità di riconfigurazione dei programmi. come avviene ad esempio per la regolazione di azionamenti. ricordando che sono spesso presenti varianti che le possono alterare o modificare in diversi modi. Tale soluzione si dice deterministica perchè è possibile calcolare un tempo massimo entro il quale l’informazione di qualsiasi utente verrà trasmessa. L’accesso alla rete viene dato ai nodi secondo priorità e tempistiche stabilite da una lista di interrogazione (polling) prestabilita.

nodo abilitato. che si ripete ciclicamente ed assicura la ripetibilità e una temporizzazione certa alla sequenza dei segnali. Si determina in questo modo una sequenza logica di accesso dei diversi nodi. consegna il gettone ad una stazione successiva. inoltre un guasto su un nodo interrompe la circolazione dei segnali. Si semplifica in questo modo la gestione. al termine della sua operazione. senza necessità di indicare l’indirizzo. pur in assenza di una gestione centralizzata della comunicazione. Token Ring (Gettone circolante): In questo caso. nella rete ad anello. la sequenza di possesso del gettone è determinata dalla connessione fisica delle varie stazioni all’anello: la circolazione avviene in un unico senso da una stazione a quella adiacente. poichè non è possibile cambiare la sequenza di intervento dei nodi senza un intervento fisico sulla rete. secondo uno schema fisso definito preliminarmente dal gestore della rete. 15 . a costo tuttavia di una struttura più rigida e fragile.

Gli elementi di commutazione sono computer specializzati che collegano tre o più linee di trasmissione. In passato questi computer che commutano i dati sono stati chiamati in molti modi. mentre la communication subnet è generalmente posseduta e gestita da una compagnia telefonica o da un Internet Service Provider (ISP). Le linee di trasmissione spostano i bit tra le macchine. anche se in alcuni casi un host può essere collegato direttamente a un ROUTER.5 Wide Area Network (WAN) Una Wide Area Network (WAN) è una rete che copre un’area geograficamente estesa. oggi il più diffuso è il termine ROUTER. o anche collegamenti radio. come la rete telefonica trasporta le parole da chi parla a chi ascolta. la subnet è formata da due componenti: linee di trasmissione ed elementi di commutazione. Gli host sono di proprietà dei clienti (per esempio i personal computer degli utenti). Il compito della subnet è quello di trasportare i messaggi da un host all’altro. Quando i dati arrivano da una linea ricevente. Gli host sono collegati da una communication subnet. Possono essere realizzate con cavo in rame. Come mostrato nella seguente Figura. L’insieme di linee di comunicazione e ROUTER (ma non gli host) forma la subnet. l’elemento di commutazione deve scegliere una linea di uscita su cui inoltrarlo.1. Nella maggior parte delle WAN. ogni host è solitamente collegato a una LAN su cui è presente un ROUTER. queste macchine vengono chiamate host. Seguendo le consuetudini. 16 . Racchiude una raccolta di macchine destinate a eseguire programmi utente (applicazioni). La separazione dell’aspetto di pura comunicazione della rete (la subnet) dagli aspetti applicativi (gli host) semplifica notevolmente il progetto dell’intera rete. fibra ottica. per brevità chiamata semplicemente subnet (sottorete). spesso una nazione o un continente.

quando un processo di qualche host ha un messaggio da mandare a un processo di qualche altro host. lo devono fare indirettamente attraverso altri ROUTER. Nella maggior parte delle WAN la rete contiene molte linee di trasmissione. Praticamente tutte le WAN (con l’eccezione di quelle che usano i satelliti) hanno subnet di tipo store-and-forward. il pacchetto viene ricevuto integralmente da ciascun ROUTER intermedio. Di solito. ciascuna delle quali collega una coppia di ROUTER. Quando un pacchetto viene inviato da un ROUTER verso un altro. Tuttavia alcuni anni dopo ha acquisito un secondo significato in abbinamento all’indirizzamento di rete. I1 principio di funzionamento di una WAN a commutazione di pacchetto è così importante che vale la pena spendervi qualche parola in più. In origine il solo significato era quello che indicava l’insieme di ROUTER e linee di comunicazione che spostano i dati dall'host sorgente a quello destinatario. 17 . vengono spesso chiamati celle. e poi inoltrato.E’ necessario un breve chiarimento sul termine subnet. memorizzato finchè non si libera la linea di uscita necessaria. attraverso ROUTER intermedi. quello che trasmette inizia l’attività dividendo il messaggio in pacchetti. Quando i pacchetti sono piccoli e hanno la stessa dimensione. Una subnet organizzata secondo questo principio si chiama store-and-forward o packet-switched (a commutazione di pacchetto). Questi pacchetti vengono poi inseriti nella rete uno alla volta in rapida successione. Se due ROUTER che non condividono la stessa linea di trasmissione vogliono comunicare. ciascuno dei quali porta un corrispondente numero di sequenza.

Le reti satellitari sono intrinsecamente di tipo broadcast e sono particolarmente utili quando la proprietà broadcast è importante. dipende da A decidere se va inoltrato alla linea B o alla linea C.I pacchetti sono trasportati individualmente sulla rete e depositati nell’host ricevente. Tutti i ROUTER possono ascoltare l’uscita dal satellite. In alcune reti tutti i pacchetti di un dato messaggio devono seguire lo stesso percorso. e solo alcuni hanno un’antenna per il satellite. 18 . Ogni ROUTER ha un’antenna attraverso la quale può trasmettere e ricevere. dove sono riassemblati nel messaggio originale e inoltrati al processo ricevente. Come si può notare nella Figura tutti i pacchetti seguono la regola ACE. A volte i ROUTER sono collegati a una subnet cablata punto-punto. Il modo in cui A prende la decisione è chiamato algoritmo di routing. Naturalmente se ACE è il percorso migliore tutti i pacchetti possono esservi inoltrati. Quando un pacchetto arriva al ROUTER A. e in alcuni casi anche le trasmissioni dei ROUTER paritetici verso il satellite. La decisione per l’instradamento è presa localmente. in altri ogni pacchetto è instradato separatamente. Non tutte le WAN sono a commutazione di pacchetto. anche se ciascuno è instradato separatamente. Una seconda possibilità per una WAN è il sistema satellitare. Il flusso di pacchetti che risulta da un messaggio iniziale è illustrato seguente nella Figura. invece che ABDE o ACDE.

quando i computer sono abbastanza vicini. Spesso c’è un’antenna con cui i computer dialogano. nelle sale riunioni e in altri posti. tastiera. scanner e altri dispositivi semplicemente portandoli nella zona di copertura. Quasi tutti i computer hanno monitor. cuffie senza fili. Nella loro forma più semplice.1. La connessione all’interno di un sistema coinvolge il collegamento delle perifenche di un computer tramite segnali radio a portata ridotta. accendere e usare.6 Reti Wireless La comunicazione digitale senza fili (Wireless) non è un’idea nuova. il numero di principianti che incontra difficoltà nel collegare correttamente tutti i cavi nei piccoli connettori è così grande che la maggior parte dei produttori di computer offre la possibilità di mandare un tecnico a domicilio per farlo. I sistemi digitali Wireless moderni hanno prestazioni migliori. 19 . Per molti questa semplicità d’uso è un grande vantaggio. dopotutto). L’unità centrale è normalmente il master. quando possono trasmettere e per quanto tempo. Tuttavia. Si tratta di sistemi dove ogni computer ha un modem radio e un’antenna con cui può comunicare con altri sistemi. alcuni costruttori si sono accordati per progettare una rete Wireless a portata ridotta chiamata Bluetooth. • LAN Wireless. In prima approssimazione le reti Wireless si possono classificare in tre categorie principali: • Connessioni all’interno di un sistema. mouse e stampante collegate all’unità centrale tramite cavi. Le LAN wireless stanno diventando sempre più comuni nei piccoli uffici e nelle abitazioni. ma l’idea di base è la stessa. Di conseguenza. Il master dice agli slave che indirizzi usare. possono comunicare direttamente tra loro in una configurazione peer-to-peer. che frequenze possono usare e così via. tastiera e gli altri componenti configurati come slave. Il passo successivo nelle reti Wireless sono le LAN. che dialoga con mouse. negli edifici per uffici più vecchi. Anche se di solito sono marchiati da colori differenti. Niente cavi e niente installazione di driver: solo avvicinare. le reti di collegamento interne al sistema usano il paradigma master-slave. • WAN Wireless. Bluetooh permette inoltre di collegare al computer macchine fotografiche digitali. Nel 1901 il fisico Guglielmo Marconi dimostrò la telegrafia senza fili da una nave usando il codice Morse (punti e linee sono binari. per abolire i cavi di collegamento di questi componenti.

Per esso è stato sviluppato uno standard. che è implementato dalla maggioranza dei sistemi e che sta diventando estremamente diffuso. database e Internet.Esiste uno standard per LAN Wireless. le reti Wireless cellulari assomigliano a LAN Wireless. Questi collegamenti si possono realizzare in molti modi a seconda delle circostanze. Questo servizio è spesso chiamato local multipoint distribution service. sono in sviluppo anche reti Wireless a larga banda e copertura estesa. è illustrato un aeroplano con un certo numero di persone che usano modem e telefoni applicati ai sedili per chiamare l’ufficio. I1 sistema è già arrivato alla terza generazione. In un certo senso. I sistemi cellulari lavorano sotto a 1 Mbps. A complemento di queste reti a bassa velocità. Quasi tutte le reti Wireless prima o poi si collegano alla rete fissa per consentire l’accesso a file. La rete radio usata dai telefoni cellulari è un esempio di sistema Wireless a banda ridotta. chiamato IEEE 802. ma la distanza tra la stazione base e il computer o telefono si misura in chilometri invece che metri. Per esempio. La seconda generazione è digitale e solo per la voce. eccetto che le distanze sono molto superiori e i bitrate molto più bassi. Ogni telefonata è indipendente dalle altre. La terza generazione è digitale e trasporta voce dati. I1 focus iniziale è l’accesso a Internet ad alta velocità da abitazioni e uffici. 20 .11. Le LAN Wireless possono funzionare a cadenze che si spingono a 50 Mbps su distanze di decine di metri. come mostrato nella seguente Figura. La prima generazione era analogica e solo per la voce. scavalcando il sistema telefonico.16. I1 terzo tipo di reti Wireless è usato nei sistemi su area estesa. chiamato IEEE 802.

www. Università degli studi di Genova. 2004. Questa configurazione è solo una LAN tradizionale. eccetto che la sua connessione con il mondo esterno è un collegamento radio invece di un filo. Quarta edizione. Università degli studi del Sannio. 2006. 2) Antonio Pannaggio: “Misure su reti di calcolatori”.Una soluzione molto più efficiente tuttavia. 4) Wikipedia.7 Bibliografia 1) Andrew S. 21 . è la LAN volante della seguente Figura: Qui ogni sedile è munito di connettore Ethernet a cui i passeggeri possono collegare i loro computer. cambiandolo man mano che il velivolo avanza. 1. Molti ritengono che la tecnologia Wireless sia il futuro. 3) Domenico Pratticò: “L’evoluzione dei sistemi di comunicazione nell’automazione e nella gestione di processi industriali”.org. L’encicopledia libera.wikipedia. Un singolo ROUTER installato sull’aereo mantiene un collegamento radio con qualche ROUTER a terra. Tanenbaum: “Reti di calcolatori”.

22 .

Capitolo 2 ARCHITETTURA ISO/OSI 2. • La funzione di ciascun strato deve essere scelta tenendo conto della definizione dei protocolli standard internazionali. Il modello ISO/OSI è caratterizzato da sette strati che furono stabiliti in base ai seguenti principi: • Deve essere creato uno strato laddove è richiesto un differente livello di astrazione. e abbastanza piccolo da non appesantire l’architettura. • Ciascun strato deve svolgere una funzione ben definita. in passato. Il modello di riferimento OSI (Open System Interconnection) diventato parte dello standard ISO (International Organization for Standardization) nel 1984 divide la gestione di una qualunque rete in blocchi funzionali. Il modello non definisce uno standard tecnologico. Ogni passaggio di consegna di una lettera avviene per livello di competenza e per regole di smistamento.1 Descrizione architettura Gestire le comunicazioni tra i dispositivi di una rete è di per se un problema complesso e le differenze di hardware e software hanno creato. • I confini tra gli strati devono essere scelti in modo da minimizzare il flusso di informazioni attraverso le interfacce. Esso assicura compatibilità e interoperabilità anche fra diversi tipi di tecnologie. La lettera viene imbucata in una cassetta postale dal mittente. Nei primi anni ‘80 la rapida evoluzione delle reti cominciò a creare grossi problemi alla interconnessione fra le stesse tanto da costringere le grandi multinazionali dell’Information Technology (IT) ad abbandonare i sistemi proprietari e muovere verso un sistema di integrazione basato su uno standard. da non permettere il raggruppamento di funzioni distinte nel medesimo strato se non in caso di necessità. incompatibilità fra sistemi e difficoltà di interazione tra i servizi. ma un modello di riferimento comune per le tecnologie ed i servizi che gestiscono le reti. Per capire il concetto di strutturazione per livelli è necessario comprendere come il flusso dei dati viene gestito e regolato. prelevata 23 . un buon esempio è il sistema postale. • Il numero di strati deve essere abbastanza grande.

come mostrato nella seguente Figura. ciò è dovuto ad aderenza sostanziale ed ad una compatibilità inevitabile con il modello di comunicazione più in voga in quegli anni. in quanto la comunicazione fluisce dal livello più alto verso gli strati bassi del sistema trasmittente (dal mittente al centro smistamento postale) e percorre invece la strada opposta sul sistema ricevente (dal centro di smistamento al destinatario). denominati tecnicamente layer o livelli. I blocchi. il System Network Architecture (SNA) di IBM. I livelli del modello ISO/OSI sono sette. Se consideriamo i livelli nel modo indicato nella figura. Mentre i protocolli dei tre livelli inferiori del modello ISO/OSI sono legati al tipo di infrastruttura trasmissiva usata e hanno lo scopo di ottenere da essa il servizio desiderato. mentre quello più in alto si interfaccia direttamente con le applicazioni. Il problema della comunicazione viene suddiviso in blocchi funzionali ognuno dei quali dedicato ad un problema specifico.dal postino e portata al centro di smistamento dove l’indirizzo sulla busta viene interpretato e la lettera viene veicolata verso un altro centro più vicino alla destinazione finale dove seguirà il percorso analogo (a ritroso) fino ad arrivare nelle mani del destinatario. formano una struttura a pila (stack ). Ogni blocco riceve informazioni dallo strato inferiore e comunica la propria elaborazione al blocco successivo. quelli dei quattro livelli superiori sono orientati esclusivamente ad aspetti elaborativi e non sono legati a problematiche di telecomunicazione. 24 . il livello più basso è quello connesso con il mezzo fisico di trasmissione.

i sistemi interagiscono tra di loro unicamente attraverso questo strato tramite strutture denominate entity secondo certe regole che costituiscono il protocollo di quel livello. In ogni strato è quindi attivo un protocollo 25 . ossia un canale di comunicazione come nella seguente Figura: Le funzioni che i sistemi devono svolgere per potere comunicare vengono divise fra i vari layer ottenendo le suddivisioni come nella seguente Figura: I layer di uguale livello sono a comune fra tutti i sistemi connessi alla rete e costituiscono uno strato.2 Pila e protocolli Consideriamo due sistemi collegati tramite un mezzo fisico.2. Ogni strato attraverso le sue entity fornisce servizio a quello di livello superiore attraverso un’interfaccia (SAP-Service Access Point) tra cui gli strati comunicano.

serve quindi come semplice punto di riferimento e confronto. I protocolli attuali sono generalmente modulari. ma non si conformano in maniera completamente fedele ai sette livelli ed ad esempio i Livelli 5 e 6 non sono sempre implementati. Il modello ISO/OSI di per se non è un’architettura di rete perchè non specifica esattamente i servizi ed i protocolli da utilizzare in ciascun strato. La funzione di modello. è quindi possibile sostituire il protocollo di uno strato senza dover modificare quello degli altri adiacenti (naturalmente il servizio fornito al livello superiore deve rimanere lo stesso). è che i protocolli sono scritti a blocchi. Al Livello 2 i messaggi vengono denominati frame. ma si limita a definire ciò che ciascuno strato dovrebbe fare. 26 . Il modello ISO/OSI è “solo” una raccomandazione ed il risultato di ciò. In generale non è indispensabile disporre di tutti e sette i livelli. Le specifiche del protocollo di uno strato sono indipendenti da quelle degli altri. ma soprattutto non rappresenta una norma alla quale ogni sistema deve assolutamente aderire. sistemi differenti interagiscono facendo richiesta e fornendo servizi tramite un protocollo di comunicazione. a seconda delle funzionalità necessarie qualche livello intermedio è spesso omesso. ma questo non significa che aderiscano completamente alle specifiche dell’ISO. Spesso si cerca di concentrare le funzionalità dove possibile anche perchè la visione a blocchi introdotta dallo standard comporta un certo overhead dovuto alle interfacce tra i diversi livelli. In conclusione internamente ad ogni sistema i vari layer interagiscono fornendo e sfruttando servizi.definito dall’ente di standardizzazione che ne definisce le caratteristiche ed attraverso cui i sistemi della rete interagiscono scambiandosi messaggi (nome dato dal modello ISO/OSI ai dati organizzati in blocchi che vengono trasferiti).

• Identificazione della connessione fisica. elettriche e procedurali. 27 . il numero di piedini che deve avere il connettore di rete. e col mezzo fisico di trasmissione. Le problematiche tipiche da affrontare in questo contesto riguardano i livelli di tensione o di corrente usati per rappresentare il bit 1 o il bit 0. la distanza massima di trasmissione. la durata in microsecondi di un bit. Gli aspetti del progetto riguardano il meccanismo per garantire che un bit “1” trasmesso da un’estremità venga ricevuto come tale (e non come “0”) all’altra estremità. la possibilità di trasmettere simultaneamente in entrambi le direzioni. il modo in cui viene stabilita la connessione iniziale ed il modo in cui viene disattivata quando entrambe le estremità hanno terminato.Offre al livello superiore un servizio di trasporto di simboli. situato al di sotto dello strato fisico. • Notifica delle condizioni di malfunzionamento. Questo è l’unico livello della gerarchia che riguarda direttamente l’hardware. • Sincronizzazione. I servizi forniti sono ad esempio: • Gestione delle connessioni fisiche.2. la funzione di ciascun piedino. Qui gli aspetti di progetto hanno a che fare in gran parte con le interfacce meccaniche. tutti i blocchi funzionali superiori lavorano ad un livello logico operando su flussi di bit anzichè su segnali elettrici.3 Livello 1: Strato fisico Lo strato fisico (Livello 1 del modello ISO/OSI mostrato nella Figura soprastante) riguarda la trasmissione di bit lungo un canale di comunicazione. • Trasmissione delle unità dati.

per quanto possibile. da errori di trasmissione per lo strato di rete. Poichè lo strato fisico si limita ad accettare e trasmettere una serie di bit senza interessarsi del loro significato o della loro struttura. sarà lo strato di collegamento dati a dover creare e riconoscere i confini dei frame.4 Livello 2: Data link layer Il compito principale dello strato di collegamento dati (Data Link Layer. I servizi forniti sono: • Apertura e il rilascio di una connessione di collegamento. quello superiore che si interfaccia allo strato di rete e chiamato LLC (Logical Link Control). E’ questo strato che ha il compito di risolvere problemi causati da messaggi danneggiati. 28 . Lo strato di collegamento dati può essere ulteriormente suddiviso in due sottostrati. Un impulso di rumore sulla linea può distruggere completamente un frame. In questo caso il software dello strato di collegamento dati sulla macchina di provenienza dovrà ritrasmettere il frame. li trasmetta sequenzialmente ed elabori i frame di riconoscimento inviati in risposta dal ricevitore. Livello 2 del modello ISO/OSI mostrato nella Figura soprastante) è quello di prendere un mezzo fisico “rudimentale” e di trasformarlo in una linea esente. • Controllo di flusso. rilevamento e recupero degli errori. • Controllo della sequenza dei dati e accesso a mezzo condiviso.2. quello inferiore che si interfaccia allo strato fisico e chiamato MAC (Media Access Control). • Trasferimento trasparente dei dati. Un’altra questione che si presenta allo strato di collegamento dati (come pure nella maggior parte degli altri strati) è il modo in cui impedire ad un trasmettitore veloce di sommergere di dati un ricevitore lento. persi o duplicati. Esso svolge questo compito facendo si che il trasmettitore organizzi i dati di input in frame. il che può essere fatto aggiungendo speciali configurazioni di bit all’inizio ed alla fine di ogni frame.

essi si intralceranno a vicenda. I servizi forniti sono: • Apertura e il rilascio di una connessione di rete. 29 . • Indirizzamento e trasferimento dei dati end-to-end. la seconda rete potrebbe addirittura non accettare il pacchetto perchè è troppo grande. • Gestire la qualità del servizio (ad esempio il tempo di attraversamento della rete). Se troppi pacchetti sono presenti contemporaneamente nella sottorete. Anche il controllo di una congestione è sotto la responsabilità dello strato di rete.2. E’ lo strato di rete che ha il compito di risolvere questi problemi per consentire l’interconnessione di reti omogenee. Livello 3 del modello ISO/OSI mostrato nella Figura soprastante) riguarda il controllo del funzionamento della sottorete. possono sorgere molti problemi: l’indirizzamento usato dalla seconda rete può differire da quello della prima. Una questione fondamentale di progetto è la determinazione del modo in cui i pacchetti sono instradati dall’estremità di provenienza a quella di destinazione. i protocolli potrebbero essere diversi. formando un collo di bottiglia.5 Livello 3: Network layer Lo strato di rete (Network Layer. • Controllo della congestione. Quando un pacchetto deve viaggiare da una rete all’altra per raggiungere la sua destinazione. E’ anche responsabile della traduzione di indirizzi e nomi logici in indirizzi fisici. e così via. • Internetworking.

separazione. • Rilevazione e recupero errori end to end. I servizi offerti sono: • Apertura e il rilascio di una connessione di trasporto. Livello 4 del modello ISO/OSI mostrato nella Figura soprastante ) consiste nell’accettare i dati dallo strato di sessione. Il tipo più diffuso di connessione di trasporto è un canale da punto a punto. Inoltre il tutto deve essere svolto efficientemente ed in modo da isolare lo strato di sessione dalle inevitabili modifiche nella tecnologia dell’hardware. ricomposizione. Lo strato di trasporto determina anche il tipo di servizio da fornire allo strato di sessione e. nel suddividerli in unità più piccole (se necessario). in definitiva. Comunque altri tipi di servizio sono rappresentati dal trasporto di messaggi isolati senza garanzia sull’ordine di consegna e dal broadcasting di messaggi a più destinatari. • Concatenazione. nel passare queste allo strato di rete e nel garantire che i pezzi arrivino tutti correttamente all’altra estremità. Ciò richiede un meccanismo di denominazione. che fornisce i messaggi nell’ordine in cui sono stati inviati. agli utenti della rete.2. 30 .6 Livello 4: Transport layer La funzione fondamentale dello strato di trasporto (Tansport Layer. affinché il processo presente su una macchina abbia il modo per descrivere il destinatario con cui deve conversare. Lo strato di trasporto ha anche il compito di stabilire e cancellare le connessioni attraverso la rete. segmentazione. • Controllo di flusso end to end. esente da errori.

Servizi di sessione attinenti sono la gestione del token. Una sessione potrebbe servire ad un utente per connettersi ad un sistema remoto in timesharing. 31 . Uno dei servizi dello strato di sessione è la gestione del controllo del dialogo. Una sessione consente l’ordinario trasporto dei dati. I servizi forniti sono: • Apertura e il rilascio di una connessione di sessione. Se il traffico è unidirezionale lo strato di sessione può servire a tenere nota dei turni. • Registrazione delle anomalie di funzionamento. o per trasferire un file tra più macchine. per evitare. come fa lo strato di trasporto. e la sincronizzazione tra i processi. Le sessioni possono permettere che il traffico si svolga contemporaneamente nelle due direzioni (full-duplex). di ritrasmettere tutto il messaggio.7 Livello 5: Session layer Lo strato di sessione (Session Layer. ad esempio inserendo punti di controllo durante il trasferimento di dati. in caso di errori. per evitare che diversi nodi eseguano operazioni nello stesso istante. • Sincronizzazione (definizione e identificazione di check points per fault tolerance). Livello 5 del modello ISO/OSI mostrato nella Figura soprastante) permette agli utenti su macchine differenti di stabilire tra loro delle sessioni. oppure in una sola direzione alla volta (half-duplex). ma fornisce anche dei servizi potenziati utili in certe applicazioni.2.

diversamente da tutti gli strati inferiori che sono interessati soltanto al trasferimento affidabile di bit da un punto all’altro. le strutture dati da scambiare possono essere definite in modo astratto.8 Livello 6: Presentation layer Lo strato di presentazione (Presentation Layer. Al fine di rendere possibile la comunicazione tra computer con rappresentazioni simboliche differenti. Questo strato ha a che fare con altri aspetti della rappresentazione delle informazioni come ad esempio la compressione/decompressione dei dati e la crittografia. insieme con una codifica standard da utilizzare sulla linea di comunicazione. Il compito di gestire queste strutture dati astratte e di effettuare la conversione dalla rappresentazione usata all’interno del computer alla rappresentazione standard della rete è gestito dallo strato di presentazione.2. Livello 6 del modello ISO/OSI mostrato nella Figura soprastante) esegue certe funzioni che sono richieste così spesso da rendere opportuna per esse una soluzione generale. lo strato di presentazione ha a che fare con la sintesi e la semantica delle informazioni trasmesse. Concludendo il Livello 6 si prende carico di tutti i problemi di presentazione dei dati e fornisce i meccanismi per una conversione trasparente. • Trasformazione della sintassi di rappresentazione. In particolare. 32 . I servizi forniti sono: • Selezione della sintassi di trasferimento.

posta elettronica (SMTP). in quanto essa non fa parte del sistema di comunicazione. tuttavia questo strato non comprende l’applicazione stessa. I servizi forniti ai processi applicativi sono: • Trasferimento delle informazioni. • Sincronizzazione delle applicazioni cooperanti. quali ad esempio: terminale virtuale (TELNET). • Predisposizione di meccanismi quali autenticazione e segretezza. • Determinazione del grado di servizio accettabile. Livello 7 del modello ISO/OSI mostrato nella Figura soprastante) contiene vari protocolli che sono necessari per offrire vari servizi agli utenti. • Accordo sulle responsabilità di error recovery e sulle procedure di controllo della correttezza delle informazioni. Si deve prestare attenzione a non confondere il termine applicativo di questo strato con l’accezione comune di programma. web (HTTP). Il programma sfrutta gli strumenti della pila ISO/OSI a livello applicativo per svolgere funzionalità di rete. In generale il settimo livello concerne la descrizione dell’interfaccia verso l’applicazione. trasferimento file (FTP).2. 33 .9 Livello 7: Application layer Lo strato applicazione (Application Layer.

L’encicopledia libera. Domenico Pratticò: “L’evoluzione dei sistemi di comunicazione nell’automazione e nella gestione di processi industriali”. Francesco Venturini: “I bus di campo isocroni – Profibus DP V2 e Profinet I/O”. 3. progetto e realizzazione di un analizzatore di traffico su rete CAN”. 2. 2004. 2001. Università degli studi di Pisa. 4. Vittorio Trecordi: “Introduzione alle reti di telecomunicazione”. Stefano Panzieri: “Le reti informatiche – Reti locali e modelli di interconnessione – Bus di campo”. www. 6. Tanenbaum: “Reti di calcolatori”.2. 34 .wikipedia.10 Bibliografia 1. 7. Università degli studi di Roma. 2003. 2006. Università degli studi di Genova. 5. Wikipedia. Giuseppe Tognini: “Studio. Università degli studi di Brescia. Quarta edizione. Andrew S.org.

da punto a punto. Così intesa. è di consentire il libero colloquio con qualsiasi macchina collegata e di trasmettere la stessa informazione contemporaneamente a tutte le macchine in ascolto (broadcasting). quando invece è sempre necessario un cavo in rame oppure in fibra ottica per convogliare i segnali. Xerox. senza ricorrere al passaggio di dischetti. non ebbe l’intraprendenza di trasformarla immediatamente in un prodotto commerciale e dobbiamo aspettare il dicembre del 1980 per averne la 35 . per opera di Robert Metcalfe e David Bloggs. Il nome.1 Introduzione Ethernet è il tipo più diffuso di rete locale che esista al mondo. cioè di quella sostanza incorporea che in passato si supponeva pervadesse tutta l’aria e consentisse il propagarsi della luce.rete locale) e quella di Ethernet in particolare. ideato e registrato da Xerox. come quello che si crea quando si usano particolari tipi di cavo seriale o parallelo per trasferire dati da un portatile a un desktop. come è accaduto successivamente per altre invenzioni sviluppate nei suoi laboratori californiani. Il numero di stazioni deve essere per lo meno tre perchè se i computer fossero soltanto due non si potrebbe più parlare di rete. verrebbe la tentazione di pensare a una rete che usa onde radioelettromagnetiche per la distribuzione delle informazioni. Con rete locale s’intende un sistema di collegamento tra diversi computer. Ethernet non è necessariamente la migliore delle tecnologie possibili. ma la sua prima definizione pubblica risale a un articolo pubblicato nel 1976 con la firma dei due inventori. Tale sistema consente lo scambio diretto di dati in formato elettronico tra più di due computer. ma bensì di collegamento diretto.Capitolo 3 ETHERNET 3. entro edifici contigui oppure nell’arco di pochi chilometri nel caso in cui non esistano confini di riferimento precisi. suggerisce l’idea dell’etere. ma si è dimostrata la più economica e la più facile da utilizzare il che ne ha decretato un enorme successo a tutti i livelli d’impiego e in qualsiasi area geografica del mondo. tutti collocati all’interno del medesimo edificio. il laboratorio di ricerca di Xerox. La natura generale di qualsiasi LAN (Local Area Network . La sua storia ha inizio nei primi anni ‘70 presso il Palo Alto Research Center (PARC). Il lavoro iniziò intorno al 1972.

1 Gbit/s. Considerando le potenzialità di diffusione mondiale. Nel 1982 lo standard iniziale fu sostituito dalla versione 2. ciascuna delle quali riceve contemporaneamente tutto quel che passa sulla rete. Digital Equipment e Intel. In questo percorso incontrano altri nodi che sono collegati lungo il cavo e che ascoltano tutto quello che passa cercando di scoprire se è indirizzato a loro. Successivamente il documento è stato perfezionato a più riprese. In Ethernet. cominciando dal 1985 con la definizione del metodo di accesso e proseguendo poi con l’aggiunta di versioni capaci di funzionare anche su cavi di tipo differente e a velocità diverse (100 Mbit/s. Ogni messaggio in transito sulla rete (detto anche trama o frame. perchè composto da una sequenza di bit tra loro combinati) reca al proprio interno l’indirizzo di origine (Indirizzo MAC) e quello di destinazione. dovuta all'iniziativa congiunta di Xerox. legge l’indirizzo di destinazione e. Il sistema di trasmissione Ethernet usa un solo cavo per collegare decine di stazioni di lavoro.prima versione utilizzabile. identificato dal numero 802. Xerox) che costituisce ancora oggi uno standard di riferimento per numerosi impianti. 10 Gbit/s). il cui compito è di codificare tutti i tipi primari di rete locale. La sua prima formulazione ufficiale risale al 1983 con la pubblicazione del documento IEEE 802. un ente statunitense con sede a New York che riunisce scienziati.0. detta anche Ethernet II oppure DIX (Digital. Ogni stazione è indipendente e non esiste una singola entità che funzioni da arbitro. all’inglese. assicurandosi che una sola macchina alla volta abbia la possibilità di trasmettere. Il passaggio finale fu affidarne la standardizzazione a un ente al di sopra delle parti. se non coincide con il proprio. Tutti gli altri produttori non avrebbero investito in una tecnologia che sfuggisse al loro controllo. Il ruolo di arbitro fu affidato all’Institute of Electrical and Electronics Engineers (IEEE). mentre solo una stazione alla volta ha la facoltà di trasmettere. Intel. si costruisce in modo 36 . ingegneri e studenti e che nella prima metà degli anni Ottanta creò un comitato. vediamo che le informazioni sono trasmesse nella forma d’impulsi che si propagano a partire dalla stazione emittente verso i due estremi della rete (a destra e a sinistra) fino a raggiungere il punto in cui il cavo termina ai due estremi. perciò ogni macchina lo copia in una piccola porzione di memoria (buffer) di cui dispone nella scheda d’interfaccia.3 in cui si definiscono le specifiche elettriche e fisiche per una rete Ethernet a 10 Mbit per secondo su cavo coassiale. lo scarta. Con questo meccanismo. Ethernet non poteva restare affidata nelle mani di tre società private. mentre tutte le altre sono in ascolto. incluso naturalmente Ethernet.

Questo sistema vale per qualsiasi genere di rete Ethernet. acquistando anche la facoltà di trasmettere ogni volta che la linea è libera. cioè al modo in cui fisicamente le varie stazioni venivano collegate tra loro. Nelle prime reti Ethernet la topologia elettrica corrispondeva anche alla topologia fisica. Grazie a questo metodo. unico al mondo. così da creare una combinazione univoca per ciascun pezzo. più in generale. indipendentemente dalla sua velocità di funzionamento o dal tipo di cavo utilizzato. si è mantenuto una topolgia elettrica a bus (elemento invariabile nella natura di Ethernet). Il termine bus identifica. Con topologia elettrica si indica la disposizione delle connessioni elettriche che uniscono i diversi nodi di una LAN o. Gli altri 24 bit vengono assegnati dal costruttore medesimo. il fatto che tutti ricevono contemporaneamente lo stesso segnale e sono collegati al medesimo percorso trasmissivo. 37 . visto che ogni nuovo nodo riceve automaticamente tutto quel che transita sul cavo e diventa immediatamente parte del gruppo di lavoro. che descrive l’architettura di qualsiasi rete di telecomunicazione. alla codifica dei segnali e alla gestione dei messaggi all’interno di una rete locale LAN. La connessione di varie macchine sullo stesso cavo prende il nome di topologia elettrica a bus. il percorso logico che le informazioni seguono per arrivare a destinazione. come vedremo più avanti. I primi 24 bit di questo indirizzo indicano il costruttore e vengono conservati in un registro mondiale così da evitare duplicazioni.semplice una rete a cui è facile aggiungere nodi. è diventata una stella: tutte le macchine si collegano a un punto centrale. la parola Ethernet indica solamente i primi due livelli (il Mezzo Fisico trasmissivo e il Data Link Layer) ed aggiungendo il protocollo TCP/IP si arriva fino a livello 4 (Trasporto Dati). Successivamente. è possibile risalire in ogni momento a chi ha fabbricato la scheda e non esiste la benchè minima possibilità che sulla stessa rete esistano due nodi con il medesimo indirizzo fisico. Prima di tutto bisogna ricordare che nel modello ISO/OSI. Ogni scheda di rete disponibile in commercio dispone di un proprio indirizzo permanente (Indirizzo MAC). con l’adozione del doppino. scheda per scheda. ma la topologia fisica. Dal punto di vista tecnico Ethernet non è altro che una raccolta di specifiche relative al tipo di cablaggio. espresso in numeri esadecimali e lungo 48 bit. cioè il modo in cui i cavi vengono distribuiti. come nel caso dell’omnibus da cui la parola deriva.

Vasta documentazione disponibile. funziona bene e genera pochi problemi (cosa rara nel campo informatico).2 per la parte LLC (Logical Link Control) del livello scambio dati. Ethernet si è sempre adeguata. Grazie al fatto che è una tecnologia di basso livello. 38 . ).Questo è quello che viene generalmente utilizzato nelle familiari architetture tradizionali. TIA. è in grado di adattarsi a qualunque protocollo di comunicazione garantendo una certa flessibilità. ecc. basate cioè su IEEE 802. E’ adeguata all’utilizzo con TCP/UDP/IP.1 per la parte di bridging del livello scambio dati e sui protocolli TCP/UDP/IP. Una parte della standardizzazione del livello fisico è delegata ai diversi enti che regolano le caratteristiche dei cavi e dei connettori (EIA. IEEE 802. IEEE 802. Rispetto ai sistemi concorrenti è più economica e facile da usare e la diffusione delle componenti hardware ne facilitano l’adozione.3 per il livello fisico e la parte del meccanismo di controllo di accesso (Medium Access Control .MAC) del livello scambio dati. Ethernet è la LAN più diffusa al mondo per diverse ragioni: • • • • • • E’ nata molto presto e si è diffusa velocemente per cui l’uscita di nuove tecnologie come FDDI e ATM hanno trovato già il campo occupato. Nonostante i suoi concorrenti fossero più veloci nella trasmissione dati.

il punto finale o il punto centrale di ogni bit senza fare riferimento a impulsi esterni. La sincronizzazione tra stazione ricevente e quella trasmittente avviene grazie a una semplice sequenza di “1” iniziali. altre stazioni potrebbero interpretare erroneamente questa stringa di bit come “10000000” o “01000000” perchè non è possibile distinguere tra il segnale nullo (0 Volt) della linea libera dal segnale nullo (0 Volt) associato al bit “0”. Con la codifica Manchester. per inviare dati a 10 Mbps il segnale deve cambiare 20 milioni di volte al secondo. In entrambi i casi. caratteristica che aiuta il ricevitore a sincronizzarsi con il trasmettitore. Per risolvere il problema sono state inventate due tecniche chiamate codifica Manchester e codifica Manchester differenziale.2 Codifica Manchester Nessuna delle versioni di Ethernet utilizza la codifica binaria semplice con 0 Volt associati al bit “0” e 5 Volt associati al bit “1”. specialmente dopo una lunga serie di “0” oppure di “1” consecutivi. Per esempio. ogni periodo di bit è diviso in due intervalli uguali. perchè gli impulsi sono larghi la metà. Con questo schema si ha la certezza che ogni periodo di bit ha una transizione nel punto centrale. ma rimane ancora il problema dei ricevitori che possono campionare il segnale a una frequenza leggermente diversa da quella che il trasmettitore ha utilizzato per generarlo. La codifica Manchester differenziale. Lo schema contrario è utilizzato per trasmettere uno “0” binario: prima un livello di tensione basso e poi uno alto. L’ “1” binario è inviato scegliendo un livello di tensione alto durante il primo intervallo e un livello basso durante il secondo. Se una stazione invia la sequenza “0001000”. Il bit “1” è indicato dall’assenza di una transizione all’inizio dell'intervallo. mostrata nella Figura seguente. il bit “0” è indicato dalla presenza di una transizione all’inizio dell’intervallo. Questo problema può essere risolto associando +1 Volt al bit “1” e -1 Volt al bit “0”. La Figura seguente mostra la codifica Manchester. Ciò che serve è un sistema che consenta ai ricevitori di determinare senza ambiguità il punto iniziale. Velocità di clock diverse possono mandare il ricevitore e il trasmettitore fuori sincronia facendo perdere 1’informazione del punto in cui iniziano i bit. perchè questo sistema crea ambiguità. Lo svantaggio della codifica Manchester è che occupa il doppio della banda della codifica binaria elementare.3. è una variante della codifica Manchester elementare. c’è una transizione 39 .

con il valore DC pari a 0 Volt. Il segnale alto ha una tensione di +0. Tutti i sistemi Ethernet (nelle versioni fino a 10 Mbit per secondo eccetto quelle su fibra ottica). La Figura seguente. 40 .5 Token Ring). Ethernet non utilizza la codifica Manchester differenziale. altre LAN invece sì (per esempio la IEEE 802.85 Volt e il segnale basso ha una tensione di –0.nel punto centrale. mostra graficamente la codifica Manchester dei dati. Lo schema differenziale richiede dispositivi più complessi .85 Volt. adottano la codifica Manchester perchè è più semplice. ma offre una maggiore immunità ai rumori .

Il sottostrato MAC ha invece la funzione di regolare l’accesso al mezzo.PDU) tra i terminali connessi alla LAN. 41 . Il particolare protocollo d’accesso MAC (Medium Access Control .MAC).Data Link Layer del modello ISO/OSI mostrato nella Figura seguente) è sdoppiato in due sottostrati: il sottostrato di controllo del collegamento logico (Logical Link Control .3 Lo strato di collegamento di Ethernet Lo strato di collegamento dati di Ethernet (Livello 2 . La seguente Figura mostra le funzioni dei sottostrati. In particolare. Il sottostrato LLC ha il compito di controllare lo scambio delle unità di dati (Protocol Data Unit . regolando eventuali contese tra le stazioni.3.LLC) ed il sottostrato di controllo dell’accesso al mezzo (Medium Access Control . esso tratta le unità di dati del protocollo di sottostrato LLC allo scopo di rendere lo scambio informativo efficiente ed esente da errori.MAC) è uno degli elementi caratteristici di una LAN. questi due sottostrati saranno indicati come sottostrato LLC e sottostrato MAC. Nel seguito.

oppure può essere condivisa fra tutti i terminali del sistema (controllo distribuito).3. previa l’eventuale esecuzione di opportune procedure di ascolto del canale. determinati dall'esecuzione della procedura di accesso. Invece. un terminale può iniziare il trasferimento di un’unità di dati in qualsiasi istante. • Ad accesso controllato. Invece. mentre esempi di analoghi protocolli a controllo distribuito sono il protocollo a testimone (token) e il protocollo a coda distribuita. In questo caso. nel caso di protocolli ad accesso controllato. che garantiscano il corretto trasferimento delle informazioni anche se tali conflitti accadono. Un esempio di protocollo ad accesso controllato con controllo centralizzato è il protocollo ad interrogazione (polling). uno specifico segnale autorizza un terminale ad inviare i propri dati. Un esempio di protocollo ad accesso casuale è il CSMA/CD. nel secondo caso. evitando così l’accesso contemporaneo sul canale trasmissivo e quindi le collisioni. Una collisione avviene quando due o più terminali emettono contemporaneamente una unità informativa sul canale trasmissivo. utilizzato nella rete Ethernet. Per le sue modalità di funzionamento. Per tale motivo occorre prevedere opportuni meccanismi. 42 . il contenuto informativo delle unità informative viene corrotto. il terminale è vincolato all'emissione solo in opportuni istanti.4 Sottostrato MAC I protocolli MAC possono essere raggruppati i due categorie: • Ad accesso casuale. per effetto della mutua interferenza tra i segnali. un protocollo ad accesso casuale non evita che accadano conflitti di accesso al mezzo (collisioni). La gestione del segnale di controllo può essere demandata ad una stazione speciale (controllo centralizzato). Un protocollo ad accesso casuale deve quindi essere in grado di attivare opportune procedure di ritrasmissione in modo da garantire l’affidabilità del trasferimento informativo. Per tale ragione questa classe di protocolli è anche detta senza collisioni. Nel primo caso.

o. Adotta la strategia ascolta prima di parlare. Tale modo di operare non evita il presentarsi di eventi di collisione. che si differenziano principalmente per le strategie seguite per ridurre il numero di collisioni. Esistono numerosi schemi di protocolli ad accesso casuale. Una collisione determina la completa inintelligibilità delle unità di dati in essa coinvolte e quindi la necessità. Se il canale è libero. altamente intermittente. la emissione può iniziare immediatamente. Il protocollo CSMA/CD (Carrier Sense Multiple Access/Collision Detection) è descritto nello standard IEEE 802. che accadono quando due o più unità di dati sono emesse simultaneamente da due o più stazioni.3. la cui occorrenza viene stabilita attraverso l’esecuzione di una procedura di persistenza. • 0-persistente. Secondo questo schema.3 ed è utilizzato in LAN con topologia a bus bidirezionale. le collisioni sono quindi una potenziale causa di instabilità nel funzionamento della rete. Il comportamento è mostrato nella Figura seguente: 43 . • p-persistente. A tale proposito. esistono tre distinte possibilità: • 1-persistente. da parte delle stazioni emittenti. ognuno dei quali offre un traffico di tipo interattivo. A causa della semplicità delle loro procedure. i protocolli ad accesso casuale sono facilmente realizzabili e relativamente poco costosi ed hanno avuto una larga applicazione in LAN di tipo commerciale. anche la probabilità di collisione aumenta. infatti. altrimenti sarà ritardata ad un successivo istante di tempo. le proprie unità di dati in qualsiasi istante. per limitarne l’effetto sulle prestazioni della rete. In particolare. Quando il traffico offerto alla rete cresce.5 Protocollo CSMA/CD I protocolli d’accesso di tipo casuale sono a controllo completamente distribuito e caratterizzati dal fatto che l’emissione delle unità di dati da parte delle stazioni connesse alla rete avviene in modo non coordinato: una stazione può emettere. essi si adattano ad ambienti caratterizzati da un elevato numero di terminali. di provvedere alla loro ritrasmissione. comunque. un terminale che deve emettere deve preventivamente ascoltare il canale.

Durante la trasmissione di una PDU più di un terminale può effettuare l’ascolto del canale ottenendo lo stesso risultato di canale occupato. se al momento dell’ascolto. L’importanza dell’algoritmo di subentro è dimostrata dal seguente esempio. Se il nuovo tentativo di trasmissione avvenisse dopo un intervallo di tempo fisso.La procedura 1-persistente prevede che. In Ethernet è utilizzata la procedura 1-persistente. mentre con probabilità 1-p il terminale attende ulteriormente un intervallo la cui durata si calcola con l’algoritmo di subentro. In quest’ultimo caso. La procedura 0-persistente differisce completamente dalla precedente. infatti. A questo punto la emissione avviene con probabilità p. Questo ha lo scopo di casualizzare il nuovo accesso al canale e quindi di ridurre la probabilità di collisione. se il canale è occupato. se il canale è occupato. il terminale continui l’ascolto del canale ed esegua la sua emissione non appena il canale diventi libero. il terminale ritarda la emissione di un intervallo determinato attraverso l’esecuzione di un algoritmo di subentro (backoff). il canale è occupato. il terminale attende che ritorni nello stato di libero. tutti i terminali eseguirebbero le 44 . Un comportamento intermedio è fornito dalla procedura p-persistente.

sono le seguenti. 45 .3. riguarda la degradazione delle prestazioni ad alto traffico. In particolare. interrotta. fino ad impedire le trasmissioni stesse. ed in generale in tutti i protocolli ad accesso casuale. Il protocollo CSMA/CD è caratterizzato dal fatto che i terminali oltre alla strategia di ascoltare prima di parlare. interrompere la trasmissione. Tale accorgimento ha il vantaggio di consentire l’interruzione della trsmissione di una unità informativa nell’istante in cui viene la collisione viene rivelata e quindi di ridurre il tempo di occupazione non utile del canale. Il problema più importante che occorre considerare nell’uso del protocollo CSMA/CD. • presentare un flusso di dati seriale allo Strato Fisico per la codifica e per la successiva trasmissione. le funzioni principali del livello MAC-CSMA/CD. per quanto riguarda la trsmissione e la ricezione delle MAC-PDU. Se il traffico supera un determinato valore di soglia. la trasmissione è.operazioni di ascolto del canale alle stesse distanze temporali reciproche in cui hanno effettuato la medesima operazione la prima volta. il numero delle collisioni tende ad aumentare e quindi aumenta il tempo in cui il canale non è disponibile per le trsmissioni. Con riferimento allo standard IEEE 802. questa si verifica poichè. svolgere una procedura di imposizione di collisione (collision enforcement) per segnalare l’evento agli altri terminali ed eseguire l’algoritmo di subentro per decidere quando dovrà essere ritrasmessa la PDU. L’istante in cui sarà effettuato il tentativo successivo è determinato utilizzando l’algoritmo di subentro. In questo modo tutte i terminali sono in grado di rivelare le collisioni confrontando la sequenza di bit trasmessa con quella ricevuta. la durata di occupazione del canale per le collisioni diviene via via preponderante rispetto a quella spesa in trasmissioni utili. quando il traffico offerto al bus cresce. • ritardare la trasmissione se il canale è occupato. Ciò causerebbe un ulteriore ritardo nella trasmissione per effetto dell'occupazione del canale. Nella trasmissione delle MAC-PDU: • accettare i dati dallo strato LLC e costruire la PDU. Quando viene rivelata una collisione. • se è rivelata una collisione. come detto. utilizzano anche quella di ascolta mentre parli per tutta la durata della trasmissione.

L’algoritmo di subentro definito nello standard IEEE 802. Nella ricezione delle MAC-PDU: • ricevere un flusso seriale di dati dallo strato fisico.3 è di tipo esponenziale binario troncato (truncated binary exponential backoff) ed ha lo scopo di determinare l’intervallo di tempo al termine del quale avviene un nuovo tentativo di trsmissione dopo una collisione. • presentare allo strato LLC le PDU indirizzate al terminale locale (direttamente o in modo diffusivo). in modo che ogni terminale possa rivelare eventuali collisioni. 46 .• assicurare che due PDU consecutive siano separate da un intervallo di durata non inferiore ad un valore specificato (tempo di intertrama) e che le PDU abbiano lunghezza non inferiore ad un valore opportuno.

In breve. definito nello standard IEEE 802. • Se il messaggio è perso o rovinato dai disturbi non viene fatto nessun tentativo a questo livello di recuperare l’errore. Lo strato LLC è stato definito in modo indipendente rispetto alle diverse alternative di protocolli d’accesso della serie IEEE 802 e può essere quindi applicato a qualsiasi tipo di rete locale. • il servizio con connessione (connection-oriented). Il protocollo di controllo del collegamento logico LLC. • Nessuna procedura di controllo di flusso e le trame non sono numerate. ha il compito di: • realizzare lo scambio delle unità informative tra i terminali connessi alla LAN. che offre una interfaccia uniforme verso lo strato di rete (Livello 3 .3. • gestire e interpretare i comandi e le risposte. Il servizio senza connessione. multipunto o broadcast. • Il destinatario non invia nessun tipo di acknowledge (ACK). Per soddisfare i requisiti di un ampia gamma di applicazioni sono stati definiti due tipi di servizio di trasferimento tra le entità dello strato LLC: • il servizio senza connessione (connectionless). ma sono compatibili a Livello Data Link. Ciò è ottenuto tramite il sottostrato LLC.Network Layer). • La trasmissione può essere punto-punto. Questo tipo di servizio non garantisce la consegna delle LLC-PDU. il servizio senza connessione del sottostrato LLC: • La sorgente invia direttamente i messaggi al destinatario senza stabilire a priori nessuna forma di connessione.2. • eseguire le funzioni di rivelazione e di recupero degli errori. utilizzato da Ethernet. • organizzare il flusso delle LLC-PDU.6 Sottostrato LLC I vari standard differiscono a livello fisico e nel sottostrato MAC. utilizza un sottoinsieme delle funzionalità del servizio dello strato LLC ed è impiegato quando i protocolli di più alto livello dispongono delle funzionalità necessarie per il controllo degli errori e della sequenzialità delle unità informative scambiate. 47 .

48 . • Il livello 2 garantisce che ogni frame inviato sia ricevuto correttamente. Ogni connessione logica è instaurata e gestita indipendentemente dalle altre. E’ quindi necessario prevedere i mezzi per distinguere tali connessioni. Nel caso delle LAN. • Il livello 2 garantisce che ogni frame sia ricevuto esattamente solo una volta. E’ possibile che un terminale gestisca contemporaneamente varie connessioni logiche con terminali diversi. sia dal punto di vista dello scambio informativo. sia per quanto riguarda la definizione dei suoi parametri. • I frame sono numerati. In breve. un unico mezzo trasmissivo collega una molteplicità di terminali e quindi possono coesistere sulla stessa connessione fisica più connessioni logiche distinte con origine e destinazione diverse. il servizio con connessione del sottostrato LLC: • Sorgente e destinazione aprono una connessione prima di trasferire i dati e la chiudono al termine.Il servizio con connessione garantisce il trasferimento affidabile ed in sequenza delle LLC-PDU su di una connessione logica denominata connessione di strato LLC (Data Link Connection). • Il livello 2 garantisce che tutti i frame siano ricevuti nell’ordine corretto. La possibilità per un terminale di gestire una pluralità di connessioni di strato LLC con terminali diversi è una diretta conseguenza dell’ambiente multiaccesso tipico delle LAN.

Xerox) ed è rimasto fedele alla versione originale.3. tutte le stazioni di quel gruppo lo ricevono. Intel. Lo standard consente indirizzi da 2 e da 6 byte. Il frame contiene due indirizzi: uno rappresenta la destinazione e l’altro la sorgente. Il campo SOF (Start of Frame) contiene lo schema di bit “10101011” ed è utilizzato come delimitatore di inizio trame. La codifica Manchester di questo schema produce un’onda quadra di 10 MHz per 6.7 Frame Ethernet Nonostante Ethernet abbia diverse topologie. ognuno contenente lo schema di bit “10101010”. L’indirizzo composto da tutti bit “1” è riservato per la trasmissione broadcast. Devono rimanere sincronizzati per il resto del frame. La trasmissione diretta a un gruppo di stazioni è definita multicast. usando la codifica Manchester per tenere sotto controllo i limiti dei bit. Quando un frame viene inviato a un indirizzo di gruppo. La struttura del frame è mostrata nella seguente Figura: Ogni frame comincia con un campo preamble (preambolo) di 7 byte. Il bit di ordine più elevato nel campo destination MAC address (indirizzo di destinazione) è “0” per gli indirizzi ordinari oppure “1” per gli indirizzi di gruppo. 49 .4 usec che permette al clock del ricevitore di sincronizzarsi con quello del trasmettitore. ma i parametri definiti per la banda base 10 Mbps utilizzano solo indirizzi da 6 byte. Gli indirizzi di gruppo permettono a molte stazioni di rimanere in ascolto di un singolo indirizzo. l’elemento comune è nella struttura del frame che viene definito DIX (DEC.

Dopo questo campo arriva il campo data (dati). un campo data lungo 0 byte causa un problema. perciò quando arriva un frame Ethernet il kernel deve sapere quale protocollo dovrà gestire il pacchetto. La trasmissione multicast è più selettiva. invece. La differenza tra multicast e broadcast è abbastanza importante. Un’altra caratteristica interessante dell’indirizzamento è legata al bit 46 (adiacente al bit di ordine più elevato). ma richiede una gestione del gruppo. il campo pad (riempimento) viene utilizzato per riempire il frame. un frame broadcast è inviato a tutte le stazioni su Ethernet. Per aiutare a distinguere i frame validi dalla spazzatura. La trasmissione broadcast è più rozza. indica al ricevitore che cosa deve fare del frame. dove potrebbe collidere con un altro frame. lungo fino a 1500 byte. Ethernet richiede che i frame validi siano lunghi almeno 64 byte dal destination address al checksum inclusi. usato per distinguere gli indirizzi locali da quelli globali. Questo problema è rappresentato graficamente nella seguente Figura: 50 . Sullo stesso computer si possono usare simultaneamente più protocolli dello strato di rete. type (tipo). Imporre una lunghezza minima serve anche per un altro (e più importante) motivo: per impedire a una stazione di completare la trasmissione di un frame breve prima che il primo bit abbia raggiunto la fine del cavo. sono assegnati centralmente da IEEE per garantire che nessuna stazione nel mondo utilizzi lo stesso indirizzo globale di un’altra stazione. Il frame non ha solo una lunghezza massima. Gli indirizzi locali sono assegnati da ogni amministratore di rete locale. il ricetrasmettitore tronca il frame corrente e ciò significa che sul cavo compaiono continuamente bit sparsi e pezzi di frame. Il campo type indica il processo a cui passare il frame. ma anche una lunghezza minima. perciò è utile ricordarla: un frame multicast è inviato a un gruppo selezionato di stazioni su Ethernet. In pratica ogni stazione dovrebbe poter comunicare in modo univoco con qualunque altra stazione semplicemente adoperando il corretto numero di 48 bit. Spetta allo strato di rete capire come individuare la destinazione. gli indirizzi globali. anche se qualche volta può tornare utile. ma non richiede alcuna gestione. Quando rileva una collisione. Se la parte occupata dai dati è lunga meno di 46 byte. Il campo successivo.Un frame che contiene tutti “1” nel campo destination MAC address è accettato da tutte le stazioni della rete.

questo numero è stato arrotondato a 512 bit. tutti i frame devono impiegare più di 2τ per arrivare a destinazione. Sia τ il tempo di propagazione impiegato dal frame per raggiungere l’altra estremità della rete. perciò 500 bit è la dimensione che garantisce che tutto funzioni. Per una LAN a 10 Mbps che può essere lunga al massimo 2500 metri e può contenere non più di 4 ripetitori (secondo le specifiche IEEE 802. ossia 64 byte (si assume che il Time Slot 2τ sia di 51 . la stazione A che si trova a un’estremità della rete invia un frame. In altre parole. un bit impiega 100 nsec. potrebbe succedere che avvenga una collisione.3). In questo caso il trasmettitore concluderà erroneamente che il frame è stato inviato con successo. il viaggio di andata e ritorno (round trip delay) dura circa 50 usec nel peggiore dei casi.Al tempo 0. ma la trasmissione si concluda prima che il burst di rumore torni indietro (ossia prima dell’istante 2τ). Per aggiungere un margine di sicurezza. la stazione più distante B inizia a trasmettere. Per evitare che si presenti una situazione di questo tipo. A 10 Mbps. ostruisce il mezzo di trasmissione per essere sicura che il trasmettitore rilevi la collisione. in tal modo la trasmissione è ancora in esecuzione quando il burst di rumore torna al trasmettitore. All’istante 2τ anche il trasmettitore vede il burst di rumore e interrompe la sua trasmissione. Se una stazione tenta di trasmettere un frame molto corto. Quando si accorge di ricevere più potenza di quella emessa. Appena prima che il frame raggiunga l’altra estremità (al tempo τ-ε). aspetta quindi per un periodo di tempo casuale prima di ritentare. B capisce che è avvenuta una collisione perciò interrompe la sua trasmissione e genera un burst di rumore a 32 bit (Sequenza Jamming) per avvisare tutte le altre stazioni.

Nel 1997. c’era così tanto hardware e software per Ethernet DIX già in uso che pochi produttori e utenti furono entusiasti della conversione del campo type in campo lenght. deve diminuire la lunghezza massima del cavo. la dimensione delle trame dovrebbe essere 6400 byte. L’ultimo campo Ethernet è il checksum (codice di controllo). quando venne pubblicato lo standard IEEE 802. 52 . proporzionalmente. I frame con meno di 64 byte sono riempiti automaticamente dal campo pad fino a raggiungere la dimensione minima richiesta. Per una LAN lunga 2500 metri che opera a 1 Gbps. il checksum risulterà certamente sbagliato e l’errore verrà rivelato. Spostandosi verso le reti multigigabit. Per fortuna tutti i campi type in uso prima del 1997 erano più grandi di 1500 byte.4 e IEEE 802.2 usec). un codice hash dei dati di 32 bit. Sfortunatamente. Se alcuni bit di dati sono interpretati in modo errato (a causa del rumore lungo il cavo).51. in alternativa la dimensione minima potrebbe essere 640 bye se la distanza massima tra le due stazioni fosse 250 metri.5. di conseguenza. Il checksum è un CRC (Cyclic Redundancy Check) che esegue solo il rilevamento degli errori e non si preoccupa della correzione. IEEE gettò la spugna e disse che entrambi i formati andavano bene. Quando IEEE creò lo standard Ethernet. il comitato modificò il formato DIX sostituendo il campo type col campo lenght (lunghezza del frame) per mantenere la compatibilità con gli standard IEEE 802. La nuova struttura non permetteva al ricevitore di capire che cosa si sarebbe dovuto fare con il frame in arrivo. la lunghezza minima delle trame deve aumentare o. queste restrizioni diventano sempre più dolorose. qualunque numero minore o uguale a 1500 può essere interpretato come lenght e qualunque numero maggiore di 1500 può essere interpretato come type.3. Al crescere della velocità della rete. il problema è stato risolto aggiungendo alla parte dei dati una piccola intestazione che fornisce questa informazione.

o di 51. Vediamo ora in che modo viene gestita l’attesa casuale dopo una collisione. Quando tale intervallo è terminato tutti i nodi dovranno avere la loro rilevazione di portante attivata in modo da non effettuare una comunicazione mentre la rete è occupata.3. dopo n collisioni. chiamato backoff esponenziale binario. Se avviene una terza collisione la volta successiva il numero d’intervalli di attesa è scelto a caso tra 0 e 2^3 -1. Questo algoritmo. Per contenere il percorso più lungo supportato da Ethernet. viene scelto un numero intero casuale r compreso tra 0 e 2^n . Dopo la seconda collisione. Dopo 16 collisioni il chip di controllo rinuncia e comunica alla stazione un errore. Se due nodi si trovano a trasmettere contemporaneamente (Multiple Access). I nodi sono quindi in grado di rilevare anche le collisioni monitorando il relativo segnale fornito dalla livello fisico (Collision Detection). la possibilità che due stazioni collidano una 53 . Se due stazioni collidono e ognuna sceglie lo stesso numero casuale. durante il quale è possibile che si verifichi una collisione. In generale. Quando un nodo inizia una trasmissione ci sarà un intervallo di tempo. Se l’intervallo casuale per tutte le collisioni fosse 1023. dopo 10 collisioni il tetto massimo dell’intervallo di scelta rimane bloccato a 1023 intervalli (2^10 – 1). Dopo la prima collisione. 2 o 3 a caso e rimane in attesa per quel numero di intervalli temporali. 1. è stato scelto perchè si adatta dinamicamente al numero di stazioni che tentano di trasmettere. Ulteriori operazioni di ripristino sono demandate agli strati più alti.1 e si salta quel numero di intervalli. si verificherà una collisione e tutte le informazioni andranno perdute. Utilizzando il CSMA/CD ogni nodo può rilevare se un altro nodo sta trasmettendo sulla rete (Carrier Sense). l’intervallo temporale è stato impostato a intervalli di 512 bit. ogni stazione aspetta 0 o 1 intervalli temporali prima di ritentare. ogni stazione sceglie 0. chiamato collision window. Quando un nodo individua una portante si pone in attesa fino a quando la rete non è stata rilasciata.8 Algoritmo di backoff esponenziale binario Il protocollo di comunicazione MAC di Ethernet si basa sul CSMA/CD (Carrier Sense Multiple Access Collision Detection).2 usec (Time Slot pari 2τ) come è stato spiegato precedentemente. Dopo una collisione. la collisione si ripeterà. il tempo è diviso in intervalli discreti la cui lunghezza è uguale al tempo di propagazione di andata e ritorno del caso peggiore sul mezzo di trasmissione (2τ).

In questo modo sarà alleggerita la rete e quindi diminuita la possibilità di future collisioni. Troncando il backoff a 1023 si impedisce al confine di crescere troppo. Poichè l’intervallo di scelta casuale cresce esponenzialmente con il numero di collisioni avvenute. esso aumenterà l’intervallo di ritardo. Il ritardo introdotto dall’Interframe Gap Period (IPG) per Ethernet a 10 Mbps è pari a 9.6 usec.seconda volta sarebbe trascurabile. Tale algoritmo è descritto dalla flowchart mostrata nella seguente Figura: 54 . l’algoritmo assicura un basso ritardo quando poche stazioni collidono e garantisce la risoluzione della collisione in un intervallo di tempo ragionevole quando la collisione coinvolge molte stazioni. ma l’attesa media dopo una collisione durerebbe centinaia di intervalli temporali e il ritardo introdotto sarebbe pesante. L’algoritmo controlla quindi il carico della rete e nel caso in cui risulti pesantemente caricata e quindi di pari passo aumenti la possibilità di collisioni.

nel loro insieme (presa vampiro più ricetrasmettitore) prendono il nome di transceiver (transmitter-receiver). Questo sistema conferisce notevole robustezza al canale di collegamento visto che l’intero tratto di coassiale non ha giunture e anche dove ne avesse si userebbero connettori a vite che resistono anche agli strappi violenti.3. La Ethernet classica consente una velocità di trasmissione fino a 10 Mbps ed è standardizzata con la sigla IEEE 802. La cifra 5 si riferisce alla lunghezza massima del singolo segmento. vale a dire 500 metri. Il termine indica che il segnale trasmissivo viaggia sulla rete usando un’onda portante (a codifica Manchester) che ha una sola frequenza di 20 MHz. BASE è l’abbreviazione di baseband. cioè 10 milioni di bit per secondo. Il cavo coassiale (RG213) deve essere ininterrotto dall’inizio alla fine. Il collegamento delle singole stazioni avviene per mezzo di speciali connettori che si fissano sul cavo coassiale e lo perforano creando un contatto con i fili all’interno (si chiamano connettori a vampiro proprio perch’ la loro punta perfora il cavo coassiale “succhiandone” i dati). La sigla significa: 10 indica la velocità di trasmissione massima prevista. sulla quale vengono convogliate le informazioni binarie che devono passare da un nodo all’altro. possono mettere in cortocircuito il coassiale visto che la punta del vampiro deve superare la calza esterna (il primo polo del coassiale) senza toccarla prima di arrivare al filo di rame interno (il secondo polo. La debolezza sta nei connettori a vampiro che. se male inseriti oppure forzati nella loro sede. La connessione fra transceiver e stazione di lavoro avviene per mezzo di un cavo a 8 coppie di fili (drop-cable) che si allaccia da una parte alla presa sul retro della scheda (per mezzo di un sistema di fissaggio a slitta) e dall’altra a un’analoga presa 55 . Questi connettori sono tra l’altro molto costosi perchè incorporano tutta la circuiteria elettronica per trasmettere e ricevere i segnali sul cavo e.9 Ethernet classica Esistono molte versioni di Ethernet nelle quali si hanno diverse velocità di trasmissione e diversi mezzi fisici trasmissivi utilizzati. che si traduce in banda base. La prima versione di rete Ethernet usava un cavo coassiale del diametro di circa un centimetro che si snodava lungo l’edificio. Verranno descritte qui di seguito le versioni più comuni. E’codificata dall’IEEE con il nome di 10BASE5. portandosi in vicinanza delle diverse stazioni da collegare. detto anche anima).3.

in tal caso la lunghezza massima della rete (diametro) va calcolata sommando i diversi segmenti con le lunghezze previste dai singoli standard. Tutt’al più si riesce a fargli compiere un percorso mediano tra i vari punti. Il ripetitore fa parte delle 100 stazioni che possono essere ospitate nel segmento. perciò serve comunque un cavo per ritornare al punto in cui la connessione serve davvero. anzi dovrebbero comunque essere posizionati a distanze. anche se il cavo coassiale passasse. Dall’altra parte del ripetitore può naturalmente esserci un secondo segmento. Nel caso in cui la rete dovesse estendersi oltre i 500 metri consentiti. su coassiale sottile oppure su doppino. Uno dei due terminatori dovrebbe essere possibilmente collegato a terra per evitare l’accumularsi di cariche elettriche sul cavo. il cavo coassiale reca stampigliate bande nere ogni 2. 56 .5 metri l’uno dall’altro. La rete 10BASE5 viene anche chiamata Thick Ethernet e può essere utilizzata come dorsale per altre reti Ethernet.5 metri. Il motivo per cui serve questo ulteriore cavo di derivazione viene dal fatto che il cavo coassiale rigido usato nelle reti 10BASE5 può compiere solo curve molto larghe e difficilmente può essere sagomato in modo da avvicinarsi a tutti i nodi presenti. per coincidenza. La seguente Figura mostra un tipico collegamento con 10BASE5. e fornisce al transceiver anche l’alimentazione di cui ha bisogno. sarebbe comunque necessario usare il drop-cable perché i transceiver montati in “groppa” al coassiale devono distare per lo meno 2. A entrambi gli estremi di questo segmento deve essere montato un terminatore. anch’esso con 100 stazioni.5 metri. Inoltre. Per facilitare il posizionamento del transceiver. Si tratta di un particolare tipo di connettore che chiude il percorso del cavo collegando un polo all’altro mediante un resistore da 50 Ohm che scarica qualsiasi segnale in arrivo affinchè non si rifletta all’indietro e non vada a collidere con altri impulsi trasmessi. uno dall’altro. Questa limitazione serve a ridurre al minimo i disturbi che una stazione può provocare sulla vicina. La sua lunghezza massima è di 50 metri.alla base del transceiver. Il cavo impiegato può avere un rivestimento in pvc oppure in teflon. bisognerebbe ricorrere a un ripetitore che amplifichi e ritemporizzi il segnale. usando il drop-cable per arrivare alle singole stazioni. detto anche tappo di terminazione. molto vicino a un gruppo di workstation. che siano multiple di 2. Una regola delle reti Ethernet dice che si possono collegare fino a 5 segmenti con 4 ripetitori tra loro (in questo caso per una lunghezza massima di 2460 metri). anche se solitamente i tagli vanno da 3 metri a 15metri.

Questo vale anche per l’ultima scheda del segmento. non è necessario disporre di transceiver (che sono già integrati nella scheda) e il cavo è molto flessibile (ha un diametro di circa 5 millimetri). Usa un cavo coassiale (RG58) sottile di diametro 5 millimetri dotato di connettore BNC. A differenza del coassiale grosso. Il nome ci dice che funziona anch’essa a 10 Mbps. con una trasmissione di tipo baseband (un solo canale trasmissivo comune a tutti) e su una distanza massima di 200 metri. mentre all’altro estremo c’è un terminatore di chiusura (tappo). La parte che vediamo davanti s’inserisce nello spinotto che spunta da dietro la scheda. 57 . questa rete è estremamente maneggevole. In questo caso a un estremo del connettore a T entra il cavo che va alla prossima stazione. perciò può essere portato fin sul retro del PC e collegato direttamente al connettore d’interfaccia. Alla pari dell’Ethernet 10BASE5. Il cavo deve avere un inizio e una fine. quindi deve trattarsi di un segmento. Anche qui. Tutte le schede devono collegarsi alla rete attraverso un connettore a T. ma più piccoli e con l’attacco a baionetta (BNC) che è tipico delle reti 10BASE2 su coassiale sottile. Un connettore a T serve a collegare due tratte di cavo coassiale alla scheda di rete. perciò il cavo di collegamento è uno solo e deve snodarsi come un serpentone lungo l’ufficio passando da una stazione di lavoro all’altra. e ai due estremi vanno montati i tappi di terminazione. anche qui la rete ha una topologia elettrica a bus che coincide con una topologia fisica sempre a bus. Rispetto alla versione su coassiale grosso.Altra versione di Ethernet è chiamata 10BASE2. simili a quelli usati nelle reti 10BASE5. Sui due attacchi maschio s’inseriscono invece gli spinotti del cavo entrante e del cavo uscente.

58 . possibilmente. Il cavo coassiale non ha la robustezza di quello usato per le reti 10BASE5 e soprattutto in prossimità dei connettori tende a staccarsi. La distanza minima tra una macchina e l’altra è di 50 centimetri (lunghezza minima di un tratto di cavo) e non 2. di solito). In questo caso le due reti rimangono separate in termini di segmento. Il punto in cui lo spezzone incontra il successivo coincide con il punto in cui un nodo si collega alla rete. Una rete di questo genere può essere facilmente integrata con una rete 10BASE5. diventa poco pratico passare da una macchina all’altra per controllare tutti i connettori e tutte le schede. Il cavo viene venduto in spezzoni già pronti di lunghezza variabile (da 1 metro a 5 metri. Anche il guasto di una delle schede collegate in rete può provocare l’arresto del sistema. La seguente Figura mostra un tipico collegamento con 10BASE2.uno dei due terminatori. staccandoli uno per uno. Quindi 10BASE2 diventa sconveniente quando il numero di stazioni in gioco supera le poche decine. perciò si può raggiungere su entrambi i lati la massima distanza consentita dai rispettivi standard. perciò è abbastanza agevole cablare anche macchine tra loro affiancate. ma da tanti cavi concatenati. Spesso è difficile localizzare esattamente dove il guasto si è verificato e. Il vero pregio consiste nella facilità di montaggio e di espansione della rete. basta usare connettori BNC che abbiano un’estremità sagomata per accettare i connettori Serie N per il coassiale grosso. Si collega anche molto facilmente a una rete 10BASET perchè ci sono in commercio dei concentratori (HUB) per reti su doppino che hanno anche una presa BNC. proprio per i limiti di manutenzione che presenta in caso di guasto.5 metri come nel cavo coassiale grosso usato per l’Ethernet 10BASE5. dovrebbe essere collegato a terra. Qualunque interruzione o cortocircuito provocato su un tratto del coassiale provoca la caduta dell’intera rete e non è possibile ripristinare la connessione fino a che il pezzo difettoso non viene rimpiazzato. se la rete fosse particolarmente estesa. A entrambe le estremità dello spezzone troviamo uno connettore a baionetta BNC. La rete non è composta da un singolo spezzone di cavo. Il rovescio della medaglia di questa rete estremamente economica e versatile è la vulnerabilità. Le reti 10BASE2 sono conosciute col nome Thin Ethernet.

di due palazzi diversi. per esempio. più edifici tra loro. la velocità concessa infine. è superiore rispetto a quella caratteristica dei cavi coassiali ed è quindi possibile progettare una rete basata su fibra che oggi funzioni a 10 Mbps e la cui struttura portante possa essere 59 . invece che sulla tensione. chiamata 10BASE-F. La trasmissione del segnale nei sistemi in fibra ottica è ovviamente basata sulla luce (tipicamente con lunghezza d’onda pari a 850 nm). con un conseguente aumento della sicurezza. che invece racchiudono un fascio di fibre molto più consistente. è realizzata con cablaggi in fibra ottica. La topologia utilizzata in questo caso è quella a stella. La lunghezza massima di ogni tratto in fibra può arrivare fino a 2000 m. tramite un cavo AUI munito di connettore DB-15. Il più grande vantaggio di questo tipo di supporto è ovviamente legato all’insensibilità del fascio luminoso rispetto alle interferenze elettromagnetiche di fondo. tramite fibra ottica (in realtà sono necessarie due linee. ma le singole schede Ethernet sono ora collegate. da quelli che racchiudono in un rivestimento in PVC una sola coppia di cavi a quelli utilizzati per il collegamento. per esempio. inoltre. con un ricetrasmettitore esterno (FOMAU-Fiber Optics MAU) che a sua volta è connesso. una per la trasmissione e una per la ricezione) a un ripetitore.Una versione poco diffusa di Ethernet. Ogni segmento in fibra ottica. I connettori terminali necessari per i cavi a fibra ottica son noti come connettori ST. aspetto che diventa essenziale quando il cavo deve uscire dall’ambiente direttamente controllabile e collegare. Esistono ovviamente diversi tipi di cavi disponibili. può essere connesso solamente a due dispositivi (connessione punto-punto) e non sono permesse diramazioni.

senza doverle attivare tutte immediatamente (basta non collegare al concentratore quei rami che sono temporaneamente inattivi). Questo significa che nel deporre i cavi all'interno dell’edificio si segue un impianto stellare: tutte le connessioni di un certo gruppo confluiscono in un singolo punto dove vengono collegate a un concentratore (HUB). Perciò eventuali interruzioni di cavo o guasti della scheda vengono risolti automaticamente 60 . La seguente Figura mostra la connessione con Ethernet con 10BASE-F. La topologia elettrica è a bus. tuttavia fa in modo che un raggio di questa stella sia elettricamente il prolungamento dell’altro e quindi operi come se fosse un troncone di coassiale ininterrotto. mentre la topologia fisica è a stella. Il concentratore funziona da ripetitore. Il vantaggio di portare tutte le connessioni verso un singolo punto. chiamata 10BASE-T. oltre all’economicità del doppino. comporta due vantaggi importanti: è possibile allestire in anticipo diverse prese in punti uniformemente distribuiti nel locale. inoltre qualsiasi ramo difettoso viene automaticamente escluso senza influire sul funzionamento del resto della rete. L’ampiamente diffusa versione di Ethernet a 10 Mbps. si voglia incrementare la velocità a 100 Mbps.utilizzata anche nel caso in cui. nel futuro. L’impianto elettrico di una rete 10BASE-T è identico a quello di qualsiasi altra rete Ethernet su rame: esiste un solo percorso comune a tutte le stazioni di lavoro e tutto quello che viene trasmesso da una di queste viene automaticamente ascoltato da tutte le altre. è cablata sul doppino telefonico.

la rete 10BASE-T è un po’ più costosa di una rete 10BASE2. Usando l’STP su una rete 10BASE-T si arriva a una tratta massima di 200 metri. Uno spinotto viene inserito direttamente nella scheda di rete e l’altro finisce direttamente nell'HUB. ma è più grande perchè deve contenere otto fili.Unshielded Twisted Pair) dello stesso tipo usato negli impianti telefonici americani. Per inserire una macchina in rete è sufficiente disporre di una porta libera nel concentratore e tirare un cavo che unisca quest’ultimo alla workstation. grazie alle funzioni interne di ripetitore. Di solito. presa per rete Token Ring (bastano 4 fili. In ragione della presenza dell’HUB. Per le reti 10BASE-T basta che il doppino abbia due coppie: una per trasmettere e una per ricevere. ma la differenza si va sempre più assottigliando e tende a scomparire su reti di grandi dimensioni dove i benefici che il doppino offre superano di gran lunga le differenze di prezzo. Ne esistono di due tipi. Va benissimo per una rete 10BASE-T ed è stato utilizzato ampiamente. presa per rete Ethernet (bastano 4 fili). L’unico vincolo è che il tratto di cavo non superi i 100 metri. però. Il segnale parte dalla stazione di lavoro e viaggia sul doppino non schermato perdendo intensità ad ogni metro che passa. Arriva all’HUB che. lo riamplifica e lo ritrasmette a tutte le altre stazioni di lavoro usando segmenti di doppino dello stesso tipo. Assomiglia allo spinotto usato nei telefoni. Naturalmente l’intero percorso che va dalla scheda di rete all’HUB deve essere di categoria 5 e questo include anche le prese a muro e qualsiasi pannello intermedio di cablaggio. 61 . L’unica deroga a questa regola vale per l'impiego del doppino ritorto schermato (STP .Shielded Twisted Pair). perciò viene usato in tutti i nuovi cablaggi. il cablaggio viene realizzato con un doppino a otto fili (quattro coppie) così da poterlo usare per qualsiasi genere di applicazione: collegamento di linea seriale per un terminale (servono otto fili). ma sono diversi dai 4 usati per Ethernet) e via di questo passo. soprattutto nei primi anni Novanta. Un particolare spinotto in plastica (RJ45) viene usato come connettore in tutte le reti che funzionano su doppino. molto più protetto dai disturbi rispetto all’UTP utilizzato comunemente. Il cavo in questo caso è un doppino intrecciato non schermato (UTP . Il doppino di categoria 5 regge velocità fino a 100 Mbps (Fast Ethernet e altre reti di pari velocità) e costa ormai quasi quanto il cavo di categoria 3. Il doppino di categoria 3 è il più economico e consente di trasportare fino a 16 Mbps.dal concentratore che isola la macchina interessata e segnala con una luce gialla che esiste un problema su quella presa.

Qui un segmento contiene solo 2 nodi: la stazione di lavoro e la porta dell’HUB a cui è collegato. La seguente Figura mostra un tipico collegamento con 10BASE-T.La rete 10BASE-T mantiene valida la regola che possono esistere fino a 5 segmenti con 4 ripetitori. 62 . che funge da ripetitore.

allora.10 Fast Ethernet Una prima evoluzione. che possono o meno individuare un dominio di collisione a seconda che si tratti di semplici ripetitori o di SWITCH. Nelle reti Fast Ethernet è possibile avere un meccanismo di accesso al supporto fisico per ognuno dei centri stella. la stessa quantità di dati che ogni singolo pacchetto può trasportare. Interfame Gap Period (IPG) pari 0. Ovviamente è necessario che i nodi della rete. Il meccanismo di controllo di accesso al supporto fisico (MAC) utilizzato nella versione classica di Ethernet era basato sulle collisioni: una singola stazione non era quindi in grado di ricevere e trasmettere nello stesso momento. bit time pari a 10 nsec.3. La topologia delle reti Fast Ethernet è ancora quella a stella e gli elementi principali sono ancora le schede di rete.12 usec (512 bit). lo stesso protocollo CSMA/CD e lo stesso algoritmo di backoff esponenziale binario della Ethernet classica. E’ abbandonato l’uso del cavo coassiale come mezzo trasmissivo e sostituito con il doppino intrecciato o la fibra ottica. definito half-duplex. Fast Ethernet utilizza la medesima struttura dei pacchetti. non è più necessaria la gestione half-duplex e diventa quindi possibile che un transceiver riceva e trasmetta contemporaneamente: si parla in questo caso di funzionamento in full-duplex.96 usec e Slot Time pari a 5. Parametri principali di Fast Ethernet sono: data rate di 100 Mbps. ovvero possono funzionare sia a 10 Mbps sia a 100 Mbps. il transceiver di 63 . della Ethernet classica a 10 Mbps è chiamata Fast Ethernet (IEEE 802. era dovuto al fatto che l’algoritmo CSMA/CD era nato nell’ambito di una topologia a bus con un unico canale condiviso da tutte le stazioni. In questa configurazione. si riesce. i ripetitori e gli SWITCH.3U) e consente velocità di trasmissione fino a 100 Mbps. in termini di velocità. per poterle poi utilizzare al massimo delle loro capacità (si parlerà allora di HUB multispeed). siano in grado di conoscere le potenzialità delle singole stazioni. a realizzare delle connessioni punto a punto. in particolare i ripetitori e gli SWITCH. Secondo le specifiche relative allo standard 10BASE-T. Le schede Fast Ethernet sono in grado di funzionare anche alle velocità previste dalle versioni precedenti di Ethernet. praticamente. Con l’introduzione della topologia a stella e degli SWITCH che instradano il segnale in ricezione solo nella direzione della stazione destinataria del messaggio invece che a tutte le stazioni che si trovano a valle del nodo. nella quale non c’è più un canale condiviso. Questo tipo di funzionamento.

64 . anche quando non è in corso alcuna trasmissione dati. Il collegamento tra stazione e HUB utilizza due doppini in modalità half-duplex. mentre il quarto doppino. uno sempre in trasmissione ed un sempre in ricezione. cioè alternativamente in trasmissione o in ricezione.ogni stazione invia. comunica allo SWITCH la sua velocità di funzionamento. quindi. La 100BASE-T4 è la versione Fast Ethernet funzionante su doppini UTP almeno di classe 3 usando quattro coppie di doppini. Per ottenere la banda necessaria è necessario abbandonare la codifica Manchester. Modificando opportunamente questi segnali. Il transceiver. Verranno descritte qui di seguito alcune versioni di Fast Ethernet. e la sua capacità o meno di funzionare in modalità full-duplex. che contiene informazioni sulle caratteristiche della scheda di rete. dei segnali noti come Normal Link Pulse (NLP) che hanno lo scopo di testare in maniera continuativa l’integrità del collegamento. La trasmissione avviene quindi su tre coppie di doppini contemporaneamente. tutte informazioni che lo SWITCH Fast Ethernet utilizzerà in modo tale da ottimizzare il traffico dei segnali sulla rete. indirizzato all’HUB più vicino. per ottenere quelli che sono denominati Fast Link Pulse (FLP). Questa caratteristica è detta autonegoziazione. in ricezione. serve per permettere all'interfaccia fisica di rilevare la presenza di collisioni. è possibile far coesistere la loro semplice funzione di test con la trasmissione di un messaggio. La seguente Figura mostra un sistema in cui sono presenti reti sia 10 Mbit/s e sia a 100 Mbit/s.

La versione su fibra ottica delle reti Fast Ethernet prende il nome di 100BASE-FX e presenta una lieve differenza nella struttura rispetto alla sorella più lenta 10BASE-F: in questo caso. nella versione 10BASE-F.3: (8/6) = 25 Mbaud. La seguente Figura mostra come collegare un scheda 100BASE-FX. si codificano 6 simboli ternari. collegava la scheda con il ricetrasmettitore FOMAU esterno.Il flusso binario a 100 Mbps viene suddiviso in tre flussi da 25 Mbaud (simboli. cioè la 4B/5B. ma solo in half-duplex e la distanza massima tra stazione e HUB è 100 metri.5/125 micron oppure 50/125 micron quale mezzo trasmissivo e sono utilizzate in coppia: una per il canale di trasmissione e una per il canale di ricezione. al secondo). Con 100BASE-T4 non è possibile la trasmissione full-duplex. La lunghezza massima di un segmento in fibra ottica per reti Fast Ethernet che collega una stazione ad uno SWITCH è 2000 metri.3 Mbps su ogni canale e trasformare ogni ottetto in sei simboli ternari significa associare ad ogni simbolo un’informazione pari ad 8/6 di bit. che consentono di rappresentare 729 valori e questo permette l’introduzione di informazioni aggiuntive per la sincronizzazione del flusso trasmissivo e per il controllo degli errori. 65 . Questa codifica che traduce 8 simboli binari in 6 simboli ternari è chiamata 8B/6T. quindi su ogni canale è necessario trasmettere 33. infatti. Con 100BASE-FX sono consentiti solo SWITCH e non HUB e la modalità di funzionamento full-duplex. Infatti. senza la necessità di passare tramite il cavo AUI munito di connettore DB-15 che. trasmettere 100 Mbps divisi su tre canali significa trasmettere 100/3 = 33. che consentono 256 possibili combinazioni diverse di valori. E’ utilizzata la stessa codifica di Ethernet 100BASE-TX. in questo caso ternari. la fibra ottica viene collegata direttamente alla scheda di rete. Le fibre ottiche impiegate per questo tipo di sistemi sono solitamente multimodali di 62. Con questo schema trasmissivo partendo da 8 bit.

. di categoria 5. L’utilizzo dei singoli cavi è identico al caso della tecnologia più lenta. 0010.La versione più diffusa di Fast Ethernet è la 100BASE-TX. 66 . uno per la trasmissione e uno per la ricezione. ognuno contenente uno dei due valori di segnale. La topologia della rete è a stella nella quale le varie stazioni. così come sono identici i connettori. permette di ottenere 32 combinazioni di simboli. alcune delle rimanenti 16 sono utilizzate per funzioni di controllo. La frequenza di clock del segnale utilizzata sul doppino in trasmissione è 125 MHz. Le modalità di funzionamento possono essere sia half-duplex che full-duplex. sono collegate a SWITCH o HUB. Anche in questo caso non è utilizzata la codifica di trasmissione Manchester. ancora con un’estensione massima di 100 metri. equipaggiate con apposite schede Fast Ethernet. ma una codifica chiamata 4B/5B nella quale un simbolo di 4 bit viene codificato in un simbolo di 5 bit. 1111. Sedici di queste combinazioni sono utilizzate per trasmettere i quattro gruppi di bit 0000. Viene utilizzata un coppia di doppini UTP-CAT5. Ogni gruppo di cinque periodi di clock. 0001. torna anche nella versione evoluta. questo significa che un cablaggio di buona qualità (cavi di categoria 5) realizzato per supportare una rete 10BASE-T può essere utilizzato anche per la versione più veloce. Nel caso di funzionamento full-duplex le stazioni possono trasmettere ricevere contemporaneamente a 100 Mbps. Il doppino telefonico con impedenza caratteristica di 100 Ohm.. protagonista della versione 10BASE-T.

Quindi 4 bit ogni 5 periodi di clock a 125 MHz forniscono i 100 Mbps desiderati per ogni doppino.Le combinazioni utilizzate sono state scelte per fornire transizioni sufficienti al mantenimento della sincronizzazione di clock. 67 .

In questa configurazione tutte le linee hanno buffer. perciò ogni computer o SWITCH è libero di inviare frame quando vuole. Questa modalità è utilizzata quando c’è uno SWITCH centrale collegato ai computer (o ad altri SWITCH) del perimetro. L’obiettivo era rendere Ethernet più veloce mantenendo la compatibilità con tutti gli standard Ethernet esistenti. La modalità normale è quella full-duplex. half-duplex.3.11 Gigabit Ethernet Dallo sviluppo dello standard Fast Ethernet si è arrivati solo qualche anno fa ad una versione 10 volte più veloce. perchè la contesa è impossibile. Lo standard è stato ratificato col nome di IEEE 802. subito soprannominata Gigabit Ethernet. Poichè non si verifica contesa non si utilizza il protocollo CSMA/CD. perchè la linea è full-duplex. Gli SWITCH sono possono gestire più velocità e l’autonegoziazione è supportata come in Fast Ethernet.3Z. Il trasmittente non deve esaminare il canale per vedere se qualcun altro lo sta già utilizzando. incluse le dimensioni massima e minima. il computer è l’unico che può trasmettere e la trasmissione ha successo anche se lo SWITCH sta contemporaneamente trasmettendo un frame a un altro computer. In entrambe le configurazioni ogni singolo cavo Ethernet è collegato a due soli dispositivi. L’HUB non ha un buffer dove memorizzare i frame in arrivo. Tutte le configurazioni Gigabit Ethernet sono punto-punto. adottare lo stesso schema di indirizzamento a 48 bit già in uso e mantenere lo stesso formato dei frame. In particolare Gigabit Ethernet doveva offrire servizi datagram senza acknowledge di tipo multicast e unicast. Sulla linea che collega un computer allo SWITCH. è utilizzata quando i computer sono collegati ad un HUB e non ad uno SWITCH. Nella più semplice configurazione di Gigabit Ethernet due computer sono collegati direttamente tra loro. perciò la lunghezza massima del cavo dipende dalla forza del segnale e non dal tempo che un burst di rumore impiega per propagarsi fino al trasmittente nel peggiore dei casi. che permette al traffico di viaggiare contemporaneamente in entrambe le direzioni. Il caso più comune è quello dove uno SWITCH o un HUB si collega a più computer e ad altri SWITCH o HUB (topologia a stella). Gigabit Ethernet supporta due modalità operative: full-duplex e half-duplex. il dispositivo al suo interno collega elettricamente tutte le linee per simulare il cavo multidrop utilizzato nella Ethernet classica. L’altra modalità operativa. In questa modalità le 68 . Lo standard risponde a tutti questi requisiti.

questo schema è assai efficiente e preferibile alla carrier extension. Poichè il frame minimo (di 64 byte) può essere trasmesso 100 volte più velocemente rispetto alla Ethernet classica. anche nel peggiore dei casi. La conseguenza di queste due osservazioni è che Gigabit Ethernet supporta il controllo di flusso detto XON/XOFF: l’apparato su un estremo della connessione trasmette un frame di controllo speciale all’altro. quindi allo standard sono state aggiunte due funzionalità che aumentano la portata. l’hardware aggiunge ancora i dati riempitivi. chiamata carrier extension. permette al trasmittente di inviare una sequenza concatenata di più frame in una singola trasmissione (il burst-limit è pari a 65536 bit).953 frame. Per esempio. La velocità di 1 Gbps è decisamente alta. La prima funzionalità. Poichè questo riempimento è aggiunto dall’hardware trasmittente ed è rimosso dall’hardware che riceve i dati. dice all’hardware di aggiungere dei dati di riempimento dopo il frame normale in modo da estendere la dimensione del pacchetto fino a 512 byte. Se il burst totale è minore di 512 byte. Le nuove funzionalità estendono il diametro della rete a 200 metri. La seconda funzionalità. la distanza massima risulta 100 volte più corta: 25 metri. utilizzare 512 byte di banda per trasmettere 46 byte di dati utente (il carico utile di un frame da 64 byte) comporta un’efficienza del 9%. in quell’intervallo di 1 msec possono accumularsi fino a 1. la trasmissione di un frame da 64 byte a 1 Gbps di velocità si concluderebbe quando il frame ha percorso appena un centesimo della distanza massima. chiamata frame bursting.collisioni sono ancora possibili. Naturalmente. Se un numero sufficiente di frame è in attesa di trasmissione. Il buffer si sovraccarica anche quando un computer su una Gigabit Ethernet scambia dati con un computer collegato a una Ethernet classica. perciò è richiesto l’utilizzo del protocollo CSMA/CD standard. Con un cavo lungo 2500 metri. se un ricevitore è occupato in qualche altra operazione anche per 1 msec e non svuota il buffer di input su qualche linea. il software è ignaro della sua esistenza e non è necessario apportare alcuna modifica ai programmi esistenti. Non è accettabile una distanza di 25 metri. Ciò consente di preservare la proprietà essenziale per cui il trasmittente sta ancora trasmettendo quando il burst di rumore torna indietro. dicendo di sospendere la trasmissione per un certo 69 .

I parametri principali di Gigabit Ethernet: data rate di 1000 Mbps. Ogni byte da 8 bit è codificato sulla fibra usando 10 bit. Poichè ci sono 1024 possibili codeword per ogni byte in input. Verranno descritte qui di seguito le varie versioni. Con segnali che viaggiano a 1 Gbps attraverso le fibre. Le fibre ottiche possono avere diametro 9. Da pochissimo tempo è stato approvato il nuovo standard che consente una velocità di trasmissione a 10 Gbps (IEEE 802. Interframe Gap Period (IPG) pari a 96 nsec e Slot Time pari a 512 nsec (4096 usec con carrier extension). I laser a 0. Gigabit Ethernet supporta cavi in rame e in fibra ottica.85 micron sono più economici. c’è un po’ di margine nella scelta dei codeword consentiti.3AE). Sono ammesse due lunghezze d’onda: 0.3 micron per 1000BASE-LX. ma non funzionano su una fibra monomodale. I LED non sono in grado di operare così velocemente. bit time pari a 1 nsec. tuttavia non tutte e sei le combinazioni sono possibili e la distanza massima dipende dalla combinazione scelta. che sono selezionati seguendo due regole: • nessun codeword può avere più di quattro bit identici consecutivi. con un parametro che indica la durata della pausa. da qui il nome 8B/10B. 50 e 62. Per il controllo di flusso si utilizzano frame PAUSE. perciò è necessario utilizzare laser.periodo di tempo. Il primo è per la modalità monomodale e gli ultimi due sono per le fibre multimodali. 70 . Il sistema di codifica scelto è chiamato 8B/10B. Gigabit Ethernet che utilizza la fibra ottica si suddive in due sottocategorie denominate 1000BASE-SX e 1000BASE-LX.85 micron per 1000BASE-SX e 1. la sorgente luminosa deve essere accesa e spenta in meno di 1 nsec. Le caratteristiche sono mostrate nella seguente Tabella: Gigabit Ethernet utilizza nuove regole di codifica sulle fibre ottiche.5 micron.

In totale si ha: 2 bit * 4 doppini * 125 MHz = 1 Gbps.• nessun codeword può avere più di sei 0 o sei 1. il codificatore sceglie sempre il codeword che aiuta a bilanciare il numero di 0 e di 1 trasmessi. Sono consentiti cinque livelli di tensione invece di quattro per poter disporre di combinazioni per la gestione dei frame e le operazioni di controllo. 11 o uno speciale valore di controllo. L’attenzione al bilanciamento di 0 e 1 è necessaria per minimizzare la componente DC del segnale. per garantire la contemporanea trasmissione e ricezione di segnale necessaria per il funzionamento in full-duplex è necessario riuscire a separare il segnale in ingresso da quello in uscita. Questo schema permette a un singolo simbolo di codificare 00. 01. 71 . e quindi permettere il passaggio senza modifiche attraverso i trasformatori. a molti byte in input sono assegnati due diversi codeword. 10. pertanto sono inviati 2 bit di dati per doppino o 8 bit di dati per ciclo di clock. Per poter garantire un bit rate di 1000 Mbps utilizzando il doppino come mezzo fisico è necessario utilizzare quattro coppie di conduttori che comporta una complicazione nella struttura dei circuiti posti al termine di ogni coppia di conduttori perchè. Il sistema di codifica utilizzato per l’invio dei simboli sui 4 doppini è chiamato PAM-5. Inoltre. La frequenza del clock del segnale che viaggia sui conduttori è di 125 MHz. che garantiscono che il ricevitore rimanga sincronizzato con il trasmettitore. Gigabit Ethernet che impiega i cablaggi in rame. E’ nota col nome 1000BASE-TX. utilizza 4 doppini UTP di categoria 5. La lunghezza massima dei doppini che collegano un computer ad un HUB o SWITCH è 100 metri. e per tenere il numero di 0 nella fibra il più vicino possibile a quello degli 1 . Queste scelte sono state fatte per ottenere nel flusso un numero sufficiente di transizioni. Ogni simbolo è codificato usando uno dei cinque livelli di tensione disponibili. Quando ha la possibilità di farlo.

9. Politecnico di Torino. Industrial Ethernet University: “Introduction to Ethernet”. Industrial Ethernet University: “Introduction to Fast Ethernet”.Reti locali e modelli di interconnessione Bus di campo”. University of Wuppertal. 2004. L’encicopledia libera. 15.Vittorio Trecordi: “Introduzione alle reti di telecomunicazione”.3. P. Politecnico di Torino. Ing. Desnoyers: “Chapter 5: The data link layer”. Birgit Vogel Heuser: “Introduction of Real-Time solutions”. 12. Politecnico di Milano. 10.Prof. 14. 1998.Stefano Cazzani: “Industrial Ethernet”.Stefano Panzieri: “Le reti informatiche . 2005. 72 . M. Dr. Industrial Ethernet University: “Using Ethernet with fiber optics”.Silvano Gai: “LAN – Local Area Networks”. A. Industrial Ethernet University: “Multi-segment Ethernet networks”. 7. Prof. 6. 4. Quarta edizione. 2. Capone: “Reti locali parte A”. N. www.Roveri: “Reti per applicazioni telematiche”.org. Tanenbaum: “Reti di calcolatori”.Blefari-Melazzi. University of Massachusetts. 2001. A. 11. Università degli studi di Roma”. 5. Le Monografie. Pietro Nicoletti: “La rete locale Ethernet”. 13.Listanti. 8. 1. 3.Wikipedia.12 Bibliografia Andrew S.wikipedia.

un singolo lungo cavo. Benchè nelle reti che impiegano il doppino sia sempre necessario usare la 73 . esisteva un solo segmento e questo veniva di fatto identificato con l’intera rete e con il traffico che vi circolava. Quando si collegano due o più reti si parla di Internetworking. In particolare ogni concentratore funziona da ripetitore nei confronti di ciascuna porta. nella definizione originale. di cui due riservati unicamente all’interconnessione di ripetitori (segmenti di collegamento) e tre capaci di ospitare nodi (stazioni di lavoro. finisce per essere composto solo da due nodi: da una parte la stazione di lavoro. Se si vogliono superare questi limiti. Le prime reti Ethernet funzionavano su cavo coassiale (10BASE5 e 10BASE2) e identificavano nel segmento la tratta di coassiale che costituiva un singolo percorso elettrico non interrotto. Le ragioni che spingono ad installare più LAN e ad interconnetterle tra loro sono principalmente due: la prima è quella di coprire un’area geografica maggiore a quella che può supportare una singola rete locale.Capitolo 4 DISPOSITIVI DI RETE E VLAN 4. se su una LAN il traffico aumenta sensibilmente gli utenti possono risentire della lentezza che ne deriva. Spesso. fino a un massimo di cinque segmenti. si allargava la rete creando un secondo segmento. il numero di sistemi di elaborazione che possono essere connessi sulla LAN. eccetera) al loro interno. occorre installare un’altra LAN e collegare le due reti. soprattutto con le reti su coassiale sottile.1 Introduzione Una singola rete locale è soggetta a limiti che riguardano la sua estensione. Quando si aggiungeva un ripetitore. il segmento. Perciò il concetto si estese all’insieme delle stazioni collegate tra loro da un percorso elettrico ininterrotto con tutto il traffico relativo. server o stampante e dall’altra la porta del concentratore. ad esempio collegare alla LAN più computer rispetto a quelli che può supportare. Infatti. la seconda è quella di ripartire il traffico su più LAN. server. la velocità con cui i dati possono essere trasmessi tra i computer e la quantità di traffico che può sostenere. chiuso alle due estremità dai terminatori. un modo per superare il problema è proprio quello di ripartire il traffico su più reti tra loro interconnesse. Con l’avvento delle reti su doppino.

più sofisticato del ripetitore. Il BRIDGE. alias segmento. le collisioni hanno raggiunto livelli vertiginosi da comprometterne il funzionamento. Con la crescita delle dimensioni delle reti. indipendentemente da quale sia il concentratore a cui sono collegate. l’abitudine del recente passato ci porta ad associare al segmento l’idea di numerosi nodi e quindi ad estenderne il significato fino a coprire l’intero dominio di collisione. ma memorizza e filtra tutti i messaggi in transito facendo passare solo quelli che sono effettivamente diretti al segmento dall’altra parte. Col progresso tecnologico le funzioni software sono state integrate permanentemente in circuiti hardware dedicati a svolgere questa funzione e perciò molto più veloci. A questa porta si può collegare un intero segmento Ethernet (dominio di collisione) oppure una singola stazione. 74 . ciascuno assegnato a una porta individuale dello SWITCH. ma anche le stesse collisioni. amplificando allo stesso modo anche le collisioni. e le sue dimensioni aumentano con l’aggiunta di altre connessioni. Chiunque colleghi almeno due macchine a un HUB ha creato un dominio di collisione composto da due segmenti. è un vero e proprio computer che svolge il lavoro di filtro via software. lasciando passare solo il traffico incrociato e filtrando tutte le collisioni e tutto il traffico che deve rimanere all’interno di un solo dominio di collisione. Il dominio di collisione unifica tutti i segmenti della rete e tutti i ripetitori per il fatto che questi ultimi si limitano ad amplificare il segnale di modo che possa proseguire nel segmento successivo. cioè il tratto di cavo elettricamente ininterrotto che collega i nodi. In quest’ultimo caso la singola stazione può usare tutta la linea per sè senza il rischio d’incorrere in collisioni. Questo genere di apparecchiatura prende il nome di BRIDGE e non solo svolge le funzioni di ripetitore. che funge da ponte tra i due domini. Ogni singola macchina collegata alla rete costituisce un segmento elettrico a sè stante. Quindi. ma fa parte di un singolo dominio di collisione che unisce tutte le altre macchine collegate allo stesso HUB. salvo quelle dovute accidentalmente a disturbi incontrati sulla linea. vale a dire di suddividerle in diversi domini di collisione usando un altro oggetto.definizione originale di segmento. tutte le macchine collegate allo stesso dominio di collisione condividono non solo il medesimo traffico. Si è deciso di segmentarle. Sono nati così gli SWITCH che altro non sono che tanti BRIDGE miniaturizzati e completamente integrati in hardware.

Un ulteriore aumento di efficienza è possibile suddividendo i domini di broadcasting. comune a entrambe. Riunire questi utenti in gruppi di lavoro presenta il vantaggio di confinare il flusso dei dati così che non esca dalla cerchia di coloro che ne hanno effettivamente bisogno. Ad esempio le porte 2. L’inserimento di un BRIDGE o di uno SWITCH tra due segmenti permette di creare diversi domini di collisione. aggiungendo altri segmenti che tuttavia rimangono un singolo dominio di collisione e perciò arrivano rapidamente a saturare la propria capacità trasmissiva. Molti SWITCH moderni riescono a costruire LAN virtuali VLAN. 4 e 6 potrebbero far parte della VLAN numero uno e le porte 3. La porta 4. poichè laddove le collisioni sono unicamente una prerogativa delle reti Ethernet. 75 . I BRIDGE e gli SWITCH regolano il traffico unicamente sulla base dell’indirizzo di destinazione e lasciano passare quelle trame che non hanno un destinatario conosciuto oppure sono destinate a più nodi contemporaneamente: multicast e broadcast. comunque distribuite. l’eccesso di broadcasting affligge allo stesso modo anche le reti Token Ring e qualsiasi altra tecnologia. ma in LAN di grandi dimensioni serve un controllo più severo sul broadcasting e anche sulla diffusione indiscriminata di trame a stazioni non conosciute. cioè qualsiasi pacchetto trasmesso viene ricevuto da tutti e chiunque trasmetta in contemporanea a un altro genera una collisione che viene propagata a tutti i nodi del segmento. evitando gli inconvenienti di un’effettiva separazione fisica tra le LAN: rigidità di riconfigurazione e difficoltà a condividere risorse comuni. La costruzione di una VLAN passa per l’assegnazione delle porte di uno SWITCH. E questo ha efficacia su qualsiasi tipo di LAN. cioè insiemi di macchine che si comportano come se fossero reti separate (quindi non condividono il broadcast) e che possono essere composte da macchine collegate a uno o più SWITCH. Finchè la rete ha dimensioni contenute questo è più che sufficiente. Una rete Ethernet rappresenta al proprio interno un singolo dominio di collisione. 4 e 8 appartenere alla VLAN numero due. e permette in ogni caso di avere risorse condivise tra due o più VLAN. riducendo il traffico spurio e aumentando l’efficienza dell’impianto nel suo complesso. L’uso di HUB consente di ampliare le dimensioni fisiche della rete.In tal modo l’efficienza si spinge fino alla quasi totalità della capacità trasmissiva teorica della rete Ethernet. facilita la gestione del traffico e della rete. potrebbe essere magari quella di un server condiviso.

Lo svantaggio del filtro è che rallenta le operazioni di switching. poichè la struttura interna dello SWITCH non viene modificata e non viene nemmeno cambiata la disposizione delle connessioni fisiche (il doppino) sulle sue porte. Non è conveniente inserire in rete di un numero elevato di elementi di elaborazione preposti al controllo del trasferimento di informazione (aumentano i costi di impianto e di manutenzione). infatti bisogna soffermarsi a esaminare la trama. Il raggruppamento non avviene a livello fisico. cioè riconoscendo un tipo di traffico da un altro.Il gruppo di lavoro può essere liberamente disperso all’interno della rete. Il primo elemento centrale è di nuovo lo SWITCH. ma ciò nonostante conservare la propria identità. Le reti locali forniscono il servizio di comunicazione a calcolatori distribuiti all’interno di un edificio. Nel primo caso si esamina ciascun pacchetto in arrivo per vedere se possiede le caratteristiche idonee per essere spedito su una data porta. l’etichetta viene rimossa così da ricostruire il formato originale. Qualsiasi SWITCH che la riceve deve semplicemente leggerne l’identificatore e decidere come comportarsi. Prima che la trama esca dall’ultimo SWITCH e venga consegnata al destinatario. Le estensioni coperte si aggirano normalmente attorno a qualche centinaio di metri. Quel che cambia è il modo il cui le trame sono inoltrate sulla rete e il modo in cui queste sono filtrate così che non si propaghino all’esterno del gruppo di lavoro. Le due tecniche primarie in questo ambito sono il packet filtering (filtraggio dei pacchetti) e la packet identification (idendificazione del pacchetto). Inoltre i singoli membri manterranno l’affiliazione alla VLAN indipendentemente dai propri spostamenti fisici. 76 . I parametri di filtro vengono definiti in una tabella all’interno dello SWITCH e possono agire sia sull’indirizzo fisico contenuto nella trama (bloccando broadcast e multicast e qualsiasi pacchetto indirizzato a una macchina non elencata nel gruppo) sia sul contenuto interno di questa. Alla rete si richiede esclusivamente di fornire il mezzo trasmissivo in grado di porre in comunicazione tutti i sistemi ad essa collegati. senza di esso il concetto di VLAN non potrebbe nemmeno esistere. La tecnica d’identificazione del pacchetto consiste nell'aggiungere una speciale etichetta all’inizio della trama prima di farla proseguire all’interno del tessuto di commutazione che compone la VLAN.

Il ripetitore non modifica il segnale in alcun modo.4. Nel caso di segnale digitale. L’impiego di questo oggetto è necessario perchè oltre un certo limite il segnale tende a indebolirsi (a causa dell’attenuazione) e diventa irriconoscibile e non più interpretabile dalle stazioni che lo ricevono. salvo filtrare gli eventuali disturbi. il ripetitore provvede anche a rigenerare e risincronizzare il segnale restituendogli la sua forma squadrata originale che tende a smussarsi con la distanza. In questo modo i due segmenti diventano come uno solo. La velocità di trasmissione è la stessa della rete su cui viene impiegato. il ripetitore ritrasmette anche qualsiasi collisione che si è verificata su uno dei due segmenti a cui è collegato. 77 . In una rete Ethernet.2 Ripetitore Il Ripetitore è un dispositivo hardware usato per aumentare la lunghezza di una rete locale o di una qualsiasi linea di trasmissione oltre il limite imposto dal cablaggio in uso amplificando il segnale che arriva da una tratta e che deve essere fatto proseguire sulla tratta successiva. Il Ripetitore opera al Livello 1 (strato fisico) del modello ISO/OSI come mostrato nella seguente Figura.

78 . e la trasmissione deve essere ripetuta. Infatti l’HUB non distingue i segmenti di LAN e ritrasmette tutti i segnali che riceve. Ciò crea anche delle limitazioni al numero di nodi che si possono connettere nella LAN. La conseguenza del comportamento dell’HUB è che la banda totale disponibile viene ridotta ad una frazione di quella originaria. cioè un dispositivo di rete che funge da nodo di smistamento di una rete di comunicazione dati organizzata a stella. ovvero se due calcolatori collegati a porte diverse trasmettono insieme.3 HUB Un HUB rappresenta un concentratore. si verifica una collisione.4. L’HUB è un dispositivo che inoltra i dati in arrivo da una qualsiasi delle sue porte su tutte le altre. non è possibile connettere segmenti Ethernet di tipologia e di velocità diversa in quanto l’HUB non è ne fornito di buffer. Nella seguente Figura è mostrata una tipica connessione tra HUB. quindi è considerato un dispositivo di Livello 1 (Strato fisico) nel modello ISO/OSI in quanto ritrasmette e rigenera semplicemente i segnali elettrici e non i dati. Può quindi essere definito anche come un ripetitore multiporta. Questo permette a due dispositivi di comunicare attraverso l’HUB come se questo non ci fosse. Un HUB crea un unico dominio di collisione unendo tutti i calcolatori o le reti connessi alle sue porte. Un HUB non ha bisogno di riconoscere i confini dei dati che lo attraversano. a causa del moltiplicarsi dei dati inviati. Inoltre. a parte un piccolo ritardo nella trasmissione.

Il BRIDGE ha quattro funzioni principali: • la ricezione dei pacchetti. • la ritrasmissione dei pacchetti. che possono anche riguardare l’indirizzo della sorgente ed il tipo di protocollo. L’utilizzo di BRIDGE porta ad un aumento della banda complessiva.4. ad esempio Token Ring e Ethernet. • il filtraggio dei pacchetti sulla base dell'indirizzo tenendo conto sia della posizione della destinazione sia delle indicazione del gestore. • l’eventuale traduzione da un formato di sottolivello MAC ad un altro. o eterogenee con formati MAC differenti. 79 . I BRIDGE esaminano gli indirizzi dello strato Data Link per eseguire l’instradamento. possono essere collegate da dispositivi chiamati BRIDGE. ossia hanno lo stesso formato MAC.4 BRIDGE Diverse LAN che devono essere interconnesse. Le LAN da unire possono essere omogenee. La seguente Figura mostra come opera un BRIDGE nel modello ISO/OSI. grazie alla segmentazione della LAN. che operano nello strato Data Link (Livello 2) del modello ISO/OSI. inoltre aumenta anche la portata geografica della LAN stessa e può migliorare l’aspetto della sicurezza grazie alla separazione del traffico in rete.

Per esempio. Una volta scoperte. ma un frame della LAN l indirizzato a C o F deve essere instradato correttamente. i BRIDGE utilizzano un algoritmo di allagamento (flooding): ogni frame proveniente da una destinazione sconosciuta è inviato a tutte le LAN connesse al BRIDGE. tutte le tabelle sono vuote. Un frame della LAN 1 in arrivo sul BRIDGE B1 e destinato alla stazione A viene scartato immediatamente perchè si trova già sulla LAN giusta. la tabella di B2 elencherà A come appartenente a LAN 2. La decisione è fatta confrontando l’indirizzo di destinazione con le informazioni riportate in una tabella locale memorizzata nel BRIDGE.Si consideri la configurazione rappresentata nella seguente Figura: Il BRIDGE B1 è collegato alle LAN 1 e 2. e il BRIDGE B2 è collegato alle LAN 2. Poichè non sanno dove si trovano le varie destinazioni. L’algoritmo utilizzato dai BRIDGE è chiamato di apprendimento all'indietro. La tabella può elencare ogni possibile destinazione e dire a quale linea di output (LAN) appartiene. 3 e 4. tranne a quella di input. Col tempo i BRIDGE imparano dove si trovano le destinazioni. il BRIDGE deve decidere se scartare i dati o inoltrarli. perciò vedono ogni frame inviato su qualunque delle loro LAN e l’esame dell’indirizzo sorgente fa scoprire le macchine collegate alle varie LAN. I BRIDGE operano in modalità promiscua. nel secondo caso deve stabilire su quale LAN immettere il frame. poichè tutto quello che B2 deve sapere è su quale LAN immettere i frame per A. Appena i BRIDGE sono collegati alla rete per la prima volta. Quando arriva un frame. 80 . i frame destinati a una destinazione saranno inviati solo alla LAN contenente la stazione di arrivo.

Per aumentare l'affidabilità. spenti o spostati. il frame è inoltrato.Per esempio. il tempo associato a ogni voce indica quando è stato rilevato per l’ultima volta un frame proveniente da quella macchina. se una macchina rimane silenziosa per alcuni minuti tutto il traffico che le viene inviato dovrà essere trasmesso attraverso tutte le reti fino a quando la stazione non invierà un suo frame. si utilizza la trasmissione su tutte le LAN escludendo la LAN dalla quale è arrivato il frame da ritrasmettere. alcuni siti installano più BRIDGE in parallelo tra coppie di LAN. • se la LAN di destinazione e la LAN sorgente sono diverse. e crea una voce nella sua tabella che prende nota del fatto che i frame diretti a C dovrebbero essere trasmessi alla LAN 2. ma i frame per C provenienti da LAN 2 saranno scartati. Per gestire le topologie dinamiche. un processo nel BRIDGE esamina la tabella e cancella le voci che hanno più di qualche minuto. il BRIDGE annota anche il tempo di arrivo del frame. Ogni volta che riceve un frame la cui origine è già stata registrata nella tabella. spostato in un altro punto dell’edificio e collegato a un’altra LAN torna operativo in pochi minuti senza necessità d’intervento manuale (BRIDGE trasparente). I successivi frame indirizzati a C e provenienti dalla LAN 1 saranno inoltrati. il BRIDGE B1 rileva sulla LAN 2 un frame proveniente da C. come mostrato nella seguente Figura: 81 . A causa di questo algoritmo. Periodicamente. il frame è scartato. il dispositivo capisce che la stazione C può essere raggiunta attraverso la LAN 2. • se la LAN di destinazione è sconosciuta. In questo modo un computer scollegato dalla sua LAN. il BRIDGE aggiorna la voce associata prendendo nota del tempo corrente: di conseguenza. La topologia può cambiare quando le macchine e i BRIDGE vengono accesi. La procedura d’instradamento di un frame in arrivo dipende dalla LAN sorgente e dalla LAN di destinazione seguendo il seguente algoritmo: • se la LAN di destinazione e la LAN sorgente coincidono. ogni volta che crea una voce della tabella. riferendosi alla precedente Figura.

Questa soluzione introduce però nuovi problemi, poichè crea anelli nella topologia. Un semplice esempio di questi problemi è evidente osservando come viene gestito nella Figura precedente un frame F la cui destinazione è sconosciuta. Ogni BRIDGE, seguendo le normali regole di gestione delle destinazioni sconosciute, trasmette il frame su tutte le altre reti di output, in questo caso solo sulla LAN 2. Poco dopo, il BRIDGE B1 riceve F2, un frame con destinazione sconosciuta; questi dati, immessi sulla LAN l, danno origine al frame F3, (non rappresentato nella Figura). In modo analogo, il BRIDGE B2 copia F1, sulla LAN 1 generando F4, in un ciclo che continua all’infinito. Per risolvere questo problema è necessario che i BRIDGE comunichino tra loro e coprano la topologia reale con una struttura spanning tree che raggiunga ogni LAN: in realtà alcune connessioni potenziali tra LAN vengono ignorate, nell’interesse della costruzione di una topologia fittizia priva di anelli. Si consideri per esempio, la seguente Figura (a), si osservano nove LAN interconnesse da dieci BRIDGE; questa configurazione può essere descritta con un grafico dove ogni LAN è rappresentata da un nodo e un arco collega ogni coppia di LAN collegate da un BRIDGE.

82

I1 grafico può essere ridotto a una struttura ad albero sostituendo gli archi con linee tratteggiate come è stato fatto nella Figura (b). Nella struttura ad albero un solo percorso collega ogni LAN a ogni altra LAN. Una volta che i BRIDGE hanno concordato lo spanning tree, tutti gli inoltri tra LAN seguono la struttura. Poichè esiste un unico percorso che collega ogni sorgente a ogni destinazione, gli anelli sono impossibili. Per costruire uno spanning tree, i BRIDGE devono prima di tutto scegliere tra loro quello che dovrà fungere da nodo principale della struttura. Per fare questa scelta, ogni BRIDGE trasmette a tutti il proprio numero di serie, installato dal produttore dell’hardware e garantito come univoco in tutto il mondo. Il BRIDGE con il numero di serie più basso diventa il nodo principale. Quindi viene costruita una struttura ad albero, basata sui percorsi più brevi che uniscono il nodo principale a ogni BRIDGE e LAN; questa struttura è lo spanning tree. Se viene meno un BRIDGE o una LAN si elabora una nuova struttura. Il risultato di questo algoritmo è la definizione di un percorso unico da ogni LAN verso il nodo principale, e di conseguenza verso ogni altra LAN. Sebbene la struttura copra tutte le LAN, non tutti i BRIDGE sono per forza presenti nell'albero (questo per prevenire i cicli). L’algoritmo distribuito utilizzato per costruire la struttura spanning tree è stato stato standardizzato dalla IEEE con la sigla IEEE 802.1D. Anche dopo aver stabilito lo spanning tree, durante le normali operazioni l’algoritmo continua a funzionare per rilevare le modifiche della topologia e aggiornare automaticamente la struttura.

83

4.5 SWITCH Lo SWITCH è un’evoluzione del BRIDGE, che collega tra loro diversi segmenti logici di una rete (diversi domini di collisione) e che consente il passaggio d’informazioni dall’uno all’altro, impedendo tuttavia che l'intero traffico presente su uno di essi si riversi negli altri e viceversa, come invece accadrebbe se la LAN Ethernet non disponesse di alcun filtro al proprio interno. Analogamente al BRIDGE, lo SWITCH opera al Livello 2 del modello ISO/OSI (Data Link Layer). Diversamente dal BRIDGE, lo SWITCH ha un numero di porte maggiore ed è utilizzato prevalentemente per collegare singoli computer in una topologia a stella, come mostrato nella seguente Figura (b).

Di conseguenza, quando l’host A nella Figura (a) vuole inviare un frame all’host B, il BRIDGE riceve il frame e lo scarta, mentre lo SWITCH nella Figura (b) deve inoltrare attivamente il frame da A a B, perchè i dati non possono raggiungere la destinazione in nessun altro modo. Poichè ogni porta è un dominio di collisione indipendente, gli SWITCH non perdono mai i frame a causa delle collisioni. Rispetto al BRIDGE, lo SWITCH esegue tutte le proprie elaborazioni in hardware e non via software, perciò non rallenta il fluire del traffico tra i segmenti. In gergo tecnico si dice che la connessione è wire-speed, cioè lascia transitare i pacchetti alla velocità massima consentita dal tipo di conduttore usato per il cablaggio.

84

Nella realtà, un rallentamento esiste sempre, anche se marginale, e la sua entità dipende dal modo in cui lo SWITCH funziona. Una possibile modalità di funzionamento di uno SWITCH è chiamata store-and-forward. Ogni trama che arriva su una delle porte dello SWITCH viene incamerata per intero in una speciale porzione di memoria (buffer) e quindi scartata o trasferita a un altro segmento a seconda dell’indirizzo di destinazione (indirizzo MAC) indicato al suo interno. L’operazione è velocissima, ma comporta in ogni caso un certo rallentamento perchè la trama deve arrivare per intero nel buffer dello SWITCH prima di cominciare a essere ritrasmessa su un’altra porta (a cui corrisponde un altro segmento, appunto). È la tecnica di commutazione più affidabile, poichè prima di rispedire il pacchetto ci si accerta di averlo per intero e se ne verifica la correttezza attraverso il calcolo del CRC (Cyclic Redundancy Check), ed è l’unica utilizzabile quando si collegano segmenti funzionanti a velocità diverse, come Ethernet e Fast Ethernet, per esempio. Tuttavia su impianti molto veloci, come nel caso di una dorsale che funziona tutta a 100 Mbps o più, il numero di trame in circolazione è molto elevato e il ritardo che si accumula per la registrazione di ciascuna si fa sentire. L’alternativa ideata per eliminare quest’ultimo inconveniente si chiama commutazione cut-through. Non appena lo SWITCH comincia a ricevere una trama su una qualsiasi delle sue porte, ne legge l’indirizzo di destinazione e, se questo corrisponde a un segmento collegato a un’altra porta, inizia immediatamente a trasmettere la trama senza aspettare che questa sia arrivata per intero. In questo modo, dopo aver letto l’indirizzo, la trasmissione in uscita avviene quasi in contemporanea con la ricezione, e il ritardo è minimo (fino a 20 volte inferiore a quello della tecnica store-and-forward). Benchè molto efficace sotto il profilo della velocità, questa tecnica presenta il difetto di far passare anche le trame spurie. Infatti vengono ritrasmesse anche le trame difettose (troppo corte) risultanti da collisioni o da altri problemi nel segmento di provenienza. Lo SWITCH si limita a controllare l’indirizzo e quindi fa passare tutto quel che segue senza controllo alcuno. Inoltre il beneficio del sistema cut-through diminuisce quando il traffico diventa molto intenso e continuo. In questa circostanza è facile che una trama trovi la porta di uscita ancora occupata a trasmettere la trama precedente e perciò deve comunque essere memorizzata per intero nell’attesa di essere trasmessa (si torna quindi alla modalità store-and-forward).

85

Tale fenomeno è ancora più visibile con SWITCH dotati di numerose porte visto che la quantità di traffico complessiva che si genera al loro interno è sempre elevata. Una terza possibile modalità di funzionamento di uno SWITCH è chiamata commutazione fragment-free. Alla pari della modalità store-and-forward, anche qui si aspetta di ricevere l’intera trama prima di iniziare a trasmetterla, però ci si assicura che questa sia almeno lunga 64 byte (il minimo consentito dallo standard Ethernet) e si scarta qualsiasi frammento di trama che abbia dimensioni inferiori. In una rete Ethernet progettata con cura, gli unici errori ricorrenti sono le trame corte provocate da collisioni e per definizione queste hanno una dimensione inferiore ai 64 byte. Uno SWITCH fragment-free è più veloce di uno store-and-forward e al contempo non inonda il segmento di destinazione con frammenti di trama inutilizzabili. Il controllo, tuttavia, non è completo visto che continuano in ogni caso a passare le trame troppo lunghe (che sono peraltro il prodotto di malfunzionamenti sulla rete). Per filtrare queste ultime non esiste alternativa se non quella di utilizzare il sistema store-and-forward: si aspetta che la trama arrivi per intero, la si misura e la si fa proseguire solo se va tutto bene. Ciascuna di queste tre modalità offre vantaggi specifici e l’impiego dell’una piuttosto che dell'altra è anche determinato dallo stato contingente in cui si trova la rete: un’alta percentuale di collisioni, di errori oppure un traffico normale. Di conseguenza gli SWITCH più moderni ed evoluti offrono una funzione chiamata switching adattativo e che consiste nel monitorare costantemente lo stato della LAN e nel passare in modo dinamico a una delle tre modalità di commutazione viste prima. Questo genere di SWITCH consente all’amministratore di rete di regolare le soglie di errore oltre le quali l’apparato abbandona la modalità cut-through per passare al sistema fragment-free oppure eventualmente al sistema store-and-forward. Diventa così possibile definire un modello di comportamento che si adatta perfettamente al proprio impianto. Le modalità di funzionamento cut-through e fragment-free possono essere utilizzate solo se su tutte le porte è presente lo stesso tipo di formato MAC, se tutte le porte hanno la stessa velocità trasmissiva, se la porta di destinazione è libera e infine se il pacchetto non è broadcast o multicast, altrimenti si ricorre allo store-and-forward. Il modo di funzionamento store-and-forward opera come se fosse un bridge multiporta ad alte prestazioni. Può interconnettere MAC diversi e può operare a velocità diverse.

86

Gli SWITCH sono usati per aumentare le prestazioni di una rete segmentando reti grandi in reti locali più piccole e meno congestionate, fornendo ovviamente la necessaria interconnetività tra di loro. Avere segmenti più piccoli significa che poche stazioni competono per avere l’accesso al mezzo trasmissivo; ciò diminuisce la congestione della rete e conseguentemente aumentano le prestazioni, fornendo ad ogni porta una larghezza di banda dedicata, senza richiedere agli utenti di cambiare nessuna delle apparecchiature esistenti. Lo SWITCH, contrariamente all’HUB, può consentire la comunicazione full-duplex: un nodo connesso ad uno SWITCH può contemporaneamente trasmettere e ricevere trame diverse su due canali fisici separati (doppini o fibre ottiche) evitando quindi la possibilità di collisioni. La distanza tra due stazioni full-duplex viene a dipendere solo dalle caratteristiche del mezzo trasmissivo ed è indipendente dal diametro del dominio di collisione. La seguente Figura mostra un confronto tra un HUB ed uno SWITCH.

87

Questo non solo è importante per ragioni di sicurezza e riservatezza dei dati. I vantaggi principali che si ottengono da tale assegnazione derivano dall’isolamento del traffico dei vari gruppi di lavoro al livello Data Link. Le stazioni appartenenti ad una VLAN sono logicamente interconnesse a livello Data Link. normalmente un ROUTER. Le VLAN si basano su SWITCH VLAN compatibili progettati in modo speciale. Altro vantaggio che deriva dall’introduzione delle VLAN è rappresentato dalla riduzione di costi e ingombri: invece di diversi SWITCH. prese di alimentazione elettrica. su una infrastruttura trasmissiva comune senza alcun intervento a livello fisico e configurando gli SWITCH via software da postazione remota.6 Reti locali virtuali (VLAN) La tecnologia delle reti locali virtuali (VLAN) fa riferimento alla capacità offerta dagli SWITCH e dai ROUTER di configurare più reti logiche sopra un’unica rete locale fisica. cioè più reti locali virtuali. è possibile utilizzare un solo SWITCH con molte porte. L’interoperabilità tra le reti virtuali è garantita da una unità di internetworking esterna. Ogni VLAN è costituita da un insieme di segmenti di rete locale che possono comprendere una singola stazione (segmenti punto-punto) o un gruppo di stazioni (segmenti condivisi). anche se fisicamente sono collegate su segmenti diversi. come mostrato nella seguente Figura: 88 . ma possono avere anche HUB lungo il perimetro esterno.4. La possibilità di creare reti locali virtuali da assegnare ai vari gruppi di lavoro permette un’elevata flessibilità in quanto non è necessario che i componenti di un gruppo occupino spazi fisicamente contigui. ma anche perchè consente di mantenere separato il traffico di multicast e broadcast delle diverse reti virtuali. risparmiando in costi di acquisizione e manutenzione. Operando unicamente a livello di centro di gestione della rete è possibile creare più domini. spazio occupato.

In tal modo. con un solo schema è possibile rappresentare sia la disposizione fisica sia la disposizione logica della rete. Spesso le VLAN vengono battezzate con nomi di colori. l’amministratore di rete decide quante VLAN creare. quali computer collegare e quale nome assegnare a ogni VLAN. Come esempio. si considerino le quattro LAN della seguente Figura (a): 89 .Per impostare una rete basata su VLAN.

bisogna aggiornare le tabelle dentro B2 sostituendo la lettera W con le lettere GW. Il BRIDGE B1 riceve il frame e scopre che proviene da una macchina della VLAN grigia. ma anche la porta di B1 diretta a B2 passerebbe da GW a G poichè i frame bianchi che entrano in B1 dalle LAN 1 e 3 non dovranno più essere inoltrati a B2.Otto macchine appartengono alla VLAN G (grigia) e sette appartengono alla VLAN W (bianca). Le quattro LAN fisiche sono collegate mediante due BRIDGE. Si supponga che la macchina A stia trasmettendo un frame in modalità broadcast. ma dal punto di vista logico un cavo multidrop e un HUB sono la stessa cosa. i dati devono essere inoltrati su tutte le porte contrassegnate dalla lettera G. Bl e B2. Questo vale per il traffico ordinario (unicast) e per quello multicast o broadcast. BRIDGE e SWITCH per distinguere il colore dei frame in arrivo e le VLAN di destinazione possono utilizzare i seguenti tre metodi: 90 . perciò non inoltra il frame in quella direzione. Per far funzionare correttamente le VLAN. Se la macchina F diventa grigia. Con B2 la storia è diversa: in questo caso il BRIDGE sa che non ci sono macchine grigie sulla LAN 4. allora la porta diretta alla LAN 2 deve passare da GW a G. non soltanto le porte di B2 dirette alle LAN 2 e 4 verrebbero contrassegnate con la lettera G. che una porta può essere etichettata con più colori VLAN. La Figura (b) mostra le stesse VLAN e le stesse macchine collegate tramite SWITCH dove a ogni porta è connesso un solo computer. il frame è trasmesso a entrambe. Usando un cablaggio a doppini centralizzato ci potrebbero anche essere quattro HUB (non mostrati nella Figura). Se uno degli utenti della LAN 4 cambia reparto e si sposta sulla VLAN grigia. nei BRIDGE o negli SWITCH devono essere impostate delle tabelle di configurazione. i dati arrivano solo alla LAN 2. solo che qui tutte le porte che vanno a un dato computer sono etichettate con un solo colore perchè ogni porta conduce a una sola VLAN. Poichè B1 ha solo altre due porte ed entrambe sono contrassegnate dalla lettera G. Nella Figura (b) accade la stessa situazione. Quando arriva un frame. per esempio dalla VLAN grigia. In questo caso. Queste tabelle indicano quali VLAN sono accessibili attraverso le varie porte (linee). perciò inoltra i dati su tutte le porte etichettate con la lettera G (tranne la porta di input). Si può notare osservando la Figura (a). Ora si supponga che tutte le macchine di LAN 2 e di LAN 4 diventino grigie.

• a ogni porta è assegnato un colore VLAN. osservare l’indirizzo MAC o addirittura esaminare il carico utile. Se una scheda Ethernet è VLAN compatibile. Quando arriva un frame. in particolare. per esempio per classificare tutte le macchine IP come appartenenti a una VLAN e tutte le macchine AppleTalk come appartenenti a un’altra VLAN. ma non per la porta diretta alla LAN 1. Perciò. Se il computer invia un frame a uno SWITCH VLAN compatibile. Lo standard VLAN è stato approvato dalla IEEE con la sigla IEEE 802. per scoprire la VLAN di provenienza il BRIDGE o lo SWITCH non deve far altro che estrarre l’indirizzo MAC e cercarlo nella tabella interna. in B1 questa proprietà vale per la porta diretta alla LAN 3. Nel primo metodo ogni porta ha un’etichetta che rappresenta un colore VLAN. il primo BRIDGE o SWITCH compatibile VLAN che riceve il frame aggiunge i campi. In queste condizioni è possibile mischiare le VLAN su una LAN fisica. I campi VLAN sono effettivamente utilizzati solo dai BRIDGE e dagli SWITCH. non dalle macchine degli utenti. Nel secondo metodo.1Q. Per stabilire la VLAN di appartenenza di un frame. e l’ultimo dispositivo sul percorso del frame li rimuove. oppure a ogni indirizzo IP è assegnato un colore VLAN. il BRIDGE o lo SWITCH ha una tabella che elenca l’indirizzo MAC a 48 bit di ogni computer collegato al dispositivo. ma funziona solo se tutti i computer collegati a una porta appartengono alla stessa VLAN. un BRIDGE o uno SWITCH potrebbe assegnare un numero VLAN a una porta. per utilizzare le VLAN devono essere presenti nella rete BRIDGE e SWITCH VLAN compatibili con lo standard IEEE 802. Il nuovo formato contiene. Per consentire la creazione di una VLAN è necessario modificare il formato del frame Ethernet standard. lo SWITCH costruisce un nuovo frame dotato di 91 . un’etichetta VLAN. come accade nella LAN 1 in Figura (a). Il terzo metodo permette al BRIDGE o allo SWITCH di esaminare il carico utile del frame. genera direttamente frame etichettati secondo lo standard IEEE 802. abbinato alla indicazione della VLAN di appartenenza di quel computer.1Q. • a ogni indirizzo MAC è assegnato un colore VLAN. Nella Figura (a).1Q e nella commutazione sono utilizzate queste etichette. Se un computer trasmittente non genera i campi VLAN. • a ogni protocollo di strato 3.

3 come mostrato nella seguente Figura: La modifica è rappresentata dall’aggiunta di un due campi lunghi 2 byte ciascuno. quello leggero trasmesso in tempo reale e quello insensibile al tempo per migliorare la qualità del servizio (QoS) su Ethernet. il suo valore è sempre 0x8100 che evidenzia il nuovo formato del frame. Poichè questo numero è maggiore di 1500. Il primo campo è il VLAN protocol ID. tutte le schede Ethernet lo interpretano come un tipo e non come una lunghezza.etichette basandosi sulla sua conoscenza della VLAN del mittente (usando la porta. deve riportare il frame al suo formato originale prima di trasmettere i dati. l’indirizzo MAC o l'indirizzo IP). non ha più importanza la compatibilità della macchina trasmittente. Con 12 bit è possibile identificare fino a 4096 VLAN diverse. Con 3 bit disponibili è possibile distinguere fino a 8 livelli di priorità diversi. In modo analogo. Il principale è il VLAN Identifier che occupa i 12 bit di ordine più basso. E’ utile dare uno sguardo al formato del frame IEEE 802. Lo SWITCH necessita di avere al suo interno una tabella indicizzata in base alle VLAN che indichi le porte da utilizzare e se sono oppure no compatibili con VLAN. Il secondo campo di 2 byte (TAG) contiene tre sottocampi. I1 campo di 3 bit Priority permette di distinguere il traffico pesante trasmesso in tempo reale.1Q confrontandolo col formato IEEE 802. In base al valore di priorità. A causa di questa aggiunta deve essere ricalcolato il valore del campo Checksum. la trama 92 . Ogni porta dello SWITCH può essere configurata con valore di priorità da 0 a 7. uno SWITCH che deve inviare un frame etichettato a un computer che non prevede i campi VLAN. Da quel punto in poi. Questa è l’informazione più importante che permette di identificare la VLAN di appartenenza del frame.

93 . in quanto lo SWITCH deve guardare solo da quale porta viene un pacchetto per attribuirgli un VLAN Identifier. per esempio. che però appartengono a VLAN diverse. • analisi del pacchetto: lo SWITCH che riceve il pacchetto lo esamina in dettaglio. Viceversa.1P. In sostanza indica se gli indirizzi MAC del frame sono in forma canonica oppure no. ad una porta di uno SWITCH possono essere collegati diversi host. oppure i pacchetti vengono attribuiti ad una VLAN sulla base dell’indirizzo MAC o IP dell’host da cui provengono. Lo standard IEEE 802. L’attribuzione può avvenire in base aprotocollo incapsulato nel frame. L’ultimo bit si chiama CFI (Canonical Format Indicator). Una porta di uno SWITCH su cui viaggiano pacchetti con il VLAN TAG è detta trunk port. La sua presenza indica che il carico utile contiene. Come è stato detto precedentemente. L’appartenenza di un host ad una VLAN può essere definita secondo diversi criteri: • porte: ciascuna porta di uno SWITCH è configurata per appartenere ad una data VLAN. e decide a quale VLAN attribuirlo sulla base del suo contenuto. quando un frame etichettato raggiunge uno SWITCH VLAN compatibile. Tutti i pacchetti provenienti da quella porta saranno taggati con l’ID della sua VLAN.1Q descrive come costruire dinamicamente la tabella. Questo è il metodo più diffuso e più semplice da implementare.5 (Token Ring) che deve raggiungere un’altra LAN IEEE 802. un frame IEEE 802. una su cui viaggiano pacchetti senza VLAN TAG è detta access port.all’interno dello SWITCH viene inserita in una coda a diversa priorità per essere poi inviata sulla porta di uscita. Il modo di utilizzo del campo Priority è stabilito dal protocollo standardizzato dalla IEEE con la sigla IEEE 802.5 passando attraverso una Ethernet. In questo modo. e su questa porta verranno inviati solo pacchetti provenienti dalla sua VLAN. lo SWITCH utilizza l’ID della VLAN come indice per trovare nella tabella la porta da utilizzare per la trasmissione.

2005. 2001.Vittorio Trecordi: “Introduzione alle reti di telecomunicazione”. Industrial Ethernet University: “Choosing the right Industrial Ethernet switch”. INN.D. 3. Industrial Ethernet University: “Introduction to Spanning Tree Protocol”.Pietro Nicoletti: “La rete locale Ethernet”. 16.Industrial Ethernet University: “Multi-segment Ethernet networks”. 2. Contemporary Controls: “The ABCs of selecting the proper Industrial Ethernet switch”. Industrial Ethernet University: “Introduction to Switch technology”.Rivista: “Brescia Ricerche n. Andrew S. switch sincronizzazione e norme”. Industrial Ethernet University: “Introduction to Virtual LANs”.wikipedia. 9.University of Massachusetts. Università degli studi di Brescia.4. 10. Dr. www. 7. A. University of Wuppertal. Capone: “Reti locali parte A”. Tanenbaum: “Reti di calcolatori”.Paolo Ferrari: “Comunicazioni industriali su Ethernet.Peter Desnoyers: “Chapter 5: The data link layer”.52”. Fulvio Risso: “LAN – Aspetti avanzati”. Industrial Ethernet University: “Hubs versus switches”. Ing. 2005.Wikipedia. 22. 2003. 4.7 Bibliografia 1. Le Monografie.org. 11. 21. 19. 15. Politecnico di Torino. CSEM Centre Suisse d’Electronique et de Microtechnique SA. 20. 13. 8. Politecnico di Milano. Birgit Vogel Heuser: “Introduction of Real-Time solutions”. 6. 5.Prof. Politecnico di Torino.Stefano Cazzani: “Industrial Ethernet”. Intelligent Ethernet and EtherNet/IP Deployments.Prof. Quarta edizione.Prof.N-TRON: “Industrial Ethernet in industrial environment”. 17.TEC. J. 94 . Cysco System. L’encicopledia libera.Industrial Ethernet University: “Using trunking to increase backbone performance”. 12. 2004. 14. 18. 2004. Decotignie: “Real-Time systems 2-Real-Time networking Ethernet”.

che molto spesso è posta in luoghi che richiedono anche più giorni per essere raggiunti. taratura e configurazione remota. dall’altro la trasmissione via Ethernet avviene a 100 Mbit/sec (e anche oltre) e. Con la teleassistenza è infine possibile riversare gli aggiornamenti software. collegati tra loro con tecnologie di comunicazione standard. Questa forma di comunicazione. senza la necessità che il personale tecnico debba fisicamente recarsi sulla macchina. per citarne alcuni. allarmi. le quantità di dati trasferibili sono praticamente illimitate. Con l’utilizzo delle tecnologie IT (Information Technology) e di Internet. Un ulteriore vantaggio è costituito dalla possibilità di dialogare con la macchina (e con tutti i suoi componenti) via Internet tramite appositi moduli di teleassistenza. Tutti gli utilizzatori dei bus di campo pensano alle possibilità offerte da Internet come a un sogno: telediagnostica. consente all’utilizzatore del parco macchine di tenere sotto controllo tutti i parametri di processo dello stabilimento e al costruttore del macchinario di intervenire tempestivamente alla risoluzione degli eventuali problemi legati al processo in esecuzione. Contemporaneamente la più che collaudata tecnologia fieldbus (bus di campo) rimarrà sul mercato ancora per diversi anni.1 Introduzione Il futuro della tecnologia dell’automazione è orientato sempre più verso sistemi distribuiti con intelligenza locale. si è in grado di compiere queste attività in tutto il mondo su interfacce aperte con strumenti comuni: Ethernet con TCP/IP e browser come Internet Explorer. con protocolli di trasmissione come FTP. eseguono in maniera completamente indipendente i propri compiti. I sistemi. di recente sviluppo nel mondo industriale. Se da un lato l’attuale tecnologia fieldbus opera con velocità di trasferimento che raggiungono i 12 Mbit/sec e le quantità di dati di non più di poche centinaia di byte. In aggiunta viene richiesto un continuo accesso ai dati dal livello di gestione al livello di campo. 95 .Capitolo 5 INTERNET PROTOCOL SUITE 5. supervisione intelligente da siti remoti e accesso ai dati pienamente libero mediante strumenti che siamo abituati a utilizzare tutti i giorni.

Viceversa. sull’impianto e a livello di campo. Di particolare interesse è il protocollo TCP/IP. infrangendo quindi il loro sogno. Lo svantaggio è che le prestazioni del protocollo TCP/IP sono molto sensibili al traffico in rete: più sono gli utenti che vogliono “parlare” contemporaneamente. è abbastanza semplice per il costruttore di macchine rendere disponibili dati “puliti” verso l’alto. Infatti. E questo è inaccettabile quando si deve fare un controllo di processo: in nessuna condizione deve esserci una perdita di prestazioni. Per gli operatori è ormai abbastanza chiaro il confine esistente fra la piattaforma Ethernet e i bus di campo tradizionali. nel quale i dati vengono suddivisi in tanti pacchetti e trasmessi uno per volta. Qualcosa che in passato si era tentato di fare eseguire ai sistemi informativi. controllare. Ma proprio la necessità dei gateway dimostra che i due mondi sono ancora distinti. Ma questo non è assolutamente vero. chi costruisce macchine trova sempre più richieste da parte dell’utente di poterle avere in rete. 96 .Subito dopo però. Integrare un fieldbus con Internet significa quindi fare sì che i messaggi trasmessi dal fieldbus siano strutturati secondo TCP/IP. Ethernet è fondamentale per trasferire grosse quantità di dati verso l’alto. Ma è noto che i fornitori di sistemi informativi fanno una grande fatica a scendere verso il basso e andare a leggere i dati sulle macchine. Ethernet sta diventando un’alternativa ai bus di campo sempre più interessante. poterle monitorare. Oggi esistono numerosi gateway che permettono di collegare il mondo dei fieldbus al mondo Ethernet. eccetera. Pur rimanendo ancora qualche dubbio sull’uso di Ethernet come bus di controllo. gli utenti sono tuttavia spaventati da eventuali attacchi di pirati informatici che potrebbero entrare nel processo e alterarlo. Tutto questo perchè si è portati a pensare che Internet equivalga al solo World Wide Web. che quindi potrà essere ritrasmesso) e la possibilità di fare trasmettere enti diversi sulla stessa linea fisica: un concetto totalmente diverso dalle vecchie reti commutate. A sua volta. minori diventano le prestazioni. Ciò assicura una maggiore sicurezza di comunicazione (eventuali errori hanno un effetto limitato al singolo pacchetto. L’introduzione di Internet nell’automazione industriale deve essere vista come la possibilità di utilizzare le tecniche e gli standard di Internet sul processo.

inoltre. 2. stampanti. Internet è una realtà nell’automazione industriale già da diversi anni. il cablaggio di sensori e attuatori veniva realizzato in modo dedicato. eccetera. delle nuove possibilità offerte da Internet nell’automazione industriale descritte in precedenza in questo Paragrafo. Negli ultimi 10 anni. 3. In passato. la definizione più corretta dovrebbe essere Ethernet-TCP/IP (nella quale sono definiti i Livelli 1. degli uffici pubblici. l’interesse e le opportunità che può offrire anche nel settore dell’automazione industriale. con l’avvento di una miriade di sistemi standardizzati e proprietari. noti come Internet Protocol Suite o più semplicemente Protocollo TCP/IP dal nome dei due principali protocolli da cui è costituto. Concretamente. In base a quanto detto sopra. In tale ambito sono presenti i deterministici bus di campo. Concretamente attraverso un connubio con Ethernet. Ethernet-TCP/IP è la rete che collega computer. sensori. abitazioni private.… degli uffici di una industria. vale la pena di dare una descrizione dell’insieme dei protocolli su cui è basato il suo funzionamento. è possibile ottenere da una rete Ethernet-TCP/IP il determinismo. delle banche. impiegarla di conseguenza come bus di campo ed avvantaggiarsi. quando nel linguaggio comune ci si riferisce ad Ethernet (che definisce solo i Livelli 1 e 2 del modello ISO/OSI).Con l’avvento delle tecnologie dell’informazione e della telecomunicazione si sta verificando una svolta epocale nel panorama dei sistemi d’automazione industriale. 2 del modello ISO/OSI). Ora nasce l’esigenza di coordinare varie le celle tra loro e di collegarle con le reti Ethernet e Internet dell’azienda per gestire i processi di produzione e garantire il servizio e la manutenzione in remoto. considerando la diffusione di Internet a livello mondiale. il TCP e l’IP. Non è la rete impiegata per il collegamento di controllori. in realtà si considera per “scontato” che il Livello 3 (Rete) e il Livello 4 (Trasporto) del modello ISO/OSI siano occupati dall’insieme dei protocolli che consentono il funzionamento di Internet. Più propriamente. attuatori a livello di campo di un impianto industriale a causa della mancanza di determinismo (vedere al Capitolo 7). 4 del modello ISO/OSI) piuttosto che solo Ethernet (nella quale sono definiti solo i Livelli 1. Grazie ad opportuni accorgimenti (vedere al Capitolo 7). 97 . si è passati alla connessione mediante bus di campo all’interno delle singole celle automatizzate. Normalmente ai giorni nostri.

Tra il modello di riferimento ISO/OSI a sette strati ed il modello TCP/IP a quattro strati. • Lo strato Internet del modello TCP/IP corrisponde allo strato della Rete del modello di riferimento ISO/OSI. • Lo strato dell’Applicazione del modello TCP/IP combina gli strati della Sessione. i cui due principali sono appunto il TCP (Transmission Control Protocol) e l’IP (Internet Protocol). L’architettura TCP/IP non dà nessuna specifica in questo livello e richiede solo la garanzia che il calcolatore possa trasmettere i pacchetti di dati provenienti dallo strato sovrastante Internet sulla rete. Il modello TCP/IP comprende tutte le questioni che riguardano la rappresentazione dei dati e il mantenimento delle sessioni nell’ambito delle definizioni di una applicazione. nello strato della Rete TCP/IP.2 Modello TCP/IP e Modello ISO/OSI Il nome completo del modello TCP/IP è TCP/IP Internet Protocol Suite ed è un insieme di protocolli di trasmissione. Entrambi si occupano dei servizi di indirizzamento ed instradamento. Non fa distinzione tra le schede di rete in senso fisico ed i loro driver e questo permette di implementare il TCP/IP in qualunque topologia di rete. della Presentazione e dell’Applicazione del modello ISO/OSI. La pila dei protocolli che costituiscono il modello ISO/OSI e il modello TCP/IP sono rappresentati nella seguente Figura: 98 . si possono fare i seguenti confronti: • Il modello stratificato TCP/IP unifica lo strato Fisico a quello del Collegamento Dati del modello ISO/OSI.5. • Lo strato del Trasporto in tutti e due i modelli permette che si stabiliscano sessioni di comunicazione da un capo all’altro tra due host.

99 . Il protocollo TCP gestisce anche il controllo di flusso. l’SMTP e il POP3 per la gestione della posta elettronica. l’HTTP per l’esplorazione del World Wide Web. Il protocollo TCP è un protocollo affidabile orientato alla connessione che permette a un flusso di dati emessi da un host di raggiungere senza errori qualsiasi altro host della rete Internet. Il flusso di dati entrante viene suddiviso in pacchetti discreti e ogni pacchetto viene passato allo strato Internet sottostante. Esempi di applicazioni che utilizzano il protocollo TCP sono l’HTTP.Nello strato Applicazione del modello TCP/IP si trovano protocolli di livello superiore come il TELNET per la gestione dei terminali virtuali. l’FTP. In caso che dei pacchetti di dati vengano persi. provvede alla loro ritrasmissione. Nell’host di destinazione il processo TCP ricompone i pacchetti ricevuti per formare il flusso dati di uscita. il DNS per la mappatura degli indirizzi IP in indirizzi simbolici ed altri. per garantire che una sorgente veloce non sommerga un ricevitore lento con una quantità di pacchetti maggiore di quella che è in grado di gestire. l’FTP per lo scambio dei file. Nello strato Trasporto del modello TCP/IP sono presenti due protocolli: il TCP (Transmission Control Protocol) e l’UDP (User Datagram Protocol). il TELNET e l’SMTP.

reti ATM e altre ancora. ma preferiscono gestire queste funzioni autonomamente. Token Ring. Questo significa che il protocollo IP non svolge alcun controllo o misurazione per assicurarsi che l’host destinatario abbia ricevuto con successo le informazioni. I pacchetti di dati IP possono essere persi a causa di interferenza sul canale di trasmissione o per il sovraccarico della rete. la suddivisione e l’instradamento dei pacchetti di dati. ad esempio Ethernet. Lo strato Internet svolge tre funzioni principali: l’indirizzamento. L’Internet Protocol (IP) risiede in questo strato dell’insieme stratificato di protocolli TCP/IP. E’ impiegato diffusamente nei casi in cui la consegna rapida dei pacchetti di dati è più importante dell’accuratezza.UDP invece è un protocollo non affidabile e non orientato alla connessione che viene utilizzato da applicazioni che non richiedono il controllo di flusso e la garanzia di ordinamento offerta dal TCP. reti di accesso PPP. 100 . possono arrivare parecchie volte o in un ordine differente rispetto a quello in cui sono stati trasmessi. il Voice over IP e la trasmissione audio-video in streaming. Esempi di applicazioni che utilizzano il protocollo UDP sono il DNS. Il protocollo IP è supportato da quasi tutte le reti. Il protocollo IP offre la consegna di informazioni senza connessione e non garantita.

l’intestazione ed i dati provenienti dal livello superiore diventano la sezione dei dati del livello immediatamente inferiore. Le informazioni discendono attraverso gli strati della rete sull’host mittente e cambiano il proprio formato in ciascuno strato. I dati che provengono dagli strati superiori sono incapsulati con informazioni di intestazione dallo strato immediatamente inferiore come si può vedere nella seguente Figura: Nella Figura si è adottato un modello ibrido tra ISO/OSI e TCP/IP in cui lo strato di Rete del modello TCP/IP è stato suddiviso negli strati Collegamento e Fisico già visti nel modello ISO/OSI.3 Incapsulamento Il modello di riferimento TCP/IP descrive il modo in cui le informazioni si fanno strada da un’applicazione su di un sistema host ad un’applicazione su di un altro sistema host. I dati non possono saltare uno strato mentre scendono attraverso il modello TCP/IP. Mentre i dati discendono attraverso gli strati.5. 101 . Questo semplifica il processo della trasmissione e consente lo sviluppo di nuovi protocolli. poichè questi devono semplicemente interagire con gli strati sopra e sotto a quello in cui sono implementati.

la combinazione tra l’intestazione dello strato precedente ed i dati è incapsulata con l’intestazione dello strato successivo. Quindi nell’host destinatario avviene l’esatto contrario di ciò che accade nell’host mittente: ad un pacchetto dati in arrivo viene rimossa l’intestazione di uno strato prima di essere passato allo strato superiore. i bit sono nuovamente convertiti in un’intestazione del Collegamento con i suoi dati. Infine. in modo tale che i dati abbiano di nuovo lo stesso formato che avevano al momento della trasmissione dallo strato corrispondente dell’host mittente. sono gli indirizzi IP degli host mittente e destinatario che consentono poi l’instradamento dei pacchetti tra i due host attraverso la rete. L’intestazione del Collegamento include anche gli indirizzi fisici degli host mittente e destinatario (per esempio gli indirizzi MAC Ethernet). coassiale. Questo assicura che gli host coinvolti nella trasmissione di messaggio siano in grado di comunicare in modo attendibile l’uno con l’altro. per esempio un’intestazione TCP o UDP. i dati (che ora comprendono l’intestazione dello strato Trasporto ed i dati originali ricevuti dagli strati superiori) si sistemano in un pacchetto che contiene un’intestazione Internet (intestazione IP). mentre nell’host mittente ad un 102 . Quando i dati arrivano all’host destinatario. Quando le informazioni si spostano verso l’alto attraverso gli strati della rete. Nella Figura è mostrato che ai dati è aggiunta un’intestazione al Livello Trasporto. fibra ottica o altro). allo strato Fisico. Questa intestazione Internet comprende gli indirizzi logici dell’origine e della destinazione degli host (indirizzi IP). In una rete interconnessa con TCP/IP. Allo strato del Collegamento. A ciascuno strato si staccano le informazioni di intestazione dello strato precedente. Allo strato Internet. come i dati discendono attraverso l’host a sinistra. l’intestazione Trasporto e i dati sono incapsulati con un’intestazione del Collegamento (ad esempio il frame Ethernet visto nel Capitolo 3) che definisce il modo in cui le informazioni saranno trasportate attraverso l’interfaccia della rete sulla rete fisica. il flusso di bit associato all’intestazione del Collegamento ed i suoi dati si convertono in un formato che consente la trasmissione delle informazioni su di un mezzo fisico (doppino. l’intestazione Internet. Ciascun dispositivo sulla rete richiede l’inclusione di una intestazione per connettersi con il dispositivo successivo della rete. ciascuna intestazione serve a determinare in che modo spostare i dati verso gli strati superiori.La Figura mostra che.

pacchetto dati che deve essere spedito viene aggiunta un’intestazione nel passaggio da uno strato a quello immediatamente inferiore. 103 . Il pacchetto di dati costituito dai dati utili e dalle intestazioni Internet e Trasporto è chiamato datagramma IP.

l’host all’origine impiega il suo gateway predefinito (il ROUTER preferito che un host utilizza per instradare il traffico verso segmenti di rete remoti) per inviare il diagramma IP all’host remoto. Confrontando l’indirizzo IP di un computer destinatario con l’indirizzo IP della 104 . l’Internet Protocol include sia i componenti della rete sia quelli dell’host. questi possono non servirsi della stessa topologia di rete. Normalmente la dimensione massima utilizzata per un datagramma IP (comprendente anche l’intestazione) è minore di quella massima (64 Kbyte). IP usa la tabella di instradamento dell’host mittente per individuare la strada migliore per raggiungere la rete su cui si trova l’host remoto. non è necessario che prima stabiliscano una sessione di comunicazione. La dimensione massima di un datagramma IP è di 64 Kbyte. Nel caso di Ethernet la MTU è uguale a 1500 Byte. La topologia di rete del ricevente può non lavorare con la medesima dimensione del datagramma IP che usa la rete dell’host mittente. i pezzi più piccoli vengono riassemblati nel pacchetto dati originale. Se si suppone che l’host dell’IP destinatario si trovi sullo stesso segmento di rete.4 Protocollo IP Il protocollo IP risiede nello strato Internet del modello TCP/IP. A volte. IP scompone i dati in pezzi più piccoli. il protocollo IP vi aggiunge un’intestazione IP. In questo caso. Affinchè due host comunichino utilizzando il protocollo IP. Altri processi che avvengono nello strato Internet sono la frammentazione ed il riassemblaggio. Come accade per qualsiasi protocollo che fornisce l’indirizzamento in rete. Quando le informazioni arrivano a questo livello dallo strato del Trasporto. quando le informazioni sono trasferite tra i segmenti di rete. Quando i dati arrivano all’host destinatario. L’Internet Protocol fornisce tutti gli indirizzi logici degli host. Se invece determina che l’host destinatario si trova su un segmento di rete remoto. Se nella tabella di instradamento non esiste un percorso esplicito. il datagramma viene inviato direttamente all’host bersaglio. Lo strato Internet determina anche come instradare un datagramma verso un host destinatario. Ciascun host ha in dotazione un indirizzo IP univoco per la rete sulla quale sta lavorando.5. Il protocollo IP funziona in modalità senza connessione (connectionless). ed è detta MTU (Maximum Transfer Unit). I due sistemi si scambiano i dati per mezzo di un sistema di consegna ottimizzato (Best Effort).

di lunghezza 4 bit.propria origine. di lunghezza 8 bit. Throughput e Reliability. Il campo Service Type. eccetto i campi Options e Padding. I sottocampi 105 . Include al suo interno i sottocampi Precedence. Questo campo determina la linea divisoria tra l’intestazione e la porzione dei dati del pacchetto. Teoricamente. Se il computer ricevente non può gestire la versione del protocollo IP specificata nel campo Version. indica la lunghezza dell’intestazione di IP. La lunghezza del campo è di bit 4. Delay. ma si sta lavorando sul protocollo IPv6. Il sottocampo Precedence stabilisce l’importanza di un datagramma. comunica al protocollo IP come occorre gestire il pacchetto IP. i pacchetti a priorità più alta dovrebbero essere instradati verso l’indirizzo di destinazione più velocemente rispetto a quelli con priorità inferiore. Il formato di un pacchetto IP è riportato nella seguente Figura: Il campo Version indica quale versione del protocollo IP è utilizzata per formattare il datagramma IP. Il campo Length. Più il numero è alto e più il pacchetto è importante. l’IP può determinare se il pacchetto deve essere instradato verso l’host destinatario o se è possibile mandarglielo direttamente. Il campo Length viene sottratto dal campo Packet Length per determinare dove cominciano i dati. Questo sottocampo di tre bit può variare da un valore zero (normale) ad un valore 7 (controllo di rete). semplicemente scarta il pacchetto. Tutti i campi in un pacchetto IP sono infatti di lunghezza fissa. La versione corrente del protocollo è la numero 4 (IPv4).

Quando un pacchetto è frammentato. occorre fornire anche un meccanismo che consenta il riassemblaggio del pacchetto originale una volta giunto all’host di destinazione.Delay. questi campi possono servire a determinare il percorso da intraprendere. contiene la lunghezza totale del pacchetto IP. a volte occorre suddividerli in frammenti più piccoli. Il primo di questi bit è attualmente inutilizzato. Token Ring e FDDI per esempio. un alto throughput ed un’alta attendibilità. Ciascuna topologia è vincolata dalla quantità di dati che può inserire in una singola trama sulla rete. che è di 3 bit. Se i dati giungono ad una rete che non può gestire cornici di queste dimensioni. Il bit MF indica che il pacchetto corrente è seguito da altri pacchetti: nell’ultimo pacchetto di un frammento. Il campo Packet Length. che possano essere trasportati attraverso le altre topologie di rete. il bit MF è impostato a 0. che contrassegna il datagramma originale. controlla la frammentazione. Throughput e Reliability specificano tutti il trasporto desiderato per il pacchetto. Il campo Identification contiene un identificatore univoco. Quando sono disponibili più percorsi per raggiungere una rete remota. Se un pacchetto originale è suddiviso in tre frammenti. ciascuno dei tre ha un identico campo Identification. Questi tre sottocampi sono in genere tutti impostati su 0. Ciò significa che a seguire non vi sono ulteriori pacchetti. le informazioni possono viaggiare fra differenti topologie di rete che comprendono Ethernet. di lunghezza 16 bit. il datagramma viene scartato (dal momento che non è possibile frammentarlo). Le dimensioni di questi frammenti si basano sul formato massimo che può gestire la topologia di rete attraverso la quale il datagramma sta viaggiando. Il campo Flags. I campi Packet Fragmentation ricoprono un ruolo nei processi di frammentazione e riassemblaggio. intendendo con questo l’insieme dei dati e l’intestazione IP. Se il bit DF è impostato su 1. Se sono impostati ad 1. Quando i dati passano tra le diverse topologie. Questo meccanismo si rivela particolarmente utile in quelle circostanze in cui è in corso un test sulle dimensioni dei pacchetti e quindi non bisogna suddividerli in frammenti più piccoli. infatti. In una inter-rete IP. il datagramma non può essere frammentato. Il secondo è il bit Don’t Fragment (DF) e il terzo è il bit More Fragments (MF). indicano che si desidera un basso ritardo. 106 .

Il campo Fragment Offset è utilizzato in associazione con il bit MF durante il riassemblaggio del pacchetto frammentato. pertanto è necessario inviarlo una seconda volta. Il campo Protocol. PIN) assegnato dal Network Information Center (NIC. Il bit MF sarà impostato su 1 ed il campo Fragment Offset sarà impostato su 0. Da ciò ne deriva una ridotta elaborazione a ciascun ROUTER. Il secondo frammento avrà lo stesso ID del pacchetto originale ed avrà ancora il bit MF impostato su 1. Il campo Header Checksum. il bit MF sarà impostato su 0. giunge un messaggio che informa che il pacchetto è stato scartato. Per esempio. Il valore Fragment Offset per questo pacchetto. Un numero di identificazione del protocollo (Protocol Indentification Number. di lunghezza 8 bit. Questo campo aiuta nello spostamento del pacchetto in alto fino al protocollo corretto nel modello a strati TCP/IP. il campo Identification ed il campo Fragment Offset aiutano proprio a determinare come ricomporre questi pacchetti frammentati nel pacchetto originale. sarà impostato su 1400 per questo pacchetto. In quanto ultimo pacchetto. il suo valore diminuisce di uno. di lunghezza 16 bit. quello di UDP è 17. Il campo Time to Live (TTL). Il valore Offset si basa sempre sull’inizio del messaggio. perchè la somma di controllo 107 . di lunghezza 8 bit. Questa somma di controllo vale soltanto per la porzione dell’intestazione del pacchetto. il datagramma viene scartato dal ROUTER in cui si trova attualmente. Il campo Fragment Offset per il secondo frammento sarà invece impostato su 700. la scheda di rete) rappresenta ciascun protocollo. Molte volte. serve ad assicurare che le informazioni dell’intestazione non si siano rovinate durante il transito. Il frammento conclusivo avrà sempre lo stesso ID del pacchetto originale. accadrà quanto segue: il primo frammento riceverà in assegnazione lo stesso ID del pacchetto originale da 1500 byte. Quando il campo TTL raggiunge il valore zero. Ogni volta che il pacchetto attraversa un ROUTER. indica quale protocollo di alto livello è stato usato per creare le informazioni immagazzinate nella porzione dei dati del pacchetto. poiché non seguiranno altri frammenti. indica quanto a lungo un datagramma può esistere su di una rete. Il bit MF. l’host destinatario riceve i pacchetti frammentati non in sequenza. Definisce inoltre il formato della porzione dei dati del pacchetto. All’host mittente. se un pacchetto da 1500 byte deve essere suddiviso in frammenti non più grandi di 700 byte. Il numero protocollo di TCP è 6.

I campi IP Address Source e Destination contengono gli indirizzi IP a 32 bit degli host mittente e destinatario. l’opzione deve essere copiata su tutti i frammenti del pacchetto originale. Ciascuna opzione è lunga 8 bit e consiste in tre sottocampi. i campi appaiono in sequenza nell’intestazione IP. A ciascun ROUTER che il pacchetto attraversa. Il riempitivo assicura che l’intestazione del datagramma sia arrotondata su di un numero pari di byte. rappresentano lo option number. Il campo Options può essere costituito da parecchi codici di lunghezza variabile. La option class è rappresentata da 2 bit e le può essere assegnato uno tra quattro valori. che determina il modo in cui questa opzione deve essere trattata quando un pacchetto origine è frammentato. obbligando quindi a svolgere un nuovo calcolo. Se il copy flag è impostato su 0. Nello strato Internet del modello TCP/IP sono presenti altri due protocolli: il protocollo ICMP (Internet Control Message Protocol) utilizzato per il monitoraggio degli errori degli altri protocolli e il protocollo IGMP (Internet Group Management Protocol) che si occupa di spedire pacchetti in broadcast e multicast. il valore Header Checksum deve essere calcolato di nuovo. In tale caso. I valori 1 e 3 sono riservati per usi futuri e non sono ancora stati definiti. Il primo bit rappresenta il copy flag. che assume significati diversi in base al valore della option class. I contenuti del campo Padding si basano sulle opzioni selezionate per un pacchetto IP. Questi due valori non mutano durante il transito. In un pacchetto IP si può utilizzare più di una opzione. 108 . Se il copy flag è impostato su 1.non è calcolata sull’intero pacchetto. l’opzione deve essere solo copiata sul primo frammento. perché il campo TTL decresce per ciascun ROUTER. Il valore 2 significa che l’opzione serve a scopo di debug o di misurazione. I 5 bit finali. Il valore 0 significa che l’opzione ha a che fare con un controllo del datagramma o della rete.

Lo schema di indirizzamento di IP ha una struttura gerarchica. Un indirizzo IP è costituito da una stringa di 32 bit: possono quindi teoricamente esistere 2^32 (=4. Un indirizzo IP identifica solo un sistema e non uno specifico utente (si ricorda che un generico sistema può essere utilizzato da più utenti o processi). Gli indirizzi IP devono essere unici in tutta la inter-rete. Un indirizzo completo è quindi costituito da due parti. è necessario stabilire un metodo globalmente accettato per identificare ed indirizzare in modo univoco tutti i sistemi. Gli indirizzi dei sistemi connessi ad Internet devono essere unici. in generale. Lo schema di indirizzamento di IP si sovrappone a quello delle sotto-reti che interconnette. I 32 bit totali sono divisi tra Net_Id e Host_Id. una definita all’interno di IP ed un’altra definita all’interno di TCP (o UDP). indirizzi X. Un indirizzo IP identifica prima una porzione di inter-rete a cui un sistema è connesso e poi il sistema all’interno di quella porzione.5 Indirizzi IP Per consentire a tutti i sistemi connessi ad Internet di comunicare tra loro. Ogni indirizzo IP consta di due parti: Net_Id e Host_Id. Lo schema di indirizzamento di Internet è definito all’interno degli strati IP e TCP (o UDP).294.Host_Id E’ importante sottolineare che la componente Net_Id di un indirizzo IP non è necessariamente in corrispondenza con una data sotto-rete fisica. L’identificazione di un utente all’interno di un sistema è affidata ai protocolli di strato superiore (TCP o UDP). La componente Net_Id è in corrispondenza con quella che si è prima definita genericamente come una porzione dell’inter-rete. diversi tra loro e globalmente non univoci (ad es.5. poichè le sotto-reti preesistenti avevano schemi di indirizzi. ma può anche comprendere più sotto-reti fisiche o essere un sottoinsieme di 109 . per facilitare l’operazione di instradamento. numeri telefonici etc.296) possibili indirizzi.25. Ciò ha implicato la necessità di definire un nuovo schema di indirizzamento. ciò facilità la scelta di una strada per raggiungere un dato sistema. Tale porzione può coincidere con una data sotto-rete fisica.).967. L’indirizzo IP completo può quindi essere scritto come: IP_Address = Net_Id. indirizzi Ethernet.

il numero totale di indirizzi di classe B è (2^32)/4. Grazie alla distinzione in classi. Si noti che una trasmissione di tipo multipunto è diversa da una di tipo diffusiva (broadcast). il numero totale di indirizzi di classe A è (2^32)/2. A tal fine si usa anche il protocollo IGMP. ognuna delle quali può contenere diverse migliaia di possibili diversi indirizzi (fino a 65. Il numero totale di indirizzi di classe D è (2^32)/16. • per la classe C: un elevato numero di reti logiche (=2. • per la classe B: un discreto numero di reti logiche (=16. con il termine rete logica. Le cinque classi sono contraddistinte da una lettera. ma ad un predefinito gruppo di destinatari. ognuna delle quali può contenere milioni di possibili diversi indirizzi (fino a 16.384). B e C sono destinate all’utenza normale. si possono perciò avere diverse necessità. Nel seguito. In particolare sono state definite cinque classi.216). il numero totale di indirizzi di classe C è (2^32)/8. mentre la seconda fa riferimento a tutti gli utenti all’interno di una specificata sotto-rete (o perfino a tutti gli utenti di Internet). possono esistere: • per la classe A: un numero ristretto di reti logiche (=128). la lettera D è destinata a comunicazioni di tipo multipunto (multicast).536). 110 . si può usare un apposito indirizzo di tipo multipunto. La suddivisione di un indirizzo IP nelle sue due componenti non è fissa. Il motivo dell’introduzione di queste classi è da ricercarsi nel fatto che Internet si propone di interconnettere diversi tipi di sotto-rete. la lettera E è riservata per usi futuri. se si vuole inviare un messaggio non ad un solo destinatario. la prima fa riferimento ad uno specifico gruppo di destinatari. il Net_Id è di 7 bit e l’Host_Id è di 24 bit. che corrisponde ad una pluralità di host (tale insieme di host è denominato gruppo multicast). caratterizzata da una comune componente Net_Id degli indirizzi IP in essa contenuti. in ognuna delle quali si assegna una frazione diversa dei 32 bit totali alla Net_Id e conseguentemente alla Host_Id. circa la definizione delle reti logiche.777. il Net_Id è di 14 bit e l’Host_Id è di 16 bit.152). si farà riferimento ad una porzione di inter-rete. ognuna delle quali può contenere solo un ristretto numero di possibili diversi indirizzi (fino a 256). Ovvero. • Un indirizzo IP di classe D è invece utilizzato per comunicazioni di tipo multipunto. Le classi A.097.una data sotto-rete fisica. il Net_Id è di 21 bit e l’Host_Id di 8 bit.

Si noti che la scelta di uno schema di indirizzamento gerarchico può portare ad indirizzi non utilizzati e quindi in sprechi. L’organizzazione che si vede assegnare una Net_Id potrà poi suddividere la parte di Host_Id per creare. espresso in una stringa di 32 bit. La notazione in questione si ottiene separando i 32 bit in 4 campi di 8 bit ciascuno. non usati dall’organizzazione responsabile della corrispondente Net_Id. Ad esempio l’indirizzo IP di un particolare sistema. Come già detto. la Internet Network Information Center (INTER-NIC). questa notazione è nota come dotted (puntata) o decimale.758. per le comunicazioni tra persone. ognuna delle quali avrà la stessa Net_Id. ciò spiega l’attuale relativa penuria di indirizzi IP. delle sotto-reti logiche. INTER-NIC assegna però solo la parte Net_Id e quindi una rete logica. all’interno della “sua” rete logica. una rete logica di classe B è concessa solo ad organizzazioni che dimostrino di aver bisogno di connettere ad Internet almeno qualche migliaia di host e così via. ovviamente una rete logica di classe A è concessa in uso solo ad organizzazioni molto grandi (o ad intere nazioni).• Infine il numero totale di indirizzi di classe E è (2^32)/32. questi campi si esprimono poi in decimale invece che in binario. In tal modo. delegando poi l’organizzazione richiedente per l’assegnazione della restante parte dell’indirizzo 1’Host_Id. di documenti tecnici ed anche di programmi applicativi si preferisce invece usare un’altra notazione. non possono essere usati da nessun altro.096. L’INTER-NIC è controllato a sua volta da una autorità amministrativa denominata Internet Assigned Number Authority (IANA). separandoli con un punto. un utente che ha bisogno di un singolo indirizzo IP non deve rivolgersi direttamente all’INTER-NIC. ma può fare riferimento ad un’autorità locale. un indirizzo IP è costituito da una stringa di 32 bit. a fronte dei 3.384 indirizzi teoricamente disponibili per le prime tre classi. Gli indirizzi corrispondenti alla parte Host_Id di una data rete logica. Al fine di assicurare che ogni indirizzo di Internet sia unico è stata costituita un’autorità centrale con il compito di assegnare gli indirizzi. nella relativa notazione dotted è: 111 .

23 si riferisce alla rete logica a cui è connesso l’host 23. deve avere due o più indirizzi IP (oltre ai corrispondenti indirizzi locali).255 si indirizzano tutti i sistemi di Internet (il che in generale non è permesso). Con riferimento alla notazione dotted.100.0.100. in generale.255.255. 112 . sono stati definiti alcuni indirizzi speciali.E’ utile sottolineare che l’indirizzo effettivamente utilizzato da IP è sempre una stringa di 32 bit e la rappresentazione dotted deve essere preventivamente tradotta da un opportuno software prima di essere utilizzata da IP per l’effettivo scambio di informazione. verifiche e per comunicazioni tra processi che operano nello stesso sistema).0. 0. Ad esempio. Infine un indirizzo che inizia con “01111111” (127 nella notazione dotted) è un indirizzo di “rinvio a se stesso” (loopback). I1 campo composto da “0” è invece importante quando si vuole comunicare con un host collegato alla stessa rete logica a cui si è collegati e non si conosce l’indirizzo della rete logica stessa ( è un problema che sorge per alcune applicazioni). Per concludere bisogna precisare che un ROUTER che è collegato direttamente a due o più sotto-reti e quindi.0.255. 0. Con riferimento alla notazione binaria si è stabilito che un campo costituito da zeri (0 nella notazione dotted) significa “questo” ed un campo costituito da uni (255 nella notazione dotted) significa “tutti”.0 si riferisce all’host che origina la richiesta. L’indirizzo 151. a due o più reti logiche. Gli indirizzi con campi uguale ad “1” sono utilizzati per comunicazioni diffusive (broadcast) ovvero per comunicare con una pluralità indifferenziata di sistemi. In aggiunta alle classi. inviando un messaggio all’indirizzo 255. cioè il messaggio inviato ritorna al mittente (usato per prove.0.255 si riferisce a tutti i sistemi della rete logica 151.

a quale processo di un sistema remoto riferirsi. Un processo è eseguito da una o più entità e offre il risultato delle operazioni che svolge a quello che. I processi sono creati e distrutti dinamicamente ed un mittente non sa. uno dei compiti dei protocolli dello strato Trasporto. 113 . in terminologia TCP/IP.5. è definito utente. è quindi quello di distinguere tra i diversi programmi applicativi ed i diversi utenti che fanno uso di un sistema. ovvero UDP (User Datagram Protocol) e TCP (Transmission Contro1 Protocol). ovvero consentono a più utenti e a più applicazioni di utilizzare il calcolatore “simultaneamente” (secondo il principio del time-sharing). Per queste ragioni. In Internet. Infine. si è stabilito che ogni sistema contenga un insieme di punti di destinazione chiamati porte. in generale. in un sistema che consente ad un unico processo di gestire più funzioni. è necessario decidere a quale di queste funzioni il mittente fa riferimento. indipendentemente l’uno dall’altro. Più in generale si parla di processi. Molti dei sistemi connessi ad Internet usano sistemi operativi multi-utente e multi-tasking. ed i sistemi di calcolo che consentono di eseguire più processi contemporaneamente sono detti multi-processing. invece di pensare ad un processo come alla destinazione finale. Ogni porta è identificata da un intero positivo (il valore massimo è 65535) e sarà poi il sistema operativo del sistema a mettere in corrispondenza ogni porta con un relativo processo.6 I protocolli dello strato Trasporto L’indirizzo di destinazione IP fa riferimento in modo generico ad un sistema. consentendogli di inviare e ricevere datagrammi. Un processo di strato Applicativo è il destinatario finale di un datagramma e quindi un protocollo di strato Trasporto deve poter indirizzare i datagrammi consegnatigli dallo strato IP ad uno specifico processo applicativo. Vi è inoltre l’esigenza di poter modificare un processo senza dover poi rendere noto a tutti i possibili mittenti questo cambiamento. Il termine processo comprende sia programmi applicativi di sistema che programmi applicativi direttamente usati dagli utenti. A tal fine occorre stabilire delle opportune procedure. Le destinazioni finali dovrebbero quindi essere identificate in base alle funzioni che eseguono e non in base allo specifico processo che le implementa. ma non distingue a quale utente o a quale applicazione è diretto un datagramma.

in tal modo. tra quelli non già assegnati. Tale indirizzo di porta potrà quindi. la dimensione della fila di attesa. responsabile del processo di destinazione. Quando la fila è piena. ovvero un punto. negozia con quest’ultimo uno specifico indirizzo di porta. ad esempio in UDP la porta numero 53 è associata al processo che implementa il DNS. ovvero alcuni interi positivi non sono stati assegnati a nessun specifico processo. le Well Known Ports sono definite in modo specifico nell’ambito dei protocolli UDP e TCP. situato alla frontiera tra strato TCP (o UDP) e strato dei servizi applicativi. quando si vuole indirizzare una unità di dati ad uno specifico processo si sa quale numero di porta usare. ed in seguito modificare. che realizza una fila di attesa per tutti i datagrammi inviati a quella porta (qualora siano possibili situazioni di congestione). i numeri di porta così predefiniti sono denominati Well Known Ports e tutti coloro che implementano software applicativo per Internet tengono conto di queste assegnazioni. quando un processo applicativo ha bisogno di inviare dei dati ad un altro processo applicativo. che identifica in modo univoco una specifica entità di destinazione. Sono state definite due possibili tecniche per assegnare i numeri di porta. essere usato da altri processi. eventuali unità di dati entranti saranno scartate. In conclusione. 114 . La coppia costituita dall’indirizzo IP e dalla porta è detta socket. L’indirizzo di porta prescelto viene usato solo durante il trasferimento di dati in questione e quindi rilasciato al termine della sessione di trasferimento. I processi applicativi possono specificare. un mittente deve quindi conoscere sia l’indirizzo IP che la porta di destinazione (o SAP di strato Trasporto). Spesso una porta dispone anche di una memoria. ogni unità di dati di strato Trasporto deve contenere delle informazioni atte ad identificare sia la porta di destinazione che quella di origine.In terminologia TCP/IP. ambedue usate contemporaneamente in Internet: • assegnazione universale: la Internet Assigned Number Authority (IANA) ha definito un insieme di numeri di porta in modo che ad un dato processo applicativo è associato uno specifico numero di porta. Si pone perciò il problema di come assegnare i numeri di porta. in seguito. una porta non è altro che il Service Access Point (SAP) dello strato Trasporto. Per poter inviare un datagramma al processo voluto. • assegnazione dinamica: alcuni indirizzi di porta.

Nella seguente Tabella sono mostrate alcune Well Known Ports. 115 .Quest’ultima informazione è necessaria per consentire al processo di destinazione di rispondere a quello mittente.

All’intestazione segue un campo contenente i dati di utente. Non esegue recupero di errore. L’intestazione di 8 byte del datagramma utente è riportato nella seguente Figura: L’intestazione contiene i seguenti campi: • gli indirizzi delle porte di origine e di destinazione (la lunghezza è di 16 bit).5. ovvero i dati generati da un processo applicativo. • una checksum di controllo dell’intero datagramma utente il cui uso è opzionale (la lunghezza è di 16 bit). controllo di flusso e riordinamento delle unità informative. UDP accetta dal livello superiore dati senza vincoli sulla 116 . broadcast e multicast in più non richiede particolari risorse per implementare le sue funzionalità. • la lunghezza del datagramma utente che comprende l’intestazione UDP e i dati (la lunghezza è di 16 bit). Proprio per queste qualità viene usato da diverse varianti di Ethernet Industriale nello scambio dei dati di processo di sensori o attuatori. I messaggi UDP sono di dimensioni contenute e presentano un overhead minimo il che li rende idonei al trasferimento di informazioni di controllo che devono rispettare dei tempi molto stretti. Esso si rivela molto utile per la sua leggerezza. la capacità di operare trasmissioni di tipo unicast. Dal punto di vista dell’affidabilità delle trasmissioni è necessario appoggiarsi a un protocollo superiore. la modalità di trasferimento è senza connessione e non fornisce alcuna garanzia sulla qualità di servizio.7 Protocollo UDP La funzione principale de1 protocollo UDP (User Datagram Protocol) è quella di indirizzare una porta specifica. Le unità di dati di UDP sono di lunghezza variabile e sono denominate datagrammi utente.

esso riguarda non solo tutto il datagramma utente UDP. quando non necessario. la checksum di UDP costituisce l’unico strumento per verificare che i dati siano giunti a destinazione correttamente. e ridurre quindi il carico elaborativo per la trasmissione e la ricezione di un datagramma utente UDP. aggiuntivo a quello di UDP e mostrato nella seguente Figura: Lo pseudo-header viene considerato al solo fine del calcolo della checksum (non viene trasmesso alla destinazione) e risulta costituito da: • gli indirizzi IP della sorgente e della destinazione (contenuti nell’intestazione del datagramma IP ). quando si usa UDP come protocollo di strato Trasporto. in tal modo si può fare a meno di usarla. • il codice IP che identifica il protocollo UDP (uguale a 17). Qualora tale controllo venga impiegato. • la lunghezza del datagramma utente UDP. ma anche un cosiddetto pseudo-header. la verifica di errori non è strettamente necessaria. 117 .loro lunghezza. eventualmente li frammenta e li invia in datagrammi IP distinti come si può vedere nella seguente Figura: La checksum del datagramma utente è opzionale. Infatti se si usano reti altamente affidabili. E’ necessario però osservare che IP non effettua alcun controllo di errore sul campo informativo del datagramma IP. per cui.

invia un pacchetto UDP ad un server DNS contenente il nome dell’host. Il server risponde con un pacchetto UDP contenente l’indirizzo IP dell’host. ossia un dato utente di destinazione in un dato sistema di destinazione. In altri termini. Il solo esame del datagramma utente UDP non fornirebbe tale garanzia in quanto non contiene l’indirizzo del sistema di destinazione.• un byte di padding per fare in modo che la lunghezza complessiva sia multipla di 16 bit. Altri casi in cui è utilizzato il protocollo UDP sono le trasmissioni in streaming di dati multimediali (audio e video) e la telefonia vocale su Internet (Voice over IP). 118 . Un’applicazione dello strato Applicazione del modello TCP/IP che utilizza UDP è il DNS (Domain Name System). la checksum di cui sopra controlla non solo l’intero datagramma utente UDP. Un programma che necessita di un indirizzo IP associato al nome di un host. Il motivo per cui viene considerato tale pseudo-header è quello di verificare che il datagramma utente UDP abbia raggiunto la destinazione corretta. ma anche gli indirizzi IP contenuti nel datagramma IP che ha trasportato il datagramma utente in questione. La porta UDP utilizzata da DNS è la 53.

ovvero essere decisi dinamicamente. mentre la componente IP Address è contenuta nell’intestazione dell’unità dati di IP. Sebbene la sua notorietà derivi principalmente dal suo uso in Internet. ma non strutturato ed effettua operazioni di multiplazione e de-multiplazione. controllo di congestione. Anche in TCP. Ne segue che queste sessioni possono essere viste come multiplate su di un unico indirizzo IP ovvero su di un unico canale IP di comunicazione (non su una connessione IP). controllo di flusso. quindi il traffico dati può procedere in entrambe le direzioni contemporaneamente. un indirizzo IP identifica solo un sistema e non gli utenti o i processi residenti in un sistema. Trasferisce un flusso informativo continuo e bidirezionale. gli indirizzi delle porte possono essere fissati a priori per uno specifico processo. eccetera).25. riordinamento delle unità informative e indirizzamento di uno specifico utente all’interno di un host. Compito di TCP è quindi anche quello di distinguere tra i diversi programmi applicativi ed i diversi utenti che fanno uso di uno stesso sistema.Net_Id La componente port è contenuta nell’intestazione dell’unità di dati di TCP. Le connessioni TCP sono di tipo full-duplex. Come già detto. TCP è sufficientemente generale da poter essere usato anche in altri ambienti (rete telefonica commutata. si è stabilito che ogni sistema contenga un insieme di punti di destinazione chiamati porte. Anche in TCP.8 Protocollo TCP TCP (Transmission Control Protocol) è un protocollo con connessione che svolge le funzioni di controllo e recupero di errore. Come avviene per UDP. ogni porta è identificata da un intero positivo. L’indirizzo di un utente di strato TCP è denominato port. X. LAN. TCP non supporta la modalità multicasting e quella broadcasting. In altri termini si possono usare sia l’assegnazione universale che quella dinamica. saranno perciò distinte solo a strato TCP. mentre l’indirizzo completo nell’insieme dei protocolli TCP e IP è denominato socket ed è costituito da: port@IP_Address = port@Host_Id.5. MAN. 119 . Questo significa che tutte le sessioni di comunicazione in atto tra due specifici sistemi useranno lo stesso indirizzo IP di sorgente e lo stesso indirizzo IP di destinazione. come in UDP.

1 sarà identificata dalla coppia 1069@151. attuare le procedure necessarie per la 120 . e quindi ciò che ha maggiore significato è la definizione di una connessione. 25@160. a differenza di UDP. Si vuole cioè evitare che gli utenti debbano conoscere ed usare direttamente gli indirizzi di porta.100. li frammenta e li invia in datagrammi IP distinti come mostrato nella seguente Figura: Poichè IP offre un servizio di consegna non garantito.100. A conclusione della descrizione del meccanismo di indirizzamento delle porte si aggiunge che è tipicamente responsabilità dei processi applicativi presentare agli utenti un’interfaccia che faciliti tale operazione. TCP deve verificare la corretta ricezione dei datagrammi ed.1 1069@151.4.8. un indirizzo di porta di un sistema può supportare connessioni multiple. TCP è un protocollo con connessione. relativa ai due processi che hanno stabilito la connessione. Internet vuole essere un ambiente in cui le operazioni che gli utenti devono eseguire per comunicare tra loro siano le più semplici possibili (user friendly). 25@160. eventualmente. la porta 1069 dell’host 151. 25@128.8.80.4.8.8.2.18. TCP accetta dal livello superiore dati senza vincoli sulla loro lunghezza.100. Grazie a tale meccanismo.18.80.18 potrebbe gestire contemporaneamente le seguenti connessioni (ed anche altre): 1069@151. In TCP una connessione è identificata da una coppia di socket.100.4.18.1.18 e la porta 25 dell’host 160.8.La gestione delle porte in TCP è però più complessa di quella in UDP poichè alla stessa porta può corrispondere più di un processo. Ad esempio una connessione tra la porta 1069 dell’host 151.100.10.3 Questo avviene perchè ogni connessione è identificata dalla coppia socket indirizzo e socket destinazione e non solo dal socket di destinazione.80.

ciononostante TCP può essere impiegato anche in reti ad alta velocità. TCP offre anche meccanismi di controllo di flusso in grado di impedire il sovraccarico della rete e quindi situazioni di congestione. 121 . trasferimento dati e rilascio. essendo TCP un protocollo con connessione. Inoltre è compito di TCP verificare che i datagrammi giungano a destinazione nella stessa sequenza con cui sono stati trasmessi. saranno presenti le fasi di instaurazione. Infine si ricorda che. Le unità di dati dello strato TCP sono dette segmenti. che contiene i dati di utente. Il formato del segmento TCP è mostrato nella seguente Figura: Ogni riga contiene 32 bit. Il segmento è composto da una intestazione (di dimensione minima di 20 byte) e da un campo informativo. Evidentemente tutte le funzionalità fornite da TCP hanno un costo in termini di aumento del ritardo di trasmissione e di aumento della quantità di informazioni che devono essere trasferite nella rete (overhead). I campi definiti hanno i seguenti significati e funzioni: • Source Port (Porta di Origine) (16 bit): definisce l’indirizzo logico del processo sorgente dei dati.ritrasmissione. che non vi siano duplicati o datagrammi mancanti. Queste funzionalità vengono garantite mediante la numerazione delle unità dati e mediante l’invio di messaggi di conferma (acknowledgement) da parte della destinazione.

ACK: viene posto uguale al valore binario “l” quando il campo Acknowledgement Number contiene un valore significativo. inviare dei segmenti appositi. • Acknowledgement Number (Numero di Riscontro) (32 bit): numero di sequenza in ricezione. RST: viene posto uguale al valore binario “1” quando un malfunzionamento impone il reset della connessione. nel caso di connessioni interattive bidirezionali si usa quindi il meccanismo denominato “addossamento” (piggybacking) dei riscontri. 4. 122 . nei segmenti in cui il bit ACK è posto al valore binario “l”. l’intestazione di TCP è sempre costituita da un numero di bit multiplo di 32 (questo campo è necessario poichè il campo Options è di dimensioni variabili). a tal fine. PSH: viene posto uguale al valore binario “1” quando l’applicazione esige che i dati forniti vengano trasmessi e consegnati all’applicazione ricevente prescindendo dal riempimento delle memorie allocate fra applicazione e TCP e viceversa (solitamente infatti è il riempimento delle suddette memorie che scandisce la trasmissione e la consegna dei dati). URG: viene posto uguale al valore binario “l” quando il campo Urgent Pointer contiene un valore significativo. 3. • Reserved (6 bit): riservato a usi futuri.Numero di Sequenza) (32 bit): numero di sequenza in trasmissione. • Offset (4 bit): contiene il numero di parole di 32 bit contenute nell’intestazione di TCP. è impostato a tutti “0”. ovvero si utilizzano segmenti contenenti dati di utente per inviare i riscontri al trasmettitore senza dover. • Sequence Number (SN . 2. • Control bit (6 bit): i bit di controllo sono: 1. contiene il numero di sequenza del primo byte di dati contenuti nel segmento a partire dall’inizio della sessione TCP (se SN = m ed il segmento contiene n bytes il prossimo SN sarà pari a m + n). questo campo contiene il numero di sequenza del prossimo byte che il sistema che emette tale segmento si aspetta di ricevere. ma i byte in essi contenuti.• Destination Port (Porta di Destinazione) (16 bit): definisce l’indirizzo logico del processo destinatario dei dati. la numerazione dei segmenti è quindi effettuata non numerando i segmenti stessi.

5. Tipicamente sono messaggi di controllo che esulano dalla comunicazione in senso stretto. TCP usa il campo Control per specificare la funzione ed il contenuto di un segmento. il destinatario del segmento può inviare al mittente del segmento stesso senza ricevere riscontri. che viene considerato al solo fine del calcolo della checksum e che risulta costituito dagli indirizzi IP della sorgente e della destinazione (contenuti nell’intestazione del datagramma IP). Come avviene in UDP. A tale traffico ci si riferisce di solito con il nome di out of band. ma anche gli indirizzi IP contenuti nel datagramma IP che ha trasportato il segmento in questione. 6. Maximum Segment Size. Il controllo riguarda quindi anche uno pseudo-header. Ciò consente il piggybacking delle informazioni di controllo. la checksum di TCP controlla non solo l’intero segmento TCP. • Checksum (16 bit): contiene l’informazione di controllo che permette all’entità TCP ricevente di verificare la correttezza del segmento ricevuto. No-Operation. dalla lunghezza del segmento 123 . Si noti che le unità di dati di TCP possono trasportare solo messaggi di controllo (ad esempio per instaurare o rilasciare una connessione) o solo dati di utente o entrambi. • Window (16 bit): dimensione della finestra. contiene il numero di byte che. • Options (Opzioni) (di lunghezza variabile): sono presenti solo raramente: le più note sono End of Option List. Serve come riempitivo aggiunto per far sì che l’intestazione abbia una lunghezza multipla di 32 bit. a cominciare dal numero contenuto nel campo Acknowledgement Number. • Padding (Riempitivo) (di lunghezza variabile): contiene sempre degli zeri. dal codice IP che identifica il protocollo TCP (uguale a 6). SYN: viene posto uguale al valore binario “l” solo nel primo segmento inviato durante il three way handshaking (stretta di mano a tre fasi. • Urgent Pointer (Puntatore Urgente) (16 bit): contiene il numero di sequenza del byte che delimita superiormente i dati che devono essere consegnati urgentemente al processo ricevente. una fase di sincronizzazione fra le entità TCP). ovvero le informazioni di controllo (per esempio i riscontri) possono essere trasportate da segmenti che contengono anche informazione di utente. FIN: viene posto uguale al valore binario “1” quando la sorgente ha esaurito i dati da trasmettere.

è chiamato three way handshaking (letteralmente “stretta di mano a tre fasi”). per vedere se l’host contattato è a sua volta disponibile alla comunicazione. E’ detto a tre fasi perchè nel processo sono necessari tre passi: • il client richiedente invia al server un segmento (pacchetto) e specifica il numero di porta che vuole usare ed il suo numero di sequenza iniziale (ISN). In seguito attende. ossia un dato utente di destinazione in un dato sistema di destinazione. • il server risponde con un segmento contente il suo ISN ed un acknowledgement distinto dell’ISN client. Affinchè possa stabilire una connessione.TCP e da un byte di padding per fare in modo che la lunghezza complessiva sia multipla di 16 bit. Il motivo per cui viene considerato tale pseudo-header è. a cui è sommato il valore 1. Esso crea una sessione orientata alla connessione tra le due macchine. Nel caso ciò si verifichi. Il solo esame del segmento TCP non fornirebbe tale garanzia in quanto non contiene l’indirizzo del sistema di destinazione. 124 . Questo processo. eccoti il resto dell’informazione”. il protocollo TCP ha la responsabilità della trasmissione affidabile di dati tra un nodo e l’altro di una rete. come nel caso di UDP. quello di verificare che il segmento TCP abbia raggiunto la destinazione corretta. • il client riconosce l’ISN del server. il TCP crea ed invia un pacchetto che richiede una connessione alla macchina di destinazione. la macchina di destinazione risponde con un proprio pacchetto che significa letteralmente “sono disponibile per una conversazione e voglio ulteriori notizie da te”. Il formato del pseudo-header di TCP è mostrato nella seguente Figura: Per concludere. attraverso il quale si stabilisce una sessione di comunicazione tra due macchine. La prima macchina risponde dunque con un “bene. ovvero dando origine ad un circuito virtuale. dando inizio alla sessione.

Inoltre. Ogni pacchetto TCP inviato.Il processo di three way handshaking stabilisce dunque il numero di porta che dovrà essere usato ed i numeri di sequenza iniziali di ambedue le parti. sono necessari per realizzare una trasmissione realmente affidabile. Tutti questi accorgimenti. ogni pacchetto contiene anche un numero di riconoscimento che dice alla macchina mittente quali pezzi del messaggio siano effettivamente arrivati a destinazione. un numero di sequenza per i messaggi che debbono essere suddivisi in brani più piccoli ed un valore di controllo per garantire l’invio delle informazioni senza errori. esse debbono scambiarsi determinate informazioni. contiene un numero di porta sorgente e destinazione. Affinchè le macchine possano stabilire e mantenere una connessione. 125 .

sono contenute in un 126 . L’indirizzo IP non è però sufficiente per far arrivare il datagramma all’host in questione. da un indirizzo locale MAC di 48 bit. Le modalità più usate sono le seguenti: • Alcuni protocolli ARP utilizzano delle tabelle. nell’ambito della sotto-rete di appartenenza. • un host invia un datagramma ad un ROUTER affinchè questi lo rilanci poi verso la destinazione finale (in tal caso sicuramente l’host mittente ed il ROUTER apparterranno alla stessa sotto-rete).9 Traduzione indirizzi IP in indirizzi locali Ad ogni sistema connesso ad Internet è assegnato un unico indirizzo IP di 32 bit che lo identifica nell’ambito dell’intera inter-rete (indirizzo globale). I protocolli ARP risiedono nello strato Internet del modello TCP/IP. infatti ogni sistema (host o ROUTER) quando invia un datagramma ad un altro sistema connesso alla stessa sotto-rete ha bisogno delle funzionalità di traduzione.5. tali tabelle. Tale procedura di traduzione è nota con il termine risoluzione di un indirizzo. La risoluzione di un indirizzo avviene secondo diverse modalità. predisposte dall’amministratore della sotto-rete in questione. ognuna specifica di una data tipologia di sotto-rete. l’ultimo ROUTER attraversato ha il compito di rilanciare il datagramma verso l’host di destinazione (prendendo in considerazione anche la componente Host_Id dell’indirizzo e sfruttando i meccanismi protocollari propri della sotto-rete di destinazione). senza passare attraverso un ROUTER (cosa possibile quando sia l’host mittente che quello di destinazione sono connessi alla stessa sotto-rete). L’ultimo ROUTER deve quindi compiere delle operazioni di ricerca per determinare l’indirizzo locale MAC di sotto-rete dell’host di destinazione che corrisponde all’indirizzo globale IP contenuto nel datagramma in arrivo. la sotto-rete di destinazione ha un suo schema di indirizzamento locale e l’interfaccia di rete di un host è indirizzata. ciò accade quando: • un host invia un datagramma IP direttamente ad un altro host. Quando un datagramma arriva alla sotto-rete di destinazione. Infatti. La traduzione di un indirizzo globale in uno locale interessa però anche gli host e non solo i ROUTER. Il problema di tradurre indirizzi globali IP in indirizzi locali MAC è risolto mediante protocolli ARP (Address Resolution Protocol). che contengono coppie di indirizzi IP e dei corrispondenti indirizzi locali.

Y.X.Y. • Altri protocolli ARP ottengono dinamicamente questa corrispondenza usando degli opportuni messaggi di interrogazione: quando un host (o un ROUTER) ha bisogno di risolvere un dato indirizzo IP. • Altri protocolli ARP utilizzano un opportuno algoritmo. Questa tabella svolge una funzione di cache.X. Ciò è possibile quando lo schema di indirizzamento della sotto-rete in questione gode di opportune proprietà e gli indirizzi IP sono assegnati agli host secondo opportune modalità. interroga tali server (denominati server ARP). per potergli inviare una richiesta di risoluzione.X corrisponde al mio indirizzo locale Y. una LAN Ethernet.opportuno server (o in più di un server).X. Quando il protocollo ARP ha risolto un dato indirizzo IP.FF). Nel messaggio di domanda si chiederà quindi: “quale host ha l’indirizzo IP X. ad esempio. tale messaggio perverrà a tutti gli host della sotto-rete e solo l’host con tale indirizzo IP risponderà alla domanda con un messaggio in cui comunicherà: “l’indirizzo IP X.X ?”. senza bisogno di invocare ogni volta il protocollo ARP.FF.FF. quando un host (o un ROUTER) ha bisogno di una corrispondenza tra un dato indirizzo IP ed un indirizzo locale. memorizza la corrispondenza indirizzo IP. un messaggio inviato sul mezzo fisico relativo ad una data sotto-rete perviene sempre a tutti gli host collegati a quel mezzo fisico. Periodicamente le informazioni contenute nella cache vengono cancellate in modo da garantire la consistenza con le (eventualmente) mutate condizioni della topologia di rete 127 . in funzione dei rispettivi indirizzi locali.FF. Quest’ultima modalità è vantaggiosa quando usata in sotto-reti caratterizzate da capacità di trasmissioni diffusive (broadcast) intrinseche come.X. cioè permette di ottenere rapidamente quelle corrispondenze che vengano richieste ripetutamente in brevi intervalli di tempo. i corrispondenti protocolli ARP sono tra i più usati.Y” (ARP Reply). (Si noti che nulla vieta che un server ARP sia fisicamente implementato in un calcolatore che svolge anche funzioni di ROUTER). interroga tutti gli host della sotto-rete a cui è collegato (in modalità broadcast con indirizzo MAC di destinazione uguale a FF. In tal caso.indirizzo locale MAC in un’apposita tabella.Y. Vista la diffusione di tali sotto-reti in Internet. In tal caso l’host deve conoscere l’indirizzo locale di almeno un server ARP. chiedendo a quale host corrisponde quell’indirizzo IP (ARP Request).Y.

quando si vuole interconnettere una di tali sotto-reti ad Internet. Infatti. Anche questa soluzione presenta però degli aspetti critici. Si pensi a cosa ciò significherebbe in una sotto-rete di rilevanti dimensioni. l’intera sotto-rete non sarebbe in condizioni di operare.(tipicamente ogni 20 minuti). In tal caso.NBMA). il ROUTER dovrebbe (se ad esempio la sotto-rete adottasse una modalità di trasferimento con connessione) instaurare delle connessioni verso tutti gli host della sotto-rete ed inviare ad ognuno di essi il messaggio ARP Request. Se si usano più server ARP sorge il problema di coordinarne il funzionamento e di comunicare ad ogni host a quale (o a quali) server ARP rivolgere le proprie richieste. 128 . un ROUTER (o un host) deve emettere un di messaggio ARP Request solo quando deve trattare un datagramma il cui indirizzo di destinazione non sia contenuto nella sua tabella di corrispondenze. il problema della risoluzione degli indirizzi risulta essere una delle tematiche più complesse. Per tali tipi di sotto-rete (denominate Non Broadcast Multiaccess Network . In tal modo. In questi casi si preferisce adottare la prima delle soluzioni proposte in questo paragrafo e cioè l’uso di server ARP. La seguente Figura mostra un esempio di ARP Request. Si noti che risulta molto complesso implementare un protocollo ARP di questo tipo in una sotto-rete priva di capacità di trasmissioni diffusive intrinseche e legate alla sua topologia fisica. quest’ultimo dovrà gestire numerose richieste ed in caso di un suo guasto. se si usa un solo server ARP.

Sono poi presenti due ROUTER. F2. Si supponga che l’host A voglia inviare un pacchetto all’host D (con IP uguale a 192.63. E3) e trasmette al Router 1 tutto il traffico diretto all’host D. E3. a ciascuno dei quali sono assegnati due indirizzi IP. mentre quelli sull’anello principale FDDI sono indicati con F1. Queste due LAN sono collegate ad un anello principale FDDI con indirizzo IP 192.63.31.0 e 192.8.8).0.0 (la LAN 2.Si consideri ora il caso mostrato nella seguente Figura: Sono presenti due LAN Ethernet.31.63.31.0 rispettivamente. l’host A crea nella sua cache ARP una voce contenente la coppia di valori (192. LAN 1 e LAN 2.63. Router 1 e Router 2. e possibilmente delle altre reti locali).31. F3. E5.65. Il problema può essere risolto in due modi qui di seguito descritti: • Il Router 1 potrebbe essere configurato per rispondere alle richieste ARP della rete 192. se si adotta questa soluzione.60. E6. Gli host sulle due LAN Ethernet hanno indirizzi MAC unici indicati con E1. Questa soluzione è chiamata ARP proxy. Il protocollo ARP non funziona perchè l’host D non riceve la trasmissione broadcast (i ROUTER non inoltrano i pacchetti broadcast a livello Ethernet). E4. E2.31.31. con indirizzi IP 192. • Un’altra soluzione consiste nel fare modo che l’host A si accorga immediatamente che la destinazione si trova su una rete remota: in questo caso 129 .

il Router trasmette in modalità broadcast un pacchetto ARP nell’anello e scopre che il suo indirizzo è F3.FF. Il caso di risoluzione di indirizzi inverso è quello in cui è noto un indirizzo locale fisico. comunicando il proprio indirizzo locale.0 (LAN 2) devono essere inviati al Router 2 con IP uguale a 192.tutto il traffico viene trasmesso a un indirizzo Ethernet predefinito (E3 nella Figura) in grado di gestire il traffico remoto. Questa soluzione non richiede che il Router 1 sappia quali sono le reti remote che sta servendo. ciò che accade è che l’host A impacchetta il pacchetto IP nel campo carico utile di un frame Ethernet indirizzato a E3. inserisce il pacchetto nel campo carico utile e invia i dati attraverso la Ethernet. in modalità broadcast (l’indirizzo MAC di destinazione è FF.31. che scopre di dover inviare il pacchetto all’indirizzo 192.FF. tranne che questa volta le tabelle del Router 1 gli dicono di utilizzare il ROUTER WAN il cui indirizzo FDDI è F2. La trasmissione dall’host A verso una rete distante WAN (Wide Area Network) funziona essenzialmente nello stesso modo. ma non il corrispondente indirizzo IP. Se non conosce già l’indirizzo FDDI di 192. il pacchetto viene estratto dal frame e passato al software IP per l’elaborazione finale.31. Quando il frame Ethernet raggiunge l’host D. Per risolvere questo problema si usa un protocollo di tipo Reverse Address Resolution Protocol (RARP). presente nello strato Internet del modello TCP/IP. pur conoscendo il proprio indirizzo locale. 130 .31. non conosce il proprio indirizzo IP. In entrambi i casi. scoprendo che i pacchetti per la rete 192.60. in cui chiede “qual’è il mio indirizzo IP ?”. Quando riceve il frame Ethernet. Sul Router 2. residente nella stessa sotto-rete ed opportunamente configurato dall’amministratore di rete. risponde alla richiesta comunicandogli il relativo indirizzo IP. perciò costruisce un frame Ethernet indirizzato a E6. il dispositivo trasmette in modalità broadcast una richiesta ARP attraverso la LAN 1 e scopre che l’indirizzo di destinazione è E6. all’accensione.8 (host D). Il sistema emette un messaggio. Quindi inserisce il pacchetto nel campo carico utile di un frame FDDI indirizzato a F3 e immette i dati nell’anello. Tale caso si presenta quando un sistema.31.63. il Router 1 rimuove il pacchetto IP dal carico utile e cerca l’indirizzo IP nelle sue tabelle di routing. il driver FDDI rimuove il pacchetto dal carico utile e lo passa al software IP.63.7.7.60. Se questo indirizzo non si trova nella sua cache ARP.FF).FF. un server RARP.

Questo modo di operare è molto usato per host che accedono ad Internet tramite la rete telefonica e consente sia un risparmio di indirizzi IP. quando l’host termina di usufruire dei servizi Internet. Ognuno di questi host è caratterizzato da un dato indirizzo IP solo per il tempo durante il quale è connesso ad Internet. Quando un host si connette ad Internet secondo questa modalità è necessario usare anche un ulteriore protocollo che governa lo scambio di informazioni e di comandi tra utente e fornitore di servizi (per esempio il protocollo PPP . i quali non devono richiedere un proprio personale indirizzo IP e configurare conseguentemente il proprio calcolatore. In quest’ultima eventualità il fornitore di servizi dispone di un insieme limitato di indirizzi IP che assegna dinamicamente a quegli host che in un dato momento gli richiedono di connettersi ad Internet. La seguente Figura mostra un esempio di RARP Request. che non possono quindi “ricordare” il proprio indirizzo IP o per sistemi a cui non è stato assegnato un indirizzo IP e che si connettono ad Internet per il tramite di un fornitore di servizi (provider). essendo questi condivisi tra più utenti. chiederà di connettersi ad Internet.Questa situazione è tipica per sistemi privi di dispositivi di memorizzazione di massa. in un tempo successivo. sia una semplificazione d’uso per gli utenti. 131 . quell’indirizzo IP sarà assegnato ad un altro host che.Point to Point Protocol).

I ROUTER di fascia più alta sono basati su architetture hardware specializzate per ottenere prestazioni wire-speed. i ROUTER operando a Livello 3 non utilizzano l’indirizzo MAC dei pacchetti di dati in transito. 132 . La seguente Figura mostra il modo di operare di un ROUTER nel modello ISO/OSI. Alcuni ROUTER possiedono anche un firewall incorporato. Per garantire la massima affidabilità e lo sfruttamento ottimale dei collegamenti in caso di reti complesse costituite da molte sottoreti diverse e variamente interconnesse. Un ROUTER lavora al Livello 3 del modello ISO/OSI (Strato Network). Rispetto ai BRIDGE infatti. Per fare questo sono stati messi a punto dei protocolli di routing appositi attraverso i quali i ROUTER si scambiano informazioni sulle reti raggiungibili. che poi usano per ricavare ed aggiornare delle tabelle di instradamento interne da consultare ogni volta che devono smistare i pacchetti di dati in arrivo. i ROUTER si scambiano periodicamente fra loro informazioni su come raggiungere le varie reti che collegano l’una all’altra.10 ROUTER Un ROUTER è un dispositivo di rete che si occupa di instradare pacchetti di dati tra reti diverse ed eterogenee. o sempre più spesso apparati specializzati. a differenza dello SWITCH che instrada sulla base degli indirizzi di Livello 2 (strato Data Link Layer). I ROUTER possono essere normali computer che fanno girare un software apposito (GATEWAY). La funzione di instradamento è basata sugli indirizzi di Livello 3 (Strato Network) del modello ISO/OSI.5. ma le reti locali. poichè il punto di ingresso/uscita di una rete verso l’esterno è ovviamente il luogo migliore dove effettuare controlli sui pacchetti in transito. Gli elementi della tabella di instradamento di un ROUTER non sono singoli calcolatori. Questo significa che un ROUTER wire-speed può inoltrare pacchetti alla massima velocità delle linee a cui è collegato. dedicati a questo solo scopo. ma l’indirizzo IP per cui vanno configurati e non sono Plug and Play. letteralmente alla velocità della linea.

133 .

Sarà esaminata la prima tecnica. sostituisce la label con una nuova label. che lo chiede ad un IS o lo scopre con meccanismi di route location. è scritto direttamente nel pacchetto. Gli IS (Intermediate System) usano tale indirizzo come chiave di ricerca nella loro tabella di instradamento e determinano lungo quale cammino il pacchetto debba essere ritrasmesso. e quindi integrata nei protocolli e nei ROUTER IP. • Source routing: è una tecnica usata tramite una opzione del protocollo IP (per esempio. poichè è quella adottata negli schemi di instradamento IP. Ogni pacchetto è marcato con una label che serve come chiave in una tabella di instradamento sull’IS. sono le seguenti: • Routing by network address: l’indirizzo di un sistema. 134 . che possono comunicare senza dover passare attraverso un ROUTER. Nel source routing la lista degli IS da attraversare. • Label swapping: è generalmente usata nei protocolli connessi. realizzazioni più moderne ammettono anche più reti logiche nella stessa rete fisica. Se il protocollo è connesso. è scritta nel pacchetto dal nodo mittente. dai BRIDGE Token Ring). che deve essere univoco sulla rete. in cui una particolare tecnologia di trasporto assicura la connessione. Tale condizione viene detta di routing implicito. IP assumeva originariamente una corrispondenza biunivoca tra reti fisiche e logiche. Una rete logica è l’insieme delle interfacce. Le tecniche fondamentali di inoltro. Con la dicitura rete fisica si indica un insieme di calcolatori aventi le interfacce di rete attestate su una stessa sotto-rete. La necessità di ricevere completamente il pacchetto prima di ritrasmetterlo introduce un tempo di latenza pari al tempo di trasmissione. Le label devono quindi essere univoche solo all’interno di un dato link. le label altro non sono che gli identificativi delle connessioni. che differiscono per il metodo di analisi del problema instradamento.5. a cui è stato assegnato lo stesso indirizzo di sotto-rete. prima di ritrasmettere il pacchetto.11 Instradamento (Routing IP) La funzione fondamentale dell’instradamento (routing) consiste nell’inoltro (Forwarding) di pacchetti IP ed avviene generalmente in modalità store-and-forward (memorizza ed inoltra). L’IS.

per determinare se l’host di destinazione è collegato direttamente o indirettamente alla rete dell’host di origine: in altri termini. I ROUTER realizzano quindi l’interconnessione tra le diverse reti. mentre un host indiretto è un host di destinazione situato su una rete diversa da quella dell’host di origine. Forwarding indiretto: si applica quando il pacchetto deve essere instradato in sotto-reti diverse da quella di destinazione. IP adotta i concetti di destinazioni dirette e indirette nella sua logica di routing. mentre negli algoritmi dinamici le tabelle vengono 135 . Quando l’host di destinazione è connesso ad una sotto-rete diversa da quella dell’host sorgente o del ROUTER che emette il datagramma. Un host diretto è una stazione collegata direttamente alla rete ed al ROUTER della rete. L’host di destinazione è connesso alla stessa sotto-rete dell’host sorgente o del ROUTER che emette il datagramma. Forwarding diretto: la trasmissione di un datagramma IP tra due host connessi su una singola rete logica IP (stesso Net_Id) non coinvolge i ROUTER intermedi. le tabelle di routing che vengono memorizzate sono compilate da una persona (amministratore di rete) e i valori di tali tabelle non cambiano per nessun motivo fino a quando l’amministratore di rete non li cambia. la macchina verifica la corrispondenza della parte “rete” dell’indirizzo di destinazione e sceglie come effettuare l’inoltro. Nella sotto-rete di destinazione è utilizzato l’instradamento diretto. E’ necessaria la traduzione dell’indirizzo IP dell’host di destinazione nel suo indirizzo fisico (es. Il trasmettitore incapsula il datagramma nel frame fisico e lo invia direttamente all’host destinatario. Il modo in cui IP gestisce gli indirizzi e decide i percorsi di routing. questo significa che il datagramma deve essere inviato ad un ROUTER intermedio prima di essere consegnato all’host di destinazione. Il ROUTER esamina il datagramma IP ricevuto e decide il ROUTER successivo verso cui instradarlo. indirizzo MAC).Il routing tra reti logiche diverse è esplicito ed è gestito dai ROUTER tramite tabelle di instradamento. L’instradamento attraverso la sotto-rete che connette i due ROUTER avviene secondo i meccanismi della sotto-rete. l’host mittente identifica il ROUTER a cui inviare il datagramma IP ed individua il suo indirizzo fisico. Gli algoritmi di routing possono essere classificati per tipo: • Statici o dinamici: negli algoritmi statici. Il processo si ripete di ROUTER in ROUTER sino alla sotto-rete di destinazione. richiede che una macchina esamini solo la parte di indirizzo di rete dedicata all’indirizzo di destinazione.

mentre altri possono interagire con ROUTER appartenenti allo stesso dominio.). ecc. ma sono meno propensi ai routing loop. • Gerarchici: i ROUTER gerarchici hanno funzioni diverse da quelli che non lo sono. (Autonomous System) o aree. Distance Vector spedisce grossi aggiornamenti ai ROUTER vicini: i Link State richiedono più risorse hardware (CPU e memoria) rispetto ai Distance Vector.continuamente aggiornate e cambiate a seconda dei cambiamenti della rete (caduta di una rete. Quindi Link State spedisce piccoli aggiornamenti a tutti. in quanto vengono suddivisi più nodi in gruppi logici chiamati domini di routing. Gli algoritmi del tipo Distance Vector inviano tutta o parte della tabella ai soli ROUTER vicini. • Link State o Distance Vector: Link State trasferisce tutte le informazioni di routing a tutti i nodi: ogni ROUTER invia solo la porzione di tabella che descrive lo stato dei suoi link. Solo alcuni di questi ROUTER possono interagire con ulteriori ROUTER di altri domini di routing. inserimento di una rete. 136 .

visto che se un pacchetto viene destinato al ROUTER questo deve essere instradato. Si indicano genericamente con il termine route le informazioni presettate su una riga della tabella di routing.12 Tabella di instradamento Ogni ROUTER contiene una tabella di instradamento (Routing Table). scorre la tabella per individuare la riga corrispondente al destinatario del pacchetto stesso. Considerando che tale operazione viene eseguita ogni volta che si deve inoltrare un pacchetto.5. • l’interfaccia fisica su cui inoltrare i pacchetti. Il costo consentirà all’IS di scegliere tra eventuali percorsi alternativi. che inizia con l’interfaccia indicata nella riga. diventa molto critica la complessità della tabella ai fini delle prestazioni dell’apparato. Ogni riga nella tabella deve contenere almeno i seguenti tre elementi: • un indirizzo di destinazione: il ROUTER può avere più di un percorso per la stessa destinazione. Mediamente il tempo di ricerca (lookup table) è pari alla metà del numero di righe. La Routing Table è dinamica e ogni ROUTER aggiorna nel tempo le informazioni di instradamento in suo possesso tramite protocolli di colloquio con altri ROUTER 137 . l’unità di misura di questo costo dipende dal protocollo utilizzato. Quando il ROUTER deve inoltrare un pacchetto. • il costo per raggiungere la destinazione sul percorso.

138 . La seguente Figura mostra un esempio di Routing. E’ necessario allora che un ROUTER conosca lo stato della rete.(Routing Protocol). • è consigliabile scegliere il cammino in base allo stato di occupazione delle risorse di rete. Ad ogni ramo della rete è associato un costo che può essere: • inversamente proporzionale alla banda del ramo. • in caso di guasti alcuni cammini non sono utilizzabili. • proporzionale al carico istantaneo sul ramo. La scelta del percorso e quindi del ROUTER successivo dipende da un fissato criterio di ottimalità. L’aggiornamento delle Routing Table è necessario perchè: • Internet non può essere considerata stabile. • qualsiasi combinazione tra i precedenti criteri. quindi la topologia e il costo di attraversamento dei singoli rami. • proporzionale al costo d’uso del ramo.

consumando inutilmente risorse computazionali e trasmissive dei vari ROUTER. In tal caso i pacchetti girerebbero a vuoto. la probabilità che venga scartato a causa di eventuali congestioni degli IS e il fatto che esso raggiunga o no la destinazione. Inoltre se la rete contiene maglie. una destinazione potrà essere raggiunta attraverso una o più percorsi alternativi. in presenza di guasti. Il routing statico prevede che i percorsi di inoltro dei pacchetti siano determinati ed eventualmente cambiati dall’amministratore della rete tramite la configurazione degli apparati di internetworking. la ricerca non verrà basata sull’intero indirizzo del destinatario. molto spesso di lunghezza variabile. dipendono il ritardo che esso subirà. La ricerca dovrà essere eseguita nei confronti di quella riga che specifica il route con più lungo prefisso comune all’indirizzo del destinatario (longest prefix matching). la scelta di un percorso che eviti nodi o collegamenti non funzionanti consentirà alla rete di continuare a recapitare dati. ma su un prefisso.13 Routing Nel Routing by network address.5. sarà quindi importante per il buon funzionamento della rete e per la sua robustezza. La scelta del percorso. Quindi la tabella di routing è sotto la responsabilità dell’amministratore che deve gestire l’inserimento. Affinchè i pacchetti arrivino a destinazione è indispensabile che le tabelle nei vari IS siano coerenti tra di loro al fine di evitare l’invio di pacchetti in percorsi ciclici (routing loop). Dal percorso. lungo il quale un pacchetto viene inoltrato. cioè il routing. la modifica e l’eliminazione delle 139 .

in cui i pacchetti vengono ritrasmessi solo su linee selezionate. ma induce un carico elevatissimo sulla rete. ma è necessario un suo intervento manuale per il reinstradamento di detti flussi in presenza di guasti. Il flooding è un altro algoritmo non adattativo. in funzione dello stato della rete. qualsiasi sia la topologia. Lo svantaggio è che bisogna memorizzare tutti i pacchetti su ogni nodo per poter verificare se sono già passati. Occorre comunque evidenziare che la gestione manuale delle tabelle risulta molto complessa e difficoltosa. Principalmente si ha lo svantaggio della mancanza di reattività ai cambiamenti topologici della rete. che adotta tabelle con più alternative da scegliere secondo un certo ordine di priorità. è l’algoritmo random walk che sceglie in modo pseudo-casuale su quali linee ritrasmettere il pacchetto. Un primo esempio. Una miglioria più efficace si ha scartando i pacchetti troppo vecchi. ed i percorsi non saranno automaticamente adattati alle variazioni dello stato di funzionamento di nodi e collegamenti. eccetto quella su cui è stato ricevuto. se realizzato nel modo sopra descritto massimizza la probabilità che il pacchetto arrivi a destinazione. Il fixed directory routing prevede che ogni nodo abbia una tabella di instradamento che metta in corrispondenza il nodo da raggiungere con la linea da usare. ancora più significativa.righe. cioè quelli che hanno attraversato molti ROUTER: a tal scopo nell’header del pacchetto viene inserito un age-counter. detta quasi-statica. Il gestore ha il totale controllo dei flussi di traffico sulla rete. Concepito per reti militari a prova di sabotaggio. sul costo dei cammini e sullo stato 140 . Negli algoritmi di routing dinamico (adattativo) le tabelle dipendono dalle informazioni raccolte sulla topologia della rete. Un’ultima miglioria. Si può cercare di ridurre il carico utilizzando tecniche di flooding selettive. Questo approccio è spesso utilizzato in TCP/IP per le parti non magliate della rete e le regole di instradamento specificate su ogni singolo router prendono il nome di route statiche. senza applicazioni pratiche. soprattutto per reti di grandi dimensioni. consiste nello scartare un pacchetto la seconda volta che passa in un nodo: in tal modo si realizza una tecnica per trasmettere efficientemente la stessa informazione a tutti i nodi. Esiste una variante. Esempi di routing statico sono il fixed directory routing e il flooding. in cui ciascun pacchetto in arrivo viene ritrasmesso su tutte le linee. e che tale tabella sia scritta manualmente dal gestore della rete nel ROUTER tramite un’operazione di management.

deve essere duplicato e la porzione di rete intorno ad esso è soggetta ad un elevato volume di traffico di servizio: informazioni di stato che arrivano al RCC e tabelle di instradamento che escono dal RCC. ma implica l’esistenza di un unico gestore. Con hot potato. Gli algoritmi adattativi possono essere centralizzati. È possibile migliorare il backward learning inserendo nell’header del pacchetto un campo di costo inizializzato a zero dalla stazione mittente ed incrementato ad ogni attraversamento di un IS. l’IS acquisisce una conoscenza indiretta della rete analizzando il traffico che lo attraversa: con riferimento alla Figura seguente. ordinate per costo crescente. in quanto permette di calcolare le tabelle anche con algoritmi molto sofisticati. calcola le tabelle di instradamento e le distribuisce. In caso di guasti gravi possono verificarsi situazioni in cui il RCC perde il contatto con una parte periferica della rete e si verificano quindi degli aggiornamenti parziali di tabelle che possono determinare situazioni di loop. È un metodo che consente una gestione della rete molto accurata. col backward learning impara che A è raggiungibile attraverso la linea L3. Con backward learning. per ragioni di affidabilità. Il RCC.degli elementi che la compongono. Esistono due algoritmi di routing isolato riportati in letteratura: hot potato e backward learning. ogni IS calcola in modo indipendente le tabelle di instradamento senza scambiare informazioni con gli altri IS. ipotesi questa oggi molto spesso non realistica. isolati o distribuiti. Nel caso di routing dinamico isolato. il ROUTER che riceve un pacchetto proveniente dal nodo A sulla linea L3. Il routing centralizzato è quello che più si avvicina al fixed directory routing. 141 . ritrasmettendo il pacchetto sulla linea con la coda di trasmissione più breve. In tale modo gli IS possono mantenere più alternative per ogni destinazione. Presuppone l’esistenza di un RCC (Routing Control Center) che conosce la topologia della rete. riceve da tutti i nodi informazione sul loro stato e su quello dei collegamenti. ogni IS considera un pacchetto ricevuto come una “patata bollente” e cerca di liberarsene nel minor tempo possibile.

Il limite di questo metodo consiste nel fatto che gli IS imparano solo le migliorie e non i peggioramenti nello stato della rete: infatti se cade un link e si interrompe un cammino. semplicemente non arrivano più pacchetti da quel cammino. ma le sue funzionalità sono realizzate in modo distribuito da tutti gli IS della rete. ad esempio nei BRIDGE. Gli algoritmi di routing dinamico 142 .1D. Il costo di ciascuna linea di ciascun ROUTER è un parametro che viene impostato dal network manager tramite il software di gestione dei ROUTER stessi. Il routing dinamico distribuito si pone come una scelta di compromesso tra i due precedenti: non esiste un RCC. Qualora ad un IS giunga un pacchetto per una destinazione ignota. Le tabelle di instradamento vengono calcolate a partire dai due parametri di ottimalità (costo e hop). lo si integra con l’algoritmo di spanning tree per ridurre la topologia magliata ad un albero. Tali protocolli vengono detti di servizio in quanto non veicolano dati di utente. e decrementata automaticamente con il passare del tempo. questa viene invalidata ed eliminata dalla tabella di instradamento. per cui. l’IS ne fa il flooding. Il backward learning può generare loop su topologie magliate. che sono gestiti da altri protocolli. Per tale ragione occorre limitare temporalmente la validità delle informazioni presenti nelle tabelle di instradamento: ad ogni entry viene associata una validità temporale che viene inizializzata ad un dato valore ogni volta che un pacchetto in transito conferma l’entry. ma non giunge all’IS nessuna informazione che il cammino non è più disponibile. Questo metodo è utilizzato per calcolare le tabelle di instradamento nei BRIDGE conformi allo standard IEEE 802. Quando la validità temporale di una entry giunge a zero. ma solo informazioni utili al calcolo delle tabelle di instradamento. che a tal scopo usano protocolli di servizio per scambiare informazioni tra loro.

dove cioè sia semplice gestire l’intera rete. allora sarà bene utilizzare il routing dinamico. Al contrario dove siano possibili frequenti cambi di topologia. guasti. eccetera. Concludendo.distribuito si suddividono in due famiglie: algoritmi Distance Vector e algoritmi Link State Packet. 143 . il routing statico meglio si adatta a situazioni periferiche di dimensione ridotta. percorsi magliati. variazioni di prestazioni in dipendenza dal carico di lavoro del ROUTER e dei link.

Gli unici due parametri universalmente accettati sono: • il numero di salti effettuati (hop). variazioni di topologia. Algoritmi troppo complessi. eventualmente attivando circuiti commutati.5. • il costo. Le tecniche più moderne consentono di operare un bilanciamento del traffico (load splitting) tra cammini paralleli. l’algoritmo deve continuare a lavorare. A tal fine si dovrà disporre di una serie di parametri misurabili in base ai quali le caratteristiche di un percorso possano essere confrontate. 144 . Il metodo appena introdotto. ad esempio minimizzare il ritardo medio di ogni pacchetto o massimizzare l’utilizzo delle linee. e non a calcolare nuove tabelle di instradamento. Entrambi questi parametri sono di demerito. • Robustezza/adattabilità: di fronte a guasti hardware. e gli hop indicano ROUTER attraversati e quindi ritardi introdotti. poichè i ROUTER hanno CPU e memoria finite e devono impiegare la maggior parte del loro tempo a instradare pacchetti. in quanto il costo di una linea è assegnato in modo inversamente proporzionale alla velocità della linea stessa. potrebbero richiedere tempi di calcolo inaccettabili.14 Criteri di ottimalità per algoritmi di routing Per la scelta di un algoritmo di instradamento esistono più criteri di ottimalità spesso contrastanti. specialmente se confrontate con la complessità delle reti ed in particolare con l’elevato numero di nodi collegabili con una topologia qualsiasi. La scelta dell’algoritmo di instradamento ottimale è anche complicata dalle limitate risorse di memoria e CPU disponibili oggi sui ROUTER. operanti su reti molto grandi. le caratteristiche che in generale si richiedono ad un algoritmo di routing sono: • Semplicità: l’algoritmo deve essere funzionalmente efficiente con un minimo software e una bassa utilizzazione delle risorse hardware. quali quelli forniti da una rete alternativa in presenza di un guasto o per gestire un eccesso di traffico su di un link. Per concludere. cioè la somma dei costi di tutte le linee attraversate lungo un percorso. alto traffico. non tiene conto dei problemi di carico dinamico della rete. cioè il numero di IS attraversati lungo un percorso. per scegliere il migliore tra due cammini alternativi.

perchè in caso contrario si potrebbero verificare dei routing loop.• Ottimizzazione: è l’abilità dell’algoritmo a scegliere la strada migliore. 145 . cioè non deve modificare le tabelle di instradamento se non a fronte di una variazione di topologia. Gli algoritmi di routing non adattativi (statici e deterministici) utilizzano criteri fissi di instradamento. • Equità: nessun nodo deve essere privilegiato o danneggiato. La strada dipende dalla metrica (unità di misura per calcolare la lunghezza del percorso). i ROUTER distribuiscono messaggi di aggiornamento di tale cambiamento a tutta la rete nel più breve tempo possibile. Inoltre l’algoritmo deve sempre convergere velocemente ad un instradamento stabile. mentre gli algoritmi adattativi (dinamici e non deterministici) calcolano le tabelle di instradamento in funzione della topologia della rete e dello stato dei link. • Stabilità: quando ad esempio una rete diviene irraggiungibile.

2004. 8.Stefano Cazzani: “Industrial Ethernet”. Università degli studi di Genova. 9. 2006. 2002. Industrial Ethernet University: “Introduction to the Transmission Control Protocol”. 11. L’encicopledia libera. Industrial Ethernet University: “Introduction to Subnetting”. 7.Peter Desnoyers: “Chapter 5: The data link layer”.Silvano Gai. 2006. Andrew S. N. 6.Nicola Blefari Melazzi: “Internet: Architettura. Quarta edizione. Principali e Linee Evolutive”. 14. M.Wikipedia. Fulvio Risso: “I protocolli ARP. 2005. 17.Lecture 3.Surasak Sanguanpong: “ARP: Address Resolution Protocol”. Le Monografie. Giovanni Vigna: “TCP/IP Networks”. Politecnico di Torino. Università degli studi di Roma.org.Valerio Alessandroni: “La tecnologia dei fieldbus”. 2005. Industrial Ethernet University: “Introduction to the Internet Protocol”. 146 .5. 1998.Santa Barbara. 13. Domenico Pratticò: “L’evoluzione dei sistemi di comunicazione nell’automazione e nella gestione di processi industriali”. Control Technology. 18.Telecommunication Protocols Laboratory Course .Kasetsart University.Blefari-Melazzi.Roveri: “Reti per applicazioni telematiche”. 5. 16. www. 3. 10. 2. 2002. IP: The Internet Protocol – Lecture 12.wikipedia. 15.15 Bibliografia 1. Mario Baldi. RARP”. Tanenbaum: “Reti di calcolatori”.R. Department of Computer Engineering . A. Fieldbus & Networks. 12. Giuseppe Bianchi: “Address Resolution Protocol (ARP)”.Soderberg: “TCP/IP”. 4. University of Massachusetts.Listanti. University of California .

la condivisione dei dati. affidabilità. Ad esempio. Il fatto che sia possibile costruire sistemi distribuiti porta a vantaggi e a svantaggi. il principale dei quali è il software. in cui le periferiche di I/O erano collegate a PLC e DCS tramite un numero elevato di connessioni distinte (collegamento punto-punto). infatti per poter intervenire o anche solo analizzare un processo è necessario disporre dei dati in tempo in modo da poterli correlare correttamente. oltre a consentire una maggiore disponibilità degli impianti. sta diventando sempre più importante l’esigenza di poter trattare in tempo reale una 147 . molto più complesso che non quello dei sistemi centralizzati. ciò significa che un complesso sistema di controllo centrale può essere suddiviso in più parti di piccole dimensioni. il che permette di elaborare le informazioni in modo più veloce direttamente laddove siano necessarie. Sebbene i sistemi distribuiti abbiano i loro punti di forza. e la dipendenza da un efficiente sistema di comunicazione in tempo reale. essi hanno anche i loro punti deboli. Il vantaggio dell’automazione e della gestione computerizzata dei reparti è strettamente legato al concetto di integrazione e cioè una struttura aziendale viene snellita e resa più efficiente se i computer relativi ad una funzione possono comunicare in tempo reale con i computer relativi ad altre funzioni e magari dislocati in aree differenti.1 Introduzione L’automazione dei processi industriali tende a strutture impiantistiche decentrate. la crescita incrementale. ad un contesto in cui i dispositivi di controllo e le periferiche sono distribuiti sul campo e collegati tra loro tramite una rete ad alta velocità. Negli anni ‘90 è avvenuta una svolta. i computer addetti all’interfaccia uomo macchina (HMI) devono poter accedere a dati di tipo e provenienza diversa e tale accesso deve avvenire in tempo reale o perlomeno deve essere scandito da tag temporali. tra i vantaggi si possono enumerare: la distribuzione intrinseca di alcune applicazioni che richiedono macchine separate e distanti. e in particolar modo nei sistemi di automazione. la comunicazione in tempo reale. le applicazioni industriali sono progressivamente passate da una situazione di sistemi centralizzati. Nell’ambito industriale.Capitolo 6 BUS DI CAMPO 6. scalabilità. che svolge le stesse funzioni di comunicazione delle connessioni preesistenti (sistemi distribuiti). poichè in caso di fuori servizio di una parte del sistema tutto il resto continua a funzionare. modularità.

Questa soluzione tecnologica. In genere la comunicazione tra i dispositivi è di tipo seriale e quindi un bus costituito da soli due fili risulta sufficiente allo scopo. La conseguenza immediata di questo tipo di struttura è la riduzione drastica dei cavi presenti. oltre una decina d’anni fa. 148 . il bus di campo) al quale sono collegate tutte le apparecchiature. cioè in grado di collegare tra loro più dispositivi prodotti da costruttori diversi. dei costi. quelli di macchine utensili di grosse dimensioni. aumentando quindi la facilità di cablaggio dei sistemi complessi. con la comparsa nel mercato dei bus di campo. prevede la presenza di un unico fascio di conduttori (appunto. quali ad esempio. l’aumento di unità intelligenti (quali PC. La seguente Figura mostra la differenza tra collegamenti punto-punto e dispositivi collegati tramite un bus di campo. dei tempi (rispetto al cablaggio punto-punto). La risposta a queste problematiche è arrivata. Inoltre. PLC nonchè di sensori ed attuatori) all’interno dei cicli produttivi impone che vi sia un sistema di comunicazione aperto.crescente quantità di informazioni digitali. affidabile ed economico.

Nel 1979 nasce Modbus (contrazione di bus e di Modicon).2 Evoluzione della comunicazione nell’industria Negli anni ‘60. Nel 1968.6. Molto semplici montare. la Modicon ha inventato il Programmable Logic Controller (PLC). Grazie alla sua grande flessibilità. le sue applicazioni sono limitate ai casi dove non basta il collegamento parallelo: • collegamenti tra PLC. • collegamenti tra calcolatori. hanno subito “sedotto” gli operatori dell’ automatizione. porta numerosi vantaggi nelle fasi dell’installazione. che diventa uno standard de-facto come bus di campo. La continua riduzione dei costi nel campo dell’elettronica e nelle tecnologie di rete diventano convenienti rispetto ai collegamenti punto-punto per collegare i dispositivi di I/O con i PLC. Da questo momento fanno la loro comparsa le reti e i protocolli per lo scambio dei dati. eccetera. Entra nell’automazione industriale il bus del campo. Le due seguenti Figure mostrano la differenza di due impianti industriali basati su collegamenti punto-punto e collegamenti basati su un bus di campo. 149 . Sono emersi quindi. Un singolo dispositivo è in grado di soddisfare la molteplicità dei bisogni garantendo inoltre un grande risparmio. moduli logici discreti basati sul transistore. Tuttavia. il costo dell’elettronica è caduto ad un livello abbastanza basso in modo che potesse sostituire vantaggiosamente la logica legata ai relè. • collegamento tra console di comando.

Ciò è particolarmente vero vista la diversità dei dispositivi e dall’attività da loro svolta. altri due punti devono essere evidenziati: • la decentralizzazione e la distribuzione di intelligenza. Il bus di campo ha portato molti vantaggi ed ad una graduale evoluzione delle architetture: • eliminazione dei cavi di ingreso e uscita. 150 . Oltre a questi aspetti architetturali. • dispositivi per il controllo assi. per esempio: • distributori pneumatici. ecc. • la scomparsa delle interfacce di ingreso e uscita. Wireless. • dispositivi per l’identificazione. Si è avuta una riduzione di costi per il cablaggio e la possibilità di disporre le interfacce di ingresso/uscita esterne ai PLC in modo da averle più vicino ai sensori ed agli attuatori. • azionamenti di velocità. • la scomparsa dei collegamenti seriali dedicati.Negli ultimi anni. • l’ingresso di nuove tecnologie (Internet. gli operatori del settore dell’automazione ha poi capito rapidamente il beneficio di avere i sensori e gli attuatori direttamente collegati sul bus.). Nonostante tutto questo. Questo modo di comunicazione nell’automazione industriale si è dimostrato essere estremamente valido e flessibile. il bus di campo è entrato in tantissime applicazioni industriali. • saldatrici e avvitatrici. Ethernet.

sono ora accessibili su tutti i punti dell’installazione grazie a questa nuova tecnologia di collegamento. • apparecchiature per la pesatura. moltissime informazioni di diagnostica sui sensori e sugli attuatori. L’installazione si trasforma in in una specie di gioco di costruzione incentrato attorno al cavo di rete. avvitatrici. il ricorso al cablaggio tradizionale risulta essere particolarmente costoso. • apparecchiature per attività specifiche. eccetera. Inoltre. dispositivi d’avviamento del motore. eccetera. che ora assume il ruolo di cablaggio standard in sostituzione dei tradizionali cablaggi punto-punto con le codifiche 0/24 V o 4/20 mA. encoder. • bus di campo come AS-I. attuatori. Questa forma di connettività giustifica persino l’uso di un bus del campo per distanze piccole grazie al contributo che porta in termini di flessibilità e di possibilità di espansione dell’impianto. offrono soluzioni più economiche rispetto al cablaggio tradizionale per connessioni a semplici sensori.• interfacce uomo/macchina (HMI). In effetti: • alcuni di questi dispositivi (azionamenti di velocità. pulsanti. 151 . • apparecchiature per la visualizzazione. eccetera) necessitano simultaneamente di un collegamento di ingresso/uscita digitale e di un collegamento seriale al PLC: il bus del campo li sostituisce entrambi. • negli ambienti in cui la sicurezza dei dispositivi è molto importante.

Tutto ciò è naturalmente limitato dalle prestazioni del bus: una singola rete non può soddisfare tutti i bisogni. Ora è possibile accedere da qualsiasi punto dell’installazione. le quantità di informazioni che possono essere trasportate sono molto maggiori. Questa modularità è un vantaggio per la qualità del sistema e così per il controllo del costo di sviluppo. 152 . Ciò consente gli operatori di impiegarla per le attività nelle quali. il collegamento seriale dedicato usato nel passato per l’interfaccia operatore. • Reattività: migliora la reattività sistema automatizzato grazie all’uso di nano e pico PLC più vicini ai processi. eccetera. altre opportunità offerte dal bus di campo sono la decentralizzazione e la distribuzione di intelligenza. Ciò comporta: • Modularità: un operatore può trattare solo il suo campo specifico di competenza ed offrire un’interfaccia al progettista dell’intero sistema. è elimitato e sostituito dal bus di campo. • caricamento programmi. Per esempio. Oltre ai vantaggi introdotti in aspetti architetturali. utilizzavano una comunicazione dedicata: • configurazione parametri.Con questa nuova forma di comunicazione in ambito industriale. La seguente Figura mostra un impianto industriale basato su bus di campo dove i dispositivi presenti sul campo hanno l’interfaccia di rete integrata. • tool diagnostici. • interfaccia operatore. non solo ai dati dei PLC. ma anche ai dati di tutti i dispositivi a loro connessi (per esempio micro-PLC). in precedenza.

153 . La decentralizzazione consente una più veloce individuazione dei guasti ed una più semplice attività di manutenzione.• Affidabilità: migliora l’affidabilità rispetto ai guasti. • Prestazioni: la distribuzione di intelligenza migliora le prestazioni complessive dell’intero impianto. permettendo che ogni dispositivo automatizzato tratti la parte del processo per il quale risulta essere il più ideneo. • Riutilizzo: favorisce le possibilità di riutilizzo di moduli software e di dispositivi con ovvia riduzione dei costi.

… deve poter comunicare in modo efficiente e rapido a seconda del settore applicativo. Ogni livello manipola e trasferisce informazioni ed elabora strategie impartendo comandi ai livelli inferiori. robot. I livelli sono spesso indicati come: • Azienda: differenti fabbriche che possono trovarsi in località diverse. 154 . macchine utensili. identificare. terminali CAD. Fabbrica completamente automatizzata) ed è mostrata nella seguente Figura: Obbiettivo dell’organizzazione CIM è: ridurre i magazzini. massimizzare la flessibilità di produzione (facile riconfigurabilità).6. migliorare il controllo di qualità. unità di programmazione. • Isole: ogni parte delle attrezzature controllate da computer. • Fabbrica: tutti i minicomputer di ogni reparto devono essere tra loro collegati per consentire un efficiente scambio di dati. Tale suddivisione è detta CIM (Computer Integrated Manufacturing. devono essere tra loro interconnesse.3 Sistemi di comunicazione nell’industria Un sistema di comunicazione nell’ambito dell’automazione industriale viene solitamente organizzato e suddiviso in quattro livelli gerarchici. • Reparto: il minicomputer di ciascun reparto o ufficio deve coordinare le attività complessive di tutti i sistemi computerizzati presenti nel reparto stesso. pur nell’ambito della stessa organizzazione aziendale. conservare e riutilizzare le informazioni relative a i prodotti. elaboratori testi.

Il principale requisito è la sicurezza. scambio dati con i pacchetti software commerciali più diffusi sui PC. 155 . Nel caso si analizzi l’organizzazione CIM del solo reparto di produzione di una azienda manifatturiera. A livello di comunicazione tra isole operano le reti locali LAN. detta piramide CIM. PC) che controllano sensori e trasduttori ai quali sono collegati direttamente o tramite bus di campo. non nel senso della sicurezza rispetto alla propagazione del guasto o della salvaguardia o diagnostica dell’integrità dei dati rispetto a cause accidentali (disturbi). encoder. per cui si tende a parlare di LAN in senso lato. grafici. cioè ad accessi non autorizzati.…) posti sull’impianto di produzione. Con l’avvento di Internet spesso i sistemi informativi poggiano direttamente sulle LAN che sono di fatto delle Intranet. come i fogli elettronici. Sistema centralizzato di supervisione e controllo di sistemi distribuiti) di supervisione al Livello 3. DCS. interfaccia uomo-macchina. a Livello 2 ci sono i controllori di cella (PLC. Tutti i PLC che coordinano le varie celle di un reparto di produzione sono collegati fra loro tramite rete locale alla quale si connette anche un sistema SCADA (Supervisory Control and Data Acquisition. ma nel senso di sicurezza rispetto alle violazioni.A livello di comunicazione tra azienda. visibile nella seguente Figura: Tipicamente in questo ambito il Livello 1 è costituito dai trasduttori (finecorsa. il cui principale requisito è la compatibilità e l’espandibilità dato che connettono sistemi standard e proprietari. monitoraggio e gestione di allarmi. fabbrica e reparto operano i sistemi informativi aziendali che in genere si appoggiano a Intranet. è possibile individuare la tipica struttura. elettrovalvole. spie di segnalazione. SCADA è un sistema che supporta le funzioni di acquisizione ed archiviazione dati. motori. sensori.…) e attuatori (relè. ossia una sottorete locale di Internet.

Il Livello 3 viene anche detto livello di sistema e/o celle e i sistemi di comunicazione vengono detti bus di processo o di cella. 156 . Tali sistemi elaborano i dati di produzione e li presentano in una forma adeguata al management. sempre tramite LAN. Al Livello 4. Salendo nella piramide aumenta la quantità di dati trasferiti e diminuiscono i requisiti in termini di aderenza stretta al tempo reale. prelevandoli da tutti i sistemi SCADA della fabbrica ai quali sono connessi. detto anche livello di controllo e di servizio. si hanno in generale i sistemi CAD/CAM e. utilizzando una terminologia più moderna. i sistemi ERP/MES (Enterprise Resource Planning / Manufactoring Execution System).

a seconda dell’applicazione. nel caso di un bus la flessibilità di estensione aumenta. Tipicamente si tratta di un fascio comune di fili conduttori collegante assieme più dispositivi per permettere loro di comunicare scambiandosi dati. PC e DCS. comporta un numero di cavi confrontabile con la modalità analogica tradizionale. Mentre una comunicazione punto-punto è limitata a due circuiti collegati ai due estremi del cavo. seriale o parallela. consente invece una notevole riduzione dei cablaggi. Le più comuni sono quelle ad anello. avevano fornito i propri sistemi di interfaccia numerica. Il bus rappresenta il mezzo fisico utilizzato per trasportare i dati. come ad esempio telecamere o azionamenti. sebbene adatta per la fase di configurazione e predisposizione del trasduttore. Supportano semplici algoritmi di autodignostica. quali PLC. La modalità di trasmissione numerica presenta notevoli vantaggi in termini di possibilità di trasmettere più informazione e migliori potenzialità di interfacciamento. nella quale un unico conduttore viene utilizzato per connettere più sistemi. è consigliabile scegliere una topologia piuttosto che un’altra.4 Bus di campo Bus di campo è un’espressione generica che descrive la forma di comunicazione digitale dedicata ai sistemi a basso livello quali sensori. l’aggiunta di un nuovo trasduttore da collegare al bus esistente costituisce raramente un problema: la maggior parte dei bus di campo sono infatti in grado di rilevare autonomamente la lista degli utenti presenti. per consentire una connessione punto-punto con i sistemi a più alto livello. Contrariamente ad una connessione punto-punto. autoconfigurazione e controllo (PID). Già dai primi anni ‘80 i costruttori di sensori o attuatori di una certa complessità. tuttavia la messaggistica è in genere semplice. il numero di utenti limitato e tali reti poggiano lo strato Applicazione (Livello 7) direttamente sullo strato Data Link Layer (Livello 2) del modello ISO/OSI. a stella e a bus. un bus conta generalmente un numero di utenti superiore. 157 . tipicamente una RS232 con un semplice protocollo ASCII. Tuttavia tale modalità di connessione. Tali reti sono caratterizzate da notevoli esigenze in termini di determinismo. L’architettura a bus. attuatori. PLC la quale si prevede sostituirà nell’industria la tecnologia analogica per collegamenti punto-punto basata su segnali a 4/20 mA o 0/24 V. dove solo due circuiti si scambiano informazioni. In effetti. ossia ridotto tempo di latenza della risposta.6. durante la fase operativa nella quale il flusso informativo è più ridotto. Esistono molteplici modi per collegare insieme i vari elementi e.

• Utilizzo di transceiver. nato nel 1983 come raccomandazione tecnica dell’Electronic Industries Association (EIA). è la più semplice ed è quella che previene da situazioni di conflitto. mentre lo slave trasmette sulla linea Rx e riceve sulla linea Tx (full-duplex). il modo di scambiare dati attraverso un bus di campo richiede regole più severe. Spesso sono previsti più meccanismi che agiscono in contemporanea e a volte. di ospitare fino a 32 ricevitori e fino a 32 trasmettitori con frequenze di trasmissione fino a 10 Mbit/s e lunghezze del collegamento fino a 10 km. consente ad una stessa linea. Infatti. rispetto a connessioni tra soli due nodi. proprio come avviene nei collegamenti RS232. tuttavia vi è un decremento delle prestazioni in quanto non vi può essere trasmissione e ricezione simultanea. ossia di accesso contemporaneo al bus da parte di più utenti. Un aspetto di rilevante importanza nel protocollo di tutti i bus di campo lo riveste la sicurezza dei dati trasmessi e ricevuti. dove un solo master interroga ciclicamente gli slave (Polling) ossia i trasduttori. Lo standard RS485. L’architettura master-slave.A livello di comunicazione. ad esempio. bisogna prevedere l’accesso contemporaneo al mezzo da parte di più elementi e regolamentare nel modo più rigoroso possibile tutto ciò che serve per poter trasmettere i dati in maniera rapida ed affidabile. nel secondo caso (nella Figura sotto a destra) vi è un’unica linea per cui viene a cadere la distinzione hardware tra master e slave (half-duplex). tale aspetto diventa un fattore discriminante nella scelta del protocollo da usare. tipicamente costituita da un doppino. 158 . si possono avere due tipi di connessione: • Utilizzo di driver e receiver. Tali regole di convivenza vengono chiamate protocollo. I primi bus di campo legati al mondo dei trasduttori sono stati sviluppati direttamente dai costruttori dei trasduttori stessi: si trattava in genere di reti master-slave basate sul livello fisico RS485. Nel primo caso (nella Figura sotto a sinistra). il master trasmette sulla linea Tx e riceve sulla linea Rx. specialmente negli ambienti più critici. Ipotizzando comunicazioni bidirezionali.

ma dipende dal traffico su rete. altre hanno modificato la strategia di accesso al bus per cui viene a cadere la distinzione tra utente master e utente slave. Tale strategia di accesso è non deterministica in quanto il tempo che intercorre tra l’esigenza di inoltrare un messaggio e l’effettiva presenza del messaggio in rete non è nota a priori. Tale soluzione si dice deterministica perchè è possibile calcolare un tempo massimo entro il quale l’informazione di qualsiasi utente verrà trasmessa: infatti il master avrà il token tipicamente ogni N*T (allocazione round robin del token). mentre altri costruttori si sono consorziati per stabilire delle modalità di trasmissione dell’informazione che fossero convenienti per più utenti. Nel secondo caso (accesso al bus di tipo casuale) ogni utente verifica se la rete è libera quindi accede alla rete e. mentre la regolamentazione del livello Data Link Layer del modello ISO/OSI descritta in IEC61158-3 è avvenuta nel 1998. A livello normativo nel 2000 è stato emesso lo standard IEC 61158 sui bus di campo (Fieldbus standard for use in industrial control system). Lo svantaggio di una simile configurazione è che manca una logica di priorità e cioè le segnalazioni urgenti possono essere inoltrate solo previo ottenimento del token. L’affidabilità di una simile rete è ottima. Inizialmente. dove N è il numero dei master e T è il tempo di mantenimento del token per ogni master.La presenza di tanti protocolli diversi tra loro costringeva ad un notevole lavoro di implementazione sul sistema a più alto livello (PLC. nel 1993. Molti costruttori di trasduttori 159 . DCS) impedendo di fatto l’intercambiabilità tra componenti di differenti costruttori. Per evitare di dover ogni volta implementare i vari protocolli proprietari sul PLC. ossia dei sistemi che agivano come master della rete proprietaria dei trasduttori e come slave della rete nota al PLC. scambiandosi l’autorizzazione a trasmettere (token) secondo una sequenza prestabilita. purchè si preveda un meccanismo di sorveglianza del token e di eventuale reinizializzazione della rete. Alcune di queste reti proprietarie master-slave sono evolute verso architetture multimaster. ci si è proposto di regolamentare il livello Fisico del modello ISO/OSI (IEC61158-2) e attualmente diversi bus sono conformi a tale normativa. ed è stata molto più sofferta. Nel primo caso (accesso al bus di tipo deterministico) i master sono autorizzati alla trasmissione per un tempo prestabilito (tempo di mantenimento del token). in caso di collisione. PC. tipicamente interrompe la trasmissione e attende nuovamente la condizione di rete libera (retry). I bus proprietari di grandi costruttori sono diventati standard de-facto. spesso si ricorreva a dei convertitori di protocollo (Gateway).

160 . e la bassa efficienza viene compensata dalla possibilità di interfaccia diretta verso i livelli superiori e utenti remoti (Internet). Ethernet/Internet sta diventando la soluzione unificata per gestire le comunicazioni di un’azienda. per cui molti bus di campo si stanno preoccupando della compatibilità verso Ethernet/Internet.2. Rispetto ai bus di campo. ossia le reti basate su Ethernet a 100 Mbit/s per applicazioni in tempo reale in ambito industriale. Anche dal punto di vista normativo. Per questo ed altri motivi di tipo commerciale. Contrariamente alla maggior parte dei bus di campo. generalmente definiti solo ai Livelli 1.7 del modello ISO/OSI. come per esempio tutti quelli di Internet (TCP/IP). per Ethernet (Livello 1 e Livello 2 del modello ISO/OSI) sono disponibili anche altri livelli standard. che peraltro è già presente in ambiente industriale a livello di cella e di area. i bus di campo stentano a entrare massicciamente nel mercato dei sensori economici e taluni ritengono che i bus di campo passeranno rapidamente dall’alba verso il tramonto a favore di soluzioni basate su Ethernet/Internet. Si assiste così al proliferare di studi per la gestione combinata dei bus di campo con le nuove tecnologie (Ethernet. e viene già proposta in alternativa ai bus di campo. si sta facendo molto per regolamentare il settore noto come Real-Time Ethernet (RTE). Molti bus di campo non sono così aperti per cui il costruttore di sensori che vuole dotare il suo trasduttore di un’interfaccia verso bus di campo. Internet). Wireless. Oggi le nuove tecnologie (SWITCH. Fast Ethernet) riducono notevolmente la probabilità di collisione. Ethernet risulta penalizzata perchè non deterministica e a bassa efficienza (il numero di byte trasmessi è elevato rispetto al numero di byte che contengono effettivamente informazione) e pertanto per lungo tempo ne hanno escluso l’uso come bus di campo. spesso si vede costretto a consorziarsi per poter accedere ai dispositivi periferici inoltre a volte deve supportare i costi di certificazione dell’interfaccia sviluppata.hanno quindi abbandonato i bus proprietari per rivolgersi verso bus di campo più diffusi.

6. diagnostica degli apparati intelligenti. con una sola 161 . protezione dell’integrità dell’informazione (codici di controllo e/o correzione). configurazione. elementi di scatto. • Requisiti tecnologici: compatibilità verso altri sistemi di comunicazione e/o infrastrutture. Devono essere trasmesse quindi con continuità. Per avere un quadro di insieme del bus di campo bisogna ancora spiegare il significato tecnico di due parole chiave come: • Interoperabilità: capacità di apparati diversi di funzionare in modo corretto scambiandosi informazioni e dati attraverso un bus di campo. per cui è indispensabile garantire velocità e correttezza durante la trasmissione. I messaggi non hanno vincoli temporali e sovente possono avere dimensioni rilevanti fino a varie decine di Kbit. I principali requisiti di un bus di campo sono i seguenti: • Gestione messaggi: capacità di trasmissione adeguata (numero dati per messaggio). determinismo temporale indipendentemente dal traffico sulla rete. • Sicurezza del sistema: protezione rispetto alla propagazione del guasto. che collega con una rete locale gli apparati in campo nelle applicazioni di automazione dei processi continui e di fabbrica. Le informazioni che devono essere trasportate da un bus di campo si possono dividere sostanzialmente in tre categorie: • Misure: sono variabili di tipo analogico e rappresentano i dati su cui si basa la supervisione ed il controllo del processo. Di fatto un bus di campo rappresenta la spina dorsale di un sistema di automazione sul quale viaggiano le informazioni utili per il controllo del processo produttivo e la gestione delle risorse. • Messaggi: si tratta di tutto l’insieme di informazioni connesse alla identificazione. • Eventi: sono variabili di tipo digitale on/off.5 Requisiti di un bus di campo Un’accettabile definizione di bus di campo è: un bus di campo è un sistema di comunicazione digitale. indicatori di posizione. grande affidabilità. legate ai sensori. Tipicamente sono codificati con pochi bit. seriale e bidirezionale. garanzia dei tempi massimi di trasmissione (quindi il determinismo). comandi. ma devono essere processati con molta rapidità in quanto sono spesso correlati a funzioni di allarme o blocco.

sono numerosi gli sforzi che le maggiori istituzioni (IEC. • Intercambiabilità: la possibilità di sostituire un apparato di un costruttore con uno analogo di un altro costruttore in modo trasparente. ISA. senza l’esigenza di dover riconfigurare il sistema di controllo. IEEE) stanno apportando nella ricerca per riuscire ad arrivare ad uno ed unico bus di campo standard. ma senza l’esigenza di realizzare driver o interfaccia specifici per l’applicazione. Proprio per questi ultimi due vocaboli. 162 .operazione di configurazione.

Vi sono bus di campo in cui l’alimentazione dei dispositivi viene prelevata direttamente dal bus. tanto da poter generare imbarazzo a chi per la prima volta si avvicina a questo tipo di soluzione in sostituzione ai sistemi convenzionali.6. le prestazioni delle reti. pongono in evidenza come la scelta di un adeguato supporto per la trasmissione dei dati all’interno delle industrie di processo sia particolarmente onerosa. ambiente con forti disturbi di natura elettromagnetica (stazioni di saldatura. • Numero di dispositivi collegabili: si va da pochi elementi di I/O a migliaia. ma occupano spazio e devono essere alimentati.). l’elasticità dei sistemi in caso di espansione degli impianti. Esiste sempre un legame fra lunghezza e velocità di trasmissione. presenza di temperature elevate. ai bus usati per l’automazione di edifici (>> 1000 m). Esistono dispositivi di amplificazione (ripetitori) in grado di estendere la lunghezza del bus. i costi delle applicazioni.. • Lunghezza del bus: si va dal bus che collega i dispositivi di una singola macchina (< 100 m). Interrogativi inerenti l’aspetto tecnico dei bus di campo. 163 .. Si può individuare il bus di campo che risponde meglio alle proprie esigenze applicative seguendo i principali criteri di selezione qui di seguito riportati: • Ambiente di lavoro: bus di campo che possono operare in luoghi con pericolo di esplosione (industria chimica) perchè operanti a sicurezza intrinseca (EX-i) cioè non sono in grado di generare scintille in grado di innescare incendi. la modularità degli stessi. eccetera. • Facilità di cablaggio: è importante se vi sono molti dispositivi collegati al bus. quello che interessa è il numero di dispositivi direttamente connessi al bus (esiste sempre un limite fisico o di indirizzamento). . la disponibilità alla verticalizzazione verso gli apparati di controllo e verso la progettazione. • Topologia del bus: i bus ad anello potrebbero essere scomodi da installare in certe applicazioni in cui i dispositivi sono fisicamente disposti in modo lineare. al bus che collega un’intera linea di produzione (<1000 m). Per alcuni bus di campo vi sono particolari cavi a perforazione di isolante molto comodi anche se costosi. la flessibilità.6 Criteri di selezione di un bus di campo Il mercato dei bus di campo per gli impianti di processo è sempre più vasto.

) è necessario ottenere l’informazione non appena possibile senza attendere il relativo slot temporale. a tempi minori di 200 ms per l’interfaccia con l’operatore ed a tempi anche nell’ordine dei secondi per la regolazione di temperature in forni industriali. In alcune applicazione (cicli di regolazione veloci. determinabili a priori e con Jitter limitato. La velocità di trasmissione dichiarata può ingannare: si presti attenzione alle tecniche di accesso al bus (Token Ring logico) e all’overhead. ma il tempo di ritardo massimo (detto anche tempo di risposta) fra il verificarsi di un evento in campo e l’acquisizione dell’evento da parte del controllore.• Possibilità di avere più master sul bus: si hanno bus in cui vi è uno e un solo master. • Velocità di trasmissione: è importante non tanto la velocità di picco. a tempi minori di 10 ms per dispositivi di I/O digitali su macchine o per messaggi di allarme. 164 . Si va da tempi molto minori di 1 ms per cicli di regolazione assi. E’ difficile da calcolare perchè dipende da tanti fattori.) è necessario ottenere le informazioni con scadenze temporali fisse.... . . bus in cui vi sono un numero limitato di master e bus in cui tutti i dispositivi connessi possono essere master (peer to peer). • Dimensione massima del blocco dati: si va da pochi byte per i dispositivi di I/O a molti Kbyte per i dati di produzione. time triggered o event-driven. • Modalità di interrogazione degli slave: time driven.. In altre (gestione veloce di allarmi.

facendone lievitare i costi. Risulta evidente che la tecnologia analogica tradizionale è insufficiente a tali scopi. 165 . mentre quello di supervisione risiede nell’unità di controllo. all’insegna della massima flessibilità e della sicurezza dell’investimento per il futuro. Tali informazioni devono essere disponibili in tempi brevissimi e in grado di viaggiare in entrambe le direzioni (full-duplex). • Altro vantaggio consiste nel decentramento del software di controllo finale. che viene installato all’interno dei singoli blocchi funzionali. ripartitori nonchè le dimensioni dei quadri elettrici e degli spazi occupati a vantaggio della diminuzione dei costi. • Migliorano ed aumentano i servizi che il sistema è in grado di fornire al suo utente estendendo quindi i campi di applicazione. dei costi globali e dei costi di engineering (una volta acquisita l’esperienza necessaria). hanno la necessità di trasmettere oltre ai dati anche una serie di informazioni atte al controllo e supervisione della rete stessa. I vantaggi offerti da un sistema di bus di campo sono molteplici: • La minore spesa per il cablaggio consente di risparmiare tempo per progettazione e installazione. Le distanze coperte dal bus sono superiori a quelle raggiunte mediante il cablaggio tradizionale. L’utente si svincola dalla dipendenza dallo standard del singolo produttore.6. svolgendo un ruolo particolarmente importante nel caso di segnali critici. • I sistemi aperti di bus di campo uniformano le modalità di trasmissione dei dati e di connessione degli apparecchi offerte dai vari produttori.7 Vantaggi introdotti dai bus di campo I moderni sistemi di automazione industriale. • I tempi di intervento in caso di guasto e per la manutenzione sono velocizzati grazie a sistemi di autodiagnostica con messaggi di testo semplificando la messa in servizio. in generale. E con segnali digitali la protezione dai guasti è più elevata. • Riduzione. Eventuali modifiche o ampliamenti sono facili da eseguire e con spese minime. • La brevità del percorso del segnale aumenta l’affidabilità e migliora la fruibilità del sistema. Inoltre si riduce la presenza di cavi. tanto più che già con sistemi di medie dimensioni il problema del cablaggio rappresenta uno scoglio non indifferente. in seguito all’integrazione di numerosi sensori e attuatori intelligenti.

il ricorso al bus di campo obbliga ad utilizzare molta intelligenza distribuita. è altresì vero che il prezzo di quest’ultima è basso ed il tempo risparmiato nello sviluppo del software risulta tanto grande da rendere antieconomiche scelte diverse.) abbastanza onerosi. in quanto essi rappresentano solo ciò che è necessario possedere per poter accedere a questa nuova tecnologia. tool di monitoraggio e diagnosi. Se da un lato. esistono anche degli svantaggi che è corretto segnalare in contrapposizione ai vantaggi appena menzionati: • Necessità di conoscenze superiori. • Investimento in strumenti e accessori (sistemi di sviluppo.Comunque. ecc. 166 . In realtà non si tratta di veri e propri svantaggi.

dal punto di vista logico. Ad ogni slave possono essere connessi dispositivi di I/O digitali e analogici. AS-I (Actuator Sensor Interface) si basa su una topologia lineare. pur nella sua semplicità. www.6.as-interface. E’ possibile connettere fino al massimo 124 dispositivi analogici e 124 dispositivi digitali. la velocità di trasmissione è di 167 kbit/s e raggiunge lunghezze di collegamento di 100 m (aumentabile ricorrendo a ripetitori). uno per ogni slave. la tensione di alimentazione (24 Volt DC) e le informazioni (con codifica Manchester) e. la topologia di collegamento è quella a stella come mostrato nella seguente Figura. è un bus deterministico a singolo master dedicato alla connessione tra PLC (master) e al massimo 31 slaves (4 sensori e/o attuatori per ogni slave) a informazione molto limitata (4 bit per slave). Viene utilizzato un doppino non schermato. è un bus a sicurezza intrinseca che supporta l’autoconfigurazione. E’ diffuso prevalentemente in Europa ed è supportato da oltre 100 membri a livello mondiale.8 AS-I (Actuator Sensor Interface) Nato nel 1994. non sono possibili comunicazioni dirette fra gli slave.com 167 . vengono trasmesse in parallelo e separatamente. Tutto passa attraverso il master. se al bus sono collegati 31 slave il tempo di ciclo o tempo di risposta è di 5 ms. Un ciclo di interrogazione è composto da uno fino a 31 messaggi. Sul singolo cavo giallo.

Ma anche quando viene inserita in un sistema di controllo digitale. che mettono direttamente in comunicazione il controllore e l’azionamento. permette invece di sfruttare appieno le potenzialità delle linee più moderne. Lo standard Sercos. Per la protezione dei dati esiste un CRC a 16 bit e alcuni vincoli sui messaggi e sui tempi di risposta. introdotto all’inizio degli anni ‘80 e successivamente standardizzato nel 1995 prevede una comunicazione digitale sincrona di tipo master-slave su reti ad anello in fibra ottica che comprendano un dispositivo master e fino a 254 slave. Sercos (Serial Real-Time Communication System) è uno standard internazionale che realizza un’interfaccia aperta per il controllo digitale degli azionamenti. questa interfaccia non fa che vanificare tutti i vantaggi offerti dall’intelligenza integrata sull’azionamento. Gli slot temporali con dati contenenti errori non vengono ripetuti nel traffico ciclico dei dati. mentre la lunghezza 168 . Le distanze tra un nodo e l’altro con una fibra plastica di costo contenuto possono raggiungere i 40 m (200 m nel caso di fibra in vetro da 200 µm). al di sotto dei bus di campo e dei bus per la supervisione dei processi e per la comunicazione con il sistema informatico gestionale.6. La seguente Figura mostra l’anello di Sercos Interface. gli azionamenti si bloccano automaticamente. Nell’ambito di un sistema di controllo industriale si posiziona al livello più vicino alla macchina da controllare.9 Sercos Interface La tradizionale interfaccia analogica utilizzata per pilotare gli assi in velocità per mezzo di un segnale di tensione compreso tra -10 e +10 V può essere adattata agli azionamenti di ultima generazione grazie a una conversione analogico-digitale con risoluzioni di 12 bit o 16 bit. L’impiego di interfacce completamente digitali. Nella fase di inizializzazione a ciascuno slave viene comunicato lo slot temporale in cui può trasmettere i propri dati. Se per 2 volte consecutive uno slot contiene dati non validi.

com 169 . 125 µs.org www. Questo consente di operare l’inizializzazione del sistema e la diagnosi in caso di malfunzionamento. il controllo di velocità e il controllo di coppia. Con una banda disponibile di 2. www.sercos. 8 o 16 Mbit/s. I parametri e i dati relativi allo stato interno degli azionamenti possono essere visualizzati.5 µs. Sercos è scalabile verso l’alto. Applicazioni industriali di impiego di Sercos sono il controllo assi. modificati e salvati tanto dai terminali del controllo numerico. Il numero effettivo di azionamenti che possono essere presenti in un singolo anello è limitato in pratica dalla quantità di informazioni da trasmettere per ciascuno di essi e dai tempi massimi consentiti dall’applicazione. Garantisce la totale immunità ai disturbi causati campi elettromagnetici. nonchè la manutenzione preventiva per ridurre i tempi di fermo macchina. definendo quanti più tipi di dati possibile. L’interfaccia Sercos provvede a standardizzare il formato dei dati scambiati.totale dell’anello deve rimanere al di sotto dei 10 km (50 km per la fibra in vetro). Sebbene sulla carta la velocità di un sistema Sercos possa essere inferiore a quella di altri bus di campo orientati alle comunicazioni con gli azionamenti. l’interfaccia Sercos fa in modo che tutte le misure degli azionamenti nel sistema siano sincronizzate tra loro con una precisione dell’ordine del microsecondo. nella pratica il decentramento del controllo e la distribuzione degli anelli di retroazione fa sì che la quantità d’informazione che è necessario trasmettere sia limitata e la banda disponibile sia più che sufficiente per la maggior parte delle applicazioni. 250 µs e multipli interi di 250 µs fino a 65 ms. in quanto il controllore digitale può pilotare tanti anelli quanti gliene permettono le sue capacità. un sistema Sercos può ospitare su uno stesso anello un controllore master e fino a 32 azionamenti ed essere impiegato in macchine ad alte prestazioni. caratteristica fondamentale per la sincronizzazione degli assi multipli di una macchina a controllo numerico. I tempi di ciclo possono essere di 62.de www.sercos. quanto in modo automatico da un’apposita routine di servizio.sercos. 4. I servoazionamenti digitali sono infatti aggiornati ciclicamente con i comandi provenienti dal sistema di controllo dai segnali di retroazione e di sincronizzazione provenienti dalla macchina.

). allo stack di comunicazione e al livello utente. ma su distanze inferiori (750 m). lo stack di comunicazione e il livello utente.. la dimensione di un pacchetto di dati è di 128 byte con controllo di errore CRC a 16 bit. Le comunicazioni tra i dispositivi sul bus può avvenire in 3 modi: client/server. infatti. Il tempo di ciclo è inferiore a 500 ms. contribuisce alla gestione dell’accesso al bus di campo attraverso il sistema deterministico di schedulazione centralizzato chiamato LAS (Link Active Scheduler). La topologia di collegamento può essere quella a bus lineare o a stella con possibilità di trasmissione bidirezionale full-duplex. le funzioni impiegate solitamente dai sistemi di controllo come AI (analog input). event notification. l’alimentazione è fornita dal bus stesso. LAS è utilizzato per il sequenziamento dei messaggi deterministici e per lo scambio dei dati tra i dispositivi in campo. FF garantisce anche un incremento nell’interoperabilità con dispositivi di differenti costruttori e riduzione dei sistemi di controllo grazie alla compatibilità con i dispositivi a intelligenza distribuita. Il Data Link Layer. AO (analog output) e PID (proportional. publisher/subscriber.10 Foundation Fieldbus (FF) Foundation Fieldbus (FF). è un bus di campo sviluppato nella prima metà degli anni ‘90 dalla Fieldbus Foundation org. Come avviene nei bus a sicurezza intrinseca. (consorzio di più aziende tra le quali National Instruments. Oltre ad assicurare le funzionalità dei classici sistemi di collegamento analogico 4-20 mA. ABB. Foundation Fieldbus non utilizza i livelli compresi tra il Livello 3 e il Livello 6 del modello ISO/OSI. racchiudono lo 170 . Può raggiungere anche velocità di trasmissione maggiori (1 Mbit/s). integral. Le specifiche di comunicazione di Fieldbus Foundation rispettano il modello ISO/OSI e consistono in tre principali componenti funzionali rispettivamente dedicati al livello fisico. derivative) possono essere utilizzate dai dispositivi in campo mediante le Function Block standardizzate che FF sfrutta per la gestione e supervisione dei sistemi. E’ un bus che connette fino a 32 utenti su distanze fino a 1900 m con basse velocità di trasmissione (31. inoltre.. Infatti.6.25 kbit/s) e impiegando un cavo economico (doppino telefonico).

www.org 171 .fieldbus. comunicazioni asincrone rivolte ad attività di diagnostica. Campi di applicazione di Foundation Fieldbus sono per esempio il controllo di flusso. di temperatura e di livello nell’industria chimica e petrolchimica. L’architettura del Foundation Fieldbus è fornita di un robusto controllo di tipo sincrono supportando. il sottostrato FAS (Fieldbus Access Sublayer) e le norme FMS (Fieldbus Message Specification).strato Data Link Layer. E’ diffuso prevalentemente negli Stati Uniti ed è supportato da oltre 200 membri nel mondo. inoltre. di reporting e manutenzione.

Per esempio. e contiene: loop back word (LB). Il tempo di ritardo introdotto da ciascun componente è molto basso (1. Tutti i dati in ingresso vengono inseriti dagli slave in un punto ben preciso del frame. Dal punto di vista logico il protocollo è costituito da una stringa frame di somma che viene trasmessa una sola volta per ciclo.7 ms (a 500 Kbps).5 bit. I dati vengono suddivisi in blocchi da 16 bit. E’ largamente impiegato nel settore automobilistico e diffuso prevalentemente solo in Europa. Per la protezione esiste un CRC a 16 bit (i resti del polinomio calcolato dal generatore CRC di un nodo viene trasferito al tester CRC del nodo successivo) e alcuni vincoli sui messaggi. i dati di processo per i dispositivi (16 bit). La trasmissione avviene in modalità full-duplex. Tutti i dati di uscita vengono inseriti dal master quando genera il frame somma. I dati vengono gestiti come in un registro a scorrimento: il frame somma inizia e finisce sul master. cioè 3 µs a 500 Kbps).11 Interbus-S Interbus-S è stato sviluppato nel 1984 dalla Phoenix Contact per il campo dei trasduttori-attuatori e noto come DIN 19258. la frame check sequence (FSC) e la word finale (E). La struttura del collegamento è ad anello anzichè a stella con frame di somma e il protocollo è autoconfigurante.6. consente la connessione a 500 kbit/s ad un massimo di 256 utenti per lunghezze di collegamento fino a 400 m per stazione (con estensione massima di 13 Km tramite l’impiego di ripetitori). per 64 byte di dati vale 3. 172 . Il tempo di trasmissione può essere calcolato a priori con una semplice formula.

la trasmissione avviene con protocollo RS485. si possono collegare al massimo 8 componenti. la distanza massima fra 2 componenti è di 1.ibsclub.5 m. • Bus delle periferiche: 4 coppie di conduttori twistate e schermate. 40 mA max).interbus. la trasmissione è fatta con impulsi CMOS. • L’alimentazione arriva dalla morsettiera del bus.com 173 . l’estensione massima è 100 m. • Sensor loop: doppino twistato non schermato. www.com www. la distanza massima fra 2 sensori è 10 m.Nella seguente Figura è mostrato un esempio di modo di impiego di Interbus-S: Caratteristiche: • Bus remoto: doppino twistato e schermato (ma è anche possibile l’uso di cavi in fibra ottica).interbusclub. porta i dati e la tensione di alimentazione (24 V. • La velocità di trasmissione è pari a 300 Kbps.org www.

al livello di rete ed al livello applicazione. può scegliere a suo piacimento il mezzo trasmissivo. Il costruttore. infatti.12 Modbus Modbus. oppure sensori od attuatori (gli slave del sistema).… Modbus non è un vero e proprio bus di campo. Il protocollo fa riferimento comunque ad un mezzo trasmissivo seriale asincrono e definisce alcune caratteristiche. soprattutto. Le specifiche rilasciate fanno sì che Modbus possa essere utilizzato come un protocollo per l’integrazione dei sistemi basati su PC e PLC con regolatori. per quanto riguarda la velocità di trasferimento dei dati. sviluppato nel 1979 dalla Modicon una società del gruppo Schneider Electric costruttrice di PLC. drivers. direttamente ad un terminale SCADA (il master del sistema). sensori ed attuatori tramite un’unica linea di comunicazione. 174 . sia per quanto riguarda l’architettura master/slave che. la velocità di trasmissione. La seguente Figura mostra un esempio di bus. Grazie ad un protocollo molto semplice. ASCII (American Standard Code for Information Interchange) oppure RTU (Remote Terminal Unit). il numero di bit di stop ed il modo di trasmissione. Un utilizzo standard di Modbus è il collegamento di vari dispositivi come termoregolatori. ma si concentra solo sui protocolli al livello di trasferimento dati. se inserire o meno il bit di parità. Non è un protocollo deterministico. viene largamente utilizzato per terminali.6. è un bus ad architettura master-slave a singolo master che permette di collegare fino a 247 utenti (slave) su distanze fino a 1900 m con basse velocità di trasmissione (da 1200 bit/s a 19200 bit/s) e RS232 o RS485 su doppino schermato (half-duplex a due fili oppure full-duplex a quattro fili). Lo standard Modbus non definisce rigorosamente il livello fisico della rete.

secondo il codice ASCII a 7 bit. Ogni nibble è quindi rappresentabile tramite un numero esadecimale compreso tra 0 e F. quello relativo al numero di byte restituiti dallo slave ed i due byte che compongono il controllo errore CRC a 16 bit. Grazie a queste possibili modalità di operare. www. E’ ampiamente diffuso nell’industria e in tutto il mondo ed è un bus di campo di basso costo e facilità di implementazione. La trasmissione avviene secondo lo schema di domanda/risposta in cui solo un singolo slave risponde. il numero di dispositivi slave sarà pari ad uno. dei due numeri esadecimali che formano il byte. Ciò implica che il più lungo messaggio Modbus avrà una lunghezza pari a 250 byte più il byte relativo all’indirizzo. il byte da trasmettere viene diviso in due parti: il nibble più significativo ed il nibble meno significativo. Il modo di trasmissione ASCII invia due caratteri a 7 bit che non sono altro che la rappresentazione. Questo perchè RS232 è un collegamento punto-punto e quindi un collegamento tra un master ed uno slave. In particolare il modo di trasmissione RTU consente di inviare un byte così come si trova. Solo il master può iniziare la comunicazione. tramite una sola interrogazione.org 175 . se viene utilizzata RS232.modbus-ida. utilizzando gli 8 bit a disposizione per la trasmissione del carattere. è possibile leggere. Il numero massimo di word che può essere letto con un singolo messaggio è pari a 125. In particolare la risposta data dallo slave nel campo dati conterrà le seguenti informazioni: numero di byte inviati e il numero di byte contenenti il valore dei bit raggruppati in byte. oppure broadcast/nessuna risposta. quello relativo alla funzione. oppure da un messaggio broadcast. Ad esempio. lo stato di più bit. Ad ogni slave è associato un indirizzo che lo individua in maniera univoca. Il numero degli slave può essere inferiore a 247 e dettato da motivazioni di carattere tecnico dovute alla scelta del mezzo trasmissivo. Nel modo ASCII invece. In pratica una singola comunicazione è fatta o da una sola domanda alla quale segue una sola risposta. i quali però non devono rispondere. dove il master ha inviato un messaggio broadcast a tutti gli slave.Bisogna ricordare che i caratteri vengono inviati partendo dal bit meno significativo sino ad arrivare al bit più significativo.

Si tratta di un bus semplice ed economico multi-master a rilevazione di collisione che consente la connessione a un massimo di 64 utenti per segmento (50 m a 1 Mbit/s.6. La topologia del bus è lineare e la trasmissione può essere iniziata da qualunque dispositivo sul bus in un qualsiasi istante. è stato sviluppato dalla Rockwell Automation ed è diffuso negli Stati Uniti e in Asia. 176 .13 CANbus (Controller Area Network) CANbus (Controller Area Network) è un bus sviluppato dalla Bosch nel 1985 per il collegamento in rete di dispositivi di comando. 100 m a 500 kbit/s). CANbus definisce solo il livello Fisico (Livello 1) e il Data Link Layer (Livello 2) del modello ISO/OSI. sensori e attuatori del settore automobilistico. poi approdato al più classico ambiente industriale. Sulla linea i dati vengono rappresentati con il formato NRZ (Non Return to Zero) codificati a campi di bit. Un doppino intrecciato porta la linea differenziale dei dati e la tensione di alimentazione. con un campo dati di massimo 8 bytes e la sincronizzazione è assicurata dal meccanismo di bit-stuffing mostrato nella seguente Figura. Il livello Applicazione (Livello 7 del modello ISO/OSI) più utilizzato in Europa è CANopen. E’ terminato da impedenze da 120 Ohm. La seguente Figura mostra l’impiego di un bus di campo come CAN su di una automobile. DeviceNet è una variante del protocollo CANbus.

è detta CSMA/CR (Carrier Sense Multiple Access/Collision Resolution). nel peggiore dei casi. nel caso peggiore ha lunghezza pari a 154 bit. Ne consegue che un messaggio a bassissima priorità non può sapere a priori dopo quanto tempo arriverà a destinazione (protocollo non deterministico). La seguente Figura mostra il funzionamento di CSMA/CR. Il bit rate viene quindi ridotto di un fattore che dipende dalla stringa di dati e che. diversi meccanismi di controllo e diagnostica della rete e modelli e/o profili per la caratterizzazione del nodo. CSMA/CR prevede che in caso di collisione un solo messaggio a bassa priorità venga interrotto (stato recessivo). 177 . Il protocollo supporta caratteristiche interessanti quali una struttura a oggetti. CANbus supporta 4 tipi di frame: • Data Frame. mentre il messaggio ad alta priorità (stato dominante) possa proseguire. • Error Frame (segnalazione errori di trasmissione).Tale meccanismo prevede l’inserzione automatica di un bit di polarità opposta (bit di stuffing) dopo 5 bit uguali. compresi i bit di stuffing e i bit che devono trascorrere tra un frame e il successivo (Interframe Gap). Il data frame permette la trasmissione di un numero di byte dati variabile tra 0 e 8 e. • Overload Frame (segnalazione di impossibilità temporanea a ricevere messaggi). ossia ogni utente può inoltrare un messaggio quando lo ritiene opportuno (contrariamente ai sistemi master-slave): secondo questa logica tutti gli utenti si comportano da master. La tecnica adottata da CANbus. può essere pari a 4/5. con funzionalità ridotte che possono comunicare in seguito a richiesta o ad un particolare evento (event-driven). anche se CAN prevede comunque degli slave. • Remote Frame (richiesta di invio). in cui ogni partecipante alla comunicazione conosce a priori l’utilizzo dei dati che vengono trasmessi. è ad accesso casuale. SLIO. Lo scambio dei dati avviene secondo il modello del produttore e del consumatore. l’allocazione fissa o dinamica degli identificatori.

la ricezione delle sincronizzazioni e dei messaggi per la temporizzazione. Visto che la priorità dipende dal tipo di funzione. CANopen mette a disposizione 1760 identificatori per usi generali mentre i rimanenti sono utilizzati per la gestione della rete (in particolare 128 identificatori servono per gestire i 128 nodi che possono essere indirizzati in una rete CANopen). il controllo dello stato del nodo. visto che questi ultimi sono tutti a disposizione dei vari dispositivi. la gestione del nodo. La prima modalità viene eseguita quando si rileva un particolare evento. • su richiesta dell’applicazione. che provvede ad allocare dinamicamente gli identificatori a disposizione a seconda delle richieste dei dispositivi. ovvero pacchetti caratterizzati da una ben preciso identificatore. relativo al profilo oppure all’applicazione (quale la ricezione di un PDO asincrono). 178 . l’indirizzo 0 è riservato). Le 16 funzioni identificate dal codice comprendono la ricezione e la trasmissione dei dati. • con ricezione di un messaggio di sincronizzazione specifico. La seguente Figura mostra il formato dell’identificatore di CAN. la gestione del canale peer-to-peer.CANopen prevede un insieme di identificatori disponibili a tutti i nodi della rete e un DBT (Distributor). CANopen prevede le seguenti modalità per l’acquisizione dei messaggi: • sull’evento. in questo caso l’identificatore del messaggio è diviso in due parti: una composta da 4 bit che specifica il codice della funzione. In CANopen la trasmissione dei dati avviene attraverso i PDO (Process Data Objects). tale codice sta nei bit più significativi. l’altra di 7 bit (questo schema è adatto alla connessione tra un master e 126 slave. elemento implementato secondo la struttura master-slave (ovvero è presente un solo DBT master che gestisce le richieste di tutta la rete). Questa modalità permette l’utilizzo più efficiente possibile degli identificatori. gli avvisi di errore. Infatti è prevista dalle specifiche anche una configurazione minima del sistema (adatta ad un sistema caratterizzato dal rapporto master-slaves). Questa però non è l’unico tipo di allocazione degli identificatori prevista da CANopen.

I nodi della rete di solito sono costituiti da più di un oggetto applicazione e spesso più di uno di essi viene associato ad un oggetto comunicazione (PDO o messaggi I/O).can-cia.can. la relativa connessione necessaria per la comunicazione. Nella gestione di una rete che comprende numerosi dispositivi digitali è necessario poter disporre di un canale di comunicazione che permetta la configurazione dei nodi per stabilire una connessione efficace. Per le applicazioni che necessitano di una gestione dinamica della connessione SDO.org www.bosch.La trasmissione di un PDO può essere anche dovuta alla ricezione di una richiesta di messaggio remota. I PDO sincroni invece sono inviati ciclicamente in seguito alla ricezione di un certo numero di messaggi di sincronizzazione (il tutto stabilito nella fase iniziale di configurazione della rete da parte del master).de 179 . Ogni oggetto CANopen deve implementare almeno una connessione SDO con due identificatori di messaggi (uno per la richiesta ed uno per la risposta) per permettere la configurazione del dispositivo. i protocolli ad alto livello seguono strade diverse. si è andato molto affermando nel tempo. ovvero i diversi nodi della rete sincronizzano il momento in cui campionano i dati con il messaggio inviato in broadcast. le specifiche prevedono un gestore SDO. Questa struttura specifica i dati degli oggetti applicazione in forma di una lista che contiene gli identificatori di ogni oggetto. un raggruppamento di oggetti indirizzati attraverso un indirizzo a 16 bit che caratterizza ogni nodo CANopen. Per poter associare gli oggetti applicazione ai relativi oggetti di comunicazione. www. L’interfaccia CANbus è un’interfaccia a basso costo e grazie alla sua semplicità e alla sua effettiva apertura come standard. su richiesta di altri dispositivi. Oggi esistono molteplici possibilità di accesso da PLC o PC per mezzo di schede dedicate.canopen. Inoltre i messaggi di sincronizzazione possono essere usati per la sincronizzazione nell’acquisizione dei dati da tutti i nodi della rete.com www. CANopen fornisce un canale di servizio (Service Channels) attraverso cui gli SDO (Service Data Objects) possono essere scambiati tra due qualsiasi dispositivi attraverso un protocollo che prevede la risposta ad ogni pacchetto trasmesso. CANopen specifica gli oggetti applicazione mappati in un PDO attraverso una struttura chiamata PDO-Mapping-Record contenuta nell’OD (Object Dictionary). che si occupa di stabilire. il tipo e la lunghezza dei dati scambiati.

180

6.14 Profibus (Process Fieldbus) Profibus è uno bus di campo voluto da Siemens che oggi copre il maggior numero di applicazioni industriali in Europa e si sta diffondendo anche nel resto del mondo. La sigla Profibus comprende tre diversi protocolli compatibili tra loro. Profibus FMS (Fieldbus Message Specification), introdotto nel 1989, è implementato nei Livelli 1,2,7 del modello ISO/OSI e consente la comunicazione tra i processi a livello di cella. E’ orientato alla comunicazione multi-master (token-passing); è versatile e consente una grande varietà di applicazioni. Il livello Applicazione è costituito dal Fieldbus Message Specification (FMS) e dal Lower Layer Interface (LLI). FMS contiene il protocollo verso l’applicazione e le fornisce una vasta gamma di servizi potenti. LLI comunica sopra con FMS e sotto con lo strato di collegamento dati (Livello 2), implementa relazioni di comunicazione che permettono a FMS di accedere al Livello 2 indipendentemente dal tipo di dispositivo. Il Livello 2, FDL, implementa il controllo per l’acceso al bus e garantisce la sicurezza dei dati. Per la trasmissione fisica, il protocollo FMS permette di utilizzare la tecnologia basata su RS485 (codifica del bit tramite segnale su tensione differenziale) e le fibre ottiche. Profibus DP (Device Peripheral), introdotto nel 1994, è implementato nei Livelli 1,2 del modello ISO/OSI ed è dedicato alla comunicazione tra i processi veloci a livello di campo (sensori, attuatori,..). Veloce (fino a 12 Mbit/s), efficiente ed economico (RS485, fibra ottica), supporta un numero di utenti fino a 126 di tipo master o slave, distanze di 100 m e dispone di funzioni diagnostiche e di autoconfigurazione. E’ Plug and Play. La versione base è la DP-V0, esistono poi altre due versioni evolute e migliorate (DP-V1 e DP-V2), con nuove funzionalità. Questa versione Profibus, che è la più utilizzata, è rivolta soprattutto alla comunicazione tra sistemi di controllo e dispositivi distribuiti di I/O. Profibus DP utilizza gli strati 1 (PHY) e 2 (FDL) del modello ISO/OSI. Gli strati dal 3 al 7 non sono definiti per motivi di efficienza e le funzioni di comunicazione, previste dal protocollo e messe a disposizione dell’utente attraverso l’interfaccia utente, vengono mappate sul Livello 2 da un applicativo denominato DDLM (Direct Data Link Mapper). Questa architettura razionalizzata assicura una trasmissione veloce ed efficiente. Per la trasmissione fisica, vale lo stesso discorso fatto con FMS. DP e FMS, utilizzando la stessa tecnologia

181

trasmissiva e lo stesso protocollo di accesso al bus, possono operare simultaneamente sullo stesso cavo, anche se alle prestazioni del protocollo più lento (FMS). Profibus PA (Process Automation), introdotto nel 1995 è implementato nei Livelli 1,2 del modello ISO/OSI. Utilizza la tecnologia trasmissiva IEC 1158-2 (31.25 kbit/s, 10 utenti, 1900 m) e la codifica Manchester dei dati con protocollo di tipo sincrono. Con il protocollo PA è possibile trasmettere dati e alimentazione su un bus a due conduttori, che consente di operare in condizioni di sicurezza intrinseca permettendo ai dispositivi di essere alimentati direttamente dal bus e la sostituzione in linea. A livello Fisico, Profibus PA può essere interfacciato con DP per mezzo di un BRIDGE. PA utilizza per la trasmissione dei dati un protocollo DP esteso oltre ad un Profilo PA nel quale viene definito il comportamento dei dispositivi di campo. Profibus è un bus di campo che consente di collegare i tipici utenti di cella (partner) anche se di differenti case costruttrici: computer industriali, PLC, controlli per robot e macchine utensili, sensori, attuatori, azionamenti,... Si tratta di un bus ad accesso deterministico. Il successo di Profibus, che può vantare attualmente più di un milione di nodi installati ed una crescita vertiginosa in pochi anni, è dovuto al suo ampio spettro di applicabilità; dalla semplice connessione di attuatori e sensori fino al livello di cella, dall’industria manifatturiera al settore macchine utensili, dal settore del building al processo fino all’industria chimica e petrolchimica. E’ un bus di campo in grado di utilizzare, con lo stesso mezzo fisico, servizi per connessioni semplici orientate al byte e servizi per connessioni complesse (frame di configurazione, di parametrizzazione, di diagnostica ecc.) in modalità ciclica ed aciclica. Tutte le versioni di Profibus utilizzano un protocollo uniforme di accesso al bus implementato al Livello 2 del modello ISO/OSI. Per quanto riguarda i dispositivi, Profibus distingue tra: • Dispositivi MASTER: controllano la comunicazione sul bus. Un master può spedire messaggi senza richiesta esterna quando detiene il controllo della linea di comunicazione (possesso del token). Vengono anche chiamati stazioni attive; • Dispositivi SLAVE: sono unità periferiche che non possono accedere al bus direttamente, se non per divulgare informazioni diagnostiche che lo riguardano. Possono solamente riconoscere messaggi ricevuti o spedire messaggi al master se richiesto. Dal momento che richiedono piccole porzioni di protocollo, la loro implementazione è particolarmente economica. Sono chiamate stazioni passive.

182

La gestione dell’accesso al bus viene implementata nel protocollo Profibus secondo la filosofia mater/slave, mentre per quanto riguarda l’accesso al bus tra master, si utilizza una procedura basata su token passing. La procedura token passing garantisce che il permesso di accesso al bus, concesso al master che possiede il token, sia definito per un intervallo di tempo preciso e costante; quindi il tempo che ogni master dovrà attendere per accedere al bus dipenderà dal numero di dispositivi attivi presenti nella rete e dal massimo tempo di utilizzo del bus permesso (token hold time). Il token viene passato da un master all’altro secondo un ordine prefissato (anello logico). La procedura master/slave consente alla stazione attiva che in un preciso momento possiede il token di accedere alle stazioni passive a lui assegnate. Il master può spedire messaggi agli slave o messaggi dagli slave. Durante la fase di inizializzazione del sistema, il compito del sottostrato MAC (Medium Access Control, sottolivello del Livello 2) di ogni dispositivo master è di definire il proprio indirizzo all’interno dell’anello logico costituito da tutti i dispositivi attivi. Durante la fase operativa, i master malfunzionanti o spenti devono essere tolti dall’anello logico, mentre quelli attivati successivamente devono essere inseriti nell’anello logico. Un altro compito importante del Livello 2 (FDL) riguarda la sicurezza dei dati. Il formato delle trame utilizzato nel protocollo Profibus assicura elevata integrità dei dati grazie a telegrammi caratterizzati da distanza di Hamming uguale a 4. Lo strato di collegamento dati (DDLM) permette il trasferimento delle informazioni anche in modalità broadcasting, se è utilizzata per l’invio di trame a tutte le stazioni attestate sul bus, e multicasting per l’invio di dati ad un gruppo di stazioni. La seguente Figura mostra il tipico anello di Profibus.

183

Il protocollo Profibus, al fine di soddisfare diverse esigenze, in termini di velocità di trasmissione, distanza raggiungibile, sicurezza e possibilità di alimentazione lungo il bus, può supportare diverse soluzioni tecnologiche: • Trasmissione con RS485 per DP e FMS; • Trasmissione con fibre ottiche per DP e FMS; • Trasmissione IEC1158-2 per PA. RS485 è la tecnologia trasmissiva più utilizzata nelle applicazioni Profibus e il suo impiego include tutti quei casi in cui si rende necessaria una trasmissione ad alta velocità implementabile in maniera semplice. Utilizza come mezzo trasmissivo una coppia di conduttori attorcigliati e, se necessario, schermati. Si tratta quindi di una modalità di trasmissione molto economica e adatta a operare anche in ambienti sfavorevoli. La trasmissione del segnale avviene in corrente su tensione differenziale di 5V. Il transceiver di interfaccia viene protetto da eventuali situazioni di accesso simultaneo al segmento. Tutti i dispositivi sono connessi ad una struttura lineare e il medesimo segmento conduttore può ospitare fino a 32 unità. La modalità di connessione di Profibus è half-duplex e cioè ciascuna unità, master o slave, trasmette e riceve sulla stessa coppia di conduttori. Il bus è terminato all’inizio ed alla fine di ogni segmento da terminazioni attive. Quando si utilizzano più di 32 stazioni su più segmenti, si ricorre all’impiego di ripetitori per raccordare le varie sottoparti. La seguente Tabella mostra le relazioni tra prestazioni e lunghezza segmento con RS485:

184

Anche se, come RS485, Profibus non specifica il connettore da utilizzare, ma si limita a descrivere i poli da usare, è tradizionale l’impiego di connettori 9 Pin D-SUB. Il segnale è individuato da una tensione differenziale tra i due conduttori e la codifica è del tipo Non Return to Zero (NRZ) mostrato nella seguente Figura. Trattandosi di trasmissione asincrona, il clock non viene trasmesso e i messaggi vengono inviati a byte, preceduti dal bit di start (‘0’) e seguiti da parità e stop (‘1’) con efficienza pari a 8/11.

L’impiego di conduttori a fibra ottica può essere utile in ambienti ad alta interferenza elettromagnetica oppure per aumentare la distanza massima raggiungibile o la velocità massima impiegabile. Ulteriori vantaggi in questo tipo di supporto riguardano la leggerezza, la resistenza meccanica, la larghezza di banda e quindi la velocità di trasmissione. Lo standard IEC 1158-2 risponde alle esigenze dell’industria chimica e petrolchimica che richiedono comunicazioni sicure; si tratta di un protocollo basato sulla codifica dei bit per mezzo di segnali di corrente ed è spesso individuato con la sigla H1. La trasmissione è basata sui seguenti principi: • ogni segmento ha una sola fonte di alimentazione; • non si riversa potenza sul bus quando una stazione invia dati; • ogni dispositivo consuma una corrente di base nel suo stato di attesa tipicamente di 10 mA; • ogni dispositivo si comporta come un ‘pozzo’ passivo di corrente; • ad entrambi i capi del bus sono presenti terminazioni passive; • sono permesse reti lineari, ad albero o a stella; • è possibile aggiungere tratti ridondanti di bus per aumentare l’affidabilità.

185

La versione DP del protocollo Profibus è stata pensata per la comunicazione tra sistemi di controllo dell’automazione (PC e PLC) e dispositivi di ingresso/uscita distribuiti (sensori/attuatori) ed è ottimizzata per comunicazioni ad alte velocità e per connessioni poco costose. tuttavia per permettere lo svolgimento di procedure di configurazione. mentre il segnale trasmesso deve essere caratterizzato da una modulazione di 9 mA sulla componente continua. Il numero massimo di unità collegabili è 32. Per ampliare Profibus di un segmento PA nelle applicazioni a rischio di esplosione. il protocollo supporta anche funzioni di comunicazione aciclica. L’aumento significativo di velocità rispetto al protocollo FMS deriva sostanzialmente dell’utilizzo del servizio SRD (Send and Receive Data) del Livello 2 del protocollo. La seguente Tabella riassume le caratteristiche dello standard IEC 1158-2: Profibus PA è molto interessante e va diffondendosi soprattutto negli ambienti dove la sicurezza è importante. PA utilizza una codifica Manchester con protocollo di tipo sincrono. Questo dispositivo provvede alla conversione delle PDU (Protocol Data Unit). PA prevede dei profili che usano un’interfaccia verso blocchi funzionali: il comportamento del dispositivo viene descritto mediante delle variabili. si rende necessario un accoppiatore di segmenti con sezionatore dell’alimentazione (PNC-Process Near Component). I dispositivi connessi a Profibus PA possono essere sostituiti durante il servizio. PA viene utilizzato per i campi a rischio di esplosione dell’industria di processo. 186 . di diagnostica o di gestione degli allarmi. anche se il numero in realtà è limitato dal tipo di protezione contro le esplosioni scelta. PA prevede una topologia lineare con alimentazione autonoma del bus.I dispositivi devono essere alimentati con una corrente continua di almeno 10 mA. La maggior parte dello scambio di dati in questo contesto avviene in modo ciclico.

che consente la trasmissione di dati di ingresso e di uscita in un singolo ciclo di messaggio. è possibile invece la comunicazione tra un DPM1 e un DPM2. procedure di installazione e servizi semplici. potenzialità diagnostiche e trasmissioni senza errori sono caratteristiche altrettanto importanti per gli utilizzatori. • DPM2 per lo svolgimento delle funzioni di gestione (diagnostica e programmazione). La seguente Tabella illustra gli aspetti più salienti di Profibus DP: 187 . Profibus DP prevede due tipologie di master: • DPM1 per la gestione degli slave. Vi possono essere più DPM1 ciascuno con il suo gruppo di slaves anche se tra loro i DPM1 non comunicano. Comunque. la velocità elevata di trasmissione non rappresenta l’unico elemento che ha determinato il successo della versione DP del protocollo Profibus.

188 .

mentre in una comunicazione master/master è il dispositivo DPM2 e gestire l’interazione. Non è definita nessuna forma di comunicazione tra dispositivi della stessa categoria (esempio la comunicazione tra DPM1 e DPM1). tuttavia a livello sorgente e a livello destinazione. Sono indirizzabili da entrambi i tipi di master. in una rete possono essere collegati fino a 125 slave.Profibus DP riconosce tre differenti tipi di dispositivi: • DP Master Class 1 (DPM1): è un controllore centrale che scambia informazioni con le stazioni decentralizzate a lui assegnate (DP slave) all’interno di un ben definito ciclo di messaggio. di configurazione e pannelli di controllo. trasmettitori. Può essere utilizzata una modalità di comunicazione multicast.) che ricevono dati in input (richieste) e/o spediscono in output informazioni al controller (risposte). broadcast e multicast. è possibile accedere a dei servizi specificando nel telegramma i Service Access Point (SSAP. Profibus DP opera senza connessione. • DP Master Class 2 (DPM2): sono utilizzati nella fase di configurazione o nelle necessarie operazioni di monitoraggio e diagnostiche. valvole ecc. solo per diffondere comandi di controllo globali da parte di entrambi i tipi di master verso un gruppo di slave DP. Solo in questo tipo di configurazione è possibile ottenere i più corti cicli di bus permessi dal protocollo Profibus DP. Tipicamente appartengono a questa classe PLC e PC. La quantità di informazione scambiata tra stazioni dipende dai tipi di dispositivi in comunicazione. Appartengono a questa classe i dispositivi di programmazione. Profibus DP gestisce sistemi mono-master/slave o multi-master/slave e implementa la comunicazione punto-punto. quindi le prestazioni migliori in termini di velocità di 189 . o da parte di un dispositivo DPM2 verso un gruppo di DPM1. In una comunicazione di tipo master/slave è il master (DPM1 o DPM2) a possedere il controllo. dato che vi deve essere almeno un master di tipo DPM1. DSAP). Nei sistemi mono-master un solo master è attivo durante la fase operativa. Su un unico bus possono essere connessi fino a 126 dispositivi (master e/o slave) e. • DP Slave: sono stazioni periferiche (dispositivi di I/O. Gestisce la trasmissione dei dati utente e può comunicare con i dispositivi DP Master Class 2. al massimo si possono trasferire 246 byte di dati sia in input che in output. Human Machine Interface HMI.

il master che gestisce il token prima e dopo di lui. soprattutto se il numero di master supera le tre unità. Le prestazioni non eguagliano quelle ottenibili con una configurazione mono-master. Ogni master possiede una lista dei master attivi nella quale compare lui stesso. Tale lista è dinamica. 190 . C’è da precisare che gli ingressi e le uscite degli slave possono essere lette da qualsiasi master. La struttura di un sistema multi-master è mostrato nella seguente Figura. Le comunicazioni tra master di Classe 1 sono limitate ai messaggi di scambio del token. L’accesso al mezzo è consentito alla sola stazione attiva che possiede il token. operazione permessa al solo master (DPM1) a cui uno specifico slave è stato assegnato durante la configurazione di sistema. definito in fase di inizializzazione del sistema. rappresenta un sottosistema indipendente. Ciascun master. Il tempo di ciclo è definito dal tempo di rotazione del token. Le restrizioni esistono solo in fase di scrittura. il quale viene trasmesso tra i master presenti in rete lungo un anello logico. La struttura di un sistema mono-master è mostrato nella seguente Figura. Il master che ha il token può scambiare dati con gli slave per metà del tempo di mantenimento del token. insieme agli slave che può indirizzare. Nei sistemi multi-master più stazioni attive sono collegate al bus in fase operativa.trasferimento dati.

E’ importante sottolineare che è possibile connettere/sconnettere in linea un nuovo utente (attivo o passivo) e la configurazione di rete vi si adatta; in particolare ogni nodo attivo ha la responsabilità di rilevare eventuali nodi aggiunti tra il proprio indirizzo e il successivo. Tutte le stazioni di un sistema Profibus DP devono aver assegnato un indirizzo sul bus. Per gli slave DP tale indirizzo potrà essere definito anche via bus dai soli dispositivi DPM2. La configurazione di sistema consiste nel definire il numero di stazioni, assegnare gli indirizzi delle stazioni e quelli di I/O, il formato dei dati di I/O, il formato dei messaggi diagnostici ed i parametri del bus utilizzati. Un DPM1 può essere configurato localmente o attraverso il bus da un DPM2. Un DPM1 può trovarsi in 3 stati: • Stop (non comunica dati con gli slave); • Clear (legge dati dagli slaves, ma ne mantiene le uscite in uno stato di sicurezza); • Operate (comunica ciclicamente con gli slave scambiando ingressi e uscite). Un DPM2 può comunicare con un DPM1 leggendo o scrivendo i dati, abilitando o disabilitando la comunicazione con uno slave o forzando il suo stato. Uno slave può trovarsi in 3 stati: • Parametrizzazione: lo slave riceve alcune informazioni fondamentali riguardo il suo pieno o parziale supporto delle funzionalità previste, nonchè il numero di identificazione, e verifica tali informazioni con quelle in suo possesso dando eventuali segnalazioni di difformità; • Configurazione: vengono specificati il numero dei byte di ingresso e uscita;

191

• Trasferimento dati: avviene lo scambio dati con il master selezionato. Quindi, ricapitolando, se una stazione master DP vuole comunicare con un dispositivo slave DP, deve innanzitutto verificarne lo stato attuale (es. se il dispositivo è collegato in rete, o se è occupato da un DPM2) attraverso la richiesta delle informazioni diagnostiche. Se non emerge alcun problema, si passa alle successive fasi di parametrizzazione e di verifica dei dati di configurazione, al termine delle quali dovranno essere richieste nuovamente le informazioni diagnostiche per verificare se sono presenti errori di parametrizzazione e/o configurazione o se lo slave DP è già occupato con un altro master DP oppure se lo slave DP non è ancora pronto per comunicare. Per quanto concerne la diagnostica, ogni slave è provvisto di watchdog, che deve essere sovradimensionato rispetto al tempo di ciclo, mentre il master gestisce un timer per ogni slave a garanzia che almeno una trasmissione valida venga effettuata entro un certo tempo. L’integrità dei messaggi o telegrammi è assicurata da un penultimo byte di Frame Chech Sequenze e dal bit di parità per ogni byte che, grazie ad un’opportuna scelta dei codici funzionali o alla ridondanza di informazioni, garantisce distanza di Hamming pari a 4. Per quanto riguarda la segnalazione di anomalie e guasti di una stazione, si distinguono guasti a livello di stazione, modulo e canale. Nel complesso Profibus DP può essere considerato più come un bus di cella che come un bus specificatamente dedicato ai sensori e attuatori di tipo semplice; inoltre qualsiasi costruttore che fornisca il proprio sensore di interfaccia Profibus slave, deve subire un costoso processo di certificazione. Questo rappresenta uno dei vincoli che limita la comparsa sul mercato di sensori con interfaccia Profibus. Profibus DP si rivela un’interfaccia piuttosto gravosa, tanto che ad oggi non vi sono microcontrollori di uso comune che lo integrano a bordo come periferica. L’interfaccia di sensori economici verso Profibus DP viene oggi realizzata o indirettamente attraverso i PLC, o mediante appositi moduli concentratori, che sono moduli di ingresso e uscita, logica e analogica, con interfaccia Profibus gestita mediante firmware residente.

www.profibus.com

192

6.15 Tabelle comparative sui bus di campo Tabella 1

Tabella 2

193

Tabella 3

194

Tabella 4

195

Tabella 5

196

progetto e realizzazione di un analizzatore di traffico su rete CAN”. Fieldbus Technology.Reti di fabbrica e impianti aziendali.Prof. Orsini: “Fieldbus: a user approach”. Università degli studi di Brescia.net/links. 4.Switzerland. www.Prof. 23. 21. 2005. Article 268 Tables.com. 11. 17.manufacturing. Università degli studi di Brescia. Università degli studi di Brescia. 2006. 19. 2.6.com. J. 1997. Università di Brescia. 20. http://www. Fieldbus Specialist: “Technical Information”. 2003. 2006.Jim Montague: “Fellowship of the fieldbus”. Rinaldi: “Industrial Automation Networking – 2004 & beyond”.Sang Geon Park: “Fieldbus in IEC61158 Standard”. 7.gridconnect.Massimo Giussani: “Il protocollo Modbus”.rtaautomation. Automation. Schneider Electric. Dr.Field bus: standards”. Alessandra Flamini: “Sistemi centralizzati e distribuiti”. www. 10. Control Engineering. Università degli studi di Padova.Ilaria De Poli-Paolo Pinceti: “Sogno o son desto?”. Fieldbus & Networks. Università degli studi di Genova. 13. Hubert Kirrmann: “Industrial Communication Systems . 197 . 3 I sistemi distribuiti”.epanorama. 2004. 22. 2002. 18. Burkert . 2004.16 Bibliografia 1. 12.Fluid Control System 6. 14.Prof.controldesign.com.Baden . www. Fielbus & Networks. Domenico Pratticò: “L’evoluzione dei sistemi di comunicazione nell’automazione e nella gestione di processi industriali”. 5.John S. Massimo Giussani: “Controllo con Sercos”.The Grid Connect Fieldbuss Comparison Chart.net. 2005. 2006. www. Fieldbus & Networks. 2005. ABB Research Center . 3.Simone Stocco: “I bus di campo – Capitolo 5”. Fieldbus & Networks. 16. 2003. Control Engineering Fellowship of the Fieldbuses?.C. 2004. Università degli studi di Pisa. Alessandra Flammini: “Sistemi logico programmabili – Cap. 15.Paolo Pinceti: “Piattaforme integrate per sistemi di automazione: dal fieldbus al software”. 9. Francesco Venturini: “I bus di campo isocroni – Profibus DP V2 e Profinet I/O”. 8. Control Techniques: “Fieldbus Guide”. Giuseppe Tognini: “Studio.

198 . Fieldbus & Networks.Valerio Alessandroni: “Due temi caldi”. Fieldbus & Networks. 2005.24.Valerio Alessandroni: “La tecnologia dei fieldbus”. 2006. 25.

ma potrebbe in qualche modo spiazzare gli utenti e potrebbe preludere a una situazione simile a quella che negli anni ‘90 ha determinato la guerra dei bus di campo. robusta e consolidata quale è quella dei bus di campo. ad esempio Ethernet/IP. numerosi produttori hanno iniziato ad affiancare alle proprie soluzioni per la connessione di dispositivi basate su bus di campo. Anzi. Questa ulteriore espansione è accompagnata da una comprensibile resistenza sia sul fronte degli utilizzatori. sia su quello dei produttori che temono la concorrenza associata all’apertura caratteristica della connettività Ethernet. altre soluzioni basate su rete Ethernet con lo scopo di ottenere una rete Ethernet Industriale deterministica. restii ad abbandonare una tecnologia matura. Profinet. Di conseguenza. standard nel 199 . dopo la sua nascita negli anni ‘70. con connessioni a 100 Mbps prima e 1 Gbps poi. Il problema è che ora si sta assistendo a una proliferazione di soluzioni diverse e fra loro incompatibili: ciò è positivo.Capitolo 7 ETHERNET INDUSTRIALE 7. Un tempo. perchè stimola i costruttori di soluzioni basate su reti Industrial Ethernet a cercare di migliorare la propria tecnologia di comunicazione per renderla più performante. Dopo aver dominato le reti al livello gestionale e conquistato una parte delle reti a livello di supervisione e controllo di processo. grazie all’evoluzione tecnologica. Ethernet comincia a insinuarsi anche sul piano di fabbrica a livello di I/O come sostituto dei tradizionali bus di campo. Ecco allora un panorama dove una sola Ethernet Industriale. nonostante la tanto decantata (e in larga parte giustificata) interoperabilità di Ethernet.1 Introduzione La storia di Ethernet nell’automazione industriale ha avuto un inizio non proprio felice. Sercos-III. che ha portato da un lato all’introduzione delle LAN commutate e dall’altro ad un aumento sostanziale delle velocità di trasmissione. Modbus TCP. Ethernet Powerlink. EtherCAT. Solo sul finire degli anni ‘90. Ethernet viene “bandita” dall’automazione per più di quindici anni perchè tacciata di non determinismo. ci si è decisi a considerare Ethernet come una tecnologia di riferimento anche per le comunicazioni all’interno della fabbrica. a legare a doppio filo utilizzatore e produttore erano i diversi tipi di bus di campo. oggi. sono i protocolli di livello superiore a svolgere una simile funzione.

200 . ben tangibili. La convergenza tra la richiesta e l’offerta produce effetti sinergici sia sotto il profilo economico sia dal punto di vista tecnico. I vantaggi per gli utilizzatori industriali che scelgono di passare a Ethernet sono. si concretizza per mezzo di diversi dialetti negli strati più alti. La progressiva migrazione di Industrial Ethernet fino alla fabbrica ha posto le basi per la maturazione del processo di standardizzazione anche per tale ambito industriale. La Figura seguente mostra un rete industriale Ethernet. i quali richiamano i bus di campo dai quali si invocava l’affrancamento. garantisce un elevato livello di funzionalità e flessibilità per un’ampia gamma di applicazioni elevando la produttività e l’efficienza dei reparti attraverso un efficace flusso trasversale e verticale delle informazioni. L’utilizzazione anche a livello di fabbrica di Industrial Ethernet. nonostante questo.cablaggio strutturato e negli strati più bassi della pila ISO/OSI. Lo spostamento verso una singola tecnologia standard favorisce il progresso delle architetture aperte incoraggiando ovviamente i produttori a perseguire tale strada.

comunemente utilizzato nell’automazione di fabbrica. solitamente. però. ecc.La dimostrazione della maturità delle reti convergenti basate su Ethernet è fornita anche dalle applicazioni basate sulle transazioni in Real-Time (RT) per ciò che attiene alle operazioni. 201 . Dal punto di vista sistemico offrono. Il secondo livello ha lo scopo di interconnettere i sistemi di controllo e di monitoraggio della fabbrica come i PLC. sistemi robotizzati. In funzione degli specifici requisiti è possibile esercitare una suddivisione macroscopica di tali aree suddividendo l’impianto di comunicazione aziendale in sistema di rete direzionale. Tale passaggio e transcodifica unisce due ambiti aziendali altrimenti distinti permettendo il colloquio tra il livello di controllo di fabbrica e l’infrastruttura del vertice aziendale. di controllo e dei dispositivi. degli acquisti. attraverso la tecnologia Ethernet standard. ma soprattutto standardizzati per tutti i livelli della piramide aziendale. all’architettura. L’ultimo livello. Tale impianto ha il compito di collegare gli I/O della fabbrica (per esempio sensori. è costituito dall’infrastruttura di rete tra i dispositivi. Tale ambito applicativo è. ecc. ecc. il fianco alla reale e persistente necessità del mercato di disporre di mezzi di comunicazione evoluti. I protocolli utilizzati per tale tipo di interconnessione sono tradizionalmente a elevata affidabilità anche se carenti dal punto di vista dei volumi di scambio dei dati e della connettività con i livelli di rete superiori. La maggior parte delle aziende manifatturiere mantiene ancora oggi una separazione netta tra le reti di fabbrica rispetto ai restanti sistemi di comunicazione aziendali creando settori dedicati alle differenti esigenze aziendali.). alla disponibilità e conformità agli standard riconosciuti. occupato da sistemi di rete con tecnologie e standard che necessitano di apparecchiature idonee (gateway. ROUTER) per tradurre e trasmettere i contenuti informativi verso le reti Ethernet. alle prestazioni. Tale infrastruttura si è evoluta per supportare trasmissioni in qualsiasi condizione ambientale compresa quella con elevati livelli di rumore. economici. Il primo ambito di rete supporta tradizionalmente le funzioni amministrativocontabile. i controllori basati su tecnologia PC. flessibili. di gestione del personale..) agli apparati di automazione (attuatori. i rack di I/O oltre ai sistemi HMI.

MES (Manufacturing Execution System). I sistemi tradizionali di controllo si basano su larghezze di banda non sufficienti per l’estensione delle applicazioni di automazione e controllo dei sistemi. infatti.Il principale svantaggio della gestione di settori di interconnessione distinti è costituito dal livello basso di efficienza e produttività delle comunicazioni. del modello ISO/OSI dei sistemi di trasmissione di fabbrica è. ecc. infatti. tradizionalmente di tipo proprietario. installazione e manutenzione delle architetture trasmissive. Tale aspetto porta spesso a un aggravio dei costi di progettazione. EPM (Enterprise Project Management). la comunicazione verticale può essere esercitata. solo mediante idonei strumenti di decodifica delle informazioni con evidenti limiti nell’implementazione di sistemi RT di monitoraggio. determinato dalle evidenti difficoltà di trasmissione dei dati tra la fabbrica e lo strato dei software gestionali come ERP (Enterprise Resource Planning). Ulteriori svantaggi della eterogeneità delle piattaforme sono la mancata ottimizzazione e condivisione delle conoscenze inerenti alle tecniche applicative delle reti oltre a un incremento progressivo della complessità dell’infrastruttura di interconnessione durante le fasi di sviluppo e crescita della fabbrica. la limitazione determinata dalla larghezza di banda. Una banda ridotta limita. le potenzialità di trasmissione di tipo RT impedendo l’uso di 202 . inoltre. Non è da dimenticare. altresì. manutenzione e pianificazione. In caso di difformità dei protocolli di trasmissione. Il livello fisico.

full duplex. ecc. La penetrazione nel mercato della fabbrica di Industrial Ethernet è conseguente alla sua struttura basata sul Data Link Layer standard anche se l’affermazione degli ultimi anni è dovuta maggiormente alla sua crescente affidabilità.). Tali caratteristiche permettono la collaborazione elettronica con fornitori. Le reti dedicate al controllo e alla gestione dei dispositivi del campo sono ottimizzate per fornire prestazioni deterministiche con limitati livelli di latenza. che soddisfa ampiamente la maggior parte delle applicazioni tipiche di fabbrica. Tali intervalli (100 Mbit/s. switched network) sono ora dell’ordine di grandezza dei millisecondi. 203 . La comunicazione orizzontale tra i reparti e verticale nelle funzioni riveste notevole importanza all’interno delle logiche di ottimizzazione di impresa.strumenti e dispositivi a elevati volumi di scambio (trasmissione vocale. inoltre. il mercato sempre più competitivo inducendo i produttori a concorrere per la riduzione dei prezzi. L’applicazione di una tecnologia standard rende. clienti o appaltatori tramite un idoneo indirizzamento IP (Internet Protocol) ottenendo informazioni dedicate negli istanti di interesse. immagini. Le logiche di comunicazione estesa portano a livelli di efficienza e produttività maggiori grazie a trasmissioni RT configurate ed estese a favore di partner aziendali.

supporto al traffico TCP/IP). è ovunque. La Figura seguente mostra la distribuzione nel mercato industriale di protocolli Industrial Ethernet nel 2010 (Fonte: Arc-Advisory Group del 2004). è lo standard de-facto per il networking ed è supportata dal mondo dei PC. 204 . web sensor. molto maggiore di quella offerta dai bus di campo (12 Mbit/s per Profibus-DP). • Integrazione verticale delle comunicazioni sul campo con i livelli superiori dell’impresa. • Disponibilità di strumenti ICT (Information Communication Technology). utilizzo. • Ethernet è una tecnologia ben conosciuta e ben collaudata. integrazione con i livelli applicativi superiori (es. • Integrazione con nuove tecnologie (es. • Facilità di installazione.…). si possono elencare alcuni vantaggi derivanti dall’introduzione di Ethernet nell’automazione industriale: • Molte opzioni di connettività tra molteplici dispositivi. • Mezzo di comunicazione ideale per i nuovi tipi di nodo a livello di campo (es. di nodi e/o sottoreti. manutenzione. Wireless-WiFi.…).Per concludere. • Basso costo hardware e disponibilità di processori con interfaccia Ethernet integrata (come in CAN per esempio). fibra ottica. ad esempio strumenti basati su PC (es. connessione diretta a Internet e diagnostica in remoto tramite comuni browser (es. simulatori. Internet Explorer). soft-PLC. analizzatori di rete. Ethereal). • Banda elevata (anche 1 Gbit/s).

di diverse soluzioni basate su Industrial Ethernet ? Il punto fondamentale è che le prestazioni in termini di Real-Time non sono assolute. anche se. riportate nella seguente Tabella. dal punto di vista dell’utente finale. ovvero. la valutazione non può basarsi soltanto su valori puntuali delle prestazioni. Il criterio di valutazione delle misure. Da tale confronto sembrerebbe che tale criterio determini le prestazioni migliori. ma dipendono sempre dal contesto.2 Esempio di confronto tra soluzioni diverse Come differiscono le prestazioni. in termini di Real-Time. ma bensì sulla capacità della soluzione di adattarsi 205 . Profinet-IRT ed Ethernet/IP. è basato sulle prestazioni in termini tempo di risposta (Response Time) e distorsione (Jitter. Dal confronto è evidente come nel complesso tutte hanno tempi di variazione della risposta inferiori al millisecondo con prestazioni di un ordine di grandezza superiori per Sercos-III ed EtherCAT rispetto Ethernet Powerlink. A titolo esemplificativo è possibile confrontare il comportamento di cinque diverse soluzioni in un caso applicativo Real-Time di controllo multi-asse per cui 100 assi devono essere controllati contemporaneamente.7. la variazione del tempo di risposta).

infatti. Come è evidente. il volume di scambio per Ethernet è pressochè uguale a Sercos-II (con Sercos-II un pacchetto passa attraverso tutte le stazioni e il suo vantaggio relativo aumenta più stazioni sono connesse) e doppio rispetto a Profibus-DP. controlli multi-asse che non richiedono prestazioni superiori a quelle fornite da Ethernet/IP. Infine. Nella seguente Tabella si confronta il comportamento di bus di campo come Sercos-II e Profibus-DP con Industrial Ethernet in funzione del numero di pacchetti di dati inviati per millisecondo. Esistono.al meglio a tutti i requisiti applicativi. 206 . Bus di campo specializzati per il controllo multi-asse come Sercos-II o Profibus-DP non sono necessariamente migliori dei nuovi sistemi basati su Industrial Ethernet. tempi di risposta di alcuni millisecondi in applicazioni di controllo multi-asse sono per la maggior parte delle volte adeguati.

non sono così fragili come quelli HRT e tollerano il superamento della timeline.7. Tali sistemi sono quelli in cui il corretto funzionamento non dipende solamente dalla validità dei dati forniti (corretti oppure no). Tali sistemi sono presenti. I sistemi SRT. • SOFT Real-Time (SRT). pena eventi irrecuperabili per il sistema di automazione come il danneggiamento dello stesso. nei sistemi di controllo degli aerei e dei treni dove un errore può avere conseguenze disastrose. I sistemi Real-Time si suddividono in due categorie: • HARD Real-Time (HRT). ma legano l’avanzamento dei processi in modo che rispettino una ben precisa esecuzione temporale. Esempio di sistemi SRT sono le applicazioni multimediali in streaming. per esempio. La seguente Figura mostra un semplice esempio di rete non Real-Time.3 Real-Time (RT) I sistemi Real-Time (RT) non implicano automaticamente un’esecuzione più rapida dei processi che devono svolgere. Se il sistema non soddisfa questi requisiti è detto sistema Non Real-Time (NRT). I sistemi HRT sono quelli per i quali non è in nessun caso permesso il superamento della timeline (linea temporale). anche se è preferibile che non avvenga. Un sistema Real-Time deve garantire il successo nell’esecuzione del processo entro certi tempi noti senza che non vengano oltrepassati. ma anche dal momento della loro disponibilità temporale. 207 . Un errore in un sistema di questo tipo non causa la perdita del controllo del sistema o eventi disastrosi.

• Response Time: intervallo di tempo tra l’istante di Release Time e quello di completamento dell’esecuzione. Il significato dei tempi della seguente Figura è: • Release Time: definisce l’istante in cui il Job diventa disponibile per il sistema. in caso di superamento si ha un ritardo nell’esecuzione del Job. 208 . • Deadline: tempo entro il quale l’esecuzione deve essere terminata. ogni Job ha a disposizione un determinata quantità di tempo per essere portato a termine. è costituito da più blocchi temporali. • Ready Time: l’istante in cui un nuovo Job può andare in esecuzione (maggiore o uguale al Release Time).Un Job (un qualunque processo che il sistema deve eseguire) in un sistema RT. • Execution Time: tempo necessario al completamento del Job da parte del sistema.

Come detto prima. ma lo sviluppo di nuove tecniche basate sull’utilizzo di Ethernet sono arrivate a garantire tempi di risposta dell’ordine dei microsecondi. Normalmente sia la tecnologia Ethernet che quella dei bus di campo tradizionali non possono garantire il rispetto di tempi di ciclo inferiori ad alcuni millisecondi. In un sistema RT il Jitter deve essere conosciuto e limitato ad un piccolo intervallo di tempo in modo da potere garantire le prestazione del sistema. Realizzare una comunicazione Real-Time basandosi sull’architettura Ethernet garantisce grossi benefici rispetto alle altre tecnologie. 209 . Con l’aumentare della sincronizzazione e della larghezza di banda a disposizione. Le applicazioni di tipo distribuito impiegate nell’automazione richiedono una precisa sincronizzazione in modo tale da garantire che i tempi di consegna delle informazioni siano garantiti. Tale comunicazione su rete RT può essere HARD o SOFT in dipendenza dai requisiti del sistema e dai Job in esecuzione che comprendono la trasmissione e la ricezione dei loro messaggi. Per realizzare un sistema RT distribuito in cui sono presenti più computer connessi in rete è fondamentale implementare una comunicazione affidabile e tempestiva. Tutti i sistemi RT hanno un determinato livello di Jitter per quanto riguarda la temporizzazione. Utilizzando una rete di controllo basata su Ethernet a 1 Gbps si ha a disposizione una larghezza di banda 100 volte maggiore rispetto agli attuali bus di campo (ad esempio 12 Mbps con Profibus). Anche le Deadline possono essere di tipo HARD o SOFT. I processori distribuiti che eseguono applicazioni Real-Time.• Latency: la latenza è l’intervallo temporale tra il tempo in cui è disponibile il Job (Release Time) e il tempo in cui inizia la sua esecuzione (Ready Time). Il Jitter è l’intervallo di variazione temporale dei tempi visti sopra. un superamento di una HARD Deadline può avere serie conseguenze per il funzionamento correto del sistema. le reti Real-Time Ethernet sono state standardizzate sia a livello IEEE che ISO. indicando così il tipo di dipendenza temporale del relativo Job. dando così la possibilità ai produttori di utilizzare questo nuovo standard sia per quanto riguarda il livello Fisico sia quello del Data Link Layer. devono poter contare sulla possibilità di comunicare tra di loro tramite un protocollo RT (Real-Time Communication).

CANopen.Nell’automazione industriale sono impiegati vari tipi di reti Real-Time (Profibus. eccetera). ma nessuna di queste ha la diffusione e la larghezza di banda offerta da Ethernet. 210 .

La seguente Figura riporta l’ordine di grandezza dei tempi di ciclo di comuni applicazioni di controllo nell’automazione industriale. è intrinsecamente non deterministica per il semplice fatto che a prescindere dalla velocità a cui opera. quindi appunto determinato (è nota la latenza massima). aspetto non accettabile nelle applicazioni di controllo nell’automazione industriale. La Figura seguente mostra il funzionamento di CSMA/CD. 211 . come quella di Ethernet. Una rete basata sul protocollo CSMA/CD. i ritardi che si possono verificare a seguito del ripetersi di collisioni tra i pacchetti di dati non sono prevedibili a priori e pertanto non permettono di garantire che un dato messaggio giunga a destinazione entro un determinato numero di millisecondi (problema che diventa tanto più grave quanto più la rete Ethernet è soggetta ad un alto traffico dati).7.4 Ethernet e il determinismo Il determinismo di un sistema è legato alla sua capacità di rispondere alle sollecitazioni entro un intervallo di tempo prestabilito e noto. Una rete Ethernet quindi non è in grado di garantire una comunicazione di tipo Real-Time.

ad esempio tramite l’impiego di SWITCH. come nel caso delle trasmissioni di tipo broadcast che verrebbero altrimenti inviate su tutti i segmenti. Gli stessi SWITCH. al contrario di half-duplex. dal canto loro. La creazione di domini di collisione separati (segmentazione della rete). un nodo può trasmettere e ricevere i pacchetti di dati contemporaneamente) permette di considerare le connessioni tra i nodi alla stregua di connessioni punto-punto dove il rischio di collisione con i messaggi provenienti da altri nodi è limitato ai soli dispositivi che cercano di comunicare simultaneamente con lo stesso nodo. In linea di massima la creazione di domini di collisione limitati tramite SWITCH e il mantenimento del traffico di rete al di sotto di una determinata soglia permette di risolvere un’ampia fetta delle esigenze di determinismo nel mondo dell’automazione industriale. La seguente Figura mostra l’impiego di uno SWITCH in una rete. permette inoltre di eliminare dalle porzioni di rete più sensibili al problema del determinismo tutto quel traffico che andrebbe inutilmente a incidere sugli SWITCH. se si progetta oculatamente la rete è possibile fare in modo che le collisioni e i ritardi siano talmente limitati da non incidere sul determinismo.Tuttavia. aggiungono una latenza che deriva dalla necessità di leggere i pacchetti almeno quel tanto che basta per identificarne la destinazione. ma in genere il ricorso alla tecnologia Ethernet ad alta velocità (Fast Ethernet e Giga Ethernet) permette di rendere minima l’incidenza sul comportamento della rete. Da un lato il ricorso a reti commutate full-duplex (con full-duplex. 212 .

• Producer/Consumer (Produttore/Consumatore): Lo scambio di dati avviene con l’intermediazione di un distributore. la modalità editore-abbonato prevede l’invio dei dati opportunamente contrassegnati a tutti i terminali simultaneamente e senza richiesta preventiva. la lettura di un trasduttore) che immette il dato sulla rete con l’indicazione dell’indirizzo del nodo richiedente.Una modalità di trasmissione che ben si presta all’impiego nei sistemi di controllo industriali è quella di tipo editore-abbonato (publisher-subscriber). A differenza della modalità punto-punto che richiede una connessione diretta tra i due nodi. Il consumatore trova quindi sempre a sua disposizione un dato aggiornato. ma il dato è messo a disposizione di tutti i consumatori che lo richiedano ed è valido fino alla emissione di un nuovo valore aggiornato da parte del produttore. e quella di tipo client-server che necessita di un server centrale che potrebbe rallentare le comunicazioni. 213 . Il produttore fornisce periodicamente al distributore il dato di sua pertinenza (ad es. Il cliente richiede un dato a uno specifico fornitore (es. o di una variabile di comando per un azionamento). Un breve richiamo sulle modalità di trasmissione: • Client/Server (Cliente/Fornitore): Lo scambio di dati avviene fra due dispositivi. l’aggiornamento del valore di una grandezza misurata.

Tuttavia. comunque. In questo modo si riduce ulteriormente l’incidenza del traffico non critico sui dati di maggior importanza ai quali verrà assegnata la priorità più alta. una rete Ethernet opportunamente progettata può fornire prestazioni conformi a quanto ci si aspetterebbe da un tradizionale e deterministico bus di campo. E’ bene notare. La specifica contempla la marcatura delle trame Ethernet con un livello di priorità compreso tra 0 e 7 che viene utilizzato dagli SWITCH per stabilire in che ordine smistare i messaggi memorizzati nel loro buffer.1P che si occupa della Qualità del Servizio (QoS. e che i messaggi a bassa priorità potrebbero subire ritardi consistenti se il traffico ad alta priorità è elevato. Ovviamente per poter sfruttare il meccanismo di prioritizzazione dei messaggi è necessario dotarsi di 214 . che non ci sono garanzie circa la banda disponibile e la massima latenza.• Peer to Peer: Un nodo connesso alla rete può essere in ogni istante client e server per lo stesso servizio. sebbene il determinismo vero e proprio non possa essere raggiunto. Quality of Service) e che copre l’aspetto della prioritizzazione dei messaggi. Un ulteriore passo nella direzione di un maggior determinismo è stato fatto dall’IEEE con la specifica IEEE 802.

La definizione dei livelli di priorità viene realizzata utilizzando tre bit di una estensione da 4 byte prevista dagli standard IEEE 802. L’adozione di protocolli di livello superiore che impacchettino in maniera efficiente i dati da comunicare. Una parte di questi quattro ottetti (esattamente dodici bit) viene impiegata per specificare l’identificativo di VLAN o LAN virtuale. L’introduzione del concetto di VLAN (IEEE 802. nelle reti Ethernet industriali permette di operare un’ulteriore separazione del traffico in modo da limitare ulteriormente il propagarsi di pacchetti estranei sulle porzioni di rete che devono esibire un comportamento deterministico. passando da 1518 a 1522 byte.SWITCH compatibili con la specifica IEEE 802. spesso di pochi byte se non addirittura costituiti da singoli bit 215 . La seguente Figura mostra come funziona la priorità in uno SWITCH.1Q).1Q: la trama originaria Ethernet viene difatti aumentata di quattro byte. La seguente Figura mostra come opera una VLAN.1P e prevedere un traffico ad alta priorità tale da non saturare a propria volta la rete. preambolo e delimitatore di trama esclusi.1P e IEEE 802.

216 . La seguente Tabella può dare un’idea delle capacità Real-Time di una rete Ethernet ben progettata in diverse situazioni di traffico. è possibile quindi ottenere una comunicazione Real-Time da una rete Ethernet anche a livello di campo nell’automazione industriale. Grazie a tutti gli accorgimenti sopra descritti. La seguente Figura mostra alcuni protocolli di livello superiore di Industrial Ethernet nel modello ISO/OSI.provenienti dai sensori. Si può quindi sicuramente parlare di Real-Time Ethernet (RTE). aiuta inoltre a rendere più veloce il trasferimento delle informazioni utili da un punto all’altro della rete riducendo sensibilmente il traffico totale.

217 . tale lasso di tempo si riduce a solamente un’ora. Ad esempio. la probabilità al 99% di un ritardo maggiore di 1 millisecondo (a causa di possibili collisioni) rispetto la Deadline imposta. nella quale vengono trasmessi un certo numero di messaggi di dati ogni secondo costante (Message Rate). ha un orizzonte temporale di almeno 1140 anni. di una dimensione fissa di byte (Packet Size). La colonna Time (in anni. Con Tmax (in millisecondi). dove ogni messaggio ha dimensione di 128 byte.Si consideri una rete Ethernet con una certa larghezza di banda (Bandwidth). nella quale sono inviati 1000 messaggi di dati ogni secondo. per una rete a 100 Mbit/s sulla quale è imposta una Deadline di 1 millisecondo. è indicata la Deadline imposta da rispettare. con una probabilità del 99%. giorni od ore) riporta. Se però la larghezza di banda si riduce a solo 10 Mbit/s e la Deadline è pari a 2 millisecondi. il lasso di tempo minimo certo affinchè la Deadline imposta non sia oltrepassata di oltre 1 millisecondo a causa di ritardi dovuti a collisioni sulla rete.

Le soluzioni approntate dalla standardizzazione da parte dell’IEEE si incentrano sul concetto di Spanning Tree Protocol (l’attraversamento delle strutture ad albero) che rientra nelle specifiche IEEE 802. Ad oggi sono disponibili diverse soluzioni.1D: la rete Ethernet viene realizzata con una struttura ad albero i cui collegamenti ridondanti vengono automaticamente disattivati durante il funzionamento (anche per evitare la creazione di anelli) fino a quando un guasto non rende necessaria la riattivazione. che si occupano di accrescere la robustezza di una rete Ethernet industriale offrendo strutture duplicate in grado di resistere alla messa fuori servizio di una parte dei componenti senza per questo richiedere la duplicazione dell’intera rete. alcune delle quali proprietarie.7.5 Ethernet e la ridondanza Un aspetto di grande interesse per gli utilizzatori in ambito industriale è senza dubbio quello della ridondanza. Esiste una versione recente e più veloce chiamata Rapid Spanning Tree Protocol (IEEE 802. Una soluzione più diffusa consiste nell’aggregare i collegamenti: invece di disabilitare i percorsi ridondanti. li si aggrega tra loro considerandoli alla stregua di 218 .1W) nella quale i tempi di ferma del sistema si riducono a pochi secondi. Il problema di questo approccio è che il rilevamento dei guasti. la scansione della rete e la sua riconfigurazione presentano tempi (Recovery Time) che sono in generale troppo lunghi per l’impiego in una tipica applicazione industriale (da 30 a 60 secondi).

I diversi collegamenti fisici da raggruppare devono avere le medesime caratteristiche di velocità ed essere full-duplex. Il vantaggio. è che quando si hanno più DTE in trasmissione vengono utilizzati più collegamenti simultaneamente. 219 . con conseguente accrescimento della banda. Alle diverse soluzioni proprietarie di aggregazione dei link viene affiancata la specifica aperta IEEE 802. oltre a una forma di ridondanza con tempi di riconfigurazione brevi. ma si verifica solo un rallentamento di una sua tratta. una volta aggregati vanno a realizzare un unico collegamento logico tra due elementi attivi dell’infrastruttura di rete (SWITCH o server) caratterizzati ciascuno da un solo indirizzo MAC.un’unica tratta come mostrato nella seguente Figura.3AD. In caso di guasto non si perde la funzionalità della rete. Tutti i frame inviati da un DTE (Data Terminal Equipment) o da un server vengono instradati su uno dei collegamenti del gruppo aggregato per essere poi gestiti e smistati dall’elemento attivo all’altro capo.

Un’ulteriore alternativa aperta può essere rappresentata dal ricorso allo standard IEEE 802. mentre l’altro ramo dell’anello (Backup) entra in funzione solo in caso di guasto del ramo principale. gli SWITCH sono connessi tra loro in una topologia ad anello dove un suo ramo è normalmente attivo (Active Bus). i tempi di ferma del sistema sono limitati solo a centinaia di millisecondi. 220 . permette di aggiungere collegamenti ridondanti alla rete. Come si può osservare nella seguente Figura.12D che unisce la tecnologia Ethernet alle reti di tipo Token Ring e. Con una soluzione di questo tipo. in particolare.

come mostrato nella seguente Figura: 221 . Diverso è il caso dei sistemi distribuiti. cambiando al variare della temperatura (da 10 a 100 ppm/°C) e di molti altri fattori (vibrazioni.6 Protocollo IEEE 1588 (PTP) Nel settore dell’automazione industriale moderna si può affermare che la produttività di una macchina è legata in modo diretto alla velocità di funzionamento dei suoi sensori e attuatori. È semplice. le reti Ethernet per applicazioni industriali in tempo reale. ossia diretti contemporaneamente a tutti i nodi della rete. EtherCAT. ciascuna in grado di soddisfare in particolare un sottoinsieme delle esigenze delle applicazioni in tempo reale (Real-Time). eccetera). Le architetture più comuni per la realizzazione di un sistema altamente ripetitivo si basano su sistemi centralizzati. dette Real-Time Ethernet (RTE). Ethernet/IP. associare un interrupt a un evento in ingresso in modo che sia riferibile al sistema di temporizzazione centrale. In questo contesto diventa importante la sincronizzazione accurata di tutti i nodi che partecipano a una rete industriale per l’automazione distribuita. dove CPU. Queste nuove tecnologie si stanno proponendo come soluzioni standard: è il caso di Ethernet Powerlink. rumore elettrico. come molto spesso avviene nei collegamenti industriali in tempo reale. si stanno diffondendo nell’ambito dei collegamenti a livello di sensori e attuatori. infatti. Profinet. grazie alle ottime prestazioni (100 Mbit/s) e al limitato costo dei dispositivi di interfaccia. In questa situazione i tre nodi potrebbero avere riferimenti temporali sfasati tra loro e oscillatori locali la cui frequenza nominale è soggetta a una certa tolleranza. Ultimamente. che può essere applicato se le distanze tra i nodi consentono di trascurare il ritardo di propagazione del segnale sul mezzo.7. dove una sola unità centrale di elaborazione (CPU) comanda localmente tutti i punti di ingresso e uscita. specialmente se in tempo reale. Si può infatti pensare che la CPU sincronizzi i nodi mediante l’invio di messaggi di sincronizzazione di tipo broadcast. sistema di attuazione delle uscite e sistema di acquisizione degli ingressi sono solo dei nodi all’interno di una rete di comunicazione industriale. la CPU quindi può elaborare e programmare l’attuazione dell’uscita con uno sfasamento temporale ben preciso e ripetitivo rispetto all’istante dell’evento d’ingresso. Esiste un approccio semplice ai problemi introdotti.

Si fa notare che neppure le priorità e le VLAN definite dalle specifiche Ethernet (IEEE 802. il protocollo per scambiare le informazioni relative al tempo e la sincronizzazione temporale degli oggetti distribuiti su una rete. ma nell’ambiente industriale e più in generale nelle applicazioni dove è sentita l’esigenza di determinismo. gli HUB Ethernet sembrerebbero la soluzione ideale (ritardi introdotti sono dell’ordine del microsecondo).Ciò non è però facilmente applicabile ad una rete industriale basata su Ethernet. Esso definisce il Precision Time Protocol (PTP). funzioni d’integrazione). diagnostica. Se si mira solamente a ridurre (e poi a trascurare) i ritardi di trasmissione. Ethernet Powerlink.1P. supportano IEEE 1588 come metodo per la distribuzione di un riferimento di tempo unico per tutta la rete (per esempio Profinet. Agli HUB vengono perciò preferiti gli SWITCH. anche la probabilità di collisione deve essere ridotta al minimo. IEEE 802. Questo protocollo può essere usato per sincronizzare i clock di sistemi di misura o di sistemi di controllo. che inoltrano i pacchetti Ethernet solo ai rispettivi destinatari. Molti protocolli per Real-Time Ethernet. Molti dei protocolli Real-Time Ethernet si basano su uno standard internazionale unico per sviluppare le loro soluzioni di sincronizzazione: lo standard IEEE 1588. Il meccanismo di buffering di uno SWITCH tradizionale potrebbe quindi far aumentare il Jitter di ogni pacchetto fino ad oltre 100 us. poichè la presenza di SWITCH rende non trascurabili i ritardi di trasmissione. e altri). Nelle Real-Time Ethernet. ma che aggiungono dei ritardi la cui entità dipende dall’architettura e dalla tecnologia dello SWITCH stesso. i messaggi Real-Time con esigenze di determinismo condividono il mezzo trasmissivo con il traffico TCP/IP a bassa priorità (supervisione di processo. 222 .1Q) possono ridurre questo tipo di Jitter.

La Tabella che segue. IEEE 1588-PTP è l’evoluzione dello standard NTP (considerato non abbastanza affidabile per le applicazioni dell’ automazione industriale). Secondo lo standard. In base alla qualità del clock.In questo modo è possibile eseguire delle operazioni distribuite (campionamento. attuazione) svincolandosi dai ritardi introdotti dal mezzo trasmissivo. ne migliora l’accuratezza di sincronizzazione riducendone però l’applicabilità a poche sottoreti. chiamati slave clock. accuratezza e risoluzione. 223 . In un sistema nel quale sono presenti diverse sottoreti. Se il clock deriva da un orologio atomico o da un ricevitore GPS si ha la qualità massima in termini di stabilità. gli oggetti (o nodi) di una rete sincronizzata tramite PTP possono essere: • Ordinary clock: sono i componenti che possono comunicare con gli altri tramite un singolo percorso (fanno parte di una sola rete). Lo scambio di un riferimento temporale all’interno di una rete a commutazione di pacchetto è nato molto tempo fa nel settore delle telecomunicazioni e ha portato alla creazione dello standard NTP (Network Time Protocol). nella rete viene scelto il clock di rifererimento (il migliore tra quelli presenti nella rete) detto master clock. Ogni oggetto che dispone di un clock ha anche un grado di qualità del proprio clock. riassume le caratteristiche dei due protocolli raffrontate con le prestazioni relative alla sincronizzazione di elementi distribuiti nel caso si adotti una strategia basata su ricevitori GPS (Global Positioning System). cioè il componente che poi distribuisce il proprio clock agli altri. • Boundary clock: sono i componenti che possono comunicare con più reti diverse (sono l’equivalente dei gateway. i relativi master clock dovranno sincronizzarsi con il GMC (se possibile). ossia sono il punto di unione di due sottoreti diverse). quindi si parla di GrandMaster Clock (GMC).

fino alla soluzione hardware. Follow_Up. Lo standard IEEE 1588 non è stato creato appositamente per le Real-Time Ethernet. Sicuramente è più economico utilizzare una soluzione dove i dati di processo e quelli relativi alla sincronizzazione passano sullo stesso cavo. 224 .Si nota come la sincronizzazione tramite GPS risulti essere la migliore. che soffre di forte interazione con il livello Applicazione. lo standard IEEE 1588 al momento sembra molto promettente come metodo di sincronizzazione essendo indipendente dalla tecnologia utilizzata e consentendo implementazioni scalabili da quella full-software. Delay_Request. le operazioni a livello di protocollo di rete (PTP). Nello standard è prevista una negoziazione per l’individuazione della migliore sorgente di clock (master clock) tramite un algoritmo detto Best Master Clock (BMC). Nello specifico vengono descritti il modo di rappresentare il tempo. rendendone nettamente problematico l’utilizzo in campo industriale. Data la sua completezza. ma affronta il problema in modo più generale. la scelta del riferimento temporale e lo scambio di tali informazioni. La sincronizzazione in PTP si basa sullo scambio di 4 tipi di messaggi come mostrato nella seguente Figura: Sync. definendo le modalità per descrivere la qualità dei clock in sistemi connessi da una rete generica. ma per applicarla occorre dotare tutti i nodi di un’antenna esterna e di un ricevitore dedicato. Delay_Response.

Il master clock e lo slave clock possono essere sfasati di un certo offset temporale chiamato Off. L’istante di ricezione Tm2 viene anche comunicato allo slave per mezzo del messaggio Delay_Response. I messaggi di Sync si succedono a intervalli regolari (normalmente qualche secondo). 225 . Quando lo slave clock riceve il Sync rileva l’istante di ricezione Ts1 e così può impostare la prima equazione: In seguito lo slave clock spedisce un messaggio di Delay_Request al tempo Ts2 che arriva al master nell’istante Tm2. Quando il master clock invia il messaggio di Sync a uno slave rileva l’istante esatto di spedizione Tm1. assunto come identico in entrambe le direzioni. Con one_way_delay è indicato il ritardo di trasmissione tra master e slave. Ossia si ha: Ts = Tm + Off. Questo tempo (timestamp di trasmissione) può essere messo nello stesso messaggio Sync oppure in un messaggio di tipo Follow-Up spedito successivamente.

L’unico modo per sincronizzare due sistemi a meno di un microsecondo è quello di utilizzare un hardware realizzato appositamente 226 . Off è continuamente aggiornato perchè può variare in seguito alla variazione del riferimento locale. Si ricorda che per l’aggiornamento della stima di Off devono essere applicati particolari algoritmi per filtrarne le brusche variazioni.Si può quindi impostare un’altra equazione: A questo punto lo slave clock ha tutti i tempi necessari e calcola: Come detto si assumono i ritardi di trasmissione da master a slave e da slave a master identici. Quindi si ha: Lo slave clock può ora calcolare Off e one_way_delay: Naturalmente questi calcoli sono validi solo se il ritardo introdotto sulla linea di comunicazione da e verso il master è costante. Se la generazione dei timestamp è data da una stima software dell’istante in cui i pacchetti transitano sul cavo. direttamente legati sia al software che implementa gli strati superiori dello stack sia al dispositivo periferico che implementa il MAC Ethernet. Questa considerazione permette di aggiornare Off mediante l’invio da parte del master di un messaggio di sincronizzazione seguito eventualmente dal messaggio di Follow-Up. mentre one_way_delay si può considerare un valore statico in assenza di particolari condizioni di traffico (per esempio congestioni). si avranno dei problemi di Jitter. Quando il protocollo PTP dello standard IEEE 1588 viene implementato su Ethernet si usa solitamente il protocollo UDP/IP e i suoi timestamp dovrebbero riferirsi al bit meno significativo del byte SFD (Start of Frame Delimiter) del frame Ethernet.

IEEE 1588-PTP non modifica Ethernet rendendolo più sicuro o deterministico. Unico punto da esplorare è l’uso di IEEE 1588-PTP nelle applicazioni Wireless (WiFi). ecc. ma rimane il Jitter associato agli SWITCH. ma agire analogamente a uno slave clock rispetto ai messaggi provenienti dal master clock ed apparire come master clock per gli slave clock a valle.che rilevi i tempi Tm1. Delay_Request. Agendo in questo modo si elimina il contributo di Jitter dovuto alle variazioni del tempo di esecuzione delle routine dello stack e al MAC. 227 . possono permanere delle fluttuazioni sulla stima di one_way_delay e di Off per effetto della quantizzazione dei timestamp. Tuttavia. bisogna filtrare in modo statistico.). Infatti. one_way_delay dipende sicuramente dal numero e dalla tipologia di SWITCH che separano il master dallo slave. dove problemi legati alla comunicazione del segnale in presenza di interferenze distruttive o eventi eccezionali (ElectroMagnetic Interference-EMI). Tm2. ossia all’interfaccia tra il livello fisico e il sottostrato MAC. Anche ricorrendo a un’implementazione hardware ed all’uso di SWITCH aderenti allo standard. In conclusione. ma fornisce un metodo che permette ad altri protocolli di farlo. nel caso di una rete Ethernet. del Jitter presente a livello Fisico e delle implementazioni degli SWITCH. Per ovviare anche a questo problema lo standard prevede che gli SWITCH possano disporre di un proprio clock e che agiscano verso l’esterno come boundary-clock. ciò può rallentare la convergenza e richiedere un più frequente invio del messaggio di sincronizzazione Sync da parte del master. In pratica ciò consiste nel non propagare i messaggi PTP (Sync. Per ottenere sincronizzazioni nell’ordine di 100 nanosecondi. potrebbero influire pesantemente sugli algoritmi di sincronizzazione. necessario in tipiche applicazioni come il controllo del movimento e la robotica. Un sistema costituito da più nodi tra loro sincronizzati che sfrutti delle applicazioni per il controllo del traffico è in grado di garantire una comunicazione in Hard Real-Time (HRT) con Ethernet. tra tutte le metodologie di sincronizzazione si può affermare che il recente standard IEEE 1588-PTP è già considerato un riferimento comune per la sincronizzazione dei nodi distribuiti su reti Ethernet. Ts1 e Ts2 a livello di MII (Media Independent Interface).

7 L’hardware in Ethernet Industriale L’hardware utilizzato per realizzare reti Ethernet non è stato concepito per poter lavorare in condizioni estreme di temperatura.7. 228 . interferenze elettriche e magnetiche. vibrazioni meccaniche. La seguente Tabella mostra le differenze di impiego di Ethernet in area ufficio e in area industriale. la possibilità di portare l’alimentazione a sensori e trasduttori con il medesimo cavo utilizzato per trasferire le informazioni o caratterizzate dall’esposizione a solventi o altri agenti chimici corrosivi (situazioni che sono normali negli ambienti industriali).

per quanto possibile. I CONNETTORI. 229 . che non sono in grado di sopportare le sollecitazioni termiche e meccaniche di un ambiente industriale. visibile nella seguente Figura. Una delle possibili soluzioni a questo tipo di problemi può essere quello di tenere l’hardware ordinario. al riparo dalle sollecitazioni esterne. ad esempio su un robot per le saldature all’interno di una catena di montaggio.I cavi e i connettori utilizzati dalle schede di rete dei PC da ufficio difficilmente resisterebbero a lungo se impiegati in una tipica applicazione industriale. Gran parte delle reti Ethernet tradizionali si appoggia ai connettori plastici di tipo RJ-45. ricorrendo ad appositi mobiletti e a gusci protettivi per i connettori. il problema di questo approccio è che la eterogeneità degli ambienti industriali è tale da portare alla creazione di soluzioni multiple e questo rende difficile l’emergere un singolo standard. Un’altra soluzione consiste nell’utilizzare hardware appositamente progettato per sopravvivere negli ambienti severi (ad esempio utilizzando connettori industriali e circuiti stampati multistrato per aumentare la reiezione ai disturbi).

230 . alla scarsa resistenza agli agenti chimici. hanno deciso di racchiudere i connettori RJ-45 all’interno di gusci in grado di offrire il livello di protezione cercato: sono stati creati diversi consorzi che hanno portato a soluzioni indipendenti comunque riconducibili a copriconnettori ermetici.I problemi sono infatti molteplici. alla fragilità meccanica e agli effetti deleteri delle vibrazioni sulle placcature dorate dei contatti. Alcuni produttori hanno optato per connettori più resistenti che comportano però la rinuncia ai bassi costi derivanti dall’impiego di componenti standard per i nodi e per l’infrastruttura di rete. proprio per preservare la compatibilità con lo standard su doppino. mentre il secondo non offre grandi possibilità di protezione dalle infiltrazioni. dall’intervallo di temperature limitato. in grado di resistere alle sollecitazioni tipiche e dotati di serracavo incorporato per ovviare alla bassa resistenza allo strappo. Esempio di protezioni per connettori sono visibile nella seguente Figura. L’impiego di connettori circolari a 8 pin di tipo M12 (gli stessi utilizzati dai bus di campo DeviceNET e Foundation Fieldbus) e dei connettori di tipo DB-9 (quelli utilizzati per le porte seriali dei Personal Computer) rappresenta uno sforzo in questo senso. Tuttavia il primo tipo non si presta all’impiego ad alte velocità. Altri produttori. Esempi di connettori sono visibili nella seguente Figura.

Il ricorso a un copriconnetore di tipo M18. Sul fronte delle fibre ottiche. in grado di inglobare il jack RJ-45 e di garantire un livello di protezione IP67 rappresenta una delle soluzioni più quotate al momento. Esempi di connettori RJ45 sono visibili nella seguente Figura. i connettori LC e MT-RJ si offrono come soluzioni adatte per essere racchiuse in gusci protettivi alla stessa stregua dei connettori per doppino intrecciato. Esempi di connettori industriali per fibra ottica sono visibili nella seguente Figura 231 .

Altrettanto importante è far notare che si tratta di componenti considerevolmente più robusti dei cavi coassiali e dei doppini intrecciati. pur richiedendo un’attenzione particolare nel non piegarle al di sotto di un determinato raggio di curvatura.La connessione con apparecchiature racchiuse all’interno di contenitori protettivi. Esempio di cavi in fibra ottica industriali sono visibili nella seguente Figura. Tuttavia questa può essere l’unica scelta possibile in certi tipi di ambiente. e connettori tradizionali di tipo RJ-45 all’interno. Le fibre ottiche rappresentano una soluzione ideale al problema delle interferenze elettromagnetiche che si riscontrano in un ambiente di fabbrica. inoltre la loro crescente diffusione sta portando a una riduzione della differenza di costo rispetto alla controparte su doppino. Il principale svantaggio delle fibre ottiche è rappresentato dal costo che implicano per la rete. 232 . ad esempio di tipo M12. può essere realizzata ricorrendo a dei passanti che presentano connettori industriali all’esterno. in grado di resistere all’umidità e alla polvere. essendo totalmente immuni a ogni tipo di problema elettrico causato dalle apparecchiature che si trovano nelle vicinanze dei cavi. I CAVI.

o di richiedere ripetitori per poter superare tali limiti. presenta anche lo svantaggio di potersi estendere su tratte di lunghezza considerevolmente inferiore. pur essendo inferiori a quelle dei cavi schermati. e se si sceglie di utilizzare cavo non schermato UTP lo sceglierle in materiale plastico permette di eliminare gli effetti deleteri sulla qualità del segnale dell’accoppiamento capacitivo con le canaline metalliche. alla scarsa resistenza alla trazione e all’attaccabilità da parte di composti chimici. non influenzano le comunicazioni Ethernet in maniera significativa. In linea di massima.Il doppino. Questo è abbastanza comprensibile considerando che i segnali utilizzati sono di tipo differenziale e i doppini sono intrecciati. è una classica soluzione per evitare di captare interferenze lungo il percorso. Una possibile evoluzione dei cavi per Ethernet destinati all’impiego sul campo può essere 233 . ma anzi evita le problematiche inerenti alla messa a terra delle maglie del cavo schermato STP. rispetto alle fibre ottiche. Le prestazioni dei cavi non schermati di categoria 5 (CAT5). Questo è comunque un problema secondario rispetto alla possibile vulnerabilità nei confronti dei disturbi di tipo elettromagnetico. Per quanto riguarda l’assenza di schermatura dei cavi UTP si è osservato che non costituisce un impedimento eccessivo. le interferenze elettromagnetiche possono essere tenute sotto controllo facendo passare i cavi Ethernet il più lontano possibile dalle sorgenti di interferenza e utilizzando protezioni di tipo meccanico laddove si possa andare incontro a lesioni del cavo. L’impiego di canaline o di cavi speciali rivestiti da guaine rinforzate può risolvere una parte di questi problemi.

Una volta che connettori e cavi sono stati scelti e posizionati in modo da resistere alle sollecitazioni dell’ambiente di lavoro è necessario operare delle scelte relativamente ai nodi e agli elementi attivi dell’infrastruttura di rete. tipicamente da pannello o da montaggio si binari DIN. Anche in questo caso. La prima soluzione è più costosa ed è caratterizzata da componenti.rappresentata dall’impiego di una guaina più spessa e resistente agli agenti chimici e alle alte temperature. si aprono due strade: il ricorso a dispositivi di tipo industriale oppure l’impiego di componenti commerciali protetti da appositi contenitori. e comunque il tempo necessario alla progettazione del modello industriale comporta l’adozione di tecnologie che nel mondo consumer erano allo stato dell’arte settimane o mesi prima. e solo nel caso in cui non sia possibile o conveniente 234 . come per i connettori. Il ricorso a componenti espressamente pensati per il mondo dell’industria è solitamente delegato al livello più basso della rete Ethernet. I CONTENITORI. quello di interfacciamento verso il campo. c’è da aspettarsi una spesa aggiuntiva anche per quanto riguarda il cablaggio. che offrono prestazioni che possono anche rivelarsi inferiori a quelle dei più comuni dispositivi commerciali di ultima generazione: per poter garantire un adeguato livello di protezione dei connettori può ad esempio essere necessario ridurre il numero massimo di porte di uno SWITCH. La seguente Figura mostra doppini per impiego industriale. Dato che in genere dispositivi di questo tipo adottano soluzioni di connettività di grado industriale precedentemente citate.

racchiudere l’elemento in un cabinet apposito. In una topologia a stella questo comporta la possibilità di alimentare 235 . comprende al suo interno ben quattro coppie di doppini intrecciati: le reti 10BASE-T. si possono convogliare oltre 10 Watt all’estremo di una tratta di 100 metri di una rete 100BASE-TX. 100BASE-TX ne sfruttano due sole coppie per trasmettere le informazioni e questo lascia libere quattro linee per trasferire potenza ai dispositivi. L’ALIMENTAZIONE. richiedono questo tipo di misura. che li impiegano tutti e otto possono invece sovrapporre l’alimentazione a una delle linee usate. Un numero limitato di cabinet che portano anche le linee di alimentazione necessarie. anche a questo livello.3AF (Power on Ethernet . e un eventuale sistema di controllo con sensori e attuatori in tecnologia Ethernet tradizionale richiederebbe il cablaggio di una linea di alimentazione dedicata che si affianchi a quella di comunicazione. Questa soluzione semplifica notevolmente il cablaggio dei dispositivi ed è oramai quanto gli operatori di sistema si aspettano da un bus che operi sul livello di fabbrica. Fortunatamente il cavo utilizzato per le reti Ethernet su doppino. Dal punto di vista della potenza trasferibile. Sensori e attuatori direttamente connessi alla rete Ethernet. possono però puntare sulla soluzione alternativa: il ricorso a un contenitore certificato per l’impiego in ambiente industriale permette infatti di ignorare quasi tutte le problematiche connesse ala robustezza dei dispositivi e all’impiego di connettori a prova di vibrazioni e di liquidi per sfruttare appieno i vantaggi del basso costo delle apparecchiature commerciali. Uno dei punti di forza dei bus di campo è la possibilità di alimentare i dispositivi ricorrendo allo stesso cavo che trasporta i segnali. basati su Ethernet. le reti 1000BASE-T e 100BASE-T4.PoE) nato per rispondere alle esigenze di alimentare i dispositivi di telefonia. può configurarsi come la scelta più economica e flessibile in una rete di controllo e può andare a complemento dei dispositivi industriali in una rete di interfacciamento verso il campo. Lo standard IEEE 802. I controllori e gli elementi attivi dell’infrastruttura di rete. con la tensione nominale di 48 Volt prevista dallo standard. si occupa di definire in che modo l’alimentazione deve essere portata ai dispositivi a partire dagli elementi attivi dell’infrastruttura di rete e facendo in modo da preservare la compatibilità con le versioni non alimentate di Ethernet. UTP di categoria 5. Ethernet nella sua versione originale non contemplava una simile opportunità.

La seguente Figura mostra un esempio di impiego. 236 . videocamere. Sul mercato hanno già fatto la loro comparsa dispositivi attivi conformi a questo standard e che permettono di connettere sensori e altri dispositivi senza preoccuparsi di disporre di una linea di alimentazione. pannelli operatore (HMI).sensori e attuatori di diverso tipo. dispositivi di telefonia e anche computer industriali. punti di accesso Wireless.

L’integrazione tra HSE e FF permette di ottenere il meglio dai due mondi: il bus di campo è ottimizzato per l’interfacciamento con sensori e trasduttori al livello di fabbrica. TCP e SNTP (Simple Network Transfer Protocol). espressamente progettato per applicazioni di controllo di processo tradizionale. l’acquisizione dei dati con supervisione e gestione delle successioni di eventi. l’architettura HSE consente di collegare tra loro segmenti di rete FF. dal controllo di processo di base a quello complesso discreto. rappresenta la soluzione che la Foundation Fieldbus affianca al suo bus di campo FF. il controllo del pilotaggio delle interfacce e il controllo dei processi discontinui. grazie alla semplificazione dell’architettura di rete. permettendo la riduzione del numero dei sistemi di automazione presenti in fabbrica ed una più facile gestione della rete.8 Foundation Fieldbus HSE Foundation Fieldbus HSE (High Speed Ethernet). mentre i collegamenti Ethernet di HSE vengono utilizzati per le operazioni di controllo e di trasferimento delle informazioni al livello di impresa. con i componenti che ai tradizionali blocchi funzionali affiancano il supporto di nuovi blocchi funzionali e flessibili chiamati FFB (Flexible Function Blocks) che aprono ai PLC. Appoggiandosi ai protocolli IP. L’integrazione che ne deriva consente di implementare funzioni di diagnostica e manutenzione predittiva che contribuiscono a ridurre le probabilità di fermi macchina migliorando le comunicazioni della rete di controllo e supervisione a costi contenuti. essi consentono a Foundation Fieldbus di coprire tutte le applicazioni di un’azienda. con tratte di rete Ethernet che impiegano componenti commerciali per raggiungere velocità fino a 1000 Mbit/s. ai multiplexer e gateway l’accesso diretto alla rete HSE.7. che viaggiano alla velocità di 31. e contemplano inoltre le funzioni di interfacciamento verso il campo. HSE permette alte velocità di trasferimento dati tra I/O remoti. HSE non è solamente un bus di campo. La soluzione proposta da Foundation Fieldbus. e l’architettura di rete si presta alla realizzazione di sistemi ridondanti e robusti. PLC e PC. Aggiungendosi alla tecnologia HSE. Gli FFB sono disponibili in 237 . UDP. ma piuttosto è un’architettura ottimizzata per i processi di automazione nei sistemi distributi.25 kbit/s. si presta inoltre alla realizzazione di sistemi di controllo distribuito. I messaggi del bus di campo FF vengono trasferiti su una dorsale Ethernet ad alte prestazioni.

In questo caso. Oltre a questo. MDI. è diffuso prevalentemente negli Stati Uniti. Foundation Fieldbus ha aggiunto al proprio bus di campo. Gli FFB sono creati tramite un tool di programmazione basato su standard quali IEC 61131-3 e una volta generati vengono installati e connessi ad altri blocchi come si trattasse di un elemento standard. • L’accesso al bus avviene tramite protocollo CSMA/CD con codifica dei segnali Manchester. Poichè l’I/O è predefinito.000 sistemi e 300. 238 . Per concludere. • La dimensione di un pacchetto dati è variabile ed è previsto il controllo di errore CRC. sono impiegati in applicazioni complesse. I primi sono dotati di un numero predefinito di tipologie di parametri degli I/O come i blocchi funzionali standard. blocchi MIO (Multiple Input/Output). il concetto di sicurezza intrinseca FISCO (Fieldbus Intrinsically Safe Concept). si riportano le caratteristiche fondamentali del protocollo Foundation Fieldbus HSE: • Supportato dalla Foundation Fieldbus. • Massima lunghezza di un segmento: 100 metri con doppino e 2000 metri con fibra ottica (larghezza banda a 100 Mbit/s). • Topologia di rete a stella. publisher/subscriber e notifica eventi. MDO). Gli FFB iniziali di questo tipo. • Possibilità di connessione con altri bus di campo attraverso gateway. Gli FFB completamente configurabili. ma l’algoritmo è configurabile. quindi potrà essere utilizzato in aree a rischio di esplosione. • Installato in oltre 5. • Massimo numero di dispositivi per segmento: in teoria quasi illimitato grazie all’indirizzamento tramite protocollo IP. il DD viene generato automaticamente dal tool di configurazione. MAO. I blocchi MIO sono utilizzati per interfacciare I/O remoti e per semplici gateway. dispongono di 8 parametri analogici o discreti per blocco (MAI.versione preconfigurata o interamente configurabile. anche i DD (Device Description) sono prestabiliti. invece. consentono la configurazione del numero e del tipo di parametri degli I/O e dell’algoritmo. • Mezzi fisici impiegabili: doppino e fibra ottica (con la possibilità di includere nello stesso cavo l’alimentazione). • Metodi di comunicazione: client/server.000 nodi.

org 239 .• Tempo di ciclo inferiore a 100 millisecondi.fieldbus. La seguente Figura mostra una possibile architettura di rete. www.

mediante i sistemi di concezione modulare. Integrato nei componenti dell’automation house Bosch-Rexroth. che si traduce in una maggiore sicurezza. assemblare le macchine in modo flessibile per ogni cliente.5 milioni di nodi in oltre 300.7. dei quali sono stati venduti oltre 1. i meccanismi di Sercos Interface. i costruttori di macchine potranno ridurre i costi di produzione e. consentendo di ridurre la complessità di progettazione. programmazione e messa in funzione. La possibilità di realizzare una struttura fisica ad anello consente una ridondanza dell’hardware contro l’eventuale rottura dei cavi. Sercos III è diffuso in circa ottanta Paesi sparsi in tutto il mondo. L’idea è semplice e convincente: sostituire moduli di automazione decentralizzata ai complessi sistemi centralizzati. la struttura dei telegrammi e la sincronizzazione hardware sono stati implementati al mezzo fisico di trasmissione Ethernet da 100 Mbit/s. E’ proprio con questo obiettivo che sono nati i nuovi sistemi Motion Logic della famiglia IndraMotion Rexroth: i controlli IndraMotion MLD su base azionamento e l’IndraMotion MLC su base controller. 240 . che assicurano il futuro di Sercos Interface.000 applicazioni. della maggiore convenienza dei cablaggi CAT5 e della maggiore sicurezza implementata. Entrambi puntano sullo standard aperto e non proprietario. rappresenta l’evoluzione su base Ethernet di Sercos Interface. Sercos III offre inoltre nuove possibilità per l’automazione. In questo modo i costruttori di macchine possono approfittare delle funzionalità aggiuntive. il profilo Motion Control conforme alle specifiche IEC EN 61491. giunta ormai alla sua terza generazione. In tal modo. sono stati mantenuti e ulteriormente ampliati. rappresenta un passo avanti nell’evoluzione dei sistemi di automazione. La seguente Figura mostra la ridondanza in Sercos III. Per l’utente questo significa che la compatibilità del software con le soluzioni di applicazione preesistenti resta fondamentalmente invariata. In questo modo.9 Sercos III Sercos III.

241 . in modo indipendente dalla disposizione.25 us. ad esempio. Grazie alla funzionalità Hot-Plug. è inoltre possibile inserire altri nodi slave durante il funzionamento senza interrompere l’anello di comunicazione: un ulteriore passo in avanti verso la flessibilità delle macchine di produzione. aprono enormi risorse all’integrazione su base Sercos III di nuove caratteristiche di sistema. o dalla sequenza all’interno della rete. mostrato nella seguente Figura. in combinazione con i tempi di ciclo impostabili in modo flessibile con valore minimo di 31.La risposta degli azionamenti. Le elevate prestazioni di Ethernet a 100 Mbit/s. avviene mediante indirizzi logici (IP).

242 . rispetto ad altre soluzioni analoghe. è inoltre possibile collegare un notebook direttamente come utente IP agli azionamenti IndraDrive per effettuarne la parametrizzazione. oltre al canale di trasmissione in tempo reale esente da collisioni. Per agevolare la messa in funzione. Sercos III consente di sfruttare i vantaggi di Ethernet in modo ottimale: in questo modo. senza la necessità di un componente gateway specifico. Le seguenti due Figure mostrano la comunicazione IP in Sercos III. La sincronizzazione di un massimo di 254 utenti per ciascun anello Sercos apre la strada alle unità di controllo multiasse ad elevate prestazioni.Tutto ciò consente ora la comunicazione trasversale tra utenti slave all’interno dell’anello logico Sercos che. il che consente di integrare senza problemi terminali Ethernet standard e quelli dotati di protocolli IP standardizzati o proprietari. è stato implementato un altro canale separato per il trasferimento di protocolli IP standard. non deve essere elaborata dal controllo master.

Sercos III specifica il cosiddetto profilo di comunicazione C2C (Control-to-Control). 243 . per la comunicazione trasversale.Poichè Sercos III è concepito come sistema di comunicazione generale per l’intera rete di controllo nell’automazione di fabbrica per la connessione alle periferiche. Inoltre. come mostrato nella seguente Figura. In questo modo. i segmenti di macchina autonomi possono essere accoppiati e sincronizzati con le massime prestazioni in tempo reale: un ulteriore passo avanti per la modularizzazione delle macchine e degli impianti di produzione di grandi dimensioni. ad esempio di postazioni I/O. sulla base degli standard Ethernet. è stato definito un apposito profilo di terminale. al fine di realizzare una comunicazione in tempo reale tra controlli master.

244 . Entrambi i sistemi. IndraMotion MLD può comunicare con i controlli macchine eventualmente a monte mediante le interfacce di bus di campo.Ecco le nuove soluzioni presentate da Bosch-Rexroth con Sercos III. Le caratteristiche principali del protocollo Sercos III sono qui di seguito elencate: • Massimo numero di nodi per segmento 254. un azionamento assume la funzione di master. per effettuare il comando Motion. offre una completa biblioteca. Il controllo MLC. La sincronizzazione di un numero massimo di 8 assi avviene tramite Sercos III. già introdotta con successo sul mercato. viene presentata come estensione in versione multiasse della soluzione monoasse. ad esempio Profibus e DeviceNet. sviluppato a partire dall’unità di controllo su base controllore IndraControl L40. dalla progettazione alla programmazione. con interfaccia slave Sercos III. l’azionamento master di IndraMotion MLD rende disponibile agli azionamenti slave un gateway di comunicazione per i dati di processo. mediante il quale avviene la comunicazione in tempo reale con un massimo di 16 azionamenti IndraDrive. integrano lo stesso nucleo PLC multitasking IndraLogic. dotata di funzioni tecnologiche per diversi processi. Nella cosiddetta modalità CCD (Cross Communication Drive). A tale scopo. Il modulo framework IndraWorks consente di unificare l’intero engineering. La soluzione Motion Logic IndraMotion MLD. Il sistema Motion Logic. • Comunicazione Master/Slave. fino alla parametrizzazione e alla diagnostica. • Distanza massima tra due dispositivi 100 metri. basata sulla famiglia di azionamenti IndraDrive. conforme allo standard IEC 61131-3. oltre a un gran numero di funzioni monoasse e multiasse. IndraMotion MLD combina funzioni di azionamento molto avanzate con un controllo Motion Control e PLC flessibile che utilizza anche moduli software tecnologici ottimizzati per vari processi. ciclica e aciclica. contenuta già nel pacchetto base. Al contempo. quali ad esempio quelli utilizzati nelle macchine per imballaggio. configurando l’anello e gli altri azionamenti slave ad esso connessi e comunicando con gli azionamenti collegati a valle (slave appunto) mediante parametri Sercos estesi. In combinazione con una biblioteca di moduli funzionali Motion Control PLCopen. IndraMotion MLC e IndraMotion MLD. la programmabilità delle soluzioni Motion Logic è così assicurata. è stato esteso mediante un modulo funzionale hardware con funzionalità master Sercos III. • Larghezza di banda 100 Mbit/s.

sercos.com 245 . 125 us. UDP per la parametrizzazione ed altro tipo di traffico dati. • Possibilità di una comunicazione Real-Time tra nodi. La seguente Figura mostra il modello ISO/OSI per Sercos Interface e Sercos III. • Supporto IP. • Topologia di rete in linea o ad anello.• Tempi di ciclo: 31.org www. • Mezzi fisici utilizzabili: doppino intrecciato e fibra ottica. www. 62. • Estese funzioni di diagnosi.25 us. 250 us con Jitter inferiore a 1 us.5 us.sercos. • Integrazione con Sercos Interface e con componenti di terze parti.de www. TCP.sercos.

La variante TCP aggiunge l’incapsulamento dei dati Modbus in un frame conforme alle specifiche TCP/IP. Un client invia una trama che comprende l’indirizzo del server. lasciando non usato il solo campo di controllo (Checksum) le cui funzioni sono svolte dalla struttura dati esterna. 246 .7. al mondo di Ethernet. Ogni dispositivo è individuato da un indirizzo o Identificatore di Unità (UI) e la comunicazione avviene in modalità client-server con la richiesta di una risposta da parte del destinatario. Il messaggio può essere di tipo esplicito se inviato attraverso caratteri ASCII. aprendo in questo modo la strada a tutti i dispositivi dotati di connettività Ethernet.10 Modbus TCP Modbus TCP è una specifica aperta che trasporta di fatto il protocollo Modbus. Il server che risponde ad un client. viene incapsulata all’interno di una trama TCP. oppure implicito nel qual caso è costituito da sequenze binarie di quattro bit che rappresentano cifre esadecimali. La seconda modalità (messaggio implicito). e un campo dati che può anche essere omesso (ad esempio nel caso di messaggi di controllo). La trama Modbus. lascia il proprio indirizzo nel corrispondente campo per consentire al client di identificare quale particolare server sta comunicando con lui in quel momento. è maggiormente efficiente dal punto di vista della banda occupata e della velocità di trasmissione. basato su una messaggistica di tipo client-server. composta secondo le regole del protocollo. un campo funzione che specifica il tipo di azione che si attende il server intraprenda. come mostrato nella seguente Figura.

Le informazioni vengono scambiate sotto forma di unità dati indipendenti dai livelli sottostanti nella pila ISO/OSI. Il mattone portante delle comunicazioni è il Protocol Data Unit (PDU). 2 per il controllo ciclico di ridondanza (CRC) e i restanti 253 vanno a costituire l’unità dati del protocollo. Tolto 1 byte per il codice funzione/eccezione. L’integrazione all’interno di altre reti può richiedere dei campi aggiuntivi che sono raccolti in quella che viene definita Application Data Unit (ADU). rimangono 252 byte da 247 . l’esecuzione delle azioni necessarie a soddisfare la richiesta. 1 byte è utilizzato per l’indirizzo del server. e la restituzione al dispositivo iniziale delle informazioni risultanti. tipicamente è presente un campo indirizzi che consente di tracciare il dispositivo che ha effettuato la richiesta e un campo con i codici per la correzione degli errori. La versione di Modbus su linea seriale può contare su una dimensione massima del frame ADU di 256 byte. costituito da un campo che contiene il codice funzione (codificato con un solo byte) ed un campo dati di lunghezza variabile.Un qualunque computer connesso in rete può agire da client o server Modbus scambiando messaggi tramite la porta riservata 502 dello stack TCP/IP. Il principale vantaggio di questo approccio risiede nella modalità di interazione tra i vari nodi della rete: essendo di tipo client-server. eventualmente nullo. di questi. Una tipica comunicazione via Modbus comprende essenzialmente tre stadi: la formulazione di una richiesta da parte di un dispositivo ad un altro. che contiene il corpo del messaggio. siano esse l’effettivo risultato dell’elaborazione o un codice di errore derivante dall’impossibilità di portare a termine il compito. ogni dispositivo server è in grado di scambiare dati in maniera simultanea con più dispositivi client.

• La velocità di trasmissione passa dai tipici 19. è disponibile in pratica per tutte le apparecchiature in commercio. Le caratteristiche principali del protocollo Modbus TCP sono qui di seguito elencate: • E’ un protocollo oramai collaudato. piuttosto che TCP/IP. L’indirizzamento dei dati è limitato a 16 bit. La versione per TCP/IP richiede 7 byte aggiuntivi alla PDU. in sola lettura). il Real-Time. In questo modo si crea un livello di astrazione che permette agli utilizzatori Modbus di accedere ai parametri di funzionamento del dispositivo in maniera trasparente e indipendente dai dettagli della particolare implementazione. I produttori di dispositivi Modbus devono dotare il proprio prodotto di un mezzo per tradurre (rimappare) i valori impiegati nelle effettive locazioni di memoria utilizzate per memorizzare i dati di funzionamento. • Registri per la memorizzazione (16 bit. Con UPD/IP. I dati passati nel messaggio possono essere di diverso tipo e sono organizzati in tabelle. • E’ estremamente semplice inserire strumenti Modbus tradizionali direttamente su rete Ethernet TCP/IP con semplici convertitori di segnale. • La rete Ethernet TCP/IP può diventare fisicamente illimitata (ad esempio coprire l’intero pianeta grazie a Internet). 248 . con il protocollo Modbus TCP si può gestire una rete di strumenti con più master che colloquiano contemporaneamente con più slave.200 bit/s a 100 Mbit/s con tempi di ciclo compresi tra 20 ms e 100 ms. in lettura e scrittura) e avvolgimenti (un bit in lettura e scrittura).occupare per la trasmissione effettiva dei dati veri e propri. ossia i byte più significativi sono inviati per primi. Le tabelle principali sono: • Ingressi discreti e registri di ingresso (rispettivamente da 1 o 16 bit. cosa che comporta un range di valori per gli indirizzi compreso tra 0 e 65535 per ciascun blocco. in ogni caso. le prestazioni possono essere migliorate senza che però possa essere garantito. • E’ un protocollo non deterministico. andando a occupare un totale di 260 byte. è diffuso in ambito mondiale. La codifica utilizzata per la trasmissione di numeri che richiedono più byte è di tipo big-endian. • Al contrario del protocollo Modbus.

org 249 .modbus-ida.• Alla rete TCP/IP si possono collegare decine di migliaia di dispositivi Modbus TCP e non solo 255 come in quella seriale. portando il numero degli I/O ad un valore praticamente illimitato. www.

gode del supporto di organizzazioni internazionali quali ODVA (Open DeviceNET Vendor Association). anche alle reti realizzate in tecnologia Ethernet. condiviso dai bus di campo ControlNET e DeviceNET.Industrial Protocol) ha le sue radici nei bus di campo DeviceNET e ControlNET. IEA (Industrial Ethernet Association) e di IAONA. che 250 .7. Ethernet/IP è stato il primo standard aperto basato su Ethernet e TCP/UDP/IP a fornire una soluzione di controllo a livello di interfacciamento con il campo. oltre a quello di CI. Tale standard è stato battezzato con il nome di Ethernet/IP e. Il sistema utilizza un modello a oggetti per distinguere i dati provenienti da questi due bus (ControlNET e DeviceNET) da quelli giunti direttamente da reti Ethernet. La seguente Figura confronta Ethernet/IP con ControlNET e DeviceNET.11 Ethernet/IP Ethernet/IP (IP . Nel 1998 un gruppo di lavoro di ControlNET International (CI) sviluppò un metodo che permettesse di utilizzare il livello di Applicazione.

Questa è una situazione comune alla quasi totalità di sistemi che utilizzano Ethernet e che intendono sfruttare la compatibilità con i protocolli utilizzati dalla rete Internet. configurazione e programmazione dei nodi. 251 . mentre il trasporto è suddiviso tra i protocolli TCP e UDP. controllo di dispositivi remoti. web. Ethernet/IP utilizza il protocollo TCP per la trasmissione di messaggi espliciti. ossia contenenti sia le informazioni pertinenti al protocollo.risponde ai seguenti requisiti applicativi: interfaccia fra PLC e/o verso sistemi HMI. interblocchi di tipo Peer to Peer fra PLC. agiscono di conseguenza e generano informazioni che vengono poi reimmesse in rete. eccetera. tipicamente la combinazione di Ethernet e dei livelli di rete e di trasporto summenzionati viene indicata con il termine Ethernet TCP/IP. Wireless. E-mail. Il livello di rete è affidato al classico protocollo IP (Internet Protocol). Questo tipo di informazioni vengono ricevute dai nodi che le interpretano sulla base del protocollo. sia le istruzioni per la realizzazione del servizio e per veicolare le informazioni di tipo non deterministico. I messaggi di questo tipo sono utilizzati per la raccolta dei dati e per le operazioni di configurazione e hanno dimensioni variabili che possono divenire anche considerevoli. La seguente Figura mosta la comunicazione con messaggi espliciti in Ethernet/IP.

dove la sorgente comunica con tutti i destinatari dell’informazione uno per volta. E’ infatti supportata la tipica modalità di tipo client-server. Appoggiandosi ai servizi offerti dal livello di trasporto. ci si appoggia al più leggero protocollo UDP che viene utilizzato per i messaggi impliciti. anche di un solo bit. tramite gli strutturati pacchetti TCP) che implicita (controllo. Il protocollo del livello di Applicazione gestisce i messaggi veicolati dalle suite di protocolli TCP/IP e UDP/IP e fa in modo che i diversi dispositivi connessi in rete siano in grado di capirsi tra loro. ossia il Control and Information Protocol (CIP). ma contenenti solamente i dati necessari al controllo di processo. con 252 . cui però è possibile affiancare la più efficiente modalità di tipo produttore-consumatore. ovvero messaggi molto corti. privi di informazioni relative al protocollo di informazione. tramite i più semplici e leggeri pacchetti UDP) e offre grande flessibilità nella scelta della modalità di comunicazione.Per i messaggi critici che devono essere resi disponibili in tempo reale o quasi. il CIP è in grado di espletare le funzioni di messaggistica sia esplicita (informazione. Ethernet/IP utilizza a questo proposito lo stesso protocollo di DeviceNET e di ControlNET. La seguente Figura mosta la comunicazione con messaggi impliciti in Ethernet/IP.

potrebbero essere ATM. Un Object (Oggetto) è un modello astratto che definisce attributi. si basano sullo standard IEEE 1588 mantenendo il sincronismo del clock di ciascun nodo con un Jitter di pochi microsecondi. La larghezza di banda è pari a 100 Mbit/s. Firewire o Bluetooth. comandi e modi operativi per ciascuna funzione di un dispositivo. Applicazioni per Motion-Control (CIPmotion) e per Sincronizzazione-Azionamenti (CIPsync) con EtherNet-IP. invece. i nodi inviano i messaggi a intervalli predefiniti nel tempo. Il traffico multicast può venire ulteriormente segregato dalla funzione VLAN degli SWITCH che. quando presente. quindi SWITCH e ROUTER con topologia a stella e modalità di trasmissione full-duplex. Per realizzare funzioni di I/O Control. Uno dei maggiori vantaggi offerti dal CIP è appunto la possibilità di adottare il metodo di scambio dati che più si addice all’applicazione dell’utilizzatore in modo da proteggersi dal rischio di obsolescenza. Trattandosi poi di un protocollo di alto livello. a DeviceNET e a ControlNET. mentre nella modalità per cambio di stato.l’informazione inviata simultaneamente a tutti i nodi che decideranno poi se interessati a usufruirne o meno. Il protocollo IGMP identifica i nodi attivi per gruppo IP multicast ed instrada i dati solo ai nodi associati ai singoli gruppi multicast. Applicazioni per Safety-Bus con EtherNet-IP si basano su CIPsafety. che 253 . permette la configurazione per gestire differenti LAN virtuali. EtherNet/IP utilizza la tecnologia Ethernet standard disponibile sul mercato. il CIP è in grado di adattarsi anche alle future evoluzioni della tecnologia e oltre a Ethernet. Nella modalità ciclica. intasando di conseguenza la rete. Gli SWITCH che non supportano questo protocollo gestiscono i messaggi multicast come se fossero messaggi broadcast. I messaggi multicast utilizzano il protocollo UDP che non permette il routing fra più LAN. La gestione di messaggi impliciti che avviene in modalità multicast e richiede sempre di utilizzare SWITCH che supportino il protocollo IGMP (Internet Group Management Protocol). La struttura dati del CIP si basa su un approccio definito Object Oriented. il trasferimento dei dati ha luogo solo quando il nodo subisce una mutazione in una delle variabili che deve controllare. può evolvere in modo da posizionarsi in cima ad altri standard quali.

org 254 . ControlNET e DeviceNET. Ethernet/IP è diffuso in tutto il mondo. ma prevalentemente negli Stati Uniti ed in Asia.odva. La seguente Figura mostra il modello ISO/OSI per Ethernet/IP.rispondendo alla norma IEC 61508. www. permettono la connessione di dispositivi di sicurezza e standard sulla stessa rete Ethernet.

lasciando però ancora qualche aspettativa fra gli addetti che si occupano di RT. infatti. ecc. eccetera. Kuka e dall’Istituto dei Sistemi Integrati dell’Università delle Scienze Applicate di Winterthur. di predire quando un nodo 255 . Tale MAC non permette.12 Ethernet Powerlink (EPL) Da quando la Commissione Elettrotecnica Internazionale (IEC) ha accettato Ethernet Powerlink (EPL) tra i profili di comunicazione Real-Time (RT) Industrial Ethernet. un’associazione indipendente con sede in Svizzera nata nel 2003 e fondata da un gruppo di importanti aziende di automazione industriale come B&R. Alle spalle di questo nuovo robusto profilo esiste EPSG (Ethernet Powerlink Standardization Group). Inoltre.7. Ethernet ha raggiunto e si è posizionato a livello dello strato più basso dei sistemi industriali grazie alla sua favorevole infrastruttura oltre che all’efficace velocità di trasmissione. a causa del meccanismo di accesso utilizzato (MAC . TCP. al fine di mantenere un adeguato equilibrio tra lo sviluppo delle nuove conoscenze tecnologiche e la domanda del mercato mondiale in continua e progressiva evoluzione. IEEE 1588. Hirschmann. Le prestazioni di EPL sono di tutto rispetto tanto che le sue attuali applicazioni sono in grado di eguagliare i risultati degli omologhi sistemi dedicati al controllo del moto. le installazioni EPL sono cresciute esponenzialmente riuscendo a soddisfare la maggior parte dei requisiti tipici dell’industria dell’automazione industriale. Se fino a qualche anno fa i dubbi degli esperti di reti industriali sul successo della discesa in campo di Ethernet erano significativi e fondati.) e ai protocolli CANopen ne estendono enormemente le potenzialità. il marketing. Il Gruppo ha l’obiettivo di sviluppare e diffondere Ethernet Powerlink mettendone in evidenza i vantaggi offerti dal suo protocollo RT introdotto sul mercato da B&R (Bernecker & Rainer) già alla fine del 2001.Media Access Control) di tipo CSMA/CD (Carrier Sense Multiple Access/Collision Detect). l’aderenza agli standard Fast Ethernet (IEEE 802. Il lavoro dell’Associazione è condotto da alcuni gruppi dedicati ai differenti aspetti del protocollo come la tecnologia. la sicurezza. ora più nessuno può probabilmente sollevare perplessità sulle potenzialità del protocollo. Lenze. ai protocolli basati su IP (UDP.3U). le certificazioni. Ethernet non è in grado di garantire trasmissioni di questo tipo (Real-Time) come i trasferimenti deterministici dei dati.

della rete sarà in grado di disporre i dati sulla rete stessa e quanto sarà il tempo di occupazione del bus. Il tempo di ciclo del protocollo EPL può. infatti. La schedulazione del ciclo EPL è gestita dai nodi di tipo manager (MN . mediante una schedulazione ciclica che permette a tutti i nodi collegati di accedere agevolmente allo strato Fisico del modello. la trasmissione dei dati è basata sul tempo. Asycronous e Idle period preceduti da una fase di configurazione in cui il sistema determina una riduzione del carico sulla rete attraverso una serie di soli segnali asincroni. Nonostante la maggior parte delle applicazioni non richieda la condivisione delle informazioni dai nodi del network a ogni tempo di ciclo.3U) che determina il trasferimento dei dati critici mediante cicli isocroni brevi ed estremamente precisi. EPL garantisce il trasferimento isocrono pesato secondo multipli di ciclo per un adeguato caricamento dei dati sulla rete. albero e in linea. di produrre tempi di ciclo al di sotto dei 100 us con Jitter inferiori al microsecondo. Cyclic. infatti. Per evitare collisioni ottenendo il massimo della larghezza della banda. Ethernet Powerlink è un protocollo ISO/OSI basato sulla tecnologia Fast Ethernet (IEEE 802. il ciclo EPL è suddiviso in quattro periodi definiti rispettivamente Start. Il Jitter di rete consiste nella deviazione temporale degli eventi ciclici rispetto all’intervallo previsto in EPL.Manager Node). essere impostato in funzione delle specifiche caratteristiche della rete. che controllano le comunicazioni e definiscono il tempo di sincronizzazione tra i nodi assegnandone il relativo accesso. Attraverso Ethernet Powerlink anche queste barriere tecnologiche sono crollate sotto i colpi della ricerca e sviluppo che ha reso disponibile un protocollo in grado di assecondare anche requisiti di determinismo e di precisione nel timing. Il determinismo è ottenuto. inoltre. La deviazione può essere causata dai componenti della rete per cui il limitato Jitter del protocollo determina una fluttuazione di trasmissione massima tra i dispositivi connessi estremamente limitata. Come evidenziato nella seguente Figura. L’intervallo di Jitter costituisce la misura della qualità del tempo di ciclo soprattutto per applicazioni di automazione industriale spinta e nei processi di controllo del moto. con configurazioni a stella. 256 . Le attuali implementazioni sono in grado.

In accordo con specifiche impostazioni preconfigurabili. Tale privilegio è determinato dal timing privo di collisioni per cui. L’utilizzazione di SWITCH sui segmenti EPL non è proibita anche se è generalmente non raccomandata a causa dei caratteristici tempi di latenza che li contraddistinguono. La successiva sequenza consiste in una trasmissione di ciclo sincrono (Isochronous period). il sistema manager di rete invia successivamente il segnale di PollReq (Polling Request Frame) in sequenza a tutti i nodi controllati sotto forma di messaggio univoco mentre i controllori. Start of Cyclic Frame) a tutti gli elementi controllati seguito dalla fase di sincronizzazione dei dispositivi che popolano il network secondo il clock dei nodi manager. mentre il quarto e ultimo stadio è un intervallo di riposo (Idle period) prima del successivo ciclo EPL. inoltre. Il terzo stadio di trasmissione del ciclo EPL è asincrono (Asynchronous period) e consiste in una fase trasmissiva dei dati di tipo non critico determinata dall’invio di segnali specifici dal controllore (Invite Frame).Durante la prima fase. attraverso l’uso di HUB EPL a più porte. La struttura Powerlink necessita. trasmettono il PollRes (Polling Response Frame). inoltre. in risposta al segnale. Tale sequenza ha il compito di assegnare ad ogni nodo una finestra temporale specifica di trasmissione per il trasferimento dei dati critici di processo o di controllo del moto. a stella o a struttura mista. è possibile gestire diverse linee e diramazioni per la costruzione di configurazioni in linea. 257 . rende possibile l’accesso dall’esterno del bus mediante sistemi basati su tecnologia Ethernet con protocollo IP. la funzione di controllo dei nodi manager trasmette uno specifico segnale (SoC. di un solo HUB ripetitore per far fluire i dati riducendo la presenza di dispositivi dedicati esterni di commutazione. Il modello EPL permette lo sfruttamento di ogni tipologia di network. L’uso di un ROUTER EPL.

alcuni nodi sono in grado di condividere intervalli temporali per intraprendere una più efficace utilizzazione della banda. Oltre a inviare dati asincroni per ogni ciclo di base. Come visto in precedenza. Il risultato di tale organizzazione trasmissiva garantisce l’univocità dell’accesso alla rete nel medesimo istante da parte di ciascun nodo evitando conseguentemente le collisioni tipiche dello standard Ethernet. il ciclo EPL è gestito in due fasi (sincrona/asincrona). Il livello Fisico. sebbene di tipo 100BASE-X.3 in accordo con il classico modello ISO/OSI mostrato nella seguente Figura. ogni nodo trasmette le proprie informazioni (EPL-broadcast) che saranno ricevute dai restanti nodi senza impegnarne alcuno in 258 . è in grado di sfruttare anche potenzialità più elevate raggiungendo prestazioni fino al Gbit/s. il Data Link Layer è organizzato in modo che una schedulazione di timing ciclica generi un processo deterministico. Durante la trasmissione asincrona. mentre i nodi di tipo manager garantiscono l’accesso al mezzo fisico mediante un messaggio esplicito. Affinchè tutti i nodi disposti sulla rete siano in grado di accedere al livello Fisico.Il protocollo Ethernet Powerlink possiede una struttura a strati secondo lo standard IEEE 802.

Tale scelta acquista significato in tutte le occasioni in cui necessitino veloci connessioni attraverso PC per una semplice e immediata programmazione. La seguente Figura mostra una tipica architettura EPL. La soluzione a singola CPU costituisce l’approccio più veloce per implementare EPL all’interno di un sistema integrato.processi di supervisione e di risposta. mentre ai nodi nel dominio RT è assegnato un EPL Node ID. Tale configurazione garantisce così comunicazioni Peer to Peer veloci e flessibili di tipo publisher/subscriber tra i nodi. In alternativa. Grazie alla sua efficace compatibilità con ambienti differenti. La fase asincrona utilizza frame IP totalmente trasparenti a comunicazioni standard come TCP/IP o UDP/IP. il modello è in grado di assegnare un indirizzamento standard IP affinchè i dispositivi RT possano essere raggiunti dall’esterno attraverso Internet mediante transizioni di tipo NAT (Network Address Translation). La versatilità di EPL è confermata anche dalla sua disponibilità a effettuare implementazioni via software senza ridurre le prestazioni RT evitando l’utilizzazione di dispositivi hardware dedicati. il protocollo EPL può essere utilizzato anche sullo standard Ethernet a patto che non sia necessario ottenere prestazioni deterministiche. La modalità di destinazione degli indirizzi di Ethernet Powerlink determina l’assegnazione di un solo indirizzo MAC per ogni dispositivo sulla rete. Di seguito sono illustrati tre differenti approcci di implementazione di Ethernet Powerlink. 259 . rispettivamente a singola e a doppia CPU e con soluzione FPGA (Field Programmable Gate Arrays).

i costi per nodo possono essere ridotti sensibilmente rispettando comunque l’universalità dell’interfaccia EPL. la flessibilità delle applicazioni basate su Core Processor e la configurabilità delle periferiche e delle interfacce. Tra gli aspetti maggiormente apprezzati di Industrial Ethernet ci sono la trasparenza fornita durante i trasferimenti di dati verso le applicazioni e l’accessibilità. Il controllore aggiunto può essere costituito da un generico dispositivo di tipo on chip Ethernet port o da un FPGA con microcontrollore integrato che può. è caratterizzata dall’aggiunta di un microcontrollore in grado di occuparsi della gestione della comunicazione di Ethernet Powerlink per soddisfare requisiti di estensibilità dell’applicazione. Attraverso tale soluzione. In tale configurazione il protocollo EPL è eseguito completamente attraverso il controllore aggiuntivo affinchè le trasmissioni EPL non influenzino il controllore principale nell’esecuzione delle applicazioni. La terza soluzione consiste in un sistema basato su FPGA sul quale risiedono un’interfaccia Ethernet Powerlink. in grado di favorire la gestione dei servizi e della manutenzione ai bus. i meccanismi Frame Filter. inoltre. 260 . il controllore gestisce l’applicazione. comprendere un controllore o un HUB Ethernet.Mentre. le funzioni e le logiche riprogrammabili. infatti. Una soluzione più complessa. EPL si occupa della comunicazione attraverso una semplice configurazione priva di interfacce tra i componenti hardware. un HUB logico e il nucleo del processore. mostrata nella seguente Figura.

uno protocollo di sicurezza per applicazioni RT. La sicurezza di EPL è garantita.Controlled Node). però. 261 . da una netta separazione tra i domini RT e non RT. è attualmente utilizzato da oltre 300 aziende con più di 100. La realtà attuale delle macchine e degli impianti è caratterizzata da funzioni di sicurezza basate su strutture di tipo hardware soggette a dispendiosi cablaggi e a una limitata capacità diagnostica. ma in prevalenza in Europa. Il gruppo di lavoro dedicato alla sicurezza di EPSG ha generato EPLsafety. come mostrato nella seguente Figura. l’accesso alle reti per cui l’evoluzione intrapresa da Ethernet Powerlink consiste proprio in un controllo degli accessi più robusto. Tale approccio ha l’obiettivo di salvaguardare i cicli di tempo dei processi RT dai sempre più frequenti attacchi provenienti dall’esterno.Tali caratteristiche facilitano. Ethernet Powerlink è diffuso in tutto il mondo. EPLsafety supporta le relazioni di comunicazione di tipo client/server e publisher/subscriber e i dati relativi alla sicurezza sono trasmessi attraverso un frame di dati integrato nel messaggio standard di comunicazione. Il protocollo EPLsafety è conforme allo standard IEC 61508 ed è in grado di rispondere ai requisiti della categoria SIL4 (Safety Integrity Level). Le caratteristiche principali di Ethernet Powerlink sono elencate qui di seguito: • Massimo numero di dispositivi: 239 slave (CN . infatti.000 nodi installati in diverse applicazioni.

aciclica. Connessione I/O: ciclica.…). UDP.Controlled Node). slave/slave. multicast. Tempo di ciclo minimo di 100 us e Jitter di 1 us. www. Massima dimensione dei dati I/O Input: 1490 Byte per slave (CN) per Frame Ethernet. Comunicazione: master/master. Estensione: 100 m tra 2 nodi con doppino incrociato. broadcast.• • • • • • • • • Massimo baudrate: 100 Mbit/s half-duplex.org 262 .ethernet-powerlink. publisher/subscriber. master/slave. Massima dimensione dei dati I/O Output: 1490 Byte per slave (CN) per Frame Ethernet. incrociata. Possibilità di integrazione con CANopen e supporto per i protocolli basati su IP (TCP.Managing Node) polling su slave (CN . Accesso al bus: Master (MN .

EtherCAT sfrutta i meccanismi di sincronizzazione per gli slave (metodologia Distributed-Clocks) con Jitter inferiore a 1 us prescritti nelle norme di IEEE 1588. passa per tutti i dispositivi e ritorna. ma richiede forzatamente una comunicazione full-duplex. 263 . Le caratteristiche di determinismo di EtherCAT si riassumono nei 30 microsecondi sufficienti a elaborare 1000 punti di I/O. Il segreto di queste prestazioni risiede nella realizzazione di una sottorete dedicata che provvede a raccogliere i dati da tutti i dispositivi sul campo e a creare un unico messaggio con le informazioni collettive. opportunamente aggiornato. viaggia nella sottorete. come mostrato nella seguente Figura.13 EtherCAT EtherCAT (Ethernet for Control Automation Technology) è la soluzione Real-Time per il controllo del movimento realizzata da Beckoff basata su Ethernet.7. La tecnologia EtherCAT permette la realizzazione di sistemi di controllo che non sarebbero possibili con l’uso dei bus di campo tradizionali. Il pacchetto Ethernet viene convertito nel formato E-bus. Gli I/O sono connessi in una configurazione ad anello aperto ad una stazione host per mezzo di un bus proprietario (E-bus). all’host.

EtherCAT elabora i processi Real-Time tramite un hardware ed un software dedicato (Beckoff attualmente usa il suo sistema operativo dedicato TwinCAT OS che si appoggia su normali PC). L’incapsulamento dei dati è quello standard di Ethernet. implementando in questo modo una maggiore banda e una maggiore efficienza nell’utilizzo di Ethernet. 264 .EtherCAT sfrutta le prestazioni degli attuali PC industriali e può utilizzare sia collegamenti in rame (doppino). La seguente figura mostra le possibili topologie con EtherCAT. ma anche collegamenti in fibra ottica. EtherCAT sostituisce la classica topologia a stella di Ethernet con una topologia lineare più facile da realizzare. Ogni comando contiene una intestazione e un campo WC (Working Counter). come mostrato nella seguente Figura. EtherCAT si basa sul principio del master/slave e può interoperare con reti basate sul TCP/IP ed in generale con reti Ethernet (Ethernet over EtherCAT – EoE). Ogni messaggio Ethernet può contenere più comandi EtherCAT.

L’Ether-Type. mostrato nella seguente Figura. l’utilizzo di UDP/IP aggiunge 28 bytes (20 per IP e 8 per UDP) al frame e fa degradare la prestazioni Real-Time a causa del suo stack di tipo non deterministico. utilizza un organizzazione dei dati di tipo Lenght-Field come in IEEE 802. I due metodi utilizzati per la comunicazione sono Ether-Type e l’incapsulamento UDP/IP. ma con uno svantaggio. E-bus è un livello Fisico EtherCAT per Ethernet che offre un segnale in tensione differenziale a basso voltaggio (LVDS – Low Voltage Differential Signal). L’Ether-Type non sfrutta il protocollo IP e quindi risulta limitato nella gestione delle sottoreti.3.Il CRC standard di Ethernet è utilizzato per controllare la correttezza dei dati. 265 . Gli slave in questo tipo di standard vanno dai nodi intelligenti ai moduli a 2 bit per l’I/O e sono collegati tramite una rete 100BASE-TX di tipo a fibra ottica oppure E-bus. L’incapsulamento utilizzato dal protocollo UDP/IP permette ai frame di EtherCAT di attraversare le sottoreti. In tale sistema il master controlla completamente gli slaves che non inizializzano la trasmissione.

li processano e poi li passano allo slave successivo appartenente al medesimo anello. L’ultimo slave restituirà quindi i dati processati al master attraverso il percorso inverso sull’anello. il dispositivo hardware presente ne estrae le informazioni che gli servono per aggiornare i suoi dati. 266 . Questo tipo di struttura fa si che si introduca un ritardo nella trasmissione dei dati dell’ordine di qualche nanosecondo (elaborazione dei frame al volo – On the Fly).Gli slave possono essere collegati a caldo in qualsiasi punto della rete e possono coesistere anelli secondari se collegati tramite degli SWITCH. Quindi. ogni volta che il frame Ethernet arriva in un nodo. Gli slave ricevono i dati.

Ogni slaves ha due interfacce di tipo Tx e Rx in modo che la comunicazione bidirezionale possa avvenire senza alcun problema. 267 . L’unità per la gestione della memoria (FMMU .Durante il percorso di ritorno ogni slave amplificherà e rigenererà l’informazione. in questo modo il master può determinare se gli slave indirizzati stanno scambiando dati. il contatore WC viene incrementato. mostrata nella seguente Figura. quando uno slave processa un comando ad esso destinato. lo slave verifica se è ad esso indirizzato e quindi inserisce le informazioni nel messaggio stesso (con un ritardo di alcuni nanosecondi). All’arrivo di un messaggio. converte gli indirizzi logici in fisici e tale informazione è disponibile per il master all’atto dell’inizializazzione. presente in ogni slave. La seguente Figura mostra l’elaborazione dei frame al volo di EtherCAT In ogni comando dello standard EtherCAT. Di conseguenza ogni slave necessita di uno speciale ASIC (Application Specific Integrated Circuit).Fieldbus Memory Management Unit).

• Accesso al bus avviato dal master. • Connessione I/O: ciclica. slave/slave. la distanza massima tra 2 nodi è pari a 100 m. FTP. master/slave. WWW.org 268 . DeviceNET. albero. incrociata. Le caratteristiche principali di EtherCAT sono: • Massimo numero di dispositivi: 65535 slave. UDP.EtherCAT è una soluzione Real-Time Ethernet deterministica se non utilizzata con UDP/IP e con SWITCH e ROUTER tra il master e gli slave. • Supporto per protocolli e applicazioni basati su IP (TCP. multicast. www. broadcast. eccetera). • Massima estensione della rete: anche maggiore di 500 Km. • Topologie possibili: lineare. • Possibilità di utilizzo di SWITCH e di HUB (non indispensabili). • Comunicazione: master/master.ethercat. • Canale messaggi: massimo 1484 byte di dati utente per frame Ethernet. stella. il tempo di ciclo minimo è pari a 100 us con Jitter di 1 us. • Massimo baudrate: 2 x 100 Mbit/s full-duplex. • Possibilità di integrazione con altri bus di campo come CANopen. aciclica. E’ diffuso prevalentemente in Europa. Profibus.

A livello applicativo PROFINET CBA introduce il concetto di modulo tecnologico. Ciò significa che risulta possibile sviluppare un sistema che consiste di una miscela casuale di bus di campo (ad esempio Profibus. permettere a questi sistemi di essere conglobati in PROFINET facilmente e senza necessità di essere adattati. ma basato su standard di accesso molto diffusi quali RPC/DCOM/OPC. Anche se PROFINET differisce concettualmente dai sistemi di bus di campo come PROFIBUS. Oggettivamente.14 PROFINET PROFINET è la soluzione Industrial Ethernet offerta dal PROFIBUS International User Group. esso è riuscito a definire delle strategie di transizione dalla rete Ethernet ad un bus di campo completamente trasparenti. è assolutamente essenziale. poco adatto al tempo reale. E’ così possibile un trasferimento continuo di tecnologia dai sistemi basati sui bus di campo verso PROFINET. è un nuovo modo di concepire l’architettura di un sistema di automazione industriale: esso si appoggia pesantemente sul concetto di oggetto dell’automazione da usare e riusare in modo intelligente diminuendo drasticamente il tempo e il costo dedicato all’engineering. e l’integrazione tra la nuova automazione di dispositivi basati su Ethernet e quelli tradizionali basati sui bus di campo. Uno dei vantaggi di PROFINET sul mercato dipende. supporta attraverso la comunicazione Ethernet l’integrazione di dispositivi di campo per automazione e applicazioni critiche dal punto delle temporizzazioni. Diventato standard internazionale con la normativa IEC 61158. PROFINET è più di un protocollo. 269 . dal fatto che le installazioni attuali di bus di campo possono essere espanse con PROFINET senza richiedere uno sforzo troppo grande. La funzione di un impianto automatico o di una macchina in un processo di manufacturing è effettuato con l’interazione tra la meccanica. PROFINET CBA. e PROFINET IO. nell’interesse di proteggere gli investimenti. un protocollo pensato per il campo e il tempo reale. la parte elettrico/elettronica e la parte di controllo logico/software.7. Come protocollo di comunicazione PROFINET presenta due diverse tipologie di prodotto per coprire le molteplici esigenze: un protocollo. Interbus-S e AS-Interface) e di sottosistemi basati su Ethernet. In considerazione del gran numero di sistemi di PROFIBUS in uso. tra l’altro. I suoi obiettivi principali sono quindi la drastica riduzione dei costi di progetto e messa in servizio di un impianto. mostrato nella seguente Figura.

Tutti i componenti sono utilizzabili in modo identico senza bisogno di conoscenze a priori. PROFINET CBA definisce le parti meccaniche. Per esempio. per cui PROFINET CBA è virtualmente aperto a ogni tipo di protocollo a patto che i componenti siano rappresentati secondo le specifiche PROFINET.Lavorando a questo principio. Il proxy è il rappresentante di ciascuno dei dispositivi collegati al bus di campo per quanto riguarda il mondo PROFINET. che praticamente non è richiesta nessuna conoscenza del mezzo Fisico su cui viaggiano le informazioni. Un modulo tecnologico permette quindi di fornire al progettista esattamente l’hardware e il software del quale ha bisogno. il Componente per l’Automazione PROFINET. Da notare. Inoltre il proxy è un oggetto che sostituisce i dispositivi. I componenti vengono descritti con file XML che hanno la stessa funzione dei file GSD di PROFIBUS che permettono l’integrazione di dispositivi di diversi produttori. nel 270 . elettriche/elettronica e logica di controllo/software in termini funzionali per formare un unico modulo tecnologico. configurazione e parametrizzazione che possono essere diversi per ogni componente. visto come un singolo oggetto. grazie a degli accoppiatori attivi detti proxy. PROFINET CBA integra PROFIBUS. Il proxy si deve occupare di gestire la comunicazione verso Ethernet e verso il bus di campo. Creare una descrizione standard di un componente secondo delle regole comuni svincola il progettista dalla conoscenza di tool di programmazione. come visibile nella seguente Figura. Al progettista non resta che collegare tra di loro i vari componenti per mezzo di tool grafici per ottenere il progetto completo. cioè si comporta da gateway per quanto riguarda la comunicazione fisica.

NRT). In generale PROFINET definisce tre tipi di modalità di comunicazione: • TCP.senso che esso realizza la vista PROFINET CBA (ad alto livello) del dispositivo di campo rendendola disponibile al mondo esterno. La seguente Figura mostra il modello ISO/OSI per Profinet. Importante sottolineare che tutte le configurazioni impostate a livello PROFINET CBA per gli oggetti su bus di campo sono salvate nel proxy e non nei dispositivi di campo. UDP e IP: per dati non critici rispetto al tempo. Rispetto al bus di campo. come per le applicazioni di Motion Control. • Isochronous Real-Time (IRT): per particolari applicazioni. Si parlerà ora dei protocolli di rete usati da PROFINET CBA e da PROFINET IO. Le esigenze dei due protocolli sono differenti e quindi ovvio che lo stack di comunicazione sia complesso. 271 . come l’assegnamento di parametri e la configurazione (Non Real-Time . il proxy svolge le funzioni di un master. utilizzata nel campo dell’automazione aziendale. Come conseguenza dell’introduzione del proxy. • Soft Real-Time (SRT): per dati di processo critici rispetto al tempo. tutti i dispositivi del bus di campo organizzati dietro esso sono presentati come nodi indipendenti di PROFINET (oggetti) e tali componenti risultano indistinguibili dai componenti posti direttamente su Ethernet.

Il grafico sottostante evidenzia la distribuzione dei tempi di risposta dei tre diversi approcci PROFINET alla comunicazione. Il canale Real-Time permette la trasmissione di dati ciclici ed aciclici. 272 .In generale PROFINET CBA utilizzerà il primo modo di comunicazione. mentre PROFINET IO usa le due classi di comunicazione Real-Time.

La comunicazione standard attraverso il protocollo TCP/IP fornisce tempi di risposta medi attorno ai 100 ms. che permettono di operare separando nel tempo la comunicazione RT e Non RT da quella IRT. visto che i componenti sono sincronizzati. Ogni partecipante alla comunicazione è sincronizzato con tutti gli altri tramite IEEE1588 e l’accesso al mezzo fisico è fatto in divisione di tempo. Tutto questo è possibile in PROFINET IO perchè anche la trasmissione dei dati nella rete è ottimizzata. uno per il traffico non critico e uno per IRT. Nel caso della comunicazione mediante IRT si ottengono addirittura tempi di risposta costantemente attestati attorno a 1 ms. Anche la varianza subisce una riduzione progressiva il che si traduce ovviamente in una minor oscillazione dei tempi di risposta (Jitter) attorno al valore medio della distribuzione. che prevede l’uso di particolari ASIC. Per potere raggiungere il risultato dichiarato dai dispositivi che usano RT.1Q: i dati che fluiscono fra i dispositivi sono controllati dai componenti della rete (SWITCH con capacità VLAN) in base a questo concetto di priorità. Da notare che non ci sono messaggi di sincronizzazione espliciti perchè l’istante di inizio ciclo è conosciuto da tutti. si assegna ai pacchetti in PROFINET IO una priorità alta in conformità con gli standard IEEE802. In questo modo è come se si avessero a disposizione dei canali separati. Per quanto riguarda il secondo approccio in tempo reale. SRT evidenzia un miglioramento dei tempi di trasmissione di un fattore almeno 10 e i tempi di risposta si attestano infatti tra gli 1 e i 10 ms. con IRT si tratta in questo caso di una soluzione hardware.1P e IEEE802. Le misure indicano infatti che i tempi di trasmissione fra due stazioni su Ethernet possono ammontare fino a 20 ms nelle reti commutate 273 . con funzionalità di SWITCH.

non è possibile definire un tempo all’interno del quale i dati devono essere trasmessi attendibilmente. L’utilizzo del protocollo TCP/IP ha rivelato che sono necessari tempi considerevoli utilizzando questo stack di comunicazione. mentre i pacchetti Non IRT vengono bufferizzati. Si definisce tempo di aggiornamento il tempo che passa da quando una variabile è generata in un’applicazione del dispositivo a quando è trasmessa ad un altro dispositivo attraverso i sistemi di comunicazione e successivamente è messa a disposizione dell’applicazione. Questo è mostrato nella seguente Figura. oltre a questo l’elaborazione dello stack TCP/IP produce un ritardo non costante. Con Ethernet.tramite SWITCH normali. 274 . Se ci si trova nella fase Real-Time i pacchetti IRT hanno la precedenza. PROFINET usa Ethernet e TCP/IP come base per la comunicazione. durante la fase IRT si effettua un inoltro dei pacchetti su base temporale e non sulla base dell’indirizzo MAC eliminando quindi ogni minimo tempo di ritardo. Ciò significa che tutti i miglioramenti nel tasso d’aggiornamento e quindi nella risposta in tempo reale devono essere realizzati soprattutto attraverso ottimizzazioni dello stack di comunicazione nel Provider e nel Consumer. L’esperienza indica inoltre che la velocità della trasmissione seguendo la linea in Ethernet di 100 Mbit/s è trascurabile rispetto all’elaborazione nei dispositivi. Siccome anche questi SWITCH sono sincronizzati. se si verifica un carico molto alto della rete occorre usare degli SWITCH differenti.

negoziare protocolli di comunicazione con capacità Real-Time che riducono il tempo T2.Nella Figura soprastante. In questo modo. La soluzione proposta minimizza notevolmente i tempi dello stack di comunicazione e i risultati nelle prestazioni aumentano in termini di tasso d’aggiornamento dei dati di automazione. PROFINET soddisfa le elevate richieste Real-Time disposte sul sistema di comunicazione. 275 . quando stabiliscono il collegamento. In PROFINET i dispositivi con funzionalità altamente tempo-critiche possono. Il tempo T2 è dovuto allo stack di comunicazione. Il tempo T3 dipende dal sistema di trasmissione. L’eliminazione di parecchi livelli di protocollo riduce la lunghezza di messaggio. il tempo T1 è determinato dall’architettura hardware del dispositivo e difficilmente dipende dal protocollo. Un’ulteriore beneficio si ha considerando che la potenza del processore necessario nel dispositivo per la comunicazione è notevolmente ridotto. e meno tempo è richiesto prima che i dati da trasmettere siano pronti per la trasmissione e l’applicazione sia pronta per procedere.

• IO-Device: dispositivo di bus di campo remoto. tutti i dispositivi su Ethernet sono trattati allo stesso modo. che viene assegnato a un IO-Controller. • Allarmi: Sono trasferiti sul canale Real-Time. la metodologia di accesso master/slave di PROFIBUS DP è convertita al modello produttore/consumatore. Dal punto di vista della comunicazione. Per la configurazione viene utilizzata la stessa interfaccia di PROFIBUS. 276 . PROFINET prevede tre tipi di dispositivi: • IO-Controller: dispositivo controllore (PLC) sul quale gira il programma di automazione. Per questo scopo. Durante il funzionamento. Le varie informazioni possono essere trasferite tra gli IO-Controller e gli IO-Device attraverso i seguenti canali: • Dati ciclici di I/O: Questi dati sono trasferiti sul canale Real-Time. durante il processo di configurazione i vari dispositivi sono assegnati ad un controllore centralizzato (IO-Controller).Con PROFINET IO. l’integrazione di dispositivi di campo decentralizzati è implementata direttamente su Ethernet. il controller elabora le informazioni e trasferisce l’output ai dispositivi periferici. Tuttavia. i dispositivi periferici (IO-Device) trasferiscono le informazioni di input al controller. • IO-Supervisor: dispositivo/PC di programmazione con funzioni di configurazione e di diagnostica.

E’ possibile assegnare una priorità alta o bassa agli allarmi. Lo scambio dati ciclico è implementato attraverso la relazione di comunicazione IO-CR. diagnostici. vengono stabilite le istanze di relazione (IO-AR) tra gli IO-Controller e gli IO-Device attraverso in canale UDP/IP. Per la descrizione di uno scambio di dati ciclico. La trasmissione ciclica dei dati di ingresso e di uscita è implementata sulla IO-CR . di stato e allarmi di aggiornamento. 277 . Il dispositivo IO-Controller trasferisce i dati di parametrizzazione e di configurazione del dispositivo IO-Device assegnato sulla Record data CR. plug in. configurazione. Alla partenza. I dati di I/O sono trasmessi a cicli di tempo prefissati la cui frequenza di aggiornamento può essere diversificata per ciascun dispositivo. Un valore tipico è 32 per avere un ciclo di bus di 1 ms. In PROFINET esistono diversi tipi di allarme: unplug.• Parametrizzazione.25 us. i dati di processo e gli allarmi. Gli eventi aciclici sono trasmessi sulla Alarm-CR al IO-Controller. mostrato nella seguente Figura. inoltre sono comunque possibili allarmi specifici inseriti dal produttore del dispositivo. PROFINET IO definisce: • Ciclo di bus: La base tempi del clock è 31. lettura informazioni diagnostiche: Questi dati sono trasferiti attraverso canali standard sulla base di UDP/IP. L’istanza di relazione IO-AR contiene diverse relazioni di comunicazione (CR) attraverso le quali sono trasferite la configurazione. Inoltre l’intervallo di invio può essere diverso dall’intervallo di ricezione.

durante la configurazione. Il rapporto di riduzione è specificato. i valori di temperatura non devono essere spediti durante ogni ciclo di bus. Questo numero a 32 bit è diviso in due parti: i primi 16 bit rappresentano il numero identificativo del produttore. che permette una configurazione dei singoli moduli del dispositivo. Device Ident Number (ID). univoco. E’ stato specificato un modello uniforme per i dispositivi IO-Device PROFINET. Un dispositivo di campo può 278 . Indica quando un determinato frame verrà spedito all’interno del ciclo di bus.• Reduction Ratio: Il rapporto di riduzione indica ogni quanti cicli di bus viene spedito un frame. la stazione più lenta determinerebbe la velocità di spedizione dei dati. • Fase: La fase indica in quale ciclo di bus il frame corrispondente verrà spedito. i rimanenti 16 bit il numero identificativo del dispositivo. se ciò avvenisse. Per esempio. per ogni relazione di comunicazione IO-CR. • Frame Offset: Il Frame Offset indica l’offset relativo (in incrementi di 250 ns) dall’inizio del ciclo di bus. Non tutti i dati devono essere trasmessi con la stessa frequenza. Il ciclo di invio è calcolato moltiplicando il rapporto di riduzione per la durata del ciclo di bus. Questo modello è simile alle caratteristiche del modello PROFIBUS DP. Valori tipici sono 1 o 4. La soluzione a questo problema è fornita dal Reduction Ratio che deve essere considerato come un fattore moltiplicatore del ciclo di invio o di ricezione e determina in quale ciclo di quelli successivi verranno trasmessi i dati. Ad ogni dispositivo deve essere assegnato un numero di identificazione.

l’IO-Controller automaticamente effettua la parametrizzazione e la configurazione del nuovo dispositivo o modulo. Dopo aver eseguito la routine l’IO-Controller conferma il riconoscimento dell’errore tramite un telegramma all’IO-Device. PROFINET IO supporta un concetto di diagnostica multi-layer. Le informazioni diagnostiche sono strutturate in modo gerarchico. che rende possibile un’efficace metodo di rilevamento degli errori e la conseguente risoluzione di problemi. Tutto questo assicura una protezione degli investimenti per i produttori di dispositivi e per gli utenti finali. mostrato nella seguente Figura. l’IO-Device interessato invia un allarme diagnostico all’IO-Controller. Tra l’altro questo progetto modulare fa si che eventuali moduli I/O esistenti su PROFIBUS DP possano essere incorporati in PROFINET senza restrizioni e modifiche. Questo allarme richiama una corrispondente routine all’interno del programma del PLC che gestisce il guasto. In ogni caso questo tipo di modellizzazione permette di indirizzare i canali di I/O presenti nel sistema con indice univoco.essere modulare. oppure non espandibile e allora gli slot possono essere considerati virtuali. cioè includere slot fisici per l’inserzione dei moduli. Se un difetto in un dispositivo o in un modulo implica la necessità di rimpiazzarlo completamente. Quando si verifica un errore. 279 .

Gli EtherType sono assegnati da IEEE e quindi sono univoci al fine di poter distinguere i vari protocolli. mostrato nella seguente Figura. 280 . In questo caso in PROFINET c’è soltanto uno stack di comunicazione minimizzato e ottimizzato che sostituisce i livelli TCP/IP e UDP/IP. • Le condizioni imposte sui limiti accettabili per i ritardi debbano essere mantenuti non rigidamente. le applicazioni tipiche dell’area della factory-automation ove i tempi di risposta del sistema si devono attestare attorno alla decina di millisecondi. Si tratta di una soluzione completamente software in grado di soddisfare.Il cosiddetto Soft Real-time Channel (SRT Channel) è un primo approccio al problema della gestione della comunicazione Real-Time e in grado di soddisfare processi nei quali: • Risultano accettabili ritardi contenuti entro determinati limiti (circa 10 msec). per le caratteristiche che presenta. PROFINET usa pacchetti Ethernet che sono identificati attraverso l’EtherType. ma attorno a un valore medio.

Se i pacchetti sono 281 . I 6 byte dell’indirizzo MAC selezionano il dispositivo.1Q. controlla il valore contenuto nel campo Cycle Counter. Ogni bit di incremento corrisponde ad un intervallo di tempo di 31. Nel pacchetto viene anche inserito un contatore di ciclo Cycle Counter da parte del Provider. Il Consumer.25 us. i pacchetti in PROFINET possono avvantaggiarsi delle priorità in conformità con IEEE 802. EtherType e FrameID fanno parte dell’header del protocollo RT e favoriscono una classificazione veloce dei pacchetti. Attraverso questo valore può controllare se i dati di processo trasmessi sono quelli attuali. quando riceve il pacchetto. Il Provider incrementa il contatore di ciclo ad ogni ciclo e lo inserisce nel pacchetto.Il FrameID è utilizzato per indirizzare un canale di comunicazione specifico tra due dispositivi. Questo permette al dispositivo ricevente di classificare un pacchetto ricevuto velocemente per mezzo di un efficiente algoritmo. Il dispositivo Real-Time deve valutare solo l’EtherType e il FrameID per trovare il canale di comunicazione corretto. Per potere raggiungere un risultato ottimale.

Lo scopo delle suddivisone del ciclo di comunicazione RT è quello di dividere la banda all’interno del sistema. Per aumentare l’uso della banda e per prevenire sovraccarichi temporanei dovuti a connessioni multiple. I pacchetti che fluiscono fra i dispositivi sono gestiti dagli SWITCH in base a questo concetto di priorità. In teoria. L’uso della priorità basata su VLAN assicura che i pacchetti Real-Time siano preferiti. Un pacchetto a più alta probabilità ha la precedenza durante la fase di accodamento all’interno dello SWITCH sul pacchetto con priorità più bassa. trasportano anche un valore di priorità codificato in un numero da 0 (senza priorità) a 7 (massima priorità). ciascun dispositivo potrebbe trasmettere i pacchetti usando tutta la banda massima. mostrato nella seguente Figura. I dispositivi PROFINET utilizzano una velocità di trasmissione di 100 Mbit/s in full-duplex e sono collegati tramite SWITCH. Per questo motivo non vengono definiti dei parametri di tolleranza per il Jitter. un PROFINET IO-Controller può essere 282 . Gli SWITCH interessati devono gestire le situazioni di sovraccarico attraverso delle code. oppure in ultima ipotesi gettare via i pacchetti.dotati di un VLAN Tag. ai pacchetti standard del normale traffico IP. parametri invece definiti nella comunicazione IRT. durante l’instradamento tramite SWITCH. Ai pacchetti PROFINET Real-Time viene assegnato il valore 6. infatti non sarebbe possibile che verso un singolo nodo siano diretti più flussi contemporanei tutti alla banda massima (overload) e neppure la trasmissione di pacchetti Non RT (NRT). Per questo motivo PROFINET prevede un meccanismo per gestire e limitare l’invio dei pacchetti. ma questa caratteristica porterebbe in breve tempo ad un cattivo funzionamento del sistema.

Infine. Questa sincronizzazione è basata sul valore del contatore di ciclo Cycle Counter con una accuratezza stimata di un ciclo di clock. Uso di applicazioni di Motion Control richiede la sincronizzazione dei cicli di applicazione. Il traffico di rete viene così controllato e limitato attraverso questi meccanismi. verranno spediti i pacchetti Non Real-Time (NRT). Anche il tempo destinato per questi pacchetti non deve superare un certo ammontare (es.25 us e 4 ms. per il resto del tempo disponibile. Attraverso il rapporto di riduzione Reduction Ratio e la Fase possiamo distribuire i pacchetti RT nel tempo. All’inizio del ciclo vengono spediti i pacchetti RT relativi al dispositivo. Come mostrato nella seguente Figura. Il tempo destinato ai pacchetti RT non deve superare una certo ammontare (es. • in media. 10%). Ogni ciclo è definito da Tsendclock che è compreso tra 31. Questi meccanismi di gestione seguono le seguenti regole: • il processo che si occupa dell’invio dei pacchetti non deve spedire alcun pacchetto RT se all’inizio del nuovo ciclo esiste una situazione di sovraccarico per l’interfaccia locale. il ciclo di comunicazione è suddiviso in parti differenti. ad esempio i pacchetti UDP/TCP. 283 . e sincronizzare il ciclo di invio del provider con quello del consumer.collegato allo stesso tempo con diversi IO-Device. 50%) per ciascun ciclo. Successivamente possono essere spediti pacchetti Real-Time aciclici (aRT). Tramite IRT è possibile controllare cicli di bus di durata minore di 1 ms e con Jitter inferiore ad 1 us. non può essere usato più di un certo ammontare di banda per evitare il sovraccarico del sistema.

è specificato dalla sua posizione temporale. La sincronizzazione usa le sequenze di protocollo secondo la normativa IEEE 1588 (PTP . anche la trasmissione dei dati nella rete viene gestita attraverso particolari SWITCH. In questo caso in PROFINET non c’è soltanto uno stack di comunicazione minimizzato. Dovranno essere prese anche delle contromisure al fine di evitare che le stazioni senza comunicazioni IRT non interferiscano sul sistema. Una programmazione delle tempistiche nel dispositivo di campo IRT definisce il tempo esatto di trasferimento dei dati Real-Time. Lo scopo principale di IRT è la sincronizzazione della comunicazione attraverso un controllo preciso della comunicazione. 284 . Il pacchetto IRT. PROFINET IRT usa gli stessi protocolli visti precedentemente. I pacchetti IRT sono soggetti ad una comunicazione guidata dal tempo. In un sistema IRT il ciclo di bus deve essere diviso in una parte IRT e una parte non IRT durante la configurazione. in aggiunta ha un protocollo di comunicazione per la sincronizzazione e un gestore della comunicazione temporale. Gli altri pacchetti possono essere trasferiti solo dopo aver trasmesso i dati Real-Time. la cui struttura è mostrata nella seguente Figura.Precision Time Protocol). La programmazione della tempistica di comunicazione definisce esattamente quando un singolo pacchetto arriverà a destinazione e quando dovrà essere di nuovo instradato. La sincronizzazione del clock è disaccoppiata dai meccanismi IRT. Il campo VLAN per la priorità non è necessario e quindi non viene inserito nel pacchetto.Si tratta in questo caso di una soluzione hardware. dal FrameID e dall’EtherType (0x8892). Questo può essere implementato attraverso una programmazione della tempistica specifica per ogni singolo nodo inserito nella comunicazione.

ma l’accodamento può ancora sommare dei ritardi non prevedibili al tempo di trasferimento. Nel frattempo gli altri pacchetti sono inseriti in un buffer fino all’inizio della parte Non IRT. All’interno del tempo destinato all’IRT possono essere trasmessi solo pacchetti IRT. Nella parte Non IRT i pacchetti sono spediti in base alle regole definite nella IEEE 802. Come descritto in precedenza. Per ottenere un trasferimento di dati Real-Time deterministico all’interno di un ciclo IRT. non solo nei dispositivi. i differenti pacchetti che sono stati spediti sulla stessa porta vengono processati secondo la strategia il primo arrivato. I pacchetti IRT sono identificati dal loro FrameID. La banda disponibile è divisa in due sezioni. All’inizio del ciclo è inserita la comunicazione IRT. Per ottenere il determinismo nel trasferimento di pacchetti Ethernet si deve riservare esplicitamente per i pacchetti IRT una percentuale della banda disponibile. banda per la comunicazione IRT e banda per le altre comunicazioni. Il Jitter di sincronizzazione di un ciclo IRT deve essere inferiore ad 1 microsecondo. è il primo servito. ma anche negli SWITCH.1D.Utilizzando una rete Ethernet standard dotata di SWITCH. Con il campo VLAN è possibile diminuire il ritardo di alcuni speciali pacchetti. per l’invio dei pacchetti vengono valutate le rispettive priorità. il tempo di invio di ogni pacchetto è calcolato esplicitamente ed è fisso per ogni 285 .

Questo permette una riduzione dei costi considerevole. Parimenti vengono definiti i limiti del ciclo IRT. L’algoritmo che pianifica le temporizzazioni può suggerire topologie alternative per l’ottimizzazione.pacchetto. I limiti degli altri pacchetti (RT. e il cablaggio di un sistema di automazione in una struttura a linea permette una notevole riduzione dei costi dei cavi e del loro posizionamento. Tutti gli altri componenti come gli SWITCH che si trovano fra i dispositivi hanno delle tabelle di indirizzi che vengono aggiornate durante la comunicazione. per la parte del ciclo Non IRT. 286 . Non avviene l’accodamento dei pacchetti IRT e così il trasferimento dei dati all’interno dello switch può essere ridotto al minimo. dipendono dal numero di pacchetti da spedire e possono variare nel tempo. consumer). La conoscenza dell’esatta topologia porta i seguenti vantaggi: • Garanzia del determinismo: Per ogni pacchetto il tempo di invio ad un dispositivo è definito esattamente e il tempo di invio di un pacchetto è diverso da quello degli altri pacchetti dello stesso nodo. Per sfruttare al massimo le prestazioni di IRT sono stati progettati degli ASIC (Application Specific Integrated Circuit) con controllore Ethernet con funzionalità di SWITCH e funzionalità IRT integrate. perchè in molti casi non è necessario l’utilizzo di SWITCH esterni. ma anche tutti i nodi che si trovano sul tragitto. Diversamente. Sono definiti anche i tempi di spedizione di tutti i nodi con switch che si trovano tra il producer e il consumer. aRT. • Ottimizzazione dell’uso della banda: Pacchetti destinati a parti differenti del sistema possono essere trasferiti allo stesso istante di tempo. IRT ha bisogno non solo di conoscere i dispositivi che devono comunicare. NRT). Inoltre pacchetti spediti su porte diverse possono essere spediti allo stesso istante di tempo. Questi nuovi ASIC permettono diverse opzioni di cablaggio per interfacciare dispositivi di campo con Ethernet tra cui l’economica struttura a linea tipica degli impianti PROFIBUS. PROFINET è diffuso prevalentemente in Europa. I limiti del ciclo IRT (inizio e fine) possono essere utilizzati come indicatori per l’inizio di una applicazione (ad esempio per la Motion Control) Per il trasferimento dei dati attraverso i protocolli TCP/IP o UDP/IP è sufficiente configurare i dispositivi che devono comunicare (producer.

com/pn 287 .www.profibus.

7.15 Tabelle comparative sui bus di campo Ethernet Tabella 1

Tabella 2

288

Tabella 3

289

Tabella 4

290

7.16 Bibliografia Alessandro Robertini: “Profinet nell’industria” Fieldbus & Networks, 2003. Anthony Keane: “Real-Time networks using Ethernet?”. Article 269 Ethernet, www.controldesign.com. Cavagnari: “Beckhoff EtherCAT Ethernet fon control and automation technology”. 5. Cisco Systems: “Intelligent Ethernet and Ethernet/IP deployments”, Rockwell Automation, 2003. 6. Contemporary Controls: “The ABCs of selecting the proper Industrial Ethernet switch”, 2005. 7. Control Techniques: “Fieldbus Guide”. 8. Erik Didley: “Sercos III – La nuova generazione”, Bosch-Rexroth, 2006. 9. Fieldbus Technology, Burkert - Fluid Control System. 10. Francesco Venturini: “I bus di campo isocroni - Profibus DP V2 e Profinet I/O”, Università degli studi di Brescia. 11.Hilscher Italia: “EtherCAT”. 12.Hilscher Italia: “Ethernet Powerlink”. 13.Industrial Ethernet solutions under the spotlight, www.ferret.com.au, 2005. 14.Industrial Ethernet University: “Choosing the right industrial Ethernet switch”. 15.Industrial Ethernet University: “Power over Ethernet”. 16.Industrial Ethernet University: “Real-Time Ethernet 1”. 17.Industrial Ethernet University: “Real-Time Ethernet 2”. 18.Ing. Marzio Mascellani: “Competence in communication”, Hilscher, 2006. 19.Jim Montague: “Fellowship of the fieldbus”, Control Engineering, 2004. 20.John S. Rinaldi: “Industrial Automation Networking – 2004 Beyond”, 2004. 21. Jonas Berge: “HSE installation - Building industrial strenght Ethernet”. 22. Kevin Bothamley and Jim Rodgerson: “Emerging Ethernet Protocols”, Department of Electrical and Electronic Engineering Manukau Institute of Technology – Auckland. 23.Luca Garzone: “Ethernet/IP – ControlNET over Ethernet TCP/IP”, Netlinx Rockwell Automation. 24. Massimo Giussani: “Controllo con Sercos”, Fieldbus & Networks, 2004. 25.Massimo Giussani: “Ethernet Industriale”, Fieldbus & Networks, 2004.
291

1. 2. 3. 4.

26.Massimo Giussani: “Il protocollo Modbus”, Fieldbus & Networks, 2005. 27.Matteo Marino: “Ethernet verticale è anche Real-Time”, Fieldbus & Networks, 2006. 28.Matteo Marino: “Giovane, ma già Real-Time”, Fieldbus & Networks, 2005. 29. Matteo Marino: “In campo senza freni” Fieldbus & Networks, 2005. 30. Max Felser: “Real-Time Ethernet - Industry prospective”, Member IEEE, 2005. 31. Michael Flur: “Real-Time Ethernet standards”, Smart Nertworks Devices, 2005. 32.Michele Orioli “La concezione aperta di Sercos III”, Fieldbus & Networks, 2006 33.N-TRON: “Industrial Ethernet in industrial environment”, 2004. 34.Paolo Ferrari, Alessandra Flammini, Daniele Marioli, Andrea Taroni: “Sincronizzazione in reti RTE tramite Ieee 1588”, Fieldbus & Networks, 2006. 35.Paolo Ferrari: “Comunicazioni industriali su Ethernet, switch sincronizzazione e norme”, Università degli studi di Brescia. 36. Peter Highton: “Freescale technology forum”, 2005. 37.Prof. Dr. Ing. Birgit Vogel Heuser: “Introduction of Real-Time solutions” , University of Wuppertal, 2005. 38.Prof J.D. Decotignie: “Real-Time Networking Ethernet”,CSEM - Centre Suisse d’Electronique et de Microtechnique SA. 39. Rivista: “Brescia Ricerche n52” , INN-TEC, 2005. 40.Roberto Motta: “Ethernet/IP – ControlNet over Ethernet TCP/IP”, Assoautomazione. 41.Sang Geon Park: “Fieldbus in IEC61158 Standard”, 2002. 42. Stefano Cazzani: “Industrial Ethernet” , Le Monografie. 43.Stefano Panzieri: “Profinet” , Università degli studi di Roma. 44. Technical article: “Standards based Real-Time Ethernet now off the self”, Theonline Industrial Ethernet Book, 2006. 45. The Grid Connect: “Fieldbuss Comparison Chart” , www.gridconnect.com, 2006. 46. Valerio Alessandroni: “Due temi caldi” , Fieldbus & Networks, 2006. 47.Valerio Alessandroni: “FF colpisce dritto al cuore”, Fieldbus & Networks, 2002. 48. V. Alessandroni: “La tecnologia dei fieldbus” , Fieldbus & Networks, 2005.
292

OSSERVAZIONI CONCLUSIVE Lo standard di comunicazione dati Ethernet è di comune impiego già da molti anni, e la maggior parte delle reti aziendali esistenti in tutto il mondo si basa su di esso. Nonostante più volte sia stato detto che questa tecnologia sarebbe stata superata, continua ad evolversi e offre tutte le caratteristiche richieste dagli utenti, da cui si può arguire che verrà utilizzata ancora per molti anni. Negli ultimi anni, Ethernet ha iniziato a farsi spazio anche nel mercato industriale. A dire il vero, Ethernet esisteva già a livello industriale, ma solo fino a pochi anni fa era concentrata solo a livello amministrativo. Era la rete che collegava i vari uffici dell’amministrazione oppure collegava gli impianti di produzione a livello di area, non era la rete su cui viaggiavano i dati critici dell’automazione, con cui vengono, ad esempio, controllati gli azionamenti. Da più di 10 anni, nell’industria e nelle fabbriche il bus di campo (fieldbus) è stato il mezzo scelto tradizionalmente per la comunicazione dati affidabile e deterministica. Esistono molti standard e tipi diversi, di conseguenza però, l’interoperatività è costosa e difficoltosa. I tradizionali bus di campo mostrano poi, anche i propri limiti nella velocità di trasmissione, di integrazione e di diagnostica. Per questi ed altri motivi di tipo commerciale, taluni ritengono che i bus di campo passeranno rapidamente dall’alba verso il tramonto a favore di soluzioni basate su Ethernet/Internet, che peraltro è già presente in ambiente industriale a livello di cella e di area. Ethernet/Internet sta diventando la soluzione unificata per gestire le comunicazioni di un’azienda, e viene già proposta in alternativa ai bus di campo. Rispetto ai bus di campo sopra citati, Ethernet risulta essere penalizzata perchè non deterministica e a bassa efficienza (il numero di byte trasmessi è elevato rispetto al numero di byte che contengono effettivamente l’informazione) e questi sono i motivi che per lungo tempo ne hanno escluso l’uso come bus di campo. Oggi le nuove tecnologie (ad esempio, SWITCH, Fast e Giga Ethernet) riducono notevolmente la probabilità di collisione, e la bassa efficienza viene compensata dalla possibilità di interfaccia diretta verso i livelli superiori e utenti remoti (Internet) ed dall’elevata velocità di trasmissione, per cui molti bus di campo si stanno preoccupando della compatibilità verso Internet. Si assiste così al proliferare di studi per la gestione combinata dei bus di campo con le nuove tecnologie (Ethernet, Wireless-WiFi, Internet).
293

Fibra Ottica) e nuovi tipi di dispositivi a livello di campo (ad esempio Soft-PLC e Web-Sensor). Ethernet è trasparente. Sulla stessa rete possono coesistere molti protocolli diversi. è in grado di integrarsi facilmente con diverse e nuove tecnologie (ad esempio Internet. e offre molteplici possibilità di interconnessione con la rete mondiale. • Integrazione: Una rete Ethernet. con oltre l’80% di quota di mercato.Sono queste le ragioni principali per cui Ethernet ha incominciato ad essere presa seriamente in considerazione in ambito industriale anche a livello di campo. 294 . Bluetooth. Questa rete è stata concepita appositamente per l’impiego in ambiente ufficio e offre una comunicazione dati assai performante. • Determinismo: Esistono già i protocolli Industrial Ethernet per dare priorità ai dati. Wireless-WiFi. di conseguenza si può dire che attualmente Ethernet sia praticamente deterministica. e soluzioni per evitare il non determinismo dovuto al protocollo CSMA/CD di Ethernet (VLAN. ma la maggior parte raggiunge al massimo i 2 Mbit/s. priorità. Fra gli altri vantaggi si ricordano: • Affidabilità: Ethernet è uno standard aperto ben definito per cui l’interoperatività è più semplice e i componenti sono reperibili presso molti produttori a basso costo. che è poi l’obiettivo finale dell’utente industriale. possono quindi essere trasportate e sfruttate vantaggiosamente anche nell’automazione dell’industria manufatturiera e di processo. il protocollo più veloce su bus di campo arriva a 12 Mbit/s come massima velocità di trasmissione. eccetera). SWITCH. Ethernet è oggi. flessibile e garantisce la protezione degli investimenti per il futuro. diversamente da un bus di campo. • Velocità: Le velocità di trasmissione dei dati a 10/100 Mbit/s sono ormai la normalità con Ethernet ed oggi sono disponibili anche soluzioni Gigabit. il numero uno nel panorama delle reti LAN. Inoltre. Ethernet costituisce la tecnologia di base per l’Intranet e Internet. Le svariate possibilità di Ethernet che oggi sono già disponibili nell’ambiente d’ufficio.

quali protocolli per Ethernet Industriale meritano di essere sviluppati? Una domanda analoga. la ci si è posta oltre 10 anni fa quando hanno fatto la loro comparsa nel mercato industriale i bus di campo. Sostenuto da Siemens. Inoltre. Dal punto di vista dei produttori di dispositivi Industrial Ethernet. quelli che desiderano avere buone prospettive di vendita sui mercati internazionali dovranno implementare tutti i vari differenti standard Industrial Etnernet nei loro dispositivi. Per l’Europa. 295 . EtherNet/IP è già affermato. Implementare standard differenti in tutti i dispositivi. il protocollo emergente è PROFINET.Per concludere. Dove desidero vendere il mio prodotto? Modbus TCP ha nodi installati in tutto il mondo ed è stato uno dei primi protocolli Industrial Ethernet introdotti sul mercato. Negli Stati Uniti. richiederà una quantità enorme di risorse per lo sviluppo. è possibile fare altre brevi considerazioni sulle prospettive di Ethernet come bus di campo nell’automazione industriale. sarà probabilmente il protocollo Ethernet più importante e diffuso nel mercato europeo nel prossimo futuro. La risposta è non solo basata su una questione di prestazioni del protocollo stesso. ma è anche basata su aspetti riguardanti la domanda a livello mondiale. è sostenuto pesantemente da Rockwell Automation e sta incalzando Modbus TCP.

Dal un punto di vista degli utenti finali.Per quanto riguarda l’Asia. è semplicemente un vantaggio considerevole rispetto al grande numero di tecnologie basate sui diversi bus di campo. sicuramente non sostituirà mai i tradizionali bus di campo nell’automazione industriale. Il fatto che le nuove reti industriali siano tutte basate sulla stessa tecnologia (Ethernet) per la trasmissione di dati. l’evoluzione di Ethernet nel campo dell’automazione industriale. 296 . Viceversa. al momento. nel futuro. possibili attraverso i tradizionali bus di campo. valutando la situazione attuale dei sistemi basati sui convenzionali bus di campo (molti e non integrabili fra di loro). saranno però presenti vari protocolli non interoperabili tra di loro e pertanto. ci sono scarse probabilità di arrivare ad un unico standard per Ethernet Industriale. Ethernet (col connubio TCP/IP). hanno buoni motivi di essere ottimisti circa il futuro di Ethernet Industriale. e le potenzialità offerte dai tradizionali bus di campo quando è vincolante il requisito di determinismo (per esempio un controllo assi dell’impianto industriale). consentirà nello stesso tempo la possibilità di poter sfruttare le potenzialità di Ethernet e di Internet (TCP/IP) per alcune aree applicative nell’automazione industriale quando non è fondamentale il requisito di determinismo (ad esempio per la configurazione e la diagnostica di un impianto industriale). in quanto non è in grado di garantire le prestazioni deterministiche richieste nell’automazione industriale. A livello Applicazione del modello ISO/OSI. definita comunemente come Industrial Ethernet. al momento non c’è nessuna risposta certa e ancora ci si interroga su quali protocolli Ethernet diventeranno più popolari in tale mercato.

2. Smart Nertworks Devices. 2005. Michael Flur: “Real-Time Ethernet standards”. Harry Forbes: “Industrial Ethernet: Enabling Collaborative Manufactoring”. ARC-Advisory Group.Bibliografia 1. 2005. 297 .

298 .