You are on page 1of 9

Jednostki

informacji i
pamięci
Autor: Tomasz Szklarz kl. III A
Bit
Bit (w ang. kawałek, skrót od binary digit, czyli cyfra dwójkowa) –
najmniejsza ilość informacji potrzebna do określenia, który z dwóch równie
prawdopodobnych stanów przyjął układ. Jednostka logiczna.
Jest to również najmniejsza jednostka informacji używana w odniesieniu do
sprzętu komputerowego a oznaczana jest za pomocą „b”. Przeważnie stosuje
się podstawowe przedrostki wielokrotności SI, czyli o mnożniku 1000.
Bit przyjmuje jedną z dwóch wartości, które zwykle określa się jako 0 (zero) i
1 (jeden), choć można przyjąć dowolną inną parę wartości, np. prawda i fałsz,
tak lub nie czy -1 i +1. W pierwszym przypadku bit jest tożsamy z cyfrą w
systemie dwójkowym.
Binarny sposób zapisu informacji związany jest z tym, że komputer jako
urządzenie cyfrowe rozpoznać może dwa stany napięciowe: 1- w przypadku
wysokiego napięcia i zero w przypadku bardzo małego napięcia lub jego
braku.
Z tego względu obliczenia wykonywane przez procesor opierają się na
binarnym (dwójkowym) systemie liczbowym.
Wielokrotności bita
W ielo krotn ośc i b itów
Prz edrostk i dz ies iętn e Prze dros tk i bina rne
N az w a Sy m bolM no żnikN az w a S ym b olM noż nik
k ilobit kb 103 bitów kibibit K iB 21 0 b itów
m e gabitM b 106 bitówm ebibit M iB 22 0 b itów
g ig abit Gb 109 bitów gibibit G iB 23 0 bitów
tera bit T b 101 2 bitówtebib it TiB 24 0 b itów
p etabit Pb 101 5 bitówpeb ibit P iB 25 0 b itów
e ksab it Eb 101 8 bitówek sbibitE iB 26 0 b itów
Bit na sekundę
 Bit na sekundę (ang. bps – bit per second) – jednostka natężenia strumienia danych
w medium transmisyjnym (np. pomiędzy dwoma komputerami) oraz jednostka
przepustowości, czyli maksymalnej ilości informacji, jaka może być przesyłana przez
dany kanał telekomunikacyjny w jednostce czasu, oznaczana b/s bądź bps.
 Powszechnie stosuje się wielokrotności bitu na sekundę. Mogą być one wyrażane z
użyciem przedrostków dziesiętnych SI (kilobit na sekundę, megabit na sekundę) albo
przedrostków binarnych IEC 60027–2 (kibibit na sekundę, mebibit na sekundę).
 W życiu codziennym są używane jednostki pochodne:
 Kilobit na sekundę kb/s, którego nie należy mylić z kilobajtami ( KB/s) na sekundę,
ponieważ taka mała różnica w zapisie jednostki może oznaczać zupełnie inną
jednostkę. KB/s jest jednostką ośmiokrotnie większą niż kb/s. Jednostkę kilobity na
sekundę stosuje się powszechnie do określania maksymalnej przepustowości kanału
komunikacji (np. łącza internetowego). Nie służy jednak do określania prędkości
przesyłu danych w danym momencie, wielkość taką opisujemy za pomocą
kilobajtów na sekundę.
• Megabit na sekundę Mb/s , 1 Mbit/s- 1000000 b/s
• Gigabit na sekundę Gb/s, 1 Gbit/s- 1000000000 b/s
Bajt
 Bajt (dop. bajtu lub bajta) – najmniejsza adresowalna jednostka informacji pamięci
komputerowej, składająca się z bitów.
 W praktyce przyjmuje się, że jeden bajt to 8 bitów, choć to nie wynika z powyższej
definicji. Aby uniknąć niejednoznaczności, jednostka składająca się z ośmiu bitów
zwana jest również oktetem. Bywa też że "bajt" definiuje się jako 8 bitów,
najmniejszą adresowalną jednostkę pamięci – char.
 Ośmiobitowy bajt dzieli się niekiedy na dwa czterobitowe nibble (od ang. nibble –
kąsek) bądź tetrady. Wyróżnia się mniej znaczący (dolny) i bardziej znaczący
(górny) nibble/tetradę, składające się odpowiednio z bitów 0-3 i 4-7. Spotyka się też
określenie strefa i cyfra wywodzące się od kodowania znaków kodem EBCDIC,
oznaczające odpowiednio starszą i młodszą tetradę.
 W starszych maszynach nie stosowano pojęcia bajt ani oktet, najmniejszą jednostką
było słowo maszynowe (np. 24-bitowe w maszynach standardu ICL, jak polskie
"Odry", albo 60-bitowe w maszynach CDC czy 36-bitowe w Honeywell). W Odrach
serii 1300 rozkazy działające na znakach adresowały pojedynczy znak używając
specjalnego dla nich trybu adresowania (dodatkowych 2 bitów adresu znaku w
słowie).
Historia bajta
 Jako pierwszy, terminu bajt użył Werner Buchholz w lipcu 1956 r. podczas
projektowania komputera IBM Stretch. Początkowo oznaczał dane 4-bitowe, co
pozwalało na zapis 16 różnych liczb, lecz na etapie produkcji został zredukowany do
3 bitów (8 różnych liczb) – główne operacje komputerowe wykorzystywały bajt 3-
bitowy. Bajt 8-bitowy został upowszechniony jako standard wraz z pojawieniem się
komputera System/360. Słowo "bajt" (ang. byte) powstało od angielskiego "bite"
(gryźć), jako najmniejsza porcja danych, które komputer może "ugryźć" za jednym
razem (czyli pobrać, zapisać, przetworzyć). Dzięki temu uniknięto pomyłek z bitem
(bite), ale także było to spowodowane skłonnością ówczesnych naukowców do
przeobrażania i tworzenia nowych nazw. Bajt również był nazywany "8-bitowym
bajtem" dla podkreślenia, że jest zestawem n bitów oraz tego, że może mieć również
inny rozmiar.
 Wczesne mikroprocesory, takie jak Intel 8008 (poprzednik 8080 i 8086), mogły
wykonywać niektóre operacje na 4 bitach, takie jak DAA (ang. Decimal Adjust after
Addition) oraz ustawianie flagi "half carry" (połowicznego przeniesienia), które służyły
do implementacji arytmetyki dziesiętnej. Te 4-bitowe typy danych nosiły nazwę
"nibble".
 Historyczne dokumenty IETF opisują różne przykłady bajtów. RFC 608 podaje
rozmiar bajta dla hostów FTP (atrybut FTP-BYTE-SIZE w tablicy hostów ARPANET) jako
36 bitów dla komputerów PDP-10 i 32 bity dla IBM 360.
Wielokrotności bajta
W ielokrotności bajta
Przedrostki dziesiętne Przedrostki binarne
Nazwa SymbolM nożnik Nazwa SymbolMnożnik
kilobajt kB 103 bajtówkibibajt KiB 210 bajtów
megabajtMB 106 bajtów mebibajt MiB 220 bajtów
gigabajt GB 109 bajtów gibibajt GiB 230 bajtów
terabajt TB 1012 bajtówtebibajt TiB 240 bajtów
petabajt PB 1015 bajtówpebibajt PiB 250 bajtów
eksabajt EB 1018 bajtóweksbibajtEiB 260 bajtów
Jak sprawdzić rzeczywistą
pojemność nośnika?
Aby sprawdzić pojemność rzeczywistą
należy sprowadzić jednostkę wyższego
rzędu do jednostki rzędu niższego.
Otrzymany wynik należy podzielić przez
1024. Wtedy wychodzi rzeczywista
pojemność nośnika pamięci.
Tabela wielokrotności jednostek.
Koniec
prezentacji

You might also like