You are on page 1of 15

Wprowadzenie

Informatyka to dziedzina nauki zajmująca się


przetwarzaniem informacji za pomocą komputerów.
Historia informatyki sięga początków cywilizacji,
kiedy ludzie zaczęli zapisywać informacje na
tabliczkach glinianych i papirusach.
Prehistoria informatyki
● Niestety, nie istnieją zapisy ani archeologiczne
znaleziska dotyczące narzędzi kalkulacyjnych z epoki
kamienia. Możliwe, że ludzie w tamtych czasach
korzystali z prostych narzędzi do liczenia, takich jak
kamyki, patyki, lub rysowali linie i symbole na
powierzchniach skalnych, jednak brak jest na to
konkretnych dowodów.
● Znane są jednak znaleziska liczydeł i abaków z
różnych okresów historycznych, takich jak abakus
suanpan używany w Chinach od około 200 p.n.e. czy
liczydło koralikowe używane przez starożytnych
Greków. Jednakże, narzędzia te nie należą do epoki
kamienia, lecz do późniejszych okresów.
Wynalezienie maszyny liczącej

Historia maszyny liczącej sięga starożytności, kiedy to używano
prostych narzędzi do wykonywania obliczeń, takich jak kalkulatory i
abakusy. Jednakże, pierwsze urządzenie zaprojektowane specjalnie do
wykonywania obliczeń matematycznych to machina różnicowa,
stworzona przez Charlesa Babbage'a w latach 30. XIX wieku. Była to
mechaniczna maszyna, która miała za zadanie wykonywać obliczenia
wielomianów.


Pascalina był jednym z najwcześniejszych kalkulatorów mechanicznych,
wynalezionym przez Blaise'a Pascala w 1642 roku. Było to cylindryczne
urządzenie, które wykorzystywało koła zębate i koła do wykonywania
operacji dodawania i odejmowania. Pascalina była w stanie wykonywać
obliczenia o długości do ośmiu cyfr i była to znacząca poprawa w
stosunku do istniejących metod obliczeń ręcznych. Jednak nadal miał
ograniczone możliwości, a bardziej złożone obliczenia wymagały wielu
operacji i dużo czasu. Pomimo swoich ograniczeń Pascalina była
ważnym krokiem naprzód w rozwoju kalkulatorów mechanicznych i
utorowała drogę dla bardziej zaawansowanych maszyn w przyszłości.
Narodziny informatyki

Pierwsze elektroniczne komputery zostały zbudowane w latach 40. XX wieku. Oto kilka najważniejszych z nich:


ENIAC (Electronic Numerical Integrator and Computer) - zbudowany w 1945 roku w USA. Był to pierwszy ogólnego
zastosowania elektroniczny komputer. Ważył około 30 ton i składał się z około 18 000 lamp elektronowych.


Colossus - zbudowany w Wielkiej Brytanii w 1943 roku, był pierwszym elektronicznym komputerem cyfrowym.
Wykorzystywany był do łamania szyfrów niemieckich podczas II wojny światowej.


Harvard Mark I - zbudowany w 1944 roku w USA przez grupę naukowców z Uniwersytetu Harvarda. Został
zaprojektowany do obliczeń balistycznych.


UNIVAC I (Universal Automatic Computer I) - pierwszy komercyjny elektroniczny komputer, zbudowany w 1951
roku w USA. Wyprodukowano tylko kilka egzemplarzy, kosztującego około 1,2 miliona dolarów każdy.

Te komputery były wielkie i drogie, ale stanowiły przełom w dziedzinie obliczeń elektronicznych i przyczyniły się
do rozwoju dziedziny informatyki.
Era miniaturyzacji
● Transistor jest jednym z najważniejszych wynalazków w historii elektroniki i informatyki.
Jest to mały element półprzewodnikowy, który służy do wzmacniania i sterowania
przepływem prądu elektrycznego. Wprowadzenie tranzystora zastąpiło poprzednio używane
lampy elektronowe, co przyczyniło się do powstania mniejszych, tańszych i bardziej
wydajnych urządzeń elektronicznych.

● Wpływ tranzystora na informatykę był ogromny. Bez tranzystorów nie byłoby możliwe
stworzenie komputerów osobistych, smartfonów, tabletów, czy innych urządzeń, które teraz
stanowią integralną część naszego życia codziennego. Dzięki tranzystorowi możliwe stało się
zminiaturyzowanie układów elektronicznych, co umożliwiło tworzenie coraz mniejszych i
bardziej wydajnych urządzeń.

● Mikroprocesor został wynaleziony w 1971 roku przez firmę Intel. Był to wynik prac i badań
inżyniera Marciana Edwarda Hoffa, który pracował nad stworzeniem jednego układu
scalonego, który miałby za zadanie wykonywanie operacji, które do tej pory wymagały
wielu układów scalonych.

● Pierwszy mikroprocesor o nazwie Intel 4004 był niewielkim układem scalonym o wielkości
3x4 mm, który zawierał 2300 tranzystorów. Umożliwiał on wykonywanie około 60 tysięcy
operacji na sekundę. Został zaprojektowany do zastosowań w kalkulatorach
elektronicznych.
Początek komputeryzacji
● W pierwszych latach informatyki programowanie
było znacznie trudniejsze niż dziś. Komputery były
duże i kosztowne, a programy pisane były ręcznie,
bez użycia specjalistycznego oprogramowania.
Programy zapisywano na taśmach perforowanych
lub kartach dziurkowanych, które były czytane
przez komputer.
● W pierwszych latach informatyki popularnymi
językami programowania były FORTRAN i
COBOL. Te języki były przeznaczone głównie do
tworzenia programów naukowych i biznesowych.
Później pojawił się język BASIC, który był bardziej
przyjazny dla początkujących programistów.
Wynalezienie myszy i interfejsu
graficznego

Historia myszy i interfejsu graficznego (GUI) są nierozerwalnie związane.
Mysz była jednym z pierwszych urządzeń wejściowych, które pozwalały
użytkownikowi na interakcję z komputerem za pomocą ruchu i kliknięć.
Wraz z rozwojem GUI, mysz stała się narzędziem niezbędnym do
nawigacji i korzystania z interfejsu użytkownika.


Pierwsza mysz została wynaleziona w 1964 roku przez Douglasa
Engelbarta z zespołem badawczym z SRI International. Mysz ta miała
kulkę na spodzie, która przesuwała się po specjalnej podkładce i
przekazywała ruch do komputera za pomocą przewodu. Mysz była
wykorzystywana do nawigacji w systemie o nazwie NLS (o której mówił
Douglas Engelbart podczas słynnej prezentacji z 1968 roku, znaną jako
"The Mother of All Demos"). System ten wykorzystywał GUI, w którym
użytkownik mógł wybierać opcje za pomocą myszy, co było rewolucyjne
w tamtych czasach.
Narodziny internetu

Internet narodził się w latach 60. XX wieku jako projekt badawczy
amerykańskiej agencji rządowej Advanced Research Projects Agency
(ARPA). Celem projektu było stworzenie sieci komputerowej, która
umożliwiłaby wymianę informacji między różnymi ośrodkami badawczymi i
wojskowymi w Stanach Zjednoczonych.


W 1969 roku powstała pierwsza sieć komputerowa o nazwie ARPANET,
która umożliwiała połączenie komputerów znajdujących się na różnych
uniwersytetach i instytutach badawczych. W latach 70. i 80. sieć ta została
rozwinięta i stała się dostępna również dla szerszej grupy użytkowników.


W 1990 roku naukowiec Tim Berners-Lee stworzył system hipertekstowy,
który umożliwił łatwe tworzenie, przeglądanie i udostępnianie informacji w
internecie. Ten system stał się podstawą World Wide Web, czyli popularnej
dzisiaj części internetu.


W latach 90. internet zaczął się dynamicznie rozwijać i stał się popularnym
narzędziem komunikacji i wymiany informacji na całym świecie.
Era internetowa
● Electronic commerce, czyli handel elektroniczny. Jest to forma handlu, w
której transakcje kupna i sprzedaży towarów lub usług odbywają się za
pośrednictwem Internetu. E-commerce ma wiele zalet, w tym łatwość
dostępu do produktów, wygodę zakupów, brak ograniczeń czasowych i
geograficznych oraz możliwość porównywania cen i opinii innych
klientów.

E-mail (skrót od ang. electronic mail) to forma komunikacji internetowej,
która umożliwia wysyłanie i odbieranie wiadomości za pomocą sieci
komputerowej. E-mail umożliwia przesyłanie tekstu, obrazów, plików oraz
innych typów danych między użytkownikami z różnych części świata w
czasie rzeczywistym lub w trybie offline. Każdy użytkownik posiada swój
indywidualny adres e-mail, który służy do identyfikacji i umożliwia innym
użytkownikom wysłanie wiadomości na jego skrzynkę pocztową.
● Media społecznościowe to platformy internetowe, które umożliwiają
użytkownikom interakcję, udostępnianie treści i tworzenie społeczności
wirtualnych. Do najpopularniejszych mediów społecznościowych należą
Facebook, Twitter, Instagram, LinkedIn, TikTok, Snapchat, YouTube i
Pinterest.
Informatyka w chmurze

Chmura (ang. cloud) to model dostarczania usług i
zasobów informatycznych za pośrednictwem sieci,
takiej jak Internet. Usługi chmurowe pozwalają
użytkownikom na korzystanie z infrastruktury,
aplikacji i usług informatycznych, które są
hostowane w centrum danych i udostępniane
przez dostawców usług chmurowych.

Chmura umożliwia elastyczność w zarządzaniu
zasobami informatycznymi, ponieważ
użytkownicy mogą w łatwy sposób dostosowywać
swoje zasoby do potrzeb, a także dokonywać
szybkich zmian w infrastrukturze. Usługi
chmurowe są również bardziej skalowalne,
umożliwiając łatwe dodawanie lub usuwanie
zasobów w zależności od potrzeb użytkowników.
Sztuczna inteligencja i uczenie

maszynowe
Sztuczna inteligencja (ang. Artificial Intelligence, AI) to dziedzina informatyki zajmująca się tworzeniem
programów i algorytmów, które są w stanie wykonywać zadania, które zwykle wymagają ludzkiej
inteligencji, takie jak rozpoznawanie obrazów, rozumienie języka naturalnego, podejmowanie decyzji czy
uczenie się na podstawie doświadczeń.
● Algorytmy uczenia maszynowego to rodzaj algorytmów sztucznej inteligencji, które pozwalają na
automatyczne uczenie się na podstawie zbioru danych. Algorytmy te są w stanie wykrywać wzorce,
zależności i reguły na podstawie danych wejściowych, a następnie stosować je do podejmowania decyzji lub
prognozowania przyszłych wyników.

● Sztuczna inteligencja (AI) jest obecnie stosowana w wielu dziedzinach i branżach. Oto kilka przykładów
zastosowań sztucznej inteligencji:

● Medycyna - AI pomaga lekarzom w diagnozowaniu chorób i doborze odpowiedniego leczenia. Systemy AI są


wykorzystywane do analizy zdjęć rentgenowskich, tomografii komputerowej oraz innych obrazów
medycznych.

● Finanse - AI jest stosowana do prognozowania rynków finansowych, analizowania ryzyka kredytowego oraz
do optymalizacji portfeli inwestycyjnych.

● Przemysł - AI umożliwia automatyzację procesów produkcyjnych, zwiększając wydajność i zmniejszając


koszty produkcji.
Blockchain i krypto waluty
● Blockchain to technologia umożliwiająca przechowywanie i
udostępnianie informacji w sposób zdecentralizowany i
bezpieczny. Polega na tworzeniu łańcucha bloków, czyli listy
transakcji, które są połączone kryptograficznie i chronione przed
modyfikacją. Każdy blok zawiera informacje o wielu transakcjach
oraz o poprzednim bloku, co tworzy ciągłą sekwencję bloków.
● Krypto waluty to rodzaj cyfrowej waluty, która opiera się na
technologii blockchain. Są one oparte na matematycznych
algorytmach i działają niezależnie od centralnych banków i
rządów. Najbardziej znaną kryptowalutą jest Bitcoin, ale istnieje
wiele innych, takich jak Ethereum, Litecoin czy Ripple.

● Krypto waluty są przechowywane w tzw. portfelach


kryptowalutowych, które są zabezpieczone za pomocą kluczy
prywatnych. Transakcje między użytkownikami kryptowalut są
praktycznie anonimowe i niemożliwe do cofnięcia.
Informatyka w medycynie

Informatyka odegrała ogromną rolę w medycynie, zmieniając sposób, w jaki
diagnozujemy i leczymy choroby. Oto niektóre z głównych sposobów, w jakie
informatyka wpłynęła na medycynę:


Elektroniczne systemy zapisu medycznego: Informatyka pomogła
wprowadzić elektroniczne systemy zapisu medycznego, które umożliwiają
lekarzom łatwe i szybkie przechowywanie i przeglądanie danych
medycznych pacjentów. Dzięki temu systemowi lekarze mogą mieć dostęp
do historii choroby, wyników badań laboratoryjnych i innych informacji
medycznych pacjenta.


Systemy obrazowania medycznego: Informatyka pomogła również w rozwoju
zaawansowanych systemów obrazowania medycznego, takich jak
tomografia komputerowa (CT), rezonans magnetyczny (MRI) i
ultrasonografia, które pozwalają na uzyskanie bardzo szczegółowych
obrazów wewnętrznych narządów i tkanek pacjenta.


Telemedycyna: Informatyka umożliwiła również wprowadzenie telemedycyny,
która umożliwia lekarzom diagnozowanie i leczenie pacjentów z odległych
miejsc, używając komunikacji wideo i innych technologii.
Cyberbezpieczeństwo

Cyberbezpieczeństwo to dziedzina ochrony systemów komputerowych, sieci i danych przed
nieautoryzowanym dostępem, kradzieżą, uszkodzeniem lub zniszczeniem. Obejmuje ona
różne aspekty bezpieczeństwa informacji, w tym ochronę przed cyberatakami, zagrożeniami
związanymi z bezpieczeństwem sieci, cyberprzestępczością, a także zabezpieczenie danych i
informacji przed przypadkową lub celową manipulacją, utratą lub kradzieżą.


Sieć internetowa, chociaż przynosi wiele korzyści, stanowi również wiele zagrożeń. Niektóre
z najczęstszych zagrożeń to:


Malware: Malware to złośliwe oprogramowanie, które jest zwykle instalowane na
komputerze bez wiedzy lub zgody użytkownika. Malware może obejmować wirusy, trojany,
robaki i szkodniki, które szkodzą systemom operacyjnym, sieciom, aplikacjom i plikom.


Phishing: Phishing to rodzaj oszustwa internetowego, w którym osoba podszywa się pod
wiarygodne źródło (np. bank, sklep internetowy, serwis społecznościowy) i próbuje wyłudzić
od ofiary wrażliwe informacje, takie jak hasła, numery kart kredytowych czy dane osobowe.


Ataki DDoS: Ataki DDoS to próby zablokowania dostępu do usług internetowych poprzez
przepełnienie serwera zbyt dużą ilością zapytań. Ataki DDoS są zwykle przeprowadzane
przez botnety - grupy zainfekowanych komputerów, które są zdalnie kontrolowane przez
hakerów.
Podsumowanie

Oto kilka najważniejszych wydarzeń w historii i rozwoju informatyki:


Wynalezienie komputera: W 1837 roku Charles Babbage skonstruował maszynę różnicową - urządzenie zdolne do wykonywania
matematycznych obliczeń. W 1936 roku Alan Turing opracował model teoretycznego komputera, który stał się podstawą rozwoju informatyki.


Pierwszy elektroniczny komputer: W 1946 roku J. Presper Eckert i John Mauchly skonstruowali pierwszy elektroniczny komputer - ENIAC,
który był w stanie wykonywać skomplikowane obliczenia w krótkim czasie.


Wynalezienie klawiatury i myszy: W 1964 roku Douglas Engelbart wynalazł klawiaturę i mysz, które stały się podstawowymi urządzeniami
wejścia dla komputerów.


Początek sieci Internet: W 1969 roku Departament Obrony Stanów Zjednoczonych stworzył sieć ARPANET, która była początkiem dzisiejszej
sieci Internet.


Wynalezienie mikroprocesora: W 1971 roku firma Intel wynalazła mikroprocesor, który umożliwił produkcję mniejszych i bardziej wydajnych
komputerów.


Rozwój oprogramowania: W latach 70. i 80. XX wieku powstało wiele kluczowych programów, takich jak UNIX, Microsoft DOS, Windows i
MacOS, które wpłynęły na rozwój informatyki.


Początek Internetu dla wszystkich: W 1991 roku Tim Berners-Lee stworzył World Wide Web - pierwszą sieć Internetu dostępną dla wszystkich
użytkowników.


Rozwój smartfonów: W 2007 roku Apple wprowadził na rynek iPhone'a, który zmienił sposób, w jaki korzystamy z telefonów komórkowych i
przyczynił się do rozwoju technologii mobilnych.


Rozwój sztucznej inteligencji: W ostatnich latach sztuczna inteligencja i uczenie maszynowe stały się coraz bardziej popularne, a ich rozwój
wpłynął na wiele dziedzin, w tym na medycynę, finanse i transport.


Wszystkie te wydarzenia miały ogromny wpływ na rozwój informatyki i przyczyniły się do powstania dzisiejszych technologii, na których
polegamy w codziennym życiu.

You might also like