You are on page 1of 7

3.

Modul - Bevezetés
Az előző modulban az információs műveltséggel kapcsolatos legfontosabb alapfogalmakat
(adat, információ, metaadat, hipertextus) tekintettük át. Tettük ezt azért, mert ezek segítenek
jobban megértenünk az emberek által létrehozott tudás szerveződésének bonyolultabb formáit
(mint azt a könyvtárak vagy enciklopédiák példájából is láthattuk már a korábbiakban). A
jelen modul a tudás szerveződésének az előzőeknél még összetettebb formáit vizsgálja, jelesül
pedig a World Wide Web különböző fajtáinak (1.0, 2.0, szemantikus web) bemutatására tesz
kísérletet. Először az előbb említett fogalmakat kell tisztáznunk, ezt követően pedig azokat a
történeti mérföldköveket mutatjuk be, melyek elvezettek a WWW kialakulásához.

Web 1.0
A World Wide Web mindannyiunk által jól ismert koncepcióját a CERN akkori
mérnöke, Tim Berners-Lee (Linkek egy külső oldalra) alkotta meg 1989-ben. Az ötlet
ugyanakkor nem varázsütésre fogalmazódott meg benne: a CERN-ben tapasztalt nehézségek,
jelesül az ott dolgozó kutatók, kutatási területek és kutatási eredmények közötti kapcsolatok
átláthatatlansága folytán támadt az a gondolata, hogy mindenki munkáját nagyban
megkönnyítené, ha egy „linkhálózat” révén láthatóvá válnának mindezen viszonyok.
Megfigyelései szerint ugyanis a CERN-béli kollégák legfeljebb kávészünetekben osztották
meg egymással azt, hogy mivel is foglalkoznak éppen, vagy hogy az adott területen milyen
eredményeket értek már el, és milyen módszerrel tették ezt. Márpedig mindenki számára
(főleg, hogy jelen esetben kutatókról beszélünk!) hasznos lett volna látni, ha kollégáik is
hasonló problémákon dolgoznak, így ugyanis könnyebben nyújthattak volna segítséget
egymásnak tapasztalataik megosztása révén.
Berners-Lee ezért létrehozott egy Enquire nevű szoftvert, amiben kollégái releváns adatait
(név, kutatási terület, az általa használt számítógépes programok stb.) tárolta. A program
nevét egyébként egy viktoriánus kori háztartási enciklopédiától (Linkek egy külső oldalra)
(Enquire Within upon Everything) kölcsönözte, ami egy házimunkákkal kapcsolatos,
teljeskörűnek szánt leírás volt, Berners-Lee pedig éppen egy efféle enciklopédiát kívánt
létrehozni egy hipertext-alapú program formájában. Az Enquire-ben minden egyes személy,
kutatási terület stb. egy-egy csomópontként (Linkek egy külső oldalra) (node-ként) szerepelt,
amiket pedig hipertextuális linkek (Linkek egy külső oldalra) kötöttek össze egymással.

Berners-Lee, Tim, és Mark Fischetti. Weaving the Web: the original design and
ultimate destiny of the World Wide Web by its inventor. 1st ed. San Francisco:
HarperSanFrancisco, 1999. 4, 10 p.
„Attól a pillanattól fogva, hogy sikerült címmel ellátnom egy bizonyos információdarabot, a
számítógépem képessé is vált annak elérésére. Azáltal pedig, hogy mindent ugyanilyen
könnyedséggel sikerült felcímkéznem, a számítógép olyan dolgok között is megtanult
asszociációkat létrehozni, melyek látszólag nem is függtek össze, ténylegesen azonban
valamiképp mégis rokonságot mutattak. Létrejött egy információháló […]. Az Enquire-be
felvihettem egy oldalnyi információt egy személyről, eszközről vagy programról. Minden
oldal egy »csomópontként« [node] jelentkezett a programban, valahogy úgy, mint egy
indexkártyán. Egy új csomópont létrehozásának egyetlen módja az volt, ha egy régi
csomópontról létrehoztunk egy linket. Azok a linkek pedig, melyek egy bizonyos csomópont
felé és afelől irányultak, egy számozott listaként jelentek meg minden egyes oldal alján,
valahogy úgy, mint ahogy a hivatkozások listái jelennek meg a tanulmányok végén. Az
információkeresés egyetlen módja az volt, ha a kezdőoldalról kezdtük a keresést. Kedveltem
az Enquire-t és nagy hasznát vettem, mivel anélkül volt képes információt tárolni, hogy olyan
rendezőelveket használt volna közben, mint a könyvtárcédulák és besorolások. Az emberi
elme folyton ezeket a rendezőelveket használja, de ki is törhet belőlük, és intuitív módon
átugorhatja a határokat is azokban az esetekben, melyekben random asszociácókra van
szükség. Abban a pillanatban, ahogy felfedeztem ezeket a kapcsolódási pontokat, az Enquire
legalább el tudta raktározni őket. Ahogy tovább fejlesztettem az Enquire-t, különös figyelmet
fordítottam arra, hogy megőrizzem az általam létrehozott kapcsolódási pontokat. A program
úgy működött, hogy csak akkor vihettem be egy új információdarabot, ha hozzákapcsoltam
azt egy már létezőhöz. Minden link esetében le kellett írnom, hogy milyen viszony van [az
általa összekapcsolt információdarabok között – a szerk.]. Például, ha egy Józsiról szóló oldal
egy programról szóló oldallal volt összelinkelve, meg kellett mondanom, hogy Józsi a
program készítője, felhasználója vagy mi egyéb. Ha én megmondtam Józsiról, hogy ő a
programot használja, az Enquire azt is egyből tudta – amikor a programról jelenített meg
információt – hogy azt Józsi használja. A linkek tehát mindkét irányban működtek.”

Az Enquire-ben léteztek ún. „belső” és „külső linkek”. A „belső linkek” egy adott
dokumentum tartalmának elemeit kapcsolták össze, a „külső linkek” pedig az adott
dokumentumon kívülre mutattak. Először maga Berners Lee sem vette észre, hogy az igazán
fontos mozzanat a külső linkek megteremtése (jól jelzi ezt, hogy a második, Tangle névre
keresztelt programjában nem is használt ilyeneket), később azonban visszatért ezek
használatához.
A fő problémát ugyanakkor kezdettől fogva az jelentette Berners-Lee számára, hogy a
különböző típusú számítógépek és operációs rendszerek hogyan tudnak kommunikálni
egymással (mely probléma nyilvánvalóan még súlyosabb, ha nem csak egyetlen kutatóintézet
számítógépeinek kommunikációjáról van szó, hanem az egész világ összekapcsolása a cél):
ennek megoldására alkotta meg a HTTP (Hypertext Transport Protocol) adatátviteli
szabványt, az URI (Uniform Resource Identifier) erőforrásazanosítót, valamint a HTML
(Hypertext Markup Language) leíró nyelvet, melynek utasításai a mai napig maghatározzák
egy adott weblap megjelenítődésének módját.. A HTTP végső soron az a nyelv, amin
keresztül a számítógépek egymással kommunikálnak az Interneten, az URI az Interneten
található tartalmak egyértelmű azonosítására szolgál, elérési cím (URL - Uniform Resource
Locator, avagy egységes erőforrás-helymeghatározó) vagy pedig más azonosító (URN -
Uniform Resource Name) alapján.
Nagyjából így érkeztünk el a napjainkban is közismert World Wide Web koncepciójához. A
manapság használatos Web azonban nem minden elemében azonos azzal, amit Berners-Lee
1989-ben kitalált, az utóbbit ezért ma már leginkább Web 1.0-nak szoktuk nevezni (ezáltal
pedig megkülönböztetjük napjaink Web 2.0-jától). A legfőbb különbség abban érhető tetten,
hogy a Web 1.0 olyan, statikus weboldalakból állt, ahol is a kommunikáció egyoldalúan
zajlott, mivel a felhasználóknak nem (vagy csak minimális szinten) állt módjában
hozzájárulni egy adott oldal tartalmához (napjainkban például a híroldalak többsége
tekinthető ilyen felületeknek, vagy olyan portálok, mint a Magyar Elektronikus Könyvtáré
(https://mek.oszk.hu/ (Linkek egy külső oldalra)) ), valamint hogy a hyperhivatkozások által
összekötött objektumok rendre szöveges dokumentumok voltak csupán. A Web 2.0-t ezzel
szemben egyaránt nagyfokú interakció jellemzi, valamint az, hogy a szöveges dokumentumok
mellett egyre nagyobb mértékben jelennek meg videó- és hangjellegű tartalmak.

Web 2.0
Máig vitatott az a kérdés, hogy pontosan hol is húzódik a Web 1.0 és Web 2.0 közötti
határvonal. Az azonban bárki számára könnyen érzékelhető, hogy az online felületek egyre
interaktívabbakká váltak, vagyis az általuk közvetített tartalmakat részben vagy egészben már
a felhasználók hozzák létre.
Magát a kifejezést egy Darcy DiNucci nevű webdesigner alkotta meg 1999-ben, amikor a
Web 2.0 még gyerekcipőben járt ugyan, de halványan látszottak már az interaktivitásba való
átmenet apróbb jelei.

DiNucci, Darcy. „Fragmented Future”. Print Magazine 53, sz. 4 (1999. április):
221-222 p.
„Ironikusan szólva, a Web 2.0 meghatározó jegye az, hogy egyáltalán nem lesz semmilyen
látható jellemvonása. A Webet a már létező DNS-struktúrája fogja jellemezni – a TCP/IP (a
fájloknak az Interneten való vándorlását szabályozó protokoll), a http (a számítógépek közötti
kommunikációt szabályozó webes protokoll) és az URL-ek (fájlok azonosításának módjai).
Mivel ezek a módszerek határozzák meg a Web működését, annak külső megjelenése – a
hardver és a megtekintésre szolgáló szoftver – sokszínűbb lesz. Ha a felületet nézzük, a Web
számtalan, különböző kinézetű permutációvá fog átváltozni, számtalan viselkedési és
felhasználási móddá, számtalan féle hardveres támogatással. A Web nem egy képernyőnyi
szöveg és grafika lesz többé, hanem egy adatátviteli mechanizmus, az éter amin keresztül
létrejön az interaktivitás.”
(Zotero (Linkek egy külső oldalra))

DiNucci tehát 1999-ben még jövőidőben fogalmazott meg sejtéseket a Web 2.0 esetleges
jellegzetességeiről. Az O’Reilley Media által szervezett, 2004-es Web 2.0-konferencián
viszont már jelenidőben értekeztek róla.

Musser, John, és Tim O’Reilley. Web 2.0: Principles and Best Practices. O’Reilly
Media Company, 2006. 5 p.
„A Web 2.0 gazdasági, társadalmi és technológiai vívmányok olyan együttese, melyek
közösen alkotják az Internet következő korszakának alapjait – ez egy érettebb, eredetibb
médium, amire egyaránt jellemző a felhasználók aktív részvétele, a nyitottság és a
hálózathatás. A Web 2.0 megérkezett ugyan, az a robbanásszerű hatás viszont, amit okozni
fog, még csak most kezdődik. Jóval több ez egy új szlogennél: ez egy olyan erő, mely a
legkülönbözőbb iparágakban fogja átalakítani a vállalatokat és az üzletvilág új változatát
hozza létre. Akik kihasználják a Web 2.0 nyújtotta lehetőségeket, nagy valószínűséggel
profitálnak majd ebből a lépéselőnyből. Az O’Reilly Media nyolc olyan kulcsfontosságú
jellemzőt azonosított, ami segíthet megérteni a Web 2.0 érát és eligazodni benne […]. Ahhoz,
hogy versenyképesek és sikeresek legyenek napjaink Web 2.0-ás világában, a
döntéshozóknak – ideértve az ügyvezetőket, termékstratégákat, vállalkozókat és
véleményvezéreket – most kell lépniük, mielőtt a piac újból egyensúlyi állapotba kerül […].
Mi okozza a változást? Képzeljük el a következő sematikus demográfiai és technológiai
okokat: világszerte egymilliárd embernek van hozzáférése az internethez. A mobileszközök
száma nagyjából a kétszerese immár a személyi számítógépekének. Az Egyesült Államokban
az internet-hozzáférések közel 50%-a folytonos, szélessávú kapcsolatokon történik. Vessük
össze ezeket az okokat a közösségi hálók alapvető törvényszerűségével, valamint mindazzal,
amit a Web első évtizede során tanultunk: 2006 első negyedévében a MySpace.com naponta
280,000 új felhasználót regisztrált, és neki volt a második legnagyobb internetes forgalma.
2006 második negyedére létrejött 50 millió blog – másodpercenként átlagosan kettő új jött
létre. 2005-ben az eBay 8 milliárd API-alapú [alkalmazásprogramozási felület – a szerk.]
webszolgáltatási tranzakciót bonyolított le. Ezek a trendek számos különböző módon, név
alatt vagy technológiai formában jelentkeznek: ilyen például a közösségi oldalak
felhasználása, a felhasználók által létrehozott tartalmak, a szolgáltatásként értelmezett
szoftver, podcastok, blogok és a read-write web. Ezek együttesen alkotják a Web 2.0-át, a
jövő felhasználók által generált, intelligens webjét […].”
(Zotero (Linkek egy külső oldalra))

Az O’Reilley által említett kritériumok, amik a Web 2.0-t megkülönböztetik elődjétől, a


következők:

 kollektív intelligencia használata

 hogy az adat fontosabbá válik, mint a szoftver

 hogy az innováció csoportmunka révén történik

 az élménygazdag felhasználói felületek megjelenése

 a „perpetual beta” fogalma, melynek értelmében a szoftvergyártó cégek nem, vagy csak
hosszú időközönként véglegesítik szoftvereiket, mivel a felhasználóktól érkező
folyamatos visszajelzések segítségükre vannak a szoftver tökéletesítésében (melynek
következtében megéri lassabban véglegesíteni azt)

 hogy a vásárlók önkiszolgálása révén óriási erőforrások szabadulnak fel

 „könnyűsúlyú” szoftver- és üzletmodellek, melyek költséghatékonyabbá teszik az egyes


szolgáltatásokat

 személyre szabható szoftverek

A fenti, pragmatikus megközelítés mellett léteznek a Web 2.0-nek elméletibb meghatározási


kísérletei is. Vannak ugyanis, akik szerint a Web 2.0 egy világméretű könyvtárként
értelmezhető, melyben rendelkezésre állnak immár olyan eszközök, melyek segítségével
bármilyen adat lekérdezhető, melynél fogva pedig egyfajta egyesített adat- vagy tudástárként
működik.
Szemantikus web
Amíg tehát a Web 1.0 és 2.0 közötti legfőbb küönbség abban állt, hogy ki szerkeszti a
világhálón található tartalmak jelentős részét, a szemantikus web meghatározásakor egy egy
egészen más szempont merül fel: a kereshetőség minősége. A szemantikus
webes környezetekben ugyanis immár nem annyira szóegyezések alapján kereshetünk rá
adatokra, hanem a természetes nyelvfeldolgozáson (Linkek egy külső oldalra) (NLP -
Natural Language Processing) alapuló rendszereknek köszönhetően egyre inkább lehetővé
válik a szavak értelme alapján való keresés.

Kück, G. „Tim Berners-Lee’s Semantic Web”. SA Journal of Information


Management 6, sz. 1 (2004. március) 2p.
„A szemantikus web mint vízió három különböző nézőpontból tehető vizsgálat tárgyává: (a)
ez egyfajta egyetemes könyvtár, amit bármikor bárki elérhet és felhasználhat a mindennapi
információkereséseihez; (b) ez egy szoftveres és számítógépes ágensekből álló gerincoszlop,
melynek célja, hogy önállóan hajthassanak végre különböző tevékenységeket embertársaik
oldalán; (c) 'ez egy olyan módszer, mely különálló tudás- és adattárakat egyesít annak
érdekében, hogy elvégezzék emberek és gépek munkáját' […].
a. Egyetemes könyvtár

Már a szemantikus web legkorábbi ötlete mögött is az a gondolat húzódott meg, hogy a
világhálót egy egyetemes könyvtárrá kell alakítani, ami a World Wide Web akkori
kaotikusságára és rendezetlenségére adott reakció volt. Akkoriban ugyanis tényleg nagy volt
az esélye annak, hogy óriási adatmennyiségek válnak elérhetetlenné és hozzáférhetetlenné,
ezért kezdték dédelgetni a web megzabolázásának gondolatát. Szerencsére a Google és az
AltaVista újszerű indexálási módszerekkel és keresőalgoritmusokkal állt elő, melyekkel
nagyrészt képesek is voltak megoldani ezt a problémát. Azóta ugyanakkor némiképp
megváltozott a szemantikus webről gondolkodó kutatók fókuszpontja, és többé már nem
annyira egy egyetemes katalógusrendszert képzelnek el, hanem webes szerzőknek egyfajta
együttműködését, ami szerintük a meglévő rendszernek inkább a továbbfejlesztése, semmint a
létező Web újramodellezése.

b. Tudásnavigátor
'A szemantikus web strukturálja majd a weblapoknak azt a részét, melyen tartalom található, ezáltal
pedig egy olyan környezet jön majd létre, ahol szoftveres ágensek járják végig az egyes lapokat, és
képessé válnak , a felhasználók számára kifinomult feladatokat is végrehajtani' […]. Az e mögött
rejlő gondolat az, hogy jelölőnyelvek segítségével oly módon annotálják egy-egy weblap tartalmát,
hogy az egyszerre lesz olvasható emberek és gépek számára. A gépek számára olvasható változatot
ezt követően szoftveres ágensek arra használhatják, hogy oly módon szűrjék, kutassák át és
készítsék elő az adatokat, hogy az emberi felhasználóknak ez segítségére legyen a böngészés során.
c. Egyesített adat- és tudástár
Az egyesített adat- és tudástár magában foglalja a Web azon komponenseit, melyek úgy vannak
felépítve, hogy már előzetesen is rendelkeznek tudással egymásról, vagy legalábbis rendelkeznek
azzal a képességgel, hogy felfedezzék egymást, és előre vetítsék azokat az alakalmazástípusokat,
melyek képesek lesznek felhasználni az általuk kínált információt. 'A szemantikus web egy olyan
infrastruktúrát kínál majd, mely nem csak weboldalak, hanem adatbázisok, szolgáltatások,
programok, szenzorok, személyes eszközök vagy akár háztartási gépek számára teszi majd egyaránt
lehetővé, hogy felhasználja a weben található adatokat, és hogy létrehozzon ilyeneket' […].”
(Zotero (Linkek egy külső oldalra))

Történeti rész
Arra a kérdésre válaszolva, hogy a World Wide Web milyen előzményekre tekinthet vissza,
maga Tim Berners-Lee három fontosabb előképet említett meg: (1) Vannevar
Bush Memex nevű gépét, az (2)IBM GML nevű nyelvét, valamint (3) Ted
Nelson Xanadu nevű projektjét. A modul hátralevő részében ezért a fentieket mutatjuk be
röviden. A dolog talán legfőbb érdekessége, hogy ezen találmányok egyike sem számítógépek
közötti kommunikációt volt hivatott biztosítani (már csak azért sem, mert feltalálásuk
időpontjában a számítógép-technológia még gyerekcipőben járt), hanem céljuk mindössze
adatok tárolása és esetleg „asszociációja” (miként Berners-Lee korábban bemutatott, kezdeti
kísérleteinek is).

1. Vannevar Bush és a Memex


Vannevar Bush 1945-ben tette közzé Memex nevű gépének ötletét As We May Think c.
tanulmányában, melynek már címe is azt sejteti, hogy az általa javasolt gépezet az
emberekhez hasonlóan képes lehet kognitív műveletek végrehajtására. A tervezett gép
leginkább egy íróasztalra emlékeztet: a tetején egy üveglap található, melyen a gép belsejébe
rejtett mikrofilmek tartalmai jelennek meg. A szerkezet azonban nem csak az említett
mikrofilmek kivetítését tette volna lehetővé, hanem azt is, hogy a felhasználó kedvére
böngészhessen ezek között, vagy, hogy módosítsa azok tartalmát. Az egyes mikrofilmeket
ráadásul hiperlinkszerűen össze is lehetett volna kapcsolni a Memexben.

Barnet, Belinda. Memory Machines: The Evolution of Hypertext. Anthem


Scholarship in the Digital Age. London: Anthem Press, 2014. 11 p.
„Ez volt az emlékező gépek netovábbja: egy olyan eszköz, amely asszociatívan tárolt volna
információdarabokat, feljegyezvén az egyes gondolatok közti összes kapcsolatot – de soha
nem felejtvén el semmit […]. Vannevar Bush emlékezettágítója, vagy a Memex […] egy
olyan, elektro-optikai eszköz volt, amit [Bush] az 1930-as években tervezett annak érdekében,
hogy olyan információdarabokhoz engedjen hozzáférést, melyeket asszociatívan, mikrofilmen
tároltak, ez pedig az emberi emlékezetnek egy »felnagyított segédeszköze« lett volna […].”
(Zotero (Linkek egy külső oldalra))
2. Az IBM GML nevű jelölőnyelve
A Generalized Markup Language (vagy Általános jelölőnyelv (Linkek egy külső oldalra)) az
IBM vállalatának 1969-es találmánya. Megalkotóinak célja az volt vele, hogy bármely
tetszőleges dokumentumot olyan címkékkel (tagekkel) láthassanak el, melyeknek
köszönhetően gépek is képessé válhatnak bizonyos fokú szövegelemzésre: a megfelelő címke
birtokában ugyanis már gépek is „tudják”, hogy egy adott szövegegység az adott szöveg
„címe” vagy „főszövege”, illetve ugyancsak ezek segítségével képes egy gép például arra,
hogy maga is bekezdéseknek tekintsen bekezdéseket. A GML jelentőségét jól szemlélteti,
hogy a manapság használatos SGML vagy XML jelölőnyelvek is belőle fejlődtek ki.

3. Ted Nelson és a Xanadu Project


A Xanadu Project ötlete az 1960-as években fogalmazódott meg Ted Nelsonban, a hypertext
fogalmának megalkotójában. Ahogy azt a Literary Machines című könyvéből megtudhatjuk,
Nelson szándéka egy olyan repozitórium létrehozatala volt, amiben szöveges anyagok
különböző változatai is tárolhatók és előhívhatók. Az ötlet vélhetően azért nem lett igazán
sikeres, mert a maga korában túlságosan is ambiciózusnak számított, ám, mint láthattuk,
fontos inspirációt jelentett a World Wide Web létrehozatala során.

Barnet, Belinda. Memory Machines: The Evolution of Hypertext. Anthem


Scholarship in the Digital Age. London: Anthem Press, 2014. 65 p.
„Egy álomkép volt ez. Egy számítógépes fájlrendszer, mely emberi írásművek minden
történeti változatát az összes kapcsolódásaikkal együtt tárolta volna és tárta volna az olvasók
elé úgy, hogy feltünteti a szerzőt, a tulajdonost, az idézetet és a kapcsolódási pontot. Olyan
lett volna, mint a Web, csak még sokkal jobb: egyetlen link se lett volna holt, egyetlen
dokumentum se veszett volna el, a szerzői és tulajdonjogok pedig a legnagyobb mértékben
tiszteletben lettek volna tartva. Ez lett volna az írásos műveltség varázstere: a Xanadu. A
felhasználók jelölhetnének és annotálhatnának itt bármilyen dokumentumot, oldalanként
tekinthetnének át és hasonlíthatnának össze különböző dokumentum-változatokat, mindkét
oldalról látható hiperlinkeket követhetnének (»kétirányú linkek«), és újrahasznosíthatnának
olyan dokumentumdarabkákat, melyek továbbra is kapcsolódnak a forrásdokumentumhoz.
Többféle mód is rendelkezésre állna annak érdekében, hogy mindezt egy számítógép
képernyőjén tekintsük át, a bevett mód azonban az oldalankénti nézet volna, párhuzamosan a
látható kapcsolatokkal (»látható sugarak«). Képzeljük csak el! Ez a vízió – ami éppenséggel
régebbi a Webnél, bizonyos részei pedig a személyi számítógépeknél is – Theodor Holm
Nelsoné volt, a hipertext úttörőjéé, aki 1966 októberében adta projektjének a Xanadu nevet.”
(Zotero (Linkek egy külső oldalra))

You might also like