ANNA NACHER

GENDER STUDIES A ZMIANA PRAKTYK WIEDZY W ŚWIECIE NOWYCH MEDIÓW

Tekst poświęcony jest relacji między zmieniającymi się praktykami produkcji wiedzy w świecie mediów elektronicznych a formułami wypracowanymi na gruncie z konieczności interdyscyplinarnych studiów gender. Artykuł zrywa jednak z paradygmatem rewolucji cyfrowej kładącej nacisk przede wszystkim na logikę diametralnej zmiany wprowadzającej radykalnie nową sytuację epistemologiczną. W zamian autorka proponuje – za badaczami amerykańskimi, J. D. Bolterem i R. Grusinem - narrację remediacji czerpiącą z Foucaultowskiej metody genealogicznej, kładącej nacisk na specyficzną (nie pozbawiona uskoków i nieregularności) wersję ciągłości kulturowej, ujmującej media przede wszystkim jako interfejsy kulturowe, a więc zestawy konkretnych praktyk kulturowych i społecznych związanych z użytkowaniem mediów. Najlepiej zatem przemiany, o których mowa, opisuje metafora rekonfiguracji, w które to co „stare” odnajduje się z „nowym” układzie odniesienia. Nowość wspomnianego układu odniesienia polega zaś w świecie nowych mediów na wzroście znaczenia zbiorowych form produkcji wiedzy opartych o interaktywne narzędzia internetowe, przemianach w obrębie autorstwa i podmiotowości, dekonstrukcji dyskursu o autonomii praktyk wytwarzania wiedzy. Te wszystkie procesy dały się zaobserwować właśnie na gruncie teorii gender, z jej nieustannym przekraczaniem granic między academią a dyskursami życia społecznego. Choć takie radykalne otwarcie epistemologiczne często zachęca oponentów do artykulacji szeregu wątpliwości co do naukowego statusu badań nad kulturową tożsamością płci, to dla autorki niniejszego taki właśnie charakter genderów oznacza wierność wobec zachodniego projektu naukowego, u swoich źródeł zdolnego także do krytycznej weryfikacji własnych założeń.

ANNA NACHER GENDER STUDIES A ZMIANA PRAKTYK WIEDZY W ŚWIECIE NOWYCH MEDIÓW W niniejszym artykule chciałabym poddać analizie relację między sposobem uprawiania studiów nad kulturową tożsamością płci a przemianami, jakie dotykają współczesnych nam praktyk wytwarzania wiedzy będących owocem nowych technologii komunikacji. Muszę zastrzec, że jestem zainteresowana perspektywą przede wszystkim kulturoznawczą, która zrywa zarówno z determinizmem technologicznym ortodoksyjnej wersji McLuhanizmu, jak i z niewystarczającym modelem analizy proponowanym przez badania socjologiczne czy medioznawcze ulokowane wyłącznie w orbicie teorii komunikacji. Jedna z popularnych narracji medioznawstwa często posługuje się bowiem metaforą „wpływu” mediów na kulturę, życie społeczne czy tożsamości konstytuujących je aktorów. Z jednej strony zakłada ona radykalną rozdzielność technologii oraz procesów społeczno-kulturowych, z drugiej zaś jej źródłem jest przekonanie o przezroczystości i „niewinności” przekaźników. Z perspektywy kulturoznawczej media są natomiast, jak to określił Lev Manovich, interfejsami kulturowymi, co zdaniem autora oznacza, że kino, druk, interfejs człowiek-komputer – każda z tych tradycji wypracowała swój własny system organizowania informacji, prezentowania ich użytkownikowi, korelowania czasu i przestrzeni i strukturowania ludzkiego doświadczenia w procesie dostępu do informacji (Manovich 2006, s. 148). Media stanowią zatem w tym ujęciu przede wszystkim zestawy praktyk kulturowych związanych z użytkowaniem i cyrkulacją znaczeń, a technologia jest postrzegana jako społecznie wytworzony dyskurs, nieobojętny wobec zagadnień dystrybucji władzy. Tego typu podejście oznacza jednocześnie, że trudno mówić o „wpływie” mediów, są one bowiem nieodłączną częścią kultury oraz procesów społecznych. Co jednak ważniejsze, tożsamości ich użytkowników są każdorazowo aktywowane i rekonfigurowane w procesie komunikacji, nie zaś uprzednio uformowane i niezmienne. Stąd praktyki użytkowania oraz dyskursy medialne stają się istotnym locus zmiany reżimów produkcji wiedzy. Innymi słowy, media stają się szczególnie ważnym elementem tego, co Foucault określił mianem kompleksu wiedzy/władzy. Tego typu zastrzeżenie jest konieczne, aby dobrze zrozumieć, co przydarza się owym porządkom wytwarzania wiedzy w świecie tzw. nowych mediów, splecionych w nadzwyczaj rozbudowane i wielowarstwowe sieci trans- i intermedialne. Warto zatrzymać się przez chwilę przy owym mogącym budzić zdziwienie zastrzeżeniu: tak zwane nowe media. Wiąże się ono

właśnie z pojęciem interfejsu kulturowego – korzystanie z nowych mediów nigdy bowiem nie odbywa się w próżni. Jak pisze Lev Manovich, język kulturowych interfejsów w dużym stopniu zbudowany jest z elementów innych, znanych już form kultury (Manovich 2006, s. 149). Jay David Bolter i Richard Grusin piszą w tym kontekście o logice remediacji, czyli nie tylko swoistego pasożytowania nowych form medialnych na tym, co odbiorcy dobrze już znają, ale także cytowania i przemieszczania w nowy kontekst dobrze już ugruntowanych praktyk medialnych (Bolter, Grusin 2000). Weźmy postrzeganie i doświadczenie przestrzeni – choć w komputerowych symulacjach zdaje się być czymś radykalnie nowym, to jednak nie byłoby możliwe bez uprzedniego treningu, jaki był udziałem ludzkiego sensorium w epoce jednej z naczelnych technologii obrazowej reprezentacji, czyli kina. I tylko pozornie przywodzą te ujęcia teoretyczne na myśl słynną McLuhanowską formułę o tym, że każde nowe medium cytuje poprzednie. Proces remediacji oraz zastosowanie pojęcia interfejsu kulturowego każą bowiem mówić raczej o rekonfiguracji, przebiegającej zresztą nie bez konfliktów i nieregularności, szczególnie w sytuacji, kiedy – nader często – stare medium równolegle towarzyszy nowemu. Wystarczy przywołać przykład książki – tekst elektroniczny nie tylko nie przyniósł ze sobą końca galaktyki Gutenberga, ale przyczynił się wręcz do jego specyficznego renesansu, który można określić właśnie mianem rekonfiguracji. Poprzestając na najbardziej podstawowym poziomie refleksji możemy zwrócić uwagę choćby na fakt, że strona książki zaczyna coraz częściej przypominać układ wielu okien ekranu komputerowego. Za jedną z naczelnych cech owego świata nowych mediów (pamiętajmy jednak o wyartykułowanym już zastrzeżeniu) uznaje się przede wszystkim aktywność odbiorców. Niektórzy teoretycy przeciwstawiają wręcz model masowej komunikacji (zazwyczaj jednokierunkowej) związanej z telewizją (i określanej mianem broadcast) rozmaitym praktykom uczestnictwa charakterystycznym dla Internetu. Sprawa nie jest jednak tak prosta za sprawą dwóch czynników. Po pierwsze, praktycznie na naszych oczach rozegrała się istotna zmiana (czasem określana wręcz mianem rewolucji): Internet, który niegdyś niewiele różnił się od telewizji w tym sensie, że główna aktywność użytkowników sprowadzała się do „oglądania” stron, na przestrzeni ostatnich lat stał się domeną rozmaicie stymulowanej i kanalizowanej aktywności. Powszechnie przyjęło się to swoiste nowe wcielenie Internetu nazywać mianem Web 2.0 (czyli swoisty upgrade Internetu, jaki znaliśmy do tej pory). Pojęcie oznacza przede wszystkim proliferację wszelakich form oddolnej produkcji znaczeń, a także zawiązywanie się formalnych i nieformalnych wspólnot połączonych zarówno zainteresowaniami, jak i charakterystycznymi praktykami medialnymi (vide: społeczności bloggerów, które materializują się w formie portali typu Blogger.com czy w Polsce Blox.pl).

W

popularnej

świadomości

Web

2.0

oznacza

przede

wszystkim

świat

portali

społecznościowych typu MySpace. Znakomita większość z nich jest jednak zorganizowana wokół rozmaitych form produkcji wiedzy – od popularnej Wikipedii poczynając, a na serwisach typu Digg, VirtualTourist czy Last.fm kończąc. Co jakiś czas pojawiają się zresztą kolejne tego typu portale, zazwyczaj w nimbie „miejsc” alternatywnych wobec dominujących modeli biznesowych (ostatnim przykładem – po przejęciu popularnego MySpace przez niesławną korporację Ruperta Murdocha, News Corporation – staje się Facebook, choć do jego przejęcia poważnie przymierza się Microsoft). Drugim czynnikiem, który sprawia, że traci sens wyraźne, ostre rozróżnienie między „starymi” i „nowymi” modelami komunikacji ucieleśnionymi odpowiednio w telewizji i w Internecie są procesy konwergencji, czyli coraz silniejszego przenikania się mediów. O konwergencji zazwyczaj pisze się i mówi głównie w kontekście przemian technologicznych, nie one jednak są tutaj najważniejsze. Manuel Castells, twórca nośnej formuły społeczeństwa sieciowego, następująco nakreślił pejzaż, o którym mowa: Media są niezwykle zróżnicowane, przesyłają sprecyzowane przekazy do konkretnych segmentów odbiorców i są nakierowane na konkretne nastroje odbiorcze. Coraz ściślejsza staje się sieć ich wzajemnych powiązań: od sieci telewizyjnych do telewizji kablowej czy satelitarnej, radia, magnetowidów, urządzeń przenośnych i internetu. Łączą się w system wielomedialny, zarządzany komputerowo, co otwiera setki kanałów interaktywnej komunikacji o zasięgu lokalnym i jednocześnie globalnym. Mamy do czynienia z oligopolami grup medialnych, ale jednocześnie towarzyszy im segmentacja rynku i wzrost znaczenia interaktywnej publiczności, zastępującej jednolitość odbiorcy masowego. (Castells 2000) Nietrudno więc się domyślić, że procesy konwergencji wnoszą ze sobą wiele zmian na planie praktyk kulturowych. Szerzej analizuje je Henry Jenkins w książce o znamiennym tytule, Kultura konwergencji (Jenkins 2007). Jenkins jeszcze raz podkreśla (pisząc o zmianie paradygmatów pisania o mediach), że O ile w paradygmacie rewolucji cyfrowej przyjmowano założenie, że nowe media mogą zastąpić stare, o tyle w rodzącym się paradygmacie konwergencji zakłada się, że stare i nowe media będą wchodzić w bardziej złożone interakcje. (Jenkins 2007, s. 12). Jeśli jednak nie technologia jest najważniejsza, to co właściwie kryje się pod pojęciem konwergencji? Jenkins rozumie przez to przepływ treści między różnymi platformami medialnymi, współpracę różnych przemysłów medialnych oraz migracyjne zachowania odbiorców mediów, którzy dotrą niemal wszędzie, poszukując takiej rozrywki, na jaką mają ochotę. (Jenkins 2007, s.9) Takie procesy sprawiają, że telewizja, która nie jest interaktywna, przestaje być atrakcyjna dla swoich odbiorców. W coraz większym stopniu zachęca ich także do własnej aktywności w

sieci (np. strony popularnych reality shows) lub za pomocą telefonów komórkowych i tradycyjnych. Zaczynamy mieć zatem do czynienia z przestrzenią, gdzie granice między mediami ulegają znacznemu zatarciu. Nie bez znaczenia jest dla tych procesów zmiana związana z ugruntowanym w kulturze zachodniej pojęciem autorstwa. Zanim jednak dojdziemy do autora (którego śmierć ogłosił już wszak w latach siedemdziesiątych Roland Barthes), wypada przyjrzeć się dynamice owej odbiorczej aktywności. Jenkins – oraz inni badacze – często posługują się w odniesieniu do kultury konwergencji (oraz świata Web 2.0) pojęciem kultury uczestnictwa, której naczelnym rysem jest zatarcie granicy między producentami i odbiorcami znaczeń. Być może zresztą nigdy nie była ona tak stabilna, jak chcieliby tego zwolennicy teorii komunikacji, przywiązani do klasycznych modeli analizy. Badacze z kręgu brytyjskich studiów kulturowych na czele z Raymondem Williamsem, Stuartem Hallem, Davidem Morleyem, Ien Ang czy Janice Radway pokazali w swoich pracach wyraźnie, że nie ma mowy o biernym odbiorze ze strony jakiejkolwiek publiczności. W przypadku Web 2.0 sprawa kryje się jednak gdzie indziej: cyfrowe techniki obróbki umożliwiają odbiorcom tworzenie własnych komunikatów i zamieszczanie ich w przestrzeni Internetu, co często oznacza aktywny dialog np. z telewizją. Najlepiej zobaczyć to na przykładzie. Dobrym egzemplum jest Szkło kontaktowe – hit TVN24, który w pełni (i z sukcesem) wykorzystuje kulturę konwergencji. Na portalu You Tube można zobaczyć, co z programem robią odbiorcy (jeden z nich umieszcza nawet własne logo: „Grzesioo TV”); na ekranie telewizora zaś widzimy efekty ich pracy, a także materiały nadesłane przez internautów.

1. Przykład aktywności odbiorczej widzów telewizji w dobie konwergencji

W ten sposób na przełomie roku 2006 i 2007 zaistniała seria filmików Muppet Sejm, sama w sobie będąca znakomitym przykładem przejmowania znaczeń kultury popularnej. Ów swoisty kulturowy recycling stanowi platformę porozumienia między odbiorcami oraz twórcami programu. Należałoby właściwie powiedzieć inaczej – zgodnie z naszą logiką - między twórcami w studiu telewizyjnym oraz twórcami przed monitorami komputerów. Równie ważne, jak wypowiedzi prowadzących program (dziennikarzy stacji: Grzegorza Miecugowa i Tomasza Sianeckiego oraz zaproszonych do studia satyryków) są SMSy i telefony od widzów, bez nich Szkło kontaktowe nie miałoby sensu. W ten sposób wokół programu telewizyjnego powstaje specyficzna społeczność, a linia między odbiorcami i nadawcami – jak się rzekło wyraźnie ulega zatarciu. Cała ta dynamika prowadzi do bardzo ważnego wniosku: owe społeczności funkcjonują jak zbiorowa inteligencja lub wspólnota wiedzy – oba terminy są autorstwa Pierre’a Levy (Levy 1997). Chętnie posługuje się nimi Jenkins w swojej analizie kultury doby konwergencji. Dla Jenkinsa zbiorowa inteligencja to zdolność wirtualnych społeczności do wykorzystania połączonych uzdolnień wszystkich ich członków (Jenkins 2007, s. 31). Nazywa sytuację, w której zaczynamy funkcjonować, nową kulturą wiedzy, dla której charakterystyczna jest przygodność, płynność, otwarcie na rekonfigurację. Wspólnoty, o których mowa, zawiązują się bowiem na potrzeby konkretnych zadań, a ich członkowie uczestniczą jednocześnie w kilku tego typu układach. Spoiwem jest zaś proces produkcji wiedzy. Jak pisze: Mądrość wspólnoty myślącej nie jest już mądrością wspólną dla całej grupy, gdyż obecnie nie można sprawić, aby jedna osoba lub nawet grupa osób posiadała całą wiedzę, wszystkie umiejętności. To wiedza kolektywna, niemożliwa do zebrania w jednej tylko istocie. (Levy 1997, s. 214 -215, za: Jenkins 2006, s. 32). Typowym przykładem są wszelkie wiki, czyli popularne wspólnotowe zasoby wiedzy (z najpopularniejszą Wikipedią na czele). I choć często przytacza się dowody na jej rzekomą niesolidność i rozmaite nadużycia, to w rzeczywistości jakość proponowanej informacji nie odbiega od standardów słynnych encyklopedii; tam natomiast, gdzie można mieć zastrzeżenie do artykułu, zawsze znajdziemy stosowny komentarz oraz zachętę do własnej aktywności. Obawy przed Wikipedią można natomiast odczytać jako nieufność wobec świata, w którym zabrakło tradycyjnych procedur legitymizujących produkcję wiedzy. Jedną z naczelnych stanowi zaś gwarancja autora (wśród wysuwanych wobec Wikipedii zarzutów można znaleźć i takie, że nie wiadomo, kto jest autorem haseł). Kwestia autorstwa to zaś w świecie nowych mediów temat nadzwyczaj drażliwy. Jednym z powodów takiego stanu rzeczy jest fakt, że operacje na tekstach kulturowych dokonywane w środowisku cyfrowym ujawniły dyskurs władzy, w jakie uwikłana jest kwestia praw

autorskich. To temat na oddzielną opowieść, domagający się jednak choćby kilku słów wyjaśnienia, zwłaszcza w sytuacji rodzimego dyskursu, który padł ofiarą propagandy korporacyjnej. Popularne serwisy umożliwiające wspólnotowe korzystanie z rozmaitych dóbr kultury pokazują, że kwestia autorstwa jest związana przede wszystkim z dyskursem ekonomicznym i jest wynikiem przeprowadzenia prawnych operacji. Sytuację komplikuje dodatkowo rozszczepienie na prawa autorskie (niezbywalne) i prawa producenckie. W przypadku wspólnot wiedzy mamy zaś do czynienia z sytuacją jeszcze innego rodzaju: autor jest także rozumiany jako zbiorowość. Najłatwiej prześledzić tę zmianę przywołując kilka popularnych praktyk twórczych w obrębie nowych mediów: remix (czyli specyficzna rekonfiguracja już istniejącego materiału), sampling (czyli próbkowanie) oraz oprogramowanie typu open source. Każda z nich ma rzecz jasna swoja specyfikę, a autor zbiorowy – jak przypomina Manovich (Manovich 2003) przywołując praktyki autorskie doby średniowiecza - nie jest oczywiście wynalazkiem nowych mediów. Praktyki, o których mowa, podważają zaś pewien szczególny model autorstwa proweniencji romantycznej (choć właściwiej byłoby rzec: nowoczesnej): autonomicznej jednostki (najczęściej płci męskiej) posiadającej prawa do swojego wytworu, w tym również w sytuacji jego cyrkulacji rynkowej. To właśnie taką koncepcję autora stabilizuje imienna sygnatura. Wyprzedzając nieco tok rozumowania, trzeba wspomnieć, że wiele praktyk sztuki feministycznej stanowi krytykę tego modelu: od grupy Guerilla Girls po cyberfeministyczne kolektywy w rodzaju VNS Matrix czy subRosa (Witkowska 2004). Współpraca w przypadku interaktywnych środowisk cyfrowych ma jednak bardzo szeroki zakres: dotyczy nie tylko wymiany między zorganizowaną w sieć / poprzez sieć grupą ludzi skoncentrowanych wokół konkretnych zadań, ale oznacza również współpracę z oprogramowaniem. Jak zaznacza Manovich, także i w tym przypadku dalecy jesteśmy od determinizmu technologicznego: Oczywiście narzędzia zostały zaprojektowane przez ludzi, więc bardziej precyzyjne byłoby stwierdzenie, że autor wykorzystujący narzędzia elektroniczne/programistyczne, nawiązuje dialog z twórcami oprogramowania. (Manovich 2003). Stąd takiej wagi nabierają konflikty kulturowe wokół oprogramowania typu open source, czyli programów, których kod źródłowy jest dostępny nieodpłatnie dla wszystkich, którzy chcą z nim pracować. Programy – co za tym idzie – są freewarami lub sharewarami, czyli udostępniane są użytkownikom nieodpłatnie lub za niewielką opłatą. Tylko pozornie jest to opis praktyk czysto ekonomicznej. Pokazują to debaty wokół systemu Linux czy darmowej przeglądarki Mozilla Firefox, stanowiącej kulturową alternatywę dla produktów korporacji Microsoft. Nie jest też przypadkiem, że wiele organizacji pozarządowych, alternatywnych ośrodków kultury czy instytucji samorządowych korzysta z tego typu oprogramowania, co

zdarzyło mi się obserwować m.in. w centrum kultury współczesnej Stanica w Żilinie na Słowacji (www.stanica.sk) czy w hostelach w Słowenii (na czele ze słynną Celicą w Ljubljanie). W przypadku programu komputerowego, który zawsze jest wytworem grupy ludzi, zabezpieczenie kodu komerycjnie rozumianym prawem autorskim w szczególny sposób ujawnia działanie władzy oraz nadużycia nowoczesnego dyskursu praw autorskich, nieodmiennie uwikłanego w ekonomiczne nierówności współczesnego świata. Warto zastanowić się na poważniejszymi konsekwencjami owych – rodzących się – nowych porządków. Zaliczyłabym do nich między innymi spacjalizację produkcji wiedzy. Edward Soja pisze o epistemologiach przestrzeni, które określa mianem Pierwszej i Drugiej (Soja 2000). Inspirację stanowi rozróżnienie dokonane przez Henri Lefebvre’a, na przestrzeń przeżywaną (nazywana przez B. Kitę także przestrzenią konkretną i przestrzenią zamieszkiwania) (Kita 2003) oraz przestrzeń skonstruowaną, abstrakcyjną (za Soją odpowiednio: perceived i conceived). Pierwsza (Firstspace, przestrzeń postrzegana, perceived space) to według Soi bezpośrednio doświadczany świat fenomenów mierzalnych i mapowalnych (Soja 2000, s. 17). Stanowi niejako prymarny przedmiot badań geografii, rozumianej jako nauka formalna. Tego rodzaju podejście najczęściej bywa postrzegane jako bardziej „obiektywne”, choć możliwe są w jego ramach ujęcia krytyczne, wskazujące na społeczny aspekt przestrzeni. Epistemologia Drugiej przestrzeni (Secondspace, skonstruowanej, conceived) ma charakter zdecydowanie bardziej subiektywny. Interesują ją bardziej wyobrażenia i przedstawienia przestrzeni oraz procesy myślowe, dzięki którym możliwy jest rozwój zarówno wyobraźni przestrzennej, jak i przestrzeni ludzkiej w jej materialnym aspekcie. Przedmiotem badań jest tutaj nie tyle materialnie postrzegana przestrzeń geograficzna, ile świat symboli, znaków, reprezentacji. Jak jednak podkreśla Soja, obie epistemologie stanowią coś na wzór krańcowych biegunów refleksji, między którymi porusza się większość geografów. Myślenie o przestrzeni i myślenie w kategoriach przestrzennych ulega zatem polaryzacji oraz odtwarza tradycyjną strukturę opozycji binarnych: obiektywne / subiektywne, materialne / mentalne, realne / wyobrażone, obiekty w przestrzeni / myśli o przestrzeni. Stąd bierze się – według Soi – trudność tradycyjnego myślenia o przestrzeni w uchwyceniu zmian, jakie zachodzą w związku ze swoistym „zwrotem przestrzennym” (spatial turn), z jakim mamy do czynienia w kulturze współczesnej. Epistemologia Trzeciej przestrzeni – którą Soja łączy z propozycjami Michela Foucault oraz Henri Lefebvre’a – jest zatem próbą dekonstrukcji, a więc wyjścia poza ów tradycyjny binaryzm myślenia. Jednocześnie rzecz rozgrywa się na poziomie metarefleksji – Lefebvre, a za nim Soja – próbują zarazem wyjść poza myślenie dialektyczne dokonując jego

spacjalizacji. Soja nazywa tę metodę złożonym pojęciem, które w wolnym przekładzie można by oddać jako krytyczne potrajanie przez Innego (critical thirding-as-othering). Chodzi o wyjście poza rygorystyczną logikę „albo / albo” w kierunku odmiennej, bardziej elastycznej, płynnej i mniej stabilnej logiki opartej na „to i to oraz również”, zgodnie z dewizą Henri Lefebvre’a Il y a toujours l’Autre, którą Soja przekłada jako: Istnieje zawsze trzecia możliwość (trzecie pojęcie). Ważnym punktem odniesienia jest dla Soi także Foucaultowskie pojęcie heterotopii, gdzie łączy się to, co nieporównywalne: wyobrażeniowe i rzeczywiste. Trzecia przestrzeń (przestrzeń przeżywana) jest zatem projektem otwartym, którego składniki Soja określa w taki oto sposób: 1. odmienny sposób określania, interpretacji i działania na rzecz zmiany przestrzenności życia ludzkiego (lub, jeśli ktoś woli, geografia humanistyczna) 2. integralna, choć często zapominana, część trialektyki (trialectics) przestrzenności, sama w sobie ani gorsza, ani lepsza od pierwszo- bądź drugoprzestrzennych podejść wobec wiedzy geograficznej; 3. najbardziej inkluzywna perspektywa przestrzenna, porównywalna do najbogatszych form wyobraźni historycznej i socjologicznej; 4. strategiczne miejsce spotkań umożliwiające wsparcie zbiorowych działań politycznych przeciwko wszelkim formom opresji; 5. punkt inicjalny dla nowych, odmiennych eksploracji, które pozwolą wyjść poza „trzecie pojęcie” w konsekwentnym poszukiwaniu innych przestrzeni; i daleko więcej. (Soja 2000, s. 22) Autor zauważa, że w największym stopniu do wypracowania tego rodzaju epistemologii przestrzeni przyczyniło się krytyczne kulturoznawstwo, teoria feministyczna i postkolonialna. Powołuje się m.in. na bell hooks oraz Teresę de Lauretis, jako na teoretyczki zainteresowane m.in. uprzestrzennianiem polityk tworzenia wiedzy, podobnie jak Homi Bhabha, autor książki o znamiennym tytule, Location of Culture (Bhabha 1994). Ten ostatni także zresztą posługuje się określeniem Trzeciej Przestrzeni, które wszelako oznacza coś innego: hybrydowość, w której zanikają ślady oddzielności, co pozwala jej stać się matrycą czegoś nowego i nierozpoznawalnego (w stosunku do genealogii, które ją kształtują umożliwiając w ten sposób nowe polityki oraz nowe sposoby reprezentacji). Zatrzymajmy się przez chwilę przy owym „potrojeniu”. Z jednej strony tego typu strategia – związana przede wszystkim ze spacjalizacją myślenia - stanowi wyzwanie wobec linearnej (i głównie temporalnej) logiki postępowania dialektycznego. „Potrojenie” oznacza jednak także zawsze poszerzający się proces formowania wiedzy. Nie ma tutaj zamknięć, nie

ma stałych struktur wiedzy ani uprzywilejowanych epistemologii. Trzeba zawsze być w ruchu, w nomadycznym poszukiwaniu źródeł praktycznej wiedzy, lepszych przybliżeń, niosąc ze sobą tylko to, czego w najbardziej użyteczny sposób nauczyliśmy się podczas poprzednich podróży. Aby uniknąć niebezpieczeństwa relatywizmu oraz filozofii „wszystko uchodzi”, które często są łączone z tego typu radykalnym otwarciem epistemologicznym, trzeba być zaangażowanym w pełen wyzwań projekt intelektualny lub naukowy. „Potrojenie” nie kończy się zatem na ustanowieniu trzeciego pojęcia czy konstrukcji czegoś, co można by uznać za swoistą świętą trójcę. Nadawanie światu praktycznego i teoretycznego sensu wymaga ciągłej ekspansji formacji wiedzy, radykalnej otwartości, która pozwala nam patrzeć na to, co znajduje się poza obecnie poznanym i badać „inne przestrzenie” (patrz Foucaultowskie heterotopie), które są bardzo podobne i jednocześnie radykalnie odmienne od realnych-i-wyobrażonych przestrzeni, które już znamy. Nietrudno zauważyć, że jest to projekt oparty na sieci przygodnych związków, tak charakterystycznych dla przestrzeni Web 2.0. O tym, że w jego zakres wchodzą także narzędzia naukowe, wystarczy przekonać się sięgając po dostępne formy korzystania z tekstów akademickich – czy to za pośrednictwem biblioteki online (www.questia.com), za pomocą serwisów Google (Google Books czy Google Scholar) czy on-linowej kolekcji publikacji wydawnictwa Sage Publications (Journals On-Line). Eksploracja tekstu nie ogranicza się już jedynie do czytania czy przeszukiwania według wybranych pojęć – narzędzia pozwalają nam nawiązywać łączność ze wspólnotą podpowiadając, gdzie tekst, z którym pracujemy był wykorzystany i śledząc cytaty oraz zachęcając do recenzowania i cytowania. Rzecz jasna są to praktyki, które od zawsze stanowiły samo centrum działalności naukowej, dzisiaj zaś zyskują pewną materializację (choć to określenie w odniesieniu do sieci WWW i środowisk cyfrowych z pewnością jest ryzykowne). Jest to zgodne z wielokrotnie przywoływaną już logiką rekonfiguracji: tego-conowe-lecz-nie-zupełnie – jednej z najbardziej typowych operacji dokonywanych w obszarze cyfrowym. Pisząc tekst do niniejszej publikacji wielokrotnie korzystałam z tego typu narzędzi (czego ślad nosi bibliografia), pracując w kliku naraz „oknach” na ekranie komputera: jedno z nich to był popularny edytor tekstu, inne – przeglądarka internetowa z szeregiem własnych funkcji, np. prognozą pogody w prawym dolnym rogu - obejmowało tekst w postaci cyfrowej z biblioteki Questia, jeszcze inne to program pocztowy oraz okienko komunikatora, za pomocą którego dyskutowałam nad moim tekstem z koleżanką, autorką doktoratu poświęconego zagadnieniom cyberdyskursu.

2. Przykład „wspólnotowej” pracy nad tekstem

Każde z tych okien uruchamiało – w myśl poprzednio sformułowanych wniosków – specyficzny rodzaj wspólnoty oraz relacji, które tworzyły się przygodnie, nie na stałe. Nie mogłam oprzeć się wrażeniu, że dopiero tego typu doświadczenie pozwala zrozumieć koncepcję tożsamości stanowiących warunek projektu radykalnej demokracji, którą zarysowała Chantal Mouffe: Tylko wtedy, kiedy odrzucimy wizję podmiotu jako sprawcy [agent] zarówno racjonalnego, jak i przezroczystego dla samego siebie oraz pozbędziemy się także zakładanej jedności i homogeniczności wielu jego pozycji, będziemy w stanie zoperacjonalizować wielość relacji podporządkowania. Będzie można wówczas ujmować podmioty sprawcze jako wytwarzane przez zespół “pozycji podmiotowych”, które nigdy nie są zupełnie zakotwiczone [fixed] w zamkniętym systemie róźnic i które są konstruowane przez różnorodne dyskursy. Brak pomiędzy nimi oczywistych relacji, jest za to stały ruch przemieszczania. “Tożsamość” takiego zwielokrotnionego i wewnetrznie sprzecznego podmiotu jest zatem zawsze przygodna [contingent] i prowizoryczna, przejściowo zakotwiczona na przecięciu owych pozycji podmiotowych i zależna od konkretnych form identyfikacji. (Mouffe 1992, s. 271-272) Pora jednak wyraźniej podkreślić, że model uprawiania studiów genderowych w co najmniej kilku aspektach wpisuje się w przemiany produkcji wiedzy, o jakich mowa. Jeden z owych aspektów dotyczy kwestii dosyć oczywistej: „potrajanie”, o którym pisze Soja, w przypadku teorii gender dotyczy zarówno poziomu organizacji produkcji wiedzy (wychodzenie poza myślenie dialektyczne), jak i poziomu odniesienia (dekonstrukcja dyskursów dualizujących zagadnienie płci). Szczególne zasługi na tym polu ma teoria queer,

którą można byłoby uznać za swoiste „studia gender 2.0”. Warto także podkreślić stałą praktykę studiów genderowych, z której często – szczególnie w polskich warunkach – czyni się zarzut. Mowa mianowicie o szczególne otwarcie genderów na inne, pozakademickie typy dyskursu: organizacje pozarządowe, środowiska artystyczne, niezależnych badaczy i badaczki funkcjonujących poza obiegiem akademickim. W polskich warunkach nader często pojawia się zarzut „zanieczyszczenia” projektu naukowego sprawami społecznymi. Gendery w dość niewygodny dla zwolenników owej modernistycznej czystości kategorialnej sposób podważają narrację o rzekomej autonomii postępowania naukowego, o rozłączności academii i ulicy oraz o wykluczaniu się rzekomego naukowego obiektywizmu oraz aktywistycznego i emancypacyjnego zaangażowania. Tego typu debaty pokazują, że często postulat owej autonomii oraz czystości gatunkowej stanowi specyficzną strategię dyskursywną, egzekwującą rodzaj władzy symbolicznej, który zmierza do zamknięcia dyskursu naukowego w wygodnych ramach „niezaangażowania”. Nie dość zresztą przypominać, że u swoich źródeł nowoczesny dyskurs akademicki wytworzył się poprzez płciowe wykluczenie. Genderową konstrukcję zachodniej nauki analizuje na przykład Linda Schiebinger: m.in. wykluczanie kobiet z instytucji nauki na podstawie „naturalnych” różnic biologicznych w okresie rodzącej się nowoczesności (XVII i XVIII w.) i jednocześnie zrębów europejskiego projektu naukowego ufundowanego na myśli arystotelesowskiej, kartezjańskiej i kantowskiej (Schiebinger 1989). Istotniejsze jest jednak – jak sądzę – zjawisko nieco szersze: radykalne otwarcie zachodniego projektu naukowego na inne typy produkcji wiedzy oraz cały szereg pozostających poza jego granicami dyskursów społecznych i ekonomicznych. Jest to, trzeba przyznać, proces pełen ambiwalencji, który trudno – wbrew ortodoksom radykalizmu o proweniencji marksowskiej czy, wręcz przeciwnie, konserwatywnej (zaskakujące, te dyskursy często schodzą się ze sobą w tym względzie, co jest jednak logiczne zważywszy na fakt, że oba są dziećmi zachodniej nowoczesności) - opisać w jednoznacznych kategoriach zawłaszczenia academii przez ekonomię. A przecież owa implozja (czy fuzja) nauk, ekonomii, polityki jest rzeczywistością, w której funkcjonujemy na co dzień, w świecie organizowanym przez kolejne programy badawcze powstające na styku instytucji politycznych, biznesu i uniwersytetów. Jak się rzekło, nie chodzi o „zawłaszczanie” nauki, a raczej o to, że zachodni projekt naukowy (spleciony z projektem nowoczesności) nigdy nie był „niewinny”. Taka niewinność być może nigdy nie istniała i jest jednym z gwarantów określonego porządku społecznego, który z wolna, nieregularnie i w konwulsjach odchodzi w przeszłość. Owa fuzja dyskursów nie może być odczytywana wyłącznie w kategoriach degeneracji naukowego obiektywizmu czy skażenia politycznymi strategiami realizowania

władzy także i z tego powodu, że - przypomnijmy - taki rzekomo naukowy obiektywizm, nieusytuowany i pozbawiony punktu widzenia może być uznany za jedną z dyskursywnych strategii maskującą wykluczenie innych typów racjonalności, innych miejsc społecznej produkcji znaczeń, innych aktorów owego procesu (zlokalizowanych na osiach wyznaczanych przez płeć, rasę, posiadanie). Jeśli więc studia genderowe uprawiane na polskich uniwersytetach czerpią z dorobku organizacji pozarządowych oraz grup nieformalnych, nawiązując alianse – ale wykraczając jednocześnie poza ortodoksję i budując platformę dialogu społecznego, co rzadko bywa przez oponentów doceniane - z ruchem feministycznym czy wspólnotami LGBT, to należy uznać to za symptom opisanych tutaj przemian reżimu wiedzy, ale jednocześnie za wierność wobec krytycznych motywacji zachodniego projektu naukowego. Również to, co postrzegalibyśmy jako poddawanie nauk (zwłaszcza biologicznych) dyktatowi korporacji i dyskursu rynku, oznacza także (i jednocześnie) problematyzację owej granicy między politycznym a naukowym i wprowadzenie nauki w obszar przestrzeni publicznej. A więc otwarcie na nieuchronną różnorodność dyskursywną i kulturową, wraz z nieregularnościami, hybrydycznością i krzyżowaniem się wielu głosów we współczesnej sferze publicznej, coraz częściej wyznaczanej w dodatku przez ową wspólnotową działalność semiotyczną, której miejscem jest świat Web 2.0. Projekt, który realizują studia genderowe Taki projekt nie jest jakąś „inną” nauką, wręcz przeciwnie, oznacza wierność postępowaniu naukowemu w jego najbardziej źródłowym dla kultury zachodniej sensie: można postrzegać postmodernizm jako inną postać tego samego zjawiska, jakie towarzyszy kulturze europejskiej od jej samych początków: zjawiska autokrytyki i wewnętrznej korekcji, niezgody na dominację „jednego słusznego punktu widzenia”, mnożenia trudnych pytań i wprawiania w kłopot przez wyzwalanie z „dogmatycznej drzemki” (Szahaj 2004, s. 72). Jak do tej pory, wyzwalanie polskiej humanistyki z dogmatycznej drzemki udawało się studiom genderowym znakomicie.

Bibliografia: Bhabha H. 1994, Location of Culture, Londyn, Nowy Jork Bolter J.D., Grusin R. 2000, Remediation. Understanding New Media, Boston Castells M 2000, Materials for an Explanatory Theory of the Network Society, “British Journal of Sociology”, styczeń 2000 Jenkins H. 2007, Kultura konwergencji, Warszawa Kita B. 2003, Między przestrzeniami. O kulturze nowych mediów, Kraków

Levy P. 1997, Collective Intelligence: Mankind’s Emerging World in Cyberspace, Cambrigde Manovich L. 2003, Kim jest autor? Modele autorstwa w nowych mediach, tłum. M. Filiciak, “Kultura Popularna” 1/2003 Manovich L. 2006, Język nowych mediów, Warszawa Mouffe Ch. 1992, Feminizm, Citizenship, and Radical Democratic Politics [w:] red. Butler J. i Scott J.W.: Feminists Theorize The Political, Nowy Jork i Londyn Schiebinger L. 1989, The Mind Has No Sex? Women in the Origins of Modern Science, Cambridge. Soja E.W. 2000, Chapter 2 Thirdspace: Expanding the Scope of the Geographical Imagination, [w:] ed. Read A. 2000, Architecturally Speaking: Practices of Art, Architecture, and the Everyday, London, wersja on-line 13, Questia, 27 Mar. 2007 <http://www.questia.com/PM.qst?a=o&d=108105756>. Szahaj A. 2004, Zniewalająca moc kultury, Toruń Witkowska E. 2004, Gender a rzeczywistość wirtualna: cyberfeminizm – wirus w starym systemie [w:] red. M. Radkiewicz 2004, Gender - konteksty, Kraków

Sign up to vote on this title
UsefulNot useful

Master Your Semester with Scribd & The New York Times

Special offer for students: Only $4.99/month.

Master Your Semester with a Special Offer from Scribd & The New York Times

Cancel anytime.