PartnerzyPartners
QR-kodyQR codes
MiejscaLocations
WRO 07 ReaderWRO 07 Reader
SympozjumSymposium
WydarzeniaEvents
KonkursCompetition
ProgramSchedule
NewsNiusy

WRO 07 Reader

Posiadanie bitów

[1]


Termin "nowe media", jest mylący bo pozbawiony odniesienia do historii. W rzeczywistości sztuka medialna rozwija się w perspektywie historycznej wystarczająco głębokiej, by dotykały jej problemy związane z upływem czasu. Ponadto - ze względu na dynamikę zmian środowiska medialnego - problemy te dotykają sztuki medialnej w stopniu o wiele mocniejszym, niż tradycyjne dziedziny twórczości.
Ostatnio wiele się mówi i pisze o koncepcji i kondycji cyfrowych archiwów, oraz kolekcjonowaniu sztuki medialnej (te tematy, jakkolwiek nietożsame, nachodzą na siebie). Cyfrowe - przechowujące zdigitalizowaną, często ustrukturowaną w formie bazy danych, informację na kopiowalnych nośnikach - archiwa, z łatwą możliwością udostępniania zbiorów przez długi czas wydawały się czymś jakościowo nowym (warto zauważyć, że technologie cyfrowe służyły do przechowywania informacji i jej przetwarzania zanim stały się mediami w dzisiejszym znaczeniu, a więc technologiami pośredniczącymi w komunikacji pomiędzy ludźmi.
Kolekcjonowanie dzieł medialnych, wiąże się z potrzebą rozwinięcia metod umożliwiających zabezpieczenie dzieł istniejących w amorficznym środowisku mediów cyfrowych. Co to oznacza? Powszechnie zapisowi cyfrowemu przypisuje się kilka szczególnych cech. Uważa się, że: Jest odporny na błędy. Jest precyzyjny. Niepodlegający starzeniu (entropii, zużywaniu). Łatwo kopiowalny, a więc niezależny od nośnika. Jednak tego typu stwierdzenia są prawdziwe tylko w niewielkim przedziale czasowym, lub obarczone są dodatkowymi zastrzeżeniami. Przemyślmy to:
Cyfrowa informacja może być w nieskończoność kopiowana i odczytywana, każda kolejna kopia jest identyczna z oryginałem (pod warunkiem, że medium docelowe dysponuje możliwościami, którymi dysponuje medium źródłowe, oraz, że oba media są koherentne - w przeciwnym razie następuje konieczność dopasowania źródła i celu). To prawda, ale samo "posiadanie bitów" to jeszcze nie wszystko: należy umieć je odkodować, a więc zamienić na informację (np. film wideo), a następnie zaprezentować odbiorcy. Jak wiemy formaty zapisu cyfrowego zmieniają się, jedne zastępują drugie, przychodzą następne, itd. Często nie posiadając odpowiedniego oprogramowania nie jesteśmy w stanie użyć pliku zapisanego wczoraj, a co dopiero przed kilkoma laty - nie istnieją formaty dające gwarancję odczytu zawsze i wszędzie. Można to ryzyko zmniejszać stosując formaty otwarte, o publicznie dostępnej specyfikacji (licząc na to, że ktoś będzie implementował obsugę tych formatów w przyszłych systemach operacyjnych i aplikacjach), lub przeciwnie: korzystać z rozwiązań komercyjnych licząc na siłę rynku i klientów wymagających ciągłości i kompatybilności ze starszymi technologiami. W tym przypadku strategię postępowania można sobie wybrać dowolną, jednak problemy pozostają te same.
Czy zapis cyfrowy jest precyzyjny? Bezstratny? Sam w sobie tak, ale tylko w odniesieniu do danych w ilościach względnie małych w stosunku do nośników pamięci (np. teksty). W przeciwnym razie jesteśmy w kłopocie. Stosujemy technologie kompresji danych, i do tego technologie stratne. W przypadku mediów odbieranych za pośrednictwem słuchu i wzroku (ale nie tekstu) fizjologiczne uwarunkowania postrzegania sprawiają, że spora część przekazywanej informacji umyka naszej uwadze, nie jest przyswajana świadomie, ani podświadomie. Można więc ją pominąć i tym samym ograniczać ilość zapisywanej i dystrybuowanej informacji. Tak postępujemy w przypadku MP3, MPEG, itp. Jeśli źródłowy materiał był edytowany z wystarczająco wysoką jakością, a finalny efekt skompresowany w odpowiedni sposób spadek jakości jest nieodczuwalny i możemy cieszyć się zaletami cyfrowych technologii.
Jednak - jak napisałem wyżej - formaty i technologie nie trwają wiecznie. Kompresując material wideo do konkretnego formatu (i stosując konkretne kodeki) spodziewam się, że prędzej czy później zostanę zmuszony do konwersji na inny format, gdy poprzedni wyjdzie z użycia. Ponowna kompresja, to ponowny spadek jakości.
Naturalnie pojemność dostępnych nośników pamięci rośnie, można by więc przypuszczać, że prędzej czy później będzie możliwe zapisywanie bez kompresji stratnej. Jednak rośnie też ilość danych, które chcemy zapisywać i archiwizować. Rośnie szybko. Ponadto istnieją inne czynniki. Pojemności wprowadzanych nośników konsumenckich (np. blue ray) pozwalają na zapis bezstratny długich sekwencji wideo w jakości lepszej, niż telewizyjna. Jednak nie będą w ten sposób wykorzystywane. Zamiast tego zapisuje się na nich obraz o wyższych parametrach, np. HDTV... skompresowany stratnie, tak, by zmieścił się na płytach. Iteracji tego procesu należy się spodziewać wielokrotnie.
Ponadto zapis cyfrowy JEST zależny od sprzętu, fizyczności. Nośniki, nawet stojąc na półce, ulegają zniszczeniu (czas życia). Jeśli nie kopiować ich w porę zawarte na nich informacje zostaną stracone. A co ze sprzętem odtwarzającym nośniki? On też zużywa się, a technologie wychodzą z użycia i przestają być produkowane urządzenia odczytujące konkretne nośniki (np. dyskietki). Co wtedy? Należy zadbać o kopiowanie na nowe nośniki starych danych, tak, by np. nie okazało się, że kolekcja przechowywana na płytach CD w pewnym momencie przestała być użyteczna. Z użycia wychodzą też technologie prezentacji (np. wyświetlacze o konkretnych parametrach) - dostosowanie istniejących prac wideo do nowych wyświetlaczy wcale nie jest kwestią banalną. Nowe wyświetlacze nie są po prostu lepsze. Są inne. Czy potrafimy odtworzyć interaktywne CD-ROMy sprzed kilku lat? Uruchamiać oprogramowanie? Czy spodziewamy się, że serwisy przechowujące dane (np. YouTube lub Flickr nigdy nie zbankrutują? Firmy nie zmienią polityki? Technologie będą zawsze wstecznie kompatybilne? W rzeczywistości technologie przyszłości będą coraz mocniej odbiegać od współczesnych, a niekompatybilności będą# narastały szybciej niż zdolność do emulacji. Powszechnie eksponowana niematerialność sztuki cyfrowej jest mitem.
Wszystko, co dotyczy cyfrowych archiwów dotyczy w jeszcze większym stopniu sztuk medialnych, ponieważ zawierają one najsłabiej ustandaryzowane elementy: interfejsy i struktury interaktywne. Większość oryginalnych interfejsów i technologii interaktywnych wymaga samodzielnego programowania, a nic nie jest tak zależne od technologii sprzętowych, jak oprogramowanie, zwłaszcza pisane do specjalnych zastosowań.

[2]



Powyższe problemy sprawiają, że pojawiają się propozycje dotyczące uporządkowania metod archiwizacji i kolekcjonowania. Dotyczą one wszystkich cyfrowych archiwów, ale w szczególny sposób sztuki medialnej. Powoływane specjalnie do tego celu, złożone z kuratorów, technologów i archiwistów zespoły eksperckie (m.in. w IRCAM) formułują zalecenia dotyczące konstruowania dzieł medialnych, by umożliwić ich późniejszą konserwację i maksymalnie wydłużyć czas życia prac. Zalecenia takie koncentrują się wokół dwóch podstawowych kwestii:
Po pierwsze: przyszłe prace medialne powinny być maksymalnie uniezależnione od konkretnych rozwiązań sprzętowych, a wykorzystane w nich technologie dobrze zdokumentowane, w celu umożliwienia ich późniejszej emulacji lub rekonstrukcji. To samo dotyczy platform programowych. Nie chcemy, by wartościowe dzieła były tracone z powodu zaprzestania produkcji konkretnego układu scalonego lub serwomechanizmu, albo braku supportu dla protokołu komunikacyjnego lub formatu danych w nowej wersji systemu operacyjnego.
Tego typu (dobrze zdokumentowane i multiplatformowe) systemy organizujące interakcję istnieją od dawna i są powszechnie wykorzystywane zarówno przez niezależnych twórców, jak i instytucje (Pure-Data, Processing, itp.). Warto zwrócić na nie uwagę, szczególnie na Wiring - kombinowaną platformę sprzętowo/programową, od strony software bazującą na Javie (języku programowania maksymalnie uniezależnionym od sprzętu, implementowanym na wielu platformach, również w browserach WWW), od strony hardware - na interfejsach wejścia/wyjścia, o opublikowanej architekturze, a więc łatwych do rekonstrukcji i samodzielnej budowy. Takie zestandaryzowane środowiska zapewniają bezpieczeństwo pracom i twórcom - łatwość doboru poszczególnych komponentów, support środowisk (w tym Open Source), wreszcie prace znajdujące się w kolekcjach mogą być w łatwy sposób przygotowywane do ekspozycji bez obawy, że pieniądze wydane na kolekcję zostały wyrzucone w błoto, a raczej wymienione na kupę złomu.
Drugi postulat, to opisywanie i katalogowanie prac z pomocą zbioru metadanych opisujących najważniejsze informacje dotyczące pracy:
informacji o autorze, o prawach autorskich i producenckich do pracy i możliwych formach jej licencjonowania i prezentowania, o użytych językach programowania i interfejsach, strukturze interakcji - taki zbiór informacji pozwoliłby przechowywać, udostępniać (eksponować) i rekonstruować prace medialne w sposób optymalny, wprowadzając je w obręb ogólnego obiegu artystycznego, nie marginalizując ich i sprowadzając do roli technologicznych dziwactw.

[3]


Być może zarysowane wyżej metody pozwolą na zarchiwizowanie wszystkiego oprócz tego, co w sztukach medialnych najbardziej wartościowe. Osobiście uważam, że przytłaczająca większość dobrych (a przynajmniej uważanych przeze mnie za wartościowe) prac medialnych bazuje na strategiach niemożliwych do zasymulowania, np. hackingu, usterkowaniu, bazowaniu na technologiach śmietnikowych. Poza tym wielostopniowa, rekurencyjnie nakładana emulacja starych technologii "wewnątrz" nowych wyrywa prace medialne z kontekstu.
Sztuki medialne muszą poruszać się w rejonach otwierających się tam, gdzie działanie środowiska medialnego wymyka się spod kontroli. W przeciwnym razie stają się grami zamkniętymi, odbywającymi się w przestrzeni ograniczanej regułami logiki formalnej. Ponadto artyści medialni muszą godzić się z nietrwałością swych wytworów - alternatywą jest pozbawiająca ekspresji autocenzura.

Paweł Janicki