Niejako nierozłącznie z poliwizją idzie w parze wielogłosowość (polifonia), ponieważ twórca rzadko decyduje się na zrównanie ważności dźwięków ze wszystkich ujęć, a częściej wybiera jedno główne źródło dźwięku w danym momencie filmu, wyciszając bądź eliminując pozostałe źródła. Jan Topolski określa roboczo to zjawisko polifonią filmową, co jak nadmienia „filmoznawcy zazwyczaj szufladkują pod pojęciem multiplikacji ekranu (poliwizji).”47 Podobnie stało się z filmem Timecode i jak zauważa sam Mike Figgis poliwizja nie jest w filmie najważniejsza. Na trop rozpatrywania Timecode jako polifonii filmowej wpadłam dzięki wywiadowi z krytykiem filmowym Michałem Chęcińskim na festiwalu Era Nowe Horyzonty 2009 oraz artykułowi Jana Topolskiego o związkach kina i muzyki. Wywiad z Mike'm Figgisem potwierdził przypuszczenia, że Timecode można również rozpatrywać pod takim właśnie kątem. Na polifonię filmową składają się według Topolskiego: “wielość równoległych obrazów, fabuł, ścieżek dźwiękowych.”48 Do podobnej estetyki zalicza dzieła Petera Greenawaya, jak również późniejszą twórczość Mike'a Figgisa właśnie z filmem Timecode na czele. John Bruns (w swojej pracy o polifonii filmowej, którą poświęca analizie filmu Magnolia Paula Thomasa Andersona) definiuje polifonię filmową następująco:
„W muzyce, polifonia jest układem wielu różnorodnych głosów, które choć jednoczesne, pozostają niezależne od siebie. Najbardziej rzetelna analiza polifonii pod kątem jej związków ze sposobem narracji została przeprowadzona przez Michaiła Bachtina, dla którego mistrzem powieści polifonicznej był Dostojewski. Ta muzyczna analogia jest nie tylko niezwykle bogata, ale również, mając na uwadze wciąż rosnącą liczbę filmów docenianych za ich wielowątkową strukturę, użyteczna i istotna. Film polifoniczny jednak nie tylko wskazuje na symultaniczność wydarzeń i łączy wiele wątków.”49
Bruns wymienia między innymi takie filmy polifoniczne jak Babel (reż. Inarritu, 2006), Syriana (reż. Gaghan, 2004), Traffic (reż. Soderbergh, 2000) oraz Magnolia (reż. Paul Thomas Anderson, 1999. Jak zauważa Bruns:
„przez niemal stulecie klasyczny język muzyki znalazł szerokie zastosowanie w teorii, jak również w praktyce filmowej, głównie poprzez analogie. 'To oznacza, że,' twierdzi Dean Duncan, 'zamiast analizować specyficzne przypadki interakcji między filmem a muzyka, artyści i teoretycy wypracowali sposoby, aby film był jak muzyka (2003, 66).' Jedna z najwcześniejszych i najbardziej fascynujących wersji analogii muzycznej była wykorzystywana przez wczesnych filmowców radzieckich.”50
Bruns ma tutaj na myśli przede wszystkim działalność Siergieja Eisensteina, Wsiewołoda Pudowkina i Grigorija Aleksandrowa. Wśród twórców, którzy przyczynili się do rozwoju idei analogii muzycznej i filmu polifonicznego, stawia obok reżyserów radzieckich i wcześniej wymienionego Bakhtina, również Bazina. Bruns sugeruje również Jeana Renoira jako prekursora dzisiejszego filmu polifonicznego.
W przypadku filmu Timecode można wyróżnić kilka analogii pomiędzy filmem a muzyką. Przede wszystkim, Mike Figgis zrezygnował z konwencjonalnego scenariusza i napisał scenariusz do filmu Timecode na papierze nutowym. Oto przykładowa strona scenariusza do filmu:51
„Wyobraźmy sobie, że idziemy do numeru 40, który oznacza minutę 40 w filmie. Mogę dokładnie sprawdzić, co dzieje się w każdym ekranie, co umożliwiało mi zsynchronizowanie w pełni moich pomysłów. Gdybym nie studiował muzyki, gdybym jej nie rozumiał, nie pomyślałbym o tym, a nie wyobrażam sobie alternatywnego systemu z wykorzystaniem tekstu i kartki papieru. Wyobraźmy sobie kartkę papieru. To jest ok, jeżeli pisze scenariusz na jeden ekran, tak? Jeżeli chce mieć już 2 ekrany, potrzebuje dodatkowej kartki papieru. A jeżeli potrzebuje dodatkowej kartki papieru, muszę też przedzielić tą kartkę kreską, aby podkreślić, że ta kreska reprezentuje czas. Wreszcie mam 4 ekrany, 4 kartki papieru i czytam z góry na dół i jest to bardzo trudne, ale papier nutowy jest specjalnie po to stworzony i, jeżeli grasz w kwartecie smyczkowym i wiolonczela popełnia błąd w takcie 53, po prostu mówisz do wszystkich muzyków, idziemy do taktu 53, ok bądź naturalna, myślę, że grasz płasko H, to błąd, możesz to poprawić? Wykorzystałem ten sam system w pracy z aktorami. Nauczyłem ich jak czytać muzykę. Rozdałem im wszystkim kopie scenariusza sporządzonego na papierze nutowym, co umożliwiło im wizualnie zrozumieć nie tylko, co oni sami robili w określonym momencie opowiadania, ale również co robili pozostali aktorzy na pozostałych ekranach. Myślę, że największym przełomem w konstrukcji filmu Timecode i znalezieniu systemu zrozumiałego dla wszystkich, było Warto zaznaczyć, że jest to bardziej otwarta forma scenariusza, gdzie sytuacje są ledwo naszkicowane, a to od inwencji aktorów zależy, jakiego nabiorą charakteru. Dochodzi tu więc element improwizacji. Wiąże się to z faktem, że w trakcie realizacji ciągłych ujęć, reżyser operujący również jedną z kamer, nie może rozmawiać z aktorami. Dopiero po zakończeniu zdjęć materiał jest analizowany pod kątem gry aktorskiej oraz pod kątem innych elementów, a wnioski z tej analizy mają pomóc aktorom oraz pozostałym członkom ekipy w przygotowaniu do kolejnej wersji. Takich wersji powstało 15, z nich Mike Figgis wybrał najlepszą. Oczywiście pomysł z zastosowaniem papieru nutowego na poziomie scenariusza był zaledwie połową sukcesu. Po zestawieniu na czterech ekranach nakręconych materiałów, doszedł kolejny etap pracy nad filmem – etap postprodukcji. Jak już zostało to wyjaśnione w poprzednim rozdziale, w przypadku filmu Timecode nie możemy mówić o etapie montażu w klasycznym tego słowa znaczeniu. Myślę, że możemy za to mówić o dosyć rozbudowanym etapie postprodukcji dźwięku. Na postprodukcje dźwięku składało się kilka etapów:
a/. zmiksowanie dźwięku z czterech kamer, czyli selekcji źródła dźwięku. Kiedy wchodzi dźwięk z danego źródła, jak długo słyszymy dźwięk z tego źródła, z którego źródła będziemy następnie słyszeć dźwięk, et cetera;56
b/. tradycyjna edycja dźwięku, jaką przechodzi każdy film. Wyrównanie poziomów dźwięków, dodanie atmosfer, etc.;
c/. dodanie muzyki. Przy czym w przypadku etapu a/. można moim zdaniem mówić o przeniesieniu części wykorzystanie muzyki i idei konstrukcji muzycznej.”
Przy czym w przypadku etapu a/. można moim zdaniem mówić o przeniesieniu części zadań, jakie realizuje się na etapie montażu obrazu na płaszczyznę montażu dźwięku, która stanowi najbardziej kreatywną płaszczyznę całego filmu. Swoją hipotezę argumentuję tym, że to właśnie na etapie miksowania dźwięku reżyser nadaje za pomocą dźwięku hierarchię ważności informacjom zawartym w danym obrazie, na danym ekranie nad innymi obrazami, ekranami. Widz będzie automatycznie próbował zweryfikować wpierw z którego obrazu pochodzi źródło dźwięku, a dopiero potem kierował uwagę na inne obrazy, kierując się pozostałymi zasadami języka filmowego, do których został przyzwyczajony, to znaczy np. funkcją planów filmowych czy związkami pomiędzy postaciami i ich działaniami. Przy czym widzowi pozostawiona zostaje swoboda decyzji, ile czasu chce poświęcić na śledzenie akcji w danym ekranie, z którego dźwięk pochodzi, a kiedy przeniesie wzrok na inny obraz, który go zainteresuje. Wymaga to oczywiście od widza zerwania z dotychczasowymi przyzwyczajeniami i dużo aktywniejszego udziału w oglądaniu filmu, ponieważ to widz przejmuje w dużym stopniu rolę montażysty filmu.
„Kiedy bombarduje nas tyle obrazów, widzimy inaczej. Rzucamy krótkie, migawkowe, szybkie spojrzenia. Nasze oczy są w ciągłym ruchu. Wykorzystujemy wtedy zmysł widzenia peryferycznego, który najczęściej przydaje się nam w sytuacjach walki lub ucieczki (proces ten zachodzi w osobnej części mózgu w stosunku do widzenia bezpośredniego). Nie ogarniamy całego obrazu, nie jesteśmy w stanie. Uczymy się przyjmować to cząstkowe doświadczenie jako wystarczająco precyzyjne.”57
Umiejętne miksowanie ścieżek dźwiękowych pełni w przypadku filmu Timecode funkcje porządkującą. Jeśliby uporządkować na osi czasu kolejne ujęcia filmu, które są źródłem dźwięku, powstałaby zamknięta klasycznie zmontowana wersja, w której zawarte byłyby niezbędne w zrozumieniu filmu informacje. Jednak nie o to chodziło Mike' owi Figgisowi. I z pewnością, gdyby porównać taką wersję do oryginału, stałoby się jasne, co zyskujemy dzięki polifonii obrazów, jaką z całą pewnością jest film Timecode. Moją hipotezę potwierdza również po części sam Mike Figgis. Jak twierdzi po obejrzeniu pierwszej nakręconej wersji Timecode, zdawał sobie sprawę jako filmowiec, że dźwięk jest ważniejszy niż obraz i, że to właśnie za pomocą dźwięku może dodatkowo pomóc widzowi w oglądaniu filmu poprzez kierowanie jego uwagi. Najważniejsze było, aby dopracować film wizualnie pod kątem informacyjnym do tego stopnia, aby w postprodukcji nie musieć ingerować już w obraz, a jedynie dźwięk.58Michał Chaciński miał okazje oglądać Timecode w 2000 roku, kiedy film powstał i przy ostatniej projekcji filmu w Polsce w 2009 we Wrocławiu na Festiwalu Era Nowe Horyzonty. Tak opisuje swoje wrażenia:
„Widziałem Timecode po raz pierwszy prawie dziesięć lat temu [2000]. Wtedy kiedy film powstał i już wtedy Mike Figgis zapowiadał, że w momencie, w którym będzie wychodziło DVD z filmem, on chciałby zaproponować w jakimś sensie współudział widzowi w tym, co ogląda. Z jednej strony oczywiście ten współudział jest wbudowany w projekt, bo oglądamy na ekranie historię pokazaną w czterech oddzielnych zupełnie obrazach jednocześnie wyświetlanych na ekranie, więc niejako sami decydujemy właściwie kim jesteśmy jako widzowie. Możemy być reżyserem, możemy decydować, który kawałek oglądamy, z którego punktu widzenia.”59
Dochodzi tutaj dodatkowy wymiar filmu, a mianowicie Mike Figgis miksuje dźwięk z czterech ekranów wraz z muzyką na żywo w trakcie projekcji. Timecode zyskuje więc również wymiar performance' u. Temu zagadnieniu poświecę jednak kolejny podrozdział.