Generic selectors
Exact matches only
Search in title
Search in content
Search in posts
Search in pages
">
Film i fotografia, Wszystkie wpisy

Co wpływa na jakość video?
Czas czytania: 6 minut

Czym jest bitrate? Co to jest głębia bitowa? Czy 8 bit, a 10 to już duża różnica? Czym jest chroma subsampling? Obraz z przeplotem, czy progresywny? Zobacz jakie jeszcze parametry wpływają na jakość video!

Oglądając różne filmy – głównie w internecie, jesteśmy w stanie rozróżnić te, które są nagrane w lepszej lub gorszej jakości. Zadanie jest ułatwione, gdy dodatkowo mamy jakiś punkt odniesienia – na przykład inne video. Co składa się na tą jakość?

W pierwszej kolejności prawdopodobnie intuicyjnie stwierdzisz, że kluczowa jest rozdzielczość. I masz rację, chociaż jest to jeden w wielu parametrów, który odgrywa istotną rolę w odbiorze nagranego materiału. Jeśli jeszcze nie czytałeś, to serdecznie zapraszam Cię do artykułu “Rozdzielczości nagrywania filmów”, który szerzej i dokładniej opisuje to zagadnienie.

1. Rozdzielczość

Im wyższa rozdzielczość nagrywanego filmu, tym więcej pikseli w poziomie oraz w pionie składa się na cały obraz. Zaletą nagrywania w wysokich rozdzielczościach takich jak np. 4K, 6K czy 8K jest fakt, iż taki obraz można bez straty na jakości cropować (potocznie przybliżać) i stabilizować przy późniejszym renderze do niższych rozdzielczości. W przypadku  4K jest to, aż 200% bezstratne przybliżenie w renderze do Full HD 1080p.

Zeskalowany obraz, czyli taki, który został nagrany w wyższej rozdzielczości a wyrenderowany do niższej, jest bardziej ostry ze względu na większą gęstość pikseli. A zatem (pomijając na chwilę pozostałe parametry) można przyjąć, że obraz w rozdzielczości 4K wyrenderowany do Full HD będzie miał lepszą jakość video od obrazu nagranego od razu w Full HD. Zabieg ten nazywany jest downscalingiem

2. Bitrate


Bitrate, a w języku polskim przepływność, to parametr mówiący o tym ile danych może zostać zapisanych przez aparat lub kamerę w ciągu sekundy. Intuicyjnie – im wyższa ilość danych rejestrowanych w tym czasie (tzw. średnia prędkość bitowa), tym wyższa jakość obrazu. Przepływność podawana jest najczęściej w megabitach na sekundę oznaczanych Mb/s.

Wykorzystywany przez kamerę bitrate wiąże się także z wagą nagrywanego materiału. Im wyżej ustawiona przepływność – tym mniej materiału zmieści się na tym samym nośniku (dysku lub karcie pamięci). Bitrate to ważny parametr wpływający na jakość video. Obraz zarejestrowany kamerą A w rozdzielczości 4K i bitrate 500Mb/s będzie lepszej jakości od nagrania z kamery B przy tej samej rozdzielczości, framerate i kodeku, ale przy bitrate 120Mb/s.

3. Głębia bitowa

Matryca aparatu lub kamery składa się z wielu światłoczułych elementów – pikseli, które zbierają informacje o występujących kolorach oraz ich intensywności w rejestrowanym obrazie. Mówiąc prostym językiem – im większą głębie bitową posiada nasz sprzęt – tym więcej kolorów jest w stanie rozróżnić i zapisać. Więcej informacji o kolorach to większe możliwości w postprodukcji filmu podczas korekcji kolorów oraz color gradingu. 

Popularne głębie bitowe w dzisiejszych kamerach oraz aparatach wynoszą 8bit, 10bit czy 12bit. Na pierwszy rzut oka może sie wydawać, że różnica jest znikoma. Jak mawiał klasyk – nic bardziej mylnego! Za pomocą 8bitowej skali matryca potrafi zapisać 2 do potęgi 8 kolorów czyli ponad 16 mln. Przy skali 10bitowej jest to 2 do potęgi 10, co daje nam już ponad 1 miliard kolorów. Dla 12 bitów tych rozróżnianych kolorów jest już 68 miliardów!

Jednym słowem – im więcej bitów w głębi bitowej aparatu lub kamery, tym większe możliwości przy kolorowaniu materiału. Filmy nagrane w 10 czy 12 bitach dają niesamowite, a czasem niemal nieograniczone możliwości postprodukcyjne, dla których jedynym hamulcem jest wyobraźnia kolorysty.

4. Obraz progresywny lub z przeplotem

źródło: www.pavtube.com

O różnicach pomiędzy obrazem progresywnym, a z przeplotem możesz przeczytać więcej we wcześniej wspomnianym artykule o rozdzielczościach. To, co warto zapamiętać to fakt, że nagrywanie z przeplotem (interlaced) nie ma konkretnego uzasadnienia w dzisiejszych czasach. Jest to stara technologia służąca w erze kineskopowych odbiorników telewizyjnych. Jeśli tylko to możliwe – nagrywaj zawsze w trybie progressive, czyli bez przeplotu.

Kompresja ALL-I oraz IPB

źródło: www.canon.com.hk

W sprzęcie od Canona istnieje do wyboru opcja nagrywania w trybie ALL-I lub IPB. Nie chodzi tu dokładnie o przeplot, ale można przyjąć, że pierwszy tryb jest odpowiednikiem nagrywania progresywnego, a drugi – interlaced. Przy kompresji ALL-I każda klatka jest traktowana jako oddzielny, pojedynczy obraz – spójrz na grafikę powyżej. Natomiast w trybie IPB, procesor potocznie mówiąc wykrywa i przewiduje różnice pomiędzy klatkami. Przykładowo: w trakcie statycznego wywiadu na jednolitym tle, otoczenie pozostaje w kadrze niezmienne, a tylko wypowiadająca osoba się porusza. 

źródło: www.canon.com.hk

Nagrywanie w trybie IPB wiąże się z bardzo dużą kompresją materiału, a co za tym idzie – małą ilością informacji, pociągającą za sobą słabą jakość nagrania. Jeśli jednak nie zależy Ci na jakości, to zaletą kompresji IPB jest znacznie mniejsza waga plików (około 3 krotnie) w porównaniu do opcji ALL-I.

5. Subsampling

Pojęcie chroma subsampling nie mówi za wiele. Jego polskie tłumaczenie – podpróbkowanie chrominancji też może przyprawić o zawrót głowy. Przyjrzyjmy się temu zatem z prostej i użytkowej strony.

Jak już wiesz – sygnał cyfrowy zawiera mnóstwo danych i informacji, które zajmują określoną ilość miejsca i potrzebują pewnej ilości czasu na transmisję. Im większa rozdzielczość, bitrate i głębia bitowa – tym więcej informacji do przetworzenia. Aby nieco zmniejszyć rozmiar plików i skrócić czas ich przesyłania stosuje się kompresję obrazu. Jedną z metod takiej kompresji jest właśnie podpróbkowanie kolorów.

Używanie subsamplingu to takie sprytne oszukiwanie biologii człowieka, wykorzystujące fakt, iż ludzki wzrok wykazuje większą wrażliwość na jasność (luminancję), niż kolor (chrominancję). A zatem można “zaoszczędzić” trochę danych na kolorach, których i tak specjalnie nie odróżnimy. Człowiek posiada w oku dużo więcej pręcików analizujących jasność, niż czopków odpowiedzialnych za rozróżnianie barw. Dowód? W nocy trudniej rozpoznawać nam kolory, niż w ciągu dnia.  

Trzy cyfry oddzielone dwukropkami informują o sposobie próbkowania chrominancji. Pierwsza cyfra (najczęściej 4) to ilość próbek luminancji, do których odnosimy wartości chrominancji. Druga cyfra to liczba próbek chrominancji w pierwszym rzędzie obszaru próbkowania. A trzecia cyfra dotyczy drugiego rzędu. Intuicyjnie można zauważyć, że najwięcej informacji posiada próbkowanie 4:4:4. Takie kodowanie wykorzystywane jest w kosztownych kamerach wysokiej klasy.

Najczęściej stosowane podpróbkowanie 4:2:2 zapewnia dobrą jakość, ale mniejszą szczegółowość od poprzednika. Górny rząd w obszarze próbkowania zawiera 2 razy mniej informacji o kolorze niż o jasności. W próbkowaniu 4:2:0 jak możesz zauważyć na grafice – dolny rząd w ogóle nie ma informacji o kolorze, a jedynie “dziedziczy” informację z rzędu wyżej. Takie próbkowanie używane jest np. w programach telewizyjnych czy filmach na DVD, Blu-Ray.

6. Kodek i format

Kolejnym elementem wpływającym na jakość video jest używany kodek (od słów koder – dekoder).  Najpopularniejszym używanym powszechnie kodekiem video jest H.264. Jest on wykorzystywany w internecie (np. na YouTube), urządzeniach Blu-ray, nadawaniu obrazu w jakości HD, kamerach cyfrowych czy urządzeniach mobilnych. Inne, nieco mniej znane kodeki to na przykład AVCHD, MPEG-2 czy Apple ProResHQ.

Kodeki posiadają swoje opakowania, tzw. kontenery, którymi są formaty plików – czyli rozszerzenia. Najpopularniejszymi formatami video są m.in. MP4, MOV, WMV oraz AVI. O kodekach oraz różnicach pomiędzy poszczególnymi formatami video przeczytasz więcej w osobnym artykule, gdyż jest to temat warty szczególnego rozwinięcia.

7. Czystość obiektywu oraz matrycy

Wymieniając składniki wpływające na jakość video, nie sposób pominąć takiego elementu jak czysty obiektyw oraz matryca. Wszelkie paprochy, drobinki kurzu, piasku i inne zanieczyszczenia znajdujące się na drodze światła do matrycy wpływają negatywnie na jakość nagrywanych ujęć oraz wykonywanych zdjęć.

Z pomocą utrzymania tych elementów w czystości przychodzą ściereczki, bibułki, szpatułki do czyszczenia soczewek, specjalne płyny do matryc i tym podobne akcesoria. Warto regularnie dbać o higienę sprzętu foto-video, bo tak jak w przypadku ludzi – lepiej zapobiegać, niż później leczyć.


Czy ten artykuł był dla Ciebie pomocny? Podziel się swoją opinią w komentarzu poniżej! Serdecznie zapraszam Cię do polubienia mojego profilu na facebooku, aby być zawsze na bieżąco! 

Zobacz także:

Film i fotografia, Wszystkie wpisy

Rozdzielczości nagrywania filmów
Czas czytania: 5 minut

Czym jest rozdzielczość? Co jest aspect ratio? Full HD czy 4K – która opcja lepsza i dlaczego? Czym jest downscaling? Co oznacza zapis 1080p, a co 1080i? Poznaj wszystkie najpopularniejsze rozdzielczości nagrywania filmów!

Ze słowem “rozdzielczość” zetknął się chyba każdy. To, co warto zaznaczyć na samym wstępie, to fakt, że za wyższą rozdzielczością nie zawsze idzie wyższa jakość. Jest to jeden z parametrów, który na nią wpływa, ale nie jedyny. Za jakością nagrywanych filmów stoją również m.in.: bitrate, ilość bitów w palecie kolorów, subsampling oraz kodek. O tych aspektach przeczytasz jednak w oddzielnym artykule. 

Co to jest piksel?

Żeby lepiej zrozumieć zagadnienie rozdzielczości – zacznijmy od samych podstaw. Obraz wyświetlany na ekranie monitorów składa się malutkich cząsteczek zwanych pikselami. Piksel nie ma ściśle standaryzowanego rozmiaru ani kształtu. Przyjmuje on jednak najczęściej formę kwadratu lub prostokąta, rzadziej trójkąta. 

A zatem widziany z daleka obraz to nic innego jak ogromny zbiór wielu nagromadzonych pikseli. Każdy pojedynczy piksel składa się najczęściej z 3 jeszcze mniejszych fragmentów (tzw. subpikseli), z których każdy emituje światło o innej barwie – czerwonej, zielonej lub niebieskiej. Kolor pojedynczego piksela jest więc wypadkową składowych subpikseli.

ZOBACZ TAKŻE: “Stabilizacja obrazu w filmie”

Co to jest rozdzielczość?

Wyświetlany na monitorze obraz skomponowany jest ze skończonej liczby pikseli. Rozdzielczość to parametr mówiący o tym ile pikseli w poziomie, a ile w pionie składa się na cały obraz. Podawana jest w postaci dwóch cyfr rozdzielonych znakiem “x” np. 1920 x 1080, co w tym przypadku oznacza 1920 pionowych linii pikseli oraz 1080 poziomych.

Dla ułatwienia, oprócz zapisu cyfrowego, rozdzielczości posiadają swoje nazwy. I tak rozdzielczość 1280 x 720 pikseli nazywana jest HD (od słów high-definition), a wymiary 1920 x 1080 to inaczej Full HD. Słynna rozdzielczość o nazwie ogólnej 4K ma wiele odmian. Najpopularniejszą z nich jest 4K dla formatu telewizyjnego 16:9, zwana również Ultra HD, o wymiarach 3840 x 2160. Mniej popularną (z nazwy) jest rozdzielczość QHD lub inaczej Quad HD o wymiarach 2560 x 1440 pikseli.

Litera “K” w nazwach rozdzielczości np. 4K, 6K, 8K, wzięła się od słowa kilo, które oznacza tysiąc. Cyfra poprzedzająca K związana jest z dłuższą przekątną obrazu. A zatem obraz o wymiarach 6144 x 3456 pikseli nazwiemy 6K, a taki o wymiarach 8192 x 4608 to 8K. 

Czym jest aspect ratio?

Aspect ratio, czyli po polsku format obrazu, to inaczej iloraz długości do wysokości obrazu, wyrażony w postaci dwóch liczb rozdzielonych dwukropkiem, który czytamy jako „na”. A zatem 16:9 czytamy szesnaście na dziewięć i jest to jeden z najpopularniejszych formatów. Jest on powszechnie wykorzystywany w telewizji oraz internecie. Format 16:9 wyrażony w pikselach to właśnie Full HD (1920 x 1080) oraz 4K (3840 x 2160).

Coraz bardziej popularne w social mediach stają się również video w pionie (wertykalne). Mają one odwrócone proporcje, czyli 9:16. Popularnym w przeszłości aspect ratio było 4:3. Zbliżony do kwadratu format wynikał z ówczesnych ograniczeń technologicznych. Będąc w kinie przywykliśmy do szerszego obrazu, bardziej panoramicznego. A to za sprawą stosowanego tam formatu 2,39:1 (oraz m.in. 1,85:1).

Co to znaczy, że obraz jest z przeplotem?

Może spotkałeś się kiedyś z zapisem „1080p” oraz „1080i”? Literka „p”  jest skrótem od słowa progressive, co oznacza obraz progresywny – bez przeplotu. Oznaczenie „i” pochodzi od interlaced, czyli obrazu z przeplotem. Czym jest przeplot? W uproszczeniu chodzi o to, że w jednej, pojedynczej klatce obrazu są dwa pola – jedno składające się z linii parzystych, a drugie nieparzystych i wyświetlane są na zmianę. W przypadku obrazu progresywnego takiego zabiegu nie ma, w danym momencie wyświetlany jest cały obraz. 

Obraz z przeplotem wymaga mniejszej szerokości pasma, co jest istotne w przypadku telewizji, jednak obraz jest zauważalnie gorszej jakości. Zwłaszcza na ujęciach w ruchu można dostrzec artefakty, rozmycia i nieostrości względem obrazu tej samej rozdzielczości, ale bez przeplotu. Dlatego paradoksalnie obraz w rozdzielczość 1080i jest słabszej jakości od obrazu o rozdzielczości 720p. Progresywny obraz 720p zawiera więcej detali i mniej artefaktów od obrazu FullHD z przeplotem. 

ZOBACZ TAKŻE: “Rodzaje planów, kadrowanie, trójpodział i złoty podział”

Downscaling i upscaling

Mówiąc o rozdzielczościach, warto wspomnieć o downscalingu oraz upscalingu. Jak pewnie się domyślasz – pojęcia te związane są ze skalowaniem obrazu. Downscaling to skalowanie w dół, a upscaling – w górę. Po co nagrywać film w 4K, a renderować go do FullHD? Powodów jest conajmniej kilka:

  • obraz 4K zeskalowany do 1080p jest bardziej ostry ze względu na większą gęstość pikseli
  • obraz 4K można bezstratnie stabilizować i kropować (przybliżać) nawet o 200% bez straty jakości przy renderze do 1080p
  • po downscalingu pliki zajmują mniej miejsca na dysku i są łatwiejsze w edycji

Upscaling czyli nagrywanie w niższej rozdzielczości i renderowanie filmu do wyższej, często wiąże się z utratą jakości. Tu warto powtórnie zaznaczyć, że nie tylko “rozszerzanie” rozdzielczości ma wpływ na jakość obrazu, ale i bitrate nagrania, ilość bitów w palecie kolorów, subsampling czy użyty kodek video.

Dlatego też może okazać się, że ujęcie w bardzo dużym bitracie wyrenderowane do wyższej rozdzielczości ma lepszą jakość od nagrania już w tej docelowo-wyższej rozdzielczości, ale przy pozostałych słabych parametrach.

ZOBACZ TAKŻE: “Rodzaje obiektywów – podstawowe informacje”

Rozdzielczości oraz proporcje obrazu na YouTube

Platforma YouTube umożliwia dodawanie filmów w różnych rozdzielczościach. Standardowym współczynnikiem proporcji filmów na YouTube odtwarzanych na komputerze jest popularne 16:9. W przypadku innych proporcji, np. 4:3 lub pionowych filmów 9:16 odtwarzanych na komputerach, YouTube może automatycznie dodać białe (lub w motywie ciemnym – ciemnoszare) wypełnienie obrazu od boków lub u góry i dołu.

Dla domyślnego aspect ratio 16:9, YouTube zaleca renderować filmy w poniższych rozdzielczościach: 

  • 240p: 426 x 240 pikseli
  • 360p: 640 x 360 pikseli
  • 480p: 854 x 480 pikseli
  • 720p: 1280 x 720 pikseli
  • 1080p: 1920 x 1080 pikseli
  • 1440p: 2560 x 1440 pikseli
  • 2160p: 3840 x 2160 pikseli


Czy ten artykuł był dla Ciebie przydatny? Koniecznie podziel się swoją opinią w komentarzu poniżej! Zapraszam Cię do obserwowania mojego profilu na facebooku, aby nie przegapić publikacji nowych artykułów!

Zobacz także:

Film i fotografia, Wszystkie wpisy

Stabilizacja obrazu w filmie
Czas czytania: 8 minut

Poznaj wszystkie popularne i te mniej znane metody stabilizacji obrazu w filmie! Czym jest Easyrig? Czym różni się gimbal od flycama? Do czego służy Russian Arm? Kiedy warto wykorzystać cablecama? Stabilizacja obrazu w filmie – wszystkie najważniejsze informacje!

Historia stabilizacji obrazu jest tak stara jak sam film i narodziła się z początkiem kina. Wraz z rozwojem technologii i elektroniki, wciąż powiększa się dostępny wachlarz możliwości operatorskich. Co ciekawe – ciągle powstają nowe rozwiązania, które najczęściej są hybrydą tych wcześniej dostępnych.

Mówiąc o stabilizacji obrazu, mam tu na myśli każde rozwiązanie, które jest alternatywą dla trzymanej w dłoniach kamery bez jakiejkolwiek klatki, czy riga. Przyjrzyjmy się dostępnym możliwościom i zastanówmy do czego potencjalnie można wykorzystać konkretne rozwiązania!

Statyw – podstawowa stabilizacja obrazu

Trójnogi statyw to jedno z najstarszych i najprostszych urządzeń służących do stabilizacji obrazu. Tę niezawodną konstrukcję z teleskopowymi – rozkładanymi nogami z powodzeniem wykorzystuje się zarówno w małych jak i dużych, kinowych produkcjach. Za pomocą statywu możemy nagrać zarówno statyczne ujęcia jak i ruchome.

Obracając kamerę na głowicy statywu w lewo oraz prawo wykonujemy tzw. panoramę (ang. pan). Z tego ruchu korzysta się na przykład w trakcie śledzenia obiektu w kadrze. Oprócz tego możemy poruszać kamerą w płaszczyźnie pionowej góra-dół i jest to tzw. tilt. Tego ruchu używa się np. do pokazania wielkość budynku. Warto dodać, że na rynku dostępne są również statywy na kółkach, ale o jeździe kamery powiemy więcej nieco później.

Statyw elastyczny

źródło: www.techstage.de

Innym przykładem statywów są, popularne w ostatnim czasie, elastyczne trójnogi z gumowymi pierścieniami. Dzięki giętkiej konstrukcji oraz kulistej głowicy, możliwe jest zamocowanie na nich lekkich aparatów i kamer w różnych niestandardowych miejscach takich jak np. poręcze, słupy czy gałęzie.

ZOBACZ TAKŻE: “Jak zostać filmmakerem? – cz.1”

Monopod

źródło: photographyarticle.com

Monopod to najprostszy rodzaj statywu, który złożony jest jedynie z jednej rozkładanej nogi. Z powodzeniem znajduje on zastosowanie m.in. w dynamicznych ujęciach realizowanych na obiektywach z długą ogniskową. Podstawową zaletą monopodu jest jego waga i poręczność. Minusem może być fakt, że wymaga on stałego podtrzymywania jedną ręką.

Slider

Slider filmowy to zestaw, który składa się – w podstawowej wersji – z szyny, statywu oraz ruchomej płytki z mocowaniem na kamerę. Bardziej zaawansowane slidery posiadają programowalny napęd elektroniczny i mogą mieć dowolną, modulowaną, długość. Wykorzystuje się je do tworzenia płynnych ujęć w ruchu na małym dystansie.

W zależności od położenia kamery, może się ona przesuwać w bok lub do przodu i do tyłu. Ze sliderów często korzysta się przy realizacji ujęć w małej skali – na przykład nagrywając detale elementów leżących na biurku.

Jazda filmowa (Dolly)

źródło: www.premiumbeat.com

Jazda filmowa, zwana inaczej w żargonie filmowców Dolly pozwala na tworzenie płynnych ujęć na znacznym dystansie. Operator razem z kamerą siedzi na mobilnej platformie, wprawianej w ruch przez tzw. wózkarza filmowego po ustawionych torach.

Co istotne – szyny nie muszą tworzyć linii prostej, często na potrzeby ujęcia układa się je np. w półokrąg. Ujęcia z jazdy często towarzyszą scenom walki z uwagi na możliwość tworzenia m.in. płynnych ujęć w ruchu na długich ogniskowych.

Shoulder rig

Statyw naramienny (z ang. shoulder rig) służy do nagrywania ujęć z poziomu wzroku operatora. Często korzysta się z niego w filmach dokumentalnych oraz przy dynamicznych ujęciach np. w kinie akcji. Shoulder rig daje dużo swobody operatorskiej i pozwala na tworzenie kreatywnych kadrów. Minusem tego rozwiązania jest często spora waga sprzętu, który spoczywa na barkach filmowca.

Shoulder rig składa się z regulowanych uchwytów na dłonie połączonych dwiema równoległymi rurkami z podkładką naramienną. Do rurek tych przymocowany jest tzw. baseplate, który umożliwia montaż lustrzanki lub kamery. Oprócz tego można zamontować na nich m.in. matte boxa (kompendium), followfocus czy klatkę. O tych akcesoriach przeczytasz m.in. w artykule “Słownik terminów z planu filmowego”.

Gimbal

Gimbal to elektroniczny stabilizator obrazu, który umożliwia tworzenie bardzo płynnych ujęć. Wyposażony jest w silniki, żyroskop oraz różne czujniki wspomagające ruch kamery. Zadaniem całej elektroniki jest stabilizacja obrazu w jednej lub wielu osiach obrotu. Dzięki wykorzystaniu gimbala ruchy operatora kamery (np. w trakcie biegu po nierównym podłożu) są izolowane od nagrywanego obrazu.

Na rynku dostępnych jest bardzo dużo różnych rodzajów gimbali – od amatorskich, obsługujących telefony oraz kamerki sportowe, przez pół-profesjonalne – dla małych kamer oraz aparatów DSLR (ang. Digital Single Lens Reflex Camera), aż do profesjonalnych, które są w stanie obsłużyć duże i ciężkie kamery filmowe. Ale gimbal to nie wszystko – zobaczmy z czym często współpracuje na planie ten sprzęt!

Kran – wysięgnik kamerowy

źródło: www.filmandtvcranes.com

Kran to urządzenie, które służy do realizacji płynnych i nieraz skomplikowanych, długich ujęć. To rodzaj dźwigu z teleskopowo-rozkładanym ramieniem, które może być obsługiwane manualnie lub sterowane elektronicznie. W zależności od kranu – może on posiadać na swoim końcu mocowanie pod wcześniej wspomniany gimbal lub platformę, na której siedzi operator wraz z kamerą.

Kran może być zarówno statyczny (umiejscowiony), jak i mobilny – na powyższym przykładzie ze zdjęcia. Urządzenie to często znajduje zastosowanie np. w scenach z tłumem ludzi, dzięki czemu kamera może płynnie przesuwać się nad zgromadzeniem lub w scenach w wymagających lokalizacjach np. na dużych wysokościach, w jaskiniach, czy na wodzie.

Russian Arm

źródło: www.eurogrip.com

Russian Arm to system mocowania kamery wraz z gimbalem, na wysięgniku kamerowym umieszczonym na pojeździe. Urządzenie to jest zdalnie sterowane przez operatora kamery, który znajduje się wewnątrz samochodu. Russian Arm pozwala na wygodne i bezpieczne nagrywanie imponujących, płynnych i dynamicznych scen na ulicach oraz w terenie.

Cablecam

źródło: www.wikipedia.org

Cablecam służy do nagrywania płynnych ujęć na znacznej wysokości i sporych dystansach. Wykorzystuje się go nie tylko w filmach oraz reklamach, ale i realizacjach telewizyjnych np. w trakcie wydarzeń sportowych takich jak mecze piłki nożnej, czy skoki narciarskie. Cablecam najczęściej występuje w dwóch odmianach – z kablem stałym oraz ruchomym.

W systemie z kablem stałym lina przymocowana jest w dwóch punktach krańcowych, a głowica wraz z kamerą przesuwa się za pomocą silników wzdłuż kabla. W cablecamie z kablem ruchomym, liny przymocowane są do wyciągarek, które umożliwiają ruch gimbala z kamerą w wielu płaszczyznach – nie tylko w przód i tył, ale i na boki oraz w górę i w dół. Takie rozwiązanie znajduje zastosowanie np. na koncertach oraz przy powtórkach w trakcie meczów piłkarskich.

Easyrig – stabilizacja i odciążenie

Easyrig (nazwa własna producenta) to urządzenie, którego głównym zadaniem jest przeniesienie ciężaru kamery z ramienia na biodra, a co za tym idzie – umożliwienie operatorowi swobodnej pracy na sprzęcie o znacznej wadze. Ten stabilizator pomaga symulować ujęcia “z ręki”, nawet przy dużych gabarytach kamer. Mocna lina zamontowana do ramienia kamizelki jest w stanie udźwignąć sprzęt nawet do 25 kg. 

To rozwiązanie znajduje bardzo szerokie zastosowanie zarówno w świecie telewizji jak i filmu oraz reklamy. Co warto zaznaczyć, Easyrig umożliwia także podwieszenie profesjonalnych stabilizatorów takich jak np. Mōvi Pro czy DJI Ronin 2.

Origowany pojazd (Grip rigs)

Zdjęcie z planu filmowego filmu “Baby Driver” (2017)
źródło: www.reddit.com

Jeśli kiedykolwiek zastanawiałeś się jak powstają sceny wewnątrz pojazdów, to myślę, że powyższe zdjęcie z planu “Baby Drivera” trochę rozjaśnia temat. Kamery (a czasem również lampy) umieszczone są na stelażu stworzonym z metalowych rur i zacisków, który przymocowany jest do karoserii samochodu. Warto wspomnieć, że na dużych planach filmowych rigowane są nie tylko auta, ale także łodzie, helikoptery, czy nawet samoloty.

Ciekawostka – w tym konkretnym przypadku układ kierowniczy samochodu został przerobiony w taki sposób, że jego prawdziwy kierowca siedzi w koszu umieszczonym na dachu, a aktor wewnątrz pojazdu tylko udaje w trakcie sceny, że ma wpływ na kierunek jazdy.

Steadycam

Steadycam to system stabilizacji, który mechanicznie odizolowuje ruch kamery od jej operatora. Na zestaw składa się: kamizelka, ramię oraz teleskopowa rurka, na której jednym końcu znajduje się baseplate z kamerą, a drugim – przeciwwaga (najczęściej jest nią bateria wraz z monitorem i dodatkowymi odważnikami). 

Steadycam musi być każdorazowo przed użyciem wyważany statycznie oraz dynamicznie (w ruchu). Ten rodzaj stabilizacji obrazu szczególnie często wykorzystuje się w scenach chodzonych. Steadycam znajduje także zastosowanie m.in. w realizacjach teledysków oraz transmisji telewizyjnych.

Glide (flycam)

Glide, zwany czasem flycamem lub Glidecamem (nazwa własna producenta), to nic innego jak wcześniej wspomniany stabilizator, tyle że bez kamizelki oraz żadnej elektroniki wspomagającej. Zasada jego działania opiera się na przeciwwadze do ciężaru kamery. Po jednej stronie znajduje się aparat lub kamera, a po drugiej – odważniki. Glide również musi być odpowiednio wyważony statycznie oraz dynamicznie przed każdym użyciem.

Ten rodzaj stabilizatora świetnie sprawdza się przy nagrywaniu z wykorzystaniem np. aparatów DLSR oraz lżejszych kamer. Jego zaletą jest duża mobilność, brak potrzeby zasilania oraz stosunkowo mała waga własna. 

Dron

Rozwój technologii pozwala wzbić się w powietrze coraz bardziej zaawansowanym kamerom filmowym. Drony wykorzystuje się do realizacji nie tylko spokojnych i powolnych ujęć, ale także do tych bardziej dynamicznych i skomplikowanych (tzw. racery).

Rozbudowane platformy latające z gimbalami umożliwiającymi ruch w wielu płaszczyznach, pozwalają na realizację zdjęć w nawet najbardziej wymagających lokalizacjach.

Przyssawka

źródło: www.haguecamerasupports.com

Aby zamocować kamerę do samochodu często korzysta się z przyssawki. Co ciekawe – rozwiązanie to znajduje zastosowanie nie tylko w przypadku lekkich aparatów, ale też cięższych, profesjonalnych kamer. Kluczową rolę odgrywa tu jakość oraz ilość przyssawek, które tworzą nieraz cały stelaż zamontowany do karoserii.

Korzystając z tego rozwiązania warto mimo wszystko zadbać o dodatkowe zabezpieczenie sprzętu w postaci np. linek i taśm połączonych z nadwoziem, niezależnie od przyssawek.

Stabilizacja wbudowana oraz postprodukcja

Pisząc o stabilizacji obrazu w filmie nie sposób nie wspomnieć o takich aspektach jak stabilizacja wbudowana oraz stabilizacja na etapie postprodukcji.

W przypadku tej pierwszej – producenci sprzętu video coraz częściej implementują do swoich aparatów oraz kamer oprogramowanie oraz hardware, które umożliwia stabilizację obrazu już w kamerze. Chodzi tu głównie o upłynnienie ujęć nagrywanych bezpośrednio “z ręki” oraz wyeliminowanie mikro-drgań w trakcie pracy na różnych stabilizatorach.

Programy montażowe także posiadają możliwość cyfrowej stabilizacji nagranych już materiałów. Skuteczność takich wtyczek zależy m.in. od stopnia drgań materiału, płaszczyzn, w których kamera się poruszała oraz jakości samego nagrania.  


Teraz stabilizacja obrazu w filmie nie ma przed Tobą tajemnic! Czy ten artykuł był dla Ciebie w jakiś sposób przydatny? Podziel się swoją opinią w komentarzu poniżej! Zapraszam Cię serdecznie na mój profil na facebooku, abyś mógł być zawsze na bieżąco z publikacjami nowych artykułów na tym blogu!

Zobacz także: