Generic selectors
Exact matches only
Search in title
Search in content
Search in posts
Search in pages
">
Film i fotografia, Wszystkie wpisy

Co wpływa na jakość video?
Czas czytania: 6 minut

Czym jest bitrate? Co to jest głębia bitowa? Czy 8 bit, a 10 to już duża różnica? Czym jest chroma subsampling? Obraz z przeplotem, czy progresywny? Zobacz jakie jeszcze parametry wpływają na jakość video!

Oglądając różne filmy – głównie w internecie, jesteśmy w stanie rozróżnić te, które są nagrane w lepszej lub gorszej jakości. Zadanie jest ułatwione, gdy dodatkowo mamy jakiś punkt odniesienia – na przykład inne video. Co składa się na tą jakość?

W pierwszej kolejności prawdopodobnie intuicyjnie stwierdzisz, że kluczowa jest rozdzielczość. I masz rację, chociaż jest to jeden w wielu parametrów, który odgrywa istotną rolę w odbiorze nagranego materiału. Jeśli jeszcze nie czytałeś, to serdecznie zapraszam Cię do artykułu “Rozdzielczości nagrywania filmów”, który szerzej i dokładniej opisuje to zagadnienie.

1. Rozdzielczość

Im wyższa rozdzielczość nagrywanego filmu, tym więcej pikseli w poziomie oraz w pionie składa się na cały obraz. Zaletą nagrywania w wysokich rozdzielczościach takich jak np. 4K, 6K czy 8K jest fakt, iż taki obraz można bez straty na jakości cropować (potocznie przybliżać) i stabilizować przy późniejszym renderze do niższych rozdzielczości. W przypadku  4K jest to, aż 200% bezstratne przybliżenie w renderze do Full HD 1080p.

Zeskalowany obraz, czyli taki, który został nagrany w wyższej rozdzielczości a wyrenderowany do niższej, jest bardziej ostry ze względu na większą gęstość pikseli. A zatem (pomijając na chwilę pozostałe parametry) można przyjąć, że obraz w rozdzielczości 4K wyrenderowany do Full HD będzie miał lepszą jakość video od obrazu nagranego od razu w Full HD. Zabieg ten nazywany jest downscalingiem

2. Bitrate


Bitrate, a w języku polskim przepływność, to parametr mówiący o tym ile danych może zostać zapisanych przez aparat lub kamerę w ciągu sekundy. Intuicyjnie – im wyższa ilość danych rejestrowanych w tym czasie (tzw. średnia prędkość bitowa), tym wyższa jakość obrazu. Przepływność podawana jest najczęściej w megabitach na sekundę oznaczanych Mb/s.

Wykorzystywany przez kamerę bitrate wiąże się także z wagą nagrywanego materiału. Im wyżej ustawiona przepływność – tym mniej materiału zmieści się na tym samym nośniku (dysku lub karcie pamięci). Bitrate to ważny parametr wpływający na jakość video. Obraz zarejestrowany kamerą A w rozdzielczości 4K i bitrate 500Mb/s będzie lepszej jakości od nagrania z kamery B przy tej samej rozdzielczości, framerate i kodeku, ale przy bitrate 120Mb/s.

3. Głębia bitowa

Matryca aparatu lub kamery składa się z wielu światłoczułych elementów – pikseli, które zbierają informacje o występujących kolorach oraz ich intensywności w rejestrowanym obrazie. Mówiąc prostym językiem – im większą głębie bitową posiada nasz sprzęt – tym więcej kolorów jest w stanie rozróżnić i zapisać. Więcej informacji o kolorach to większe możliwości w postprodukcji filmu podczas korekcji kolorów oraz color gradingu. 

Popularne głębie bitowe w dzisiejszych kamerach oraz aparatach wynoszą 8bit, 10bit czy 12bit. Na pierwszy rzut oka może sie wydawać, że różnica jest znikoma. Jak mawiał klasyk – nic bardziej mylnego! Za pomocą 8bitowej skali matryca potrafi zapisać 2 do potęgi 8 kolorów czyli ponad 16 mln. Przy skali 10bitowej jest to 2 do potęgi 10, co daje nam już ponad 1 miliard kolorów. Dla 12 bitów tych rozróżnianych kolorów jest już 68 miliardów!

Jednym słowem – im więcej bitów w głębi bitowej aparatu lub kamery, tym większe możliwości przy kolorowaniu materiału. Filmy nagrane w 10 czy 12 bitach dają niesamowite, a czasem niemal nieograniczone możliwości postprodukcyjne, dla których jedynym hamulcem jest wyobraźnia kolorysty.

4. Obraz progresywny lub z przeplotem

źródło: www.pavtube.com

O różnicach pomiędzy obrazem progresywnym, a z przeplotem możesz przeczytać więcej we wcześniej wspomnianym artykule o rozdzielczościach. To, co warto zapamiętać to fakt, że nagrywanie z przeplotem (interlaced) nie ma konkretnego uzasadnienia w dzisiejszych czasach. Jest to stara technologia służąca w erze kineskopowych odbiorników telewizyjnych. Jeśli tylko to możliwe – nagrywaj zawsze w trybie progressive, czyli bez przeplotu.

Kompresja ALL-I oraz IPB

źródło: www.canon.com.hk

W sprzęcie od Canona istnieje do wyboru opcja nagrywania w trybie ALL-I lub IPB. Nie chodzi tu dokładnie o przeplot, ale można przyjąć, że pierwszy tryb jest odpowiednikiem nagrywania progresywnego, a drugi – interlaced. Przy kompresji ALL-I każda klatka jest traktowana jako oddzielny, pojedynczy obraz – spójrz na grafikę powyżej. Natomiast w trybie IPB, procesor potocznie mówiąc wykrywa i przewiduje różnice pomiędzy klatkami. Przykładowo: w trakcie statycznego wywiadu na jednolitym tle, otoczenie pozostaje w kadrze niezmienne, a tylko wypowiadająca osoba się porusza. 

źródło: www.canon.com.hk

Nagrywanie w trybie IPB wiąże się z bardzo dużą kompresją materiału, a co za tym idzie – małą ilością informacji, pociągającą za sobą słabą jakość nagrania. Jeśli jednak nie zależy Ci na jakości, to zaletą kompresji IPB jest znacznie mniejsza waga plików (około 3 krotnie) w porównaniu do opcji ALL-I.

5. Subsampling

Pojęcie chroma subsampling nie mówi za wiele. Jego polskie tłumaczenie – podpróbkowanie chrominancji też może przyprawić o zawrót głowy. Przyjrzyjmy się temu zatem z prostej i użytkowej strony.

Jak już wiesz – sygnał cyfrowy zawiera mnóstwo danych i informacji, które zajmują określoną ilość miejsca i potrzebują pewnej ilości czasu na transmisję. Im większa rozdzielczość, bitrate i głębia bitowa – tym więcej informacji do przetworzenia. Aby nieco zmniejszyć rozmiar plików i skrócić czas ich przesyłania stosuje się kompresję obrazu. Jedną z metod takiej kompresji jest właśnie podpróbkowanie kolorów.

Używanie subsamplingu to takie sprytne oszukiwanie biologii człowieka, wykorzystujące fakt, iż ludzki wzrok wykazuje większą wrażliwość na jasność (luminancję), niż kolor (chrominancję). A zatem można “zaoszczędzić” trochę danych na kolorach, których i tak specjalnie nie odróżnimy. Człowiek posiada w oku dużo więcej pręcików analizujących jasność, niż czopków odpowiedzialnych za rozróżnianie barw. Dowód? W nocy trudniej rozpoznawać nam kolory, niż w ciągu dnia.  

Trzy cyfry oddzielone dwukropkami informują o sposobie próbkowania chrominancji. Pierwsza cyfra (najczęściej 4) to ilość próbek luminancji, do których odnosimy wartości chrominancji. Druga cyfra to liczba próbek chrominancji w pierwszym rzędzie obszaru próbkowania. A trzecia cyfra dotyczy drugiego rzędu. Intuicyjnie można zauważyć, że najwięcej informacji posiada próbkowanie 4:4:4. Takie kodowanie wykorzystywane jest w kosztownych kamerach wysokiej klasy.

Najczęściej stosowane podpróbkowanie 4:2:2 zapewnia dobrą jakość, ale mniejszą szczegółowość od poprzednika. Górny rząd w obszarze próbkowania zawiera 2 razy mniej informacji o kolorze niż o jasności. W próbkowaniu 4:2:0 jak możesz zauważyć na grafice – dolny rząd w ogóle nie ma informacji o kolorze, a jedynie “dziedziczy” informację z rzędu wyżej. Takie próbkowanie używane jest np. w programach telewizyjnych czy filmach na DVD, Blu-Ray.

6. Kodek i format

Kolejnym elementem wpływającym na jakość video jest używany kodek (od słów koder – dekoder).  Najpopularniejszym używanym powszechnie kodekiem video jest H.264. Jest on wykorzystywany w internecie (np. na YouTube), urządzeniach Blu-ray, nadawaniu obrazu w jakości HD, kamerach cyfrowych czy urządzeniach mobilnych. Inne, nieco mniej znane kodeki to na przykład AVCHD, MPEG-2 czy Apple ProResHQ.

Kodeki posiadają swoje opakowania, tzw. kontenery, którymi są formaty plików – czyli rozszerzenia. Najpopularniejszymi formatami video są m.in. MP4, MOV, WMV oraz AVI. O kodekach oraz różnicach pomiędzy poszczególnymi formatami video przeczytasz więcej w osobnym artykule, gdyż jest to temat warty szczególnego rozwinięcia.

7. Czystość obiektywu oraz matrycy

Wymieniając składniki wpływające na jakość video, nie sposób pominąć takiego elementu jak czysty obiektyw oraz matryca. Wszelkie paprochy, drobinki kurzu, piasku i inne zanieczyszczenia znajdujące się na drodze światła do matrycy wpływają negatywnie na jakość nagrywanych ujęć oraz wykonywanych zdjęć.

Z pomocą utrzymania tych elementów w czystości przychodzą ściereczki, bibułki, szpatułki do czyszczenia soczewek, specjalne płyny do matryc i tym podobne akcesoria. Warto regularnie dbać o higienę sprzętu foto-video, bo tak jak w przypadku ludzi – lepiej zapobiegać, niż później leczyć.


Czy ten artykuł był dla Ciebie pomocny? Podziel się swoją opinią w komentarzu poniżej! Serdecznie zapraszam Cię do polubienia mojego profilu na facebooku, aby być zawsze na bieżąco! 

Zobacz także:

Film i fotografia, Wszystkie wpisy

Co to jest filtr ND? Dlaczego warto go używać?
Czas czytania: 4 minut

Co to jest filtr ND i do czego służy? Jakie wyróżniamy rodzaje filtrów szarych? Czy warto oszczędzać na zakupie takiego filtra? Dowiedz się co oznaczają cyfry umieszczone na nich!

Co to jest filtr ND i do czego służy?

Nazwa „filtr ND” wzięła się z języka angielskiego od słów neutral density, oznaczających neutralną gęstość. Wymiennie można również stosować nazwę filtr szary. Jest to przydatne akcesorium, które znajduje zastosowanie zarówno w filmie, jak i w fotografii. Filtr ND pozwala zmniejszyć ilość światła wpadającego przez obiektyw na matrycę kamery lub aparatu.

Mówiąc prostym językiem – filtra szarego użyjemy tam, gdzie mamy za dużo światła. Dzięki filtrowi ND nie będziemy musieli domykać przesłony obiektywu, a co za tym idzie – w jasnych warunkach oświetleniowych zachowamy rozmyte tło za filmowanym lub fotografowanym obiektem.

 

Dzięki wykorzystaniu filtra ND przy robieniu zdjęć, możliwe jest ustawianie w aparacie długich czasów naświetlania, a co za tym idzie – uzyskanie w fotografii krajobrazowej np. efektu gładkiej powierzchni wody oraz rozmytych chmur.

Rodzaje filtrów ND

Filtry ND można stosować także w przypadku kamerek sportowych oraz dronów

Filtry ND najczęściej występują w dwóch kształtach – okrągłym oraz prostokątnym. Te pierwsze nakręca się bezpośrednio na obiektyw, te drugie – zazwyczaj mocuje przed nim w specjalnej ramce. Warto także wspomnieć, że filtry szare mogą być już wbudowane w korpus kamery, pomiędzy matrycą, a obiektywem.

Takie rozwiązanie spotkamy np. w Canonie C200 lub Sony FS5 II. W tej drugiej kamerze dodatkowo jest to elektroniczny filtr ND o zmiennej gęstości optycznej, co oznacza, że jego zmiana jest płynna, a nie jak w przypadku starszej technologii – skokowa.

Jest jeszcze trzecia możliwość. Filtr szary może być wbudowany w adapter łączący obiektyw z korpusem kamery lub aparatu.

ZOBACZ TAKŻE: “Słowniczek terminów filmowych”

Filtry ND można podzielić także na stałe oraz zmienne (tzw. fadery). Jak zapewne możesz się już domyślić – te pierwsze posiadają stałą wartość (gęstość), a w tych drugich możliwa jest regulacja. Zaletą filtrów stałych jest świetna jakość obrazu i brak powstawania przebarwień oraz innych skaz na rejestrowanym materiale. Podstawowa wada nasuwa się sama – trzeba kupić kilka filtrów o różnej gęstości i wymieniać je w zależności od warunków oświetleniowych.

Zmienne filtry ND to duża wygoda i komfort użytkowania, ale nie są pozbawione wad. Na pewnych wartościach generują one niepożądaną winietę lub ciemny znak przypominający literę X w środku kadru. Przed zakupem warto zwrócić uwagę na jakość wykonania takiego filtra i poszukać opinii innych użytkowników.

Filtr połówkowy

Filtry szare połówkowe wykorzystywane są najczęściej w fotografii krajobrazowej. Są to inaczej zwane filtry ze zmienną gradacją szarości. Mówiąc prostym językiem – nie przyciemniają one całej powierzchni kadru, a jej część, na przykład połowę (stąd wzięła się ich nazwa), lub 2/3 wysokości kadru.

Przydają się one przy fotografowaniu nierównomiernie oświetlonej przestrzeni, z którą mogłaby sobie nie poradzić matryca aparatu o słabej rozpiętości tonalnej. Na przykład, gdy u góry kadru znajduje się bardzo jasne niebo, a u dołu zaciemnione skały lub góry. W zależności od modelu filtra połówkowego – miejsce gradacji może być stałe (np. w połowie kadru) lub regulowane.

Jak oznaczane są filtry ND?

Na filtrach szarych najczęściej spotkamy oznaczenie liczbowe np. “ND 2”. W tym konkretnym przypadku oznacza to, że dzięki użyciu filtra ND 2 zredukujemy ilość światła wpadającego przez obiektyw na matrycę o połowę. Następny filtr – ND 4 przepuści znów o połowę mniej światła od filtru ND 2, czyli 25% światła zastanego itd. Można więc zauważyć, że cyfra w oznaczeniu rośnie wykładniczo – tak samo jak gęstość filtra – ND 2, ND 4, ND 16, ND 32 itd. 

ZOBACZ TAKŻE: “Rodzaje obiektywów – podstawowe informacje”

W przypadku fotografii istotny będzie czas naświetlania zdjęć, gdy korzystamy z filtrów szarych. Załóżmy, że do wykonania poprawnie naświetlonego zdjęcia, bez żadnego filtra, ustawienie czasu wynosi 1/250. Jeśli założymy filtr ND 2 i nie będziemy zmieniać pozostałych parametrów, powinniśmy ustawić czas dwukrotnie dłuższy tj. 1/125, aby uzyskać identycznie naświetloną fotografię. Z filtrem ND 4 czas naświetlania zdjęcia wydłuży się czterokrotnie. W przypadku filtru ND 32 – czas wydłuży się 32 razy itd.

Czy warto korzystać z filtrów ND?

Zdecydowanie tak! Dobry zmienny filtr ND lub zestaw filtrów stałych to obowiązkowe wyposażenie każdego filmmakera. I tu jeszcze warto wspomnieć o pierścieniach redukcyjnych. Umożliwiają one zamontowanie tego samego filtra na różnej wielkości obiektywach. Jeśli nie chcesz przepłacać, a posiadasz kilka szkieł – rozważ zakup filtra ND o średnicy największego z nich, a do pozostałych dokup pierścienie redukcyjne.

Na jakości samych filtrów ND nie warto oszczędzać. Tanie rozwiązania najczęściej powodują winiety, miejscowe defekty lub przebarwienia nagrywanego materiału (najczęściej zielone lub czerwone). 


Czy ten artykuł Ci pomógł? Czy czegoś w nim zabrało? A może chciałbyś się podzielić swoimi spostrzeżeniami? Koniecznie daj znać w komentarzu poniżej! Zapraszam Cię także na mojego facebooka, aby być na bieżąco z nowymi artykułami na tym blogu! 

Zobacz także:

Film i fotografia, Wszystkie wpisy

Rozdzielczości nagrywania filmów
Czas czytania: 5 minut

Czym jest rozdzielczość? Co jest aspect ratio? Full HD czy 4K – która opcja lepsza i dlaczego? Czym jest downscaling? Co oznacza zapis 1080p, a co 1080i? Poznaj wszystkie najpopularniejsze rozdzielczości nagrywania filmów!

Ze słowem “rozdzielczość” zetknął się chyba każdy. To, co warto zaznaczyć na samym wstępie, to fakt, że za wyższą rozdzielczością nie zawsze idzie wyższa jakość. Jest to jeden z parametrów, który na nią wpływa, ale nie jedyny. Za jakością nagrywanych filmów stoją również m.in.: bitrate, ilość bitów w palecie kolorów, subsampling oraz kodek. O tych aspektach przeczytasz jednak w oddzielnym artykule. 

Co to jest piksel?

Żeby lepiej zrozumieć zagadnienie rozdzielczości – zacznijmy od samych podstaw. Obraz wyświetlany na ekranie monitorów składa się malutkich cząsteczek zwanych pikselami. Piksel nie ma ściśle standaryzowanego rozmiaru ani kształtu. Przyjmuje on jednak najczęściej formę kwadratu lub prostokąta, rzadziej trójkąta. 

A zatem widziany z daleka obraz to nic innego jak ogromny zbiór wielu nagromadzonych pikseli. Każdy pojedynczy piksel składa się najczęściej z 3 jeszcze mniejszych fragmentów (tzw. subpikseli), z których każdy emituje światło o innej barwie – czerwonej, zielonej lub niebieskiej. Kolor pojedynczego piksela jest więc wypadkową składowych subpikseli.

ZOBACZ TAKŻE: “Stabilizacja obrazu w filmie”

Co to jest rozdzielczość?

Wyświetlany na monitorze obraz skomponowany jest ze skończonej liczby pikseli. Rozdzielczość to parametr mówiący o tym ile pikseli w poziomie, a ile w pionie składa się na cały obraz. Podawana jest w postaci dwóch cyfr rozdzielonych znakiem “x” np. 1920 x 1080, co w tym przypadku oznacza 1920 pionowych linii pikseli oraz 1080 poziomych.

Dla ułatwienia, oprócz zapisu cyfrowego, rozdzielczości posiadają swoje nazwy. I tak rozdzielczość 1280 x 720 pikseli nazywana jest HD (od słów high-definition), a wymiary 1920 x 1080 to inaczej Full HD. Słynna rozdzielczość o nazwie ogólnej 4K ma wiele odmian. Najpopularniejszą z nich jest 4K dla formatu telewizyjnego 16:9, zwana również Ultra HD, o wymiarach 3840 x 2160. Mniej popularną (z nazwy) jest rozdzielczość QHD lub inaczej Quad HD o wymiarach 2560 x 1440 pikseli.

Litera “K” w nazwach rozdzielczości np. 4K, 6K, 8K, wzięła się od słowa kilo, które oznacza tysiąc. Cyfra poprzedzająca K związana jest z dłuższą przekątną obrazu. A zatem obraz o wymiarach 6144 x 3456 pikseli nazwiemy 6K, a taki o wymiarach 8192 x 4608 to 8K. 

Czym jest aspect ratio?

Aspect ratio, czyli po polsku format obrazu, to inaczej iloraz długości do wysokości obrazu, wyrażony w postaci dwóch liczb rozdzielonych dwukropkiem, który czytamy jako „na”. A zatem 16:9 czytamy szesnaście na dziewięć i jest to jeden z najpopularniejszych formatów. Jest on powszechnie wykorzystywany w telewizji oraz internecie. Format 16:9 wyrażony w pikselach to właśnie Full HD (1920 x 1080) oraz 4K (3840 x 2160).

Coraz bardziej popularne w social mediach stają się również video w pionie (wertykalne). Mają one odwrócone proporcje, czyli 9:16. Popularnym w przeszłości aspect ratio było 4:3. Zbliżony do kwadratu format wynikał z ówczesnych ograniczeń technologicznych. Będąc w kinie przywykliśmy do szerszego obrazu, bardziej panoramicznego. A to za sprawą stosowanego tam formatu 2,39:1 (oraz m.in. 1,85:1).

Co to znaczy, że obraz jest z przeplotem?

Może spotkałeś się kiedyś z zapisem „1080p” oraz „1080i”? Literka „p”  jest skrótem od słowa progressive, co oznacza obraz progresywny – bez przeplotu. Oznaczenie „i” pochodzi od interlaced, czyli obrazu z przeplotem. Czym jest przeplot? W uproszczeniu chodzi o to, że w jednej, pojedynczej klatce obrazu są dwa pola – jedno składające się z linii parzystych, a drugie nieparzystych i wyświetlane są na zmianę. W przypadku obrazu progresywnego takiego zabiegu nie ma, w danym momencie wyświetlany jest cały obraz. 

Obraz z przeplotem wymaga mniejszej szerokości pasma, co jest istotne w przypadku telewizji, jednak obraz jest zauważalnie gorszej jakości. Zwłaszcza na ujęciach w ruchu można dostrzec artefakty, rozmycia i nieostrości względem obrazu tej samej rozdzielczości, ale bez przeplotu. Dlatego paradoksalnie obraz w rozdzielczość 1080i jest słabszej jakości od obrazu o rozdzielczości 720p. Progresywny obraz 720p zawiera więcej detali i mniej artefaktów od obrazu FullHD z przeplotem. 

ZOBACZ TAKŻE: “Rodzaje planów, kadrowanie, trójpodział i złoty podział”

Downscaling i upscaling

Mówiąc o rozdzielczościach, warto wspomnieć o downscalingu oraz upscalingu. Jak pewnie się domyślasz – pojęcia te związane są ze skalowaniem obrazu. Downscaling to skalowanie w dół, a upscaling – w górę. Po co nagrywać film w 4K, a renderować go do FullHD? Powodów jest conajmniej kilka:

  • obraz 4K zeskalowany do 1080p jest bardziej ostry ze względu na większą gęstość pikseli
  • obraz 4K można bezstratnie stabilizować i kropować (przybliżać) nawet o 200% bez straty jakości przy renderze do 1080p
  • po downscalingu pliki zajmują mniej miejsca na dysku i są łatwiejsze w edycji

Upscaling czyli nagrywanie w niższej rozdzielczości i renderowanie filmu do wyższej, często wiąże się z utratą jakości. Tu warto powtórnie zaznaczyć, że nie tylko “rozszerzanie” rozdzielczości ma wpływ na jakość obrazu, ale i bitrate nagrania, ilość bitów w palecie kolorów, subsampling czy użyty kodek video.

Dlatego też może okazać się, że ujęcie w bardzo dużym bitracie wyrenderowane do wyższej rozdzielczości ma lepszą jakość od nagrania już w tej docelowo-wyższej rozdzielczości, ale przy pozostałych słabych parametrach.

ZOBACZ TAKŻE: “Rodzaje obiektywów – podstawowe informacje”

Rozdzielczości oraz proporcje obrazu na YouTube

Platforma YouTube umożliwia dodawanie filmów w różnych rozdzielczościach. Standardowym współczynnikiem proporcji filmów na YouTube odtwarzanych na komputerze jest popularne 16:9. W przypadku innych proporcji, np. 4:3 lub pionowych filmów 9:16 odtwarzanych na komputerach, YouTube może automatycznie dodać białe (lub w motywie ciemnym – ciemnoszare) wypełnienie obrazu od boków lub u góry i dołu.

Dla domyślnego aspect ratio 16:9, YouTube zaleca renderować filmy w poniższych rozdzielczościach: 

  • 240p: 426 x 240 pikseli
  • 360p: 640 x 360 pikseli
  • 480p: 854 x 480 pikseli
  • 720p: 1280 x 720 pikseli
  • 1080p: 1920 x 1080 pikseli
  • 1440p: 2560 x 1440 pikseli
  • 2160p: 3840 x 2160 pikseli


Czy ten artykuł był dla Ciebie przydatny? Koniecznie podziel się swoją opinią w komentarzu poniżej! Zapraszam Cię do obserwowania mojego profilu na facebooku, aby nie przegapić publikacji nowych artykułów!

Zobacz także:

Film i fotografia, Wszystkie wpisy

Słowniczek terminów filmowych
Czas czytania: 7 minut

Czym różni się kadr od ujęcia? Czym jest kaszeta? Do czego służy butterfly? Co to jest blooper? Poznaj słowniczek terminów filmowych, czyli popularnych słów, z którymi możesz się zetknąć na planie oraz na etapie postprodukcji video.

Branża filmowa, jak każda, posiada swój specyficzny język. Przyjrzyjmy się różnym nazwom oraz terminom, które wykorzystywane są często na planach zdjęciowych. Warto zaznaczyć, że duża część słownictwa została zapożyczona z języka angielskiego.

Słowniczek terminów filmowych

kadr – to inaczej pole widzenia aparatu lub kamery. Jego wielkość uzależniona jest od rodzaju matrycy lub wymiarów naświetlanego materiału światłoczułego. Jeśli coś znajduje się w polu widzenia kamery, to mówimy, że “jest w kadrze“. 

ujęcie (shot) – to pojedynczy zarejestrowany materiał filmowy, od momentu włączenia nagrywania, do chwili jego zatrzymania. Jest to podstawowy element filmu.

cięcie (cut) ma dwa znaczenia. Po pierwsze, jest to zakończenie ujęcia. Cięciem nazywa się też gwałtowne przejście z jednego ujęcia do drugiego.

jump cut – czyli cięcie skokowe, to zabieg montażowy, który polega na pocięciu jednego długiego ujęcia na wiele krótszych. Najczęściej, dla lepszego efektu, kamera nagrywająca ujęcie pozostaje nieruchoma, a obiekty w kadrze zmieniają swoje położenie. Jump cuty często stosuje się np. w teledyskach.

przebitki (b-rolle) – to dodatkowe ujęcia, które wykorzystywane są w montażu do przykrywania głównego materiału (a-rolla), najczęściej wywiadu. Określenie a-roll wyszedł z użycia, natomiast b-roll dobrze przyjął się w branży filmowej. Jego polska nazwa to po prostu przebitka. B-rolle służą urozmaiceniu materiału, pojawiają się w trakcie wywiadu, często nawiązują do poruszanego w rozmowie tematu.

czołówka – to początkowa część filmu, w której pojawia się tytuł produkcji, imię oraz nazwisko reżysera, scenarzystów, głównego operatora, aktorów pierwszoplanowych itd. Czołówka zazwyczaj posiada swój podkład muzyczny. Z kolei na końcu filmu pojawia się tzw. tyłówka zawierająca więcej informacji o twórcach produkcji.

ujęcie wprowadzające (establishing shot) – jest to ujęcie, które często pojawia się pomiędzy scenami i służy przedstawieniu widzowi w jakim miejscu i czasach rozgrywa się dana akcja.

PRZECZYTAJ WIĘCEJ: “Rodzaje planów, kadrowanie, trójpodział i złoty podział”

źrodło: filmcloud

kaszeta – w języku potocznym są to czarne pasy od góry i dołu, dzięki którym obraz ma sprawiać wrażenie panoramicznego. Kaszety stosuje się w celu uzyskania tzw. film looku (wyglądu obrazu znanego z kina).

klatkarz (framerate) – jest to po prostu ilość klatek na sekundę, które rejestruje aparat lub kamera. Dla kamer realizujących produkcje kinowe są to często 24 klatki na sekundę. Inne bardzo popularne klatkarze to 25 oraz 30 klatek na sekundę. Więcej o framerate przeczytasz w oddzielnym artykule.

off lub inaczej dźwięk z offu – to słyszany w trakcie filmu głos spoza kadru, najczęściej nagrany osobno w studiu. Z offu często korzysta się np. w reklamach, gdy słychać głos aktorka/aktorki, a w międzyczasie na ekranie pojawiają się przebitki z różnych miejsc i wydarzeń. 

postsynchrony – tak nazywa się nagrany w studiu dźwięk, zsynchronizowany z wcześniej nagranym obrazem. Realizacja postsynchronów wygląda często tak, że aktorzy oglądają zmontowane już fragmenty filmu i “na żywo” dogrywają do nich swój głos oraz np. odgłosy walki. Następnie montażysta wpasowuje nagrany dźwięk w film.

voice-over – to inaczej głos lektora w filmie lub reklamie. Co ciekawe, Polska jest jednym z niewielu krajów na świecie (obok krajów byłego Związku Radzieckiego), w którym stosuje się tzw. szeptankę, czyli nałożenie głosu lektora na oryginalną ścieżkę dźwiękową filmu. W niemal wszystkich państwach używane są napisy lub dubbing.

lokacja – w slangu filmowym jest to lokalizacja, w której powstają nagrania do filmu. Poszukiwanie lokacji na etapie preprodukcji filmu lub reklamy nazywane jest scoutingiem, a osobą odpowiedzialną za znajdowanie takich miejsc oraz ich zabezpieczanie na czas nagrań jest location manager

making of lub BTS (od behind the scenes) to dodatkowy materiał filmowy przedstawiający kulisy powstawania danej produkcji. Making of często składa się z wywiadów z reżyserem, scenarzystami, producentami oraz obsadą aktorską. BTS wykorzystywany jest zazwyczaj jako osobny, “ekskluzywny” materiał promocyjny filmu w telewizji lub internecie.

Słowniczek terminów filmowych

wrap – to jeden z najbardziej wyczekiwanych momentów w czasie produkcji filmu. Reżyser obwieszcza na planie “It’s a wrap!”, oznacza to zakończenie zdjęć. Film trafia do montażu i postprodukcji. Czasem odbywa się tzw. wrap party, czyli impreza dla ekipy filmowej i obsady z okazji zakończenia nagrań.

blooper to po prostu wpadka popełniona przez obsadę lub ekipę filmową w trakcie nagrywania sceny. Najczęstszym blooperem jest pomylenie lub zapomnienie przez aktorów tekstu. Potknięcia trafiają się zarówno w filmie, radiu jak i telewizji – szczególnie w programach na żywo.

ZOBACZ TAKŻE: “Występowanie przed kamerą – jak dobrze to zrobić?”

scenopis jak sama nazwa sugeruje, zawiera dokładny opis realizowanych scen. Dokument ten tworzy się w oparciu o scenariusz produkcji. Scenopis zawiera precyzyjny opis każdego z ujęć, ruchy kamery, dialogi oraz zachowanie aktorów w trakcie przebiegu sceny. 

storyboard – czyli rysunkowa forma scenopisu. Ułatwia pracę reżyserowi, scenarzystom, operatorowi kamery, aktorom oraz montażystom. Zawiera rozrysowane poszczególne ujęcia, często z zaznaczeniem ruchu aktorów oraz kamery. Obrazkowe scenopisy tworzy, w języku branży, storyboardzista.

fotosy tak nazywa się zdjęcia wykonane przez fotosistę podczas kręcenia scen do filmu. Fotosy służą m.in. do tworzenia plakatów reklamowych, materiałów promocyjnych, dokumentacji produkcji oraz po prostu jako pamiątka. 

blenda – to materiał odbijający światło, służący do doświetlenia fotografowanych lub nagrywanych osób oraz przedmiotów. Blenda może mieć różne rozmiary, kształty (owal, koło, prostokąt, trójkąt itd.) oraz kolory powierzchni odbijającej np. złota, srebna, biała.

butterfly – ma conajmniej 2 znaczenia. Po pierwsze jest to schemat oświetleniowy polegający na tym, że źródło światła ustawione jest bezpośrednio przed oraz nad fotografowanym obiektem lub postacią. W drugim znaczeniu butterfly to rodzaj modyfikatora światła. Składa się on z ramy oraz naciągniętego na nią materiału służącego do dyfuzji lub odbijania oświetlenia.

źródło: www.manfrotto.com

flaga – na zdjęciu powyżej, zwana także w slangu filmowców murzynem, stworzona z materiału nieprzepuszczającego światła. Służy do odcinania zbędnych promieni świetlnych. Ustawia się ją najczęściej na statywie, przy lampach lub oknach.

mattebox (kompendium) – to akcesorium montowane na końcu obiektywu kamery, widoczne na fotografii poniżej. Kompendium blokuje wpadające promienie świetlne powodujące różne odblaski i flary, a także posiada miejsce na mocowanie różnych filtrów.

deadcat – niewątpliwie brutalna nazwa dla osłony przeciwwietrznej na mikrofon. Deadcat wykonany jest ze sztucznego futra i stanowi dodatkową ochronę przed szumem i niepożądanymi dźwiękami powodowanymi przez silny wiatr.

follow focus – to mechanizm, za pomocą którego manualnie zmienia się ostrość na obiektywie. Osobą obsługującą follow focus na planie filmowym jest ostrzyciel (focus puller). Może on sterować ostrością bezpośrednio przy kamerze, lub w przypadku zestawów bezprzewodowych – na odległość, ze specjalnego pilota. 

szwenk w slangu filmowym jest to szybki i dynamiczny ruch kamery, najczęściej w bok, powodujący rozmycie obrazu. 

Słowniczek terminów filmowych

V-lock akumulator z mocowaniem w kształcie litery V (V-Mount). Jest to bardzo popularne złącze, które znajdziemy w wielu profesjonalnych kamerach, monitorach, lampach oraz innych akcesoriach filmowych.

renderowanie – w znaczeniu filmowym, jest to proces przeprowadzany przez oprogramowanie montażowe, w wyniku którego z sekwencji edytorskiej powstaje gotowy do obejrzenia film. 

green screen – to zielone tło, które można podmienić w postprodukcji na dowolny obraz. Innym często wykorzystywanym przy produkcji filmów kolorem jest niebieski (blue box). Dlaczego akurat te kolory? Ponieważ są one uważane za najbardziej różniące się od koloru skóry, a przy tym najrzadziej występujące w rekwizytach oraz kostiumach. 

kluczowanie (keying) – to termin związany z techniką green screen. Kluczowanie to inaczej proces postprodukcyjny wycinania obiektu z tła o jednolitej barwie.

DOP/DP – to skrócona nazwa głównego operatora kamery (z ang. Director of Photography).

gaffer – to osoba na planie filmowym, która zajmuje się ustawianiem światła oraz modyfikatorów. Gafferem określa się również głównego oświetlacza (w Polsce używa się także pojęcia Mistrza Oświetlenia), a osoby pracujące pod jego komendą – świetlikami lub oświetlaczami. 

VFX – z ang. visual effects. Są to wszystkie dodatkowe elementy wizualne filmu, najczęściej wygenerowane komputerowo na etapie postprodukcji. 

SFX – z ang. sound effects. To inaczej efekty dźwiękowe, często niezarejestrowane bezpośrednio w trakcie sceny, a dodane na etapie postprodukcji. Przykładowe SFX’y to strzał z pistoletu, szumiący wiatr, czy odgłosy walki.


Czy ten artykuł był dla Ciebie przydatny? A może znasz inne pojęcia, które mogłyby znaleźć się w tym słowniczku terminów filmowych? Daj koniecznie znać w komentarzu poniżej! Zapraszam Cię do polubienia mojego profilu na facebooku, aby być zawsze na bieżąco z nowymi publikacjami na blogu!


Zobacz także:

Film i fotografia, Wszystkie wpisy

Stabilizacja obrazu w filmie
Czas czytania: 8 minut

Poznaj wszystkie popularne i te mniej znane metody stabilizacji obrazu w filmie! Czym jest Easyrig? Czym różni się gimbal od flycama? Do czego służy Russian Arm? Kiedy warto wykorzystać cablecama? Stabilizacja obrazu w filmie – wszystkie najważniejsze informacje!

Historia stabilizacji obrazu jest tak stara jak sam film i narodziła się z początkiem kina. Wraz z rozwojem technologii i elektroniki, wciąż powiększa się dostępny wachlarz możliwości operatorskich. Co ciekawe – ciągle powstają nowe rozwiązania, które najczęściej są hybrydą tych wcześniej dostępnych.

Mówiąc o stabilizacji obrazu, mam tu na myśli każde rozwiązanie, które jest alternatywą dla trzymanej w dłoniach kamery bez jakiejkolwiek klatki, czy riga. Przyjrzyjmy się dostępnym możliwościom i zastanówmy do czego potencjalnie można wykorzystać konkretne rozwiązania!

Statyw – podstawowa stabilizacja obrazu

Trójnogi statyw to jedno z najstarszych i najprostszych urządzeń służących do stabilizacji obrazu. Tę niezawodną konstrukcję z teleskopowymi – rozkładanymi nogami z powodzeniem wykorzystuje się zarówno w małych jak i dużych, kinowych produkcjach. Za pomocą statywu możemy nagrać zarówno statyczne ujęcia jak i ruchome.

Obracając kamerę na głowicy statywu w lewo oraz prawo wykonujemy tzw. panoramę (ang. pan). Z tego ruchu korzysta się na przykład w trakcie śledzenia obiektu w kadrze. Oprócz tego możemy poruszać kamerą w płaszczyźnie pionowej góra-dół i jest to tzw. tilt. Tego ruchu używa się np. do pokazania wielkość budynku. Warto dodać, że na rynku dostępne są również statywy na kółkach, ale o jeździe kamery powiemy więcej nieco później.

Statyw elastyczny

źródło: www.techstage.de

Innym przykładem statywów są, popularne w ostatnim czasie, elastyczne trójnogi z gumowymi pierścieniami. Dzięki giętkiej konstrukcji oraz kulistej głowicy, możliwe jest zamocowanie na nich lekkich aparatów i kamer w różnych niestandardowych miejscach takich jak np. poręcze, słupy czy gałęzie.

ZOBACZ TAKŻE: “Jak zostać filmmakerem? – cz.1”

Monopod

źródło: photographyarticle.com

Monopod to najprostszy rodzaj statywu, który złożony jest jedynie z jednej rozkładanej nogi. Z powodzeniem znajduje on zastosowanie m.in. w dynamicznych ujęciach realizowanych na obiektywach z długą ogniskową. Podstawową zaletą monopodu jest jego waga i poręczność. Minusem może być fakt, że wymaga on stałego podtrzymywania jedną ręką.

Slider

Slider filmowy to zestaw, który składa się – w podstawowej wersji – z szyny, statywu oraz ruchomej płytki z mocowaniem na kamerę. Bardziej zaawansowane slidery posiadają programowalny napęd elektroniczny i mogą mieć dowolną, modulowaną, długość. Wykorzystuje się je do tworzenia płynnych ujęć w ruchu na małym dystansie.

W zależności od położenia kamery, może się ona przesuwać w bok lub do przodu i do tyłu. Ze sliderów często korzysta się przy realizacji ujęć w małej skali – na przykład nagrywając detale elementów leżących na biurku.

Jazda filmowa (Dolly)

źródło: www.premiumbeat.com

Jazda filmowa, zwana inaczej w żargonie filmowców Dolly pozwala na tworzenie płynnych ujęć na znacznym dystansie. Operator razem z kamerą siedzi na mobilnej platformie, wprawianej w ruch przez tzw. wózkarza filmowego po ustawionych torach.

Co istotne – szyny nie muszą tworzyć linii prostej, często na potrzeby ujęcia układa się je np. w półokrąg. Ujęcia z jazdy często towarzyszą scenom walki z uwagi na możliwość tworzenia m.in. płynnych ujęć w ruchu na długich ogniskowych.

Shoulder rig

Statyw naramienny (z ang. shoulder rig) służy do nagrywania ujęć z poziomu wzroku operatora. Często korzysta się z niego w filmach dokumentalnych oraz przy dynamicznych ujęciach np. w kinie akcji. Shoulder rig daje dużo swobody operatorskiej i pozwala na tworzenie kreatywnych kadrów. Minusem tego rozwiązania jest często spora waga sprzętu, który spoczywa na barkach filmowca.

Shoulder rig składa się z regulowanych uchwytów na dłonie połączonych dwiema równoległymi rurkami z podkładką naramienną. Do rurek tych przymocowany jest tzw. baseplate, który umożliwia montaż lustrzanki lub kamery. Oprócz tego można zamontować na nich m.in. matte boxa (kompendium), followfocus czy klatkę. O tych akcesoriach przeczytasz m.in. w artykule “Słownik terminów z planu filmowego”.

Gimbal

Gimbal to elektroniczny stabilizator obrazu, który umożliwia tworzenie bardzo płynnych ujęć. Wyposażony jest w silniki, żyroskop oraz różne czujniki wspomagające ruch kamery. Zadaniem całej elektroniki jest stabilizacja obrazu w jednej lub wielu osiach obrotu. Dzięki wykorzystaniu gimbala ruchy operatora kamery (np. w trakcie biegu po nierównym podłożu) są izolowane od nagrywanego obrazu.

Na rynku dostępnych jest bardzo dużo różnych rodzajów gimbali – od amatorskich, obsługujących telefony oraz kamerki sportowe, przez pół-profesjonalne – dla małych kamer oraz aparatów DSLR (ang. Digital Single Lens Reflex Camera), aż do profesjonalnych, które są w stanie obsłużyć duże i ciężkie kamery filmowe. Ale gimbal to nie wszystko – zobaczmy z czym często współpracuje na planie ten sprzęt!

Kran – wysięgnik kamerowy

źródło: www.filmandtvcranes.com

Kran to urządzenie, które służy do realizacji płynnych i nieraz skomplikowanych, długich ujęć. To rodzaj dźwigu z teleskopowo-rozkładanym ramieniem, które może być obsługiwane manualnie lub sterowane elektronicznie. W zależności od kranu – może on posiadać na swoim końcu mocowanie pod wcześniej wspomniany gimbal lub platformę, na której siedzi operator wraz z kamerą.

Kran może być zarówno statyczny (umiejscowiony), jak i mobilny – na powyższym przykładzie ze zdjęcia. Urządzenie to często znajduje zastosowanie np. w scenach z tłumem ludzi, dzięki czemu kamera może płynnie przesuwać się nad zgromadzeniem lub w scenach w wymagających lokalizacjach np. na dużych wysokościach, w jaskiniach, czy na wodzie.

Russian Arm

źródło: www.eurogrip.com

Russian Arm to system mocowania kamery wraz z gimbalem, na wysięgniku kamerowym umieszczonym na pojeździe. Urządzenie to jest zdalnie sterowane przez operatora kamery, który znajduje się wewnątrz samochodu. Russian Arm pozwala na wygodne i bezpieczne nagrywanie imponujących, płynnych i dynamicznych scen na ulicach oraz w terenie.

Cablecam

źródło: www.wikipedia.org

Cablecam służy do nagrywania płynnych ujęć na znacznej wysokości i sporych dystansach. Wykorzystuje się go nie tylko w filmach oraz reklamach, ale i realizacjach telewizyjnych np. w trakcie wydarzeń sportowych takich jak mecze piłki nożnej, czy skoki narciarskie. Cablecam najczęściej występuje w dwóch odmianach – z kablem stałym oraz ruchomym.

W systemie z kablem stałym lina przymocowana jest w dwóch punktach krańcowych, a głowica wraz z kamerą przesuwa się za pomocą silników wzdłuż kabla. W cablecamie z kablem ruchomym, liny przymocowane są do wyciągarek, które umożliwiają ruch gimbala z kamerą w wielu płaszczyznach – nie tylko w przód i tył, ale i na boki oraz w górę i w dół. Takie rozwiązanie znajduje zastosowanie np. na koncertach oraz przy powtórkach w trakcie meczów piłkarskich.

Easyrig – stabilizacja i odciążenie

Easyrig (nazwa własna producenta) to urządzenie, którego głównym zadaniem jest przeniesienie ciężaru kamery z ramienia na biodra, a co za tym idzie – umożliwienie operatorowi swobodnej pracy na sprzęcie o znacznej wadze. Ten stabilizator pomaga symulować ujęcia “z ręki”, nawet przy dużych gabarytach kamer. Mocna lina zamontowana do ramienia kamizelki jest w stanie udźwignąć sprzęt nawet do 25 kg. 

To rozwiązanie znajduje bardzo szerokie zastosowanie zarówno w świecie telewizji jak i filmu oraz reklamy. Co warto zaznaczyć, Easyrig umożliwia także podwieszenie profesjonalnych stabilizatorów takich jak np. Mōvi Pro czy DJI Ronin 2.

Origowany pojazd (Grip rigs)

Zdjęcie z planu filmowego filmu “Baby Driver” (2017)
źródło: www.reddit.com

Jeśli kiedykolwiek zastanawiałeś się jak powstają sceny wewnątrz pojazdów, to myślę, że powyższe zdjęcie z planu “Baby Drivera” trochę rozjaśnia temat. Kamery (a czasem również lampy) umieszczone są na stelażu stworzonym z metalowych rur i zacisków, który przymocowany jest do karoserii samochodu. Warto wspomnieć, że na dużych planach filmowych rigowane są nie tylko auta, ale także łodzie, helikoptery, czy nawet samoloty.

Ciekawostka – w tym konkretnym przypadku układ kierowniczy samochodu został przerobiony w taki sposób, że jego prawdziwy kierowca siedzi w koszu umieszczonym na dachu, a aktor wewnątrz pojazdu tylko udaje w trakcie sceny, że ma wpływ na kierunek jazdy.

Steadycam

Steadycam to system stabilizacji, który mechanicznie odizolowuje ruch kamery od jej operatora. Na zestaw składa się: kamizelka, ramię oraz teleskopowa rurka, na której jednym końcu znajduje się baseplate z kamerą, a drugim – przeciwwaga (najczęściej jest nią bateria wraz z monitorem i dodatkowymi odważnikami). 

Steadycam musi być każdorazowo przed użyciem wyważany statycznie oraz dynamicznie (w ruchu). Ten rodzaj stabilizacji obrazu szczególnie często wykorzystuje się w scenach chodzonych. Steadycam znajduje także zastosowanie m.in. w realizacjach teledysków oraz transmisji telewizyjnych.

Glide (flycam)

Glide, zwany czasem flycamem lub Glidecamem (nazwa własna producenta), to nic innego jak wcześniej wspomniany stabilizator, tyle że bez kamizelki oraz żadnej elektroniki wspomagającej. Zasada jego działania opiera się na przeciwwadze do ciężaru kamery. Po jednej stronie znajduje się aparat lub kamera, a po drugiej – odważniki. Glide również musi być odpowiednio wyważony statycznie oraz dynamicznie przed każdym użyciem.

Ten rodzaj stabilizatora świetnie sprawdza się przy nagrywaniu z wykorzystaniem np. aparatów DLSR oraz lżejszych kamer. Jego zaletą jest duża mobilność, brak potrzeby zasilania oraz stosunkowo mała waga własna. 

Dron

Rozwój technologii pozwala wzbić się w powietrze coraz bardziej zaawansowanym kamerom filmowym. Drony wykorzystuje się do realizacji nie tylko spokojnych i powolnych ujęć, ale także do tych bardziej dynamicznych i skomplikowanych (tzw. racery).

Rozbudowane platformy latające z gimbalami umożliwiającymi ruch w wielu płaszczyznach, pozwalają na realizację zdjęć w nawet najbardziej wymagających lokalizacjach.

Przyssawka

źródło: www.haguecamerasupports.com

Aby zamocować kamerę do samochodu często korzysta się z przyssawki. Co ciekawe – rozwiązanie to znajduje zastosowanie nie tylko w przypadku lekkich aparatów, ale też cięższych, profesjonalnych kamer. Kluczową rolę odgrywa tu jakość oraz ilość przyssawek, które tworzą nieraz cały stelaż zamontowany do karoserii.

Korzystając z tego rozwiązania warto mimo wszystko zadbać o dodatkowe zabezpieczenie sprzętu w postaci np. linek i taśm połączonych z nadwoziem, niezależnie od przyssawek.

Stabilizacja wbudowana oraz postprodukcja

Pisząc o stabilizacji obrazu w filmie nie sposób nie wspomnieć o takich aspektach jak stabilizacja wbudowana oraz stabilizacja na etapie postprodukcji.

W przypadku tej pierwszej – producenci sprzętu video coraz częściej implementują do swoich aparatów oraz kamer oprogramowanie oraz hardware, które umożliwia stabilizację obrazu już w kamerze. Chodzi tu głównie o upłynnienie ujęć nagrywanych bezpośrednio “z ręki” oraz wyeliminowanie mikro-drgań w trakcie pracy na różnych stabilizatorach.

Programy montażowe także posiadają możliwość cyfrowej stabilizacji nagranych już materiałów. Skuteczność takich wtyczek zależy m.in. od stopnia drgań materiału, płaszczyzn, w których kamera się poruszała oraz jakości samego nagrania.  


Teraz stabilizacja obrazu w filmie nie ma przed Tobą tajemnic! Czy ten artykuł był dla Ciebie w jakiś sposób przydatny? Podziel się swoją opinią w komentarzu poniżej! Zapraszam Cię serdecznie na mój profil na facebooku, abyś mógł być zawsze na bieżąco z publikacjami nowych artykułów na tym blogu!

Zobacz także:

Film i fotografia, Wszystkie wpisy

Rodzaje obiektywów – podstawowe informacje
Czas czytania: 6 minut

Jakie wyróżniamy rodzaje obiektywów? Czym jest ogniskowa? Co to znaczy, że obiektyw jest jasny? Do czego służy obiektyw “fish eye” i “tilt-shift”? Poznaj podstawowe informacje o obiektywach, które powinien znać każdy fotograf oraz twórca video!

Jeśli dopiero wkraczasz w świat filmu i fotografii – może Ci się wydawać to nieco dziwne, że jest tak dużo różnych rodzajów obiektywów. Nierzadko zdarza się, że kosztują one więcej od samego “body” aparatu.

Bez obiektywu nie powstanie żadne wyraźne zdjęcie, ani kadr filmu. To właśnie m.in. obiektyw determinuje to, w jaki sposób pokażemy scenę oraz ile szczegółów będzie w niej widocznych. Na cenę obiektywu wpływa wiele czynników:

  • producent
  • jakość wykonania
  • materiały wykorzystane do jego produkcji
  • jasność obiektywu (czyli najmniejsza możliwa wartość ustawienia przesłony, np. f 1.4)
  • budowa obiektywu – zastosowane technologie

Czym jest ogniskowa obiektywu?

 

Ogniskowa jest jednym z kluczowych parametrów określających obiektyw. Z technicznego punktu widzenia jest to, podana w milimetrach, odległość pomiędzy soczewką skupiającą światło a punktem skupienia promieni świetlnych padających z tej właśnie soczewki. Nazwa “ogniskowa” wzięła się od ogniska – pojęcia stosowanego w optyce, które oznacza punkt przecięcia się promieni świetlnych.

Wszystkie pojęcia na tym blogu staram się przedstawiać od strony praktycznej, dlatego z góry uprzedzam, że stosuję  pewne uproszenia, aby nie zagłębiać się w matematykę, optykę oraz fizykę. Spójrz na poniższą grafikę.

 

Możesz zauważyć, że ogniskowa ma związek z kątem widzeniaIm krótsza (mniejsza) ogniskowa – tym szerszy kąt widzenia. Zatem obiektyw o przykładowej ogniskowej 16mm, pozwoli na pokazanie w kadrze o wiele szerszego planu, niż np. obiektyw z ogniskową 300mm. 

Wyróżniamy obiektywy stałoogniskowe, żargonowo zwane “stałkami” (np. 50mm) oraz zmiennoogniskowe, tzw. zoomy (np. 70-200mm). W przypadku tych drugich, mówiąc potocznie, istnieje możliwość przybliżania oraz oddalania kadru, czyli zmieniania kąta widzenia z szerszego na węższy. W przypadku obiektywów stałoogniskowych takiej możliwości nie ma.

ZOBACZ TAKŻE: “Czym jest pełna klatka? Podstawy foto-video”

Co to znaczy, że obiektyw jest jasny?

Drugim, po ogniskowej, parametrem określającym obiektyw jest jego jasność. Wyrażana jest najczęściej w postaci litery “f” oraz cyfry (np. f 1.8). Im mniejsza wartość “f”, tym obiektyw jest jaśniejszy, to znaczy więcej światła może dostać się przez ten obiektyw na matrycę. Przykładowo obiektyw o jasności f 1.4 o wiele lepiej sprawdzi się w trudnych warunkach oświetleniowych np. w nocy, od obiektywu o maksymalnej jasności f. 5.6.

Z reguły im obiektyw jest jaśniejszy – tym droższy. Dlatego często do zestawu z aparatem producenci dołączają tańsze i gorszej jakości tzw. obiektywy kitowe (z ang. kit – zestaw), które cechują się mocno przeciętnym światłem np. f 3.5 .

Więcej o przesłonie i jasności obiektywu możesz przeczytać w artykule “Co to jest ekspozycja? Podstawy foto-video”, do którego serdecznie Cię zapraszam.

Rodzaje obiektywów – dlaczego jest ich sporo?

Na rynku obecnych jest dużo różnych rodzajów obiektywów – każdy typ ma swoje zgoła określone przeznaczenie. To jakiego z nich użyjesz, w dużym stopniu zależy od tego co zamierzasz fotografować lub nagrywać. Inny obiektyw wykorzystasz do zdjęć np. skoczków narciarskich w locie, czy piłkarzy grających na boisku, inny do fotografowania kropli rosy, a jeszcze inny do portretów. 

Obiektywy standardowe

Obiektywy standardowe posiadają najczęściej ogniskową w zakresie od 35 do 70mm. Spośród wszystkich rodzajów – obiektywy tej kategorii najbardziej odpowiadają w przybliżeniu sposobowi postrzegania przez oko człowieka. Podręcznikowym przykładem obiektywu standardowego jest stałoogniskowa Sigma A 50 mm F1.4 DG.

Obiektywy szerokokątne

To zdjęcie wykonano obiektywem szerokokątnym

Jak sama nazwa wskazuje, obiektywy te umożliwiają tworzenie szerokich kadrów. Szeroki kąt widzenia sprawdza się m.in. w fotografii krajobrazów, architektury czy w przypadku dynamicznych ujęć reporterskich. Obiektywy szerokokątne mają małe ogniskowe np. 10-20mm czy 8-15mm.

Wyróżniamy dwa rodzaje obiektywów szerokokątnych – takie, które nie zniekształcają obrazu (w profesjonalnym nazewnictwie rektalinearne) oraz fish-eye. Obiektywy typu rybie oko powodują beczkowate zakrzywienia na brzegach kadru. Są wykorzystywane np. w teledyskach czy fotografii krajobrazowej. Przykładowym obiektywem tego rodzaju jest Canon EF 8-15 mm f/4L Fisheye USM.

Obiektywy makro

Zdjęcie wykonane obiektywem makro

Obiektywy makro stosowane są tam, gdzie mamy do czynienia z bardzo małymi obiektami takimi jak np. krople wody, owady czy ziarna. Obiektywy te umożliwiają ostrzenie zdjęć z niewielkich odległości, najczęściej krótszych niż 30 cm. W makrofotografii najczęściej korzysta się z dużych wartości przesłon, na przykład 2.8, a zatem maksymalna jasność obiektywu nie jest aż tak ważna. 

W przypadku obiektywów makro szczególnie istotna jest tzw. skala odwzorowania, podawana za pomocą dwóch liczb np. 1:2. Oznacza to, że obiekt o rzeczywistej długości 4cm zostanie odwzorowany w aparacie jako dwukrotnie mniejszy – 2 centrymetrowy. Przy skali odwzorowania 5:1 ten sam obiekt będzie pięciokrotnie większy i tak dalej. Przykładowym obiektywem makro jest Canon EF 100mm f/2.8L Macro IS USM.

Teleobiektywy

Tak wygląda przykładowe zdjęcie wykonane za pomocą teleobiektywu

Możliwe, że będąc na jakimś wydarzeniu sportowym lub oglądając je w telewizji dostrzegłeś fotografów z olbrzymimi obiektywami. Są to tzw. teleobiektywy, ich ogniskowe rozpoczynają się od około 70mm i sięgają 200, 300, czy nawet 600mm i więcej! Wykorzystywane są na przykład w fotografii sportowej, reporterskiej czy dzikiej natury.

Warto zwrócić uwagę na fakt, że teleobiektywy można również wykorzystywać w fotografii portretowej (w umownym zakresie pomiędzy ok. 70mm – 135mm). Obiektywy te dobrze oddają proporcje ludzkiej sylwetki oraz twarzy. Przykładowym teleobiektywem jest Canon EF 70-200mm f/2.8 L IS III USM.

Obiektywy portretowe

W przypadku zdjęć portretowych bardzo często tło pozostaje rozmyte, skupiając tym samym uwagę odbiorcy na postaci. Aby uzyskać taki efekt, stosuje się obiektywy umożliwiające szerokie otwarcie przesłony rzędu f 1.8, czy nawet f 1.4. Obiektywy portretowe najczęściej posiadają ogniskową w zakresie od 70-135mm. Przykładem typowego obiektywu portretowego jest stałoogniskowy Canon EF 85mm f/1.4L IS USM.

Obiektyw tilt-shift

Obiektyw typu tilt-shift jest rzadko spotykany, ale warto o nim wspomnieć. Umożliwia on tworzenie oryginalnych rozmyć. Zwróć uwagę na powyższą fotografię. Konstrukcja obiektywu tilt-shift (z ang. tilt – pochył, shift – przesuw) pozwala na przesunięcie tzw. osi optycznej czyli w praktyce – korekcję perspektywy zdjęcia.

Fotografowane obiekty wyglądają wówczas jak makieta architektoniczna. Przykładowym obiektywem tego typu jest Canon TS-E 17mm. 

Obiektywy anamorficzne

Obiektywy anamorficzne, choć powoli przebijają się do świata fotografii, wiodą prym w kinowych formatach. Dzięki specjalnie zaprojektowanej konstrukcji soczewek kompresują one obraz rzucany na matrycę kamery, który na etapie postprodukcji zostaje rozciągnięty.

Dzięki temu otrzymuje się panoramiczny, kinowy look przy jednoczesnym zachowaniu głębi ostrości. Filmowe obiektywy anamorficzne są wyjątkowo drogie – ich ceny sięgają nawet kilkudziesięciu tysięcy złotych za sztukę. 

Rodzaje mocowań obiektywów

Na rynku obecnych jest wiele różnych mocowań. Każda marka sprzętu foto-video tworzy własne serie obiektywów, które są kompatybilne jedynie z jej urządzeniami. I tak Canon i jego obiektywy posiadają mocowanie o nazwach EF, EF-S i EF-M (oraz gama obiektywów nowej generacji z mocowaniem RF), w przypadku Nikona jest to bagnet Nikon F oraz Nikon 1 i tak dalej, i tak dalej.

Warto także wspomnieć o producentach takich jak SIGMA, Tamron czy Tokina, oferujących różne rodzaje obiektywów z mocowaniami kompatybilnymi z aparatami i kamerami wielu marek. Na rynku dostępne są również różne przejściówki, umożliwiające podłączenie np. starych obiektywów z aparatów analogowych pod nowe konstrukcje. 


Czy ten artykuł był dla Ciebie pomocny? Podziel się swoją opinią w komentarzu poniżej! Serdecznie zapraszam Cię na mojego facebooka, aby być zawsze na bieżąco z nowymi publikacjami na blogu!


Zobacz także: