1 No dobra, to co? Dżingla nie będzie, bo nie mogę teraz znaleźć. Dzisiaj będzie bez dżingla. - Musisz go zaśpiewać. - No coś tam plum, plum, plum. Dobra, nie, bo wpadniemy w jakąś głupawkę zaraz. Gadanie Gadesa Podcasty, czyli zakłócanie ciszy Dobra, postaram się zacząć trochę poważniej. Witajcie w kolejnym odcinku podcastu Gadanie Gadesa z cyklu "Gadułki". "Gadułki" z Tomkiem Stankiewiczem, Stostanki.pl Witaj Tomku po raz kolejny u mnie na podcastie. Jak widzicie, mam na Tomka niezłego haka, że tak cały czas się zgadza na przychodzenie tutaj. Także wiem jak działać, wiem jak działać. A poważniej rzecz biorąc, dzisiaj chcielibyśmy z Tomkiem porozmawiać sobie o, mam wrażenie, dosyć drażliwej rzeczy, która wielu podcasterów irytuje troszkę, czyli o obróbce. Czy obrabiać podcasty, czy nie obrabiać, co to daje, czy to jest warte w ogóle poświęconego czasu. Bo wydaje mi się, że takie, zwłaszcza na początku, podejście podcasterów wygląda tak, że raczej nie przejmujemy się obróbką w ogóle, nagrywamy tym co mamy i wrzucamy do sieci. I ta satysfakcja z publikacji odcinków i z tego, że coś się ciekawego powiedziało, zastępuje te wszystkie rzeczy związane z jakością nagrania, bo jakością się na początku zupełnie nie przejmujemy, zazwyczaj. Później przychodzi taki moment, że ktoś nam zwraca uwagę, że trzeba coś tam poprawić, że może nagrywać w innym pomieszczeniu, innym mikrofonem, innym sprzętem, w inny sposób. No i wtedy zaczynamy się zastanawiać, co zmienić, żeby ta jakość była lepsza. No i tutaj pierwsza myśl jest, poza tym, żeby zmienić mikrofon, oczywiście, bo to też jest jakaś tam pierwsza myśl, która wpada, ale żeby to obrobić jakoś, czyli żeby pozbyć się tych kiepskich rzeczy z nagrania za pomocą oprogramowania, najlepiej darmowego, no bo wiadomo, że chcemy ciąć koszty, bo oprogramowanie też swoje kosztuje, no i chcemy jakoś z tego wybrnąć. I powiedz mi, Tomku, jakie jest twoje widzenie świata, bo ty masz kontakt z wieloma podcasterami, na pewno z większą liczbą niż ja, i jakie są oczekiwania? No bo jeśli ktoś, tak zakładam, jeśli ktoś nie daje rady samodzielnie, no to zwraca się do kogoś takiego jak ty. Aha, to jest trudne pytanie, bo zazwyczaj ja też mam osoby, z którymi się stykam, w pewien sposób przefiltrowane, bo jeśli ktoś się do mnie odzywa, to z reguły jest to osoba, która jednak zwraca uwagę na dźwięk i spodziewa się, że jakaś obróbka dźwięku będzie konieczna i jest konieczna w procesie tworzenia podcastu. Część osób gdzieś tam dopiero, całkowicie na początku swojej drogi się do mnie odzywa, na przykład na bezpłatną konsultację, ja wtedy opowiadam o tym, jak to wygląda, jaki jest potrzebny sprzęt i tak dalej. Część to są osoby, które już nagrywają i w przypadku tych pierwszych osób, no to ja się oczywiście staram tu uświadamiać i też staram się podpowiedzieć, jaki sprzęt na przykład sobie kupić do podcastu i tak naprawdę jeśli się kupi jakiś przyzwoity sprzęt i nawet nie będzie się dźwiękiem robić nic i nagra się w przyzwoitych warunkach, to i tak mam wrażenie, że będzie się powyżej średniej podcastowej, jeśli chodzi o brzmienie w Polsce. To jest dobra uwaga, to jest dobra uwaga o tym, że w Polsce, bo jednak jeśli ktoś słucha zagranicznych podcastów, to tam mimo wszystko ta świadomość dźwięku wydaje się wyższa. Trudno trafić jest na podcast, który brzmi już tak totalnie źle. Natomiast w Polsce, nie wiem, może ja mam pecha po prostu, ale dosyć często jeszcze się trafia na takie podcasty. - I to nawet robione przez jakieś duże instytucje. - No właśnie, to jest ciekawe. To jest ciekawe, że hobbyści zwykle bardziej dbają, niż osoby, które to robią na przykład, bo muszą w pracy nagrywać jakieś odcinki podcastu. - Tak, wydaje mi się, że mam pewną hipotezę, z czego może to wynikać i też obserwacje, że osoby, które zaczynają nagrywać i które słuchały wcześniej dużo podcastów, zdają sobie sprawę z tego, jak jakość dźwięku jest istotna. I w sytuacji, kiedy właśnie jest ktoś hobbystą i chce nagrywać podcast dla siebie ze swojej zajawki, to z reguły jest to osoba, która słucha też podcastów i ona jest świadoma. Natomiast w przypadku, kiedy ktoś pracuje w dziale na przykład marketingu albo public relations i dostaje zadanie nagrania podcastu, to często ma na przykład mniejsze obycie z dźwiękiem i sobie myśli "a to ja muszę to jakoś nagrać". No więc bierze i na przykład nagrywa rozmowę na Skype. - Tak, zakłada headset firmowy i nagrywa. - Dokładnie. Więc chciałbym wrócić do twojego pytania, ale gdzieś mi się ulotniło. Nie wiem, czy na nie odpowiedziałem, nie jestem pewien. - Chodziło mi o to, czy ty się spotykasz z czymś takim, że ludzie, którzy trafiają do ciebie, mają już tę świadomość, że trzeba coś poprawić i dlatego do ciebie trafiają, czy raczej trafiają do ciebie z pytaniem, co trzeba zrobić i to ty im wyjaśniasz dopiero, co trzeba by poprawić, żeby mieć dobrą jakość dźwięku, czy w ogóle o tym nie myślą i ty musisz pracować zupełnie od podstaw? - Raczej z taką świadomością, że coś się z tym dźwiękiem robi i często opowiadam o tym, co z dźwiękiem trzeba zrobić w danej sytuacji. Czyli jeśli ktoś mi... Z reguły staram się opierać na nagraniu jakimś dostarczonym, zrobionym wcześniej lepiej lub gorzej i wtedy mówię, że tu trzeba na przykład odszumić, bo coś tam. Z reguły też mówię, co zrobić, jeśli chodzi o na przykład ustawienie mikrofonu, wybór pomieszczenia, ale też mówię mniej więcej, co trzeba zrobić i na przykład wysyłam o tyle, jestem w stanie z tego osiągnąć. Albo na przykład się zdarza, że ktoś już ma nagrany odcinek i słyszy, że nie wyszło coś, jeśli chodzi o kwestię techniczną i jakość dźwięku i pyta mnie, czy ja jestem w stanie doprowadzić to do takiego stanu, żeby nadawało się to do publikacji. Więc wtedy też nie opowiadam o tym jakoś super szczegółowo, co robię, bo nie chcę ludzi zanudzać technicznymi szczegółami, jeśli tego nie oczekują i wysyłam o tyle, jestem w stanie zrobić. Albo o no niestety nie jestem w stanie zrobić nic, żeby ta inteligencja się poddała. - Ale ja chciałem teraz nawiązać do czegoś, o czym już wspomniałeś, czyli do samej jakości nagrania. Być może jeśli słuchacie tego odcinka w dobrych słuchawkach, to słyszycie, że ten dźwięk nie jest bardzo dobry, w tym sensie, że słychać otwarte okno w moim studiu, bo mam otwarte okno, mam włączony też komputer stacjonarny, mam załączone tutaj monitory, które trochę szumią. I zanim przejdziemy dalej, chciałbym zrobić taki krok, który już z miejsca poprawi jakość dźwięku, nie wymagając żadnej obróbki. Czyli wyłączę monitory i zamknę okno w pokoju. - Myślałem, że powiesz wyłączę Tomka, bo jego gorzej słychać, bo ma pogłos w pokoju. - Nie, nie, nie, ale to nam się przyda, bo później być może zrobię tak, że usunę pogłos z twojego nagrania, tylko masz dobry pogłos, bo ja nie słyszę tutaj przez Mita. - Wiesz co? Dobry do usuwania. - Taki dobry, że go słychać. - Trochę słychać, to znaczy bez słuchawek nie będzie słychać, natomiast słychać go w kontraście z tobą, bo ty masz na pewno lepszą adaptację akustyczną i jak są podcasty, gdzie mówisz ja i ty, na przykład ostatni odcinek, gdzie z kolei Konrad był gościem u mnie, to ja słyszałem swój pogłos na tle Konradowego braku pogłosów właśnie. - No to widzisz, ale to może zrobimy tak w dalszej części, że ja też zapowiem, że tutaj od tego momentu będzie twój głos już pozbawiony pogłosu, tak żeby też można było zobaczyć, jak już sama obróbka wpływa na to, co nagrywamy. Dobra, to ja teraz poprawię jakość bez obróbki. [odgłosy odgłosów nagrywania] - Dobra, już jestem z powrotem. - Ja w słuchawkach słyszę różnicę, więc mam nadzieję, że to w nagraniu też będzie słychać. - Pewnie w głośnikach nie albo w słabych słuchawkach, ale w dobrych słuchawkach będzie już te różnice słychać. - Ja różnicy nie słyszę, bo rozmawiamy przez Google Meeta, a Google Meet i tak odszumia, odpogłosowuje i robi mnóstwo rzeczy. - Tak, to jest antyreklama Meeta. Jeśli chcecie nagrywać rozmowy do podcastu, to niestety. My się ratujemy tym, że każdy z nas nagrywa po swojej stronie i potem to będzie złożone. Gdybym miał używać tego głosu, który ja słyszę, tego głosu Tomka, który ja słyszę w słuchawkach, to nie byłaby to dobra jakość i tutaj żadna obróbka by mi już nie pomogła niestety. No ale dobra, powiedz mi Tomku w takim razie tak. Po pierwsze, dbamy o jakość nagrania, zawsze. No i w tym momencie, jeśli zadbamy o samo środowisko, o to, że nagrywamy bez jakiegoś dużego pogłosu, bez hałasów, to czy nadal obróbka jest potrzebna i co my zyskujemy przez to, że sobie obrobimy jeszcze to nagranie. To zależy od kilku rzeczy, czy jest potrzebna. Pierwsza rzecz, jeśli już środowisko jest okej, no to mamy kwestię elektroniki, której używamy. Czyli jeśli coś elektronicznie szumi, to może szumieć bardzo nieprzyjemnie. Czyli jeśli na przykład mamy mikrofon podpięty na jacka do laptopa i ten laptop ma beznadziejne wejście audio, to będzie w nagraniu sporo szumu i tutaj obróbka może nam pomóc w odszumieniu. Ale jeśli z tym powiedzmy, że nie ma problemu i mamy przyzwoity mikrofon, to też zależy na przykład od tego jak mówimy. Bo jeśli mamy dobrą tak zwaną technikę mikrofonową, czyli trzymamy się w stałej odległości od mikrofonu, mówimy z mniej więcej równą głośnością, nie robimy super podmuchów, nie plujemy, to ta obróbka będzie bardziej wyjściem ponad standard niż zrobieniem czegoś, co jest konieczne. Natomiast jeśli jest taka sytuacja, że odsuwamy się od mikrofonu, gdzieś chodzimy prawie że po tym pomieszczeniu i na przykład bardzo zmienia się głośność, co skutkowałoby tym, że słuchacz musi kręcić gałką w trakcie. Tego nie chcemy, bo to jest zabieranie komfortu słuchaczowi. To w obróbce możemy to wyrównać. Na przykład możemy w obróbce pozbyć się głosek wybuchowych. Możemy w obróbce też poradzić sobie z jakimś nadmiernym mlaskaniem. Jeśli na przykład zdarzyło się zjeść nam czekoladę zaraz przed nagraniem, to tych mlasków może być dużo. Nie polecamy. Ja piję kawę z mlekiem, to też nie jest zbyt polecane, ale strasznie umiem ochotę na tę kawę. Więc Konrad będzie miał okazję jakiś demlaskacz dorzucić. - Ja tutaj chciałbym może trochę się wtrącić w to, bo tak mi się wydaje, ja mam takie przynajmniej doświadczenia, że całą obróbkę można podzielić na dwie grupy takich zadań, które się wykonuje nad dźwiękiem. Pierwsza grupa to jest taka obróbka naprawcza, kiedy walczymy, żeby coś naprawić z tego, co nam nie wyszło przy nagraniu. I tu są właśnie te wszystkie rzeczy związane z odszumianiem, z usuwaniem pogłosu, z usuwaniem mlasków, popów itd. Czyli ratujemy generalnie dźwięk. Natomiast druga grupa obróbkowa to już jest to, co lubią realizatorzy dźwięku, czyli to już jest kompresja, ewentualnie usuwanie esek, czy tam temperowanie tych esek, które wyskoczą po kompresji. Nie wiem, czy saturacja, nie wszyscy stosują, czasami można, czasami nie. Czyli to już jest takie bardziej polerowanie dźwięku i doprowadzanie go do takiej postaci, którą realizatorzy lubią. Czyli wszystko jest na swoim miejscu, ma odpowiednie poziomy, nic nie wyskakuje, nie kłuje w uszy itd. Czyli to jest takie już głaskanie tego dźwięku. Czy ty byś się zgodził z takim podziałem? Tak, tak, absolutnie się zgadzam i też się zgadzam, że realizatorzy lubią, czyli jeśli pracuję z nagraniem, które jest właśnie zrobione w odpowiednich warunkach, odpowiednim sprzętem, to można sobie pozwolić na polerowanie. Jeśli natomiast jest to nagranie wykonane gdzieś tam przez Skype'a, mikrofonem wbudowanym w laptopa, to tego polerowania w zasadzie jest niewiele, bo ono wtedy bardziej z reguły szkodzi niż pomaga, bo ono czasem uwydatnia wszystkie rzeczy. Natomiast jeśli nagranie jest zrobione dobrze, to jak najbardziej. I też w przypadku dobrze zrobionych nagrań tego naprawiania też zazwyczaj trochę jest, choćby jakieś delikatne odszumianie. I tak absolutnie można to podzielić na właśnie takie dwa etapy, gdzie w pierwszym najpierw skupiamy się właśnie na pozbyciu się wszystkiego, czego nie chcemy, właśnie wyrównaniu poziomów, zawalczeniu z jakimś pogłosem, z jakimiś nieprzyjemnymi częstotliwościami w dźwięku za pomocą na przykład korekcji, a potem robimy już właśnie, wychodzimy ponad to, co jest w pewnym sensie konieczne do komfortowego słuchania, albo jest jakąś tam wartością już dodaną, ale nie tak oczywistą, czyli jakąś tam delikatniejszą na przykład kompresję, saturację, tak jak mówiłeś. Ja czasem stosuję, zależy od głosu, bo czasem jakiś tam głos z jakimś mikrofonem akurat brzmi tak jakoś tępawo, jest taki lekko przytłumiony, przymulony i wtedy czasem saturacja też pomaga. No i jeszcze jeśli chodzi o obróbkę, to jest jedna rzecz, która nie występuje przy podcastach nagrywanych solo, ale występuje przy podcastach na przykład, kiedy nagrywa się kilka osób w jednym pomieszczeniu, no to jeszcze dochodzi kwestia bramki, szumów, ekspandera. W każdym razie celem jest to, żeby w momencie, kiedy mówi jedna osoba, żeby nie mieszał się do tego sygnał z mikrofonu drugiej osoby, bo tam z reguły jest po prostu dużo pogłosu. Więc to też jest osobna kwestia i w zależności od tego, jak nagranie jest wykonane, to jest to zrobić łatwiej lub trudniej. Czasem po prostu trzeba ręcznie i czasem tutaj wchodzi też czynnik poza mikrofonowy i poza pomieszczeniem, bo na przykład może być tak, że jedna z tych osób mówi bardzo głośno, a druga mówi bardzo cicho i wtedy na przykład w nagraniu tej ścieżki, gdzie mówi osoba, która mówi cicho, to tą drugą osobę słychać w zasadzie z taką samą głośnością w mikrofonie jak tę pierwszą. I wtedy na przykład trzeba walczyć z tym ręcznie albo używać jakichś bardziej zaawansowanych narzędzi firmy iZotope na przykład, które w tym pomagają, żeby z tym walczyć. - I to jest ten jedyny chyba moment, kiedy nagrania zdalne mają przewagę nad takimi nagraniami w jednym pomieszczeniu. Bo przy nagrywaniu zdalnym nie ma tego problemu. Nagrywamy siebie we własnym pomieszczeniu, nie słyszymy, oczywiście jeśli nagrywamy w słuchawkach, a nie przez głośniki, bo kiedyś mi się tak zdarzyło, że właśnie mój gość nagrywał z głośnikami włączonymi, także ja miałem w jego nagraniu i jego i siebie z głośników. - Miałeś też obrazy pewnie potem. - Tak, zdecydowanie. - Współczuję. - Zwłaszcza, że to było od razu skompresowane do jakiejś MP3, jak się później okazało. Ale takie rzeczy też można opowiadać. - Tak, ja pamiętam, że w mojej poprzedniej pracy, gdzie robiliśmy webinary, to też właśnie z tego powodu webinar prowadzony na przykład przez dwie osoby, było łatwiej zrobić w takiej konfiguracji, że te dwie osoby były w osobnych pomieszczeniach, mimo tego, że w jednym biurze. Właśnie ze względu na dźwięk. - No dobra, a powiedz mi, bo teraz już słyszę takie głosy, że tak naprawdę my tutaj zaczynamy opowiadać, że tu już robi się tak, tu się ratuje, tu się wygładza. To jest jednak straszny nakład pracy. Czy ktokolwiek to doceni później? To, co my zrobimy z tym dźwiękiem. Czy to się wobec tego w ogóle opłaca robić pod kasterą? - Ja myślę, że bardziej nie tyle doceni, co może zauważyć, jeśli tego nie ma. To znaczy, ja zawsze sobie powtarzam i też jak ktoś mnie pyta o obróbkę dźwięku w podcastzie, to powtarzam, że najważniejszą rzeczą jest komfort słuchacza. Czyli jeśli brak obróbki dźwięku powoduje, że nagrania słucha się mniej komfortowo, czyli jeśli na przykład te przesłuchy są tak silne, że jest tak dużo pogłosu, że źle się słucha nagrania, albo że głośność na tyle się zmienia w trakcie, że trzeba kręcić gałką, albo że przeszkadzają nam szumy, albo głoski wybuchowe, no to zostanie to zauważone w sposób świadomy i nieświadomy. To znaczy bardziej obyci z podcastami czy z dźwiękiem słuchacza pewnie sobie pomyślą, że tutaj pluje do mikrofonu i tu szumi coś tam i tu pogłos, a ktoś, kto nie podchodzi do tego tak analitycznie po prostu zauważy, że po prostu kiepski dźwięk, źle mi się słucha. Też po prostu będzie to męczące, bo pamiętam jak pracowałem jeszcze na etacie w mojej ostatniej firmie i wtedy jak wszyscy przyszliśmy na pracę zdalną i jak mieliśmy jakieś spotkanie online, to z reguły wyglądało tak, że na przykład była część osób w biurze i było spotkanie takie, że jest ileś osób i mikrofon czy też laptop, do którego mówiły jest po prostu dwa metry od tych wszystkich ludzi. Jak w reklamach. Tak. I ja nawet bardzo się starając, to na takim spotkaniu tyle energii swojego mózgu przeznaczałem na to, żeby zrozumieć poszczególne słowa, że nie miałem uwagi na tyle, żeby móc się merytorycznie zastanowić nad tym, o czym rozmawiamy. I podobnie jest w przypadku podcastu. Jeśli dźwięk jest na tyle kiepski, że trzeba się wysilać, żeby go zrozumieć, to nie będziemy swobodnie zapamiętywać treści, które są przekazywane, czy też ich analizować, słuchać po prostu. Jest takie bardzo popularne twierdzenie, że dobra treść się obroni sama, ale z drugiej strony wydaje mi się, ja miałem takie przypadki u siebie, kiedy ja słuchałem jakichś podcastów, które były, jak się później okazało, bardzo męczące w słuchaniu, to zgoda, ja przesłuchałem jeden odcinek, może drugi, ale później, kiedy miałem do wyboru, że mam dwa inne odcinki podcastu, które mnie nie wymęczą, a też są ciekawe, to rezygnowałem po prostu ze słuchania tego, co sprawiało jakąś taką trudność. No też może nie demonizujmy, że tego po prostu się nie da słuchać, bo jednak podcasty zazwyczaj są nagrane trochę lepiej niż takie spotkania na Skype z dwóch metrów, ale jednak niektóre rzeczy przeszkadzają mnie osobiście, na przykład bardzo przeszkadzają eski. Takie bardzo wyraźne eski, które mi świdrują, być może to jest wina moich słuchawek, w których słucham po prostu w telefonie, że one mają bardzo, bardzo podkreślone te eski. Jeśli jest to opanowane, to jest okej, ale jeśli ktoś o to nie dba u siebie, to ja to od razu słyszę, kiedy słucham odcinka. I mnie to doprowadziło do tego, że czasem rzeczywiście wręcz ściągam sobie MP3 z takim podcastem i sobie ją deesuję na własną rękę. Zdarzały mi się takie rzeczywiście przypadki. Ja wiem, że to jest może już przesada, ale... No, dla ciebie nie, ale pewnie wiele osób na to nie zwrócił uwagi, ale to jest właśnie komfort słuchacza, czyli w tym przypadku ciebie. Dla każdego słuchacza to znaczy co innego trochę. - Tak, tak, tak. I też ja na przykład tego nie byłem świadomy. I nie wiem, czy tutaj mi to potwierdzisz, ale jest... Nie pamiętam teraz, jak to się nazywa, mizofonia? - Tak. - Jest taka... Trudno to nazwać dolegliwością, ale jest taka cecha niektórych ludzi, że bardzo źle reagują na niektóre dźwięki. Na przykład na dźwięki mlaskania, na jakieś takie ciężkie oddechy, na tego typu dźwięki, które większość z nas po prostu puszcza mimo uszu. To są ludzie, którzy są bardzo na to wyczuleni i ich to po prostu odrzuca. Jeśli słyszą mlaski, słyszą właśnie ciężkie oddechy, słyszą tego typu odgłosy, to ich to odrzuca fizycznie. Oni nie są w stanie tego słuchać. Ja o tym nie wiedziałem, ale dowiedziałem się właśnie przez to, że dostałem takie sygnały odnośnie moich własnych odcinków podcastu, że dobrze, gdyby coś tam się zadziało, żeby nie było tego typu odgłosów. Bo jednak u mnie się takie coś zdarza przy testach mikrofonów, gdzie te odcinki nie są poddane żadnej obróbce, że tam te mlaski się jednak przedostają, jakieś oddechy czasami też. Chociaż zacząłem dbać o kondycję, żeby przynajmniej tych oddechów nie było. - I teraz wstrzymujesz oddech na cały odcinek, cały na jednym wdechu. - Tak, z mlaskami jest trochę gorzej. Doradza się, żeby być dobrze nawodnionym i żeby sobie jeszcze jakieś jabłko schrupać przed nagraniem. No ale nie zawsze jest to możliwe. Ja się staram, ale nie zawsze mi to wychodzi. Więc tutaj muszę się ratować obróbką i te mlaski, czy takie sklejenia po prostu usuwam w postprodukcji. Mimo, że mi osobiście to jakoś bardzo nie przeszkadza, to wiem, że jest duża rzesza ludzi, którzy zwracają na to uwagę jednak, mimo wszystko. Nie wiem, czy ty znasz jakieś też takie rzeczy, że byśmy się nie spodziewali, że to ludziom może przeszkadzać w nagraniach? - Nie spotkałem się z niczym, poza tym o czym ty powiedziałeś teraz, to mi przychodzi mi nic do głowy. - Popy bywają jeszcze denerwujące, zwłaszcza kiedy słucha się na głośnikach, które są w stanie te niskie częstotliwości przekazać. - Ewentualnie muzyka, jeśli ktoś wybierze jakieś intro albo dżingiel, który komuś przeszkadza. O, miałem na przykład od słuchaczki jeden sygnał, miałem taki dżingiel, nawet go zmieniłem, uznałem to za ukłon w stronę tej osoby, który był przerywnikiem takim bardzo krótkim, który zmontowałem z jakichś takich technicznych dźwięków, typu gdzieś kręcenie gałką w radiu, coś tam, coś tam, coś tam. Ja uznałem, że jest okej i raz właśnie miałem sygnał od słuchaczki mojego podcastu, która powiedziała, że dla niej to było okropne i że ona jak już czuła, że to się zbliża, to już miała takie "mmm". Więc zmieniłem to, stwierdziłem, a czemu nie. - A wiesz co? W ogóle tutaj jest ciekawa kwestia muzyki w podkładzie, bo ja się spotkałem z różnymi podejściami do tego, że fajnie kiedy jest, bo umożliwia zamaskowanie niektórych takich niedoskonałości technicznych, ale też się spotkałem z ludźmi, których denerwuje, kiedy coś plimpla w tle rozmowy. I tutaj nie wiem, czy ty masz jakieś takie statystyczne dane, jak to jest? - Statystycznych nie. - Ludzie chcą czy nie chcą? - Statystycznych nie mam. Ja mam statystykę jednoosobową od siebie, że ja nie lubię tego. To znaczy ja lubię, kiedy podkład jest gdzieś tam na początku, może sobie plumkać, na przykład pod koniec, albo że jest taki dżingiel, który powiedzmy gdzieś tam jeszcze się kończy przez kilkanaście sekund. Ale ja na przykład nie lubię słuchać rozmów, które w tle cały czas mają jakiś dźwięk. I też staram się to odradzać, dlatego że nawet jeśli większości ludzi to nie będzie przeszkadzać, to niech 30% przeszkadza i one nie będą w stanie słuchać na przykład podcastu, a w momencie, kiedy tego nie damy, no to wtedy mamy czyste konto i nikomu to nie będzie przeszkadzać. Więc ja tutaj uważam, że właśnie ukłonem w stronę osób takich, którym to przeszkadza, jest niedawanie muzyki w podkładzie cały czas. - W sumie to jest bezpieczniejsze, nie? - Tak uważam. Jasne, że jakoś tam to dynamizuje wszystko, ale to w radiu się coś takiego robi, ale to też z reguły się robi w momencie, kiedy na przykład wejście antenowe trwa minutę, dwie, trzy, a nie na przykład jest podcast, który trwa pół godziny i po prostu już człowiek chce oszaleć od tej muzyczki, która gdzieś tam w tle gra. Po co to? To jest w takiej sytuacji pewnego rodzaju szum, bo to jest coś, co nie wnosi żadnych informacji, do czego się przyzwyczajamy, więc nie pełni już takiej funkcji, że tworzy jakąś atmosferę na przykład. No wiesz co, właśnie nie do końca się przyzwyczajamy, bo ja na przykład słucham sobie jednego podcastu, gdzie jest muzyczka w tle, tylko ona ma takie momentami rzeczy, jakieś nie wiem, czy perkusjonalia wchodzą, czy jakieś takie dzwoneczki, że zaczynam nasłuchiwać, czy to jest coś u mnie w domu, że coś, nie wiem, łyżeczka spadła i ktoś się kręci po kuchni, czy to jednak słyszałem w tej audycji. Normalnie gra sobie taka spokojna muzyczka i nagle słyszysz takie dźwięki. To jest trochę niepokojące, rzeczywiście. Teraz zaczynam być przeciwnikiem. - Można zawsze dwie wersje dystrybuować, podkładem i bez. - Tak, tak. No tak, dokładajmy jeszcze, bo tutaj mówimy o obróbce, że to jest czasochłonne, nikt tego nie zauważa, nie docenia. - Trzy podkłady, cztery podkłady. - Tak, jeszcze podkłady muzyczne. Ale słuchaj, zwykle za obróbkę bierzemy się wtedy, kiedy nie ma wyjścia. Nagranie nam nie wyszło, no i trzeba to uratować i jedyna nadzieja jest w obróbce. No i pal licho to, że ja jestem zwolennikiem, żeby jednak powtórzyć nagranie. Nie zawsze to jest możliwe. Nie zawsze to jest możliwe, gość pojechał, nie ma już możliwości nagrania drugi raz tego samego. Poza tym drugi raz to samo już nam nie wyjdzie, bo będą inne pytania. - Dokładnie. - I inna będzie ta dynamika rozmowy. - Albo gość jest ważnym profesorem, którego ledwo uprosiliśmy o poświęcenie nam godziny i byłoby nam wstyd prosić drugi raz. - Tak, bo pies nam szczekał w drugim pokoju i to się nagrało. - Albo pies profesora, co gorsze. - Co gorsze. Ale ratujemy zazwyczaj i to jest taki pierwszy kontakt z obróbką, że musimy coś zrobić, żeby było lepiej. No i teraz te narzędzia do ratowania dźwięku są coraz lepsze, coraz lepsze. Za chwilkę jeszcze chciałbym przejść do tych narzędzi, które są łatwe w stosowaniu, może tak. Natomiast chciałem jeszcze, zanim do tego przejdę, zapytać cię, czy w tej całej powodzi świetnych narzędzi do naprawiania wszelkich błędów są takie rzeczy, których nadal nie da się poprawić dobrze, tak żeby ten dźwięk był na tyle dobry, żeby nikt się nie zorientował, że tam coś było grzebane. - Są. Są jak najbardziej takie rzeczy, które do tego stopnia przeszkadzają. Przynajmniej z mojego doświadczenia, bo być może są jakieś narzędzia, o których ja nie wiem, nie mam dostępu, nie stać mnie, nie próbowałem. Ale bazując na tym, co mnie się zdarzało, to z reguły im później powstanie rzecz, która dźwiękowi szkodzi, tym gorzej. To znaczy, jeśli nagranie jest super, ale ktoś zapisałby je jako plik np. mp3 w jakiejś takiej turbo niskiej jakości, to będzie już nie do odratowania. Najgorzej, jak się połączą te dwie rzeczy, czyli np. mamy zaszumione nagranie z toną pogłosu i np. jeszcze ktoś to nagrał skypem, który obcina bardzo pasmo, czyli np. w nagraniu nie mamy w ogóle częstotliwości powyżej 4 kHz. No to nawet jak się to wrzuci do Adobe AI Podcast, to on po prostu nie ma na podstawie czego się domyślić, co tam powinno być w tym paśmie, więc on też nie jest w stanie tego ogarnąć. Przynajmniej jakiś czas temu nie był w stanie. Wszelkie rzeczy typu niski bitrate, niska jakość samego pliku, narzędzie do nagrywania próbowało coś ratować, czyli zaszumione nagranie z pogłosem i np. nagrywane przez Zencaster, który sam zawsze odszumia jeszcze i o to nie pyta. I np. to nagranie jest częściowo odszumione i częściowo odpogłosowane, ale jest to zrobione nie do końca, więc mamy coś tak zepsutego, że jest bardzo ciężko przywrócić temu naturalną formę. Ja to zawsze porównuję, jak sobie o tym myślę, że to jest jak zupa, którą już ktoś przyprawił i to na dodatek ją źle przyprawił, to prędzej można odratować zupę, której czegoś brakuje, ale jeszcze jest nieprzyprawiona, a jak ktoś już dodał do niej tonę pieprzu, to niewiele da się zrobić. Więc wszystkie takie sytuacje, gdzie brakuje pewnych informacji z punktu widzenia cyfrowego, czyli nie mamy np. w ogóle pewnych częstotliwości albo jest naprawdę jakaś gigantyczny szum. - Skompresowany szum jest też fatalny. Jeśli masz skompresowane tego typu nagranie i wtedy szum jest niejednorodny, to bardzo się trudno go usuwa. Ale właśnie wręcz się domyśliłeś, co ja będę chciał też powiedzieć, bo ja też miałem właśnie przygotowany taki przykład, bo musiałem się ostatnio z tym zmagać. Co zrobić z nagraniem, które jest zmasakrowane właśnie przez kodeki. Ja akurat miałem nagranie ze streamingu, nie z mp3, mocno skompresowanej, ale właśnie miałem takie nagranie, takie jak właśnie ja słyszę teraz ciebie, przez Mita. Że jest mocno skompresowane, poobcinane i teraz z tym na razie jeszcze niewiele da się zrobić. Jest nadzieja w tych algorytmach sztucznej inteligencji, uczenia maszynowego itd. - Tak, wyobrażam sobie, przepraszam, że ci się wciąłem, ale tylko jedną rzecz dodam, że wyobrażam sobie, że powstaną np. narzędzia, gdzie nagranie jakoś tam zmasakrowane właśnie niską jakością czy obróbką, gdzie dostarczając np. jakiś fragment głosu tej samej osoby, nagranej w dobrej jakości, będzie można to odtworzyć. - Troszkę tutaj zahaczamy też o to, co już kiedyś mówiliśmy, że być może ratunkiem w takich sytuacjach właśnie będzie stworzenie profilu głosu, rozpoznanie tego, co tam jest powiedziane i wygenerowanie jeszcze raz tego samego, ale już z automatu. Być może to jest jakaś przyszłość. Nie każdy lektor się zgodzi na coś takiego, bo wiem, że tutaj lektorzy mają duże obiekcje, jeśli chodzi o tworzenie profilu głosu, co w sumie nie jest dziwne. - Nie dziwi. - Tak, no bo oni głosem zarabiają na życie, więc jeśli ktoś im ten głos zabierze i będzie go wykorzystywał, komercyjnie np., no to stracą źródło otrzymania, więc tu się absolutnie nie dziwię temu. Ale faktycznie wydaje mi się, że ten obszar, czyli takie naprawianie bardzo głębokich zniekształceń, które nie wynikają tylko właśnie ze słabego nagrania, ale z takich już technicznych przetworzeń tego dźwięku, że ktoś źle skompresował albo właśnie przesłał to przez sieć i mamy tylko dostęp do takiego zdegradowanego nagrania, no to tu póki co niewiele da się zrobić. Ja korzystałem przez krótki czas z takiej wtyczki Unchirp, ona się chyba tak nazywa, firmy Synaptek, chyba tak się nazywa ta firma, tak się pisze przynajmniej. I ona czasami, jak się tam pokombinowało z tymi parametrami, coś dawała radę, wygładzała trochę to brzmienie, że ono nie miało takich metalicznych mocno pogłosów. - Ale rozumiem, że to nigdy nie była jakaś taka gigantyczna różnica. - Nie, nie, nie. To nie było tak, że nie było słychać, że to nie przeszło nigdy przez taki kodek. Było to słychać, ale było mniej irytujące w słuchaniu. Więc jak na cenę tej wtyczki, bo ona chyba kosztowała 350 euro, to ja jej sobie nie kupiłem ostatecznie, bo po prostu według mnie nie dawała ona aż takiej poprawy jakości. Jest nadzieja, że może te nowe wtyczki związane właśnie z wykorzystaniem takich algorytmów uczących się, które właśnie być może nauczą się na jakimś dobrym nagraniu danego głosu i będą potrafiły rekonstruować ten dźwięk. Z tym, że tutaj znowu dochodzimy do tego, czy ta rekonstrukcja to będzie na miejscu, czy będzie online, będzie wysyłana, gdzieś ten profil głosu będzie przechowywany. No i tu są zupełnie już inne zagadnienia. Ale mnie się wydaje, że to jest jednak właśnie takie przyszłościowe rozwiązanie i to w niedalekiej przyszłości. Sam ostatnio oglądałem webinar Descripta. Descript to jest dla tych, którzy nie wiedzą, to szybko powiem, że to jest edytor właśnie podcastowy, gdzie edytujemy sobie dźwięk jako tekst. Przede wszystkim, bo jako takiego waveforma też możemy. - Online to jest, nie? - To znaczy, to jest pół na pół, bo jest osobna aplikacja, którą się instaluje na komputerze, więc nie tylko w przeglądarce, ze względu właśnie na stabilność tego wszystkiego, to jest taka aplikacja. Chociaż ona wygląda tak samo jak aplikacja online, bo też jest możliwość używania właśnie wersji przeglądarkowej, ale przynajmniej w języku angielskim jest tam właśnie taka funkcja, że mamy nagranie całe i chcemy sobie coś dopisać, bo zapomnieliśmy o czymś powiedzieć i naszym głosem można to dorobić. Albo na przykład jakiś fragment, to na tym webinarze nawet był taki przykład, że ktoś coś dziwnie zaakcentował. No i ciężko to poprawić inaczej, więc po prostu jest tam taka funkcja, która regeneruje na podstawie, czyli ona rozpoznaje, jakie głoski zostały powiedziane, jaki był ten tekst i on jest głosem naszym regenerowany, ale trochę jakbyśmy mieli drugie podejście, drugi take tak zwany nagrania. - A to widzisz, to ja myślałem, że to jest jeszcze na takim poziomie tylko, że rozpoznaje dźwięki na mysłu, jakieś takie chrząknięcia i to pozwala usunąć. A tu widzę, że to już poszło mocno do przodu. - To też. - Tak, tak, no to się przydaje. Ja czekam, aż takie zwykłe edytory audio będą to miały. - Już powolutku, bo już wchodzą transkrypcje. Ostatni Eikon Akustica już się dorobił transkrypcji. Już w Ereksie też jest transkrypcja. Być może Wave Lab też się doczeka w końcu. I to jest jednak przyszłość. A co ty w ogóle sądzisz o takich narzędziach właśnie opartych, o te popularne AI, które ułatwiają całą obróbkę właśnie na zasadzie tej gałki "lepiej". Tak, przekręcamy i dźwięk staje się lepszy, cokolwiek by to miało znaczyć w ogólności. - Ja bardzo doceniam, bo i właśnie takie rzeczy jak rozpoznawanie M.O.M. Sam korzystam z takiego narzędzia właśnie, które o AI się opiera i które, co prawda, ono to usuwa dość koślawo, ale można sobie pobrać znaczniki, które ja sobie importuję do programu audio i usuwam to potem ręcznie. Ale nie ukrywam, że czekam z niecierpliwością na to, aż rzeczywiście będzie to działać tak dobrze, żeby można było temu zaufać albo będzie to wbudowane w program audio, bo to jest chyba czynność, która mi najwięcej czasu zajmuje w ogóle w mojej pracy i mam wrażenie, że gdybym miał takie narzędzie, które robi to dobrze, to mogłbym po prostu robić więcej w tym samym czasie i nawet obniżyć, przypuszczam, cenę swoich usług. - No tak, no bo to jest jednak czas, głównie czas. - Tak, tak. A jeśli chodzi o rzeczy, które są pokrętłem lepiej, to nawet we wspomnianym już deskripcie jest coś takiego jak Studio Sound i czasem działa to lepiej, czasem gorzej, bo kiedyś tam się tym bawiłem, teraz chyba to jest nawet poprawione. I jak najbardziej. Jeśli dzięki temu mamy mieć lepiej brzmiące, przyjemniejsze podcasty, to super, bo też umożliwia to osobom, które nie oczekują jakiejś super wymuskanej właśnie obróbki, nie chcą się tego uczyć ani nie chcą przeznaczać, albo nie mają pieniędzy, które chcą przeznaczać na to, żeby to zlecać profesjonalistom. To taka demokratyzacja podcastów dzięki temu większa moim zdaniem następuje i dzięki temu też będziemy mieli podcasty, których się przyjemniej słucha. Więc oczywiście, że jeśli mamy beznadziejne nagranie, to niewiele pomoże albo nawet zaszkodzi. Jeśli będziemy mieli bardzo dobre, to z reguły też takie rzeczy mogą spowodować, że to będzie brzmieć jeszcze gorzej, ale jeśli będziemy mieli średnie, to może pomóc i spowodować, że będzie się lepiej słuchało podcastu. - A korzystasz z takich rozwiązań osobiście? - Nie, osobiście nie, dlatego że... - Czyli kupujesz tradycyjne wtyczki, nad którymi masz kontrolę. - Tak, bo z reguły udaje mi się lepsze rezultaty nimi osiągać. Ja też po prostu to lubię, lubię się pobawić brzmieniem. To jest jedna rzecz. Dwa, że jednak wolę mieć kontrolę, bo przy takich długich formach jak podcasty, to wszystkie automaty prędzej czy później gdzieś się mylą. I ja na przykład lubię mieć możliwość wyłączenia sobie gdzieś tam czegoś w pewnym momencie, czyli mam na przykład narzędzie, które redukuje podmuchy przy głoskach wybuchowych, ale czasem nie ogarnie i się pomyli gdzieś, bo ktoś ma niski głos, albo narzędzie, które przycisza oddechy, ale czasem na przykład jak ktoś powie "ha" albo "sz", to też uzna to za oddech i ściszy, więc ja sobie mogę to ręcznie w danym momencie na przykład wyłączyć. Z reguły takie narzędzia online, które mają być proste, łatwe i przyjemne, nie mają na przykład takich funkcji. I to czego mi brakuje, ale mam nadzieję, że będzie, to właśnie coś takiego pośredniego, czyli coś, co z jednej strony jest łatwe i przyspiesza pracę, czy przyspiesza montaż, ale z drugiej strony daje więcej kontroli. A ty korzystasz? Z ciekawości zapytam. Wiesz co? Tak, tak, ja korzystam. Ja jestem w ogóle bardzo zafascynowany wtyczkami firmy Sony Bowl, która od dwóch czy trzech lat zaczęła proponować właśnie takie wtyczki oparte na takim maszynowym uczeniu. I o ile jakiś kompresor czy korektor tego typu, on jest o tyle fajny, że daje dobry punkt wyjścia, czyli te wszystkie wtyczki działają w ten sposób, że włączamy dźwięk, one nasłuchują, analizują sobie ten dźwięk, ustawiają parametry tak, żeby ten dźwięk brzmiał według nich dobrze. Nie zawsze to znaczy dobrze, ale bardzo często oznacza to całkiem niezły punkt wyjścia, czyli już prawie jesteśmy tam, gdzie chcemy, czyli ten dźwięk już prawie jest dobry, wystarczy trochę skorygować i jest OK. I to jest całkiem fajne. Natomiast parę miesięcy temu wyszła właśnie ich wtyczka Smart Gate, czyli taka bramka szumów. Bardzo się nią zachwycili inżynierowie, którzy miksują muzykę, bo ona bardzo dobrze bramkuje instrumenty perkusyjne na przykład. Bo to co ona ma fajnego, to to, że właśnie rozpoznaje charakter dźwięku, który przez nią przechodzi. I ja to wykorzystuję u siebie w podcaście w ten sposób, że to jest moja wtyczka do ściszania oddechów właśnie. Bo ona ma też taki tryb speech, czyli do dźwięku lektorskiego i można ją nauczyć dźwięku oddechu. I ona wtedy nie działa tak jak zwykła bramka szumów tak na oślep, że po prostu spada sygnał poniżej jakiegoś progu i wtedy jest ściszany. Tylko tutaj musi zajść jeszcze to podobieństwo, że to spadło i jest oddechem. Czyli wtyczka jakby rozpoznaje, że to coś nie jest głosem i wtedy dopiero to ścisza. I sprawdza ci się to? Może sam się zachęcę? Niestety jest też tak, że czasem, czasem bardzo rzadko zdarza się, że coś tam jej się przemknie. Natomiast jest dużo skuteczniejsza niż wszystkie inne wtyczki, które ściszają oddechy, a które stosowałem. Czyli Deep Breath od Waves i Deep Breath od Erex. To są takie dwie główne wtyczki, które testowałem, które sprawdzałem, bo to mnie bardzo kiedyś denerwowało. Ja kiedyś bardzo głośno oddychałem podczas nagrywania. Mam nadzieję, że teraz trochę mniej. Teraz w ogóle nie słyszę, żebyś oddychał. No, ja jestem z tych osób, które nie wycinają zupełnie oddechów. Wolę, żeby były, ale wolę, żeby nie były zbyt głośne. Nie, wycinanie oddechów jest okropne. Ja nie cierpię, jak ktoś wycina całkiem. Ja wtedy mam poczucie, jakbym się sam dusił. To dziwnie brzmi, jakoś tak nienaturalnie i to słychać. Nawet jeśli ktoś sobie nie zdaje sprawy, że tam są te oddechy wycięte, to jak będzie słuchał i nie będzie tam żadnej muzyki podłożonej, tylko będzie po prostu taka głucha cisza, to to bardzo dziwnie brzmi. I tak jeszcze gorszą opcją niż zostawienie głuchej ciszy jest wycinanie oddechu i po prostu ścieśnianie nagrania, bo wtedy to już robi się skrajnie nienaturalne. A ja tak robiłem kiedyś. No ale dobra, to są czasy błędów i wypaczeń. Błędy młodości. Także rzeczywiście od tej firmy Sony trochę pokorzystałem. Jeszcze jak korzystałem z wtyczek od Waves, to tam Clarity zdaje się też już wykorzystywało tego typu rozwiązania i też to działało całkiem nieźle. Wtyczka Goyo, która do niedawna jeszcze była darmowa, też robiła właśnie z tego typu narzędzia, jakim jest AI, użytek całkiem sensownie i całkiem nieźle to wychodzi. Więc myślę, że te błędy, które nam się zdarzają przy nagrywaniu, one coraz skuteczniej będą usuwane i naprawiane. I w tym miejscu chciałbym ośmielić osoby, które wahają się albo nie chcą obrabiać, żeby przyjrzały się temu, co jest obecnie na rynku i być może znajdą jakieś takie wtyczki, rozwiązania, programy, które rozwiążą jakiś główny problem, z którym się te osoby borykają. No bo zwykle to nie jest tak, że leży kompletnie wszystko, tylko zwykle problemem jest na przykład albo szum, albo jakiś przydźwięk, albo jeszcze coś. Zwykle jest jeden główny problem, a reszta to są jakieś takie poboczne, które można już sobie tam podarować, przy takim podejściu dosyć, nazwijmy to, lightowym. Ale te główne problemy typu szum, typu przydźwięk, typu pogłos, to już daje się rozwiązać dosyć skutecznie, zwłaszcza szum to nie jest w ogóle moim zdaniem już obecnie problem. Bo nawet jeśli go nie usuniemy, a nie jest jakiś bardzo, bardzo mocny, że trudno w ogóle cokolwiek wyłowić z niego, to szum jest o tyle fajny, że my go bardzo dobrze ignorujemy. Że jak zaczniemy słuchać, to po kilkunastu sekundach przestaniemy słyszeć ten szum. Tak, podobnie jak w naturalnym środowisku, można siedzieć gdzieś tam w kuchni i nie słyszeć, że lodówka hałasuje od pół godziny. Tak, jesteśmy przyzwyczajeni po prostu, że coś szumi, więc szumem ja bym się już zupełnie nie przejmował. Chyba, że potem jeszcze jest jakaś obróbka, która powoduje, że szum zaczyna falować, to to jest złe. Wtedy on właśnie przestaje być stałym szumem i zaczyna drażnić. Tak, szum powinien być stały. Tutaj będziecie mieli pewnie fragment nagrany tej naszej rozmowy, bo ja nagrywam dwoma mikrofonami, żeby dać wam jakiś przedsmak tego, z czym to się wiąże. Jeden mikrofon to jest Behringer XM8500, czyli ten ze 100 zł, o którym już nie raz z Tomkiem rozmawialiśmy, czyli taki zupełnie nisko budżetowy, ale całkiem przyzwoity. A drugi to jest pojemnościówka Warm Audio WA87 i będą się pewnie zmieniały. Jeszcze nie mam koncepcji na to, co zrobić z tymi dźwiękami, nagrywam oba jednocześnie. Zobaczę, co z tym wymyślę. W każdym razie Behringer na pewno szumi mocniej niż WA, ale ten szum nie będzie wam przeszkadzał i prawdopodobnie usłyszycie go dopiero teraz, kiedy o nim wspomniałem. Bo tak to zwykle z szumem bywa, że jeśli go od razu nie usłyszymy, to później jest ciężko go wychwycić, chyba że tak rzeczywiście zaczniemy szukać uchem tego szumu. A tak to zwykle nie jest on jakiś przeszkadzający. Wydaje mi się, że warto sobie poszukać takich narzędzi. To jest prawda, że jest bardzo dużo skutecznych narzędzi, które radzą sobie z problemami. Jest też niestety bardzo dużo kiepskich narzędzi, które się nazywają, że są, a nie są. Przykładem niech będzie na przykład, przykładem na przykład, przykładowy przykład na przykład to jest program Filmora do montowania wideo. Jest tam panel audio i absolutnie każda z rzeczy w panelu, który się nazywa audio robi rzecz, którą ma robić w sposób absolutnie straszny. Czyli jest coś takiego jak tam jakiś speech enhance, denoise, coś tam podobne rzeczy, deriverb i tak dalej. I nawet jak mu się da dobre nagranie i się to włączy, to po prostu jest hardcore. Więc dużo spotkacie też narzędzi, pewnie też online, które będą zrobione po łebkach po to, żeby się nazywały, żeby można było za coś pieniądze wziąć albo gdzieś napisać, że coś jest. Ale wśród tony narzędzi AI albo niekoniecznie znajdziecie też te dobre. Więc warto się nie zniechęcać. Tak, no tutaj głównie mówię o tej obróbce takiej naprawiającej, no bo jeśli chodzi o to polerowanie, to tu już są setki wtyczek typu kompresory, korektory, DSR-y. Tego jest naprawdę mnóstwo w dobrej jakości także za darmo, więc tu akurat nie trzeba się już specjalnie przejmować. Ale te naprawcze, to jest problem, więc jeśli macie jakiś problem z nagraniami, że macie za dużo pogłosu, za dużo szumu, za dużo czegoś, to warto popytać na forach, na grupach. Można wysłać wiadomość do mnie, zapytać w komentarzu. Można pewnie się do Tomka na konsultację umówić. Albo nawet wysłać maila, też odpowiem. Dowiecie się co my jakby polecamy. Zresztą jeśli ktoś słucha mojego podcastu, to mniej więcej wie jakich wtyczek ja używam i jakie polecam. No ale jak macie jakieś pytania, to ja trochę tych wtyczek przetestowałem w życiu, więc mogę wam powiedzieć. Nawet więcej niż trochę. Co co? Obstawiam, że więcej niż trochę. O patrz, będzie normalnie tutaj gadał takie rzeczy. No w każdym razie, bo mieliśmy taką jeszcze rozmowę z Tomkiem przed nagraniem. Ja wysnułem taki wniosek, że jest taka chyba krzywa obróbki. W każdej dziedzinie. Tak, że kiedy zaczynamy nagrywać podcast, to nas obróbka w ogóle nie interesuje. W większości wypadków tak mi się wydaje, że jest. Więc nagrywamy czym popadnie i publikujemy. Potem dowiadujemy się, że warto by coś zrobić, więc zaczynamy szukać, dowiadywać się, uczyć, zlecać. I tutaj tej obróbki nam przybywa. Ale dowiadujemy się też jak lepiej nagrywać, jak unikać błędów przy nagrywaniu i tak dalej. Więc po jakimś czasie okazuje się, że tej obróbki już nie potrzebujemy tak dużo jak na początku, bo już nie potrzebujemy tak bardzo odszumiać, likwidować jakichś problemów z pogłosem, bo już po prostu samo nagranie się broni. No i wtedy ta krzywa opada i obróbki mamy coraz mniej. I ja jestem już na szczęście na tym zboczu opadającym. Już nie obrabiam tak jak kiedyś, jak sobie przypomnę. Takie miałem naprawdę kilkunastowtyczkowe łańcuchy przetwarzania dźwięku. Mojego własnego, tylko jedna osoba w pomieszczeniu. To naprawdę jestem... no ciarki mi chodzą po plecach jak sobie teraz o tym pomyślę. Teraz idę w drugą stronę, czyli chciałbym jak najmniej tego robić. I w zasadzie bardziej się skupiam teraz na cięciu. Na cięciu i na usuwaniu mlasków i ściszaniu oddechów. To jest to czym się obecnie zajmuję. I już nie odszumiam, nie redukuję pogłosu. Człowiek zaczyna mieć to gdzieś. Ale ja też idę w taki minimalizm bardziej. Może nie skrajny, ale na pewno staram się stosować mniej niż kiedyś. Zastanawiam się dlaczego. Może dlatego, że skupiam się na tym komforcie słuchacza. Czyli niekoniecznie, że każdy musi tutaj brzmieć super, nie wiadomo jak. I po prostu głęboki głos i tak dalej. Czasem ważniejsze jest, żeby to było delikatniejsze, a żeby się miło słuchało. Też sobie myślę, że a propos takiej nadmiernej obróbki, że czasem ktoś ma oczekiwanie, że zrobimy takie brzmienie jak po prostu z radia, jakiegoś RMF-u i tak dalej. Albo co gorsza z reklamy, gdzie ten głos jest rzeczywiście już tak super przekompresowany. Tak, i można pójść w coś takiego i mieć takie oczekiwania. Tylko, że jeśli byśmy tak brzmiącego głosu słuchali przez pół godziny, to byłoby bardzo ciężko. A jakbyśmy tak obaj teraz mówili, że słuchajcie teraz, jak to obrobić. Dokładnie, i tak jest kompresowane i takie nasycone. Tak, i jeszcze te emocje w głosie, w każdym słowie. Ale podobnie jeśli chodzi właśnie o obróbkę w radiu. Zupełnie inne są warunki np. słuchania podcastu, a inne są warunki słuchania radia. Bo z reguły radio ma brzmieć tak, żeby było je dobrze słychać w zakładzie fryzjerskim. Z radyfikacją za 50 zł, żeby ten głos był dobry. A tak naprawdę jakbyście sobie wzięli jakieś radio, mam tu na myśli sygnał stacji radiowej, i puścili na dobrych słuchawkach w ciszy, to to wcale nie będzie brzmiało dobrze. Bo to właśnie specjalnie jest trochę takie przesadzone, żeby się przebiło. Przez kiepski głośniczek w kiepskim radiu, przez hałas w jakimś lokalu usługowym. Na słuchawkach w ciszy to nie będzie brzmiało wcale dobrze. Tak, no przede wszystkim też, że radia zwykle jednak słucha się przez głośnik, a nie przez słuchawki. A głośnik sam z siebie dokłada już trochę szumu. I on jakby niweluje te niedomagania dźwięku, które gdzieś tam są jakieś. Ja przysłuchiwałem się nagraniom ze stacji radiowych i tam ewidentnie słychać, że działa na przykład jakaś bramka szumów i tam ciacha, kompresor zaczyna tutaj miażdżyć, dźwięk tutaj nie. I to słychać, jeśli już wiemy czego słuchać, jak to wysłyszeć, to to się słyszy, tylko że przez głośnik to nie ma żadnego znaczenia. Więc nie ma co popadać w przesadę i głaskać każdej głoski, bo to się zniechęcicie. Tak mi się wydaje, że jeśli ktoś będzie półtora godzinną rozmowę tak głaskał i wycinał wszystko precyzyjnie, ręcznie, to jest do zajechania. No chyba, że się cenicie, robicie to zawodowo i płacą wam za każdą minutę. No to im więcej obróbki, tym lepiej. To nie słuchajcie nas. Nie wiem jak tu w ogóle trafiliście do tego odcinka. Ale generalnie to nie ma co przesadzać, ale też nie ma co machać ręką, że tam nagranie z byle ziemniaka będzie w porządku. Bo jest jednak coś takiego jak szacunek dla słuchacza. Niech ten słuchacz ma jakąś przyjemność ze słuchania, taką fizyczną przyjemność, że nic mu tam nie świszczy, nie dudni w tych uszach. Po prostu zadbajmy o tych naszych słuchaczy, bo tak słyszałem, że podobno o to chodzi w podcaście, żeby mieć słuchalność dużą. Może nie każdemu musi o to chodzić. Komuś może chodzić o to, żeby opublikować podcast i tyle. Mojego podcastu to nie dotyczy, ale tak słyszałem. Są takie pogłoski. Dobra, to ja ci Tomku bardzo dziękuję. To chyba tyle, chyba że masz jeszcze coś do dodania. Ośmiel może ludzi, żeby... Albo powiedz im właśnie, żeby nie obrabiali, tylko zlecali tobie. Nie, niech się bawią, niech obrabiają, niech się uczą. To jest fajna zabawa. I nie jest taka trudna, potwierdź, że to nie jest jakieś bardzo hardkorowe. Nie musi być. Może być trudne, ale nie musi być. Zależy, czego użyjemy, na ile głęboko chcemy wejść w temat. Nie musi być to wcale trudne. O właśnie, jedna rzecz, o której nie powiedzieliśmy pod kątem obróbki. Kupcie sobie dobre słuchawki. O właśnie. Przeznaczone właśnie do słuchania dźwięku w sposób neutralny, czyli słuchawki tak zwane monitorowe, nazwijmy to. One nie muszą być drogie, bo nawet za około 100 zł można kupić coś, co się w miarę nada. Ważne, żeby nie były to słuchawki na przykład, które bardzo podbijają bas, albo bardzo podbijają wysokie tony, bo potem okaże się, że inne osoby słyszą to zupełnie inaczej. Tak, gamingowe nie. Tak, czyli słuchawki w miarę neutralne. To jest podstawa. Bo to tak, jakbyśmy obrabiali zdjęcie patrząc na czarno-biały telewizor. No tak, ale to prawda. Ja już ostatnio myślałem o tym odcinku, który jest u ciebie na podcaście, że tam też powinniśmy powiedzieć o słuchawkach jako o sprzęcie, który jest przydatny do nagrywania. Także jeśli się bierzecie za obróbkę, to podstawa to jest słyszeć dobrze. Tak jak byście obrabiali zdjęcia, to podstawa to jest dobry monitor, który nie przekłamuje barw, to tutaj też podstawa to są słuchawki, które was nie będą wiodły na manowce. Jakieś gamingowe, albo jakieś takie inne multimedialne odpadają, bo one zwykle mają bardzo podkreślone dolne częstotliwości i bardzo podkreślone górne. Tak, tak zwany uśmiech dyskoteki. Tak, tak zwana charakterystyka V, która brzmi bardzo efektownie i rzeczywiście założycie takie słuchawki, ktoś wam puści rockową muzykę, to "ach" tak słychać taki normalnie zastrzyk energii z tego, ale do obróbki głosu to się nadaje średnio. Raczej takie bardziej stonowane słuchawki, tutaj AKG chyba 240, jakiś taki model był. On był w miarę niedrogi, a nie zły. Tak, a z takich najtańszych, które mogę polecić, to jest firma, której nazwa zawsze mnie bawi, czyli Superlux HD681. Brzmi jak producent odkurzaczy. Mniej więcej, ale one troszkę z kolei te górne mają takie, te syczące to tobie by się nie do końca mogło podobać, ale to jest lekko podbite, natomiast one są dosyć neutralne, jak najbardziej nadają się do tego, żeby na nich pracować z dźwiękiem i chyba nawet poniżej 100 złotych kosztują. No to widzicie, jakiś zastrzyk informacji, nic tylko teraz wysułać za skórniaki, znowu kupować, znowu, znowu. My jesteśmy na pasku producentów, ci powiem. Takie będzie przeświadczenie, że każda rozmowa to kupcie to, a kupcie tamto. Może sprzedajcie coś. No tak, bo procenty dostajemy. Ej, to trzeba by podpisać jakieś takie umowy, te linki takie, że procent idzie do nas. Aleśmy przespali to, kurczę. To się zmieni, od następnego odcinka będą takie linki, że 50% będzie szło dla nas. I tak, jakby tyle szło, to sam bym kupował z tych linków. No tak, tak, bo byś miał wtedy 50% niszki. Dokładnie, kurczę, wcześniej na to nie wpadłem. Dobra, nie, nie, nie słuchajcie nas. Znaczy słuchajcie, ale nie słuchajcie, wiecie co mam na myśli. Tak. Także Tomku jeszcze raz dzięki za obecność tutaj i za mnóstwo informacji, których się dowiedzieliśmy. Dzięki. Do usłyszenia. Do usłyszenia. [muzyka] [muzyka wycisza się] .