Jaki system audio posiadasz w domu?

Jaki masz system dźwiękowy w domu?

  • Stereo (Wysoka jakość- Audiofilska/Prawie Audiofilska)

    Votes: 7 24,1%
  • Stereo (Średnia)

    Votes: 8 27,6%
  • Stereo (Bieda)

    Votes: 13 44,8%
  • 5.1

    Votes: 5 17,2%
  • 6.1

    Votes: 0 0,0%
  • 7.1

    Votes: 1 3,4%
  • 10.2

    Votes: 0 0,0%

  • Total voters
    29

tosiabunio

Grand Master Architect
Członek Załogi
6 985
15 153
1. Nie chodzi o pliki mp3 tylko o software/hardware który wykorzystuje kodek... 2. Obowiązuje już tylko w USA i jak napisał aluzci203 wygasa za dwa lata...

Ale można z tego powodu nie popierać, czy nie można? Do chuja? Jeszcze przez 2 lata?

Niezależnie od dyskusji CBR i VBR?

Ja, choć jestem cebulakiem, kiedyś się zmagałem z problemem licencjonowania MP3, ale na szczęście pojawił się wtedy OGG/Vorbis.
 

tosiabunio

Grand Master Architect
Członek Załogi
6 985
15 153
Tak. Rozmowy były z Fraunhofer-Institut für Integrierte Schaltungen IIS. Kupiliśmy chyba wtedy jakiś system audio, który nam to załatwił, czy przeszedłem na Ogg/Vorbis, jakoś tak. Pojebane.
 

FatBantha

sprzedawca niszowych etosów
Członek Załogi
8 902
25 790
Wiem, prawie wszystkie są chuja warte. Dla niektórych wyższa technicznie jakość wcale nie musi oznaczać lepszego dźwięku.. To są kwestie mocno subiektywne. Vinyl jest technicznie gorszy od jakości cd ale wielu uznaje go za nośnik który potrafi wykrzesać lepszy dźwięk.
No to skoro twierdzisz, że prawie wszystkie są nic nie warte, to podaj te, które uznajesz i uzasadnij dlaczego. Jeśli nie będziesz w stanie, uznam, że odrzucasz wszystkie testy, a skoro tak to jesteś porównawczym agnostykiem i nie ma sensu gadać z Tobą o lepszości/gorszości jednych opcji nad drugimi.

Mnie subiektywizm nie przeszkadza, zwłaszcza gdy gromadzi się subiektywne opinie i wrażenia wielu ludzi, gdy rzecz właśnie dotyczy wrażeń.

Jak to nie? jak coś jest cbr 320 to jest tyle i chuj, nie ma żadnego uśredniania, można to z resztą łatwo obliczyć (jaki jest bit rate) dzieląc rozmiar pliku w kilobitach przez czas nagrania w sekundach. Praktycznie zawsze wychodzi z maleńką nadwyżką.
Tak to nie. Bo jakość w przypadku formatów stratnych powinno się mierzyć w formie wielkości odstępstwa od bezstratnego oryginału. Jeśli coś jest bliższe oryginałowi, to jest też wyższej jakości. A spokojnie można dobrać taki materiał oryginalny, z którym stratny cbr poradzi sobie gorzej niż stratny vbr, czyli zaprezentuje gorszą jakość, bo nie będzie mógł dodać sobie bitrate'u w krytycznych miejscach i bardziej będzie w nich odbiegał. Tym bardziej, jeśli będą to miejsca łatwo zauważalne dla ludzkiej percepcji.

No jakość jest nierozłączna z rozmiarem.. W bezstratnych też.
W bezstratnych nie, skoro są bezstratne. Nie ma znaczenia czy odtwarzasz niespakowanego wave'a, FLAC, Monkey's Audio, TAKa, ALACa czy cokolwiek innego. Mogą mieć różne rozmiary a jakość nagrania będzie ta sama - oryginalna. FLAC ma kilka stopni kompresji, więc plik może mieć różne rozmiary, a jakość będzie ta sama.

?? Skoro jakość jest istotna to chyba powinno się ustawić jak najniższą kompresje. Dla mp3 jest to 320kbp/s. ponad 3 minutowy plik zajmuje wtedy niecałe 8 MB. To jest nic jeżeli chodzi o zużycie miejsca na dysku i będzie maleć.. Może w końcu dojdziemy do takiego poziomu że nie będzie trzeba bawić się pliki stratne tylko dyski będą tak pojemne że będzie korzystać się np z wave'ów...
Ale liczy się jeszcze mechanizm tej kompresji w enkoderze. Co z tego, że ustawisz sobie najniższą kompresję w mp3, skoro tę samą jakość mógłbyś uzyskać w innym formacie o lepszym algorytmie, przy nieco większej kompresji i mniejszym pliku?

Oczywiście można to w ten sposób tłumaczyć ale ja i tak uważam że jest to mało rozsądne rozwiązanie.
Bądź co bądź tworzenie stratnego formatu jest sztuką, polegającą na obrabowaniu słuchacza z częstotliwości, których i tak nie zauważy. Rzecz w tym, że nie ma rozwiązań doskonałych i trzeba iść na kompromisy, więc czasem słuchacz zauważa. I ewolucja formatów stratnych polega na tym, że zauważa coraz mniej.
Oczywiście że wolno, skoro w tym momencie gra coś cicho i nie w pełnym zakresie częstotliwości to w plikach stratnych Z DEFINICJI może to być próbkowane z mniejszym bit ratem, co nie znaczy że też jest to rozsądne.
To czemu mamy być z definicji nierozsądni?
A jeżeli te zamienniki są chujowe to też?
To już różnie - zależy jak bardzo są ograniczające. W przypadku enkoderów nie widzę najmniejszego powodu, by sięgać po patentowane.
 

FatBantha

sprzedawca niszowych etosów
Członek Załogi
8 902
25 790
To nie zawsze jest prawda, znaczy to tylko tyle że jest najbliższe oryginałowi a nie że jest najlepszej jakości. Może być tak że oryginał miał słabą jakość lub był zapisany z błędami i enkoder powielił te błędy. Dlatego nie ma dobrych testów które wykażą dobrą jakość... Można tylko wykazać podobieństwo do oryginalnego pliku.
To zawsze jest prawda, bo przyjmujemy, że oryginał to 100% jakości od której format stratny może się tylko oddalić - zależy o ile.

To jak oceniasz jakość samego oryginału nie powinno mieć najmniejszego znaczenia w kwestii oceny jego imitacji, bo w jej przypadku chodzi właśnie o wierność oddania oryginału - cokolwiek nim jest. Imitacja nie ma naprawiać "błędów" oryginału, tylko przekazywać jego specyfikę z możliwie największą wiernością.

Tylko takie gdzie można porównać (technicznie) stratny plik z bezstratnym oryginałem i sprawdzić która metoda kompresji jest najbardziej podobna. Pliki muszą mieć (zarówno oryginał) ten sam bit depth i taką samą częstotliwość próbkowania.
To są bezsensowne kryteria.

No właśnie, czemu? Przecież ja nie uważam VBR za coś rozsądnego. A ta wypowiedź się tyczyła vbr'ów właśnie.
Ta wypowiedź przede wszystkim była wewnętrznie sprzeczna. Napisałeś o tym, że powinniśmy wybrać opcję, którą uznałeś za nierozsądną a na początku dyskusji wręcz się od niej odżegnałeś:

Co więcej jakość w cichych momentach utworu dramatycznie spada, dla mnie to jest zbyt duzę barbarzyństwo do przełknięcia, a na pewno nie jestem audiofilem.
a potem:

Oczywiście że wolno, skoro w tym momencie gra coś cicho i nie w pełnym zakresie częstotliwości to w plikach stratnych Z DEFINICJI może to być próbkowane z mniejszym bit ratem, co nie znaczy że też jest to rozsądne.
To się w końcu zdecyduj, czy chcesz w cichszych momentach utworu wyższej jakości, której utrata tam jest dla Ciebie tam zauważalna, czy chcesz próbkować to sekciarsko z definicji z mniejszym bitratem, bo tak. Albo - albo.

No dobrze, tylko tak jak mówię - JA nie widzę w tym sensu skoro różnica jest niewyczuwalna. Standard mp3 jest tak rozpropagowany że najwygodniej jest zostać przy mp3.
Różnica jest wyczuwalna.
 

FatBantha

sprzedawca niszowych etosów
Członek Załogi
8 902
25 790
Ciekawostka akustyczna.

Grecki amfiteatr odfiltrowywał niskie dźwięki
27.03.2007
Rewelacyjna akustyka, z której słynie starożytny grecki teatr w Epidauros, może wynikać z zastosowania skomplikowanych praw fizyki. Wykazują to najnowsze badania, o których informuje serwis "Nature".

Odkopany w 1881 r. przez archeologów na Półwyspie Peloponeskim teatr zbudowano w IV-III w. p.n.e. Ma on klasyczny, półkolisty kształt greckiego amfiteatru. Pierwotnie mieścił 34 rzędy kamiennych ławek, Rzymianie dodali do nich później kolejnych 21. Całość mogła pomieścić około 14 tys. widzów.

Niezwykła jest jego akustyka: aktora stojącego na dole słychać w tylnych rzędach, niemal 60 m od sceny. Architekci i archeolodzy długo spekulowali, jak to jest, że głos niesie się tam tak doskonale.

Spekulowano m.in., że wyśmienita akustyka teatru mogła wynikać z przeważającego kierunku wiatrów (który wieje głównie od sceny ku publiczności), albo z tego, że w greckim teatrze aktorzy zakładali maski, które mogły działać jak tuby. Żadna z teorii nie wyjaśnia jednak, dlaczego i dziś, w bezwietrzny dzień, z tej sceny doskonale słychać wypowiadane kwestie.

Najnowszą hipotezę na ten temat wysnuli ostatnio Nico Declercq i Cindy Dekeyser z Georgia Institute of Technology w Atlancie. Ich zdaniem kluczem do akustycznego sukcesu jest sposób ustawienia opadających ku scenie rzędów siedzeń.

Badacze ci obliczyli, że struktura opadających ku środkowi rzędów ma kształt idealny, pozwalający działać jak akustyczny filtr, który tłumi dźwięki o niskiej częstotliwości (główną składową szumu tła), a jednocześnie przepuszcza składowe głosu aktorów o wysokiej częstotliwości.

Nie jest jasne, czy efekt taki uzyskano przypadkiem, czy specjalnie go wypracowano - zwraca uwagę Declercq. Jakkolwiek by nie było, zdaniem badacza Grecy i Rzymianie doceniali fakt, że akustyka w tym teatrze była wyjątkowa, i starali się ją wszędzie kopiować.

Declercq i Dekeyser podejrzewali, że może chodzić o sposób odbijania dźwięku od "karbowanej" powierzchni. Od kilku lat wiadomo, że taka powierzchnia może filtrować fale dźwiękowe tak, iż uwypuklają się konkretne częstotliwości. Podobnie działają mikroskopijne fałdy na skrzydłach motyla, odbijające fale światła o określonej długości. Ten sam akustyczny efekt wykorzystuje się w głośnych pomieszczeniach, wytłumianych za pomocą płatów karbowanej pianki, którymi pokrywa się ściany.

Declercq i Dekeyser obliczyli, w jaki sposób rzędy kamiennych ławek w teatrze w Epidauros wpływają na dźwięk, odbijając go. Stwierdzili, że częstotliwości niższe niż 500 hertzów są tłumione silniej niż inne, te wyższe.

"Większość hałasu powstającego wewnątrz i wokół teatru to był prawdopodobnie hałas o niskiej częstotliwości" - mówią naukowcy. Mógł to być szum drzew czy odgłosy ludzi idących do teatru. Dlatego odfiltrowanie niskich częstotliwości poprawia słyszalność głosów aktorów, w których przeważają wyższe częstotliwości.

Odfiltrowanie niskich częstotliwości oznacza, że są one mniej słyszalne w głosie mówiącego i w szumie tła. Nie jest to jednak problem, ponieważ ludzkie ucho i mózg mogą "odtworzyć" część brakujących niskich częstotliwości w dźwiękach wysokich.

Choć wiele współczesnych teatrów poprawia słyszalność za pomocą wzmacniaczy i głośników, Declercq mówi, że pomysł filtrowania może być wciąż zalecany. "Sądzę, że w określonych sytuacjach, np. podczas imprez na stadionach sportowych lub w otwartych teatrach, znaczenie może mieć odpowiedni dobór odległości pomiędzy rzędami siedzeń lub progami, na których stoją krzesła" - mówił.

Do dziś w letnie wieczory w Epidauros wystawiane są sztuki. Przeważnie są to adaptacje antycznych tragedii i komedii. ZAN

PAP - Nauka w Polsce
bsz

A koło mnie, na Annabergu jeden taki niszczeje, chociaż jak tam się dźwięk niesie, nie sprawdzałem. Za Hitlera były niższe podatki i sprawne amfiteatry.
 

FatBantha

sprzedawca niszowych etosów
Członek Załogi
8 902
25 790
Jest wtyczka, program, dodatek - jak zwał, tak zwał - który chciałbym polecić wszystkim słuchawkosłuchaczowcom.

Bauer stereophonic-to-binaural DSP- to po prostu crossfeed, ale działa znakomicie, ma kilka ustawień (Meier, Moy, domyślne), można też pobawić się suwakami samemu. Faktycznie wyjmuje scenę muzyczną z wnętrza głowy, niwelując efekt super-stereo i stawia ją przed nami, tam gdzie powinna być. Używam w foobarze2000 i jest to jeden z niewielu dodatków, jaki w ogóle zawracałem głowę sobie ściągać.

Na długie nocne maratony z dźwiękiem - w sam raz. Szkoda tylko, że podobnego dodatku nie ma do odtwarzaczy wideo (poza WMP).

W przenośnych odtwarzaczach z wgranym Rockboxem, w ostatnich firmware'ach, też pojawia się crossfeed z domyślną opcją meierowską. Trudno bez tego żyć.
 

pampalini

krzewiciel słuszności
Członek Załogi
3 585
6 855
Jest wtyczka, program, dodatek - jak zwał, tak zwał - który chciałbym polecić wszystkim słuchawkosłuchaczowcom.

Bauer stereophonic-to-binaural DSP- to po prostu crossfeed, ale działa znakomicie, ma kilka ustawień (Meier, Moy, domyślne), można też pobawić się suwakami samemu. Faktycznie wyjmuje scenę muzyczną z wnętrza głowy, niwelując efekt super-stereo i stawia ją przed nami, tam gdzie powinna być. Używam w foobarze2000 i jest to jeden z niewielu dodatków, jaki w ogóle zawracałem głowę sobie ściągać.

Na długie nocne maratony z dźwiękiem - w sam raz. Szkoda tylko, że podobnego dodatku nie ma do odtwarzaczy wideo (poza WMP).

W przenośnych odtwarzaczach z wgranym Rockboxem, w ostatnich firmware'ach, też pojawia się crossfeed z domyślną opcją meierowską. Trudno bez tego żyć.
Ja nie rozumiem, dlaczego scena ma być przed nami. Ja wolę być w środku wydarzeń.
 

simek

Well-Known Member
1 367
2 122
Nie znam się, ale to może dlatego, żeby lepiej symulować odczucie koncertu, kiedy orkiestrę/muzyków masz przed sobą, a nie stoisz między kontrabasem a sekcją smyczkową.

Sam niedawno doszedłem do wniosku, że nie lubię dźwięku przestrzennego, który ma sprawiać, że jestem w środku wydarzeń podczas oglądania filmu. Problem taki, że jak coś oglądam na ekranie, to ja NIE JESTEM w środku akcji, bo widzę akcję przed sobą, więc wolę, żeby źródło dźwięku było mniej więcej tam gdzie źródło obrazu, dlatego od jakiegoś czasu oglądam filmy po prostu w stereo.
Może gdy będzie kiedyś dostępna jakaś wyjebana technologia 3D dzięki której naprawdę będę czuł się jakbym był w środku sceny, to wtedy przestrzenny dźwięk będzie ok.
 

FatBantha

sprzedawca niszowych etosów
Członek Załogi
8 902
25 790
Po pierwsze, z tego powodu, że na dłuższą metę jest to męczące. Zwłaszcza jeśli trafi Ci się materiał, w którym masz jakąś totalną separację instrumentów, przypisanych do osobnych kanałów, co może wyjść całkiem fajne na kolumnach, ale będzie rozpierdalało głowę w słuchawkach.

Zresztą jako przedstawiciel Okcydentu, szlachcic i duchowy arystokrata radzę, aby się nie mieszać z artystycznym pospólstwem. Oni mają mieć swoją przestrzeń, w której będą dla nas pracować a my swoją, gdzie będziemy konsumować owoce ich pracy z odpowiedniego dystansu, bez wprowadzania zamętu w hierarchii społecznej. Być w środku wydarzeń jest w złym guście - jakże to egalitarna skłonność!

Może gdy będzie kiedyś dostępna jakaś wyjebana technologia 3D dzięki której naprawdę będę czuł się jakbym był w środku sceny, to wtedy przestrzenny dźwięk będzie ok.
Ponoć już jest. A nawet była.

https://en.wikipedia.org/wiki/Ambisonics
 

FatBantha

sprzedawca niszowych etosów
Członek Załogi
8 902
25 790
Jeśli chodzi o przetwarzanie sygnałów, zagadnienia cyfrowego dźwięku, to znalazłem fajny, wprowadzający tekst z niezłymi przykładami i analogiami.

http://zakamarkiaudio.pl/2012/12/czestotliwosc-probkowania-i-glebia-bitowa-fakty-i-mity.html

A swoją drogą...

531052.jpg



531157.jpg
 

pampalini

krzewiciel słuszności
Członek Załogi
3 585
6 855
Kupiłem sobie właśnie słuchawki AKG K 701. OMG, cóż za precyzja. Zależało mi na jak najwierniejszym odtwarzaniu muzyki, tzw. płaska odpowiedź (przydatne przy miksowaniu / masteringu, ale też do słuchania muzyki - lubię słyszeć to, co muzyk chciał, żebym usłyszał). Odpalam utwór po utworze - pięknie odwzorowują dynamikę, charakterystykę tonalną, rozmieszczenie w przestrzeni itp. Polecam!

Teraz zasadzam się na aktywne głośniki Dynaudio BM5 MKII (do sypialni / biura / studia ;) )


Przy nagrywaniu potrzebujesz 24 bitów minimum jak najbardziej. Każda cyfrowa operacja (choćby zmiana głośności w miksie) zwiększa błąd kwantyzacji. Biorąc pod uwagę, że każda ścieżka przechodzi przez minimum kilka, a często kilkanaście albo i kilkadziesiąt operacji cyfrowych zanim trafi do miksu - tak, ma to znaczenie.

Co do próbkowania - jest tutaj małe nieporozumienie. Nie chodzi o to, że dzięki SACD usłyszysz dźwięki o częstotliwości 90 kHz. To absurdalne. Chodzi o inną kwestię. O to, że usłyszysz dźwięk o częstotliwości np. 5 kHz, ale precyzyjniej umieszczony w czasie (z precyzją 1/96.000 s). Ponoć ucho ma praktycznie nieskończoną wrażliwość na moment, w którym dany dźwięk słyszy. Nie wiem, nie robiłem ślepych testów, ale taka jest idea.

A rozpiętość DR to nie rozpiętość tonalna, tylko rozpiętość dynamiki ;) I zgadzam się, że współczesne DR to abominacja! Ostatnio oglądałem wywiad ze Stevenem Wilsonem. Powiedział, że jego tajemnicą jest to, iż nie oddaje swoich nagrań do "mastering engineera". Czyli dostajemy, jakby, niezmasterowane miksy.

BTW - dla zainteresowanych, Steven Wilson miksuje na monitorach studyjnych Genelec. Więc jeśli jesteście fanboyami i chcecie słuchać muzyki jego uszami, to sobie je kupcie, hehe.
 
Ostatnia edycja:

tosiabunio

Grand Master Architect
Członek Załogi
6 985
15 153
Pampalini, nie rozpowszechniaj tu bzdur audiofilskich. Ani częstotliwość próbkowania nie ma wpływu na to, co opisujesz, ani też liczba bitów nie jest taka krytyczna. Bez problemu jestem w stanie podać ci fragmenty muzyczne, w których nie rozpoznasz 8 bitów od 6 bitów. Błędy kwantyzacji są praktycznie niesłyszalne, ale nic nie stoi na przeszkodzie, aby audio nagrywać i przetwarzać w 24 bitach, a ostatecznie redukować do 16 bitów na końcu (zresztą cały soft audio wewnętrznie przetwarza najczęściej na 32 bitach).
 

pampalini

krzewiciel słuszności
Członek Załogi
3 585
6 855
Pampalini, nie rozpowszechniaj tu bzdur audiofilskich. Ani częstotliwość próbkowania nie ma wpływu na to, co opisujesz, ani też liczba bitów nie jest taka krytyczna. Bez problemu jestem w stanie podać ci fragmenty muzyczne, w których nie rozpoznasz 8 bitów od 6 bitów. Błędy kwantyzacji są praktycznie niesłyszalne, ale nic nie stoi na przeszkodzie, aby audio nagrywać i przetwarzać w 24 bitach, a ostatecznie redukować do 16 bitów na końcu (zresztą cały soft audio wewnętrznie przetwarza najczęściej na 32 bitach).
Częstotliwość próbkowania ma wpływ na moment, w którym słyszysz dany dźwięk. To, czy czyjeś ucho to słyszy, czy nie i jak duże ma to znaczenie, to inna kwestia (napisałem, że nie robiłem testów). Ale czepianie się 96 kHz używając argumentu, że ucho nie słyszy częstotliwości wyższej od 20 kHz jest bez sensu, bo chodzi o co innego. Z punktu widzenia fizyki AFAIK nie obalono przypuszczenia, że częstotliwość próbkowania powyżej 44 kHz ma znaczenie, jeśli wziąć pod uwagę to, o czym mówię.

Co do kwantyzacji - napisałem - "przy nagrywaniu potrzebujesz 24 bitów minimum jak najbardziej". Oczywiście, że potem można to redukować do 16 bitów.

Natomiast argument, że można podać fragmenty, w których nie rozpoznam 8 bitów od 6 jest zupełnie chybiony. Oczywiście, mogę nawet podać przykład, w którym nie da się usłyszeć różnicy między jednym bitem a 24 bitami - idealna fala prostokątna :) Pytanie jest raczej w drugą stronę - czy istnieją fragmenty, w których da się rozpoznać różnicę między 16 a 24 bit? Ja nie wiem.
 
Ostatnia edycja:

tosiabunio

Grand Master Architect
Członek Załogi
6 985
15 153
Z punktu widzenia fizyki AFAIK nie obalono przypuszczenia, że częstotliwość próbkowania powyżej 44 kHz ma znaczenie, jeśli wziąć pod uwagę to, o czym mówię.

Ciężar dowodów spada na tych, którzy twierdzą, że ma znaczenie. Dotychczas nie udało im się tego wykazać.

Natomiast co do czasowych zależności, to tzw. transient response jest powiązana z pasmem, jeśli dany sygnał wymaga lepszego zaprezentowania tzw. transientów, to oznacza, że wymaga większego pasma, co może być zrealizowane przez większą częstotliwość próbkowania, ale wcale nie oznacza, że jest to konieczne z punktu widzenia percepcji - skoro nie słyszymy, to te opóźnienia transientów nie mają znaczenia (a nikt nie wykazał, że mają).

Natomiast jeśli weźmiemy falę sinusoidalną np. 1 kHz, to zostaje ona odtworzona idealnie niezależnie od częstotliwości próbkowania (oczywiście biorąc pod uwagę zasadę Nyquista–Shannona oraz niedoskonałości DAC i filtrów). Nie ma przesunięć czasowych takiej fali w zależności od częstotliwości próbkowania.

A co do głębi bitowej, jestem gotów się założyć o flaszkę, że nie rozpoznasz 14 i 16 bitów na pewno.
 

pampalini

krzewiciel słuszności
Członek Załogi
3 585
6 855
Natomiast jeśli weźmiemy falę sinusoidalną np. 1 kHz, to zostaje ona odtworzona idealnie niezależnie od częstotliwości próbkowania (oczywiście biorąc pod uwagę zasadę Nyquista–Shannona oraz niedoskonałości DAC i filtrów). Nie ma przesunięć czasowych takiej fali w zależności od częstotliwości próbkowania.
No to oczywiste jest. Jak już napisałem - można nawet taki materiał dobrać, dla którego próbkowanie 1 kHz / 1 bit będzie wystarczające.

A co do głębi bitowej, jestem gotów się założyć o flaszkę, że nie rozpoznasz 14 i 16 bitów na pewno.
Ale dla jakiego materiału? Jestem gotów założyć się o flaszkę, że istnieją takie fragmenty, dla których zauważę różnicę między 16 a 24 bit. Z jakiegoś powodu wymyślono algorytmy tzw. dither, które wprowadzają szum "subkwantowy" (np. 1/2 bita dla 16 bitowego kwantowania) i są one stosowane przez ogromną większość inżynierów dźwięku. Najciekawsze jest to, że w przypadku niektórych algorytmów szum ten bywa słyszalny! Skoro więc profesjonalny inżynier dźwięku decyduje się wprowadzić słyszalny szum do utworu, żeby zmniejszyć jego błąd kwantyzacji dla 16 bitów, to oznacza, że ten słyszalny szum jest dla niego mniej dokuczliwy od błędu kwantyzacji, a więc z dużym prawdopodobieństwem ja też usłyszałbym ów błąd, jeśli byłbym w stanie usłyszeć szum dithera.

Swoją drogą - nigdy się tym jakoś szczególnie nie interesowałem, ale chyba aż poszukam w necie próbek, żeby się przekonać samemu.
 

FatBantha

sprzedawca niszowych etosów
Członek Załogi
8 902
25 790
Pampi, poczytaj sobie Dana Lavry'ego.

http://www.lavryengineering.com/pdfs/lavry-sampling-theory.pdf
http://www.lavryengineering.com/pdfs/lavry-white-paper-the_optimal_sample_rate_for_quality_audio.pdf

Według niego optymalna częstotliwość próbkowania leży gdzieś koło 60 000 Hz. Najbliżej tego optimum były:

50,000 Hz First commercial digital audio recorders from the late 70s from 3M and Soundstream.

50,400 Hz Sampling rate used by the Mitsubishi X-80 digital audio recorder.

I to nie dlatego, że psychoakustyka czy jakieś subiektywistyczne mambo-dżambo, by to uzasadniały - chodzi raczej o kwestie sprzętowe.

Sampling at 192KHz produces larger files requiring more storage space and slowing down the transmission. Sampling at 192KHz produces a huge burden on the computational processing speed requirements. There is also a tradeoff between speed and accuracy. Conversion at 100MHz yield around 8 bits, conversion at 1MHz may yield near 16 bits and as we approach 50-60Hz we get near 24 bits. Speed related inaccuracies are due to real circuit considerations, such as charging capacitors, amplifier settling and more. Slowing down improves accuracy. So if going as fast as say 88.2 or 96KHz is already faster than the optimal rate, how can we explain the need for 192KHz sampling? Some tried to present it as a benefit due to narrower impulse response: implying either "better ability to locate a sonic impulse in space" or "a more analog like behavior". Such claims show a complete lack of understanding of signal theory fundamentals. We talk about bandwidth when addressing frequency content. We talk about impulse response when dealing with the time domain. Yet they are one of the same. An argument in favor of microsecond impulse is an argument for a Mega Hertz audio system. There is no need for such a system. The most exceptional human ear is far from being able to respond to frequencies above 40K.

[...]

Audio sample rate is the rate of the audio data. Such data may be generated by an AD converter, received and played by a DA converter, or even altered by a Sample Rate converter. Much confusion regarding sample rates stems from the fact that some localized processes happen at much faster rates than the data rate. For example, most front ends of modern AD (the modulator section) work at rates between 64 and 512 faster than a basic 44.1 or 48KHz system. This is 16 to 128 times faster than 192KHz. Such speedy operation yields only a few bits. Following such high speed low bits intermediary outcome is a process called decimation, slowing down the speed for more bits. There is a tradeoff between speed and accuracy. The localized converter circuit (few bits at MHz speeds) is followed by a decimation circuit, yielding the required bits at the final sample rate.

Najlepszą analogią byłoby tu wypalanie płyt. Niby można nagrywać je z najszybszą możliwą prędkością, ale narazić się na większe ryzyko błędnego zapisu. Tylko po co? W przypadku audio w dodatku marnuje się na te błędy więcej miejsca.

Sampling faster enables recording and keeping the energy that we do not hear. At best it will cause no harm. In reality there is a potential that keeping ultrasonic frequencies will cause unwanted audible alterations. One of the more well-known mechanisms for such alterations is imperfect linearity (non- linearity) in equipment. The type of distortions generated by non-linearity is called intermodulation, and such distortions are rather offensive in nature because the distortion energy is not harmonic. Harmonic distortion tends to alter the timbre, it “colors the sound” by changing the relative harmonic content. Intermodulation is much worse, it is not related to the sound or its harmonics; thus it takes much less intermodulation distortion to become offensive to the ear.

As a practical matter, linearity gets worse and worse as frequency increase. The linearity at the audible range (lower frequencies) is better than the linearity at ultrasonic frequencies. While keeping the unnecessary ultrasonic energy may cause harm, making sure not to include the signals that we don’t hear provides protection against such degradation. With none of the un-needed signals to “spill over” the problem is gone! Most microphones are designed to match the human hearing frequency range, so they don’t pick up ultrasonic energy; which is a good thing. It prevents the intermodulation I spoke of earlier from happening. Simply speaking, it is a good idea to keep as much as possible of the part of the energy we need, and to get rid of the energy we don’t need (ultrasonic frequencies) as early as possible in the audio chain. Again, ultrasonic energy will at best cause no harm to the sound you need, but it certainly cannot help; and there is another price to pay. With the current higher sample rates, the file size is doubled or even four times larger, and file transfer rates are proportionally longer. Is this price worth paying when you consider that your audio quality may also be compromised by the “spilling over” of non-musical energy in addition to all of the other inaccuracies due to using a higher than optimal sample rate?

Conclusion:

There is an inescapable tradeoff between faster sampling on one hand and a loss of accuracy, increased data size and much additional processing requirement on the other hand. AD converter designers can not generate 20 bits at MHz speeds, yet they often utilize a circuit yielding a few bits at MHz speeds as a step towards making many bits at lower speeds. The compromise between speed and accuracy is a permanent engineering and scientific reality. Sampling audio signals at 192KHz is about 3 times faster than the optimal rate. It compromises the accuracy which ends up as audio distortions. While there is no up side to operation at excessive speeds, there are further disadvantages:



1. The increased speed causes larger amount of data (impacting data storage and data transmission speed requirements).
2. Operating at 192KHz causes a very significant increase in the required processing power, resulting in very costly gear and/or further compromise in audio quality.

The optimal sample rate should be largely based on the required signal bandwidth. Audio industry salesman have been promoting faster than optimal rates. The promotion of such ideas is based on the fallacy that faster rates yield more accuracy and/or more detail. Weather motivated by profit or ignorance, the promoters, leading the industry in the wrong direction, are stating the opposite of what is true.

Jak widać, niestety wolny rynek zawiódł i dziś wciska się marketingowo największe sample rate'y. Z istniejących standardów częstotliwości próbkowania najbliżej temu jest 88 200 Hz:

Good conversion requires attention to capturing and reproducing the range we hear while filtering and keeping out energy in the frequency range outside of our hearing. At 44.1 KHz sampling the flatness response may be an issue. If each of the elements (microphone, AD, DA and speaker) limit the audio bandwidth to 20 KHz (each causing a 3dB loss at 20 KHz), the combined impact is -12dB at 20 KHz.

At 60 KHz sampling rate, the contribution of AD and DA to any attenuation in the audible range is negligible. Although 60 KHz would be closer to the ideal; given the existing standards, 88.2 KHz and 96 KHz are closest to the optimal sample rate. At 96 KHz sampling rate the theoretical bandwidth is 48 KHz. In designing a real world converter operating at 96 KHz, one ends up with a bandwidth of approximately 40 KHz.
 
Do góry Bottom