wyobraźmy sobie, że nasz znajomy kupił kartę muzyczną posiadającą wyjście liniowe oraz słuchawkowe i upiera się, że będzie grać na imprezach (podpinać się do różnych wzmacniaczy, mikserów, etc.) z wyjścia phone out. Czy mógłby ktoś w prostych żołnierskich słowach – najlepiej w podpunktach – napisać czemu to jest zły pomysł i podać praktyczne powody? Pomińmy argument, że wyjście słuchawkowe jest niesymetryczne, a liniowe bywają symetryczne.
Zależy, jaka "karta muzyczna". Np. Scarlett Solo ma na wyjściu słuchawkowym pod każdym względem lepsze parametry niż na liniowym:
https://us.focusrite.com/usb-audio-interfaces/scarlett-solo
2. Pytanie dotyczy wyboru karty muzycznej. System 16-bitowego odtwarzania dźwięków oferuje 96 dB zakresu dynamiki (tak czytałem). Czy w takim razie jeśli chcemy grać muzykę na imprezach i odtwarzać pliki 16-bitowe, to nie ma sensu patrzeć na ten parametr techniczny interface’u audio? 104 dB, czy 107 dB – co za różnica, skoro i tak dźwięk nie wyjdzie ponad 96 dB dynamiki? Dobrze myślę?
Szumy w przerwach będą na pewno niższe
3. Pytanie dotyczy parametrów odtwarzania (częstotliwość próbkowania oraz głębia bitowa). Czasami jak ustawienia systemu i programu komputerowego są inne (np. w programie 44,1 kHz a w systemie 48 kHz), to dźwięk jest niepoprawnie odtwarzany, ale często – np. w przypadku prostych odtwarzaczy muzyki – można odtworzyć plik 44,1 kHz przy ustawieniach systemowych karty dźwiękowej 48 kHz. Co się wtedy fizycznie dzieje? Czy ta częstotliwość jest jakoś przeliczana na szybko, czy po prostu karta dźwiękowa automatycznie się przełącza? Pytam, ponieważ zastanawiam się, czy warto dbać o tę zgodność ustawień hardware z właściwościami pliku muzycznego (bo np. w przeciwnym razie obciążamy procesor i program pracuje mniej stabilnie), czy to nie ma żadnego wpływu na stabilność?
Karta zmienia częstotliwość próbkowania "w locie", generalnie oznacza to gorszą jakość.
[addsig]