성경 구절을 PPT로 만들어주는 프로그램

[C#] 성경2PPT

POSTED AT 2014.05.18 21:03 | POSTED IN 프로그램

입니다.
프로그램을 실행하면 생성되는 템플릿을 수정해서 PPT의 디자인을 바꿀 수 있습니다.

성경 구절을 인터넷에서 받아오기 때문에 첫 사용 시 인터넷에 연결된 상태에서 프로그램을 실행해야 합니다.
오프라인 캐시 사용 시 이전에 내려받은 성경 구절은 인터넷에 연결되지 않아도 사용할 수 있습니다.

개역개정, NIV, 개역한글, 쉬운성경, 공동번역, 현대인의성경, 새번역 등을 사용할 수 있습니다.

프로그램 설명

여기에서 상세한 프로그램 설명을 확인하세요!

변경사항

내려받기: 1.2 (2018-02-28)

Bible2PPT-1.2.zip
View Source on GitHub

* .NET Framework 4가 설치돼있어야 정상작동합니다.
* Microsoft PowerPoint 2007 이상과 Office 공유 기능 – Visual Basic for Applications을 설치해야 합니다!

룸 튜닝을 위한 Measuring 법(1) : Microphone 준비

 https://m.blog.naver.com/chardad

많은 오디오 파일들은 기기를 바꾸면서 귀로서 그 완성도를 파악하고 잘 측정은 하지 않습니다.  어떻게 측정해야 하는지, 어떤 기기를 사용해야 하는지, 그리고 그 측정된 값을 어떻게 판단해야 하는지 쉽지 않은 문제죠. 이 분야를 전공으로 하지 않으신 분으로서는 어려운 일이지만 이젠 약간의 노력만 들이면 충분히 가능한 시대가 되었습니다.
매우 저렴한 계측용 마이크로폰이 판매되고 있고 또 전문 프로그램과 견줄만한 무료 프로그램들과 앱들이 나오고 있습니다.  오디오 파일로 쉽게 접근 가능한 방법을 정리하였습니다.

1. 계측용 마이크 : USB 방식의 마이크로폰, miniDSP UMIK-1 calibrated USB measurement mic
2. REW (Room EQ Wizard) : 주파수 특성 측정, Room 특성 simulation 프로그램
3. Impulso  : 잔향시간 측정과 룸 튜닝재 Simulation 아이폰앱
4. 음향학, 건축음향에 대한 약간의 지식

첫 번째 준비물은 calibrated된 마이크입니다. 계측용 마이크는 높은 정밀도를 요하기에 매우 비쌉니다. 취미 생활을 위한 저렴한 몇 가지 마이크가 판매되고 있습니다.
추천 제품은  miniDSP 사의 UMIK-1 mic입니다. USB 인터페이스로 쉽게 PC와 연결이 되고 캘리브레이션 파일을 제공합니다. 아이폰과도 USB to lightning 어댑터로 연결 가능합니다.
https://www.minidsp.com/products/acoustic-measurement/umik-1

  캘리브레이션 파일은 miniDSP 홈피에서 다운로드하면 됩니다. REW 나 SignalScope와 같은 프로그램에서 캘리브레이션 파일을 적용해주면 계측용 마이크와 같이 정확한 값으로 계측 가능합니다.   제가 가진 UMIK-1 마이크의 Cal 차트를 보니 senstivity factor (얼마의 전기신호가 들어오면 몇dB가 되는지 보정값)와 주파수별 보정값이 들어있습니다. 주파수에 따라 0~2.8dB 정도의 보청치입니다.

이외에도 Dayton Audio EMM-6 measurement microphone 이 있습니다.  대신 이 제품은 mic pre-amp 혹은 팬텀 전원이 필요합니다. 즉 PC와 연결을 위해서는 추가의 USB Audio interface가 있어야 합니다.
https://www.amazon.com/gp/product/B002KI8X40/ref=as_at?imprToken=3n2hsQqNu55EGc1r6Xhgdg&slotNum=2&ie=UTF8&camp=1789&creative=9325&creativeASIN=B002KI8X40&linkCode=w61&tag=roomeqwizar07-20&linkId=4b8523e5473d4163f27fa890d94fae9b

이외 필요한 준비물은 마이크 스탠드입니다. 매일 사용하는 것이 아니기에 싼 것 하나 구입하시면 됩니다.

이제  측정용 마이크가 준비되었다면  측정 프로그램으로 넘어갑니다. (to be continued..)

룸 튜닝을 위한 Measuring 법(2) : REW(Room EQ wizard)으로 측정/분석하기

프로필

이웃추가

2부 시작합니다.

REW를 처음 사용해보고 이런 프로그램이 무료로 배포되고 있다는 것에 놀랐고 계속해서 버전업이 이루어지고 있다는 것에 놀랐습니다.  REW는 Room EQ wizard의 약자로  REW 홈피에서는 Room acoustics software로 소개하고 있습니다. 그  기능이 매우 다양하고 매우 전문적인 부분을 포함하고 있습니다.

1. 설치하기
window, ios, linux를 지원합니다. os에 맞는 버전을 다운받아 설치하면 됩니다.
https://www.roomeqwizard.com

249 페이지에 달하는 매우 상세한 설명서가 있습니다. 이것 하나만 충분히 마스터하시면 이젠 계측의 달인이 됩니다. ㅎㅎ
https://www.roomeqwizard.com/REWhelp.pdf

REM의 몇 가지 중요한 기능들만 살펴보겠습니다.

2. Measure :  준비된 계측용 USB 마이크를  PC와 연결하고 또 오디오와 PC를 연결합니다.(USB DAC 등)  REW 프로그램에서 오디오로 가진 신호를 보내고 마이크로 측정을 하여 여러 가지 분석을 합니다. 상단의 가장 왼쪽 Measure 아이콘을 클릭하면 측정 화면이 나타납니다. 시작 주파수와 끝나는 주파수 그리고 측정시간 등을 설정합니다.  여러 번 측정하여 평균을 취하기 위해서는 sweep을 4로 세팅해 주면 됩니다. 처음으로 마이크를 설치했다면 캘리브레이션 파일을 가져올 것인지 묻습니다. miniDSP 홈피에서 받아둔 파일 위치를 지정하면 됩니다.

마이크와 오디오가 잘 연결되었고 Audio midi 세팅에서 연결된 오디오 USB DAC와 USB 마이크를 지정하고 볼륨을 세팅합니다. (오디오 출력과 마이크 입력을 최댓값으로 세팅하고 오디오 프리단의 볼륨을 일반적으로 오디오 감상 정도의 음량으로 세팅합니다.)  “Check levels“을 눌러 소리가 나오고 마이크 입력이 들어오는지 확인합니다. 다음으로 Start measuring을 누르면 25Hz에서 20kHz까지 Sine sweep 신호가 나오면서 계측이 시작됩니다. 계측 Dynamic range를 최대한 사용하기 위해서는 Headroom이 6dB 정도 될 수 있게 음량을 조절합니다.  0dB를 넘어서게 되면 클리핑이 되어 계측에 오류가 생기고 6dB 보다 적은 headroom을 가지게 되면 S/N 이 나빠지게 됩니다.

측정이 끝나면 아래와 같은 그래프가 생성됩니다. 상단 그래프가 주파수에 따른 음압의 크기, 하단이 위상을 표시합니다. 스피커의 특성이 주파수별로 매우 평탄하다고 해도 청음 공간의 특성이 반영되어 피크와 딥이 형성됩니다.  왜 이런 피크와 딥이 생기는지는 Room simulation에서 좀 더 설명하겠습니다.  아래의 그래프는 스피커에서 청취 위치까지의 주파수 특성입니다.  스피커 바로 앞에서 측정한다면 비교적 평탄한 특성으로 나타납니다.

3. 분석하기 :
SPL & Phase, ALL SPL : 주파수에 따른 음압의 크기와 위상(위의 그래프)
All SPL : 여러 개의 측정 결과를 동시에 보여줍니다. 아래 그래프는 EVE 203 모니터 스피커에서 EQ 세팅을 바꾸어 가며 측정한 결과입니다. desk로 세팅 시 가장 큰 변화가 있네요. 그래프를 보며 귀로 느꼈던 결과와 비교하면 재미있습니다.

Distortion : 주성분과 그 배음을 표시합니다. THD(Total Harmonic Distortion)가 계산됩니다.  100Hz 음을 재생 시에 200,300,400Hz 등의 고차 배음이 얼마나 생기는지 보여줍니다. PC용이나 블루투스 스피커를 측정해 보면 매우 나쁘게 측정됩니다. Hi-end 오디오는 큰 특정 구간에서만 수% 정도의 값으로 나타납니다. 대부분의 영역에서는 0.xx%정도..  수% THD 까지는 귀로는 잘 구분하기 힘듭니다.

Implusle Responses : 스피커에서 Impluse 입력이 들어왔을 때 마이크에서 측정되는 시간별 음압의 크기입니다.  청취 공간의 잔향을 파악할 수 있습니다.  콘서트홀에서 20~50ms까지의 반사음은 직접음과 합쳐져서 음량감,확산감, 공간감 보강에 긍정적 효과를 준다고 합니다.  이 그래프에서 60dB 음압이 감소하는 시간까지를 잔향시간으로 정의합니다. 대략 200ms 정도로 보이군요.  60dB의 음압 차이는 큰 값이기에 매우 조용한 상황에서, 높은 음압으로 측정해야 정확하게 계측됩니다.   이 그래프는 스피커와 매우 가까이, 그리고 흡음이 많은 공간에서 측정하면 잔향이 없이 나타납니다. 즉 이 그래프로 라이브 한지 데드 한지를 알 수 있습니다.  공간의 흡음 특성, 그리고 공간의 크기, 그리고 측정 위치에 의해 잔향시간이 좌우됩니다.

Impulse response를 dBFS 로 표시하면 이렇게

Impulse response를 % FS 로 표시하면 이렇게

  % FS에서 첫 번째 반사음은 1.6ms 뒤에 들어옵니다.  음파 속도를 340m/s로 보면 직접음과 첫 반사음은 약 0.54m 거리 차이가 있다는 이야기입니다.  매우 작은 방이기에 스피커 옆벽, 혹은 스피커사이의 공간을 맞고 들어오는 음과 직접음의 거리 차이가 매우 짧게 나타났습니다.

이 그래프는 스피커와 0.5m 거리에서 측정한 것으로 첫 반사음이 잡히지 않았습니다.

RT60 Graph : Impulse response로부터 잔향시간을 계산합니다. RT60은 60dB가 감쇠되는 시간을 표현하는데 계산하는  여러 방법들이 있습니다. 아주 잔향이 크고 조용하지 않은 상황에서는 60dB가 감쇠되는 것을 정확하게 측정이 되지 않기에 여러 가지 방법으로 계산합니다. Schroeder curve로 부터 잔향시간을 계산합니다.  EDT는 Early decay time으로 초기 0~-10dB 감쇠에 6을 곱해서 계산하기에 초기 반사음 효과가 크게 반영된 값입니다. 초기 반사음의 효과가 반영되었기에 측정위치에 따라 값의 차이가 많이 발생합니다. RT20, RT30은 -5dB에서 -25dB,  -35dB까지 감쇠 시간으로부터 -60dB를 계산하여 초기 반사음의 영향을 제거한 값입니다.  EDT와 RT30의 값의 차이를 보면 초기 반사음이 어느 정도 영향을 주는지 알 수 있습니다. ISO에서는 RT30을 기준으로 삼는데 125Hz 이하는 정재파의 영향과 충분히 저역 가진이 되지 않아 계산 값에 에러가 많다고 합니다.

위의 그래프는 제 청취 공간에서 측정한 값인데 63Hz 대역에서는 룸 모드로 인해 잔향이 길고 나머지 영역은 0.15~ 0.2 정도의 비교적 짧은 잔향시간으로 측정됩니다. 룸 모드 컨트롤을 하려고 베이스트랩도 설치하였지만 조금 더 저역의 잔향 제어가 필요해 보이군요.

적정한 잔향시간은 공간의 크기에 따라, 청취 목적에 따라 다릅니다.

출처 : https://www.arauacustica.com/files/publicaciones_relacionados/pdf_esp_78.pdf

콘서트홀이나 교회는 긴 잔향시간, 영화관은 짧은 잔향시간이 좋습니다. 앞 그래프에서 볼 수 있듯이 공간이 커질수록 적정한 잔향시간도 커집니다.  작은 공간에서의 값들을 찾아보니 20제곱 미터의 일반 가정에서는 0.4s 정도의 잔향시간을 추천합니다.  작은방을 오디오 공간으로 사용 중인데 (8제곱 미터) 0.2s 정도의 값을 추천하는군요.  (공간의 목적과 넓이에 따른 추천 잔향시간은 잔향시간 측정 APP인 Impluse Pro에서 설명하겠습니다. to be continued..)

Clarity : 명료도로  전체 음에너지에서 초기음의 비율로 표현됩니다. Clarity C50은 전체 음 에너지에서 초기 50ms까지의 음 에너지 비율을 dB로 표현, C80은 80ms까지의 비율입니다. C50은 Speech clarity로 C80은 music clarity의 기준으로 사용됩니다. D50은 전체 음 에너지 대비 초기 50ms까지 음 에너지 값을 %로 표현한 값입니다.

Spectral Decay Graph :  20ms 단위로 음압이 감쇠하는 패턴을 보여줍니다. 감쇠가 잘 되지 않는 주파수에서는 공진이나 다른 문제가 있음을 보여줍니다.

룸 튜닝전 Decay 특성 ( 60Hz 룸 공진 문제가 잘 표현됩니다. )

룸 튜닝 후 Decay 특성

Waterfall graph : 시간 경과에 따른 음압 변화를 3차원 그래프로 표현합니다. 다른 부분은 시간에 따라 잘 감쇠가 이루어지고 있지만 63Hz에서는 공진으로 인해 음압 감쇠가 잘 되지 않는것이 표현됩니다.

Spectrogram graph : 시간 경과에 따른 음압 변화를 2차원 컬러 맵으로 표현합니다.  역시 63Hz 대역에서의 잔향시간이 긴 것이 이 그래프에서도 잘 표현되는군요.

Sine sweep으로 측정과 분석하는 방법을 알아봤습니다.

이외에서 REW에서는 스피커의  Thiele-small parameter을 위한 Impedance measuremet, SPL, Signal generator, EQ paramter 추출, Room simulation 등의 무궁한 기능들이 있습니다.
REW Help에는 더 자세한 설명과 세팅법들이 잘 설명되어 있기에 참고하시면 좋겠습니다.

Room simulation 기능은 추가로 좀 더 알아보도록 하겠습니다.

잔향시간에 대해 좀 더 자세한 이해를 원하신다면
잔향 시간의 해석 Analysis of Reverberation timebssound.kr/shop/board/download.php?id=skill&no=76&div=0

참고하시면 됩니다.

룸 튜닝을 위한 Measuring 법(3) : REW (Room EQ wizard)으로 룸 모드 Simulation 하기

3부 시작합니다.

REW에서 상단의 Room Sim 아이콘을 누르면 Room simulation 창이 뜹니다.
청취 공간의 크기와 흡음률을 설정합니다. 스피커의 위치, 청취 위치는 화면에서 스피커와 청취 위치 아이콘을 드래그하여 설정합니다.  사용하고 있는 스피커의 저음 특성을 설정하면 계산된 주파수 특성이 표시됩니다.

Modal Resonse Lines에서 축의 색깔을 보면 각 피크들이 어떤 부분의 영향으로 발생하는 피크인지를 알 수 있습니다. 첫 번째 피크인 63Hz는 청취 공간의 길이 방향인 2.75m에 해당하는 파장의 1/2에 해당하는 모드입니다.   공진주파수(Hz) = 344 /( L*2 )의 식으로 계산됩니다.
음파가 진행하여 벽면에서 반사가 되어 돌아오면서 진행되는 파와 간섭으로 소멸 혹은 증대가 됩니다.  특정 주파수가 되면 방의 길이와 음의 파장과 맞아서 진행파와 반사파가 같은 위상으로 음압이 증폭되는 현상이 발생합니다.  이 현상이 공진으로 매우 작은 에너지로 큰 음압을 발생시킵니다. 흡음 특성에 따라 다르지만 작은방에서는 10~20dB가 증폭됩니다. (아래 그래프에서 첫 번째 피크가 그 공진현상입니다.)

위쪽 그래프는 주파수 특성, 아래쪽은 위상 특성입니다.

이 현상은 방의 크기로 결정이 되기에 앰프나 케이블을 변경해서는 답이 나오지 않습니다.  쉽게 방에서 룸 모드를 확인할 수 있는 방법은 주파수를 Sweep 시키면서 음압이 커지는 주파수를 찾으면 됩니다. 그 주파수에 고정하고 방안의 앞뒤/좌우로 이동하면 음압이 커지고 작아지는 것을 쉽게 느낄 수가 있습니다. 그 음압이 커지고 작아지는 것이 룸 모드입니다.

쉽게 룸 모드를 계산하려면 아래 사이트를 이용하면 됩니다. (방의 크기에 따라 룸모드 주파수 계산뿐 아니라 잔향시간에 대한 추천값도 계산됩니다.)

https://amcoustics.com/tools/amroc?l=275&w=295&h=220&re=EBU%20listening%20room

스피커와 청취 위치를 옮겨가면 이 피크를 최소화할 수 있는 위치를 찾을 수는 있습니다. 길이 방향의 모드이기에 스피커가 벽에서 떨어질수록, 청취 위치가 중앙으로 갈수록 특성이 평탄해집니다. 현실적으로  방 중앙에서 들을 수는 없기에 그 주파수에 맞는 베이스트랩(Basstrap)을 설치하여 모드를 제어해야 합니다.  (베이스트랩도 그 기본 원리가 반대 위상음을 이용하여 부밍을 상쇄시키는 것입니다.)
베이스트랩에 대해 좀더 정보가 필요하시면  https://blog.naver.com/chardad/220253200272 참고하시면 됩니다.

동일한 위치에서 직접 측정해보면 Simulation 결과와 매우 유사한 그래프가 나옵니다. 측정에서 부드러운 피크와 딥이 있는 것으로 보아 Simulation에서 사용한 흡음률보다 좀 더 큰 흡음 특성이 있는 것 같습니다. 좀 더 높은 흡음률로 변경하면 비슷한 크기의 피크로 계산됩니다.

위쪽은 측정된 주파수 특성, 아래쪽은 Simulation 에서 나온 결과입니다.

이 프로그램에서는 서브우퍼의 위치 설정을 위한 팁을 얻을 수 있습니다.  Speaker control에서 서브 우퍼를  선택하고 위치를 조절해 보면 어느 위치에 설치야 할지에 대한 감이 생기게 됩니다.

아래의 그래프는 청취자 위치 뒤쪽에 2개의 서브우퍼를 설치할 때의 주파수 특성입니다.

Simulation으로는 매우 아름다운 곡선이 나오는군요.  ㅎㅎ

자세히 보기

How do we hear?

How do we hear? How does the ear work? We should all know this stuff.

게시: Tom S. Ray Audio Mastering 2018년 12월 11일 화요일

우리 귀는 어떻게 듣나?

 

(토론) 앰프의 스피커 출력 시그널의 입력 신호

특별히 전기 장치에 관심과 연구가 많은 이무재 씨의 주장 중에 특히 진공관에 대한 부분이 특기하여 공유 합니다.

“220V 10A 이상을 뿜어내는 가정용 전기 콘센트에 볼티지미터를 연결하는 것은 위험하지는 않을까? 정답은 볼티지미터의 입력임피던스가 엄청나게 크기에 전류가 거의 흐르지 않아 부하형성이 안되고 따라서 단락과 비슷한 상태가 유지되어 안전하다.

앰프의 출력단에 di박스를 연결하는 것도 같은 원리이다. 앰프의 출력 임피던스에 비해 di박스의 입력 임피던스가 최소 1천배 이상 크기 때문에 전류를 거의 흘리지 못해 미미한 W만 출력할 수 있다. 그에 비해 볼티지, 즉 출력 파형은 낮은 임피던스의 스피커만 연결했을 때보다 훨씬 정확하게 나온다. di박스에 부착된 pad스위치는 이 출력 볼티지를 줄여주는 역할을 한다.(W를 줄여주는게 아니다! 이미 di박스의 거대한 입력 임피던스로 인해 전류가 거의 흐르지 못한다. di박스에 부착된 pad의 저항은 고작 1-2w급이다.)

“di박스는 부하를 형성하지 않는다!”

쉽게말해 앰프의 출력단에 di를 연결하는 행위는 앰프에 전혀 부하를 형성하지 못한다. 이게 TR앰프서는 무리가 없지만 진공관 앰프에서는 문제가 조금 다르다. 진공관 앰프의 출력 임피던스는 1.2kohm정도에 이르므로 스피커를 구동하기 위한 출력 트랜스가 존재한다. 출력 트랜스 2차 권선이 오픈된 상태 혹은 거대한 임피던스만 물려서 부하형성이 되지 않은 상태에서 파워관이 드라이브하면 1차 권선은 쇼트된 것과 비슷한 상황이 된다.(파워관 에너지는 오로지 2차권선을 자화시키는데만 사용된다.) 이는 파워관의 수명을 극도로 단축시킨다. 모터에 전력이 인가되었을 때 모터를 강제로 멈추면 열이 발생하는 것과 비슷한 원리이다.

최근 모 그룹서 이슈가 되는 사태를 정리해봤는데, 알량한 자존심 버리지 못하고 스스로만 옳다고 생각하면 나중에 이불킥할 상황이 분명히 올 것이다.”

Mixing in Stereo: Adding Width and Depth to Your Recordings

Mixing in Stereo: Adding Width and Depth to Your Recordings

img_0808When it comes to discussing the fine art of mixing music, I tend to approach the subject with some trepidation. After all, compared to many of the topics I’ve written about, this one is rife with subjectivity — one person’s idea of a great sounding mix may be another’s sonic nightmare. And what works for one genre of music will be decidedly wrong for another.

But all those variables aside, there are at least a few general theories, tips, and tricks that apply to most mix projects. So while the idea here is not to give a step-by-step tutorial on two-track mixing, hopefully we can cover at least a few concepts that are useful for everyone.

The Concept
At its most basic, mixing in stereo means mixing for the human brain and physiology. “True” stereo mixing involves creating a sonic picture that replicates what our two ears hear — and our brains decode — in the real world. For example, the brain localizes a sound by measuring the time and tonal differences between the sound arriving at one ear and the other. In a perfect world, a true stereo mix would create a sound that’s as close as possible to an organic, live performance.

But in the real world, much of the process of creating a stereo mix is far from organic or natural. Part of this is due to practical considerations. In a live performance, the acoustics of the venue itself play a prominent role in blending the sound sources and masking the localization of any particular instrument. In the studio, tracks tend to be recorded separately, in a relatively dry setting, enabling us to control their perceived ambience with the aid of technology.

In actual practice, modern stereo mixing has less to do with replicating real world conditions than with creating a good sounding balance between the various musical elements in a recording. It’s probably safe to say that most modern recordings bear only a passing resemblance to the sound of a band playing live in front of the listener.

What Makes a Good Mix?
As stated earlier, the definition of a good sounding mix is largely in the ears of the listener. But most engineers will agree that a good mix should contain a few common characteristics:

Clarity: Each sound in the mix should be clean and clear — no muddiness or blurring of the sounds or the stereo image, no excess noise or other anomalies.

Separation: Each instrument and part should be easily discernable. Sure, there’s nothing wrong with a “wall of sound” if that’s what you’re after, but even within those big, lush guitars, a great mix will be crisp and well-defined enough for the listener to pick out individual sounds.

Balance: The mix should offer a good balance of frequencies. A mix that’s too bottom heavy or too shrill will be unpleasant and exhausting to listen to. The mix should also be balanced between left and right channels.

Space: As with balance, this applies on many levels. The music itself should have space – places between the notes where things breathe and dynamics develop. Of course, this will vary depending on the genre of music. There should also be an element of natural ambience to each instrument, and the ambience for these different instruments should blend well with each other.

Needless to say, these characteristics alone do not make for a perfect mix, but a mix that lacks any one of them will very likely end up being at least a little bit problematic.

It Starts at the Source
It should go without saying that achieving the best mix starts with a good recording. Strive to achieve the cleanest tracks you can, with no excess noise or distortion.

Most importantly, don’t forget to listen closely while you’re recording. Be on the lookout not just for mistakes, but stray noises and other anomalies. It’s far more difficult to go back and re-record a part, or fix it in the mix, than it is to get it right the first time.

It’s also a good idea to think in terms of the song and the arrangement from the very beginning. Only add what’s needed for the arrangement, rather than cluttering it with overdubs. And try to keep the number of takes of any given part to a minimum; few things are more mentally exhausting than listening through dozens of takes of a vocal or solo to compile a single track.

In fact, planning for your mix while you’re tracking is probably the number one most overlooked issue in recording. Particularly with the near limitless tracks offered by today’s DAW programs, it’s all too easy to just record another take and adopt a “fix it in the mix” attitude. The hours you will add to your mixdown time will absolutely come back to bite you in the end.
Mixing at too high a volume will affect your sound perception, as demonstrated by these loudness contours.
Mixing at too high a volume will affect your sound perception, as demonstrated by these loudness contours.

img_0809Preparing Yourself
Just as with any artistic endeavour, everyone has their own set of tricks and techniques, and what works for me might not do the trick for you. But there are a few points that are pretty much universal. One is to always try and mix with fresh ears. Starting a mix after you’ve been tracking for eight hours will pretty much assure you’ll be starting again the next day. Second, try and keep the volume at lower levels — too much volume will inevitably begin to affect your perception (for more info, do a web search on “Fletcher-Munson Curve”).

Also, when you’re mixing remember to change your perspective often. Your mix may sound great while you’re sitting in the sweet spot between the speakers, but the true test will be listening to it from out in the hall, or through a boom box or car stereo.

We’ve all heard people compare a mix in visual terms, and there are even courses of study that emphasize the concept, creating different colored “orbs” to illustrate the placement of parts in a mix. It’s an interesting idea, though I personally prefer to leave visuals out of the equation altogether. In fact, my preferred method for mixing involves closing my eyes to listen. I find that removing visual distractions tends to sharpen my focus on what I’m hearing.

The Joys of Mono
It’s important to periodically check your mix in mono while building your mix. The main idea behind this is to avoid phase issues with stereo sources like guitars and keyboards.

But checking the mix in mono makes sense for other reasons too. Listening in mono tends to “flatten out” the mix, giving you a different perspective on how much natural separation there is between the tracks. Essentially, if it sounds clean and well-defined in mono, it will sound good in stereo too, while the inverse is not necessarily true.

That said, let’s draw a distinction between checking your stereo mix in mono versus the practice of building the mix in mono and then spreading it out. While a number of engineers I’ve talked with swear by this technique, my own (admittedly subjective) view is that mixing in stereo requires an entirely different approach, much the same way mixing in a surround format differs from stereo.

img_0810Drums and Bass — Starting with the Foundation
For the most part, low frequency sounds tend to work best when panned dead center. Because of their lack of directionality, and because they contain most of the energy in a typical mix, it’s best to keep these sounds in the middle of your mix.
Create a natural space in the stereo spread for each drum piece.
Create a natural space in the stereo spread for each drum piece.

Typically, in a rock or pop mix, the drums and bass are the first element most people address. Though there are no hard and fast rules, most mixes begin by setting up the stereo image of the drums from an audience perspective. That means that, with a right-handed drummer, the kick and snare will be in the center, the hi-hat will be panned slightly right of that, and the overheads will be panned hard left and right.

Depending on how many toms and other toys the drummer has in his or her kit, it’s usually best to create a natural placement for each of them within the stereo spread. For example, if the drummer has three toms, I usually pan the middle one dead center and the other two at around 9 to 10 o’clock and 2 to 3 o’clock, depending on how wide a spread I’m looking for.

Of course, all this assumes you’re miking the drum kit in what has become the standard recording technique, with individual mics on each drum, a pair of overheads, and perhaps even some distant mics to pick up room ambience. For the most part, you will find that the more you mix in the overheads and ambient room mics, the less actual “localized” definition your drums will have.

That said, one of the most interesting sessions I ever worked on involved only four mics on the kit — a stereo pair set up a few feet away from the kit, and an ambient pair about 15 feet away in the corners of the room. The producer was a well known old-school studio veteran, and we spent literally hours moving the mics by a half-inch here, and a quarter-turn there.

The resulting drum mix, though it certainly had some natural stereo ambience, was closer to mono in nature. And while you might associate that with a lack of depth, the result was anything but. In fact, less panning and less ambience will result in a bigger, more defined and in your face drum sound.

img_0811Stereo Guitars — A Few Tips
Mixing guitars in stereo is a great way to add depth to a mix, particularly in a very busy mix. Spreading out the guitar(s) will open up space for the bass and other center-panned parts. Try dropping out some lower midrange to remove muddiness in the middle — especially on a dreadnaught or other large-body acoustic. Adding high end can also work, but will often accentuate finger noise.
A suggested stereo recording setup for guitar.
A suggested stereo recording setup for guitar.

Try recording acoustic guitar with a pair of directional mics with one pointing at the body just below the sound hole and the other at the top of the neck. Panning them at about 9 o’clock and 3 o’clock should give you a nice wide stereo image. Alternatively, try using a Mid-Side micing technique.

Doubling guitars is another nice way to add depth. Pan the original part to one side, add a delay (between 5 and 15 ms is a good place to start), and pan the delay return to the opposite side. A slightly different reverb and/or EQ setting will thicken them out even more.

Double-tracking the guitars manually (that is, actually recording the same part twice) can deliver even more interesting results. Try recording the same part using two different guitars. If that’s not an option, try recording the same part with a different tuning or a capo. For example, if the song is in G, record the second pass with a capo on the 5th fret, playing in D. Or tune the guitar down a whole step and play the song in A.

Another way to double a guitar part that’s been tracked in mono is to send it back through a guitar amp and mic the amp from two different spots in the room with different mics. Alternatively, run the track through two different amps with different settings.

Blending Lead and Background Vocals

While lead vocals are typically front and center, you can try all sorts of different ideas with backing vocals. Spreading them across the stereo field is great for widening your track, but try not to get too wide – 9 o’clock and 3 o’clock is enough for most mixes. With most backing vocals, effects can be your friend; a bit of hall and some chorus can do wonders for blending parts with each other and within the mix.

Panning the backing vocals left and right and leaving the lead vocal in the center is a commonly used technique and works well in most cases. But for something just a bit different, try slipping the lead vocal just a hair to one side and the backing vocals to the other side.

A Few More Things to Try

Don’t be afraid to be asymmetrical with your mix by placing elements to one side or the other. Particularly with string patches and other heavily chorused pads, panning them very widely can cause them to dominate the mix even when they’re not very loud. Instead of panning a part at, for example, 9 o’clock and 3 o’clock, try a more narrow panning like 1 o’clock and 3 o’clock. Of course, you’ll probably want to introduce some other element on the other side to balance things out, but it’s a great way to keep things from getting too swimmy and lacking in focus.

In fact, it’s a good idea to make sure at least some elements of your mix stay in mono. While those lush, chorused pads and reverbs may sound great on their own, piling up track after track of them is a great way to turn your mix into an underwater mess. Always keep at least some parts in mono to give them a sense of localization. Using a mono reverb will give them an ambience without destroying their directionality.

One very effective trick is to use delayed reverb instead of just panning for a more natural sounding ambience. Pan the original track to one side at about 9 o’clock or 10 o’clock, Add a short delay (less than 10 ms) and pan that to the opposite side; then add just a touch of reverb to the delayed signal. The results will be a bit more natural-sounding than just using the pan control. Here’s why: our ears and brain perceive a sound source using a number of auditory clues, including differences in timing, level, and even tonality between each ear. A pan pot only addresses the difference in level. Delaying the sound on one side and adding a bit of reflection creates a more natural ambience. Try shaving off just a touch of high end on the delayed sound as well to replicate the effect your head creates as it masks some of the sound.

Another trick for widening a track is to pan it to one side and add a stereo reverb; the result will be a natural ambience with a bit of extra “splash” to one side. Or try adding a very gentle mono chorus effect to only one side of a stereo track. The movement between the speakers can add an interesting depth and spaciousness that’s particularly nice on strings and other pads.

Of Course, There’s More
Even though I’ve tried to stick with very general concepts, mixing is a subject that can easily fill many hundreds of pages. But let me leave you with two important points.

First — it’s always about the song. No matter how many cool technological tricks you introduce into a mix, if it’s not right for the song, it’s not going to work. Listen to the song, and only give it what it needs – nothing more.

And that, once again, brings me to my second point, a tip I offer in almost every column — your ears are your most important tool. Learning to listen is truly the most important lesson in music, whether playing, recording, mixing, or mastering. Don’t be afraid to get in there and try new things. And as always, let your ears be your guide.

Universal Audio Release v9.0 Software With Windows 10 Thunderbolt Compatibility, Chandler, A/DA and API Plugins

UAD Apollo Windows 10 Thunderbolt Compatibility Announced – Exclusive – Updated
Mixing in Stereo: Adding Width and Depth to Your Recordings
Mixing in Stereo: Adding Width and Depth to Your Recordings
Source: http://www.uaudio.com/blog/studio-basics-m…
tags: Universal Audio
categories: Mixer, Tip

사람의 눈을 닮은 듀얼 카메라, 그 원리는?

스냅드래곤
사람의 눈을 닮은 듀얼 카메라, 그 원리는?

퀄컴은 여러 스마트폰에 적용되는 듀얼 카메라 기술을 지원하는 등, 카메라 혁신에 많은 기여를 했습니다. 퀄컴이 최근 이뤄낸 혁신 기술은 클리어 사이트(Clear Sight)라고 부르는데요, 이 기술은 퀄컴 스펙트라 ISP(이미지 신호 프로세서, 링크)로 구동됩니다. 클리어 사이트 기술로 촬영한 결과물은 놀라울 정도인데요, 다이나믹 레인지와 선명도가 한층 더 개선되어 어두운 환경에서도 노이즈가 적은 사진을 얻을 수 있습니다.

클리어 사이트 기술은 사람의 눈에서 영감을 받은 것입니다. 사람의 눈에는 원뿔세포(Cones)와 막대세포(Rods)라는 세포가 있습니다. 원뿔세포는 색을 포착하는 데 강점이 있지만, 빛이 충분해야 제 능력을 발휘합니다. 이에 반해 막대세포는 어두운 환경에서 빛을 포착하는 능력은 뛰어나지만, 색은 잘 포착하지 못합니다. 클리어 사이트 기술은 원뿔세포와 막대세포의 특징을 융합한 것으로, 밝기와 명암대비가 최적인 이미지를 만들 수 있습니다.
img_9600
클리어 사이트 기술은 두 종류의 카메라를 사용합니다. 각 카메라는 별도의 렌즈와 이미지 센서를 탑재하고 있죠. 두 렌즈는 사람의 눈처럼 화각이 같습니다 (같은 거리를 볼 수 있다는 뜻이죠). 하지만 서로 다른 이미지 센서가 탑재되어 있습니다. 하나는 컬러 이미지 센서(원뿔세포를 닮았죠)이고, 다른 하나는 흑백 이미지 센서(막대세포처럼 빛을 더 많이 흡수할 수 있죠)입니다.
img_9599

기술적으로는 컬러 센서와 흑백 센서의 성능은 같습니다. 딱 한 가지 차이가 있다는 것을 제외하면 말이죠. 흑백 센서는 상단 충의 색 필터가 제거되었습니다. 색 필터가 없는 흑백 센서는 색을 감지하지 못하지만 빛을 담아내는 능력은 3배 향상되죠. 이 특징은 빛이 적은 환경에서 촬영할 때 매우 유용합니다.
색 필터가 제거된 상태에서 촬영된 흑백 사진은 뛰어난 콘트라스트를 표현하며, 어두운 환경에서도 적은 노이즈와 뛰어난 선명도를 구현합니다. 여기에 컬러 센서가 포착한 색 정보를 합치면, 여러분은 아주 아름다운 사진을 얻을 수 있습니다. 이것이 바로 클리어 사이트 기술입니다.

클리어 사이트 기술은 퀄컴 스냅드래곤 820과 821 프로세서에서 사용할 수 있는데요, 퀄컴 스펙트라(Spectra)라고 부르는 이미지 신호 프로세서(ISP)가 핵심적인 역할을 합니다. 퀄컴 스펙트라 ISP는 두 카메라에서 얻은 데이터를 빠르게 결합하고 순간적으로 처리하여 고품질의 사진을 생성해냅니다. 뛰어난 성능을 가진 카메라 두 대에서 각각 포착한 이미지를 결합하는 알고리즘 덕분에, 아주 어두운 환경에서도 최적의 결과물을 기대할 수 있습니다.

클리어 사이트 기술은 두 대의 카메라를 하나로 통합한 하드웨어 모듈로 구성되어 있습니다. 그 하드웨어 모듈 내부에는 퀄컴 스펙트라 ISP를 이용하여 저조도에서 이미지를 처리하는 알고리즘을 포함하는데요, 정확하게 동시에 사진을 촬영하고, 순간적으로 두 사진을 결합하니, 저조도에서도 뛰어난 결과물을 얻을 수 있는 것입니다.

평수 계산 쉽게 하는 방법   

우리 머릿속의 토지나 건물 면적 단위는 평이다.  

그런데 이제 공식적으로는 평(坪)이라는 단위는 쓸 수 없고 신문이나 방송에 아파트 관련 기사가 나올 때마다 익숙치 않은 제곱미터 단위 때문에 대부분 스트레스를 받고 있다.  

122제곱미터 아파트가 어쩌고 하면,

“3.3제곱미터(정확히는 3.305785 제곱 미터)가 1평이니까 

122 나누기 3.3 하면…?

으음 .. .낑낑…” 하다가, 

겨우 36평쯤이란 걸 알아낸다.  
사실은, 쉬운 계산법이 있다.  

제곱미터로 표시된 숫자의 끝자리 수를 잘라 버리고, 

그냥 3을 곱하면 된다.  

예를 들어  

122 제곱미터(㎡)라면,  끝의 2를 잘라낸  12에 3을 곱해 36坪이다.  

191제곱미터는 19 x 3 = 57 평(坪),  

2700제곱미터는 270 x 3 = 810坪  하는 식이다.  
178처럼 끝자리가 5 이상이면 반올림하고 나서 잘라내면 더 정확하다.  

즉, 18 x 3 = 54坪 하면 된다.  

이 계산법의 산술적 원리는 3.3으로 나누는 것이, 3을 곱한 후 10으로 나누는 것과 거의 같은 계산이기 때문이다. 

Wednesday, May 12, 2010음향 미신 – 음향 재생에 영향을 미치는 요소에 대한 정의
출처: http://www.ethanwiner.com/aes/
2009년 10월 12일, 뉴욕 AES 워크숍에서 이뤄진 Ethan Winer氏의 ‘음향 재생에 영향을 미치는 요소에 대한 정의’ 에 대한 강좌 동영상입니다.
사실은 직접 자막을 넣고 싶었으나 관련 지식이 전무한지라, 들은 내용 그대로 받아적고 요약하여 올려봅니다. (작업 중간 쯤에 대본이 올라왔으나 빠진 부분이 너무 많아서 걍 들으면서 작업) 부분부분 시간표를 달아 두었으므로 영상과 함께 보시는데는 큰 문제가 없으리라 사료됩니다. 그리고 출처에 가시면 영상에 나온 대부분의 sample이 wave file로 공개되어 있으니 영상의 음질 열화가 걱정 되시는 분들은 그쪽으로..
W19 – 음향 미신 – 음향 재생에 영향을 미치는 요소에 대한 정의
————————————-
Part 1. 인간의 청각 기관의 작동 원리 

(중점 요약)
[1분 15초] James “JJ” Johnston (DTS, Inc. 수석 과학자):

당신이 각기 다른 기능이나 물체의 무언가를 다른 방식으로 청취하게 되면,

– 당신은 서로 다른 것을 기억하게 됩니다.

– 엄청난 데이터의 바다에서 당신은 단지 다른 일부만을 뽑았으니까요.

– 물론 이는 뇌의 자연적인 기능 중 일부이므로 환각같은 것이 아닙니다.
만일 당신이 무언가가 다를 수 있다고 가정할만한 이유를 가지고 있다면,

– 그것들을 다르게 청취하게 될 겁니다.

– 따라서, 당신은 서로 다른 것을 기억하게 됩니다.

– 혹은 모든 것이 같을거라 기대하는 경우에도 마찬가지 입니다.
이는 어떠한 방식의 청각 실험의 집행에 있어서도 아주 중요한 사항입니다.

사실 이 모든 것은, 청각 자극에 관계된 사항만을 구분하는 실험은:

– (지각 효과와 실제 가청 효과가 구분되는) 반증 구조

– 음향 이외 자극에서의 변화로부터 청취자의 격리

– 시간적 근접

– 변인變因 통제

– 훈련된, 편안한 청취자
을 가져야 함을, 즉 blind 실험을 해야 함을 뜻합니다.
(내부 부품이 완전히 터진 McIntosh 진공관 앰프와 멀쩡한 PlasticTiger TR 앰프를 오디오 애호가들을 두고 AB 스위칭 실험-A와 B가 어떤 것인지 명확히 표기-하여, 한명을 뺀 전부가 막장 진공관 앰프 쪽을 선택했다는 일화를 소개)
[5분 30초] Poppy Crum (Johns Hopkins School of Medicine 연구원):

첫번째 샘플: Led Zeppelin의 Stairway to Heaven

– 곡을 역재생한 후, 다시 역재생 시엔 가사를 덧붙여 청중에 나타나는 심리적 가청 변화를 예증.
두번째 샘플: ‘The state governers met with the respected legi(기침 소리)latures convening in the capital city’

– 기침 소리에서 s가 들리는 착청 현상을 예증
인간은 음성을 듣도록, 그리고 음이 어떻게 될지 예상하도록 program 되어 있습니다.
[9분 53초] 영상 클립 

– John J 대학에서 이뤄진 연구

– 목격자(학생)가 가방을 훔친 용의자의 얼굴을 얼마나 잘 기억하는지에 대한 단기 기억 실험

– 인간의 단기 기억력은 매우 취약

[11분 45초] 영상 클립 종료
[11분 57초] Ethan Winer(RealTraps, Inc.):

(음향 기술자라면 한번쯤 하는 실수: 완벽하게 음을 tuning하고 나서보니 EQ가 bypass 되어 있거나, 혹은 딴 조절기를 만지고 있더라)

인간의 청각적 기억과 청각적 지각은 매우 연약합니다. 기대 편견(expected bias)과 위약 효과(placebo effect)는 사람들이 생각하는 것 보다 훨씬 더 강력하지요.
[12분 30초] James “JJ” Johnston:

(producer를 만족시키기 위해 가짜 EQ를 설치한 system을 목격한 적이 있다는 경험담)
—————————————
Part 2 – Ethan氏의 발표 내용
[13분 49초] Ethan Winer:

그럼에도 불구하고 현실은, 50년이 넘도록 완전히 이해된 기본적인 과학적 원리에 대한 끊임없는 논쟁의 지속입니다. Ultra-high sample rate & bit-depth 의 가치, dither & talk-jitter 의 중요성, 그리고 AC 전원선의 교체가 기기를 거치는 소리에 영향을 줄 수 있다는 믿음까지, 전체 음향 산업은 위약 효과 tweak을 의심하지 않는 대중들에게 판매하도록 성장하고 말았다고 저는 믿습니다. 
(그 예로서 방의 Comb filter 효과를 줄여준다는 $129 짜리 돌멩이, £500 짜리 클립, $2,995 짜리 초소형 공진기, 청취 피로를 덜어주는 $129 짜리 전원선, $1800 짜리 LP/CD de-magnetizer, $20,000 짜리 Nordost 전원선, $539 짜리 USB선 등을 소개)
왜 청취자들은 언제나 음의 차이를 감지하고, 그것도 ‘향상된’ 음을 듣고 있다고 확신할까요? 저는 room 음향에 대한 연구를 통해, Comb filtering이라 불리우는 음향 현상이야말로 청취자들이 케이블, 전원 conditioner, mechanical isolation 장치, low-Jitter external clocks, ultra-high sample rates, 전원선, Fuse 등에서 나타난다 주장하는 음향적인 차이를 설명하는 한가지 답이 될 수 있다고 생각하게 되었습니다. Comb filtering은, 스피커에서 출력되는 직접음이 벽/천장/기타 주위 물체로부터 나온 반사음과 대기 중에서 더해져 발생하는 특정한 종류의 주파수 응답 오류입니다. 
이 그래프[17분 49초]는 제가 sheetrock 재질의 반사벽으로부터 18인치 정도 떨어져서 측정한 응답성을 보여줍니다. 그리고 여기서 균일한 간격으로 분포된 peak와 deep null의 반복적 패턴을 확인할 수 있습니다. peak과 null 주파수는 지연 시간, 즉 반사면과의 거리와 관계됩니다.
요 그래프[17분 54초]는 저희 집 거실의 측면벽 반사점을 기준으로 음향재 적용/비적용 상태의 응답성을 비교합니다. peak과 deep null은 예상할 수 있는 1/4 파장 거리에서 발생합니다. 그리고 고역에서는 peak과 null 간 거리가 아주 짧아지지요. 실제로 7 kHz 에서 1/4 파장은 0.5인치도 되지 않습니다. 이러한 고주파 대역에서는 근처의 커피 테이블이나 가죽 시트 커버에서 발생하는 반사만으로도 귀에 들리는 주파수 응답성에 큰 변화를 가져올 수 있습니다. 방 내부의 다중 음향 반사로 발생하는 comb filtering에 의해, 특히 음향 제어가 되지 않은 작은 방의 경우에는 더더욱, 아주 미세한 거리 이동마저도 결과적인 응답성에 영향을 미치게 됩니다. 방 내부 어떠한 위치에서의 응답성도 직접음과 수많은 방향에서 오는 반사음의 합이라고 할 수 있겠습니다.
이 그래프[18분 56초]는 같은 방 내부 4인치 떨어진 두 지점에서 같은 스피커의 주파수 응답을 비교하는데, 마치 다른 스피커로 서로 다른 방에서 측정된 것과 같은 모습을 보입니다. 상식적인 선에서 정말로 중요한 사항은, 대부분의 스피커는 엄청난 왜곡을 가지고 있음에도 불구하고 소비자들은 AD converter의 극미한 왜곡에 매달리고 있다는 사실입니다. 
이 그래프[19분 19초]는 50Hz 신호가 재생되는 스피커에서 측정된 배음 왜곡 성분(harmonic distortion)을 보여줍니다. 이를 전부 더해서 THD(total harmonic distortion)을 구하면 6.14% 나 되지요. 이는 2개 이상의 신호로 확인 가능한 혼변조(intermodulation) 왜곡을 제외한 수치입니다.
마찬가지로, 변수가 비교적 적은 음향 기기와 비교하여 모든 가정집 크기의 방은 천차 만별의 저역 응답성을 가집니다. 이는 음향적 제어가 되지 않은 반사음에 의한 comb filtering이나, 12개 이상의 modal 주파수에서 발생하는 대량의 ringing 때문이지요.
위 주파수[19분 46초]는 침실 크기의 공간에서 측정된 저역 응답성을 고해상도로 보여줍니다. 청취 환경이 비교적 열악한 상황에서 기기에만 집착하는 것이 과연 정상일까요? 물론 우리는 음향 전문가답게 가능한한 최고의 음질을 추구해야만 합니다. 그렇지만 상식과 실용을 빼놓으면 곤란하겠지요. 저의 의도는 음향의 중요성을 전달하는 것이 아닌, 재생 시스템의 어떤 부분이 가장 많은 손실을 가져오는지 일깨워 드리는 것 입니다. 상식을 가진 사람이라면 가장 취약한 연결점부터 공략을 하게 되겠지요. 
또한 제품 사양을 중요하지 않고, 과학은 자신들이 듣는 소리를 측정할 수 없다고 믿는 부류들에 의한 反-과학적 선입견이 현재 음향 애호 소모임에는 팽배해 있습니다. 이것만은 확실합니다: 과학이 아니었다면, 우리는 아직도 원시의 삶을 벗어나지 못하고 있었겠지요.
“JJ” 氏께서 설명하신대로, 음반 재생 시 마다 소리는 조금씩 다르게 들릴 수 있습니다. 나아가서, 머리를 1~2인치만 움직여도 음향 comb filtering에 의해 주파수 응답은 -음향적 제어가 되지 않은 공간에서는 더더욱- 무지막지하게 변화합니다. 그리고 음악은 반복해서 들으면 들을 수록 더 자세한 세부 사항을 파악할 수 있게되지요. 현재 재생되는 음악에서 triangle(악기)이 더 잘 들리는 것은 최근에 전원 conditioner을 장착해서입니까, 아니면 단순히 이전에는 그 음악에 그 정도로 집중한 적이 없어서입니까? 측정 장비가 인간의 청각보다 훨씬 신뢰성이 높고 반복적 결과를 도출하는 것이 가능하다는 사실을 이해하는 것은 음향 미신의 종지부를 찍는 최후의 실마리가 될 것입니다. 결과적으로 이 모든 것은 소비자주의적 이야기이며, 사람들이 돈을 어떻게 쓰든 그건 그들의 자유이며 저는 전혀 상관할 바가 아닙니다. 가치를 위한 투자를 반대하는 것도 아닙니다. 음향 외적인 완성도도 일단 돈이 드니까요. 어떤 DI-box는 $30도 안되지만, 다른 DI-box의 가격은 그에 열배가 넘기도 합니다. 만일 제가 세션비가 분당 수백달러나 하는 Universal studio를 빌려서 영화 배경음을 녹음하는 음향 기술자라면, 중요한 타이밍에 고장날 확률이 있는 싸구려 저질 기기를 쓰진 않을겁니다. 제 목적은 오직 음향 해상도에 영향을 주는 요소와, 그에 대한 가청 여부와, 그리고 그 원리를 설명하는 것 뿐입니다.
[21분 38초] 네가지 수치: 

• 주파수 응답성 (Frequency Response)

• 왜곡 (Distortion)

• 잡음 (Noise)

• 시간축 오류 (Time-Based Errors)
여기 열거된 네가지 수치들은 고해상도 음향 재생의 평가를 위한 모든 요소가 되겠습니다. 바로 주파수 응답성(Frequency response), 왜곡(Distortion), 잡음(Noise), 그리고 시간축 오류(Time-based errors)가 이에 해당하는데, 각 수치들은 몇가지 세부적인 사항으로 나뉩니다. 예를 들면, 왜곡은 배음(Harmonic) 왜곡, 혼변조(Intermodulation) 왜곡, 그리고 디지털 aliasing 으로 나뉩니다. 또한 잡음은 테잎 hiss, hum & buzz, 비닐 잡음, 그리고 마찰 전기(triboelectric) 효과가 되겠습니다. 시간축 오류라면 비닐 음반에서 발생하는 wow, 테잎에서 나타나는 flutter, 그리고 디지털 시스템의 jitter가 있겠지요. 주파수 응답을 조작하거나 왜곡을 추가하여 음색을 의도적으로 변조시키는 시스템들을 제외하고서는, 음향 기기는 음향적 투명함(transparency)를 지향해야만 하는 것으로 알려져 있습니다. 이는 상기 네 수치를 여러가지 음향 신호를 이용, 측정함으로서 쉽게 확인 가능하지요. 주파수 응답성이 20 ~ 20,000 Hz 대역에서 0.1 dB 이내로 평탄하고, 모든 왜곡과 잡음의 합이 최소한 음향 신호에 비교하여 -100 dB 정도라면, 해당 기기는 가청적인 투명함을 가지고 있다고 할 수 있을 것입니다. 음향적으로 투명한 기기라면, 모든 다른 음향적으로 투명한 기기 -그것이 마이크 프리 앰프든 DAW(Digital Audio Workstation)에서의 summing algorithm든- 와 완전히 동일한 소리를 냅니다. 
[22분 45초] 물론 음향적 투명성이 음향 기기의 전부는 아닙니다. 의도된 음운(euphonic) 왜곡은 기호에 따라 유용할 수도 있지요. 그러나 여기에 ‘마법적’인 요소따윈 없습니다. Transformer나 진공관은 자체적인 왜곡 특성을 가지고 있으며, 테잎은 고음량에서 녹음 시 왜곡을 발생시킵니다. 그치만 과연 이러한 왜곡을 얻기 위해 최고급 기기에 수천, 수만 달러나 투자할 가치가 있을까요? 동일하거나 비슷한 결과를 내기 위한 좀 더 합리적이고 실용적인 수단은 과연 없는 걸까요? 어찌 되었든, 기기 자체가 가지는 주관적인 음색의 가치에 대해 논하는 것은 불가능에 가까우므로 제 사족은 이쯤에서 마치도록 하지요.
[23분 15초] 제품 사양은 기기에 대한 모든 것을 알려주긴 하지만, 기재되는 사양은 대개 불완전하거나, 오도적이거나, 혹은 사기적입니다. 그치만 이러한 현실이 ‘제품 사양은 기기의 음향적 투명성을 평가하는데 있어 필요한 모든 것을 말해주지는 않는다’는 뜻은 아닙니다. 단지 음질을 평가하기 위해선 모든 정보가 필요 할 뿐이지요. 오도적인 측정 방법으로는, 마이크나 스피커 응답에 적용되는 1/3 octave averaging이나, 그래프가 좀 더 선형적으로 보이도록 공칭 주파수 대역의 편차 범위를 10dB, 혹은 20dB로 크게 늘리거나 아예 배제한 경우를 들을 수 있겠습니다. 
[23분 45초] 저는 이 스피커를 제법 큰 방에서 1ft 정도 떨어져서 측정했습니다. 이 그래프는 스피커의 averaging을 적용하지 않은 순수한 응답성을 나타내며, 그 다음의 그래프는 1/3 octave averaging을 적용한 동일한 측정치입니다. 그리고 이 그래프는 averaging을 적용한 측정치를 실제보다 더욱 선형적으로 보이도록 세로축을 20dB 늘려 해상도를 축소, 투영한 결과입니다. 어떤 측정치가 스피커 제조사에서 공개하는 것에 가깝다고 보십니까? 
[24분 10초] Masking은 비슷한 주파수인 경우, 강한 소리가 약한 소리를 가리는 것으로 잘 알려진 원리입니다. 이는 drum solo보다 bass solo에서 고역의 강한 tape hiss가 더 쉽게 가청됨을 뜻합니다. Cymbals나 violin은 많은 고음을 가지고 있으며, 이는 tape hiss를 어느정도 mask하게 되지요. 
[24분 27초] 열화 가청도

• 왜곡, 잡음, Jitter, Aliasing, 등등

• 음악의 level

• 열화의 level

• Masking 효과

• 1.0% = -40dB

• 0.1% = -60dB

• 0.01% = -80dB

• 0.001% = -100dB
Masking 효과는 심지어 음악 신호의 -40 dB (약 1%의 열화)에서도 잡음을 들리기 어렵게 만들지만, 많은 이들은 -100 dB (약 *0.001%의 열화)의 Jitter도 가청할 수 있다고 확신하고 있습니다. 이런 사람들이 noise floor 까지 신뢰성있게 계측하여 매번 동일한 결과를 도출할 수 있는 측정 기기와 비교 될 수나 있을까요?
[24분 44초] 또 다른 요소는, 인간의 귀는 2 ~ 4 kHz의 중역대에서 가장 예민하다는 사실입니다. 그러므로 이 대역에서의 왜곡은 다른 대역보다 더 현저하게, 그리고 더 불쾌하게 느낄 수 있다는 것이지요.
[24분 56초] 혼변조(Intermodulation) 왜곡은 음악 신호가 가지는 주파수에 따라 대개 고/저역에서 동시에 나타납니다. 어떤 혼변조 성분은 근본 음조에 음악적으로 따르지 않기 때문에, 보통 혼변조 왜곡은 통상의 배음 왜곡보다 더욱 불쾌하게, 그리고 거슬리게 들리게 됩니다. 잠시 후, DAW로 만들어진 간단한 청취 실험을 통해 음악 신호 이하로 레벨별 음질 열화가 가지는 상대적 가청 임계를 체험 해 보도록 하겠습니다.
[25분 22초] 올바른 청취 실험 방법

• 비교는 한번에 하나씩

• 서로 다른 연주 비교 금지

• 변화가 미세할 시엔 blind 실험 요要

• mic preamp 비교 시엔 re-amping이 적합

• ABX 실험은 오랫동안 가능

• level은 반드시 0.1 dB 이내로 정규화

• 유효한 실험과 그렇지 않은 실험에 대해 이해

• 집에서 직접 통제 실험을 해 볼 것
주관적 청취 실험 對 계측에서는 한번에 한가지의 요소 씩만 실험해야만 합니다. 예를 들어서, 각기 다른 mic와 preamp를 비교하기 위해 서로 다른 연주를 녹음하는 것은 연주가 매번 달라질 수 있으므로 도출되는 결과는 유효하지 않습니다. guitar음의 bell-like attack이라던가 brushed cymbal의 특정한 잔향같은, 우리가 기기를 비교할 때 기준하게 되는 미세한 detail이 크게 달라지므로 말입니다. 그 누구도 완전히 동일한 연주 혹은 노래를 반복하거나, 연주 자세를 그대로 완벽히 유지할 수는 없습니다. 따라서 이는 기기를 비교하는 올바는 방법이 될 수 없지요. 설령 완전히 동일하게 연주/노래를 할 수 있다고 하더라도 미세한(1/4 in) mic의 변위變位로도 주파수 응답에 상당한 변화를 가져올 수 있습니다. 마찬가지로, 기기 간의 차이가 매우 미세할 경우에는 blind되지 않은 실험이나 완전 개방형(sighted) 실험은 유효하지 않으며, 이는 JJ氏께서 말씀드린대로 인간은 ‘듣고 싶은 것’, 혹은 ‘들어야만 하는 것’ 만을 듣는 경향이 있기 때문입니다. 이 현상은 confirmation bias, placebo effect, buyer’s remorse, expectation bias 라는 말로 표현되기도 합니다. 우스갯소리로, 음향 애호 reviewer들은 브랜드명만 읽을 수 있으면 자신들이 듣는 amp가 어떤 것인지 언제나 가려낼 수 있다고 알려져 있지요. ㅎㅎ 

[26분 28초] 만일 A회사의 preamp로 락밴드를 녹음하고, 다음 날 B회사의 pre-amp로 재즈 밴드를 녹음하게 되면, 사용된 preamp에 대해 제대로 평가하는 것은 불가능 할 것입니다. 서로 다른 preamp를 비교하는 올바른 방법 중 하나는, 나중에 비교 재생할 수 있도록 mic의 출력단을 나누어서(split) 각 preamp를 따로 녹음하는 겁니다. 그러나 splitter transformer는 preamp와 mic의 상호 작용에 영향을 줄 수 있습니다. 따라서 더 좋은 방법은 speaker에서 나오는 소리를 또다시 녹음하는 재증폭(re-amp)을 통하는 겁니다. 물론 스피커의 음은 실황과 크게 다릅니다만, 여기서 스피커는 단지 발음원일 뿐이며 비교되는 녹음 기기들의 음색차를 확인하는 데에는 전혀 문제가 되지 않으므로 크게 상관 없습니다. 
[27분 13초] 또 다른 자가自家 실험의 방법으로는 ABX가 있습니다. 식별하고자 하는 WAV 파일을 무작위 재생시킬 수 있는 software program도 무료로 공개되어 있지요. 다만 결론적인 답을 얻기 위해서는 실험을 충분히 반복해야만 합니다. 한번 찍어서 맞춘 정도로는 단지 동전 뒤집기와 동일한 확률과 같이 아무 의미도 없다고 보시면 되겠습니다. 반대로 이번엔 10번 도전에 10번을 모두 맞추었다면 이는 전자보다 훨씬 유의有意한 실험 결과라 할 수 있겠습니다. ABX software program의 중요한 장점 중 하나는 집에서 편안하게 언제든 할 수 있다는 겁니다. 원한다면 수개월 간에 걸쳐 집행할 수도 있지요. 이러한 장점은 청취 피로의 위험을 배제시킵니다. (청취 피로는 혹자들이 ABX 실험의 신빙성에 의문을 제기하는 구실이기도 하지요) 실제로 double-blind 실험은 모든 과학적 영역의 gold standard입니다. 혹자들이 음향 기기를 평가하는데 있어 double-blind가 유효하지 않다고 주장하는 바는 정말 까무라칠 일이지요. 
[27분 57초] 변인變因을 하나씩 조절하는 것 이외에도, 비교되는 A기기와 B기기 음량 레벨의 일치 역시 중요합니다. 동일한 두 음원이 비교되면 음량이 더 큰(너무 크지만 않다면) 기기의 소리가 더 좋게 들리는 경향이 있는데 이는 등청감 곡선으로 인해 고음량에서 clarity와 fullness가 상승하는 효과라고 보시면 되겠습니다. 이 영상에서 많은 것을 보여드릴 수는 있습니다만, 동영상 자체의 손실 음향으로 미세한 detail까지 확인시켜 드리는 것은 불가능할지도 모릅니다. 따라서 여러분 각자의 환경에서 편안히 실험을 해 보실 수 있도록 청취 실험의 올바른 집행 방법을 알려드리게 되었습니다.
[28분 28초] Stacking 미신

• Stacking은 병렬 처리 방식

• 왜곡과 잡음은 동일한 음량으로 더해지지 않음

• track을 합치면 잡음은 3 dB 상승

• 왜곡은 음악적으로 관계되지 않은 음이나 track들과 더해지지 않음
다중 track에 각각 동일한 preamp나 converter를 사용하는 것이, 최종 mix 결과물에서 단일 track에 단일 preamp를 사용하는 것 보다 소리에 영향을 더 미친다는 것과 같은 맥락으로 사람들은 ADA converter와 pre-amp의 stacking에 대해서 이야기 하곤 합니다. 봅시다, stacking은 preamp들이 병렬 구조로 사용되었다는 뜻입니다. preamp가 가진 모든 변조 특성은 track 전부에 동일하게 적용됩니다. 만일 모든 트랙에 사용된 pre-amp가 1 kHz 정도에서 4 dB 증폭을 가진다면, 선형적인 preamp를 사용한 후 4 dB를 증폭시키는 equalizer를 mix bus에 개입시킨 것과 동일하다는 말이 되겠습니다. 그치만 그 정도로 왜곡된 응답을 가지는 기성 preamp는 존재하지 않습니다. 아무리 중저가 기기라 할지라도 20 ~ 20 kHz 대역에서 1 dB 정도의 오차 밖에는 발생하지 않지요. 그치만 만일 preamp가 그러한 주파수 변조 특성을 가진다면, 아까 말씀 드린대로 EQ로 충분히 보상 가능합니다. 20개 track의 mix에 EQ를 20번이나 할 필요는 없으니 말이지요.
[29분 25초] 자, 이제 preamp와 converter의 음에 영향을 주는 수치인 왜곡과 잡음을 고려 해 봅시다. 병렬로 연결된 기기들의 열화와 기타 변조 특성은 직렬로 연결된 기기들 처럼 더해지지 않습니다. 조금 후에 직렬 ADA 변환의 효과를 들려드리도록 할 텐데요, 이는 병렬 구조가 가지는 특성과는 완전히 다릅니다. 직렬 쪽이 훨씬 파괴적이지요.

[29분 48초] 이제 여기서 응집성(coherence)이 등장하게 됩니다. 다른 track 끼리의 잡음과 왜곡은 응집적으로 더해지지 않습니다. 가령 모노 기타 연주를 두개의 analog tape track에 동시에 녹음하고 이 둘을 합치게 되면 출력이 6dB가 상승합니다. 그러나 tape의 잡음은 track마다 다르므로 3dB가 상승하게 되지요. 이건 두배로 넓은 tape track을 사용하거나, 혹은 1/2″ tape에 녹음된 8개 track들과 1″ tape에 녹음된 8개 track들의 차이점과 같다고 할 수 있겠지요.

[30분 14초] 왜곡도 마찬가지입니다. Preamp나 변환기를 통해 bass track에 개입된 왜곡은 vocal track에 더해진 왜곡과 그 성분이 다릅니다. 따라서 이 둘을 mix하면 각 track의 상대적인 왜율은 그대로 유지가 되지요. 그러므로 왜곡 역시 stacking적으로 누적되지 않습니다. 가령 track 하나에 1% 왜율을 가지는 preamp로 DI bass track을 녹음하고, 그 preamp로 grand piano를 또 녹음하여 mix하면, 결과물은 각 악기마다 1%의 왜율을 보이게 됩니다.
[30분 45초] 올바른 용어 사용

• “따뜻한, 차가운, 메마른, 전진한, 부드러운” – 이게 대체 뭔 소리?

• “200 Hz에서 3 dB 저하” 가 훨씬 유용.

• “분석적”, “음악적” 음 따위는 존재하지 않음.

• “Pace, Rhythm, and Timing”(PRaT) 같은 표현은 이런 막장을 또 다른 경지로..
마지막으로- “따뜻한, 차가운, 메마른, 전진한, 부드러운” 등의 주관적 표현들은, 해석의 여지를 보이지 않는 ‘200 Hz 에서 -3dB’ 같은 표현과 달리, 모든 이에게 동일하게 받아들여질 수 없으므로 유용하지 않습니다. 물론 “따듯한”, “차가운”, “메마른” 같은 표현은 고역 정보의 상대적인 양을 묘사할 수도 있습니다. 그러므로 제 생각엔 “억제된, 혹은 과장된 고역” 같은 표현이 “메마른” 같은 표현 보다는 훨씬 낫다고 봅니다.
[31분 13초] 사람들은 기기 하나를 두고 “음악적” 혹은 “분석적”이라고 묘사하곤 합니다만, 이게 대체 무슨 소리인지요?? 딴 사람이 “음악적”이라고 생각하는 소리는 제 귀에는 전혀 그렇게 들리지 않을 수도 있습니다. 어떤 이들은 오래된 receiver의 loudness 기능이 더해주는 과장된 저역을 즐기지만, 제 귀에 그런 소리는 -음원이 정상적인 경우라면- 대개 둔하게만 들릴 뿐입니다. 소리를 더 화사하게 만들고자 고역을 증폭하거나, 혹은 경질음을 줄이고자 고역을 감쇄하는 경우에도 마찬가지입니다. 이런 애매한 표현은 1) 재생되는 음악, 그리고 2) 개개인의 기호에 의존적일 수 밖에 없습니다.
[31분 42초] 음향 해상도를 설명하기 위한 완벽한 표현은 이미 존재하므로, 또 다른 형용사를 만들어 낼 필요는 없다고 봅니다. 그러나 음향 애호가들이 사용하는 “PRaT” (Pace, Rhythm, and Timing) 같은 경우는, 음향 애호가들이 지칭하려는 뜻과 전혀 관계없는 음악적인 용도가 이미 존재하므로, 이런 막장스런 현실을 또 다른 경지로 몰게 됩니다. 
—————————————
Part 3 – 음향 예제
[32분 05초] 자, 이제 음향 sample들을 좀 들어봅시다. 어떠한 요소가 여러분께 중요한지 한번 확인 해 보시길 바랍니다. 다시 말씀드리지만, 여기 나온 모든 sample들은 제 홈페이지에 있습니다.

http://www.ethanwiner.com/aes/
1. 손실 가청

[32분 14초] 이 첫번째 demo는 음악 신호 이하의 어떤 level에서 왜곡과 잡음이 가청되는지 확인시켜 줄 것입니다. 이 demo에서는 잡음이나 왜곡이 가질 수 있는 최악의 경우를 가정하기 위해 최대한 악랄한 잡음을 만들어 넣었습니다. 음악 신호의 -80dB에서 이 잡음을 가청할 수 없다면, jitter, digital aliasing, truncation distortion 같은 손실을 감지하는건 꿈도 꾸지 말아야겠지요. 일단 들어보시지요. (0dBFS는 상당히 거슬렸던지라 일단 잡음을 -20dBFS로 맞췄습니다)

음원 다운받기

[32분 43초] 잡음 sample을 -20dBFS에서 재생
[32분 45초] 이제 이 잡음이 여러 level에서 음악 신호와 섞이면 어떻게 들리나 봅시다.

음원 다운받기
[32분 53초] 음악 신호와 잡음 sample(-20dBFS)을 재생

[33분 00초] 음악 신호와 잡음 sample(-30dBFS)을 재생

[33분 04초] 음악 신호와 잡음 sample(-40dBFS)을 재생

[33분 12초] 음악 신호와 잡음 sample(-50dBFS)을 재생

[33분 17초] 음악 신호와 잡음 sample(-60dBFS)을 재생

[33분 21초] 음악 신호와 잡음 sample(-70dBFS)을 재생
[32분 28초] 자, 방금 그건 -1dBFS에 정규화되어 master된 pop 음악이었습니다. 요번엔 제가 직접 연주한 Cello Conterto의 조용한 구간을 여러 level의 잡음과 함께 들어보시겠습니다. 이 음원은 평균 level이 -30dBFS 이고 peak도 -15dBFS입니다. 음악이 조용하기 때문에, 잡음은 track 음량이 가리키는 것 보다 15 ~ 30 dB 정도 더 큽니다.

음원 다운받기
[33분 55초] 음악 신호와 잡음 sample(-30dBFS)을 재생

[34분 01초] 음악 신호와 잡음 sample(-40dBFS)을 재생

[34분 07초] 음악 신호와 잡음 sample(-50dBFS)을 재생

[34분 11초] 음악 신호와 잡음 sample(-60dBFS)을 재생

[34분 16초] 음악 신호와 잡음 sample(-70dBFS)을 재생

[34분 20초] 음악 신호와 잡음 sample(-75dBFS)을 재생
2. Dither

[34분 32초]그러면 dither로 넘어가도록 하겠습니다. Dither는 정말로 가청적 효과가 있는 걸까요, 아니면 그것은 단지 정신적인 자위 행위에 지나지 않는 걸까요?

“…다시 말씀드리지만, 저는 절대 dither에 反해서 논쟁하는게 아닙니다. 단지, dither가 차이를 만들어 내지 않는다고 생각하는 것 뿐이지요. (음원이 정규화되었을 경우엔 더더욱) 만일 DAW project를 mastering house로 보내기 위해 export 하는 경우라면, 저는 16bit이 아닌 24bit로 할 겁니다. 그러면 그쪽에서 증가시키던가- 아니면 16bit으로 하면, 음원 level이 noise 아래로 내려가서 다시 조절 할 필요가 없도록 sonar의 출력 bus를 증가시킬 겁니다. 그러면 문제는 해결되지요. 음량이 얼마나 확보 되었는지 확인하는건 별로 오래 걸리지도 않습니다. -5dB 밖에 오질 않았으면 4dB 더 올리고. 이건 뭐 실용적 차원의 이야기였습니다만- 문제는 소모임에서 사람들이 ‘고주파 삼각파형 noise shaping을 적용한 pow-r 3 dither을 걸면 소리가 더욱 full해지네 우왕ㅋ굳ㅋ’ 같은 헛소리를 주장한다는 겁니다. 잠깐만요, fullness는 손쉽게 측정되는 저주파 응답의 문제입니다. Dither는 절대로, 뭔가가 고장나지 않았다면, fullness에 영향을 줄 수 없어요. (소모임에 어떤 양반은 dither 처리가 제대로 안되어있었는데 이걸 2년 후에나 발견했다고도 하지요) 저는 정말로 누구 못지않은 자타 공인 기술 폐인(propellerhead; geek)입니다만, 그치만 이와 관련된 문제는 정말, forum에서 ‘스펙트럼에 변화가 있다고’ ‘진짜 있다고’ 같은 논쟁이 끝없이 반복 될 정도의, 폐인적 domain에 속한다고 봅니다. 네, 변화가 있긴 있습니다. 근데 실제로는 그게 들리지는 않는다는 것이지요. 제 웹사이트에 dither을 거친 부분과 truncate이 된 부분이 섞인 pop sample이 2년 동안이나 공개되었음에도 불구하고, 그 누구도 어떤 부분이 dithering이 되었는지 밝혀내질 못했습니다. ‘그딴 실험은 아무런 의미도 없어’ 라고 하는 양반들도 있었지만, 들리지 않는다면 당연히 의미가 있지요. 다시 말씀 드리지만, 저는 dither에 반대하는게 아닙니다. 단지 dither가 녹음에 fullness를 개입시키진 않는다는 거지요. Bass trap이 없다거나, speaker가 저질이거나, 위치가 잘못 되었거나, 혹은 환경의 문제일 수도 있지요. 언제나 이런 요소가 원인이며, 손실 성분이 -80dBFS 인 경우엔 더더욱 기기와 관련이 없습니다. 일단 저는 그렇게 봅니다…”
[36분 58초] 제가 음향 소모임에서 ‘적당한 level에서 녹음된 pop 음악에서 적용되는 dither는 가청적인 효과가 없다’고 언급 할 때마다 엄청난 싸움이 일어나곤 하는데요, 그러면 여러분께서 직접 들어보시고 과연 누가 옳은지 확인 해 주시기 바랍니다. 분명히 말씀드리지만, 저는 24bit로 녹음하거나 dither을 사용을 반대하는 것이 아닙니다! 언제나 우리는 가능한한 최고의 음질을 추구해야만 하니까 말이지요. 게다가 모든 DAW software에서의 dither 기능은 공짜입니다. 그렇지만 dither같은 요소의 가치에 대하여 넓은 시각을 가지는 것 또한 중요합니다. 
Truncation 왜곡은 -90dB 에서의 가장 낮은 bit에 영향을 미칩니다.

[37분 25초] Dither을 통해 제거되는 왜곡은 Full-scale의 -90dB 아래입니다. 따라서 제가 제기하는 의문점은 과연 dither가 혹자가 주장하는대로 음질 -특히 투명함, 음상, fullness에 관련해서- 에 “큰 차이”를 가져오는지에 대한 여부지요. 차라리 올바르게 제어된 실험을 통해 여러분들께서 직접 확인 해 보셨으면 합니다. 통상의 청취 level에서 녹음된 통상의 pop 음악에 적용된 dither의 가청 여부를 확인하기 위해, 제가 직접 녹음하고 Cakewalk SONAR로 mix한 곡(Lullaby)의 두가지 version들을 재생하도록 하겠습니다. 첫번째는 16bit truncation으로, 또 다른 version은 SONAR의 최고 음질 pow-r 3 dither algorithm이 적용되어 16bit로 export 되었습니다. 두 mix들 사이를 매끄럽게 넘기며 비교하기 위해, SONAR의 track solo button을 사용하였습니다. 어떤 track이 dither되었는지 단번에 확인할 수 있는 분은 부다 손을 들어주시기 바랍니다.

음원 다운받기
[38분 10초] demo가 재생되면서 track 1과 2 사이가 주기적으로 전환

[38분 45초] 결과
[38분 49초] 다음 예제는 “Don M. of Novare”의 Handel Brokes 입니다. Sound Forge를 통해 하나는 truncation으로, 또 하나는 high-pass contour noise shaping이 적용된 high-pass 삼각 dither를 통해 24bit에서 16bit로 변환되었습니다.

음원 다운받기
[39분 03초] demo가 재생되면서 track 1과 2 사이가 주기적으로 전환

[39분 42초] 결과
[39분 43초] 다음 예제는 Lynn Fuston 녹음의 God Speaks 라는 곡입니다. 마찬가지로, Sound Forge를 통해 하나는 truncation으로, 또 하나는 high-pass contour noise shaping이 적용된 high-pass 삼각 dither를 통해 24bit에서 16bit로 변환되었습니다. 참고로 편곡가는 Dallas의 J. Daniel Smith 입니다.

음원 다운받기
[40분 00초] demo가 재생되면서 track 1과 2 사이가 주기적으로 전환

[40분 43초] 결과

[40분 45초] (Cakewalk SONAR을 이용한 개인적 실험 방법을 설명)
3. Soundcard의 품질

[41분 15초] 이 다음 demo는 soundcard들의 상대적 품질을 평가할 수 있도록 되어있습니다. 우리는 정말 투명한 음향을 위해 채널당 엄청난 돈을 써야만 하는 걸까요? “prosumer” soundcard도 완전히 전문적인 소리를 내는 음반을 만드는데 충분한건 아닐까요? 1차 재녹음에도 누구나 가청할 수 있는 음질 저하를 동반하는 analogue tape과 비교해서, 요즘 시중에는 “consumer”급 soundcard들 조차도 상당한 음향적 투명성을 가지고 유통되고 있습니다. 다시 말씀드리지만, 저는 여러분들께 high-end 변환기를 서둘러 방출하고 $25 짜리 SoundBlaster를 영입하시라고 권장드리는게 아닙니다! 저는 단지 악기 sample에 아직도 사용하고 있는 SoundFont를 편집하기 위해 SoundBlaster를 가지고 있는 것 뿐입니다. 따라서 이건 제가 통상적으로 사용하는 soundcard가 아니지요. 그치만 보통 화자되는 대로 ‘모든 중저가 soundcard가 막장’이라는 소리는 미신이라고 믿습니다.
[41분 56초] 이 첫번째 demo에서는, 제법 커다란 저희집 녹음실에서 녹음된 동일한 연주의 두가지 version이 재생 중 서로 전환됩니다. 이건 제법 오래된 사진입니다만, 34ft x 18ft 크기의 제 작업실입니다. 여기서 제 친구 Grekim Jenning가 acoustic guitar을 연주했지요. DPA 4090 mic에서의 신호는 mic preamp를 거쳐 분할되었습니다. 따라서 $25 짜리 SoundBlaster X-fi와 Grekim의 Apogge 8000에서의 녹음은 하나의 mic를 통해 이뤄졌습니다.

음원 다운받기
[42분 27초] demo가 재생되면서 track 1과 2 사이가 주기적으로 전환

[42분 45초] 결과
[42분 47초] 다음 demo는 jazz 음반의 CD 직출본과, M-Audio Delta 66를 통해 1차 재녹음된 복사본을 비교하게 됩니다. Yamaha Promix 01R mixer가 출시되었을 때 만들어진 Yamaha demo CD인데, Lynn Ariel trio가 연주, Tom Jung 녹음입니다. 1차 재녹음 차이를 가청할 수 있다고 해도, 이게 과연 그 정도로 저질인가요?

음원 다운받기
[43분 13초] demo가 재생되면서 track 1과 2 사이가 주기적으로 전환

[43분 32초] 결과
[43분 34초] 다음 demo는 pop 곡(Men at Work)의 rendered mix를 시작으로, SoundBlaster X-fi card를 수차례 거쳐 재녹음을 시켰습니다. 일단 원곡을 듣고, 그 후에 1차 재녹음, 5차, 10차, 20차 까지 들어보도록 하겠습니다. 이렇게 하면 음이 어떻게 저하되는지 쉽게 확인할 수 있지요.
[43분 55초] 원래의 wave file을 재생

[44분 09초] 1차 재녹음 재생 

[44분 24초] 5차 재녹음 재생 

[44분 39초] 10차 재녹음 재생 

[44분 53초] 20차 재녹음 재생 
[46분 06초] Analog 對 Digital

• Analog (Studer @ 15 IPS) 주파수 응답: 20~20kHz +-2.0dB

• Digital (M-Audio Delta 66)) 주파수 응답: 20~22kHz +-0.2dB

• Analog 신호對 잡음: 70dB A-Weighted

• Digital 신호對 잡음(16bit): 96dB A-Weighted

• Analog 왜곡: 1~3%

• Digital 왜곡: 0.0024%

최고급 tape 녹음기라 할 지라도, 어떤 수를 써도 SoundBlaster의 dither를 거치지 않은 16bit 조차 능가할 수 없습니다. 예전에 rec.audio.pro newsgroup의 Arny Kruger氏는 analog tape이 digital 상의 13bit과 동일한 해상도를 가진다고 예상한 적이 있지요. 종종 소모임에서 값싼 soundcard가 취약점이기 때문에 upgrade를 해야겠다는 글을 목격하곤 하는데요, 그 때마다 저는 간단한 실험을 제안합니다: ‘좋아하는 CD를 골라서, soundcard로 녹음하세요. 그리고 녹음된 결과물을 재생해서 원래 CD소리와 비교해 보시지요. 만일 둘 다 같은 소리가 난다면, 그건 당신의 soundcard는 취약점이 아닐 정도의 음향적 투명성을 가지고 있다는 증거입니다.’
4. Bit-depth 감쇄 demo

[45분 48초] 우리는 대체 얼마만큼의 bit-depth가 최종 전달 매개체로서 필요한걸까요? 이 demo에서는 Berlin Philharmonic에서의 12명의 cellist가 녹음한 Chin Corea의 Spain 음반을 추출했습니다. 만일 음악이 너무 적은 bit로 인해 손실이 되었다면, 그로 인한 효과는 바로 나타날겁니다. 여기서는 음질을 1bit씩 감쇄시킬 수 있는 bit-감쇄 plug-in(freeware)을 사용하겠습니다. bit의 수를 점차적으로 감쇄시킬테니, 여러분께서는 언제부터 열화를 감지할 수 있는지 확인 해 보시기 바랍니다.

음원 다운받기
[46분 20초] 24bit의 demo를 재생,

[46분 22초] 22bit로 감쇄, 이후 지속적으로 bit-depth가 감쇄
[46분 48초] 음질이 16bit 이하로 내려가면서 어떤 종류의 열화를 먼저 확인할 수 있으셨나요? 제가 가청한 것은 잡음의 증가와 더불어 깔깔한 고역 왜곡이 대부분이더군요. 그치만 전체적인 음색은 8~9bit까지 내려가지 전까진 거의 변하지 않는 것으로 느꼈습니다.
[47분 02초] (음향 소모임에서 Duggie라는 유저에게 다중 track을 16bit로 mix하나 24bit로 mix하나 큰 차이가 없다는 점을 주장, 설득시킨 사례를 소개)
5. 위상 천이 demo

[47분 45초] 많은 이들은 위상 천이가 가청적인 문제라고 주장합니다. web 소모임의 어떤 양반은 10ft guitar cable 에서 발생하는 위상 천이를 들을 수 있다고 떠들고 다녔지요. 

“…저는 얼마 전에 web 소모임에서 10ft guitar선에서 발생하는 위상 천이를 가청할 수 있다고 주장하는 어떤 친구와 언쟁을 벌인 적이 있습니다. 저는 ‘그건 절대 못 들어’ 라고 답해주었지요. ‘400mile 정도 되는 길이의 guitar cord라면 또 모르겠지만, 10ft에서는 절대 감지할 수 없어.’ 그 친구는 계속 반론 했습니다. 저는, ‘실험 해 봤어? 위상을 점차적으로 조절할 수 있는 실험 방법이 있었냐고?’ Jitter도 마찬가지 입니다. ‘low-jitter clock은 분명 차이를 만들어.’ 뭐 다 좋은데, jitter를 단계적으로 조절하면서 가청 여부를 확인할 수 있는 기구 -2중 blind도 필요 없습니다- 도 없으면서 그걸 어떻게 입증하냐는 말이지요. 자기가 뭔 소리를 하는지도 모른다는 뜻입니다. 이건 단지 예전에 읽었던 바보같은 녹음 잡지의 쓰레기같은 기사와 online web 소모임에서 잡담글 등을 앵무새처럼 반복하는 것과 다를 바가 없다는 것이지요…”
[48분 36초] 제 경험으로는, 통상적인 규모의 위상 천이는 가청되지도 않을 뿐더러 무해합니다. 통상적인 규모라는 소리는, power amp나 preamp같은 음향 기기에서 보통 나타나는 정도라는 뜻입니다. 다음에 들으실 demo로 여러분께서는 이를 직접 확인하실 수 있을겁니다. 위상 천이의 가청 여부를 증명하기 위해서 Sanford Phaser plug-in을 사용하도록 하겠습니다. 이 plug-in은, 몇몇 분들은 아실지도 모르겠지만, LittleLabs의 In-Between Phase라는 기기와 기능적으로 비슷함과 동시에 좀 더 유연합니다. 대부분의 위상 천이器는 단일 조절기를 통해 중앙 주파수를 조절하여 위상을 변화시킵니다. 이런 종류의 기기는 equalizer처럼 특정 주파수를 증폭시키거나 감쇄시키는 것이 아닌, 모든 주파수를 동일하게 통과시키므로 all-pass filter라고도 불리지요. 이 Sanford Phaser는 4차 부터 16차까지, 사용자가 원하는 만큼의 위상 천이를 적용시키게끔 합니다. 저는 이 청취 실험을 위해 엄청난 수준이라 할 수 있는 14차를 사용했습니다. 대부분의 위상 천이器는 6차까지밖에 적용되질 않으며, 대부분의 증폭기 회로가 가지는 위상 변조 성분은 이의 10분의 1 정도의 규모 밖에 안됩니다.
[49분 35초] demo 재생. 원래 wave file.

[49분 42초] 256 Hz에서 개입된 14차 위상 천이 재생.

[49분 52초] 1024 Hz에서 개입된 14차 위상 천이 재생.

(이 정도 규모의 위상 천이로도, 소리는 차이가 없습니다!)
그러면 위상 천이가 가청이 되면, 어떻게 들릴까요?

[50분 03초] 이 demo에서는 제 친구 Kate Dillingham이 연주한 cello solo의 녹음을 듣겠습니다. 위상 천이器가 적용되고 좌측 channel의 turnover 주파수가 변조되는걸 잘 들어보세요. 천이의 규모가 변화함과 동시에 위상 천이가 어떻게 가청되는지만 확인 해 보시기 바랍니다. 음색, 혹은 주파수 응답은 변화가 없으니까 말이지요. 그리고 양 채널의 위상 천이가 동일할 경우엔 음상 역시 변조되지 않습니다.
[50분 27초] demo 재생. 주기적으로 위상을 조절, 그 가청적 영향을 예증.
[51분 05초] 다음 demo에는 1962년에 녹음된 Dean Elliot의 Lonesome Road라는 재미난 곡을 사용하겠습니다. 이 곡은 cello solo보다 훨씬 복잡하며, 내재된 주파수 대역 역시 충만합니다.
[51분 17초] demo 재생. 주기적으로 위상을 조절, 그 가청적 영향을 예증. 
[51분 47초] 위상 천이

• 위상 천이는 극성 반전이 아님! 

아까 제가 위상 천이 기기에 대해 언급 드렸습니다만, 이 실험에서 설명된 위상 천이와 “phase shifter” 효과를 통한 효과의 차이를 이해하는 것은 중요합니다. Phase shifter 효과는 이 plug-in과 동일하긴 합니다만, 천이된 출력과 원음을 동시에 출력하여 많은 peak과 null을 가지는 일종의 comb filtering 효과를 만들어냅니다. Phase shifter 효과는 위상 천이 자체가 아닌, 변조된 주파수 응답이라는 점을 잊지 마세요! Sanford Phase Shifter는 원래 신호를 섞을 수 있는 Wed/Dry 조절기가 존재합니다만, 한쪽 channel을 음소거 시키고 단일 channel을 조절할 수 있도록 일단은 음악을 mono로 맞추도록 하겠습니다. 이제 입력과 천이된 출력이 합쳐졌으므로, 주파수 응답을 변조시키는 comb filter 효과를 확인하실 수 있습니다.
[52분 32초] demo 재생. 주기적으로 위상을 조절, comb filtering 효과를 예증.
[53분 03초] 위상 천이는 단순한 위상 반전이 아님을 염두해 두셔야 합니다. 위상 천이는 모든 ‘통상’ equalizer의 기본입니다. 여기서 기본이라는 말은 linear phase가 아닌 minimum phase라는 뜻입니다. 위상 천이는 모든 analog equalizer 설계의 필요악임과 동시에 무해한 부분이라고 할 수 있겠습니다.
[53분 19초] Phaser와 flanger 효과의 차이는 peak과 null의 규모에 있습니다.
6차 Phaser 효과

[53분 30초] Phaser는 직렬로 몇개의 all-pass filter가 적용되며, 생성되는 peak과 null은 all-pass stage 갯수의 절반입니다.
시간 지연에 따른 flanger 효과

[53분 36초] 반면 Flanger은 가변적 시간 지연이 사용되며, 따라서 peak과 null의 규모는 본질적으로 무한대가 됩니다.
5. 상쇄(null) 실험

• 상쇄 실험은 절대적이며 무오(無誤)합니다! 

[53분 39초] 상쇄 실험은 두 file들의 차이나 음향 file의 모든 변화를 확인할 수 있으므로 절대적입니다. 이 실험을 통하면, 혹자가 주장하는 대로, 아직 감지하는 방법이 알려지지 않은 왜곡이나 기타 손실 성분이 확인되지요. 
같은 음악을 두 track에 넣고, 한 트랙만 위상을 반전시킵니다.

[53분 57초] 만일 두 file들이 상쇄 될 수 있다면, 그건 그들이 가청적으로 완전히 동일하다는 뜻입니다. 그 이외에도 상쇄 실험은 서로 다른 신호선의 사용, 전원 conditioner의 추가, 혹은 동일한 음원을 동시에 한번 이상 녹음할 수 있는 모든 경우에서의 음향적 변화를 평가할 때 적용될 수 있습니다. 그치만 두 파일이 서로 다른 시간에 녹음되었다면, 시간차에 따라 drift가 나게 되므로 상쇄 될 수 없겠지요. 혹자들은, 음질은 신호 level에 의존적이므로, DAW의 집합(summation) 기능에는 결점이 있다고 믿고 있습니다. 이 미신을 이번 예제로 반증토록 하겠습니다.
32-bit 계산은 극미량의 왜곡과 더불어 엄청난 dynamic range를 가집니다.

[54분 13초] 최신 DAW software들은 초고해상도라 할 수 있는 32-bit floating point 계산법을 적용하고 있습니다. 결과적으로, 왜곡은 신호 level의 광대역에 걸쳐 극도로 낮아지게 됩니다. 
32-bit DAW에서 이뤄지는 gain-staging은 논지와 무관합니다.

[54분 40초] Analog 기기와 마찬가지로, 어떤 이들은 DAW에서의 높은 level은 중간(intermediate) stage에서의 왜곡을 야기한다고 주장합니다만, 제가 쓰는 SONAR의 경우엔 그러한 문제는 전혀 발생하지 않았습니다.
[54분 44초] 이 예제에서는 1 band 감쇄를 가지는 EQ를 통과한 mixed pop 곡(Happy Go Lucky)를 재생하도록 하겠습니다. 그리고 두번째 track에서는 같은 mix를 EQ를 통해 18dB를 증폭시키고 그 후 다시 18dB를 freeware 음량 조절기를 통해 감쇄시킵니다. 이 둘을 더하면 서로 완전하게 상쇄된다는 사실을 확인하실 수 있을겁니다.
32-bit DAW에서는 양 신호는 동일하게 출력되고, 잡음 floor로 상쇄됩니다.

[55분 06초] 이 실험은 두가지 미신을 잡아냅니다: 1) ‘모든 plug-in들은 가장 좋은 소리를 내는 “sweet spot”을 가졌다’, 그리고 2) ‘digital 상에서의 “집합”은 왠지 결점이 있다’ 제 의견으로는, 유일하게 존재하는 “sweet spot”은 음량에 따라 인간의 청각에 영향을 미치는 등청감곡선에 의한 효과 뿐이라고 봅니다.
[55분 21초] demo 재생: track 1 solo 상태에서 EQ 감쇄를 확인 가능.

[55분 36초] 양 채널이 동시에 재생되지만, 서로 완전히 상쇄.
[55분 43초] 다음 demo는 ‘EQ는 완전하게 교정(counter)될 수 없다’는 미신을 파헤칩니다. 이 실험을 위해서 저는 동일한 곡을 두개의 track에 맞추었습니다. 다만 한 track에는 2개의 equalizer가 서로 반대되게 설정되어 직렬로 적용되어 있지요. 다시 말하자면 하나의 EQ는 3 band의 감쇄가, 다른 EQ에는 증폭이 설정되어 있다는 뜻입니다. 두 EQ plug-in을 통과했음에도 불구하고, 여기서 나온 결과물은 변조되지 않은 원음에 완전히 상쇄되었습니다.
[56분 07초] demo 재생: track 1 solo 상태에서 교정 EQ를 확인 가능.

[56분 21초] 양 채널이 동시에 재생되지만, 서로 완전히 상쇄.
[56분 28초] 다시금 말씀드리자면, 작은 시간축 오류, drift, 그리고 위상 천이는, 후자 두 요소는 가청되지 않음에도, 완전히 같은 소리를 내는 두 file의 상쇄를 방해할 수도 있습니다. Drift는 DAW software에서는 발생하지 않지만, analog tape이나 vinyl 음반에서는 자주 발생합니다. 또한 원래라면 들리지 않는 소규모 clock 변조에 의해, digital 상에서 같은 것을 여러번 녹음 할 때도 발생할 수 있습니다. 이를 예증코자, 아까 들려드린 SoundBlaster와 Apogee 변환기를 통하여 acoustic guitar가 녹음된 file들을 동시에 불러들이도록 하겠습니다. 이 file들은 서로 다른 soundcard로 녹음되었으며, 이는 서로 다른 clock source를 가졌음을 의미합니다. 이 demo를 위해서 양 track의 solo를 끄고, track 2의 위상을 반전시키겠습니다. 이제 여러분께서는 두 녹음의 불안한 상쇄 상태를 가청하실 수 있습니다.
[57분 13초] demo 재생: track간 시간차로 인해 완벽한 상쇄가 이뤄지지 않음.
[57분 30초] EQ 반전 상쇄 실험 역시 microphone의 근거리 저주파 증폭같은 간단한 응답 편차는 EQ로 교정될 수 있다는 점을 확인시켜 주었습니다. 다만, 음향 반사로 인해 발생한 음향적 문제를 교정하는 것은 복잡한 comb filtering 때문에 훨씬 어렵습니다. 그러나 간단한 1극(pole), 혹은 2극 curve 정도는 EQ로 쉽게 고칠 수 있지요. 기술적으로 말씀드리면, “극”은 간단히 octave 마다 6dB를 가지는 stage를 일컫습니다.
[57분 56초] 많은 microphone은 약 5 kHz 정도에서 고주파에 “존재하는” 증폭을 가지고 있습니다. 이 증폭이 capsule ringing으로 발생한 것만 아니라면 이런 특성은 EQ먹인 flat한 microphone과 전혀 다를 바가 없지요. 제 동지인 Doug Ferrara가 Neumann TLM103을 구입했을 때, 저는 audiotechnica 4033을 그의 작업실로 가지고 갔지요. TLM 설명서에 적혀있는 증폭에 따라 EQ를 4033에 적용하니, 두 microphone들은 거진 차이가 없게 되었습니다.
—————————————
Entire contents Copyright 2009-2010 by Ethan Winer, with portions by James Johnston and Poppy Crum

Cable equlizer

[더욱 실감 나는 영상 시대 ! 4K UHD📺를 지원하는 케이블 이퀄라이저] 

입출력 장치가 멀리 떨어져 있어도 #UHD 해상도의 데이터 전송을 가능케 하는 #케이블이퀄라이저 의 중요성이 점점 강조되고 있습니다!
지금 바로 교육 영상을 통해 성능을 양보하지 않으면서도 전원 소모가 적은 케이블 이퀄라이저를 만나보세요~😃 #LMH1219 는 케이블 거리를 12G에서 75m, 6G에서는 120m로 연장할 수 있습니다. 또한 비디오 전송 포맷 국제 표준인 #SDI 의 #SMPTE 2022에 준거하여 최대12Gbps 속도로 4K 비압축 비디오를 단일 동축 케이블을 통해 전송할 수 있습니다! 👍
또한 내장된 #리클로커 가 낮은 #지터 를 제공해 깨끗한 화면을 지원하며, 250mW의 낮은 전력 소모⤵로 인해 사용량이 많은 방송 비디오 라우터, 스위처, 디지털 비디오 프로세싱에 사용이 가능합니다.
방송 및 비디오 장비를 설계하고 있으신가요? #LMH1219 의 장점 및 설계 방법을 교육 영상을 통해 확인하세요.
▶LMH1219 교육 영상 보기: http://goo.gl/Vw6e4x

▶LMH1219 데이터시트 보기: http://goo.gl/t1Qnyk

▶“4K UHD 12G-SDI 인터페이스로 업그레이드 할 때 고려할 3가지” 블로그: http://goo.gl/gC1Wlu