Предыдущий пост собрал большое количество комментариев. И тема действительно интересная. Как человек, имея только два уха, расположенных на горизонтальной оси, в принципе может отличить, летает ли муха у пола или у потолка. И находится ли она сзади нас или спереди нас. Ведь может? Ну, не с такой точностью, с какой мы можем определить угол направления на источник звука, находящийся спереди нас (в идеальных условиях человек способен на точность определения этого угла с погрешностью в два градуса!!!), но может. Да, плоховато, но способен. Если муха будет тупо летать по окружности, вокруг нашей головы, никаких проблем с опознаванием того, сзади муха или спереди, у нас не возникнет.
Я никоим образом не являюсь специалистом в данной области. Но из того, что я наскрёб в интернетах, это связано с акустическими особенностями нашей с вами головы. Наши уши являются слегка направленными из-за их формы. Это не микрофоны с круговой направленностью. Мы воспринимаем звук по-разному в зависимости от угла; звук, идущий сзади, частично отражается от задней части ушей, из-за чего меняется амплитудно-частотная характеристика воспринимаемого звука. Наш мозг вполне способен на обработку данной информации и расчёту позиции его источника. Безусловно, это сложнее для какого-то одиночного сигнала, и проще для сигнала продолжительного, так как у нас есть, с чем сравнить.
Я даже полагаю, что для некоторых звуков угол наш мозг будет вычислить не в состоянии. Например, звук синуса частотой 1KHz меняться будет очень слабенько. Ну да, он будет по-разному затухать, но врядли это даст мозгу достаточно информации. А вот местоположение шума, где частотная полоса очень широкая (есть, чему избирательно затухать!), будет определяться легче.
Есть вполне строгие математические формулы, по которым можно рассчитать, как должен меняться звук при смене его расположения. К сожалению, я не нашёл никакой информации на русском языке, но на английском это называется Head-related transfer function (HRTF). Это уже за гранью моего понимания, я дальше матана и статистики с теорвером ничего не изучал. Вот тут я нашёл аж целый небольшой вводный учебничек по данному вопросу, за авторством двух профессоров Мичиганского университета: https://isr.umd.edu/Labs/ISL/BAIL/hrtf_review.pdf. Ну, если кто-нибудь решит всерьёз закопаться.
Компьютерные чипы компании Aureal, которым я пел дифирамбы, занимаются именно этим — обсчётом того, как должен меняться звук, в зависимости от его позиции. Не надо верить мне на слово. Вот добрый человек выложил эти демки на ютуб. Поглядите сами.
Теперь по поводу музыки в этом формате. Уже сведённое стерео, безусловно, невозможно нормально переделать на этот формат. Это надо сводить заново. Я думаю, что берётся изначальная многоканальная запись, к отдельным трекам применяется этот самый HRTF, и вперёд — создаётся этот самый эффект присутствия. В Эппл музыке далеко не все записи являются такими, и там специально выводится индикация того, что ты слушаешь Dolby Atmos, а не обычное стерео.