Мозг в режиме реального времени декодирует сигналы, чтобы сосредоточить внимание на одном человеке

В переполненном помещении, где разговаривает множество людей, например, на семейном дне рождения или в оживленном ресторане, наш мозг способен сосредоточить внимание на одном говорящем.
Понимание этого сценария и того, как мозг обрабатывает такие стимулы, как речь, язык и музыка, стало предметом исследований Эдмунда Лалора, доктора философии, доцента кафедры неврологии и биомедицинской инженерии Медицинского центра Рочестерского университета.
Недавно его лаборатория нашла новый ключ к разгадке того, как мозг способен распаковывать эту информацию и намеренно слышать одного говорящего, одновременно отстраняясь или игнорируя другого.
На самом деле мозг делает дополнительный шаг, чтобы понять слова, исходящие от говорящего, которого слушают, и не делает этого шага со словами других людей.
"Наши результаты свидетельствуют о том, что акустика как прослушиваемого, так и не прослушиваемого или игнорируемого рассказа обрабатывается одинаково", - сказал Лалор. "Но мы обнаружили, что существует четкое различие между тем, что происходит дальше в мозге".
В этом исследовании, результаты которого недавно были опубликованы в журнале "Journal of Neuroscience", участники одновременно слушали две истории, но их попросили сосредоточить внимание только на одной.
Используя записи мозговых волн ЭЭГ, исследователи обнаружили, что история, на которую участникам было приказано обратить внимание, была преобразована в лингвистические единицы, известные как фонемы - звуковые единицы, позволяющие отличить одно слово от другого, - в то время как другая история не была преобразована.
"Это преобразование - первый шаг к пониманию истории, на которую обратили внимание. Звуки должны быть распознаны как соответствующие определенным лингвистическим категориям, таким как фонемы и слоги, чтобы в конечном итоге мы могли определить, какие слова произносятся - даже если они звучат по-разному, например, произносятся людьми с разным акцентом или разным тембром голоса"
Соавторами данной работы являются аспирант из Рочестера Фархин Ахмед и Эмили Теох из Тринити-колледжа Дублинского университета. Исследование финансировалось Научным фондом Ирландии, Ирландским исследовательским советом при правительстве Ирландии, пилотной программой Института нейронаук Дель Монте и Национальным институтом глухоты и других нарушений коммуникации.
Эта работа является продолжением исследования 2015 года, проведенного под руководством Лалора, которое было опубликовано в журнале Cerebral Cortex. Это исследование недавно было удостоено премии Миши Маховальда за нейроморфную инженерию 2021 года за его влияние на технологии, направленные на помощь людям с ограниченными возможностями в улучшении сенсорного и моторного взаимодействия с миром, например, разработку более совершенных носимых устройств, например, слуховых аппаратов.
Джон Фокс, доктор философии, директор Института нейронаук Дель Монте, был соавтором этого исследования, которое показало возможность использования сигналов мозговых волн ЭЭГ для определения того, на кого человек обращает внимание в многоговорящей среде. Это была новая работа, поскольку она выходила за рамки стандартного подхода, заключающегося в изучении влияния на средние сигналы мозга.
"Наше исследование показало, что почти в режиме реального времени мы можем декодировать сигналы, чтобы точно определить, на кого вы обращаете внимание", - сказал Лалор.
Сейчас читают новости общества
- Бессонница может повысить риск развития диабета 2 типа
- Лечение болезни Альцгеймера
- Описан механизм влияния генетических дефектов на спектр развития зрения
- Калининград – русский островок в Европе
- Низкий уровень мышечной массы/веса повышает риск переломов у пожилых мужчин
Статьи на тему
Добавить