В ходе экспериментов, младенцам ставили 15-секундные записи голоса их матерей, которые произносили одну и ту же фразу с разными интонациями: счастливой, сердитой и нейтральной. При этом аудиоролики анализировались с акустических позиций, а младенцам делались снимки функциональной магнитно-резонансной томографии мозга (фМРТ).

Оказалось, что на основании акустического анализа можно уверенно определить, какая эмоция звучит в речи матери, и какую активность она вызовет в мозге ребенка. Набрав достаточное количество данных, ученые научились это надежно предсказывать.

 

Данное исследование — пилотное в рамках более крупного нового проекта, под названием «Проект обработки эмоционального окружения» (The Processing of the Emotional Environment Project, PEEP). Его цель — разобраться в подробностях, как наш мозг воспринимает чужие эмоции на слух. В перспективе, возможно, удастся «научить» этому и роботов.

«Вы не можете говорить с Siri [голосовой помощник в iOS] так, чтобы она понимала ваши эмоции, — привел пример Мориарти. — Чтобы делать такие выводы, нужна очень сложная модель. Проблема в том, что существует очень сложное взаимодействие между этими акустическими параметрами и типом эмоции, а также негативом или позитивом, который мы с ней ассоциируем».

 

Источник: scientificrussia.ru