+11 голос |
В статье, опубликованной в International Journal of Artificial Intelligence and Soft Computing описывается компьютерная система, обучаемая определять эмоциональное состояние человека по движениям губ.
Картигаян Мутукаруппан (Karthigayan Muthukaruppan) и его коллеги из Международного университета Манипал в Селангоре (Малайзия) применили в ней генетический алгоритм, улучшающий с каждой итерацией точность интерпретации очертаний рта.
Для тренировки компьютера они использовали фотографии представителей Юго-Восточной Азии и Японии, отражающие шесть основных эмоций — счастье, печаль, страх, гнев, отвращение, удивление, — а также нейтральное состояние. Верхняя и нижняя губы, при этом, представлялись отдельными неправильными эллипсами, и анализировались индивидуально.
Хорошо известно, что многие глубокие чувства передаются не только движениями рта: например, в подсознательно искреннюю улыбку вовлекаются мышцы вокруг глаз и брови. Тем не менее, главным «семафором» эмоций остаются губы.
К настоящему времени уже довольно хорошо отработаны технологии представления человеческих эмоций на синтезированном компьютером лице. Это широко применяется, в частности, при анимации персонажей фильмов. Обратный процесс — распознавание эмоций по выражению реального лица — поддается изучению гораздо хуже.
Успех малазийских ученых, по их мнению, уже в ближайшее время приведет к созданию датчика эмоций, который поможет инвалидам с проблемами речевого аппарата более эффективно взаимодействовать с компьютерными коммуникационными устройствами.
Стратегія охолодження ЦОД для епохи AI
+11 голос |