luckyea77 (luckyea77) wrote,
luckyea77
luckyea77

Category:

Когда технологии знают вас лучше, чем вы сами



Чтобы понять, что на самом деле имеют в виду люди, мы читаем подтекст. Сегодня же почти все общаются в основном в социальных сетях; текстовые сообщения содержат себе куда меньше подтекста, и мы понимаем друг друга хуже, чем когда-либо прежде.

Рана эль Калиобай, соосновательница компании Affectiva, обучающей машины анализу эмоций, хочет усовершенствовать инструменты, которые мы используем для общения, и вернуть коммуникацию на прежний уровень. Издание Quartz объяснило, как ей это удастся сделать.

Сентиментальные технологии


Калиобай вместе с коллегами разрабатывает базу данных, состоящую из 7,7 миллионов изображений разных лиц, чтобы получить общую картину человеческой коммуникации. Идея заключается в том, что если машины научатся читать подтекст, они будут лучше удовлетворять наши потребности в некоторых ситуациях.

Возьмем, к примеру, онлайн-обучение. Представьте, что вы не понимаете какую-то тему во время курса. В теории камера будет передавать компьютеру ваши эмоции (в данном случае блуждающий взгляд и разочарование), а система будет реагировать на оповещение должным образом. Возможно, вам предложат больше примеров или задачи попроще.

У технологии Калиобай есть несколько интересных применений. Автоматизированный анализ эмоций может помочь людям с аутизмом, которые не могут интерпретировать подтекст, лучше понимать общение. Устройство, внешне напоминающее Google Glass, будет оповещать пользователя, если тот проигнорирует важный невербальный знак, и таким образом, он не будет полагаться на один лишь язык для оценки ситуации.

Калиобай также использовала свой инструмент для определения заинтересованности слушателей во время вебинаров. Обычно онлайн-спикер не может сказать, внимательно ли его слушают. Однако при помощи технологий он может определить активность аудитории и в результате более эффективно донести свою мысль.



Рекламодатели также использовали инструмент для тестирования реакции людей на потенциальную кампанию. Зрители смотрят рекламу, в то время как технологии Affectiva оценивают их реакцию. Такой анализ помогает маркетологам понять потенциальный успех своей кампании.

Плохие потенциальные применения

Среди бесконечных возможностей эмоциональных технологий есть, конечно же, и опасные. В плохих руках инструмент, читающий и интерпретирующий эмоции, может использоваться для дискриминации, манипуляции и получения прибыли от данных о наших чувствах. Калиобай вместе с коллегами, например, поклялась, что не позволит применять инструмент в целях наблюдения и обеспечения безопасности. И они выполняют свое обещание: они отказывались от многих выгодных сделок из этих соображений; по словам Калиобай, почти каждую неделю Affectiva отклоняет предложения инвесторов, заинтересованных в разработке технологии для слежки.

Сокровищница данных

Прежде всего, пользователи должны давать согласие на предоставление своих данных, если такие инструменты будут использоваться повсеместно, считает Калиобай. Компании обязаны давать людям знать, что собирают информацию о них, и объяснять, в каких целях это делается.

При помощи данных можно сделать хорошие и плохие вещи, и об этом нельзя забывать. Достаточно вспомнить многочисленные скандалы, связанные с Facebook.

Если компании начнут собирать информацию не только о том, что мы читаем или о чем говорим, но и о том, что заставляет нас улыбаться и из-за чего мы нахмуриваем брови, корпорации будут знать нас лучше, чем мы сами, и это проблематично.

Собирая лица со всего мира

Еще один потенциальный недостаток анализа может заключаться в его неточности. Инструмент должен сначала «ознакомиться» с широким рядом лиц из разных стран, чтобы предоставлять правильные результаты. Алгоритмы, основанные на ограниченных наборах данных, являются предвзятыми и распознают лишь те лица, на которых они чаще обучались. Чтобы обучить машину читать все эмоции, необходимы огромные базы данных с фотографиями людей из разных стран; кроме того, требуется понимать значение выражений лица и жестов в разных культурах.



Наша мимика в какой-то степени диктуется культурой. Калиобай вместе с коллегами обнаружила, что есть универсальные выражения лица – например, улыбка – но культурное влияние усиливает или приглушает определенные тенденции. Они знают, например, что латиноамериканцы более явно выражают свои эмоции, чем азиаты, и что женщины улыбаются в основном чаще, чем мужчины, объясняет Калиобай.

Но им все еще нужно больше информации. «Прогресс технологии измеряется в размере и разнообразии баз данных. Мы хотим, чтобы наши алгоритмы определяли больше эмоций», – говорит Калиобай.

Понять сарказм труднее всего

В индустрии Калиобай есть своеобразный святой грааль: алгоритм, который идентифицирует сарказм.

Сарказм – очень утонченный тип сообщения. Если инструмент сможет распознавать такой завуалированный прием речи, это будет считаться триумфом машинного обучения. Калиобай пока не знает, сколько времени уйдет на то, чтобы достичь этой цели, но она уверена, что это случится нескоро.

Основательница Affectiva просит нас с осторожностью относиться к новым технологиями. Она делает все с любовью и хорошими намерениями, но это не обязательно означает, что мы должны ей доверять.

«Я думаю, здесь есть чего бояться. У любой технологии есть как полезный, так и вредный потенциал», – считает она.

Tags: технологии
Subscribe

Posts from This Journal “технологии” Tag

promo luckyea77 июнь 21, 2015 20:04 30
Buy for 10 tokens
В этой записи я буду давать ссылки на посты с лекциями и уроками в этом блоге: Учебные материалы и тесты: 11 ресурсов для бесплатного образования Проект "Лучшие кадры лучшей страны" Онлайн-курсы по высоким технологиям и инновациям Дистанционное образование в России (среднее профессиональное…
  • Post a new comment

    Error

    default userpic

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 0 comments