Технологиите за емоционален анализ крият рискове, предупреждават британските власти

Pixabay.com
Tumisu

Технологиите за емоционален анализ крият рискове, предупреждават британските власти

Прохождащите биометрични решения могат да доведат до взимане на грешни решения, предубеждения и дори дискриминация

Мария Динкова
377 прочитания

Pixabay.com

© Tumisu


Технологиите за емоционален анализ се намират в начален етап на развитие и това създава значителни рискове при тяхното използване от компаниите. Към момента липсват научни доказателства за ефективността на този тип системи и затова те не трябва да се прилагат от фирмите особено когато става дума за взимане на критични решения за хора, предупреждават британските власти.

"За съжаление тези технологии не изглежда да са подкрепени от науката. Това е доста притеснително, тъй като знаем, че редица организации разглеждат тези технологии като възможни начини да взимат доста важни решения: да идентифицират дали хората са измамници или дали кандидатите за работа са подходящи за дадената роля", отбелязва Стивън Бонър, заместник-комисар в Служба на информационния комисар, цитиран от The Guardian.

Също така властите изразяват притеснение, че прилагането на емоционалния анализи може да доведе до "системни предубеждения, неточности и дори дискриминация". В случая става дума за използване на биометрична информация като физически и поведенчески характеристики - например движение на лицето или сърцебиенето. Според заключенията на експертите обаче няма ясна връзка между вътрешните емоции на хората и намеренията им с изражението на лицето или потенето на кожата.

В същото време властите изтъкват, че този тип информация е различна спрямо биометричните данни, прилагани при сканирането на лице и пръстови отпечатъци, които се използват например за отключване на смартфон. Тези познати решения вече са се доказали като работещи и ефективно защитаващи потребителските данни.

Какво представляват и как работят емоционалните анализи?

Софтуерът за емоционален анализ събира данни за това как човек общува вербално и невербално с цел да се установи какво е настроението или нагласата му. Технологията, наричана още емоционални анализи, осигурява информация за това как потребителите възприемат продукти, как реагират на обслужване и какво отношение изразяват към представянето на стоки.

Разработката на софтуер за анализ на емоциите изисква обаче огромни обеми от етикирани данни за емоциите. Те могат да бъдат получени от видеокамери, улавящи лицевите изражения, както и от микрофони, събиращи информация за тона на гласа. След това с тези данни се захранват алгоритмите за машинно обучение, които трябва да започнат да разпознават отделните изражения, тонове и други характеристики, свързани със специфични чувства. Днешните технологии позволяват да се категоризират емоциите като гняв, презрение, объркване, отблъскване, страх, разочарование, радост, тъга или изненада.

Подобно на останалите данни, свързани с потребителското изживяване, емоционалната информация има за цел да се използва при създаването на стратегии, които ще подобрят фирменото управление на отношенията с клиентите. Този тип софтуерни програми могат да се използват в комбинация с инициативи за събиране, класификация, анализ и визуализация на данни.

Според последните прогнози пазарът на технологии за разпознаване на емоциите ще достигне 103,1 млрд. долара до 2030 г. Значението на този тип решения ще се увеличава все повече през следващите години в сферата на маркетинга, продажбите и услугите. В тази връзка не е изненадващо, че софтуерните доставчици вече инвестират в системи за емоционален анализ, включително Apple, Microsoft и IBM.

Наскоро изследване на Кеймбриджкия университет повдигна подобни притеснения и по отношение на системите с изкуствен интелект за анализ на изображения. И в двата случая обаче се поставя въпросът как се използват технологиите, както и дали успява тяхното приложение да отговори на минималните етични и правни стандарти.

През пролетта на следващата година британските власти се очаква да публикуват насоки как да се използват биометричните технологии, включително пръстовите отпечатъци, лицевото и гласовото разпознаване. Темата изисква особено внимание, тъй като този тип информация е уникална за всеки индивид и е трудно или дори невъзможно да се промени, в случай че бъде изгубена, открадната или неправилно приложена.

Технологиите за емоционален анализ се намират в начален етап на развитие и това създава значителни рискове при тяхното използване от компаниите. Към момента липсват научни доказателства за ефективността на този тип системи и затова те не трябва да се прилагат от фирмите особено когато става дума за взимане на критични решения за хора, предупреждават британските власти.

"За съжаление тези технологии не изглежда да са подкрепени от науката. Това е доста притеснително, тъй като знаем, че редица организации разглеждат тези технологии като възможни начини да взимат доста важни решения: да идентифицират дали хората са измамници или дали кандидатите за работа са подходящи за дадената роля", отбелязва Стивън Бонър, заместник-комисар в Служба на информационния комисар, цитиран от The Guardian.

Най-новото



Нов 5G чипсет на Qualcomm ще обслужва по-малки IoT устройства

Нов 5G чипсет на Qualcomm ще обслужва по-малки IoT устройства

  • 0
  • 67


НОИ ще дигитализира пенсионните производства

НОИ ще дигитализира пенсионните производства

  • 0
  • 207

"Kyndryl България" навърши една година

"Kyndryl България" навърши една година

  • 0
  • 239

Microsoft интегрира ChatGPT в своята търсачка Bing

Microsoft интегрира ChatGPT в своята търсачка Bing

  • 0
  • 123



Още от Digitalk ›
С използването на сайта вие приемате, че използваме „бисквитки" за подобряване на преживяването, персонализиране на съдържанието и рекламите, и анализиране на трафика. Вижте нашата политика за бисквитките и декларацията за поверителност. ОК