Pixabay.com
Tumisu

AI инструментите не намаляват предубежденията при наемането на кадри

Ново изследване показва също така, че те не помагат и за гарантиране на разнообразие

Мария Динкова

Pixabay.com

© Tumisu


Хората сме склонни да имаме предубеждения, които замъгляват преценката ни и могат да ни подтикнат да не вземем обективни решения. За съжаление изглежда, че успяваме да предадем тези разбирания и на изкуствения интелект.

Ново изследване на Кеймбриджкия университет показва, че използването на AI инструменти в процеса на подбор на кадри не успява да изпълни целите, които са му поставяни, а именно да намали предубежденията и да подобри разнообразието.

През последните години се наблюдава увеличаващ се интерес към технологиите, като начин да се преодолеят проблемите с предразсъдъците, например по време на интервю за работа, а използването на изкуствен интелект става все по-широко при анализа на видеа и автобиографии на кандидати.

Според авторите от Кеймбриджкия университет подобни решения не трябва да се внедряват с идеята да заменят усилията за подкрепа кандидатите от малцинствени групи. "Аутсорсването на подбора към "неутрални" технологии може да е стремежът на наемащите и на компаниите за AI подбор, но те не са съгласувани със стратегиите, които доказано подпомагат справянето с несправедливостите при процеса на подбор: това включва например гарантиране, че кандидатите с различен произход са добре представени в центровете за оценка на база на расата и пола, както и други свързани линии на социално разграничаване като възраст", се отбелязва в проучването.

По данните на международно проучване от 2020 г. около една четвърт от експертите по човешки ресурси прилагат AI за "набирането на таланти под формата на автоматизация", пише BBC. В същото време някои компании вече официално се отказват от разработката на подобни инструменти. Например така постъпи Amazon през 2018 г., тъй като решението на компанията установява пола от получените автобиографии и взима решения, които дискриминират кандидатствалите жени.

Несъществени променливи

Всъщност се оказва, че при анализ на видеоклипове и изображения често AI инструментите взимат под внимание редица несъществени променливи и това води до неточни резултати и неправилни решения.

За целите на проучването екипът създава свой собствен AI инструмент за подбор, който да оценява снимките на кандидатите за петте основни личности черти: сговорчивост, екстровертност, откритост, добросъвестност и невротизъм. Но оценките се разминават, повлияни от множество несъществени променливи, като например при промяна на контраста или осветеността.

Подобни резултати се наблюдават и при предишни проучвания, които показват как носенето на очила или шал по време на видеоинтервю или пък добавянето на етажерка за книги като фон намалява резултатите на кандидатите за невротизъм и добросъвестност, пише The Register.

Всъщност подобен тип решения най-често са обучавани да търсят характеристики, свързани с предишни успешни кандидати и следователно е по-вероятно да изберат подобно изглеждащи хора, вместо да подпомогнат разнообразието. На практика AI инструментите се обучават с данни от миналото и много често зададените критерии няма как да подберат идеалния кандидат за дадена компания, който се търси на база на бъдещите цели и стремежи на съответната организация.

Какво е решението?

На база на своите заключения авторите на проучването дават три съвета как да се усъвършенства използването на AI при подбора на кадри. Според експертите промяната трябва да бъде подкрепена от всички участващи в процеса, включително самите компании за подбор, техните клиенти, регулаторните органи и специалистите по AI етика.

"На първо място, експертите от индустрията, разработващи технологии за AI подбор трябва да се преориентират от опита за коригиране на отделните примери на "предубеждения" към това да обмислят по-широките неравенства, които оформят процеса на подбор", се отбелязва в доклада. С други думи как категориите, използвани за сортиране, обработка и категоризиране на кандидатите, може в миналото да са ощетили индивидите, които попадат в тях.

На второ място, клиентите на съответните решения трябва да бъдат наясно с ограниченията, които технологията има. Макар че подобни инструменти имат потенциала да улеснят работата на експертите в сферата на човешките ресурси, те трябва внимателно и информирано да подхождат към нейното използване.

На последно място, макар не и по значение, в проучването се обръща внимание на нуждата от по-сериозна регулация на AI решенията. "След като AI инструментите в сферата на човешките ресурси могат и ще възпроизведат форми на различия и дискриминация, е ключово специалистите по AI етика подробно да изследват твърденията и продуктите, създадени от компаниите за AI наемане, а също така и как тези технологии са внедрени в индустриалния контекст", заключват авторите на доклада.

Хората сме склонни да имаме предубеждения, които замъгляват преценката ни и могат да ни подтикнат да не вземем обективни решения. За съжаление изглежда, че успяваме да предадем тези разбирания и на изкуствения интелект.

Ново изследване на Кеймбриджкия университет показва, че използването на AI инструменти в процеса на подбор на кадри не успява да изпълни целите, които са му поставяни, а именно да намали предубежденията и да подобри разнообразието.

Най-новото


Мозъчният имплант на Neuralink ще бъде тестван върху хора

Мозъчният имплант на Neuralink ще бъде тестван върху хора

  • 0




Intel ще произвежда "стъклени" процесори с гигантски размери

Intel ще произвежда "стъклени" процесори с гигантски размери

  • 0


Кои са новите функционалности на чатбота Bard

Кои са новите функционалности на чатбота Bard

  • 0

Вече може да кандидатствате за ГИС награди

Вече може да кандидатствате за ГИС награди

  • 0

Още от Digitalk ›
С използването на сайта вие приемате, че използваме „бисквитки" за подобряване на преживяването, персонализиране на съдържанието и рекламите, и анализиране на трафика. Вижте нашата политика за бисквитките и декларацията за поверителност. ОК