Pixabay.com
Alexa

Изкуственият интелект не успява да възпроизведе човешка преценка за нарушени правила

Модели, обучени да използват общи техники за събиране на данни, преценяват нарушенията на правилата по-строго, отколкото хората, обявиха изследователи от MIT

Владимир Владков
740 прочитания

Pixabay.com

© Alexa


В опит да подобрят справедливостта или да намалят закъснялото разглеждане на проблеми, особено в социалните мрежи, моделите за машинно обучение понякога са проектирани да имитират вземането на решения от човека, като например да решат дали дадени публикации в социалните медии нарушават политиката за "токсично" съдържание.

Изследователи от MIT са открили, че тези модели често не възпроизвеждат човешки решения относно нарушения на правилата. Ако моделите не са обучени с правилните данни, те вероятно ще направят различни, често по-сурови преценки за блокиране на потребители, отколкото биха направили хората.

В този случай "правилните" данни са онези, на които хора са поставили етикети, като те са били изрично попитани дали елементите противоречат на определено правило. Обучението включва показване на модел за машинно обучение на милиони примери за тези "нормативни данни", за да може да научи дадена задача.
Но данните, използвани за обучение на модели с изкуствен интелект, обикновено са етикетирани описателно. Това означава, че хората са помолени да идентифицират фактически характеристики, например наличието на пържена храна на снимка. Ако се използват "описателни данни" за обучение на модели, които преценяват нарушенията на правилата, например дали дадено хранене нарушава училищната политика, която забранява пържена храна, моделите са склонни да предсказват твърде много нарушения на правилата.

Тази намалена точност може да има сериозни последици в реалния свят. Ако се използва описателен модел за вземане на решения за това дали дадено лице има вероятност да извърши повторно престъпление, изследователите предполагат, че ИИ може да вземе по-строго решение, а това би довело до по-високи суми за гаранция или до по-дълги наказателни присъди.

"Мисля, че повечето изследователи на изкуствения интелект/машинното обучение приемат, че човешките преценки за данните и етикетите са пристрастни, но този резултат е още по-лош. Моделите дори не възпроизвеждат предубедени човешки преценки, тъй като данните, върху които се обучават, имат недостатък: хората биха етикетирали характеристиките на изображенията и текста по различен начин, ако знаеха, че тези характеристики ще бъдат използвани за преценка. Това има огромни последици за системите за машинно обучение в човешките процеси", обяснява Марзие Гасеми, ръководител на групата Healthy ML в Лабораторията за компютърни науки и изкуствен интелект (CSAIL) на Масачузетския технологичен институт (MIT).

И докато в САЩ се опитват да намалят рисковете от прекомерно модериране, в Китай действат по-радикално. Правителството се стреми да "прочисти" интернет от фалшиви новини и слухове, като затвори повече от 100 000 онлайн профила през последния месец, съобщава китайският регулатор на киберпространството.

Администрацията за киберпространство на Китай стартира специална кампания за изчистване на онлайн информация, като се фокусира върху профили в социалните мрежи, които разпространяват "фалшиви новини", представяни за публикации на контролирани от държавата медии.

В опит да подобрят справедливостта или да намалят закъснялото разглеждане на проблеми, особено в социалните мрежи, моделите за машинно обучение понякога са проектирани да имитират вземането на решения от човека, като например да решат дали дадени публикации в социалните медии нарушават политиката за "токсично" съдържание.

Изследователи от MIT са открили, че тези модели често не възпроизвеждат човешки решения относно нарушения на правилата. Ако моделите не са обучени с правилните данни, те вероятно ще направят различни, често по-сурови преценки за блокиране на потребители, отколкото биха направили хората.

Споразумението между съдружниците на стартъпа създава яснота в отношенията им
Съдържание за Адвокатско дружество "Динова, Русев и съдружници"
Tobel - управление на територията в умния град
Съдържание от Mapex

Най-новото

Digitalk Conference: Дигитален свят

Digitalk Conference: Дигитален свят

  • 0
  • 239









Още от Digitalk ›
С използването на сайта вие приемате, че използваме „бисквитки" за подобряване на преживяването, персонализиране на съдържанието и рекламите, и анализиране на трафика. Вижте нашата политика за бисквитките и декларацията за поверителност. ОК