В опит да подобрят справедливостта или да намалят закъснялото разглеждане на проблеми, особено в социалните мрежи, моделите за машинно обучение понякога са проектирани да имитират вземането на решения от човека, като например да решат дали дадени публикации в социалните медии нарушават политиката за "токсично" съдържание.
Изследователи от MIT са открили, че тези модели често не възпроизвеждат човешки решения относно нарушения на правилата. Ако моделите не са обучени с правилните данни, те вероятно ще направят различни, често по-сурови преценки за блокиране на потребители, отколкото биха направили хората.
В този случай "правилните" данни са онези, на които хора са поставили етикети, като те са били изрично попитани дали елементите противоречат на определено правило. Обучението включва показване на модел за машинно обучение на милиони примери за тези "нормативни данни", за да може да научи дадена задача.Тази намалена точност може да има сериозни последици в реалния свят. Ако се използва описателен модел за вземане на решения за това дали дадено лице има вероятност да извърши повторно престъпление, изследователите предполагат, че ИИ може да вземе по-строго решение, а това би довело до по-високи суми за гаранция или до по-дълги наказателни присъди.
"Мисля, че повечето изследователи на изкуствения интелект/машинното обучение приемат, че човешките преценки за данните и етикетите са пристрастни, но този резултат е още по-лош. Моделите дори не възпроизвеждат предубедени човешки преценки, тъй като данните, върху които се обучават, имат недостатък: хората биха етикетирали характеристиките на изображенията и текста по различен начин, ако знаеха, че тези характеристики ще бъдат използвани за преценка. Това има огромни последици за системите за машинно обучение в човешките процеси", обяснява Марзие Гасеми, ръководител на групата Healthy ML в Лабораторията за компютърни науки и изкуствен интелект (CSAIL) на Масачузетския технологичен институт (MIT).
И докато в САЩ се опитват да намалят рисковете от прекомерно модериране, в Китай действат по-радикално. Правителството се стреми да "прочисти" интернет от фалшиви новини и слухове, като затвори повече от 100 000 онлайн профила през последния месец, съобщава китайският регулатор на киберпространството.
Администрацията за киберпространство на Китай стартира специална кампания за изчистване на онлайн информация, като се фокусира върху профили в социалните мрежи, които разпространяват "фалшиви новини", представяни за публикации на контролирани от държавата медии.
В опит да подобрят справедливостта или да намалят закъснялото разглеждане на проблеми, особено в социалните мрежи, моделите за машинно обучение понякога са проектирани да имитират вземането на решения от човека, като например да решат дали дадени публикации в социалните медии нарушават политиката за "токсично" съдържание.
Изследователи от MIT са открили, че тези модели често не възпроизвеждат човешки решения относно нарушения на правилата. Ако моделите не са обучени с правилните данни, те вероятно ще направят различни, често по-сурови преценки за блокиране на потребители, отколкото биха направили хората.