Twitter обяви резултатите от отворено състезание, чиято цел беше да се открият предубежденията и необективността на AI алгоритмите в системата за обработка на изображения на социалната мрежа, пише The Verge.
Компанията деактивира автоматичното изрязване на снимки през март, след като експерименти от потребители миналата година допуснаха, че софтуерът предпочита бели пред черни лица. След това социалната мрежа стартира състезанието, което трябваше да установи бъговете и да анализира проблема по-подробно.
Надпреварата потвърждава първоначалните резултати. Най-добре представилият се участник показва, че алгоритъмът за рязане на снимки на Twitter избира лица, които са "слаби, млади и със светъл или топъл цвят и гладка кожа, а също така са със стереотипно женствени черти". Класираните на второ и трето място разкриват, че системата показва предразсъдъци спрямо хора с бяла или сива коса, което говори за възрастова дискриминация. Освен това става ясно, че решението предпочита английските пред арабските надписи в изображенията.
"Когато мислим за предубежденията в нашите модели, не става дума само за академичен или експериментален (интерес), а също как това се отразява на начините, по които мислим в обществото. Използвам фразата "живот, имитиращ изкуството, имитиращо живота". Ние създаваме тези филтри, защото смятаме, че това е красиво и в крайна сметка това води до обучаването на нашите модели и създаването на тези нереалистични представи какво означава да си привлекателен", споделя Руман Чоудури, директор на екипа в Twitter, занимаващ се с етиката на машинното обучение, прозрачността и отговорността.
Голямата награда от 3, 500 долара получава Богдан Кулиник, аспирант в швейцарския университет EPFL. Той е използва AI програма, наречена StyleGAN2 да генерира голям брой реалистични лица с различен цвят на кожата, женствени и мъжествени чети. След това е захранил с тези варианти алгоритъма за изрязване на снимки на Twitter, за да открие кои точно са предпочитаните.
В своето обобщение Кулиник отбелязва, че тези алгоритмични предубеждения усилват предразсъдъците в обществото, като буквално изрязват "тези, които не отговарят на предпочитанията на алгоритъма за тегло, възраст и цвят на кожата".
Подобни предразсъдъци се оказват и много по-широкобхватни, отколкото бихме предположили. Друг участник Винченцо ди Чико, който спечели специално споменаване за своя иновативен подход, показа, че алгоритъмът предпочита емотикони с по-светъл цвят пред такива с по-тъмни тонове. Участникът на трето място - Роя Пакзад, разкрива, че предразсъдъците се простират и до писмения текст. При сравнение на мемета на английски и арабски се вижда, че алгоритъмът редовно изрязва снимката, за да подчертае английския текст.
Макар резултатите от състезанието, организирано от социалната мрежа, да изглеждат обезкуражаващи и да потвърждават разпространението на обществените предупреждения в алгоритмичните системи, то също така разкрива как технологичните компании могат да се борят с тези проблеми като отварят своите решения за външна оценка. "Способностите на хората, включили се в състезание като това да навлязат надълбоко в определен тип на вреда или предубеждение е нещо, което екипите в корпорациите нямат лукса да направят", изтъква Чоудури.
Отвореният подход на Twitter контрастира на отговорите от страна на други технологични компании, изправени пред подобни критики. Когато изследователи от Масачузетския технологичен институт откриха расови и полови предубеждения в алгоритмите за лицево разпознаване на Amazon например, компанията разгърна мащабна кампания да дискредитира тези, които са участвали, определяйки работата им като "подвеждаща" и "лъжовна". След сблъсъци, продължили месеци, накрая Amazon смекчи своята позиция и постави временна забрана за използването на тези алгоритми от правоприлагащите органи.
Патрик Хол, съдия в състезанието на Twitter и AI изследовател, работещ в сферата на алгоритмичната дискриминация, подчертава, че подобни предубеждения съществуват във всички AI системи и компаниите трябва да работят проактивно да ги откриват. "Изкуственият интелект и машинното обучение са просто Дивият запад, без значение колко талантлив смятате, че е вашият екип по науката за данните. Ако не откривате бъгове в системите си или търсещите бъгове не ги намират, то тогава кой открива вашите бъгове? Защото определено имате такива", допълва Хол.
Twitter обяви резултатите от отворено състезание, чиято цел беше да се открият предубежденията и необективността на AI алгоритмите в системата за обработка на изображения на социалната мрежа, пише The Verge.
Компанията деактивира автоматичното изрязване на снимки през март, след като експерименти от потребители миналата година допуснаха, че софтуерът предпочита бели пред черни лица. След това социалната мрежа стартира състезанието, което трябваше да установи бъговете и да анализира проблема по-подробно.