Защо правилата на ЕС относно ИИ са жизненоважни за развитието на сектора

Защо правилата на ЕС относно ИИ са жизненоважни за развитието на сектора

Шон Тан, изпълнителен директор на разработчика на AI екосистеми Skymind, обяснява защо новите правила на ЕС са добри

Иван Гайдаров
893 прочитания

В началото на годината законодателите на Европейския съюз (ЕС) представиха нови правила, които определят начините, по които компаниите използват изкуствен интелект (ИИ). Правилата са първите по рода си, въвеждащи определени регулации в сектора, а подходът на ЕС е уникален в глобален мащаб.

В САЩ технологичните компании са до голяма степен оставени сами да преценяват какво да правят или да не правят, докато в Китай иновациите в областта на изкуствения интелект често се ръководят от правителството и се използват редовно за наблюдение на гражданите, без регулаторите да създават особени пречки. ЕС обаче възприема подход, който има за цел да увеличи максимално потенциала на ИИ, като същевременно се спазват изцяло регламентите за защита на личните данни, коментира Шон Тан, изпълнителен директор на разработчика на Skymind.

В ЕС вече съществуват разпоредби относно случаите, които се възприемат като застрашаващи безопасността или основните права на хората, като например технологиите за манипулиране на поведението, базирани на ИИ. Съществуват и точни регламенти относно начините, по които правоприлагащите органи могат да използват биометрично наблюдение на обществени места. Някои случаи на употреба, които пораждат "висок риск", също са обект на специфични регулаторни изисквания преди и след навлизането им на пазара.

Изисквания за прозрачност са въведени и по отношение на използването на изкуствен интелект за създаване на чатботове и т.нар. "deep fake" клипове. В подобни случаи европейските законотворци смятат, че рискът може да бъде намален, ако потребителите бъдат предварително информирани, че не взаимодействат с човешко същество.

Компаниите, които не спазват тези нови правила, са изправени пред глоби в размер до 6% от годишните си приходи - санкции, по-високи дори от тези, заложени в Общия регламент за защита на данните (GDPR).

Прекалено дълго време обществото ставаше свидетел на много случаи, в които набори от данни, ясно изразяващи определени предразсъдъци, бяха използвани от компаниите за разработване на ИИ, който в крайна сметка дискриминира обществото, на което е предназначено да служи. Един от тези примери е случаят с Goldman и Apple. Двете компании си партнираха, за да пуснат на пазара нова кредитна карта. Използваните за автоматизация на процеса по одобрение алгоритми обаче се оказаха "предубедени", предпочитайки значително кандидатите от мъжки пол пред тези от женски, отказвайки на милиони потенциални потребители.

Подобни отрицателни резултати са сериозна аларма за събуждане на организациите и доказателство, че те трябва да се заемат сериозно с процесите на тълкуване от страна на алгоритмите и тяхното тестване. Новото законодателство на ЕС вменява нови нива на отговорност на тези, които разработват и прилагат ИИ, изисквания за прозрачност в процеса на разработка и допълнително внимание за отклонения в наборите от данни. Без ясно законодателство компаниите просто нямат стимул да влагат допълнителни ресурси, необходими за преодоляване на тези проблеми.

Намаляване на пристрастията на ИИ

Законодателството има силата да наложи етичните правила и да помогне за намаляване пристрастия, демонстрирани от ИИ - особено на пазара на труда. Установено е например, че някои инструменти за набиране на служители, базирани нa изкуствен интелект, дискриминират жените, тъй като са склонни да предпочитат служители, подобни като профил на вече наетите в компанията, които са мъже.

Подобни случаи има и в много други сфери. Преди няколко години разследващата платформа ProPublica разкри, че алгоритъм, използван от правосъдната система на окръг Брауърд, Флорида, грешно обозначава подсъдимите от афро-американски произход с етикет "висок риск" в почти два пъти по-голям процент от случаите, отколкото подсъдимите с бял цвят на кожата.

Отвъд проблемите, свързани с дискриминацията на жени и малцинства, съществува и необходимостта от разработване на колективно договорени правни рамки за създаването на "обяснителен" изкуствен интелект. Това означава, че хората ще могат да разберат и да формулират как системата с ИИ е взела определено решение и да проследят резултатите до тяхната изходна точка. Развитието на подобна технология е от решаващо значение за всички индустрии и в частност за сфери като здравеопазването, производството и застрахователната дейност. Ако едно приложението се обърка, когато препоръчва филми или песни, това е в най-лошия случай досадна случка. Но когато става въпрос за по-сериозни приложения на ИИ, като например предлагане на стоматологично лечение или отхвърляне на заявление за застрахователна претенция, пораженията могат да бъдат наистина сериозни. Ако няма възможност за проследяване на начина, по който системата с ИИ е взела решението, е трудно да се иска каквато и да било отчетност.

В същото време обществото става все по-подозрително към широкото прилагане на инструменти за биометричен анализ и лицево разпознаване и липсата на цялостно законодателство за регулиране на технологията може да се превърне в прът в колелата на развитието ѝ. Пример за координиран опит за насочване на колективното недоволство от ИИ е Reclaim Your Face, европейска инициатива за забрана на биометричното наблюдение заради опасения, че то може да доведе до "ненужна или непропорционална намеса в основните права на хората".

Снимка на Gerd Altmann от Pixabay

В началото на годината законодателите на Европейския съюз (ЕС) представиха нови правила, които определят начините, по които компаниите използват изкуствен интелект (ИИ). Правилата са първите по рода си, въвеждащи определени регулации в сектора, а подходът на ЕС е уникален в глобален мащаб.

В САЩ технологичните компании са до голяма степен оставени сами да преценяват какво да правят или да не правят, докато в Китай иновациите в областта на изкуствения интелект често се ръководят от правителството и се използват редовно за наблюдение на гражданите, без регулаторите да създават особени пречки. ЕС обаче възприема подход, който има за цел да увеличи максимално потенциала на ИИ, като същевременно се спазват изцяло регламентите за защита на личните данни, коментира Шон Тан, изпълнителен директор на разработчика на Skymind.

С използването на сайта вие приемате, че използваме „бисквитки" за подобряване на преживяването, персонализиране на съдържанието и рекламите, и анализиране на трафика. Вижте нашата политика за бисквитките и декларацията за поверителност. ОК