Рискове и капани при използването на ИИ

Рискове и капани при използването на ИИ

Мария Динкова
633 прочитания

Изкуственият интелект (ИИ) се превръща в основен двигател на иновациите и навлиза във всяка индустрия и социална сфера. Заедно с ползите, които технологията предлага, нейното приложение обаче крие също така редица рискове и предизвикателства, свързани с етиката и надеждността. Капаните и добрите практики при разработката на алгоритмите бяха обсъдени от участниците във втората конференция "Големи данни и изкуствен интелект" на института GATE, която се проведе онлайн тази седмица.

"Организациите се нуждаят от бързи, безпроблемни магистрали, за да иновират и да създават приложенията, на които хората могат да се доверяват. Изкуственият интелект ще бъде възприеман като електричеството в бъдеще", споделя Анна Феландер от Центъра за ИИ устойчивост в Швеция. Именно и затова е необходимо да се установят правила за прилагане на технологията, така че да се гарантира нейното отговорно и прозрачното управление. В противен случай самоскалиращият и самообучаващият се изкуствен интелект, който не е достатъчно регулиран, ще създаде етични и социални рискове.

ИИ пазарът се очаква да се разрасне от 100 млрд. долара през 2021 до 1 трлн. долара през 2028 и по думите на експерта това ще доведе до нов вид дигитално замърсяване. Ако не бъдат предприети действия по отношение на непреднамерените етични пробиви, предразсъдъци и други капани, те могат да се увеличат експоненциално и да излязат извън контрол.

Феландер очертава 4 риска, с които всяка организация трябва да се справи при внедряване на технологията:

  • Недоразвити данни и ИИ, когато данните не са достатъчни или ИИ не е правилно обучен
  • Предразсъдъци в данните, когато данните не отразяват реалността и не са валидирани
  • Предразсъдъци, вложени от създателите, или как организационните ценности се кодират в решенията с ИИ
  • Неправилно използване на данни, когато се нарушава неприкосновеността

В този смисъл това, към което трябва да се стремят компаниите, е обяснимост, прозрачност и отговорност на всички нива и във всички фирмени отдели. "Замърсяването на данни и ИИ води до сериозни юридически, репутационни и финансови рискове. От друга страна, влагането на човешките ценности в ИИ предлагат възможност за засилване на бранда, пазарните позиции и съответствието за предстоящите регулации на ЕС в областта на ИИ (2024)", посочва Феландер.

Тя допълва, че се намираме в момент, когато спешно трябва да се направят промените, да се създадат процеси, документация и знания, така че всяка компания и бизнес да гарантира съответствието спрямо предстоящите изисквания. С други думи, нефилтрираните, тъмни данни и липсата непрозрачност трябва да се заменят с етични филтри, корпоративна цялост и прозрачност.

Бъдещо развитие

Влияние върху бъдещото развитие на изкуствения интелект ще имат не само новите законодателни изисквания, но и технологичното развитие. В момента се наблюдава тенденцията все повече да се преминава от модел на централизиран към децентрализиран ИИ.

В първия случай данните трябва да бъдат събрани на едно място и именно там да бъдат обработени, обяснява Андреа Пасарела от Националния изследователски съвет на Италия. Това обаче създава твърде голям трафик, както и води до проблеми, свързани с неприкосновеността и доверието, тъй като няма видимост как се съхраняват и използват в крайна сметка данните.

"Поради тези причини отиваме към децентрализация, като пазим данните локално и локалните устройства (като телефоните) си сътрудничат заедно, за да извлекат информация", уточнява Пасарела. Предизвикателствата в този случай са по отношение на липсата на централен контрол, както и повече възможности за зловредни действия.

По думите на експерта децентрализираната ИИ екосистема обаче ще осигури повече прозрачност и видимост за това как, къде и защо се съхраняват данните. "Бъдещето на изкуствения интелект ще бъде децентрализирана среда, като ИИ агенти ще работят върху индивидуалните устройства на потребителите и ще си сътрудничат чрез социална мрежа. Затова тези системи трябва да бъдат изградени спрямо фокусирани около човека принципи. Когато създаваме нов алгоритъм в този сценарий, ние трябва да повторим начина, по който хората си взаимодействат помежду си, при ИИ моделите, за да извличат знание и да разменят информация помежду си. Важно е да искаме да запазим обяснимостта във всички нива - локално и колективно", заключва Пасарела.

Изкуственият интелект (ИИ) се превръща в основен двигател на иновациите и навлиза във всяка индустрия и социална сфера. Заедно с ползите, които технологията предлага, нейното приложение обаче крие също така редица рискове и предизвикателства, свързани с етиката и надеждността. Капаните и добрите практики при разработката на алгоритмите бяха обсъдени от участниците във втората конференция "Големи данни и изкуствен интелект" на института GATE, която се проведе онлайн тази седмица.

"Организациите се нуждаят от бързи, безпроблемни магистрали, за да иновират и да създават приложенията, на които хората могат да се доверяват. Изкуственият интелект ще бъде възприеман като електричеството в бъдеще", споделя Анна Феландер от Центъра за ИИ устойчивост в Швеция. Именно и затова е необходимо да се установят правила за прилагане на технологията, така че да се гарантира нейното отговорно и прозрачното управление. В противен случай самоскалиращият и самообучаващият се изкуствен интелект, който не е достатъчно регулиран, ще създаде етични и социални рискове.

С използването на сайта вие приемате, че използваме „бисквитки" за подобряване на преживяването, персонализиране на съдържанието и рекламите, и анализиране на трафика. Вижте нашата политика за бисквитките и декларацията за поверителност. ОК