На 29-ти април 2021 г. IBM бе домакин на онлайн кръгла маса за медиите на тема "Отговорно използване на изкуствения интелект". Александра Мойсилович, IBM Fellow и учен в областта на изкуствения интелект (ИИ) говори за опасностите от пристрастия, липса на разбираеми данни и податливост на враждебни атаки. Д-р Мойсилович разгледа и противоречивата употреба на технологията в момента и най-вече използването на ИИ за създаване на потенциално вредно съдържание: дийп фейк, предизвикателно и подстрекателско съдържание и алгоритми в социалните медии, насочващи потребителите към дезинформация.
Мойсилович подчерта, че производителността няма да е достатъчна като критерий при проектиране на ИИ, а етичните съображения също трябва да са част от набора критерии.
"ИИ системите са много интересни от гледна точка на сигурността, имайки предвид начина, по който биват обучавани - чрез големи масиви от данни, които често са събирани от други хора или взети от интернет. Налице са възможности от т.нар. "отравящи" атаки (целящи изкривяване на крайните резултати чрез манипулиране на входния масиви, използвани за обучение, бел. ред.), сподели Мойсилович, след въпрос от Computerworld България за начините защита по време на процеса по обучение. Това е сфера, в която се води много активно проучване. Ние в IBM разполагаме с цял екип, работещ в тази насока. Поради тази причина създадохме и иструментариума, наречен Adversarial Robustness Toolbox (ART)".
ART е публикуван в GitHub и има за цел да подпомага разработчиците при защитата и оценката на използваните от разработчиците модели за обучение на ИИ. Имайки предвид тези и други рискове IBM Research разработва техники и алгоритми за оценка на основополагащите елементи за изграждане и гарантиране на доверие. Става въпрос за инструменти, които, според компанията, откриват и смекчават пристрастията, показват уязвимостите, обезвреждат атаките и показват ясно процеса на вземане на решения.
От там са уверени, че с напредването на технологиите за изкуствен интелект, хората и системите, базирани на ИИ, все повече работят заедно. Затова според компанията е изключително важно да се доверяваме на резултатите от тези системи, за да можем да взимаме информирани решения.
Експертите от IBM Research идентифицират следните ключови елементи, на които трябва да се базира всяка надеждна система за изкуствен интелект:
- Справедливост (Fairness): ИИ системите трябва да използват безпристрастни данни и модели за самообучение, за да се избегне евентуално несправедливо отношение към определени групи
- Надеждност (Robustness): ИИ системите трябва да са безопасни и сигурни, да не са уязвими за подправяне или компрометиране на данните, на които са обучени
- Обяснимост (Explainability): Системите с изкуствен интелект трябва да предоставят решения или предложения, които могат да бъдат разбрани от техните потребители и разработчици
- Произход и проследимост на данните (Lineage): Системите с изкуствен интелект трябва да включват детайли за тяхната разработка, внедряване и поддръжка, за да могат да бъдат проверявани през целия им жизнен цикъл
По аналогия с реалните структури и при ИИ системите доверието не може да бъде изградено само на базата на един от посочените елементи: ако една ИИ система е справедлива, но не може да устои на атака, тя няма да се ползва с доверие. Ако е сигурна, но никой не може да разбере решенията, които предлага, също няма да й се доверяваме. Ето защо е наложително всички елементи да се укрепват едновременно, като заедно с това наблюдаваме и измерваме ефективността на системата при всеки отделен елемент.
Александра Мойсилович e Head of AI Foundations в IBM Research и Co-Director of IBM Science for Social Good, както и IBM Fellow и IEEE Fellow. Автор е на над 100 публикации и притежава 16 патента. Сред най-новите проекти, за които Д-р Мойсилович е допринесла, е системата за изкуствен интелект на IBM Research, представена през март 2021 г. Системата използва технологии, базирани на ИИ, за да ускори създаването на нови пептиди за борба с резистентността към антибиотични лекарства. Тези усилия могат също да помогнат за откриването и създаването на нови материали за борба с климатичните промени, да създадат по-интелигентно производство и съхранение на енергия и много други. Новата генеративна рамка на ИИ на екипа е приложена и върху три COVID-19 цели, като са генерирани 3000 нови молекули.
На 29-ти април 2021 г. IBM бе домакин на онлайн кръгла маса за медиите на тема "Отговорно използване на изкуствения интелект". Александра Мойсилович, IBM Fellow и учен в областта на изкуствения интелект (ИИ) говори за опасностите от пристрастия, липса на разбираеми данни и податливост на враждебни атаки. Д-р Мойсилович разгледа и противоречивата употреба на технологията в момента и най-вече използването на ИИ за създаване на потенциално вредно съдържание: дийп фейк, предизвикателно и подстрекателско съдържание и алгоритми в социалните медии, насочващи потребителите към дезинформация.
Мойсилович подчерта, че производителността няма да е достатъчна като критерий при проектиране на ИИ, а етичните съображения също трябва да са част от набора критерии.