Може ли човечеството да контролира "свръхинтелигентен" AI?

Според Max Planck Society хората нямат технологичните възможности да управляват системи, подобни на Skynet в "Терминатор"

Иван Гайдаров

Учени от престижната европейска организация Max Planck Society обявиха, че с настоящото си технологично развитие хората нямат шанс да контролират "свръхинтелигентен" изкуствен интелект (AI), който е развит дотолкова, че да има възможностите да спаси или унищожи човечеството.

Докладът на изследователския институт, публикуван миналата седмица в Journal of Artificial Intelligence Research, се фокусира върху способността за реакция на човечеството срещу хипотетичен AI от нивото на Skynet във фантастичната поредица "Терминатор", който решава да сложи край на човешкото съществуване.

Max Planck Society for the Advancement of Science е независима неправителствена асоциация с нестопанска цел, обединяваща различни германски изследователски структури. Основана през 1911 г. като Kaiser Wilhelm Society, организацията е преименувана през 1948 г. в чест на своя бивш президент, теоретичният физик Макс Планк. Обществото се финансира от федералното правителство.

Max Planck Society for the Advancement of Science има 86 института, персонал приблизително 17 000 постоянни служители, включително 5470 учени плюс около 4600 нещатни учени. Бюджетът на организацията за 2018 г. е около 1,8 милиарда евро.

Реална заплаха

Попитани ако един "суперинтелигентен" изкуствен интелект реши, че най-ефективният начин да се сложи край на човешкото страдание е просто да премахне човечеството, какво бихме могли да направим, за да го спрем, от Max Planck Society са категорични - с днешните технологии ще можем само да стоим и да гледаме как ще бъдем заличени. Затова и изследователите предлагат да се разработи "алгоритъм за ограничаване", който симулира опасното поведение на един "суперинтелигентен" AI и го ограничава по отношение на вредна за човека дейност.

А опасността е зад ъгъла, предупреждават изследователите от Max Planck Society. "Суперинтелигентна машина, която контролира света, звучи като научна фантастика", коментира съавторът на изследването Мануел Себриан, ръководител на групата за цифрова мобилизация в Центъра за хора и машини на Max Planck Society for the Advancement of Science. "Но вече има машини, които изпълняват определени важни задачи независимо, без програмистите да разбират напълно как се случва това. Следователно възниква въпроса дали този процес може в един момент да стане неконтролируем и опасен за човечеството."

Нищо ново

Темата за възможността човечеството да създаде AI, който не може да контролира, далеч не започва с началото на научнофантастичната поредица "Терминатор". Още през 1942 г. в своя разказ "Хоро" (Runaround) един от основоположниците на научната фантастика - Айзък Азимов, формулира три закона на роботиката:

1. Роботът не може да навреди на човешко същество или чрез бездействие да причини вреда на човешко същество.

2. Роботът трябва да се подчинява на заповедите, получени от човешки същества, освен когато тези заповеди влизат в противоречие с Първия закон.

3. Роботът трябва да защитава съществуването си, освен когато това влиза в противоречие с Първия и с Втория закон.

По-късно фантастът добавя Закон 0 - Един робот не трябва да причинява вреда на човечеството или чрез бездействието си да допусне на човечеството да бъде причинена вреда. Към останалите закони се добавя условието: "ако това не противоречи на Нулевия закон."

През 2009 г. обаче Чиен Хсун Чен от Националния университет "Чао Тунг" в Тайван в съавторство с други учени в статия в International Journal of Social Robotics застъпва тезата, че законите на Айзък Азимов вече не само са остарели, но са твърде наивни, за да служат за основа на стремително развиващата се роботика. Нещо повече - групата учени твърдят, че законите на Азимов никога не биха могли да служат като база за създаването на етични норми, които да решат въпросите на сигурността, свързани с изкуствения интелект.

Общество, в което хора и роботи ще трябва да съществуват съвместно, вероятно ще се появи около 2030 г., твърди Чен и още тогава повдига въпроса, че това налага въвеждането на един нов тип "робо-етика", което пък води до бурна дискусия в световните научни среди.

Учени от престижната европейска организация Max Planck Society обявиха, че с настоящото си технологично развитие хората нямат шанс да контролират "свръхинтелигентен" изкуствен интелект (AI), който е развит дотолкова, че да има възможностите да спаси или унищожи човечеството.

Докладът на изследователския институт, публикуван миналата седмица в Journal of Artificial Intelligence Research, се фокусира върху способността за реакция на човечеството срещу хипотетичен AI от нивото на Skynet във фантастичната поредица "Терминатор", който решава да сложи край на човешкото съществуване.

Най-новото


Мозъчният имплант на Neuralink ще бъде тестван върху хора

Мозъчният имплант на Neuralink ще бъде тестван върху хора

  • 0




Intel ще произвежда "стъклени" процесори с гигантски размери

Intel ще произвежда "стъклени" процесори с гигантски размери

  • 0


Кои са новите функционалности на чатбота Bard

Кои са новите функционалности на чатбота Bard

  • 0

Вече може да кандидатствате за ГИС награди

Вече може да кандидатствате за ГИС награди

  • 0

Още от Digitalk ›
С използването на сайта вие приемате, че използваме „бисквитки" за подобряване на преживяването, персонализиране на съдържанието и рекламите, и анализиране на трафика. Вижте нашата политика за бисквитките и декларацията за поверителност. ОК