Geralt, Pixabay

Лидери призовават да намалим "риска от изчезване заради AI"

Специалисти от областта на изкуствения интелект предупреждават за опасност, съпоставима с пандемии и ядрена война

Деница Дженева

© Geralt, Pixabay


В сферата на изкуствения интелект на две паралелни писти се състезават тези, които активно работят върху технологията, и тези, които неуморно предупреждават за опасността от бързото й развитие. Сега към втората група се присъединява организация, наречена Център за безопасност на ИИ (CAIS), която казва, че "съществува, за да предостави на политиците, бизнес лидерите и света като цяло разбирането и инструментите, необходими за управление на риска от ИИ". В нея влизат хора, които до момента са участвали активно в надпреварата във въоръжаването с изкуствен интелект.

Наскоро организацията публикува "Изявление относно риска от изкуствен интелект", в което "експерти от изкуствен интелект и обществени фигури изразяват своята загриженост относно риска от изкуствен интелект". В него се казва, че "намаляването на риска от изчезване от ИИ трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемии и ядрена война".

"Ние в Telecoms.com сме против неща, които могат да унищожат човечеството, и не се страхуваме да го кажем публично. Трудно е обаче да се разбере какъв е смисълът на това изявление. Какво означава "намаляване на риска от изчезване" - че трябва да се опитаме да го направим малко по-малко вероятно? Със сигурност няма извод, че един от начините да направите това е да спрете надпреварата във въоръжаването с AI", пише сайтът Telecoms.com.

Изявлението са подписали главните изпълнителни директори на двата основни двигателя на настоящото развитие на изкуствения интелект - Open AI и Google DeepMind. Това обаче все още не дава достатъчно ясна идея какво наистина мотивира CAIS. Затова журналистите от Telecoms.com си задават въпроса: "Възможно ли е CAIS да получава значителна част от частните вноски, с които се финансира, от самата AI индустрия, която може да има интерес от създаването на преувеличено чувство за надзор?"

Може би примерът, даден от телекомуникационната индустрия, предлага най-добрия път напред. Голяма част от технологията му се ръководи от глобални стандарти, разработени по съвместен и прозрачен начин. Въпреки това, докато САЩ и Китай упорстват със своята технологична студена война, шансът за глобален консенсус относно AI изглежда далеч, особено след като той непременно ще има нарастващо военно значение. Все пак трябва да започнем от някъде и ако това изявление съживи обществения дебат за AI, тогава то ще е послужило за някаква малка цел, заключават от Telecoms.com.

В сферата на изкуствения интелект на две паралелни писти се състезават тези, които активно работят върху технологията, и тези, които неуморно предупреждават за опасността от бързото й развитие. Сега към втората група се присъединява организация, наречена Център за безопасност на ИИ (CAIS), която казва, че "съществува, за да предостави на политиците, бизнес лидерите и света като цяло разбирането и инструментите, необходими за управление на риска от ИИ". В нея влизат хора, които до момента са участвали активно в надпреварата във въоръжаването с изкуствен интелект.

Наскоро организацията публикува "Изявление относно риска от изкуствен интелект", в което "експерти от изкуствен интелект и обществени фигури изразяват своята загриженост относно риска от изкуствен интелект". В него се казва, че "намаляването на риска от изчезване от ИИ трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемии и ядрена война".

Най-новото








Дали 2023 ще бъде годината на стартъпите в инфраструктурата

Дали 2023 ще бъде годината на стартъпите в инфраструктурата

  • 0


Още от Digitalk ›
С използването на сайта вие приемате, че използваме „бисквитки" за подобряване на преживяването, персонализиране на съдържанието и рекламите, и анализиране на трафика. Вижте нашата политика за бисквитките и декларацията за поверителност. ОК