Подобно на прекалено самоуверените хора, изкуственият интелект (AI) често не разбира кога прави грешка. Понякога е по-трудно за машината да "осъзнае" грешка, отколкото да даде правилния резултат.
Учени от Университета в Кеймбридж, Великобритания, и Университета в Осло, Норвегия, са уверени, че тази слабост на AI е и неговата "ахилесова пета". Според тях ограниченията на тези системи са подобни на добре познатия математически парадокс: в своята работа изследователите показват, че съществуват проблеми, които могат да бъдат решени с помощта на стабилни и точни невронни мрежи, но няма алгоритъм, който да позволи получаване на мрежа с такива характеристики. Алгоритми, които позволяват формирането на стабилни и точни невронни мрежи, съществуват само за определени случаи. Изследователите предлагат теория за класификация, която описва условията, при които невронните мрежи могат да бъдат обучавани по такъв начин, че да се получават стабилни AI системи.
Парадоксът, формулиран от авторите, се крие в работата на големите математици от XXвек Алън Тюринг и Курт Гьодел. В началото на миналия век учените са се опитвали да докажат, че математиката може да реши всеки научен проблем. Въпреки това Тюринг и Гьодел са демонстрирали невъзможността да се докаже истинността или неверността на някои математически твърдения, както и невъзможността за решаване на някои изчислителни проблеми с помощта на алгоритми. Десетилетия по-късно математикът Стив Смейл съставя списък от 18 нерешени математически задачи на XXI век - последният от които се отнася до определянето на границите на интелектуалните възможности на хората и машините.
Авторите на описаното изследване перефразират парадокса на Тюринг за света на AI: за някои проблеми няма алгоритми за изкуствен интелект, които биха позволили да бъдат решени. Тоест има задачи, за които могат да се използват висококачествени невронни мрежи, но е невъзможно да се изгради абсолютно надеждна невронна мрежа от този вид, без значение колко точни са данните за обучението и без значение колко от тях са достъпни.
В същото време изследователите подчертават, че не всички AI системи са по своята същност несъвършени: някои могат надеждно да решават дадени проблеми, използвайки определени методи. Затова в ситуации, когато са необходими гаранции, възниква проблем, коренящ се в това, че много системи с изкуствен интелект представляват "черни кутии". Въпреки че т.нар. дълбокото обучение се използва за диагностициране на болести и предотвратяване на злополуки, в роботизирани превозни средства много такива системи се оказват ненадеждни и лесни за заблуждаване.
Изкуственият интелект може да прави грешки, но е необходимо системата да "осъзнава" това, че е неточна. Въпреки това в много случаи не е възможно да се знае степента на доверие на системата в нейното решение. В момента работата върху системите с изкуствен интелект се извършва чрез метода на пробата и грешката: ако нещо не работи, се увеличава количеството данни, в случай на нов неуспех се опитва друг метод и т.н. Според учените на този етап практическите успехи от използването на AI са много по-напред от развитието на теорията и разбирането за принципите на неговата работи.
Като следваща стъпка авторите на изследването планират да използват теорията на приближението, числени методи и теорията на алгоритмите за създаване на теоретичен апарат, който да позволи определяне на това какви невронни мрежи могат да бъдат формирани с помощта на различни алгоритми и кои от тях ще бъдат стабилни и надеждни.
Подобно на прекалено самоуверените хора, изкуственият интелект (AI) често не разбира кога прави грешка. Понякога е по-трудно за машината да "осъзнае" грешка, отколкото да даде правилния резултат.
Учени от Университета в Кеймбридж, Великобритания, и Университета в Осло, Норвегия, са уверени, че тази слабост на AI е и неговата "ахилесова пета". Според тях ограниченията на тези системи са подобни на добре познатия математически парадокс: в своята работа изследователите показват, че съществуват проблеми, които могат да бъдат решени с помощта на стабилни и точни невронни мрежи, но няма алгоритъм, който да позволи получаване на мрежа с такива характеристики. Алгоритми, които позволяват формирането на стабилни и точни невронни мрежи, съществуват само за определени случаи. Изследователите предлагат теория за класификация, която описва условията, при които невронните мрежи могат да бъдат обучавани по такъв начин, че да се получават стабилни AI системи.