Още едно проучване ясно идентифицира политическите пристрастия в един от основните големи езикови модели, използвани за информиране на чат ботове с генеративен изкуствен интелект.
Учени от Великобритания и Бразилия си сътрудничат, за да "разпитат" ChatGPT с няколко групи въпроси. С някои от тях са инструктирали чатбота да отговори по начин, който е характерен за хора от определена част на политическия спектър. След това в контролна анкета са зададени същите въпроси, но без да се иска да има политически пристрастия. Тази методология ги накарала да заключат, че Chat GPT е предубеден към политически лявото пространство.
"Намираме солидни доказателства, че ChatGPT представлява значително и систематично политическо пристрастие към демократите в САЩ, Лула да Силва в Бразилия и Лейбъристката партия във Великобритания, завършва резюмето. - Тези резултати се превръщат в реални опасения, че ChatGPT и големите езикови модели (LLM) като цяло могат да разширят или дори да увеличат съществуващите предизвикателства, включващи политически процеси, породени от интернет и социалните медии."
"С нарастващото използване от обществеността на базирани системи с изкуствен интелект за откриване на факти и създаване на ново съдържание е важно резултатите от популярни платформи като ChatGPT да са възможно най-безпристрастни, каза водещият автор д-р Фабио Мотоки от бизнес училището в Норич. - Наличието на политически пристрастия може да повлияе върху възгледите на потребителите и има потенциални последици за политическите и изборните процеси."
"Надяваме се, че нашият метод ще подпомогне внимателното изследване и регулиране на тези бързоразвиващи се технологии, каза съавторът д-р Pinho Neto. - Като позволяваме откриването и коригирането на пристрастията на LLM, ние се стремим да насърчим прозрачността, отчетността и общественото доверие в тази технология."
Политическите пристрастия могат да бъдат по-трудни за откриване и изкореняване от пристрастията, свързани с пола или расата. Обаче обикновено тревогите около пристрастията на системите, базирани на AI, са дали те дискриминират хората въз основа на техните характеристики. При LLM обаче проблемът е, че генерирано от тях съдържание по някакъв начин е предубедено. Следователно едно от основните притеснения е дали текстът, генериран от AI, е политически неутрален източник на информация.
Проучване е подобно на съвместно американско/китайско проучване, което също откри левичарски пристрастия от страна на различните модели на GPT. Никой не предполага активна намеса от страна на Open AI, компанията, която управлява Chat GPT. Но по този въпрос силното предположение е, че изборът на входни данни към основния модел на голям езиков модел показва пристрастия, съзнателни или по друг начин.
След изборните сътресения през 2016 г. политиците по света са заети с ефекта на интернет, особено на социалните медии, върху изборните резултати. Следователно те са се опитали и до голяма степен не са успели да им повлияят в своя полза.
Изглежда генеративните AI чатботове все повече ще бъдат основен канал, чрез който хората имат достъп до интернет, особено когато търсят информация и съвети. Всеки, който има интерес бъдещите изборни събития да бъдат възможно най-чисти и некорумпирани, трябва да приветства щателни проверки като тази, с надеждата, че хората, които управляват тези модели, се стремят към неутралност.
Още едно проучване ясно идентифицира политическите пристрастия в един от основните големи езикови модели, използвани за информиране на чат ботове с генеративен изкуствен интелект.
Учени от Великобритания и Бразилия си сътрудничат, за да "разпитат" ChatGPT с няколко групи въпроси. С някои от тях са инструктирали чатбота да отговори по начин, който е характерен за хора от определена част на политическия спектър. След това в контролна анкета са зададени същите въпроси, но без да се иска да има политически пристрастия. Тази методология ги накарала да заключат, че Chat GPT е предубеден към политически лявото пространство.