среда, 11 декември 2024
Соња Стојадиновиќ

Објавено на

часот

Сподели

КОЛУМНА

Кој ќе победи на избори? Прашај го ЧетГПТ

Иако е тренирана да размислува како човек, човечкиот хуманоиден импулс и импулсивната реакција во ризични ситуации, ВИ не може да ги имитира, ниту да ги предвиди. Се’ додека ВИ се креира за да му помага на човештвото и нејзината регулација е на високо ниво, мали се шансите таа да се оттргне од контрола.

Ја имаме таа среќа да живееме во ерата на развојот и ширењето на вештачката интелигенција (ВИ). Со сите предности кои таа ги носи, не можеме да ги игнорираме и предупредувањата кои претходно ги гледавме само во филмовите, а сега веќе и отворено се слушаат, дека колку е корисна, ВИ толку може да биде и проблематична.

Појавувањето на ЧатГПТ (ChatGPT) во 2022 година, силно покажа до каде е стигнат развојот на вештачката интелигенција и кои се предностите, но и злоупотребите кои можат да настанат.

Иако самиот бот веднаш и прецизно одговараше на дадените прашања, без разлика колку беа глупави или неправилно напишани, сепак, покажа дека има големи недостатоци како мешање на веќе креираната меморија со бараниот одговор и имплементираната самоцензура што се однесува на прашања за експлицитна содржина, насилство и незаконски активности.

Сепак, овој производ на ИТ индустријата покажа дека човештвото има потреба од помош во речиси сите сфери на работата. Една од сферите која силно влијае на секој сегмент од општеството е политиката и употребата на вештачката интелигенција во политичките одлуки, во политичките истражувања, дури и во креирањето на јавни политики, е поле кое активно се разработува, но и поле кое може да придонесе кон донесување на пoгрешни одлуки кои ќе влијаат врз животите на луѓето.

Една од неколку сфери од политиката каде се користи вештачката интелигенција се истражувањата на јавното мислење (анкетите) пред избори. Машините веќе од 2018. одговараат на прашањата на анкетарите задолжени за собирање на податоци за мислењата на граѓаните пред избори и за понудените кандидати. Падот на учеството на граѓаните во ваков вид на анкети го замени масовната употреба на вештачката интелигенција нахранета со милијарди податоци, разработени сценарија на одговор и програмирана имитација на гласач врз основа на пол, раса, образование, локација, професија и така натаму.

Големите модели на учење (Large language models LLM) овозможуваат хранење на ботовите со податоци собрани од интернет, заедно со сите бази на податоци до кои креаторите имале пристап и креирање на разни сценарија на одговор. Ова е се’ со цел  – машината да се приближи поблиску до реалниот човечки одговор и имитацијата да стане пореална, дури и непрепознатлива: дали е машина или човек. Софистицираните алгоритми можат да го предвидат однесувањето на гласачите со висока прецизност, да креираат кампањи, да таргетираат групи на гласачи, дури и да го предвидат резултатот на изборите. Исто така, вештачката интелигенција служи и како монитор на сајтовите во време на предизборни кампањи, со цел да се спречат измами и кршење на законите.

Од друга страна, колку овие модели се поблиску до човекот во имитација, голема е опасноста од субјективност во одговорите затоа што датотеките кои ботовите ги содржат и користат се создадени од луѓе.

Јавни политики и политички одлуки

Вештачката интелигенција веќе се користи во парламентите во Естонија (за стенографија), Италија (превод на документи), Бразил (транскрипција на аудио и видео фајлови), Финска (сумирање на документи и поткасти). ВИ се користи за транскрипција на говорите, превод, сумирање на документи, поддршка за подготовка на легислатива и комуникација со граѓаните. Во обемната работа на парламентите, ВИ е повеќе од добредојдена, но експертите предупредуваат на опасностите поради подложноста на овој систем на грешки.

Вестминстер фондацијата за демократија издаде упатство за употреба на ВИ во парламентите, со насоки и препораки каде најмногу да се внимава во имплементацијата и користењето на оваа алатка.

Насоките и препораките предупредуваат дека треба да се обезбеди транспарентност во носење на одлуките кога се користи ВИ, да се обезбеди патека по која се следат овие операции, и одлуките да бидат поткрепени со оправданост зошто се токму тие одлуки донесени. Потребно е да се обезбеди автономија во донесувањето одлуки во кои се користи ВИ за да се исклучи можноста овој систем да биде манипулиран за одредени интереси. Исто така, потребна е и етика во самата работа на ВИ за да се исклучи субјективносt.

Од друга страна, потребна е контрола врз работата на ВИ за да нема прекршување на човековите права во донесувањето на одлуките, како и создавање на доверба на јавноста во парламентите кои користат ВИ во својата работа. За дополнително да се зајакне користењето на ВИ во парламентот, потребна е имплементација на легислатива за контрола на употребата на оваа алатка.

Сепак, за подобро да се разбере степенот на развиеност на ВИ и нејзината употреба во парламентите и носењето на одлуки на државно ниво, треба да се знае дека се’ повеќе се користи таканаречената генерална вештачка интелигенција (AGI Artificial general intelligence). Тоа е вид на вештачка интелигенција која разбира, учи и го применува знаењето на начин кој е сличен на човековата интелигенција. Поседува широк спектар на когнитивни способности кои дозволуваат да извршува различни задачи и да се прилагодува на различни ситуации без да биде посебно програмирана за дадените ситуации.

Оваа интелигенција инклинира кон имитирање на флексибилноста на човековиот ум, ги има способностите за решавање на проблеми и потенцијално води кон создавање на машини кои можат да решаваат различни проблеми исто како луѓето.

Употребата на ВИ во носењето политички одлуки има свои предности и опасности. Машината може ефикасно да процесуира големо количество на податоци за кратко време, може да препознае движења и шеми на однесување во општеството кои не се видливи за човечките аналитичари и со тоа да произведе информација која е корисна за креирањето на политиките и може да ја подобри комуникацијата помеѓу политичарите и граѓаните со персонализирани информации и препораки.

Опасностите се: системите на ВИ ако се тренирани врз лични подаотци, можат да водат кон субјективни и дискриминирачки одлуки, можат да бидат хакирани, манипулирани и можат да бидат некомпетентни ако до нив имаат пристап само одредени групи, наместо сите граѓани.

Дополнително, ВИ може ефикасно да се користи во политиката за предвидување на резултати од јавни политики, генерирајќи сценарија како една јавна политика или политичка одлука може да влијае на општествено, дури и на глобално ниво. Употребата на ВИ во методологиите на предвидување (foresight methodologies) не само што квалитетно ќе придонесе во носењето на политики во интерес на граѓаните, туку веќе се користи во разни други области на истражувања.

Регулација на ВИ

На ниво на Европската Унија, употребата на ВИ е регулирана со актот за ВИ усвоен од ЕУ Парламентот, во март 2024 година, а подоцна и од Европскиот совет, во мај 2024 година. Целосно влегување во сила на овој акт се очекува за две години. Стандардите за ВИ кои овој акт ги наметнува се: ВИ да е транспаретна, безбедна, нејзината работа да е подложна на целосна контрола, недискриминаторска и фокусот на работата на овој систем да е за добро на човештвото.

Останатите услови кои овој документ ги наметнува се ВИ да нема програми за манипулација на когнитивното однесување, посебно кај чувствителните групи како децата, да не ги класифицира луѓето по категории базирани на однесувањето, социо-економскиот статус или личните карактеристики, да не користи биометриска идентификација на луѓето и со тоа да ги става во разни категории, да не користи биометриска идентификација на луѓето во реално време како препознавање на лица…

Последниот услов за идентификација на луѓето во реално време е подложен на исклучоци, ако во прашање е безбедносен ризик. ВИ системите кои се класифицирани како системи од висок ризик, а се употребуваат во менаџирање на критични инфраструктури, образование и професионална едукација, вработување, менаџирање на вработените и пристап до самовработување, примена на закони, миграција, азил, контрола на границите, интерпретација на закони, мора да бидат регистрирани во ЕУ.

Стандардите за транспарентност на ВИ содржат барања за откривање на содржината која е генерирана од ВИ, дизајнирање на модел кој ќе превенира создавање на незаконска содржина и објавување на податоците кои се употребени за тренирање на ВИ.

Иднината не може да се замисли без вештачката интелигенција бидејќи веќе ја креираме иднината користејќи ја оваа алатка. Стравот од губење на контрола врз ВИ е реален, но не е ситуација која со сигурност ќе се случи во иднината.

Не смее да се заборави дека ВИ е креација на човекот, човекот ја „храни“ со податоци, ја тренира, програмира и контролира. Иако е тренирана да размислува како човек, човечкиот хуманоиден импулс и импулсивната реакција во ризични ситуации, ВИ не може да ги имитира, ниту да ги предвиди. Се’ додека ВИ се креира за да му помага на човештвото и нејзината регулација е на високо ниво, мали се шансите таа да се оттргне од контрола и во скоро време да се оствари сценариото од филмовите „Терминатор“.

Глобално распространетата и усогласена регулатива за креација и контрола на ВИ ќе создаде посигурна иднина и употреба на ВИ исклучиво во корист на човештвото.

Соња Стојадиновиќ

(Преземено од Республика)

КОЛУМНИ

Кристина Пота Радуловиќ

Што е она што можам да го направам сега?

Љубомир Николовски

Коби Брајант: стремеж кон совршенство

Светлана Јовановска

Иновации или играње со европските закони

Ристо Цицонков

Околу новата стратегија за енергетски развој на Македонија

Славој Жижек

Дали Украина треба да има нуклеарно оружје?

Александар Стојановски

Регистар за двојни стандарди

ПОСЛЕДНИ ВЕСТИ