сабота, 27 јули 2024

Вештачката интелигенција може да доведе до крај на човештвото, предупредуваат експертите

Објавено на

часот

Сподели

Десетици ја поддржаа изјавата објавена на веб-страницата на Центарот за безбедност на вештачката интелигенција.

„Ублажувањето на ризиците од изумирањето предизвикано од вештачката интелигенција треба да биде глобален приоритет заедно со другите ризици на општествено ниво, како што се пандемии и нуклеарни војни“, се вели во соопштението. Но, други велат дека овој страв е претеран, пишува Би-би-си.

Сем Алтман, извршен директор на ОпенАИ, производителот на Чет ГПТ, Демис Хасабис, извршен директор на Гугл дипмајнд и Дарио Амодеи од Антропик, сите ја поддржаа изјавата. Доктор Џефри Хинтон, кој издаде претходно предупредување за ризиците од суперинтелигентната вештачка интелигенција, и Јошуа Бенџио, професор по компјутерски науки на Универзитетот во Монтреал исто така ја поддржаа изјавата.

Хинтон, Бенџио и професорот Јан Лекан од Универзитетот во Њујорк често се опишуваат како кумови на вештачката интелигенција поради нивната револуционерна работа во областа, за која заедно ја освоија наградата Туринг 2018, која го признава исклучителниот придонес во компјутерската наука.

Но, професорот Лекан, кој исто така работи во Мета, рече дека овие апокалиптични предупредувања се претерани. Многу други експерти на сличен начин веруваат дека стравувањата дека вештачката интелигенција ќе го избрише човештвото се нереални и го одвлекуваат вниманието од прашања како што се пристрасност во системите што веќе претставува проблем.

Арвинд Нарајанан, компјутерски научник од Универзитетот Принстон, претходно за Би-би-си изјави дека сценаријата за катастрофа слични на научно-фантастичните се нереални. „Сегашната вештачка интелигенција ни одблиску не е доволно способна да се материјализираат овие ризици. Тоа го одвлекува вниманието од краткорочната штета на вештачката интелигенција“, смета Нарајанан.

Медиумското покривање на наводната егзистенцијална закана од вештачката интелигенција започна во март оваа година, кога експерти, меѓу кои и шефот на Тесла, Илон Маск, потпишаа отворено писмо во кое повикуваат на запирање на развојот на следната генерација на технологијата на вештачка интелигенција.

Во тоа писмо се постави прашањето „дали треба да развиеме нечовечки умови кои на крајот би можеле да нè надминат, да нè надмудрат, да нѐ застарат и да нè заменат“. Спротивно на тоа, новата кампања има многу кратка изјава, дизајнирана да ја отвори дебатата.

Изјавата го споредува ризикот со оној од нуклеарна војна. Во блог пост на ОпенАИ неодамна е сугерирано дека суперинтелигенцијата може да се регулира на сличен начин како нуклеарната енергија. „Веројатно ќе ни биде потребно нешто како ИАЕА (Меѓународната агенција за атомска енергија) за суперинтелигенцијата“, се вели во соопштението.

И Сем Алтман и извршниот директор на Гугл Сундар Пичаи се меѓу технолошките лидери кои неодамна разговараа за регулирање на вештачката интелигенција со британскиот премиер Риши Сунак. Зборувајќи пред новинарите за последното предупредување за ризикот од вештачка интелигенција, Сунак ги нагласи придобивките од вештачката интелигенција за економијата и општеството.

„Неодамна видовте како им помага на парализирани луѓе да одат и како открива нови антибиотици, но мораме да сме сигурни тоа да се прави на безбеден начин. Затоа се сретнав со извршните директори на големите компании за вештачка интелигенција минатата недела за да разговараме за тоа каков тип на регулативата треба да се воведе. Луѓето ќе бидат загрижени поради извештаите дека вештачката интелигенција носи егзистенцијални ризици, како што се пандемија или нуклеарни војни. Сакам да ги уверам дека ова го следиме многу внимателно“, рече Сунак.

ТОП ВЕСТИ

ПОСЛЕДНИ ВЕСТИ