петок, 18 октомври 2024

Како понатаму со вештачката интелигенција?

Објавено на

часот

Сподели

Доколку продолжи неконтролираниот развој на вештачката интелигенција, поттикнат од конкуренцијата меѓу компаниите, ако не паузираме за да одредиме насоки за нејзиниот развој и некои регулативи, може да ни се случи таа да не совлада и да не замени како што хомо сапиенсот ги замени неандерталците, предупреди физичарот и истражувач на вештачката интелигенција Макс Тегмарк во неодамна објавеното интервју.

Пуштањето на Чет ГПТ во промет направи да нагрнат и другите модели за учење, генерирање слики, модели за автоматизирање на задачи, за финансии…

Досега веќе се регистрирани повеќе од 500 инциденти. Лани имало 90. Во првите месеци годинава веќе има 45. До крајот на годинава се проценува дека ќе има 180.

Тегмарк, заедно со група научници, во отворено писмо бараат шестмесечен мораториум за понатамошен развој на системи помоќни од ГПТ-4 .
Во писмото, во кое се критикува постоечкиот пристап во стилот – прво го градиме бродот, па потоа ќе го поправиме – предупредува дека важната трка во развојот на вештачката интелигенција ја водат лидерите на компаниите кои не се избрани претставници на народот, односно електоратот, туку лидерите на технолошките компании
. Авторите на писмото поставуваат четири прашања:

Дали треба да дозволиме машините да ги преплават нашите информативни канали со пропаганда и лага?
Дали треба да ги автоматизираме сите работни места, вклучително и оние што ги исполнуваат животите на луѓето со значење?
Дали треба да развиеме нечовечки умови кои на крајот би можеле да нè надминат, надмудрат, застарат и заменат?
Дали треба да ризикуваме да ја изгубиме контролата над нашата цивилизација?
Писмото досега е потпишано од повеќе од 27.500 луѓе, вклучувајќи го и историчарот и автор на неколку бестселери како што се Сапиенс Јувал Ноа Харари, ко-основачот на
Епл, Стив Возниак, ко-основачот на Скајп, Џан Талин и бројни истражувачи на вештачка интелигенција како Стјуарт Расел, Јошуа Бенџо, Гери Маркус и Емад Мостак.

На списокот на несреќи предизвикани од вештачката интелигенција се и случаите кога робот во фабрика на Фолксваген уби работник прицврстувајќи го на метална плоча, во 2019 година возач на Тесла Модел С на режим на автопилот, наводно, поминал на црвено светло и удрил во друг автомобил, при што загинале две лица во местото Гардена во Лос Анџелес, фаталниот лет на Лајон Ер од 2018 година, во кој загинаа сите 189 луѓе во авионот. Боингот 737 се урна во морето откако неисправните податоци од сензорот предизвикаа автоматизираниот систем за маневрирање постојано да го турка носот на авионот надолу.

Да се потсетиме и на приказната за еден таков систем во времето на СССР чија цел била да предупреди ако американски нуклеарни проектили се движат низ небото над Русија.

Во 1983 година покловникот Станислав Петров добил информација за пет вакви сигнали. Брзо увидел дека алармот е лажна тревога. Што ќе се случело ако Петров го кренал алармот? Веројатно Русија итно би лансирала одмазднички нуклеарни проектили кон САД и би почнала нуклеарната престрелка и веројатно армагедон за човештвото.

А што била грешката за тревогата? Системот превидел светлина од облаците и ја помешал со блесокот од проектил.

Зборувајќи за својата книга „Живот 3.0“, Тегмарк објасни дека Живот 1.0 вклучува форми како бактерии кои не можат да научат многу во текот на нивниот живот. Живот 2.0 е сличен на нашиот и животот на животните со мозок кои можат многу да научат. Живот 3.0, кој сè уште не е создаден, подразбира живот кој не само што ќе може да го промени својот софтвер, кој ние може да го менуваме, туку и хардверот.

„Тоа е она кон што брзо се движиме. Компаниите кои се обидуваат да направат вештачка општа интелигенција развиваат живот 3.0. Ќе можете да ја ставите таа интелигенција во нешто што воопшто нема биолошка основа“, вели Тегмарк, мислејќи на роботите.

ТОП ВЕСТИ

ПОСЛЕДНИ ВЕСТИ