Хинтон, кој ја доби Нобеловата награда за неговата пионерска работа во истражувањето на вештачките невронски мрежи, а чиј концепт од 1986 година е основа на денешните големи јазични модели (ЛЛМ) – основата на вештачката интелигенција, проценува дека постои ризик од 10 до 20 проценти вештачката интелигенција на крајот да ја преземе контролата од луѓето, објавува Си-би-ес њуз.
“Godfather of AI” Geoffrey Hinton warns AI could take control from humans: “People haven’t understood what’s coming” https://t.co/xxx1mVdkM1
— CBS News Texas (@CBSNewsTexas) April 26, 2025
Тој предупреди дека луѓето сè уште не сфатиле што доаѓа.
„Најдобар начин да го разбереме ова е да се споредиме со некој кој има преслатко младенче тигар. Освен ако не сте апсолутно сигурни дека ќе сака да ве убие кога ќе порасне, треба да бидете загрижени“, рече тој.
Според Хинтон, компаниите за вештачка интелигенција треба да одвојат значително повеќе средства за безбедносните истражувања отколку што трошат во моментов. Во мај 2023 година, Хинтон објави дека се повлекува од Гугл за да може „слободно да зборува за ризиците од вештачката интелигенција“.
„Машинското учење ќе има големо влијание врз нашата цивилизација. Може да се спореди со индустриската револуција. Само, наместо да ги надмине луѓето по сила, тоа ќе ги надмине луѓето по интелектуални способности. Немаме никакво искуство за тоа како е работите да се попаметни од нас, и тоа ќе биде прекрасно на многу начини, во области како здравството, во речиси сите области на индустријата, ќе биде многу поефикасно. Луѓето ќе можат да го завршат истото ниво на работа со асистент за вештачка интелигенција за многу помалку време. Тоа исто така ќе доведе до значително подобрување на продуктивноста. Мора да се грижиме за можните лоши последици, особено за опасноста овие работи да излезат од контрола“, изјави Хинтон.