Изглежда, че месец не минава, без някой високопоставен човек да коментира потенциала машини с изкуствен интелект да завладеят света. Елон Мъск продължава да казва, че AI системите са "потенциално по-опасни от ядрените". Но той не е единственият, Стивън Хокинг също е обезпокоен, "Развитието на пълния изкуствен интелект може да изведе края на човешката раса." Това каза пред Би Би Си професор Хокинг. „Тя ще излезе сама по себе си и ще се преустрои с все по-бързи темпове.“ Дори Бил Гейтс се притеснява: „В лагера съм загрижен за супер интелигентността. Съгласен съм с Елон Мъск и някои други по този въпрос и не разбирам защо някои хора не са загрижени. “
Всички те изразяват опасения относно възможността мощни ИИ системи да имат непредвидени или дори потенциално катастрофални последици. Още през януари Елон Мъск дари 10 милиона долара на Института за бъдеще на живота (FLI), за да стартира глобална изследователска програма, насочена към поддържане на AI от полза за човечеството.
Днес Институтът за бъдеще на живота обяви, че е отпуснал средства в размер на 7 милиона долара на 37 изследователски екипа по целия свят, за да може обществото да извлече ползите от ИИ, като същевременно избягва апокалипсиса и края на живота на земята.
Опасността от сценария на Terminator не е, че това ще се случи, а това, че отвлича вниманието от реалните проблеми, възникнали от бъдещия ИИ.
Джаан Талин, един от основателите на FLI и човекът, написал оригиналната версия на Skype, каза за новите изследвания: „Изграждането на напреднал ИИ е като изстрелване на ракета. Първото предизвикателство е да увеличите максимално ускорението, но след като започне да набира скорост, вие също трябва да се съсредоточите върху управлението. "
Сред 37-те проекта са три проекта, които ще разгледат техниките, които да дадат възможност на AI системите да научат какво предпочитат хората от наблюдението на нашето поведение. Един от тези проекти ще се изпълнява в UC Berkeley, а един ще бъде в Оксфордския университет.
Бенджа Фаланщайн, от Института за машинно разузнаване, получава 250 000 долара за изследователски начини да поддържа интересите на свръх интелигентните системи в съответствие с човешките ценности. Докато екипът на Мануела Велосо от университета в Карнеги-Мелън ще получи 200 000 долара, за да разгледа как да накара AI системите да обяснят своите решения на хората.
Други проекти включват проучване на Майкъл Уеб от Станфордския университет за това как да се запазят икономическите въздействия от ИИ ползотворно, проект за това как да се поддържа управляваното от AI оръжие под „смислен човешки контрол“ и нов изследователски център за изучаване на AI в Оксфорд-Кеймбридж. -релевантна политика.
Говорейки за Холивуд, FLI се опитва да се разграничи с апокалипсиса. FLI държи да подчертае важността на отделянето на факта от фикцията. "Опасността от сценария на Terminator не е, че това ще се случи, а това, че отвлича вниманието от реалните проблеми, възникнали от бъдещия AI", заяви президентът на FLI Макс Тегмарк. „Оставаме съсредоточени и 37-те екипа, подкрепени от днешните безвъзмездни средства, трябва да помогнат за решаването на такива реални проблеми.“
Какво мислиш? Парите добре похарчени?