Совсем недавно при Кембриджском университете был сформирован новый Центр изучения существующих угроз (Centre for the Study of Existential Risk, CSER). Ученые, философы и инженеры, составляющие команду этого центра, будут заниматься изучением ключевых событий в технологическом развитии человечества, оценивая угрозы человечеству, которые могут привести к его деградации и полному исчезновению. В настоящий момент ключевым направлением этих исследований будет исследование возможности создания так называемого Базового Искусственного Интеллекта (БИИ, artificial general intelligence), технологии, имеющей немалую потенциальную возможность оставить человечество навсегда "не у дел".
Единицей Базового Искусственного Интеллекта считается машина или вычислительная система, интеллектуальные возможности которой превышают интеллектуальные возможности человека. Такая машина уже будет в состоянии самостоятельно разрабатывать собственные программы и развивать технологии. Понятие БИИ было введено в обиход в 1965 году талантливым математиком, криптоаналитиком и специалистом в области информационных технологий Ирвингом Джоном "Джеком" Гудом (Irving John "Jack" Good). Начиная с того момента, понятие БИИ фигурирует во множестве научно-фантастических произведений, в которых звучит одна ужасающая идея, суть которой заключается в том, что "когда развитие интеллекта не будет сдерживаться биологическими и физиологическими ограничениями, человечество перестанет быть самым интеллектуальным видом на Земле и перестанет быть доминирующей силой, которая определяет будущее".
Джаан Таллинн (Jaan Tallinn), один из основателей известной коммуникационной компании Skype, в свое время высказался по данному поводу: "Благодаря пониманию, манипуляции и использованию технологий, после 4 миллиардов лет истории развития природы, человечество стало доминирующей силой, определяющей будущее планеты и цивилизации. Но нам надо внимательно присмотреться к тому, как мы воздействуем сейчас на планету, для того, чтобы узнать, что произойдет, если мы перестанем быть доминирующим видом".
Поясняя слегка запутанное вышеприведенное высказывание, скажу, что потенциальная угроза со стороны БИИ заключается даже не во враждебности будущих интеллектуальных машин и систем, этот искусственный интеллект может быть настроен к человечеству весьма лояльно. Но, угроза исчезновения человечества как вида таится в воздействии доминирующей силы на окружающую среду, которая пытается приспособить ее под свои требования. В качестве примера можно привести уменьшающуюся на Земле популяцию горилл. Нельзя сказать, что человечество относится к ним исключительно враждебно, но влияние человечества на окружающий мир ставит под угрозу возможность выживания этого ставшего редким вида обезьян. В силу высоких интеллектуальных способностей БИИ у него имеется потенциал для создания подобной парадигмы между собой и человечеством как видом.
Конечно, до создания суперинтеллектуальной машины или вычислительной системы человечеству придется пройти достаточно долгий и тернистый путь. Но исследования в области разработки искусственного интеллекта, которые ведутся множество научных организаций, дают некоторые практические результаты. Ярким примером тому является работа, проведенная в прошлом году исследователями из Массачусетского технологического института. Во время этих исследований ученые заставили два компьютера, "вооруженные" специализированным программным обеспечением, выполнить две незнакомые задачи, руководствуясь только описанием этих задач и примитивными инструкциями по их выполнению. Вооруженный только вариантами возможных действий и не "знающий" языка программирования, один из компьютеров справился с задачей разработки исходного кода программного обеспечения, которое справлялось с выполнением 80 процентов функций, описанных в поставленном задании. Второй компьютер научился играть в стратегическую игру "Sid Meier's Civilization II" и становился победителем в 79 процентах игр, в которых он принимал участие.
И это только один из многочисленных примеров разработки систем искусственного интеллекта, которые ведутся ведущими научными учреждениями, такими как Массачусетский технологический институт, Стэндфордский университет и др. При этом, все происходит в мире, где пока соблюдается закон Гордона Мура и вычислительные мощности удваиваются каждые два года.
Даже с тем, что понятие БИИ является пока только научной фантастикой, к нему следует относиться полностью серьезно. "Мы сами еще плохо понимаем, чем будет являться полноценный искусственный интеллект и чем чревато для человечества его появление. И даже не этот риск является сейчас главным, главным является то, что до самого последнего момента над этим никто серьезно не задумывался и не проводил исследований в этом направлении" - говорят представители команды CSER.
Исследователи CSER будут сосредотачиваться не только на предотвращении бедствий человечества, вызванных вероятным "приходом Скайнета". Они так же будут рассматривать и другие варианты, несущие потенциальную угрозу для человечества, включая развитие био- и нанотехнологий, последствия использования технологий геоинженерии, последствий глобальных климатических изменений и многое другое. Эта группа, конечно, не станет группой супергероев, которая когда-нибудь спасет все человечество. Но исследования, проводимые в центре CSER, помогут обратить внимание на потенциальные угрозы со стороны технологий и вовремя принять меры по их предотвращению.