Тема обретения искусственным интеллектом сознания стала фактически общим местом современной фантастической литературы и кинематографа (достаточно упомянуть Азимова, «Терминатора», «Призрак в доспехах» et cetera ad infinitum). Меж тем мало кто из фантастов задумывался над тем, что же такое сознание, как возникло сознание у человека и каким образом ИИ может это самое сознание обрести.
В данном эссе нам хотелось бы обратить внимание на одно очень интересное (и, на наш взгляд, весьма правдоподобное) определение упомянутого феномена, которое дал не фантаст и не философ, а ученый-эволюционист Ричард Докинз в своей книге “Эгоистичный ген”.
Докинз рассматривает человеческий мозг как универсальный построитель математических моделей реальности. В главе 4 он пишет:
Эволюция способности к моделированию, очевидно, привела в конечном итоге к субъективному осознанию. Почему это должно было произойти, представляется мне глубочайшей тайной, стоящей перед современной биологией. Нет оснований полагать, что электронные компьютеры действуют осознанно, когда они что-нибудь моделируют, хотя нам приходится допускать, что в будущем они, возможно, будут сознавать свои действия. Быть может, осознание возникает тогда, когда модель мира, создаваемая мозгом, достигает такой полноты, что ему приходится включать в неё модель самого себя.
Эта идея — сознание как включение архитектора в построенную им модель — разумеется, далеко не бесспорна (и вполне вероятно, нефальсифицируема по Попперу). В пользу этой теории можно привести некоторые косвенные рассуждения. Например, рефлексия в философии (обращение субъекта на самого себя) считается одним из важнейших актов сознания.
UPD. Еще один довод в пользу докинзовой гипотезы — существование аниматизма (веры в безличную одушевленность предметов и явлений), свойственного для многих (если не всех) первобытных обществ. В контексте теории Докинза, аниматизм возникает как попытка применить действующий способ моделирования поведения соплеменников к иным объектам.
Предположим, что докинзова гипотеза верна. Попробуем взглянуть на ИИ, используя такое определение сознания; сделав это, мы несомненно придем к выводу, что никакой Скайнет нам в ближайшее время не грозит.
В самом деле, для ИИ характерно четкое разделение предметной области и алгоритма работы самого ИИ. Это разделение идет, если угодно, еще от фоннеймановской архитектуры с ее разделением области команд и области данных.
Но, даже если мы поместим в память ИИ сведения о принципах его собственного устройства, обретет ли ИИ сознание? Увы, нет. Эта информация — алгоритм собственной работы — абсолютно бесполезна для ИИ в том смысле, что на ее основе невозможно сделать никаких выводов, прямо или косвенно влияющих на точность моделирования и, следовательно, верифицируемость предсказаний, полученных на основе модели.
Докинз умолчал в своей книге о том, зачем мозгу понадобилось включать самого себя в предметную область, т.е. какие выгоды получает архитектор от такого расширения модели. Мы попробуем ответить на этот вопрос.
Анализ собственного поведения нужен живому организму для того, чтобы предсказывать поведение других особей и, прежде всего, представителей того же вида. Очевидно, что такой навык существенно повышает приспособленность индивида к жизни в стае. Логично предположить, что такая способность востребована более всего у тех животных, которые образуют более-менее крупные иерархические стаи с интенсивными общественными связями, — например, люди. (UPD: в комментариях Докинза можно найти ссылку на исследования Николаса Хамфри, который пришел к тем же выводам)
И это второй веский аргумент в пользу того, что никакого сознания у ИИ в рамках существующих технологий появиться не может. ИИ не общается с себе подобными и вообще не имеет общественных связей, умение анализировать собственную программу абсолютно бесполезно для него.
Итак, общий вывод примерно следующий: если принять докинзову гипотезу, то в рамках существующих парадигм построения ИИ (и ЭВМ вообще) сознание не будет обретено ИИ никогда, сколько бы там нейронов не удалось смоделировать.