Вероятность разума: Искусственный интеллект на грани

Новый подход к созданию искусственного интеллекта комбинирует два старых – и добивается удивительных результатов.

 

В 1950-60-х, на заре попыток создания искусственного интеллекта (ИИ) ученые обнаружили, что прежде, чем взяться за эту задачу, необходимо лучше понять принципы действия интеллекта естественного, чтобы перенести их на ИИ. Однако принципы эти оказались куда более сложными, чем казалось поначалу, и, двигаясь к ИИ этим путем, трудно сказать, когда же именно придешь к цели.

Вместо такого копирования природы сегодняшние разработчики ИИ полагаются на вероятность и статистику – результаты, которые компьютер в состоянии получить, анализируя накапливающийся массив опытных данных. Иначе говоря, в процессе самообучения. Вероятностный подход довольно быстро принес существенные плоды – сегодня на его основе работают даже «сравнительно простые» системы распознавания речи или, скажем, рекомендательные сервисы в Интернете.

Но исследователь ИИ Ноа Гудман (Noah Goodman) полагает, что куда больших результатов можно добиться, если скомбинировать два подхода – «вероятностный» и «принципиальный». И недавно таким путем ему удалось добиться весьма интересных и многообещающих результатов.

В стандартном подходе мышление рассматривается, как способность делать логические заключения. Если в вас «заложено» знание того, что птицы могут летать, и того, что воробей – птица, вы можете прийти к выводу, что воробей умеет летать. И первые разработчики ИИ старались создать математический аппарат, компьютерный язык, с помощью которого можно было бы кодировать в компьютере эти заложенные знания – и инструменты для логических заключений на этой основе. Добившись этого, ученые начали вносить в компьютер гигантские массивы исходных данных «птицы умеют летать», «воробей – птица» и т.д.

Но легко представить, что объемы этой исходной информации будут просто колоссальными. А кроме того, летать умеют не все птицы. Вдобавок, среди нелетающих птиц могут встретиться самые разные случаи. Это может быть страус или пингвин, или зяблик с перебитым крылом. И так – практически со всем, с чем мы сталкиваемся. В алгоритмы требовалось вносить все больше и больше поправок, уточнений и исключений.

 

В противоположность этому подходу, «вероятностный» заключается в том, что компьютеру задаются лишь средства анализа и создания выводов. А затем ему просто «скармливают» большое число примеров (например, картинок летающих и нелетающих птиц), с тем, чтобы он самостоятельно выводил все нужные правила и исключения.

Но и на этом пути имеются свои серьезные проблемы. Подход работает отлично, если мы остаемся в рамках какой-нибудь одной и очень конкретной концепции, например, «птицы». А если мы говорим хотя бы о «полете», как способности, которой обладают птицы, вертолеты и супермены, компьютер теряется. Он может счесть, что звезды или солнце на картинке тоже «летают». Ну а если перейти к более абстрактным понятиям – скажем, «грамматика» или «материнство», сложности возрастают тысячекратно.

Чтобы преодолеть эти проблемы, Гудман разработал собственный экспериментальный компьютерный язык, который назвал Church. Не в честь какой-либо из церквей, а в память о великом математике и логике Алонзо Чёрче (Alonzo Church), работы которого внесли важный вклад в современную информатику. Язык Church действует по тем же принципам, как и ранние языки для создания ИИ, он содержит правила для совершения логических выводов. Однако есть одно существенное «но»: правила эти не строги, а вероятностны.

Возьмем тот же пример с птицами. Получив информацию о том, что страус – птица, работающий на базе Church ИИ заключит, что страус с большой вероятностью умеет летать. Но если ему добавить, что страус весит несколько десятков килограмм, компьютер изменит свою оценку: поскольку большинство столь крупных птиц нелетающие, то и страус, как скажет ИИ, «с большой вероятностью не летает».

Как говорит сам Ноа Гудман, «благодаря вероятностности вся структура обретает гибкость». Поначалу, пока такой ИИ не знаком ни с одним примером нелетающей птицы, он, оценивая новую птицу, очень высоко оценивает ее шансы обладать способностью к полету. Но по мере того, как в его базе появляются сведения о пингвинах, страусах и зябликах с перебитым крылом, вероятность такого вывода, соответственно, пересматривается.

Легко заметить, что этот подход позволяет работать с теми же исключениями, которые ранние разработчики ИИ пытались каждый раз самостоятельно вводить в базу – только исключения ИИ формирует самостоятельно, в процессе самообучения, примерно как и мы с вами корректируем свои взгляды в соответствии с новой информацией.

Коллега Гудмана, лондонский исследователь ИИ Ник Чатер (Nick Chater) просто восхищен этим решением. Он говорит: «Представьте себе все вещи, которые вы знаете, и попытайтесь их перечислить и ввести в компьютер. Это будет непростой, а возможно, и невыполнимой задачей. Но тут вместо этого подхода используется изящный трюк. Мы вводим лишь несколько базовых вещей, а затем ИИ, работая аналогично нашему мозгу, выводит все остальное, на основе новых данных и с использованием вероятностного подхода, постоянно корректируя предыдущие выводы и оценки. Получив какую-то новую информацию, он быстро учитывает ее для оценки старой».

Специалисты полагают, что программы, которые работают на этих принципах, будут способны на подражание уже довольно широкому кругу когнитивных возможностей нашего мозга. К примеру, еще в 2008 г. Гудман с коллегами продемонстрировали такой эксперимент с живыми людьми и своей системой Church.

Им предлагался список 7-ми работников вымышленной компании и схема, на которой показывалось, как некое электронное письмо двигалось от одного работника к другому. Затем аналогичный список работников давался для другой вымышленной компании, а схему предлагалось составить самостоятельно, без дополнительной информации. Люди действовали по простой аналогии: если в первом случае письмо шло по простой цепочке (А послал письмо Б, тот переправил его В и так далее), добровольцы предполагали, что и во втором случае схема движения письма будет такой же. Если это была замкнутый круг (А послал письмо Б, Б – В, а тот снова вернул его А), люди предполагали, что и во втором случае будет круг.

То же самое задание было предложено и ИИ, работающему на базе Church. И вела она себя совершенно так, как и живые люди. Было проведено сравнение с другими, работающими на других принципах – и те выдавали совершенно случайные результаты, будучи неспособными сделать обобщение высокого уровня, выделить цепочки, круги и подобные структуры, описывающие движение письма.

Гудман провел и другие опыты – скажем, по сортировке довольно «абстрактных» и неточных рисунков насекомых и деревьев на категории; по выводам, которые требуется сделать на основе понимания того, что думают другие люди – и во всех случаях система Church демонстрировала потрясающее сходство с человеком, легко «побивая» традиционные алгоритмы ИИ.

К сожалению, пока работа Church требует очень больших ресурсов. С системой можно работать и получать отличные результаты, когда речь идет об узких задачах, наподобие тех, что были описаны выше. Однако для моделирования мышления «в целом» никаких мощностей пока не хватит. Возможно, надо только подождать?..

Ну а пока ждем, можно прочесть подробнее об искусственном разуме и перспективах его создания – в статье «По образу и подобию».

По публикации MIT Technology Review

 

Добавить комментарий

Войти с помощью: