LINEBURG


<< Пред. стр.

страница 2
(всего 3)

ОГЛАВЛЕНИЕ

След. стр. >>

Алгоритмом является не всякий метод решения массовой проблемы. Он представляет собой совокупность дискретных шагов, последовательность которых жестко определена. Алгоритм дает решение всех задач, к которым он применим. Традиционно предполагается, что объекты, к которым применяется алгоритм, четко заданы. Поиски "обходных путей" для решения алгоритмически неразрешимых массовых проблем происходят посредством исключения отмеченных ограничений, т. е. расширения самого понятия "единый метод".
Еще в первой половине 50-х годов исследователи задались вопросом: можно ли с помощью "вероятностных машин" (т. е. действующих посредством методов, которые отличаются от алгоритмических тем, что очередной шаг определен не однозначно, а лишь с известной вероятностью) с достаточно большой надежностью решать такие массовые проблемы, которые нельзя решать алгоритмически? Для этого надо было определенным образом математически уточнить сам вопрос. При конкретном уточнении, которое ему дала группа исследователей (17), ответ получился отрицательным. Однако он был не единственно возможным. В 1969 г. советский математик Я. М. Барздинь теоретически доказал, что на "вероятностных машинах" (с бесконечной памятью) можно со сколь угодно большой вероятностью решить бесконечное множество единичных задач из некоторой массовой проблемы, которую невозможно решить единым алгоритмическим способом. Иными словами, было обосновано, что "вероятностная машина" обладает большими возможностями для решения массовых проблем, чем алгоритмическая (детерминированная) (18).
Конечно, вероятностная формализация приводит к решению задачи лишь с определенной вероятностью, тогда как алгоритм дает достоверный результат. Однако противопоставление этих методов - это результат абстракции, не учитывающей важных сторон познавательного процесса. Допустим, что реальной системой, реализующей детерминированный алгоритм, является человек, применяющий этот алгоритм последовательно к ряду задач некоторого класса. Люди, как известно, ошибаются. Следовательно, правильный результат посредством такого алгоритма будет получен не с достоверностью, а лишь с определенной вероятностью. Ошибаются и машины, действующие на основе детерминированных алгоритмов. Иными словами, реально существует описание детерминированного алгоритма, а его реализация содержит элемент случайности. Следовательно, реальный познавательный процесс в известной мере стирает различия между детерминированными и недетерминированными формализмами.
Таким образом, исследование возможностей "вероятностных машин" (теоретических) показывает, что формальные методы шире алгоритмических (если слово "алгоритм" употребляется в смысле теории алгоритмов). По отношению к вероятностным методам формализации не сформулировано ограничительных теорем, аналогичных теоремам Геделя. Однако гносеологический анализ ограниченности формализмов, проведенный выше, в ряде своих существенных черт распространяется и на эти методы. Это означает, что в принципе ограничен любой тип формализма, безгранично только мышление человека, опирающееся на бесконечно развивающуюся практику, которая обеспечивает неограниченный приток информации из внешнего мира. Оно в процессе познания подчиняет себе разрабатываемые формальные методы.
Необходимо указать еще на одно важное направление развития формальных методов. Во всех традиционных формализмах мы оперируем четкими понятиями. Математическое множество считается определенным тогда, когда относительно любого элемента из заданной области можно сказать, является ли он элементом некоторого множества или нет. Четкими являются и алгоритмы решения задач.
Нечеткость, присущая естественному языку, в значительной мере устраняется в содержательных теориях, а в формализме она исчезает. Здесь четкими являются и символ (абстрактный символ), и операции над ним. Такой тип формализации выполняет важные функции. Вместе с тем он создает чрезмерную "дискретизацию" информации, находящейся в психике человека, и потому является препятствием для реализации ряда способов творческого мышления, присущих содержательному мыслительному процессу. Формализации стандартного типа, как мы видели, отдаляют мыслительный процесс от обычных условий его протекания. Однако человек способен решать многие задачи, недоступные современным вычислительным машинам, именно благодаря его способности оперировать нечеткими идеями, понятиями, целями, предписаниями и т. д. Такая способность является одной из существенных черт человеческого мышления и играет важную роль в решении сложных задач творческого характера. В связи с проблемой искусственного интеллекта возник вопрос, нельзя ли и машины наделить способностью к оперированию нечеткими объектами (понятиями, значениями слов, алгоритмами и т. д.).
В качестве шага к решению этой задачи можно рассматривать концепцию нечетких (расплывчатых, размытых) множеств, выдвинутую Л. Заде (19; 20) и разрабатываемую рядом других математиков. Если в традиционных формализмах нечеткость исключается, то в теории нечетких множеств она формализуется. Это имеет важное гносеологическое значение (21). Существенно это и для психологии, которая оперирует часто расплывчатыми образованиями. Несомненно значение теории размытых множеств и для кибернетики.
Нечеткость множества заключается в том, что об объектах нельзя просто сказать, входят они в множество или не входят, поскольку имеют место различные степени принадлежности элемента множеству. Эти степени лежат в интервале между 0 и 1. Следовательно, границы множества размыты. Использование в ЭВМ различных сторон теории нечетких множеств позволяло бы ей в определенной мере учитывать отсутствие в мире жестких разграничительных линий и приблизиться к методам переработки информации, обычно применяемым человеком.
Для оперирования нечеткими высказываниями разработана специальная логика, имеющая свои степени истинности высказываний. Такая логика определяет степень истинности сложного высказывания по степеням истинности входящих в него элементарных высказываний. При ряде ограничений композиция из простых расплывчатых высказываний может получить четкую истинностную оценку.
Формализация нечетких понятий и множеств, создание логики нечетких высказываний и предикатов привели к разработке концепции нечетких алгоритмов и алгоритмических предписаний, т. е. таких, в которых имеются те или иные размытые компоненты. Таким образом, введение нечеткости и вероятностных алгоритмов выходит за пределы традиционных формализаций. В настоящее время концепция нечеткости интенсивно разрабатывается и находит ряд приложений в теории искусственного интеллекта (см. об этом гл. IV).
Еще одним из путей обхода алгоритмической неразрешимости является применение эвристических методов, в которых на основе определенных критериев резко сужается область поиска решения задачи. Однако среди отброшенных вариантов может оказаться и само решение проблемы (эти методы рассматриваются в гл. VI).
Таким образом, ограниченности формализмов, вскрытые за последние 50 лет, касаются их определенных типов, и не исключено преодоление этих ограниченностей формализмами иных типов.
Сделаем некоторые общие выводы из проведенного анализа.
Познавательный процесс на всех уровнях содержит в себе содержательный и формальный аспекты. В повседневном, а в известной мере и в научном, мышлении они слиты. Однако формальные аспекты обладают относительной самостоятельностью. Они представляют собой оперирование знаками или даже их физическими телами, тогда как мышление есть оперирование образами. При полной формализации оперируют неинтерпретированными фигурами (или другими материальными предметами). Здесь мышление функционирует на уровне предметных или умственных действий, так сказать, низшего порядка. В сознании человека имеются лишь стандартные правила, применяемые к таким же объектам; познавательная связь субъекта с миром и совокупной информацией, содержащейся в его психике, прервана. Умозаключение превращается в механический процесс, который может быть передан техническим системам. Однако в общем познавательном процессе этот тип мышления подчинен содержательной творческой мыслительной деятельности.
Создание и использование формальных методов позволяет существенно расширить познавательные возможности человека:
а) формальные методы благодаря использованию специальных искусственных языков позволяют интеллекту охватить задачи, которые либо не могут быть адекватно сформулированы на естественном языке, либо не могут стать объектом эффективного анализа. Это значит, что формализация, перевод на язык, в котором
могут применяться формальные методы, выполняют эвристическую функцию;
б) формальные методы, будучи общими методами решения целых классов задач, или едиными способами охвата различных теорий, относящихся к разным сферам
действительности, позволяют намного повысить эффективность умственного труда. Ряд задач, решение которых на содержательном уровне требует творческих усилий, посредством формальных методов решаются механически;
в) формальные методы создают принципиальную возможность механизации умственного труда посредством реализации на машинах логических и математических операторов.
В ходе развития математической логики было обнаружено, что традиционные формальные методы ограниченны. Однако математика создает все более мощные формальные методы. Тем не менее, любые формальные методы ограниченны. Это следует из неизбежной ограниченности любой отражающей системы, которая изолирована от потока информации, идущего от мира в процессе практической деятельности. Неисчерпаемость мира не позволяет его отобразить в конечной системе или совокупности конечных систем, в которых возникающие проблемы решались бы формальными методами (7). Познание всегда включает в себя взаимодействие формальных и содержательных аспектов.


ГЛАВА IV
РАЗВИТИЕ ДОКИБЕРНЕТИЧЕСКОЙ ИНФОРМАЦИОННОЙ ТЕХНИКИ - ПРЕДЫСТОРИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Как мы видели, интеллект человека обладает широкими познавательными возможностями, которые развиваются и ходе исторического прогресса на основе практической деятельности. Реализация этих возможностей представляет собой сложный процесс преодоления противоречий, поднимающий познание на более высокие уровни.
На нынешней ступени развития общества человек может решать сложные задачи познания, только используя информационную технику. Создание систем искусственного интеллекта на современном этапе научно-технического прогресса является высшей ступенью развития информационной, и в частности кибернетической техники. Понимание сущности и функций искусственного интеллекта требует осмысления их возникновения как закономерного продукта предшествующего развития. Поэтому анализ проблемы искусственного интеллекта мы начнем с выявления причин и тенденций развития информационной техники.
1. Объективная необходимость информационной техники
Как известно, организму человека свойственны ограниченности вещественного, энергетического и информационного порядка. Он способен лишь избирательно вступать в обмен веществ с внешней средой; его энергетические возможности определяются биохимическими процессами, его нервная система обладает ограниченными возможностями сбора, хранения, передачи и переработки информации.
Субстратом общественного развития является не только совокупность людей, но и производительные силы в целом, а следовательно, и орудия труда. Промышленность, по словам К. Маркса (1, т. 42, с. 124), является раскрытием человеческих сущностных сил, а В. И. Ленин подчеркивал, что "человеческий труд все более и более отступает на задний план перед трудом машин" (2, т. 1, с. 78). Это значит, что важнейшая черта человеческой деятельности заключается в распределении функций между человеком и техническими устройствами. Механизация нового класса функций выступает как важная сторона качественного преобразования самой деятельности человека.
На протяжении длительного исторического периода механизировались по преимуществу функции физического труда. Человек, включив орудия труда в производственный процесс, создал костную и мускульную систему производства. Она позволила обществу выйти далеко за пределы энергетических возможностей совокупности человеческих организмов****.
Кибернетика открывает или, точнее, знаменует собой новый этап в механизации умственного труда. Она позволяет дополнить внешнюю по отношению к организму человека костную и мускульную систему внешней нервной системой - информационной техникой.
Чем обусловлена такая необходимость?
Информационная техника есть, вообще говоря, техника управления. Система управления, как известно, состоит из управляющей и управляемых подсистем. Противоречивое взаимодействие между ними является важнейшей движущей силой прогресса в сфере управления. Необходимость управлять более сложными процессами в интенсивно меняющихся условиях требует усложнения управляющих систем. Это расширяет область управляемых процессов, что в свою очередь требует дальнейшего совершенствования управляющих систем.
Функции управляющей подсистемы - сбор, хранение, передача и переработка информации. Управляющая система отражает состояние управляемого процесса. Поэтому существует противоречие между способностью управляющих систем к отражению и сложностью решаемых задач управления. Это противоречие и обусловливает потребность в новом уровне отражения. На этом уровне материальным субстратом управления становятся не только физиологические системы человека, но и искусственные отражающие устройства. Нервная система как основа отражательной деятельности дополняется внешней искусственной системой - информационной техникой. Это значит, что кибернетика, а также более ранние информационные устройства возникают на базе противоречия между сложностью управляемых процессов на современном этапе общественного развития, с одной стороны, и психофизиологическими возможностями организма человека как отражающей системы - с другой. Прежде всего это противоречие проявилось в производстве.
Как известно, мозг человека и нервная система в целом представляют собой очень совершенную управляющую систему. На всем протяжении существования общества она успешно справлялась с управлением усложняющимися технологическими процессами. Антропогенез, так сказать, проавансировал общество информационными механизмами на много эпох вперед.
Человек учился управлять все более сложными процессами не посредством изменения своего биологического субстрата, а путем формирования и записи в памяти все новых программ, которые складывались эмпирически, а затем и на базе научных знаний. Мозг как универсальный преобразователь информации оказывался способным (почти всегда, когда это было нужно) перерабатывать информацию в реальном масштабе времени, в котором протекали различные вновь создаваемые технологические процессы. Однако в современных условиях эти процессы достигли такого уровня сложности и интенсивности, что ограниченная пропускная способность рецепторной и в целом анализаторной системы, недостаточная скорость передачи и переработки информации и другие психофизиологические ограниченности центральной нервной системы стали препятствием в использовании возможностей, заложенных в технике.
Всякая управляющая система способна реализовать лишь ограниченное множество программ и отобразить такое же множество внешних ситуаций. Преодолеть эти границы можно лишь путем выхода за пределы субстрата или структуры управляющей (отражающей) системы. Это требование обусловлено закономерностями эволюции отражения как общего свойства материи. В биологическом мире оно реализуется посредством появления новых биологических видов. В обществе эта закономерность действует не через биологическую эволюцию вида Homo sapiens, а посредством эволюции техники.
Далее, в технологии все в большей степени используются такие физические процессы, за которыми невозможно следить непосредственно. В ходе биологической эволюции человек не приобрел рецепторов, фиксирующих, скажем, электрические потенциалы, магнитные поля, уровень радиации и т. д. С развитием техники возникли сложные технологические процессы, управлять которыми можно, лишь располагая информацией о большом числе переменных. Если даже удается наблюдать за значениями этих переменных с помощью системы технических датчиков, то психика человека зачастую не способна одновременно охватить показания этих датчиков и на основе их быстро принять необходимые решения. Сложность управляемого процесса выше возможностей управляющей системы. Контроль за многими процессами переработки вещества и энергии, которые механизированы, человек осуществить не может.
Переработка информации до недавнего времени оставалась в основном в рамках его физиологических возможностей. Это тормозило развитие техники и технологии. Механизация информационных процессов стала необходимостью, общество создало соответствующие органы в виде информационной техники. Это диктовалось также возрастанием доли умственного труда в общей массе труда в связи с растущим обобществлением процесса производства, ростом числа работников и сложностью задач, решаемых в области управления экономикой, расширением сферы науки и вообще умственной деятельности. Таким образом, в середине XX в. возникла объективная потребность в передаче техническим устройствам функций умственного труда, переработки информации. Создание кибернетической техники и ее дальнейшее развитие явились ответом на эту объективную потребность.
Противоречие между потребностями управления и отражательными возможностями человека носит исторический характер. Было бы неправильно полагать, что его развертывание вплоть до середины XX в. означало лишь нарастание сложности управляемых систем при неизменности субстрата отражения. Утверждение об отсутствии у человека "внешней нервной системы" наподобие костной и мускульной системы производства верно лишь относительно. Люди уже на ранних стадиях развития общества использовали, а затем и создавали средства оперирования информацией (костры, камушки на память и т. д.). Однако эти средства общения в практической деятельности и тем более в мышлении играли подсобную роль.
Исторически первой крупной внешней системой, включившейся в переработку информации на уровне абстрактного мышления, явилось письмо. Ф. Энгельс высоко оценивал его роль в историческом развитии человечества, Прежде всего человек получил искусственную внешнюю память. Информация, извлекаемая им из внешнего мира, стала записываться не только в нервной системе, но и вне ее. Этой внешней памяти присущи большая длительность хранения и точность. Разумеется, письменность не выполняет все функции памяти, а лишь создает внешнюю запись.
Далее, письменность, и особенно развитая письменность (позднее - книгопечатание), значительно повысила уровень общественного характера познавательного процесса, способствовала передаче и использованию знания в пространстве и во времени. Внешняя знаковая запись служит не только средством общения. Она используется в самом мыслительном процессе, когда человек, решая задачи, обращается к своим записям. Письменные тексты не только хранят знания человека. В них воплощается его язык, категориальный и логический строй мышления, которые анализируются языкознанием, философией, логикой. Письменный вариант естественного языка содержит внутренние предпосылки для перехода к искусственным, в частности символическим, языкам.
Письменность явилась как бы первой формой взаимодействия между человеком и развитой внешней информационной системой. Правда, письменность выступает пассивным участником взаимодействия. Тем не менее, опыт такого взаимодействия существен и для системы "человек - машина". Относительная легкость использования человеком письма во многом определяется единством словаря и грамматической структуры устного и письменного вариантов языка. Важное значение имеет и то, что в современном обществе человек обычно овладевает письмом на относительно ранних этапах индивидуального развития, и поэтому в развитых обществах люди не сталкиваются с "письмобоязнью", как порой с "машинобоязнью", препятствующей использованию ЭВМ в различных областях человеческой деятельности. Таким образом, возникновение, изобретение письменности внесло существенные изменения в процессы хранения, передачи и переработки информации.
С созданием письма человек в больших масштабах использует создаваемые им внешние предметы для переработки информации. В своей умственной деятельности он впервые выходит за границы, определенные структурой его организма. Отсюда следует, что кибернетическая техника явилась не началом компенсации психофизиологических ограниченностей организма человека, а закономерным продолжением расширения и совершенствования материального субстрата отражательного процесса - тенденции, истоки которой восходят к изобретению письма.
Изобретение и распространение письма являются скачком в развитии возможностей отражения человеком внешнего мира. С точки зрения субстрата и структуры системы отражения была создана важнейшая предпосылка перехода к теоретическому мышлению. Человек, не использующий письменность, к этому не способен. Изобретение письма означает важный рубеж в эволюции субстрата и свойств отражения, переход от его биологической эволюции к социальной.
2. Роль приборов в расширении возможностей
абстрактного мышления
Письмо - не единственный докибернетический элемент исторически развивающейся внешней нервной системы человека. Общество создало разнообразные средства не только для хранения, но и для сбора, передачи и даже переработки информации. В совершенствовании коммуникативных систем общества фундаментальную роль играют технические средства передачи информации (телефон, телеграф, радио). Однако на процесс и возможности абстрактного мышления они до появления современных средств переработки информация непосредственно воздействовали слабо, поэтому мы их здесь рассматривать не будем. Большое влияние на развитие абстрактного мышления оказало включение в познавательный процесс приборов - датчиков информации.
Многие из них либо непосредственно, либо в преобразованном виде стали компонентами кибернетических устройств. Особенно важно то, что ряд гносеологических характеристик докибернетических приборов распространяется и на кибернетическую технику вплоть до системы искусственного интеллекта. Как уже говорилось, в ходе исторического развития общества ограниченность сенсорно-перцептивных систем человека затрудняла решение задач управления, которые вставали перед ним уже на ранних ступенях цивилизации. В связи с этим и появились приборы - датчики информации. Солнечные часы, например, были известны в Египте, Индии, Китае за 3 тыс. лет до н. э. Китайские летописи свидетельствуют о применении компаса в III в. до н. э. В Европе первое упоминание о нем относится к XII в. Однако широкое применение приборы получили в более поздний период в связи с развитием естествознания. С созданием приборов возникает ряд гносеологических вопросов. На первый взгляд может показаться, что утверждение о принципиальной недостаточности рецепторно-перцептивной системы человека для решения познавательных задач противоречит материалистической традиции. В материализме всегда подчеркивалось (а марксизм воспринял этот тезис) (1, т. 20, с. 554 - 555), что специфическое устройство органов чувств человека не создает непреодолимых границ для познания. Л. Фейербах писал, что "у нас нет никакого основания воображать, что, если бы человек имел больше чувств или органов, он познавал бы также больше свойств или вещей природы... У человека как раз столько чувств, сколько именно необходимо, чтобы воспринимать мир в его целостности, в его совокупности" (4, с. 632 - 633). В. И. Ленин считал, что это высказывание Фейербаха важно в борьбе против агностицизма (2, т. 29, с. 52). Действительно, положение "если бы человек имел больше органов чувств, он познал бы больше вещей" эквивалентно утверждению "существуют явления, которые при данном количестве органов чувств не могут быть познаны". Оно имеет агностический характер.
Таким образом, положение о достаточности органов чувств человека для познания окружающей действительности признается и Фейербахом (а также рядом других представителей домарксистской философии) и основоположниками марксизма. Однако понимание и аргументация этого положения у Фейербаха, с одной стороны, и в философии марксизма - с другой, существенно различны. Концепция универсальности человека (неограниченности его воздействия на природу) в марксизме включает в себя ряд элементов, которые либо совершенно чужды домарксистской философской мысли, либо схвачены ею в качестве изолированных и неразвернутых элементов.
1. Человек является непосредственно природным существом (это признавал и Фейербах). Однако это не обеспечивает универсальности его взаимодействия с природой. Собственно природное существо не может быть универсальным. "...В качестве природного, телесного, чувственного, предметного существа, - писал К. Маркс, - он (человек - С. Ш.), подобно животным и растениям, является... ограниченным существом..." (1, т. 42, с. 163). "Но человек - не только природное
существо, он есть человеческое природное существо..." (1, т. 42, с. 164). Именно в качестве общественного человека он способен преодолеть свою ограниченность как природного существа, хотя структура его организма есть предпосылка универсальности, и биология
человека в определенном смысле социальна.
2. Самоутверждение человека как родового существа (общественного человека) происходит в процессе практического созидания предметного мира, т. е. в процессе материального производства. "Животное... производит односторонне, тогда как человек производит универсально..." (1, т. 42, с. 93). При этом человек создает
и использует орудия. "... Орудие, - отмечал Ф. Энгельс, - означает специфически человеческую деятельность..." (1, т. 20, с. 357). Универсальное практическое взаимодействие с внешним миром имеет не физиологическую или биохимическую, а социальную природу, поскольку осуществляется в процессе общественного производства. Из этого положения и из признания практики в качестве основы процесса познания следует, что и универсальность человека как субъекта познавательного процесса в конечном счете обусловлена производством.
3. Универсальность человека не есть нечто внеисторическое. На каждой данной ступени развития человека (определяемой прежде всего уровнем производства), а тем более на той, когда он только выделился из животного мира, универсальность присуща ему как потенция. Общественное производство (в отличие от биохимической и физиологической природы человеческого организма) в процессе развития снимает преграды к универсальному взаимодействию человека с внешней природой, а общество в своем бесконечном развитии обретает
безграничную возможность к совершенствованию.
Положения об универсальных возможностях человека распространяются и на познавательный процесс. Универсальность познавательных возможностей человека имеет социальную природу и обусловлена в конечном счете производством, ей также присущ исторический характер. Если в сенсорно-перцептивной сфере человек как природное существо ограничен, то как общественное существо он преодолевает ограниченность своего организма. Создание приборов, расширяющих возможности рецепции и восприятия, - важная предпосылка для преодоления этой ограниченности. К. Маркс отмечал важное значение научных приборов (типа термометров, точных весов, микроскопов) для практики и познания (1, т. 47, с. 477).
В настоящее время (а тем более в перспективе) человек создает ряд отраслей производства, функционирование которых способствует возникновению условий, существенно отличных от тех, к которым приспособились организмы на генеалогической линии эволюции, увенчавшейся появлением человека. И если человек не смог бы научиться фиксировать такого рода факторы, то это привело бы к катастрофическим последствиям. Трудно предположить, что люди - во всяком случае, в обозримом будущем - могут создать новые органы чувств или на базе существующих выработать новые типы ощущений (научатся, например, чувственно воспринимать магнитные поля, повышение уровня радиации и т. д.). А это необходимо как для управления производственными процессами, так и для сохранения на должном уровне факторов изменений окружающей среды, жизненно важных для человека. Это значит, что возникает противоречие между достигнутым уровнем управления и новыми задачами управления, противоречие, которое требует изменения субстрата отражения.
Сенсорно-перцептивные возможности человека затрудняют решение не только производственных, но и познавательных, в частности, научных, задач. Для их решения создаются различного рода приборы, компенсирующие те или иные ограниченности органов чувств человека. Создание приборов существенно раздвигает границы отражения человеком окружающего мира. Развитие систем сбора информации (так же как памяти в связи с появлением письменности) перестает быть неразрывно связанным с биологической эволюцией.
Это дает важные познавательные результаты. Прежде всего, чувственная основа абстрактного мышления все более расширяется в процессе развития техники, что ведет к увеличению объема эмпирических данных, которыми располагает наука. В результате происходит скачок в развитии возможностей самого абстрактного мышления. Далее, благодаря измерительным приборам человек с помощью абстрактного мышления устанавливает точные количественные закономерности, тогда как он, не вооруженный техникой, может давать лишь общие количественные оценки. Техника позволяет абстрактному мышлению преодолеть еще одну границу, обусловленную возможностями организма. Наличие письма есть, как мы видели, необходимая предпосылка создания теорий. Однако создание количественных теорий требует наличия измерительных приборов.
Наконец, развитие приборной техники порождает и усиливает ряд сторон взаимодействия чувственного и рационального моментов в познавательном процессе. Абстрактное мышление активно участвует в создании (расширении) своего чувственного базиса через изобретение, проектирование и т. д. приборов. Вместе с тем интерпретация показаний приборов, умение ориентироваться в "приборной чувственности" и работать с данными приборов на абстрактном уровне становятся существенным моментом познавательной деятельности.
Итак, биологические особенности человека создают широкие, но все же ограниченные возможности непосредственного отражения им действительности. Они же позволяют человеку и преодолеть эту ограниченность в процессе реализации его социальной сущности. Этот процесс опирается на развитие общественной практики. Сталкивая человека со все новыми объектами, формируя категориальный строй мышления, она, во-первых, позволяет на фиксированном материальном субстрате отражения раздвигать пределы человеческого знания. Во-вторых, дает возможность изменить субстрат отражательного процесса, включить в него искусственно создаваемые орудия познания. Как мы стремились показать, первыми такими орудиями познания были письмо и приборы - датчики информации.



ГЛАВА V
ЭВМ И РАСШИРЕНИЕ ВОЗМОЖНОСТЕЙ АБСТРАКТНОГО МЫШЛЕНИЯ

В результате создания кибернетической техники и главным образом электронно-вычислительных машин наступает новый этап в реализации тенденции к преодолению с помощью технических средств психофизиологической ограниченности организма человека. Прежде всего, ЭВМ качественно преобразуют сбор информации. Кибернетика впервые создала относительно сложные внешние комплексы, осуществляющие целостный цикл оперирования информацией. Это позволило впоследствии перейти к созданию интегральных промышленных роботов, способных к выполнению различных функций на основе решений, принимаемых роботом в результате самостоятельного анализа предметной среды.
Главным моментом качественно нового этапа в развитии информационной техники явилось создание центрального звена этой системы - самой ЭВМ, выполняющей в автономном режиме, без вмешательства человека (в соответствии с разработанной человеком программой), ряд функций абстрактного мышления человека.
Особенностью цифровых ЭВМ по сравнению с предшествующими вычислительными машинами является их универсальность, хотя она и не абсолютна, если иметь в виду сформулированные в предыдущей главе закономерности связи между субстратами (элементы - структура) системы и ее отражательными возможностями.
Рассмотрим, по каким направлениям осуществляется расширение возможностей абстрактного мышления в связи с передачей некоторых его функций техническим системам.

1. Задачи, решаемые и нерешаемые
традиционными методами на ЭВМ
Использование ЭВМ в течение нескольких десятилетий позволяет говорить о существовании методов решения задач, которые могут рассматриваться как традиционные и даже рутинные. Использование ЭВМ началось с решения многих вычислительных задач, для которых наука уже располагала алгоритмами и реализация которых без машины практически была невозможной (например, решение линейных уравнений с большим числом переменных или вычисление различных числовых функций, к которым сводится решение многих прикладных задач). Это были задачи, давно ожидавшие своего решения и, так сказать, готовые к решению на ЭВМ. Конечно, это не означало, что они не нуждались в предварительной обработке. Алгоритмы, которыми располагали математики, были написаны на математическом языке, доступном человеку, а не машине. Их следовало перевести на язык, "понятный" машине, т. е. машину надо было запрограммировать. Вплоть до 50-х годов (а практически и в 60-х годах) для их решения требовалось составлять программу в машинных кодах.
Цепочка команд, определяющих функционирование машины при решении задач, детально разрабатывалась программистом. Для этого ему необходимо было знать конструктивные особенности конкретной машины. Процесс кодирования требовал большого искусства и во многом напоминал решение задач на смекалку. Тем не менее, каждый готовый алгоритм относительно легко мог быть превращен в машинную программу (если объем памяти машины позволял это сделать). Таким образом, традиционный метод решения задач на ЭВМ заключался в превращении готового алгоритма решения некоторой массовой проблемы в машинную программу, по которой до конца решения задачи и работает машина.
Для повышения эффективности использования ЭВМ требовался поиск новых задач, которые можно было бы передать машине, а также разработка алгоритмов, специально рассчитанных на машинное решение. Применение ЭВМ более трех десятилетий привело к их широкому внедрению в различные сферы деятельности человека. С их помощью резко повысилась эффективность многих видов умственного труда, систематически решается значительное количество научных и практических задач. ЭВМ обеспечивают функционирование автоматизированных систем управления производством и технологическими процессами, без них немыслимо составление народнохозяйственных планов. ЭВМ составляют важнейшее звено управления космическими полетами, они автоматически обрабатывают собираемую научную и иную информацию и т. д. Короче говоря, на современном этапе развития общества ЭВМ стали неотъемлемым элементом его материальной и духовной культуры.
Какой познавательный эффект дает использование ЭВМ?
Прежде всего, практически доказано, что вычислительные функции, выполняемые человеком на основе готовых алгоритмов, в принципе, т. е. при допущении абстракции потенциальной осуществимости, могут быть переданы для решения техническим устройствам. Теоретически этот тезис в общей форме высказывался еще в средние века. Английский ученый Ч. Бэббидж даже пытался практически осуществить эту идею, но в силу неразвитости техники (особенно из-за отсутствия подходящих материалов и неразработанности технологических процессов, надежно и быстро реализующих алгоритмы) не сумел довести дело до конца. Л. Тьюринг дал определение алгоритма через абстрактную вычислительную машину и тем самым в сущности теоретически предвидел аналогию алгоритмического процесса и процессов реальной вычислительной машины. Его понимание универсальной машины (впоследствии названной универсальной машиной Тьюринга) предвосхитило создание ЭВМ, перерабатывающей информацию по произвольной программе.
Однако только развитие вычислительной техники, теории программирования за последние десятилетия доказало практически, что ЭВМ способна реализовать функции интеллекта, которые осуществляет человек и для которых есть готовые алгоритмы.
Далее, доказано также, что к числу таких функций относится не только вычисление. Что вычислительные процессы могут быть механизированы, было известно давно. Существовали и различные механические вычислительные средства, например арифмометры. Правда, создание ЭВМ явилось качественным скачком в развитии этих средств. Благодаря памяти ЭВМ, хранящей программу и исходные данные, она может работать без вмешательства человека, и в результате этого собственно вычислительная функция полностью перешла от человека к машине. Никто не пытался установить границы механизации вычислительных процессов исходя из философских соображений. Иное дело - отличающиеся от вычисления функции абстрактного мышления. Многие философы, в частности Гегель, категорически отрицали возможность передачи машинам логических функций. Следует отметить также, что создатели ЭВМ также не рассчитывали на использование последних для реализации логических функций. Эта способность была обнаружена после их создания. Практика показала, что ЭВМ реализуют логические алгоритмы нисколько не хуже, чем вычислительные.
Как мы видели (см. гл. II), возможность передачи логических функций машинам вполне согласуется с материалистическим пониманием природы логического. Выполнение ЭВМ логических операций явилось одним из важных его подтверждений. В той мере, в какой логический процесс описывается посредством алгоритмов, он, как и вычислительный процесс, может быть передан техническим системам. В принципе вычислительные операции не занимают преимущественного положения в работе вычислительной машины. Она оперирует символами, а арифметическая интерпретация есть лишь одна из многих интерпретаций этих символов.
Таким образом, практика использования ЭВМ доказала возможность их применения не только для реализации вычислительных операций. Так сказать, попутно было подтверждено одно из важных следствий теории отражения о неспецифичности структуры логического вывода, т. е. о том, что логические структуры являются отражением объективной реальности.
Следующий важный вывод, связанный с применением ЭВМ, заключается в том, что совокупность задач, для решения которых возможно сконструировать алгоритм, т. е. задач, которые можно формализовать, очень широка. Она включает значительное количество научных, экономических, технологических и иных задач, решение которых до применения ЭВМ было недоступно для человека.
Прежде всего, математика имела значительный задел проблем, для которых в потенции существовали методы решения. Однако они не разрабатывались, поскольку для этого требовалось практически неосуществимое число шагов. Например, численные методы решения дифференциальных уравнений с частными производными до ЭВМ почти не разрабатывались, так как с ростом числа независимых переменных (т. е. размерности задач) резко возрастает число операций, необходимых для решения уравнения. Использование ЭВМ требовало разработки вычислительных методов.
Более того, создание ЭВМ привело к интенсивному развитию ряда новых областей математики, моделирующих предметные области действительности, которыми ранее математики не занимались. Широкое развитие получили линейное и динамическое программирование, теория игр, возникшие еще до появления ЭВМ. Эти новые разделы математики позволили посредством ЭВМ решать сложные задачи, связанные с оптимизацией технологических и экономических процессов. Если ранее математика применялась главным образом в физике и вообще при анализе низших форм движения, то развитие ЭВМ и использование идей кибернетики привели к математизации ряда других наук, в частности биологических и гуманитарных.
Главный познавательный эффект применения ЭВМ за истекшие годы заключается в преодолении барьера сложности, который обусловлен психофизиологическими возможностями мозга.
Специфическим методом анализа сложных систем и процессов на ЭВМ является математический эксперимент. В память ЭВМ помещается описание системы уравнений и методов ее решения. Машина выдает ряд вариантов решений, различающихся в зависимости от значения параметров системы. Вместе с тем она обнаруживает зависимость свойств решения от этих параметров. Следовательно, различные варианты проектируемых конструкций могут быть подвергнуты анализу при отсутствии их физической модели.
Более того, математический эксперимент возможен с системой, которая описана лишь качественно, но на некотором точном языке. Таким образом, математический эксперимент, осуществляемый на ЭВМ, есть важное орудие анализа и синтеза сложных систем.
С применением ЭВМ все большая часть рутинных функций передастся машине, и тем самым человеческий интеллект высвобождается для разработки творческих задач. Появление микропроцессоров, реализуемых на больших интегральных схемах, - важный перспективный фактор экономии нетворческого умственного труда во всех сферах. Конечно, в определенной мере нетворческие операции и их совокупности и в дальнейшем будут компонентами творческих процессов, в которых они сохраняются в снятом виде.
Как видно, решение задач на ЭВМ традиционными методами, т. е. посредством превращения разработанных алгоритмов в программы, существенно повысило возможности абстрактного мышления.
В 50-х годах кибернетики приступили к поиску принципиально иных путей использования ЭВМ, что было обусловлено рядом обстоятельств. Прежде всего, как было отмечено, существуют алгоритмически неразрешимые массовые проблемы. Правда, единичные задачи или даже классы задач такого рода человек успешно решает сам. Многие из них существенно важны в теоретическом или практическом отношении. То, что были найдены решения отдельных задач, наталкивало на мысль о существовании иных, неалгоритмических способов их решения, поэтому стремление найти их, а затем и реализовать на ЭВМ было естественным.
Далее, известно много задач, для которых не доказано отсутствие алгоритма или даже известен алгоритм, но его реализация требует столь большого количества шагов, что они неосуществимы практически даже для самых быстродействующих машин не только настоящего, но и будущего. Начались поиски иных путей для их решения. Так, игра в шашки является конечной, т. е. содержит конечное число вариантов, и, следовательно, разрешима посредством алгоритма простого перебора. Однако такой перебор включал бы 1040 альтернатив. При скорости 3 альтернативы в 1 мк. сек. реализация такого алгоритма заняла бы 1021 столетий! Так что увеличение быстродействия ЭВМ на десяток порядков (что практически и, по-видимому, теоретически вряд ли возможно) не изменило бы существа дела (1,с. 73).
Аналогично обстоит дело и с доказательством теорем. Даже для наиболее простого разрешимого раздела логики - исчисления высказываний - алгоритмический путь доказательства теорем в общем случае не приводит к реальным результатам. Алгоритм, чтобы гарантировать решение, т. е. найти доказательство, должен производить исчерпывающий поиск среди аксиом и ранее доказанных теорем путем систематического применения правил преобразования до тех пор, пока не найдет искомую цепочку. Как отмечали создатели эвристического программирования, для доказательства теорем, сформулированных в классическом труде Б. Рассела и А. Уайтхеда по математической логике "Principle Mathematica", посредством переборного алгоритма потребовались бы сотни тысяч лет (1, с. 122).
С этой точки зрения принципиальной разницы между разрешимыми и неразрешимыми теориями нет. Из теоретического факта существования разрешающей процедуры можно извлечь для программирования ЭВМ не больше, чем из неконструктивных доказательств существования объекта для его построения. В этом отношении различие между абстракциями актуальной бесконечности и потенциальной осуществимости, подчеркиваемое представителями конструктивного направления в математике, не представляется существенным. От "потенциальной осуществимости" (в общем случае) "нет спуска на землю" (т. е. к практически осуществимым алгоритмам и программам), так же как и от "актуальной бесконечности", что не обесценивает значения ни той, ни другой абстракции в определенных познавательных ситуациях.
Однако известно, что некоторые задачи, для решения которых имеется лишь практически нереализуемый алгоритм (как и задачи, для которых нет алгоритма), человек тем не менее решает. Следовательно, существуют методы, посредством которых множество возможных вариантов либо сокращается, либо по каким-то критериям полностью не строится. Эти методы следует искать. То же самое необходимо сказать и о задачах, для которых существуют практически нереализуемые алгоритмы, но которые не решаются человеком, несмотря на их практическую значимость.
Далее, для многих задач написание алгоритма, учитывающего предварительно все возможные ветвления процесса и обстоятельства, которые могут на него влиять, т. е. предварительная полная формализация (в традиционном смысле), оказывается принципиально невозможным, например, в силу стохастического характера управляемого процесса. В других случаях она хотя принципиально и возможна (потенциально осуществима), но настолько громоздка, что практически нереализуема. Чтобы преодолеть это, человек обычно уточняет или изменяет ход решения задачи в самом процессе решения в зависимости от получаемых результатов. Обнаружив, что тот или иной путь бесперспективен, он бросает анализ вариантов на полпути или даже в его начале, хотя до того, как приступил к решению задачи, не смог бы или смог бы с большим трудом сформулировать критерии, по которым следует прекратить анализ. Так или иначе, человек принимает ряд решений на основе промежуточных результатов. Желательно было бы эту способность принятия решений передать машине, иными словами, снабдить машину методами самостоятельного принятия решений.
Мы описали две ситуации, которые следует различать. В одном случае речь шла о том, что осуществление алгоритма практически невозможно, потому что включает в себя много шагов. С этим можно столкнуться и при реализации программы, составление которой не сопряжено с большим трудом. Один и тот же алгоритм дает существенно различное число шагов при применении его к различным исходным данным, причем часто это число шагов предварительно определить невозможно (2). Во втором случае речь идет не о громоздкости реализации алгоритма, а о громоздкости и психологической трудности его предварительного составления. Человек вообще психологически не склонен к такого рода работе. Он более склонен считать, что интуиция подскажет ему верное решение, когда возникнет соответствующая ситуация. К этому следует добавить, что порой и сам алгоритм весьма громоздок и требует для своего внесения в машину использования значительной части ее памяти, что также нежелательно.
Далее, во многих случаях человек владеет опытом, который с большим трудом поддается словесному описанию, тем более формализации. Этот опыт накоплен в процессе практического решения производственных, теоретических, игровых задач. Желательно было бы снабдить управляющий автомат способностью к самообучению. Правда, уже на ранних этапах развития кибернетики были созданы автоматы, способные к самообучению, имитирующие феноменологически простые условные рефлексы. Однако оказалось, что на основе принципов, давших первые положительные результаты, не удается создать более сложные самообучающиеся информационные системы. Стремление найти принципы работы более или менее сложных самообучающихся систем также явилось одной из причин поиска не строго алгоритмических методов переработки информации, которые можно было бы передать техническим системам.
Известно, что человек умеет принимать решения (не обязательно хорошие, но во всяком случае приемлемые) в условиях, которые с различных точек зрения содержат неопределенность или нечеткость. Он оперирует с нечеткими целями и идеями, использует методы, которые четко не определены, принимает решения в ситуациях с неполной информацией и т. д. В реальных задачах, с которыми сталкивается человек, неопределенные ситуации играют фундаментальную роль, особенно при принятии решений, связанных с функционированием сложных систем. Это значит, что преодоление барьера сложности, о котором шла речь выше, может найти значительно более полное развитие, если технические системы смогут оперировать нечеткими и неопределенными ситуациями.
Такого рода задачи и должны решаться системами искусственного интеллекта. Это и определило поиск новых типов программ. Их анализ требует конкретизации понятия "искусственный интеллект".
2. Конкретизация понятия "искусственный интеллект"
В понятие "искусственный интеллект" вкладывается различный смысл - от признания интеллекта у ЭВМ, решающих логические или даже любые вычислительные задачи, до отнесения к интеллектуальным лишь тех систем, которые решают весь комплекс задач, осуществляемых человеком, или еще более широкую их совокупность. Мы постараемся вычленить тот смысл понятия "искусственный интеллект", который в наибольшей степени соответствует реальным исследованиям в этой области.
Как отмечалось, в исследованиях по искусственному интеллекту ученые отвлекаются от сходства процессов, происходящих в технической системе или в реализуемых ею программах, с мышлением человека. Если система решает задачи, которые человек обычно решает посредством своего интеллекта, то мы имеем дело с системой искусственного интеллекта.
Однако это ограничение недостаточно. Создание традиционных программ для ЭВМ - работа программиста - не есть конструирование искусственного интеллекта. Какие же задачи, решаемые техническими системами, можно рассматривать как конституирующие искусственный интеллект?
Чтобы ответить на этот вопрос, надо уяснить прежде всего, что такое задача. Как отмечают психологи (3, с. 5 - 12), этот термин тоже не является достаточно определенным. По-видимому, в качестве исходного можно принять понимание задачи как мыслительной задачи, существующее в психологии. Психологи подчеркивают, что задача есть только тогда, когда есть работа для мышления, т. е. когда имеется некоторая цель, а средства к ее достижению не ясны; их надо найти посредством мышления. Хорошо по этому поводу сказал Д. Пойа: "...трудность решения в какой-то мере входит в само понятие задачи: там, где нет трудности, нет и задачи" (4, с. 143). Если человек имеет очевидное средство, с помощью которого наверное можно осуществить желание, поясняет он, то задачи не возникает. Если человек обладает алгоритмом решения некоторой задачи и имеет физическую возможность его реализации, то задачи в собственном смысле уже не существует.
Так понимаемая задача в сущности тождественна проблемной ситуации, и решается она посредством преобразования последней. В ее решении участвуют не только условия, которые непосредственно заданы. Человек использует любую находящуюся в его памяти информацию, "модель мира", имеющуюся в его психике и включающую фиксацию разнообразных законов, связей, отношений этого мира.
Если задача не является мыслительной, то она решается на ЭВМ традиционными методами и, значит, не входит в круг задач искусственного интеллекта. Ее интеллектуальная часть выполнена человеком. На долю машины осталась часть работы, которая не требует участия мышления, т. е. "безмысленная", неинтеллектуальная.
Под словом "машина" здесь понимается машина вместе с ее совокупным математическим обеспечением, включающим не только программы, но и необходимые для решения задач "модели мира". Недостатком такого понимания является главным образом его антропоморфизм. Задачи, решаемые искусственным интеллектом, целесообразно определить таким образом, чтобы человек по крайней мере в определении отсутствовал.
При характеристике мышления мы отмечали, что его основная функция заключается в выработке схем целесообразных внешних действий в бесконечно варьирующих условиях. Специфика человеческого мышления (в отличие от рассудочной деятельности животных) состоит в том, что человек вырабатывает и накапливает знания, храня их в своей памяти. Выработка схем внешних действий происходит не по принципу "стимул - реакция", а на основе знаний, получаемых дополнительно из среды, для поведения в которой вырабатывается схема действия.
Этот способ выработки схем внешних действий (а не просто действия по командам, пусть даже меняющимся как функции от времени или как однозначно определенные функции от результатов предшествующих шагов), на наш взгляд, является существенной характеристикой любого интеллекта. Отсюда следует, что к системам искусственного интеллекта относятся те, которые, используя заложенные в них правила переработки информации, вырабатывают новые схемы целесообразных действий на основе анализа моделей среды, хранящихся в их памяти. Способность к перестройке самих этих моделей в соответствии с вновь поступающей информацией является свидетельством более высокого уровня искусственного интеллекта.
Большинство исследователей считают наличие собственной внутренней модели мира у технических систем предпосылкой их "интеллектуальности" (5, с. 415). Формирование такой модели, как мы покажем ниже, связано с преодолением синтаксической односторонности системы, т. е. с тем, что символы или та их часть, которой оперирует система, интерпретированы, имеют семантику.
Характеризуя особенности систем искусственного интеллекта, Л. Т. Кузин указывает на: 1) наличие в них собственной внутренней модели внешнего мира; эта модель обеспечивает индивидуальность, относительную самостоятельность системы в оценке ситуации, возможность семантической и прагматической интерпретации запросов к системе; 2) способность пополнения имеющихся знаний; 3) способность к дедуктивному выводу, т. е. к генерации информации, которая в явном виде не содержится в системе; это качество позволяет системе конструировать информационную структуру с новой семантикой и практической направленностью; 4) умение оперировать в ситуациях, связанных с различными аспектами нечеткости, включая "понимание" естественного языка; 5) способность к диалоговому взаимодействию с человеком; 6) способность к адаптации (5, с. 415 - 418).
На вопрос, все ли перечисленные условия обязательны, необходимы для признания системы интеллектуальной, ученые отвечают по-разному. В реальных исследованиях, как правило, признается абсолютно необходимым наличие внутренней модели внешнего мира, и при этом считается достаточным выполнение хотя бы одного из перечисленных выше условий.
П. Армер (6) выдвинул мысль о "континууме интеллекта": различные системы могут сопоставляться не только как имеющие и не имеющие интеллекта, но и по степени его развития. При этом, считает он, желательно разработать шкалу уровня интеллекта, учитывающую степень развития каждого из его необходимых признаков. Известно, что в свое время А. Тьюринг (7) предложил в качестве критерия, определяющего, может ли машина мыслить, "игру в имитацию". Согласно этому критерию, машина может быть признана мыслящей, если человек, ведя с ней диалог по достаточно широкому кругу вопросов, не сможет отличить ее ответов от ответов человека.
Критерий Тьюринга в литературе был подвергнут критике с различных точек зрения. На наш взгляд, действительно серьезный аргумент против этого критерия заключается в том, что в подходе Тьюринга ставится знак тождества между способностью мыслить и способностью к решению задач переработки информации определенного типа. Успешная "игра в имитацию" не может без предварительного тщательного анализа мышления как целостности быть признана критерием ее способности к мышлению.
Однако этот аргумент бьет мимо цели, если мы говорим не о мыслящей машине, а об искусственном интеллекте, который должен лишь продуцировать физические тела знаков, интерпретируемые человеком в качестве решений определенных задач. Поэтому прав В. М. Глушков (8, с. 162 - 168), утверждая, что наиболее естественно, следуя Тьюрингу, считать, что некоторое устройство, созданное человеком, представляет собой искусственный интеллект, если, ведя с ним достаточно долго диалог по более или менее широкому кругу вопросов, человек не сможет различить, разговаривает он с разумным живым существом или с автоматическим устройством. Если учесть возможность разработки программ, специально рассчитанных на введение в заблуждение человека (9), то, возможно, следует говорить не просто о человеке, а о специально подготовленном эксперте. Этот критерий, на наш взгляд, не противоречит перечисленным выше особенностям системы искусственного интеллекта.
Но что значит по "достаточно широкому кругу вопросов", о котором идет речь в критерии Тьюринга и в высказывании В. М. Глушкова? На начальных этапах разработки проблемы искусственного интеллекта ряд исследователей, особенно занимающихся эвристическим программированием, ставили задачу создания интеллекта, успешно функционирующего в любой сфере деятельности. Это можно назвать разработкой "общего интеллекта" (8). Сейчас большинство работ направлено на создание "профессионального искусственного интеллекта", т. е. систем, решающих интеллектуальные задачи из относительно ограниченной области (например, управление портом, интегрирование функций, доказательство теорем геометрии и т. п.). В этих случаях "достаточно широкий круг вопросов" должен пониматься как соответствующая предметная область.
Исходным пунктом наших рассуждений об искусственном интеллекте было определение такой системы как решающей мыслительные задачи. Но перед нею ставятся и задачи, которые люди обычно не считают интеллектуальными, поскольку при их решении человек сознательно не прибегает к перестройке проблемных ситуаций. К их числу относится, например, задача распознания зрительных образов. Человек узнает человека, которого видел один-два раза, непосредственно в процессе чувственного восприятия. Исходя из этого кажется, что эта задача не является интеллектуальной. Но в процессе узнавания человек не решает мыслительных задач лишь постольку, поскольку программа распознания не находится в сфере осознанного. Но так как в решении таких задач на неосознанном уровне участвует модель среды, хранящаяся в памяти, то эти задачи в сущности являются интеллектуальными. Соответственно и система, которая ее решает, может считаться интеллектуальной. Тем более это относится к "пониманию" машиной фраз на естественном языке, хотя человек в этом не усматривает обычно проблемной ситуации.
Теория искусственного интеллекта при решении многих задач сталкивается с гносеологическими проблемами.
Одна из таких проблем состоит в выяснении вопроса, доказуема ли теоретически (математически) возможность или невозможность искусственного интеллекта. На этот счет существуют две точки зрения. Одни считают математически доказанным, что ЭВМ в принципе может выполнить любую функцию, осуществляемую естественным интеллектом. Другие полагают в такой же мере доказанным математически, что есть проблемы, решаемые человеческим интеллектом, которые принципиально недоступны ЭВМ. Эти взгляды высказываются как кибернетиками, так и философами. Рассмотрим их с позиций гносеологии.
3. Доказуемы ли математически возможность
или невозможность искусственного интеллекта?
Авторы, считающие, что возможность создания искусственного интеллекта математически доказана, ссылаются главным образом на известные логико-математические результаты У. С. Маккаллока и У. Питтса. В их фундаментальной работе, опубликованной в 1943 г. (10) и положившей начало теории нервных сетей, выдвинута и доказана серия теорем, общий смысл которых заключается в том, что нейронные события можно описать средствами исчисления высказываний. Ими было введено понятие "формальный нейрон", которому приписывались некоторые свойства реального нейрона, в частности принималось, что он, как и реле, подчинен закону "все или ничего".
Маккаллок и Питтс предложили также понятие "нервная сеть", которая представляет собой комбинацию из формальных нейронов. Они доказали возможность описания поведения любой сети "формальных нейронов" на определенном логическом языке, а также обратное утверждение: для всякого логического выражения, удовлетворяющего некоторым условиям, можно найти сеть, имеющую описываемое этим выражением поведение. Они считали, что доказанные теоремы играют важную роль в обосновании тезиса о познаваемости структуры и функций реальной нервной системы.
Важное значение - не только математическое и техническое, но и философское - придавал этим результатам один из крупнейших математиков XX в., сыгравший выдающуюся роль в формировании кибернетики, Дж. фон Нейман. В работе, относящейся к 1948 г. и содержащей набросок общей теории автоматов, он сделал на основе результатов Маккаллока и Питтса существенные гносеологические выводы: "Часто можно было слышать разговоры о том, что деятельность и функции нервной системы человека настолько сложны, что никакой обычный механизм не может их выполнить. Пытались указать специфические функции, которые, по самой своей природе, налагают это ограничение. Делались также попытки доказать, что такого рода специфические функции, полностью описанные логически... недоступны механической, нервной реализации. Результат Маккаллока - Питтса кладет всему этому конец. Он доказывает, что все, что можно описать исчерпывающим и однозначным образом, все, что можно полностью и однозначно выразить словами... реализуемо с помощью соответствующей конечной нервной сети" (11, с. 89). Фон Нейман возвращается к этой проблеме и в более поздней работе, относящейся к 40-м годам, в которой он пишет, что из результатов Маккаллока и Питтса "с совершенной определенностью... следует, что все, что можно описать словами, можно сделать на нейронах" (12, с. 65). Правда, он отмечает, что из результата Маккаллока и Питтса не вытекает, что в утверждении "о чем ты думаешь, ты можешь описать" не осталось никаких проблем. Он подчеркивает также, что отмеченный вывод следует из математических теорем не с математической, а с философской точки зрения. Он делает и ряд других оговорок, часть которых будет рассмотрена ниже.
Тем не менее, после оценок фон Нейманом результатов Маккаллока и Питтса их теоремы стали рассматриваться как математическое доказательство возможности передачи машинам любых функций, выполняемых нервной системой, и в частности функций интеллекта. Подобные утверждения встречаются и в современной кибернетической литературе. Так, Н. С. Сатерленд считал, что доказательства Маккаллока и Питтса означают, что "любое устройство обработки информации (следовательно, и мозг. - С. Ш.) можно представить в виде релейной схемы так, что при этом будет обеспечена эквивалентность соотношений входов и выходов в обоих устройствах" (13, с. 26). Отсюда он делает вывод о том, что логики обработки информации человеком и машиной тождественны. Такую же трактовку результата Маккаллока и Питтса дают и некоторые советские кибернетики (14).
В советской философской литературе встречаются ссылки на этот результат, так же как на математическое доказательство возможности передачи машинам любой задачи переработки информации, осуществляемой мозгом. Л. Б. Баженов, подвергнув критике ряд попыток отдельных авторов указать конкретные черты мышления или задачи переработки информации, решаемые мозгом и не допускающие воспроизведения в кибернетических устройствах, писал: "Основное, однако, в опровержении "конкретных" аргументов состоит даже не в рассмотрении каждого из них порознь. Существует чрезвычайно важная общая теорема (теорема Маккаллока - Питтса), делающая, если угодно, излишним рассмотрение каждого отдельного конкретного аргумента" (15, с. 368).
В другой работе он утверждал, что теорема Маккаллока - Питтса сводит вопрос о выполнении любой функции головного мозга к вопросу о познаваемости этой функции. Он считал, что результаты Маккаллока и Питтса позволяют сделать вывод: любая строго очерченная область мыслительной деятельности человека в принципе может быть алгоритмически описана и, следовательно, воспроизведена машиной. Этот вывод автор называет основным гносеологическим результатом кибернетики (16, с. 7; см. также 17, с. 351 - 352).
В исследованиях других авторов также проводится мысль о том, что результаты Маккаллока и Питтса математически доказывают возможность создания искусственного интеллекта. В сущности утверждается, что математически доказана возможность передачи цифровым машинам любых функций, выполняемых человеческим мозгом. В аргументации этих авторов в основном воспроизводятся доводы фон Неймана (однако, как правило, не приводятся его оговорки, ограничивающие доказательную силу гносеологических выводов из результата Маккаллока и Питтса).
На наш взгляд, изложенная точка зрения на теоремы Маккаллока и Питтса логически не безупречна. Прежде всего утверждение о том, что любая функция человеческого интеллекта может быть воспроизведена формальной нервной сетью (или конечным автоматом), не может быть доказана формально, т. е. принятыми в математической логике методами, ибо понятие функции человеческого интеллекта - это содержательное, а не формальное понятие. "Нервная сеть" (как и "формальный нейрон") - это аксиоматически заданные формализованные понятия. Эквивалентность (или вообще соотношение) между формализованным и содержательным понятием не может быть проанализирована на формальном уровне, доказана в рамках математической логики. Это относится и к другим аналогичным утверждениям, которые тоже не могут быть доказаны средствами математической логики.
Игнорирование принципиальных различий между формализованным и содержательным понятиями является причиной ряда гносеологических неточностей. Соотношение содержательного понятия и его формальной экспликации - самостоятельная проблема. Здесь возможны различные варианты. Формальный экспликат часто бывает уже по объему, чем эксплицируемое интуитивное содержательное понятие. Они могут быть равны по объему. Наконец, экспликат может быть и шире эксплицируемого. В каждом случае для сопоставления их объемов требуется содержательный анализ.
Таким образом, распространять результаты Маккаллока н Питтса на любые функции человеческого интеллекта или даже на описанные конечным количеством слов неправомерно, если при этом не учитывается содержательный анализ указанных функций в их отношении к логическому исчислению, которым непосредственно оперируют в рассматриваемых теориях.
Невозможно также строго доказать, что формально описанная функция реальной нервной системы может быть реализована формальной нервной сетью. На первый взгляд в этом случае речь идет о соотношении двух формальных понятий. На самом деле это не так. Формальная нервная сеть в понимании Маккаллока и Питтса - это действительно строго логически определенное понятие. А формально описанная функция реальной нервной системы - это понятие, подлежащее уточнению посредством указания логического языка, на котором это описание производится. Если такого уточнения нет, то это понятие не может быть объектом строгого математического доказательства. Следовательно, теоремы Маккаллока и Питтса относятся не к любым формально описанным функциям реальной нервной системы, а только к формально описанным вполне определенным образом функциям. Охватывают ли эти формальные описания и насколько функции реальной нервной системы, может быть выявлено лишь в результате содержательного анализа.
Поскольку результат Маккаллока и Питтса играет заметную роль в большинстве философских обсуждений вопроса о возможностях искусственного интеллекта, постольку необходимо выяснить, что же математически доказали Маккаллок и Питтс.
На наш взгляд, они обосновали, что всякое логическое выражение, удовлетворяющее некоторым условиям, эквивалентно формальной нервной сети. Описание, о котором идет речь (однозначное, логическое, определенное и т. п.), выражено на конкретном логическом языке. Это несколько модифицированный язык исчисления высказываний. Таким образом, они в сущности доказали эквивалентность в некотором смысле двух формализмов: исчисления высказываний и созданного ими формализма нервных сетей.
Фон Нейман в одной из своих работ писал, что результат Маккаллока и Питтса означает, что "общность нейронной системы (формальной - С. Ш.) точно такая же, как общность логики" (12, с. 64). Более точно следовало бы сказать не "...как логики", а как используемого ими логического исчисления.
Это не преуменьшает значения рассматриваемых теорем в становлении кибернетики. Они исторически сыграли важную роль в развитии теории конечных автоматов. Сами авторы теорем стремились сделать из них материалистические или во всяком случае антиагностические выводы. Функционирование нервной системы, утверждали они, перестает быть непознаваемой вещью в себе. Вывод этот, разумеется, не вызывает возражений. Однако он формально не вытекает из теорем, которые были ими доказаны. Он вообще не может быть формально обоснован. Это вывод философский.
Теперь перейдем к вопросу, можно ли на основе теорем Маккаллока - Питтса свести проблему возможности передачи функций головного мозга машинам к вопросу о познаваемости этих функций. Из соотношения между содержательными и формализованными понятиями следует, что такой вывод был бы ошибочным. В самом деле, как мы видели, Маккаллок и Питтс доказали эквивалентность некоторого исчисления и формальной нейронной сети. "Сведение", о котором здесь идет речь, было бы возможно при двух допущениях. Первое: любое познанное или познаваемое явление полностью выразимо на языке исчисления, которым оперировали Маккаллок и Питтс. Второе: мозг логически эквивалентен формальной нейронной сети. И то и другое допущения предполагают эквивалентность формализованного и содержательного понятий. Однако, как уже отмечалось, такая эквивалентность не может быть доказана без содержательного анализа. В данном случае необходимо содержательное описание таких сложных объектов, как познание и мозг. Уровень наших знаний об этих объектах очень далек от того минимума, при котором можно было бы прийти к более или менее обоснованному заключению об адекватности формальной модели этим объектам.
Вообще необходимо подчеркнуть, что формализовать некоторый объект (т. е. создать формальную его модель) и познать его - не одно и то же. С одной стороны, моделирование как познавательный метод не может выйти за пределы общих закономерностей познания, в частности закономерности движения к абсолютной истине через относительные. Это значит, что наличие формальной модели объекта (мозга, психики, мышления) не гарантирует ее адекватности самому объекту. В процессе развития науки одни модели (как и теории) могут замещаться другими. Некоторые модели могут оказаться даже ошибочно соотнесенными с объектом. С другой стороны, объект может быть познан и без создания формализованной его теории. Известно немало превращений "вещей в себе" в "вещи для нас" без построения формализованных теорий.
Несколько по-иному, чем рассматриваемые авторы, подходил к этому вопросу В. М. Глушков. "Возможность программирования в ЭВМ любых правил преобразования информации, - писал он, - вытекает из алгоритмической полноты системы их элементарных операций. Факт наличия такой полноты установлен сегодня со степенью достоверности во всяком случае не меньшей, чем достоверность любого из известных сегодня фундаментальных законов природы" (8, с. 166). Как видно, алгоритмическая полнота системы элементарных операций ЭВМ установлена не с математической достоверностью, а с достоверностью, с которой наука установила известные ныне фундаментальные законы природы. Между тем и другим утверждением, с нашей точки зрения, существует принципиальная разница.
Абстрактные объекты, которыми оперирует математика, или физические тела знаков, которые используются в формализованных системах математической логики, могут и не быть неисчерпаемыми, а природа неисчерпаема. Всякая формулировка закона природы на любом уровне развития науки относительна, приблизительна. В истории науки известно немало случаев, когда законы, считавшиеся универсальными, не оказывались таковыми. Так, закон сохранения массы вещества считался абсолютным до тех пор, пока не было открыто превращение вещества в поле. Достоверность такого рода законов базируется на том, что, систематически расширяя область их применения, наука нигде не сталкивается с их нарушением.
Признание алгоритмической полноты системы элементарных операций ЭВМ вытекает из того, что не обнаружено ни одного случая, чтобы некоторые правила преобразования информации были описаны и тем не менее в принципе не смогли бы быть запрограммированы в ЭВМ. Хотя некоторые психологи полагают, что такого рода операции существуют, однако никто не попытался даже приблизительно обрисовать свойства такого рода операций. Это делает весьма вероятной гипотезу, развиваемую В. М. Глушковым. Однако лишь вероятной, а не достоверной. Это тем более так, что нельзя полагать, будто наши знания методов переработки информации мозгом или мышлением человека достаточно полны. Скорее прав Э. Хант (18), утверждающий, что человеческое мышление основано на физиологической системе, о которой известно немногим более, чем ничего. Это относится и к системе, описывающей переработку информации человеком, абстрагируясь от материального субстрата этой переработки.
Поскольку алгоритмическая полнота операций в ЭВМ (т. е. эквивалентность их системы системе переработки информации мозгом) остается гипотетичной, постольку из познаваемости правил переработки информации мозгом и мышлением тоже лишь гипотетически следует возможность создания искусственного интеллекта, выполняющего совокупные функции мозга человека. Конечно, правила переработки информации мозгом познаваемы, но при этом не исключено, что они не формализуемы в системе элементарных операций, реализуемых цифровой машиной. Как первое, так и последнее предположение требуют доказательства. Таким образом, познаваемость некоторого объекта не обязательно влечет за собой возможность его формализованного описания на языке исчисления высказываний или на любом ином конкретном формализованном языке. Это допущение остается гипотезой. Следовательно, и "сведение" проблемы искусственного интеллекта к познаваемости функций естественного интеллекта не является логически необходимым.
Рассмотрим второе допущение - эквивалентность (с логической точки зрения) мозга и формальной нейронной сети. Проблематичность такого допущения понимал и фон Нейман. Он чувствовал различие между формальным и реальным нейроном и в связи с этим подчеркивал значение аналоговых свойств и случайности в функционировании нервной системы. Поэтому он считал, что для понимания высокосложных автоматов, и в частности центральной нервной системы, потребуется существенно новая логическая теория; не исключается, что логика вынуждена будет "превратиться" в неврологию в гораздо большей степени, чем неврология в раздел логики. Фон Нейман предвидел необходимость приспособления логики к неврологии, если логика претендует на описание функционирования реальной нервной системы. Иными словами, он понимал недостаточность существовавших в тот период формализмов для описания функционирования центральной нервной системы.
Таким образом, результаты, полученные Маккаллоком и Питтсом, не являются математическим доказательством того, что любой шаг переработки информации или любая отдельная фаза этой переработки, осуществляемая мозгом, осуществима и ЭВМ. Но если даже принять это положение, то из него не вытекает (с математической строгостью), что ЭВМ может выполнить любые функции человеческого интеллекта. Из теорем Маккаллока и Питтса следует: любое поведение, описываемое конечным количеством слов, можно осуществить на сети из формальных нейронов. Однако возникает вопрос, всякое ли поведение - даже если каждый его шаг описываем в соответствующем исчислении - можно описать конечным количеством слов в этом исчислении. Фон Нейман отмечал проблематичность такого вывода. Для пояснения своей мысли он приводил пример узнавания треугольников. Человек обычно называет треугольником не только ту фигуру, которую называют треугольником в геометрии, но и фигуру с искривленными сторонами или только с обозначенными вершинами и т. д. Иными словами, человек называет треугольниками много различных вещей, каждая из которых носит некоторые черты треугольника, Чем больше таких черт, деталей мы стремимся учесть, тем длиннее будет наше описание. "При этом каждый такой случай в отдельности, - пишет фон Нейман, - мы еще в состоянии описать, но когда речь идет обо всем зрительном механизме, позволяющем интерпретировать рисунок, вкладывать что-то в него, мы сталкиваемся с областями, заведомо не поддающимися описанию на этом языке" (12, с. 66).
К такого рода случаям доказательства Маккаллока и Питтса неприменимы. Правда, мысль фон Неймана здесь идет не в направлении ограничения возможностей автомата. Он подчеркивает, что когда сам автомат и его поведение сложны, то может оказаться, что описание самого автомата проще, чем описание его функций. Из этого можно сделать вывод о возможности создания автомата, реализующего поведение, которое не может быть описано конечным количеством слов в любом исчислении. Таким образом, результат, полученный Маккаллоком и Питтсом, не является математическим доказательством возможности воспроизведения на ЭВМ любой функции человеческого интеллекта. Этот вопрос остается открытым.
Перейдем теперь к анализу утверждения о том, что существует математическое доказательство наличия проблем, решаемых человеческим интеллектом и принципиально недоступных для решения какими бы то ни было техническими системами. С этой точки зрения наличие алгоритмически неразрешимых классов задач, единичные задачи или частные подклассы которых решаются человеком, является убедительным доказательством превосходства человеческого интеллекта над машинным, т. е. доказательством того, что существуют задачи, решение которых доступно естественному и недоступно искусственному интеллекту.
Ошибочность такого рода утверждений лежит в той же плоскости, что и ошибочность интерпретации результатов, полученных Маккаллоком и Питтсом. Доказательства существования неразрешимых массовых проблем базируются на математическом уточнении понятия "алгоритм" и представляют собой строгие логико-математические доказательства о свойствах формально заданных объектов. Мозг или мышление формально не описаны. Нет пока и более или менее адекватной формальной модели мозга или мыслительного процесса. Следовательно, уже из этих общих соображений вытекает, что теоремы об алгоритмической неразрешимости некоторых массовых проблем не могут быть непосредственно использованы для сопоставления технических реализаций формальных систем, с одной стороны, и человеческого интеллекта - с другой, с точки зрения их информационных возможностей.
Рассуждения о невозможности решения машинами алгоритмически неразрешимых проблем базируются на следующих посылках. Во-первых, любой алгоритм эквивалентен математически уточненному понятию алгоритма (в частности, машине Тьюринга). Во-вторых, всякая техническая система обработки информации эквивалентна машине Тьюринга с конечной памятью. Машины, имеющие большие возможности, чем машина Тьюринга, невозможны, т. е. машина Тьюринга - это предел, к которому приближаются реальные машины и который (в связи с бесконечностью ленты) никогда не может быть достигнут.
Первое из этих положений выражает основную гипотезу теории алгоритмов. Хотя она и не может быть строго доказана, но обладает большой убедительностью, потому что все уточнения понятия "алгоритм", полученные различными путями (машина Тьюринга, нормальный алгоритм А. А. Маркова и др.), оказались в принципе эквивалентными друг другу. В пользу истинности этой гипотезы говорит и тот факт, что все разработанные алгоритмы эквивалентны математически уточненным понятиям алгоритма. При всей правдоподобности основной гипотезы теории алгоритмов не следует забывать, что это только гипотеза.
Другая посылка - всякая техническая система обработки информации эквивалентна машине Тьюринга - не обоснована вообще. Некоторые авторы утверждают, что математика доказала существование задач, решение которых недоступно для машины, но доступно для мозга. Но как математика могла это сделать?
Если сопоставить переработку информации мозгом и техническими системами, то можно сделать два взаимоисключающих предположения: а) мозг (как и технические системы) работает в конечном счете алгоритмически; б) мозг (в отличие от технических систем) работает не алгоритмически и способен решать алгоритмически неразрешимые проблемы.
Допустим, что мозг действительно функционирует алгоритмически (так полагал, например, А. Тьюринг). В этом случае наличие алгоритмически неразрешимых задач накладывает ограничения и на мозг, и на ЭВМ (которая, по предположению, эквивалентна машине Тьюринга). Иначе говоря, если мозг работает алгоритмически, то существование алгоритмически неразрешимых проблем не дает оснований для утверждения о наличии задач, решаемых естественным интеллектом и не разрешимых для ЭВМ.
Если принять другое предположение, что человеческий мозг в отличие от технических систем умеет решать алгоритмически неразрешимые проблемы, то мы придем к тому же выводу.
Допустим, что невозможность машинного решения алгоритмически неразрешимых проблем означает, что машина не может решить все задачи данного класса одним способом. Но одним способом их не может решить и человек. Именно это и доказывается, когда говорят, что для данной массовой проблемы нет алгоритма. Невозможность машинного решения алгоритмически неразрешимых проблем можно понимать и как неспособность машины решать единичные задачи из этого класса. Человек неалгоритмически (творчески) находит такие решения, а машина не может. Что из этого следует?
При математическом описании той или иной системы в явной форме не учитывается ее материальный субстрат. Для математики и математической логики безразлично, из чего состоят системы (из ламп, реле, интегральных схем, нейронов и т. д.), для них несущественно, чем отличается биологическое от небиологического. Следовательно, если бы существовало математическое доказательство невозможности решения алгоритмически неразрешимых задач любой технической системой (а не только системой с определенной структурой, а именно эквивалентной машине Тьюринга с конечной памятью), то - при условии, что это доказательство в неявном виде не содержит характеристики субстрата элементов системы, - оно относилось бы к любой (а не только к технической) системе, следовательно, и к мозгу. Такое доказательство оказалось бы в противоречии с предположением о способности мозга неалгоритмически решать те или иные задачи.
Итак, и допущение неалгоритмического характера работы мозга не позволяет считать обоснованными доводы о преимуществе мозга перед техническими системами в решении задач переработки информации, исходящие из неразрешимости массовых проблем.
Конечно, не исключено, что в перспективе будет создана математическая модель, более или менее адекватно воспроизводящая структуру мозга, а также будут установлены возможности и границы реализации таких структур на различных субстратах. В этом случае не исключается, что можно будет формально обосновать доступность для мозга решения определенных задач, которые не могут решить цифровые машины или иные технические системы. Однако пока в кибернетике нет реальных данных в пользу такой гипотезы. Если мозг действительно способен неалгоритмически решать те или иные задачи, а его преимущества перед совокупностью технических систем не доказаны, то отсюда следует, что одна из важных задач кибернетики и нейрофизиологии заключается в раскрытии логических структур неалгоритмической работы мозга, а затем и в попытках воспроизведения этих структур искусственными методами. По этому пути идут, в частности, математики, создающие формализмы нестандартного типа.
Не разграничивает возможности мозга и технических систем и теорема Геделя о неполноте формализованных систем, достаточно богатых логическими средствами. Как отмечал еще А. Тьюринг (7), ограничения, вытекающие из теоремы Геделя, в равной степени распространяются на человека и машину. Если в той или иной формализованной системе объективно не существует дедуктивной цепочки, ведущей от совокупности аксиом к теореме, выводимость которой анализируется, или к ее отрицанию, то такую цепочку не может написать ни машина, ни человек.
Как отмечал В. М. Глушков (19), дело не только в том, что ограниченности формализмов в одинаковой мере относятся к функционированию как технической системы, так и мозга. Не исключено, что средства преодоления ограниченностей формальных систем, используемые человеком, могут быть воплощены и в технических системах.
Развитие математической логики и теории доказательства показало, что ограничения, вытекающие из теорем Геделя о неполноте формализованных систем, не абсолютны. Теоремы Геделя, как было показано в гл. III, в сущности непосредственно касаются лишь формализмов определенного типа (систем, в которых используется только конечное число шагов). На деле машина (как и человек) может осуществить в процессе доказательства только такое число шагов. Однако человек может использовать и "нефинитные" правила вывода, например трансфинитную индукцию, которая опирается на аксиому, позволяющую принять вывод, базирующийся на бесконечном числе шагов, не проделывая их реально. Если такого рода аксиома или правило вывода будет заложено в машину, то и она, используя трансфинитную индукцию, сможет обойти геделевскую теорему о неполноте формализованных систем. Речь идет о преодолении ограниченности формализма в рамках другого формализма.
Существенно также, что теоремы Геделя доказывают не только неполноту формализованных систем определенного рода, но и возможность расширения этих систем (при этом и расширенные системы останутся неполными). В таких системах некоторые неразрешимые задачи становятся разрешимыми. Расширение происходит за счет включения в систему дополнительных аксиом. Нахождение их не является формальной процедурой в традиционном смысле. Человек находит (изобретает, формулирует) такого рода аксиомы не формально, а используя совокупность имеющихся знаний, а при необходимости может получить новые знания. Ограниченности формальных систем человек преодолевает в процессе содержательного мышления, развивающегося на основе практической деятельности. Но отсюда не следует, что и техническая система, в памяти которой содержатся разнообразные знания о том или ином классе объектов и которая способна извлекать информацию из внешнего мира, не может доказать теорему, недоказуемую в некоторой формальной системе, расширив эту систему посредством добавления новых аксиом.
Как показала практика разработки ЭВМ и их математического обеспечения, между возможностью машинного доказательства теорем из определенной формальной системы и разрешимостью этой проблемы не существует жесткой связи: наличие решения в теории не гарантирует того, что будет найден практически приемлемый алгоритм для доказательства произвольной теоремы; неразрешимость теории не является препятствием для доказательства в ней отдельных теорем.
Приведенные рассуждения, на наш взгляд, достаточны для вывода о том, что не существует математического доказательства наличия задач, доступных естественному и недоступных искусственному интеллекту. Итак, нет математических доказательств ни доступности ЭВМ произвольной задачи, решаемой интеллектом человека, ни существования задач, решаемых человеком и недоступных никакой технической системе. Анализ возможностей искусственного интеллекта не может базироваться непосредственно на тех или иных положениях математики или математической логики. Он должен опираться на гносеологический анализ реальных достижений и трудностей в создании искусственного интеллекта. К такому анализу мы и переходим.


ГЛАВА VI
ДОСТИЖЕНИЯ И ПРОБЛЕМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
1. Сущность и возможности
эвристического программирования
Попытки преодолеть ограниченность традиционных методов использования ЭВМ привели к возникновению эвристического программирования. "Эвристика (эвристическое правило, эвристический метод), - пишут кибернетики Э. Фейгенбаум и Дж. Фельдман, - это основанные на опыте правило, стратегия, ловкий прием, упрощение или иное средство, существенно ограничивающее поиск решения сложных задач... Эвристическая программа - это программа, пользующаяся при решении сложных задач эвристикой" (1, с. 29). В данных определениях подчеркивается несколько моментов. Прежде всего, эвристика - это не абсолютно стандартное правило, а "ловкий прием", что, правда, не исключает его применения к широкому классу задач. Тогда этот "ловкий прием" превращается в стратегию. Во-вторых, это правило существенно ограничивает пространство поиска, т. е. дает возможность не испытывать все варианты, все ветви дерева, по которому в принципе он может двигаться, а использовать лишь часть из них, отсекая по каким-то критериям другие ветви. Сокращение пространства поиска - важнейшая черта эвристики.
Алгоритмы, реально используемые людьми (и базирующиеся на них программы), в подавляющем большинстве случаев не являются переборными, т. е. они не заставляют решающего задачу в поисках ответа двигаться по всем коридорам лабиринта. Следовательно, они тоже сокращают пространство поиска. Более того, они жестко определяют путь движения к решению, и, следовательно, для решающего задачу по алгоритму коридоры, не предусмотренные этим алгоритмом, не существуют. Однако алгоритм ведет к решению любой задачи, к которой он применим (2). Использование эвристики не дает полной гарантии, что на выходе ЭВМ появится результат, который может рассматриваться как решение задачи.
Человек систематически прибегает к эвристическим методам, как он пользуется и логическими структурами. Но в отличие от логических структур эвристические методы не стандартны или значительно менее стандартны, чем правила логического вывода. Они в большей мере индивидуальны. Эвристические методы значительно менее выявлены, чем логические структуры, правила логического вывода. Это обусловлено главным образом тем, что эвристические методы в изложении знания, как правило, элиминированы и лишь в отдельных случаях сохраняются частично.
Поиском, описанием эвристических методов, их систематизацией и превращением в правила занимались Ф. Бэкон, Р. Декарт и другие философы. Однако выведенные ими правила очень общи и не могут рассматриваться как более или менее конкретные предписания. Разработка и описание эвристических приемов в ряде случаев связаны с развитием теории обучения. В наиболее явной форме это сделано в работах Д. Пойа (3; 4; 5). В принципе многие из этих приемов поддаются формализации, а значит, и превращению в машинные программы. Тем не менее, анализ эвристик осуществлен недостаточно.
Поскольку количество явно сформулированных эвристик небольшое, то важным источником формирования машинных эвристических программ являются непосредственные беседы с человеком, описывающим ход своей мыслительной деятельности, как она ему представляется. Используются также фиксация размышлений вслух, наблюдения за деятельностью человека той или иной профессии. Это значит, что некоторые эвристические машинные программы представляют собой детализацию и формализацию человеческих эвристик. Вместе с тем создаются и специальные машинные эвристические программы, последовательность операций в которых отличается от последовательности мыслительных операций, используемых человеком. К числу таких эвристик относится, например, программа А. Сэмюэля для игры в шашки (1, с. 71 - 111). В этой программе учитываются особенности машины, которая успешно играет против мастера.
Многие исследователи подчеркивают фактическую тождественность эвристических и алгоритмических программ. Они указывают на то, что любая программа, внесенная в машину, носит алгоритмический характер: последовательность шагов ЭВМ эквивалентна шагам машины Тьюринга. Это верно. Однако здесь, на наш взгляд, существует и важное различие. Машина всегда имеет алгоритм работы, содержащийся в ее программе, в том числе и тогда, когда программа носит эвристический характер. Но из этого не следует, что алгоритм работы машины (в случае эвристической программы) эквивалентен алгоритму решения (в математическом смысле этого слова) массовой проблемы, единичная задача из которой машиной решается.
Если мы имеем некоторую массовую проблему, то алгоритм ее решения представляет собой совокупность элементарных шагов, ведущих от информации, которая содержится в варьируемых условиях проблемы, к результатам. Алгоритм применим к каждой единичной задаче из этой проблемы, и программа, которая на нем базируется, приводит к появлению на выходе машины соответствующего решения именно этой задачи.
Теперь допустим, что для данной проблемы доказано отсутствие алгоритма, или что эвристическая программа не базируется на алгоритме, и ЭВМ не нашла решения. Машина шла от определенных исходных данных к результату, ибо для нее результат всегда оговорен (включая остановку, например, после определенного количества шагов). Но алгоритм работы машины в данном случае (поскольку решение не найдено) не есть алгоритм решения соответствующего класса задач. Если машина нашла решение, то алгоритм, по которому она работала, от этого не стал алгоритмом решения массовой проблемы, единичную задачу из которой решила ЭВМ. Эвристика резко сокращает область поиска, т. е. отбрасывает из этой области такие пути, которые по тем или иным критериям могут привести к результату лишь с малой вероятностью, хотя последняя редко поддается математической оценке. Эвристики могут быть более или менее универсальными или специализированными, т. е. опирающимися на данные конкретных областей знания. Сокращение области поиска по сравнению с алгоритмическими методами может происходить в принципе в десятки, сотни или даже тысячи раз.
Эвристические методы, резко сокращая пространство поиска, зачастую приводят к тому, что решение задачи не достигается. Это относится и к машине, и к человеку. Ученые упускают открытия, которые, как потом оказывается, почти находились в руках, но избранная эвристика провела их хотя и рядом, но мимо. Эвристика не гарантирует не только достижения лучшего ("оптимального") результата, но и получения решения проблемы вообще (даже если заведомо известно, что такое решение существует).
Возникает вопрос: если эвристика не гарантирует достижения результата, то стоит ли применять ее в машинах и создавать специальные машинные эвристики? Когда машинам передаются в качестве программ алгоритмы, которыми владеет человек, но не может их практически реализовать за приемлемое время, то цель ясна. Он посредством машины преодолевает ограниченное быстродействие человеческого интеллекта. С эвристиками дело как будто обстоит по-иному. Здесь человек награждает ЭВМ собственными недостатками: он не может получить гарантированного результата, и машина тоже не может. Иногда говорят, что незачем создавать машину с человеческими недостатками, что это в лучшем случае имеет смысл для моделирования мышления, т. е. для исследования самого мыслительного процесса, но не для решения проблем искусственного интеллекта.
На наш взгляд, это не так. Недостатки, о которых идет речь, имеют место в человеческой деятельности не случайно. В ходе эволюции человек обрел эти недостатки не потому, что они способствовали выживанию его предков в процессе естественного отбора или возвышению над природой в процессе развития общества. Они - результат компромисса, совершившегося в ходе эволюции, продукт взаимодействия противоречивых факторов. Такими же являются машинные эвристические программы. Выигрыш, оплачиваемый негарантированностью решения и заведомой неоптимальностью пути, многообразен.
Во-первых, при использовании эвристических программ расширяется круг задач, решаемых на ЭВМ, за счет единичных задач из алгоритмически неразрешимых массовых проблем и, следовательно, повышается эффективность живого человеческого труда при переработке информации. Если машина реализует ту же эвристику, что и человек, то ей для решения задачи требуется значительно меньше времени, чем человеку. Это особенно важно при использовании эвристических программ для решения задач управления в реальном масштабе времени.
Во-вторых, высокое быстродействие машины позволяет анализировать варианты на значительно большую глубину, и, следовательно, повышается качество исследования и сопоставления альтернатив. Это дает возможность проанализировать в сотни раз больше вариантов, чем это может сделать человек. Их сопоставление уменьшает опасность упустить решение или наиболее эффективное решение. Эти преимущества ЭВМ, сказывающиеся уже при применении человеческих эвристик, превращенных в машинные программы, проявляются еще отчетливее, когда составляются специальные машинные эвристики. Это означает, что для ряда задач человек, не используя машины или составляя программы, переводящие на машинный язык лишь алгоритмы решения массовых проблем, фактически не может найти решения, а используя эвристические программы, он их находит. Таким образом, машины, работая по эвристическим программам, хотя и воспроизводят некоторые ограниченности, присущие человеку, их использование целесообразно.
Разработка эвристических программ шла по двум основным направлениям. Во-первых, по пути создания специализированных программ, предназначенных для решения относительно узких классов задач и использующих особенности этих классов. Во-вторых, по пути создания программ, претендующих на универсальное замещение человеческого интеллекта. Часто программы второго типа рассматривались как модели мыслительного процесса.
Эвристические программы представляют собой более высокий уровень использования ЭВМ, чем программы, основанные только на классических алгоритмах. Снабжая машины традиционными алгоритмами решения, человек передает им нетворческие функции. Переводя на язык машины эвристику, он передает машине задачу, которая и для человека, располагающего такой эвристикой, остается творческой. Короче, использование эвристических программ повышает "интеллектуальный уровень" машины.
Функционирование эвристических программ свидетельствует об отсутствии жесткой связи между наличием алгоритма решения массовой проблемы или полнотой формализованной теории, с одной стороны, и возможностью решения задачи или доказательства теоремы при помощи ЭВМ - с другой. Конечно, если в неполной формализованной теории не существует цепочки переходов от аксиом к некоторой теореме или ее отрицанию, то ее ЭВМ не может найти (как ее не может найти и человек), но если такая цепочка существует, то она может быть найдена ЭВМ и при отсутствии алгоритмического (в строгом смысле) метода ее отыскания. Эта цепочка обнаруживается эвристической программой, как и человек тоже обычно находит доказательства теорем без помощи алгоритмов.
Таким образом, опыт эвристического программирования показывает, что если для решения данной массовой проблемы не существует алгоритма, то все же для решения некоторых задач из этой проблемы может быть составлена машинная программа (например, эвристическая; правда, она не всегда приводит к результату). Если для решения данной массовой проблемы существует алгоритм, то, как было отмечено выше, на его основе не обязательно возможно создать машинную программу. Наиболее ярко это подтверждается в случае алгоритма перебора в конечных задачах с большим количеством возможных вариантов (например, для игры в шахматы). Алгоритм, если он практически нереализуем, вообще говоря, не содержит указаний для перехода к реализуемому алгоритму или целесообразной эвристике. Правда, разработаны различные методы преобразования алгоритмов, позволяющие в ряде случаев из исходного алгоритма получить новый, реализуемый за меньшее число шагов. При этом не исключается, что среди алгоритмов, эквивалентных исходному, найдется и практически реализуемый. Однако на современном этапе развития теории вычислений заранее нельзя сказать, насколько оправданна такая надежда применительно к той или иной задаче (6). Наличие алгоритма не только не содержит указаний к поиску практически реализуемого алгоритма или эвристики, но и вообще не гарантирует существования метода решения задачи на ЭВМ.
Несмотря на достигнутые в эвристическом программировании результаты, программы создания "общего интеллекта", т. е. относительно универсальной эвристической программы, не существует. Более того, программы, рассчитанные на это, позволяли в действительности решать лишь довольно специальные (хотя и широкие) классы проблем. Это относится и к самой общей из созданных эвристических программ, разработанной еще в начале 60-х годов А. Нюэллом, Г. Саймоном и др., к так называемому общему решателю задач (1, с. 283 - 300; 7).
Эта программа достигает цели (например, доказательства теорем в теориях, изложенных на языке исчисления предикатов) посредством установления ряда промежуточных подцелей, которые временно становятся целями. Ими могут быть преобразование некоторого объекта в другой (например, преобразование одного символического выражения в другое) на основе фиксированных правил, уменьшение различия между двумя объектами, применение оператора к объекту. Эти цели достигаются в соответствии с определенными схемами. Так, чтобы преобразовать объект А в объект В, их вначале сравнивают, т. е. приводят в соответствие и сопоставляют элемент за элементом. Если обнаруживается различие, то оно измеряется и задается подцель - уменьшить это различие. Если эта подцель достигнута, то сформирован новый объект С, различие между которым и объектом В меньше, чем между объектами А и В. Далее задастся подцель - преобразовать объект С в B и т. д.
Авторам программы и многим их последователям казалось, что она способна выполнять все или почти все функции человеческого интеллекта. На первый взгляд это действительно так: если в программе четко очерчена цель, намечены исходные условия и фиксирован круг возможностей, то она действительно может работать. Однако отмеченные условия, необходимые для ее реализации, представляют собой существенные ограничения. Вместе с тем даже там, где перечисленные условия соблюдены, применение программы общего решателя задач к конкретным их классам сталкивается со значительными, а порой и непреодолимыми трудностями. С программами такого типа в 60-х - начале 70-х годов связывались надежды на создание искусственного интеллекта широкой сферы действия, но они не оправдались. Это было воспринято как кризис кибернетики, а создание искусственного интеллекта объявлялось мифом (8; 9).
Трудности и неудачи, постигшие эвристическое программирование, на наш взгляд, в значительной степени связаны с тем, что не были учтены реальные гносеологические характеристики человеческого интеллекта. Чтобы это показать, мы сопоставим методы, используемые в эвристическом программировании, с гносеологическими характеристиками мышления, которые даны в первых главах.
Программа "общий решатель задач", как и аналогичные эвристические программы, является, в сущности, программой решения задач лабиринтного типа. Это значит, что заданы конечная цель (конечная площадка лабиринта), условия (начальная площадка лабиринта) и множество коридоров (совокупностей последовательных шагов), часть из которых ведет к конечной площадке, а часть - нет. Задача заключается в выборе из множества коридоров тех, которые ведут к конечной цели. Этот выбор не является абсолютно случайным. Две соседние площадки сопоставляются по определенному критерию: с точки зрения их близости к конечной площадке. Если расстояние увеличивается, то движение в избранном направлении прекращается, и, следовательно, ряд коридоров перекрывается. Это значит, что пространство поиска сокращается и, выражаясь словами Эшби, отбор происходит на ступеньку выше случайного, т. е. программа действует разумно (10).
Прежде всего, понимание мышления как решения задач лабиринтного типа сводит деятельность интеллекта только к выбору. Такая трактовка мышления с философской точки зрения ошибочна. Сторонники ее видят сущность интеллекта и человека вообще в способности к выбору в узком смысле слова. Однако в действительности выбор не является высшей творческой функцией ни мышления, ни человеческой деятельности вообще. Подлинное творчество включает но только выбор из заранее заданных возможностей, но и целеполагание, формирование возможного комплекса целей, между которыми затем происходит выбор, а также различных путей их достижения, которые тоже выбираются.
Конструирование "пространства возможностей", т. е. мысленное формирование совокупности вариантов, один из которых затем человек выбирает, свидетельствует о творчестве лишь тогда, когда происходит не бессмысленное комбинирование или фиксация всей совокупности абстрактных возможностей, допускаемых условиями задачи (правилами логики при доказательстве теорем, правилами игры в шахматы и т. д.). Человек, решая задачу, с самого начала включает в "пространство возможностей" не все абстрактно допустимые варианты, а, опираясь на ряд элементов содержания своей памяти, конструирует относительно ограниченное "пространство", в котором затем ищет решение задачи (11). Таким образом, программа "общий решатель задач" и аналогичные эвристические программы уже потому не могут претендовать на функциональное замещение человеческого интеллекта, что ряд важнейших творческих задач не относится к типу лабиринтных.
В психологической литературе, особенно в работах В. Н. Пушкина, отмечается, что ряд аспектов творчества, в особенности "творческое озарение", вообще не укладывается в задачи типа лабиринтных, поскольку сознанию известны только "начальная" и "конечная" площадка или даже только "конечная" площадка. В. Н. Пушкин и Д. А. Поспелов (12; 13; 14) подчеркивают, что эвристические программы типа "общего решателя задач" характеризуются жестким разделением условий задач и операций. С гносеологической точки зрения предельная жесткость такого расчленения характеризует формальные методы познавательного процесса. Человеческий же интеллект функционирует содержательно. А это означает, что решение задач представляет собой не применение правил, которыми человек располагает заранее, к некоторой, уже стандартизированной ситуации, а выработку или, по меньшей мере, отбор правил в соответствии с конкретной ситуацией. Программы типа "общего решателя задач" не предусматривают такой возможности. Анализ ситуации в этой программе основан только на определении степени близости между площадками лабиринта (например, количество совпадающих символов у последовательно порождаемых эвристикой символических выражений). Критерий близости определен заранее и одинаков для широкого круга проблем, например для любых задач по доказательству теорем независимо от структуры теории и характера теоремы, которая доказывается. Программа охватывает только локальный участок лабиринта (пару соседних площадок), тогда как человеческое мышление - все познаваемое целое.
Наиболее существенная ограниченность таких эвристических программ заключается в их, так сказать, синтаксическом характере, т. е. в том, что символы, используемые в этих программах, не имеют интерпретации. Следовательно, содержательные связи между понятиями, представленными символами, игнорируются. Для решения задачи программа использует только условия ее и синтаксис языка - правила оперирования его знаками.
Мы видели, что с точки зрения гносеологии характерная черта образа заключается в наличии иерархической структуры. Физическое тело знака, значением которого является минимальный образ, в психике индивида неразрывно связано с этим значением, которое индуцирует в сознании целостный образ. Сам образ представляет собой лабильное образование, на периферии которого имеются полуосознаваемые компоненты. В подсознании активизируется содержание памяти, которое может быть использовано для решения задачи. Сложная структура образа дополняется сложностью его связей с другими образами. Короче говоря, в психике индивида при решении той или иной познавательной или практической задачи имеется целая сеть горизонтальных и вертикальных отношений, представляющих проблемную ситуацию и позволяющих ее перестраивать, конструировать на этой основе относительно узкий спектр возможностей и производить в нем содержательно обусловленный выбор.
В познавательном процессе общество и индивид используют ранее накопленные знания. Каждая познавательная операция не начинается с заранее фиксированного уровня. Программа действий совершенствуется в процессе работы, поскольку вновь полученная информация вписывается в существующую систему понятий и представлений. Новые знания приобретаются и используются посредством категорий, которыми располагает индивид.
В программе "общего решателя задач" в памяти ЭВМ не представлены ни сложная внутренняя структура образа, ни сеть его отношений с другими образами. Вновь поступающая информация фактически не используется. Очень сложна стыковка программы типа "общий решатель задач" с программами более конкретного порядка. Иными словами, ЭВМ, функционирующая по такой программе, поставлена в принципиально иные гносеологические условия, чем человек, решающий ту или иную задачу. С учетом этого различия сопоставление возможностей ЭВМ и человеческого мозга становится по существу бессмысленным. Поэтому и утверждение о кризисе эвристического программирования не может рассматриваться как аргумент для отрицания "интеллектуальных" возможностей ЭВМ вообще. Речь идет об ограниченности одной из возможностей некоторого конкретного направления развития искусственного интеллекта.
Эвристические программы позволяют решать разнообразные классы познавательных и практических задач. Они, несомненно (как и программы, базирующиеся на строгих алгоритмах), будут и впредь использоваться для решения многих задач. Однако эвристическое программирование, по-видимому, исчерпало себя или почти исчерпало как самостоятельный способ принципиального расширения круга задач, которые могут решаться посредством ЭВМ.
На основании гносеологического анализа функционирования человеческого интеллекта можно сделать вывод, что дальнейшее развитие искусственного интеллекта должно идти прежде всего по пути учета иерархической структуры образа и сети его отношений с другими образами. Это означает, что знак, используемый в машине, должен интерпретироваться, причем семантика, вложенная в машину, должна быть многоярусной. Семантические отношения, фиксируемые в памяти машины, должны, с одной стороны, подниматься до уровня использования формальных аналогов категорий, а с другой - опускаться до аналогов чувственных образов.
Нельзя сказать, что теоретики и разработчики проблем искусственного интеллекта с самого начала сознательно осмыслили эти задачи (как и другие возможности, вытекающие из гносеологического анализа абстрактного мышления). Тем не менее, внутренняя логика развития проблемы искусственного интеллекта породила стремление к его "семантизации". Эта тенденция наиболее четко выражена в развитии иерархических структур систем представления знаний. Разработка их является важным звеном в создании систем искусственного интеллекта. Рассмотрим этот вопрос в гносеологическом аспекте.
2. Проблема представления знания в системах искусственного интеллекта
Отдельные попытки использовать семантику в программах ЭВМ были предприняты еще в начале 60-х годов в целях развития методов эвристического программирования. Одной из наиболее плодотворных попыток являлась программа Г. Гелернтера по доказательству геометрических теорем (1, с. 145 - 175). Эта программа базируется на принципе интерпретации. Машина, подобно математику, использует при доказательстве теорем не только формально описанные аксиомы и правила вывода, но и чертеж, который представляет собой интерпретацию формальной системы. Он обладает богатыми эвристическими возможностями.
При доказательстве теоремы на основе программы типа "общий решатель задач" машина должна формировать огромное количество цепочек и исследовать большое число "лабиринтных площадок". Чертеж позволяет резко сократить "пространство возможностей". Допустим, что одна из подцелей при доказательстве какой-либо теоремы заключается в обосновании равенства некоторых отрезков, и машина начинает поиск цепочки, в конце которой должно стоять выражение, означающее равенство этих отрезков. При наличии эвристики, ориентированной на чертеж, не принимаются во внимание утверждения, которые не соответствуют чертежу, т. е. не просматриваются соотношения между отрезками, которые на чертеже имеют явно неодинаковую длину. Все формулы подцелей интерпретируются на чертеже. Если они на нем обоснованы, то они принимаются во внимание, в противном случае - нет. Экспериментальное исследование этой программы дало положительные результаты (1, с. 165 - 175).
"Семантизация" эвристического программирования в 60-х годах не получила развития. На наш взгляд, это было обусловлено главным образом тем, что возлагались чрезмерные надежды на эвристические программы, которые якобы имели универсальную сферу применения. Еще не была осмыслена необходимость работы над конструированием "специализированных интеллектов", что особенно подчеркивалось В. М. Глушковым (15).
В 70-х годах стало ясно, что искусственная интеллектуальная система должна содержать "модель мира", т. е. модель предметной области, по отношению к которой такая система должна решать задачи. Это и привело к концентрации внимания на разработке систем представления знаний. Речь идет о том, в какой форме в памяти машины должны быть представлены знания, образующие ее "модель мира", как эти знания целесообразно организовать, чтобы ЭВМ могла наилучшим образом воспользоваться ими при решении различного рода интеллектуальных задач. Важную роль в их создании сыграл опыт, накопленный при формировании информационно-поисковых систем, в которых хранящиеся знания с необходимостью должны быть определенным образом структурированы и систематизированы.
Примером системы представления знания могут быть так называемые семантические сети, в которых знаки имеют интерпретацию (поэтому сеть называют семантической) и отношения между ними образуют сеть, воспроизводящую определенные стороны связей между понятиями в психике человека. При их анализе наиболее четко проявляется необходимость учета гносеологических характеристик мышления для совершенствования систем искусственного интеллекта. Семантические сети - это особый тип представления знаний в ЭВМ. Они формируются посредством семантического языка, фиксирующего отношения между вещами (12; 13; 14; 16; 17; 18). Такой язык включает прежде всего множество так называемых базовых понятий, каждое из которых характеризуется своими признаками и их значениями. Например, на естественном языке слово "техникум" обозначает понятие, определяемое признаками (переменными): "дает специальное образование... такого-то уровня", "готовит специалистов для...". Первый признак (уровень образования), вообще говоря, может иметь два значения: "среднее" и "высшее"; для "техникума" - это "среднее". Значениями второго признака могут быть для "производства", для "народного образования", для "здравоохранения" и т.д. Для понятия "техникум" этот признак имеет значение для "производства". Слово "пединститут" обозначает понятие, которое имеет те же признаки, что и "техникум" ("дает специальное образование... уровня" и "готовит специалистов для..."), но значения этих признаков иные. Для первого признака это "высшее", а для второго - для "народного образования".
Каждое понятие имеет определенное число признаков, принимающих различные значения. В рассматриваемом языке такой набор признаков с их значениями и является понятием, а графическое начертание слова или кодового символа, соотносимого с "понятием", - его обозначением. Это значит, что здесь в отличие, например, от обычных программ ЭВМ или от полностью формализованных систем символы в рамках самого языка имеют интерпретацию, семантику (поэтому язык и называется семантическим).
Совокупность понятий, которая вносится в конкретную семантическую сеть, зависит от целевого назначения системы или ее конкретного использования. Если система предназначена, скажем, для ответов на вопросы о состоянии образования в стране или в различных странах, то она должна содержать понятия "школа", "студент", "вуз", "учебный план" и т. п. Если она используется для управления портом, то она включает такие понятия, как "причал", "танкер", "кран" и т. п. Иначе говоря, совокупность понятий здесь проблемно или прагматически (т. е. в соответствии с назначением системы) ориентирована.
Кроме этого, язык содержит базовое множество отношений (поэтому его называют реляционным). Входящие в него отношения связывают между собой либо элементы среды, либо их кодовые имена, т. е. элементы языка. Примерами таких отношений могут служить "часть - целое", "мера - единица измерения", "действие - субъект", "действие - объект", "действие - время", "действие - место" и т. п. С помощью такого рода базовых отношений можно скомбинировать большую совокупность отношений, которая выражается в естественном языке.
Совокупность базовых отношений, которые необходимо внести в семантический язык, чтобы он был достаточен для нужд управления определенными объектами или для решения задачи из некоторой проблемной области, определяется посредством анализа текстов служебных и эксплуатационных инструкций, статей, книг и т. п. Такой анализ показал, что уже после исследования относительно небольшого массива текстов и фиксации содержащихся в них отношений, при просмотре новых материалов, в том числе из ранее не исследованных проблемных областей, дополнительные базовые отношения почти не обнаруживаются. Это значит, что базовые отношения в семантическом языке (в отличие от системы базовых понятий, которая проблемно ориентирована) носят универсальный характер, т. е. практически мало зависят от предметной области и назначения системы.
Анализ текстов на русском, английском и итальянском языках показал, что число базовых отношений, посредством комбинации которых можно выразить любые отношения, фиксируемые естественными языками, невелико и равно примерно двумстам (17). Это не означает, конечно, что не может быть обнаружен текст, в котором содержится отношение, не описываемое посредством базовых отношений. Не исключается и то, что в процессе развития языка может быть порождено новое отношение, опять-таки не выражаемое через базовые отношения. Семантический язык содержит наряду с базовыми отношениями и правила оперирования ими, позволяющие посредством четко определенных операций формировать более сложные отношения.
В семантической сети предусмотрена также возможность формирования новых понятий, которые не входят в базовое множество. С этой целью, в частности, могут обобщаться понятия на основе их признаков. Так, если значением признака "цвет" является "красный", а значением признака "пространственная форма" является "круглый", то может быть образовано новое, небазовое понятие "круглый красный предмет". Обобщать понятия можно и другими методами (см. схему). Базовые множества понятий и отношений вместе с производными от них позволяют зафиксировать в памяти машины (а также и вне ее) базовое множество знаний, которое представляет собой семантическую сеть.


Схема
фрагмент семантической сети



В квадратных скобках помечены "понятия", обозначенные в семантическом языке. Стрелки обозначают базовые отношения. Они указаны следующими цифрами: "целое-часть" - 1; "подкласс- класс" - 2; "предмет-свойство" - 3; "одушевленный предмет-умеет" - 4; схема (с некоторыми изменениями) взята из (16, с.466).









Из фрагмента схемы видно, что большинство используемых базовых понятий ("канарейка", "страус", "ноги", "желтый" и др.) определяются специфическими особенностями "мира", который необходимо моделировать. Отношения же (на схеме "часть - целое", "подкласс - класс", "субъект - действие") носят универсальный характер или представляют собой комбинации из универсальных базовых отношений. Эти комбинации, т. е. производные отношения, как правило, проблемно и прагматически ориентированы. Таким образом, семантические языки содержат проблемно или прагматически ориентированную совокупность базовых понятий, универсальный слой базовых отношений и позволяют выразить необходимые для формирования "модели мира" производные понятия и отношения. Эти языки позволяют посредством семантических сетей представить внеязыковые знания.
Для использования в системах искусственного интеллекта семантические языки различным образом формализуются, понятия и отношения обозначаются кодовыми символами, правила образования новых понятий и производных отношений жестко фиксируются, определяются семантические операции, позволяющие именовать предметы, процессы и отношения, т. е. обозначать их через понятия и отношения, фиксируемые в языке.
Системы искусственного интеллекта самостоятельно или во взаимодействии с человеком, используя семантический язык, формируют "модель мира". Этот процесс в ряде систем начинается со сбора информации о реальной среде. Если задача системы заключается в управлении технологическими или иными реальными физическими процессами (а не только в переработке информации), то особый блок - так называемый "блок селекции" - выделяет прежде всего предметы, соответствующие "понятиям", определяемым признаками и их значениями. Если речь идет, например, об управлении погрузочно-разгрузочными работами в порту, то блок находит предметы ("склад", "контейнер", "баржи" и т. д.) в определенный момент времени. Другой блок - "блок пространственной ориентации" - фиксирует их координаты. Посредством базовых и производных отношений им описывается взаимное расположение предметов ("находится над", "находится под", "находится внутри" и т. д.). Таким образом, создается моментальный снимок ситуации на управляемом объекте. "Логический блок" системы на основе правил комбинации базовых отношений порождает новые отношения, специфические для конкретной области предметов.
При наступлении нового момента времени исходная модель первого уровня сменяется новой - другим моментальным снимком, т. е. в данном случае описанием изменившегося пространственного расположения предметов. Информация о предшествующем моменте времени при этом не стирается, а передается в память. Таким образом, в памяти накапливается информация о последовательно сменяющихся состояниях "внешнего мира" (т. е. управляемого объекта). Это создает возможность поиска закономерных связей в изменениях, которые происходят во времени.
Такой поиск в системах описываемого типа является функцией особого блока - "блока гипотез". Система может формировать гипотезы о пространственных или временных отношениях между элементами ситуации. Гипотезы формулируются на семантическом языке. Так, может быть выдвинута гипотеза о наличии "причинной связи" между элементами следующих друг за другом моментальных снимков ситуаций. Конечно, смысл сочетания "причинная связь" далеко не соответствует содержанию категории причинной связи, как она понимается в диалектике. Но он играет важную роль в этой системе. Процедура формирования гипотезы огрубленно выглядит так.
Допустим, что в момент времени Т в определенном месте находится некоторый предмет Р1 или происходит событие С1, а в следующий момент времени на этом же месте появляется предмет Р2 или происходит событие С2. Тогда можно предположить (это во всяком случае не исключается), что Р1 (или С1) суть причина Р2 (или С2). Факт следования Р2 (С2) за Р1 (С1) фиксируется памятью. Если при повторных появлениях Р1за ним не следует Р2, то связь из памяти стирается. Если же временные соотношения между Р1 и Р2 повторяются вновь, то можно полагать, что Р1 есть "причина" Р2. После заранее предусмотренного числа повторений "причинное отношение" между двумя конкретными предметами (событиями) "осознается", т. е. фиксируется определенным знаком и вносится в базу знаний о мире. Таким образом, место модели первого уровня, являющейся моментальным снимком ситуации, т. е. содержащей только текущие данные об объекте, замещается моделью второго уровня. В ней представлены знания об объекте. На следующих уровнях происходят дальнейшее обобщение модели, классификация предметов и связей, приписывание переменным кванторов (типа "существует", "все" и т. д.).
Описанные процессы свидетельствуют о выполнении ЭВМ некоторых функций искусственного интеллекта. Выше (см. гл. V) были сформулированы критерии "интеллектуальности" технических систем. Исходным критерием было наличие в ЭВМ внутренней модели "внешнего мира". Эта модель в системах рассмотренного типа имеется. Факт существования такой модели есть лишь предпосылка выполнения интеллектуальных функций, однако предпосылка очень важная. В описанных операциях она реализуется в следующих функциях: 1) пополнение знаний о "мире", т. е. перестройка модели; 2) обобщение собираемой информации и фиксация на этой основе закономерных связей (типа "причина-следствие"); 3) формирование новых понятий определенного типа. "Модель мира", заложенная в память ЭВМ, пополняемая и совершенствуемая в процессе ее функционирования, используется в системе представления знаний и для более высоких интеллектуальных функций - планирования вычислений и синтеза алгоритмов управления объектами, параметры которых и текущая информация представлены в этой системе.
Системы представления знаний на современном этапе развития искусственного интеллекта быстро совершенствуются (19; 20; 21; 22). Одно из наиболее важных направлений прогресса этих систем связано с использованием фреймов, которые все шире внедряются как в зарубежные, так и в советские разработки (23; 24; 25; 26; 27; 28; 29).
Фрейм - это своеобразная рама, сеть, имеющая ряд ячеек, предназначенных для конкретных признаков индивидуальных ситуаций, которые не заполнены, остаются свободными. Он представляет в интеллектуальной системе некоторые относительно широкие классы стандартных объектов или ситуаций. Как и в обычных семантических сетях, в этом представлении используются "понятия" - узлы, связанные определенными отношениями. Вместе с тем фрейм по структуре отличается от ранее рассмотренных сетей. В последних все иерархические уровни, конкретизирующие содержание того или иного понятия (т. е. подчиненные понятия или значения признаков), полностью фиксированы. Во фреймах нижние звенья иерархии - так называемые терминалы - содержат условия-запросы, ответы на которые формируются в процессе взаимодействия системы с ситуацией. Например, если фрейм представляет куб, то в терминале может содержаться запрос о материале, из которого куб сделан. Ответ (например, металлический), полученный посредством сопоставления со средой периферийным устройством системы, используется в ее дальнейших "интеллектуальных" операциях. Фрейм может содержать не только запрос, но и наиболее вероятный ответ, который затем проверяется в первую очередь.
Фреймы могут описывать не только статические объекты или сцены, но и изменения объектов во времени, в том числе разнообразные действия, например, действия управляющей системы.
Повышение уровня "интеллектуальности" здесь заключается в том, что появляется возможность не составлять программу ЭВМ полностью заранее, а возложить ряд элементов ее синтеза на саму систему искусственного интеллекта, которая использует знания, полученные при согласовании фреймов с конкретными объектами, в результате чего существенно возрастает уровень активности системы искусственного интеллекта. Таким образом, совершенствование системы представления знаний создает предпосылки повышения "интеллекта" системы.
Существенным недостатком системы, использующей фреймы, как, впрочем, и других систем представления знаний, является то, что сами фреймы целиком вносятся в память машины человеком, и что в них нет базы "целей". Вообще системам искусственного интеллекта предстоит пройти большой путь, чтобы в совокупность их функций могли быть включены элементы целеполагания. Для этого недостаточно, чтобы знания, хранящиеся в банках системы искусственного интеллекта, были пассивным объектом преобразования. Они должны стать активным началом, участвующим не только в генерировании и реконструкции исходных систем знаний, но и в формировании целей и критериев приближения к ним. Высший уровень целеполагания при этом остается за человеком.
Основная масса ныне действующих систем искусственного интеллекта опирается на реляционные отношения, на которые ориентированы и наиболее распространенные информационные системы. Для большинства практических задач более эффективным было бы использование описанных выше фреймовых представлений. Они могут сыграть существенную роль и в объединении целеполагающих, собственно информационных и деятельностных аспектов функционирования интеллектуальных систем (30).
В каких отношениях интеллектуальные системы, использующие семантические сети, и, в частности, сети с фреймами, опираются на гносеологические характеристики абстрактного мышления и в чем здесь заключается прогресс по сравнению с эвристическими программами типа "общий решатель задач"? Прежде всего, прогресс заключается в семантическом характере языка, т. е. в наличии у знаков определенной интерпретации. Эвристические программы работают с абсолютно неинтерпретированными символами. Поэтому множество возможностей, которые они должны просматривать, оказывается огромным. В методах решения задачи не принимается во внимание значение знаков, чем обусловлена возможность использования лишь самых общих алгоритмов и эвристик, базирующихся на особенностях языка и его структуры или - конкретнее - его синтаксиса. Из-за этого сокращение перебора оказывается малоэффективным. Придание искусственному языку семантики позволяет использовать при поиске решения дополнительный объем информации, выходящей за пределы синтаксических характеристик этого языка.
Далее, разработчиками семантических сетей предпринята попытка воспроизведения в "модели мира" иерархической структуры образа. "Понятие", закодированное в памяти ЭВМ, не является понятием в собственном смысле. Это не образ в гносеологическом понимании слова, ибо оно не есть субъективно переживаемое отражение. Но "понятие", как и образ, есть интерпретированное отображение. Значение его интерпретируется через нижележащие знаки; последние опять-таки могут быть интерпретированными. Таким образом, знаки здесь являются не только внешней оболочкой "понятий", они, как и в образе, составляют его "внутреннюю ткань". Система знаков является способом бытия "понятия" в памяти ЭВМ. "Понятие", как и рассмотренный выше абстрактный образ, имеет сложную иерархическую структуру, находится в многообразных связях с другими "понятиями".
Следовательно, для решения тех или иных интеллектуальных задач искусственная система может использовать не только лингвистическую информацию - синтаксическую и семантическую, но и знания о предметной области, а значит, и конкретные методы решения задач, которые формируются на основе содержательной специфики задачи.
Рассматривая вопрос об алгоритмической неразрешимости, мы отмечали, что обобщение проблемы влечет за собой, как правило, потерю части информации о специфических особенностях анализируемого содержания. Сохраняются лишь те параметры обобщаемой задачи, которые представляют собой варьирующие значения переменных обобщенной проблемы. Утрата информации приводит к громоздкости алгоритмов при их применении к конкретным задачам.
То же относится и к эвристике. Конечно, программа типа "общего решателя задач" в принципе может применяться к любой задаче лабиринтного типа. Но, поскольку в ней не учитываются особенности конкретных задач, постольку она во многих случаях становится практически нереализуемой. Мощность эвристики, таким образом, превращается в абсолютную немощь.
Достоинство семантических сетей, и особенно систем с фреймами, заключается в том, что они позволяют создавать в машине модель, отражающую (хотя, разумеется, и неполно) реальную структуру соответствующей области. Последняя служит источником информации для решения задач. При невозможности решения задачи на некотором абстрактном уровне иерархичность построения "понятия" позволяет спуститься на нижележащие уровни вплоть до индивидуальных примеров.
Семантические сети содержат слой базовых отношений, который в определенном смысле имитирует некоторые стороны человеческого интеллекта. Часть таких отношений является аналогами мыслительных категорий. Они выполняют прежде всего функции "дискретизации" информации, поступающей от внешнего мира, точнее, информации, переходящей от модели низшего уровня к моделям высшего уровня. Вместе с тем эти квазикатегории выполняют функцию синтеза разрозненных данных, поступающих в модель. Так, многократные повторные следования предметов друг за другом в одиночных точках пространства в системах ситуационного управления синтезируются посредством причинно-следственного отношения.
На этом примере видна и ограниченность квазикатегориального синтеза в машине по сравнению с истинным категориальным синтезом. Как известно, следование, сколь бы многократно оно ни повторялось, не означает наличия причинной связи. Еще древние мыслители отмечали: "После этого не означает по причине этого". Однако истинную причинную связь значительно труднее формализовать, чем многократное следование. Понятия, имеющие статус категорий, а тем более категории, не фиксированные лингвистически в форме понятий, не могут быть формализованы в полной мере. Тем не менее, для развития искусственного интеллекта важно создать формальные квазикатегории, которые были бы приближенными аналогами реальных категорий, функционирующих в мыслительном процессе человека. Это значит, что одной из задач гносеологии на современном этапе является, так сказать, разложение категорий в бесконечный ряд общенаучных и иных понятий, которые могли бы формализоваться средствами логики и методологии науки.
Формализованные понятия могут быть включены в систему базовых отношений или вообще в память и программы ЭВМ. Конечно, квазикатегории в силу своего формализованного характера никогда не смогут обладать совокупностью свойств реальных категорий, и в частности их гибкостью. А отсюда следует, что им не может быть присуща универсальная эвристическая ценность. Однако они смогут выполнять эвристические функции в тех областях, в которых наиболее существенны те стороны реальной категории, которые оказались представленными в процессе ее формализации.
Необходимо отметить, что большинство категорий, фиксируемых диалектикой, не нашло отражения в реальных семантических сетях в качестве базовых отношений. Это объясняется, по-видимому, сложностью и многоаспектностыо многих категорий диалектики. Возьмем, например, категории "сущность" и "явление". Для разработки системы искусственного интеллекта было бы важно использовать эту пару категорий. Одна из важнейших сторон ограниченности современных систем распознавания образов, как отмечает В. С. Тюхтин (31), заключается в том, что в них при классификации не учитывается различие между существенными и несущественными признаками. Действительно, в этих системах признак существенности, как правило, заменяется признаком общности. Не предприняты попытки выразить в семантических сетях отношения между сущностью и явлением через базовые отношения или использовать его в качестве самостоятельного базового отношения. В семантических сетях, которые мы рассматривали, имеется отношение "общее - единичное" ("элемент - класс"). Однако известно, что общее не всегда является существенным.
В связи с рассматриваемой проблемой возникает вопрос о соотношении совокупности базовых отношений с категориями, об их сходстве и различии. Теоретически ясно, что, поскольку категории являются отражением всеобщих отношений, постольку неизбежна определенная субординация базовых отношений и категорий.
Если совокупность базовых отношений считается универсальной, то она должна содержать в себе пучки отношений, конкретизирующих каждую категорию (или пару категорий) диалектики. Это следует из того, что сами категории суть отношения, следовательно, они либо должны входить в базовый список (как это имеет место для отношений "причина - следствие", "часть - целое", "элемент - класс", "единичное - общее"), либо должны быть подвергнуты расчленению таким образом, чтобы их можно было синтезировать из базовых отношений. Разумеется, если семантический язык формализован, то входящие в списки базовых отношений категории не являются таковыми в собственном смысле, поскольку они утрачивают ряд неотъемлемых свойств категорий, в частности их гибкость (а тем самым в значительной степени и эвристическую силу, особенно при отображении нестандартных ситуаций). Отношения, тождественные по названию категориям (например, "причина - следствие"), не только в существующих искусственных семантических языках, но и в принципе являются лишь квазикатегориями, аналогами, которые, однако, применительно к ограниченному миру той или иной технической интеллектуальной системы могут в известной мере выполнить определенные функции категорий. Исходя из теоретических соображений, следует, что совокупность категорий должна быть одним из исходных пунктов для формирования комплекса базовых отношений.
Фактически семантические языки формировались в связи с решением практических задач управления определенными реальными процессами. Поэтому и в базовых отношениях отражены в первую очередь отношения, с которыми сталкиваются в этих процессах. Например, в перечне базовых отношений, предназначенном для системы управления портом (32), на первом месте стоят отношения, характеризующие механическое движение и пространственно-временные отношения между макрообъектами. Этот перечень, являющийся результатом анализа значительного числа специальных текстов, действительно содержит совокупность отношений, композиция которых может выразить большинство встречающихся отношений.
Эмпирическое происхождение списка базовых отношений не только не снимает, но ставит еще более остро задачу его теоретического анализа, и прежде всего проверки на полноту посредством сопоставления с категориями.
В эмпирически найденном списке базовых отношений не только нет, например, отношения "сущность - явление", но и совокупности отношений, из которых его можно было бы синтезировать. Отсюда следует, что на языке, в котором совокупность базовых отношений исчерпывается данным списком, ряд отношений в принципе не может быть выражен. Например, на таком языке нельзя записать, что "прибыль является превращенной формой прибавочной стоимости" или - более общо - "предмет X является превращенной формой предмета У".
Категории сущности и явления - это категории, которыми оперирует теоретическое мышление. Следовательно, можно полагать, что если техническая "интеллектуальная система" будет предназначена для работы с теоретическими текстами, например для их анализа в целях аннотирования или реферирования или даже для обобщения на высоком уровне результатов эмпирического исследования, короче, для работы в теоретической области, то для эффективного ее функционирования список базовых отношений придется пополнить такими, которые являются "разложением" отношений "сущность - явление", а также других отношений, выраженных в философских категориях.
Плодотворна уже сама постановка задачи - выявить совокупность базовых отношений, посредством которых может быть выражено все множество отношений, фиксируемых некоторым естественным языком или даже являющихся универсальными для всех естественных языков. Помимо практического значения для решения отмеченных выше задач управления она существенна и для лингвистической семантики. Не исключено, что характеристика множества базовых отношений различных языков может служить одним из важных индикаторов уровня развития того или иного языка. Задачи научного мышления, и в частности создания ряда метатеорий, не могут быть решены без явного обозначения философских категорий словами или устойчивыми словосочетаниями. Развитие систем представления знаний превращает лингвистическую (семантическую) проблему выявления языковых средств выражения категорий в проблему большого практического значения. Вместе с тем анализ базовых отношений может способствовать уточнению системы философских категорий и выработке новых подходов к систематизации категорий диалектики.
Философия оперирует не только универсальными, но и специфическими категориями, характеризующими познавательный процесс и его результаты. К их числу относятся, например, понятия истины и заблуждения, абсолютной, относительной истины и т. д. В рассмотренном нами варианте системы представления знаний нет и этих категорий. Следовательно, на языке, совокупность базовых отношений которого ограничена этим списком, не может быть выражено положение "высказывание X истинно описывает ситуацию У".
В литературе (32) иногда высказывается мысль о желательности доказательства полноты словаря базовых отношений. При этом речь идет о формальном доказательстве. Если эта задача ставится применительно к естественному языку, то постановка ее неправомерна. Прежде всего, конкретный список базовых отношений, безусловно, является неполным. Мы уже видели, что он не позволяет выразить отношения, отражаемые категориями диалектики. Можно также предположить, что совокупность физических отношений, объективно существующих в неисчерпаемом мире и потенциально описываемых естественными языками (или естественными языками со специальными математическими включениями), не может быть выражена через конечную совокупность базовых отношений, объединяемых конечным множеством правил композиции.
Далее. Как было показано выше, чисто формально вообще нельзя ничего доказать относительно реального объекта. Это тем более верно в отношении такого объекта, как естественный язык. Формально можно доказать лишь полноту формализованного словаря базовых отношений в рамках формальной модели естественного языка или его ограниченного фрагмента. Научный интерес представляет также проблема единственности совокупности базовых отношений, их минимальности, независимости и т. д.
Итак, включение системы базовых отношений в "семантические сети" не только позволило использовать иерархическое строение абстрактного образа для создания системы представления знаний, но и означало шаг вперед в наделении систем искусственного интеллекта аналогами категорий мыслительного процесса.
Существенным фактором в использовании гносеологических характеристик мышления является и наличие в системах искусственного интеллекта аналога самосознания. Самосознание - это необходимый компонент сформировавшегося сознания. Оно выполняет и гносеологическую функцию. Поэтому вычленение внутри знания компонентов, выражающих особенности познающего Я, и содержания, отражающего внешний мир, есть важнейшее условие адекватного отражения объективной реальности и, следовательно, принятия адекватных решений. Квазисамосознание необходимо для решения многих интеллектуальных задач. Особо важную роль оно играет в интегральных промышленных роботах. Здесь решение интеллектуальных задач выступает не как самоцель, а как средство обеспечения интеллектуального поведения робота, а стало быть, и разумного манипулирования эффекторами. Роботу необходимо четко фиксировать собственные действия, оценивать их эффективность, а значит, отличать себя от среды.
В использовании категорий в системах искусственного интеллекта пока сделаны только начальные шаги.
Явно недостаточно еще используются логические структуры. На первый взгляд это кажется странным. Мы подчеркивали, что из всех наук о мышлении кибернетика больше всего опиралась на логику, однако применение в кибернетике нашли далеко не все логические структуры, функционирующие в мыслительном процессе и воплощенные в знании.
В ней нашли применение, прежде всего, исчисление высказываний и исчисление предикатов, а также примыкающие к ним традиционные разделы математической логики. Даже модальная логика недостаточно используется в кибернетических системах. Она, в сущности, не нужна была, пока не решались интеллектуальные задачи. Но оперирование содержанием интеллектуальной базы знаний требует применения операторов "возможно", "действительно", "необходимо", т. е. модальной логики. Мало применяется логика вопросов, которая слабо разработана, хотя для функционирования вопросно-ответных систем она крайне необходима. Это значит, что пока в системах искусственного интеллекта используется (и то не в полной мере) лишь наиболее разработанная часть логики мыслительного процесса. За пределами этих систем остается также подготовка понятий и суждений к операциям вывода по строгим правилам. Понятия, которыми оперирует человеческий интеллект в исходных формах, в том числе в лингвистически фиксируемых, нечетки, следовательно, к ним непосредственно не могут быть применены логические правила, базирующиеся на законе тождества. Процесс перехода от нетождественных себе, нечетких понятий, лабильных образов к жестким понятиям формальной логикой не описывается.
В первые десятилетия применения ЭВМ был сделан вывод о том, что машина превосходит человека в оперировании жестко определенными понятиями, а человек превосходит машину в гибкости, в оперировании расплывчатыми понятиями, идеями и т. д. Более того, высказывалась и высказывается мысль о том, что машина никогда не сможет оперировать расплывчатыми структурами. Богу - богово, кесарю - кесарево. Иногда утверждалось даже, что принципиальная дискретность математики является непреодолимой преградой для описания непрерывных процессов и явлений. Границы расплывчатых образований не дискретны, а поскольку передача задачи ЭВМ требует предварительного математического описания, постольку оперирование расплывчатыми образованиями ЭВМ принципиально недоступно. Отсюда делался вывод о том, что создание искусственного интеллекта в принципе невозможно.
Упоминавшиеся ранее работы Л. Заде (33; 34) положили начало формализации нечетких структур. Значение этих работ сразу было оценено в математической и философской (35) литературе. Использование концепции нечетких множеств находит все более широкое применение в системах искусственного интеллекта (16; 36; 37; 38). В целом, однако, принципы нечеткости в программах искусственного интеллекта реализуются недостаточно. Использование нечетких структур может привести, в частности, к новым приложениям эвристического программирования, а следовательно, расширить его возможности.
Главный вывод из развития теории нечетких множеств и ее применений к проблемам и системам искусственного интеллекта заключается в том, что формализация нечетких структур возможна, что входные устройства ЭВМ в принципе могут оперировать с такого рода структурами, что повышает эффективность функционирования систем искусственного интеллекта. Таким образом, и в этом плане учет гносеологических особенностей мышления дает дополнительные возможности для совершенствования искусственного интеллекта.
Использование гносеологических характеристик мышления для совершенствования программ искусственного интеллекта включает и проблему приближения "языка" ЭВМ к естественному языку, воспроизведение в языке ЭВМ тех универсалий естественных языков, которые обусловливают способность языка выполнять познавательную функцию. Искусственные языки, используемые в семантических сетях, о которых речь шла выше, как и естественные, представляют собой единство означающего и означаемого (поэтому их и называют семантическими языками). Оперирование с нечеткими структурами предполагает использование знаков с нечеткими значениями, различного рода лингвистических переменных и, следовательно, неизбежно приближает "язык" искусственного интеллекта к естественному. Рассмотрим более подробно лингвистические проблемы.

3. Лингвистические проблемы искусственного интеллекта
Реальные проблемы, решаемые теорией и практикой искусственного интеллекта, очень разнообразны. Это и распознавание образов, и доказательство теорем, и машинный перевод, и многое другое. Осуществить анализ совокупности этих проблем здесь не представляется возможным. Мы остановимся на гносеологическом аспекте лингвистических проблем искусственного интеллекта. Это обусловлено прежде всего тем, что в марксистской философской литературе лингвистические проблемы искусственного интеллекта почти не анализировались. Кроме того, лингвистическая проблематика существенна для решения большинства других задач искусственного интеллекта.
Кибернетические системы, создаваемые техникой, все больше включаются в интеллектуальный потенциал общества. Это требует общения между человеком и машиной. Перевод с естественного языка на язык машины - не тривиальная задача. Она решается творческими методами. То же относится и к обратному переводу. Полноценное решение этих задач машинами возможно лишь при снабжении их искусственным интеллектом. Аналогичным образом обстоит дело и с машинным реферированием, построением информационно-поисковых систем. Некоторые результаты в этих направлениях получены посредством "доинтеллектуальных" систем, но искусственный интеллект должен обеспечить качественно новый уровень решения этих задач.
Но дело не только в этом. Естественные языки не являются формальными системами, и речевые высказывания не подчиняются каким-либо жестким правилам (даже вероятностным). Следовательно, механизация лингвистических функций предполагает либо предварительную приближенную формализацию принципиально неформализуемых сложных динамических систем, либо способность технических информационных машин работать с предварительно неформализованными системами. Это означает, что решение лингвистических проблем кибернетики, создание лингвистических автоматов представляют собой полигон для испытания различных методов конструирования искусственного интеллекта.
В настоящее время создано несколько экспериментальных и работающих на потребителя систем машинного перевода. В Институте прикладной математики АН СССР под руководством О. С. Кулагиной разработана система французско-русского перевода, которая осуществляет перевод математических текстов. Поскольку анализ входного текста не выходил за пределы отдельных предложений, постольку и сам перевод не выходил за рамки отдельных изолированных предложений, которые, однако, во входном массиве составляли связный текст. Приведем небольшой отрывок такого перевода (39).

Французский текст
Русский текст
1. Considerons un systeme de nombres complexes
1. Рассмотрим систему комплексных чисел
X=X1E1+X2E2+...+X2E2,
ou les E sont les symboles, les X - les nombres ordinaires, reels ou imaginaires.
где E суть символы, X - обыкновенные, действительные или мнимые числа.
2. Nous supposons definies sur ces nombres les operations fondamentales, addition et multiplication,
2. Мы предполагаем определенными на этих числах фундаментальные операции, сложение и умножение,
X+Y=( X1E1+...+ X2E2)+(Y1E1+...+ Y2E2)=( X1+Y1)E1+...+(X2+Y2)E2,
XY=( X1E1+...+X2E2)(Y1E1+...+ Y2E2)=??IK1XiJkE1+??IK2XiJkE2
3. De telle facon que la multiplication satisfasse a la loi suivante et de telle facon aussi que less deux operations inverses de la multiplication ou devison soient possibles en general.
3. Таким образом, что (бы)†††† умножение удовлетворяло следующему закону и таким образом также, что (чтобы) 2 обратные операции умножения или деления были возможны вообще говоря.
4. La premiere cosistant a passer du premier facteur et du produit au deuxieme facteur, la seconde cosistant a passer du second facteur et du produit au premier facteur.
4. Первый (ая, ое), состоящее в переходе от первого множителя и от произведения до второго множителя, второй (ая, ое), состоящее в переходе от второго множителя и произведения до первого множителя.
5. Alors il existe un nombre appele module, tel que pour tout nombre X du systeme on ait
5. Тогда существует число, названное модулем, таким, что для (в качестве) всякого числа X системы мы имели
Ex=x?=?
6.Si l'on suppose l'existence d'un module, il est inutile de supposer de la possibilite des deux divisions.
6. Если мы предполагаем существование модуля, бесполезн(а,о) предположить возможность двух делений.

В группе лингвистов понятность этого перевода была оценена как хорошая 62,8% экспертов, как средняя - 25,3% и как плохая - 11,9%. В группе математиков и инженеров соответствующие оценки составили 69,9; 22,1; 8,0%.
В настоящее время разработан ряд систем, которые практически обслуживают потребителей. К их числу принадлежит СИСТРАН (Канада). Она использовалась, в частности, в полете "Союз" - "Аполлон", в ходе которого функционировал англо-русский и русско-английский машинный перевод (40, с. 214 - 226). Общий объем переведенных текстов составил десятки миллионов слов. Готовый к тиражированию текст производится системой со скоростью свыше 10 тыс. слов в день, т. е. в пять раз быстрее, чем обычные нормы перевода научно-технической литературы.
С 1979 г. во Всесоюзном центре научно-технической литературы АН СССР создана и работает редакция по практическому машинному переводу. Она выполняет переводы с английского языка на русский текстов по вычислительной технике и программированию, машиностроению и др. С 1981 г. введены в опытную эксплуатацию системы машинного перевода с немецкого и французского языков на русский (41, с. 31). Системы, переводящие тексты с одного естественного языка на другой, представляют собой частный случай лингвистических автоматов. Такой автомат представляет собой ЭВМ вместе с приданным ей математическим обеспечением и периферийными органами.
В успешном решении задач автоматизации лингвистических процессов существенную роль играет проблема понимания (хотя не все системы машинного перевода базируются на ней). Наличие такого понимания было бы самым радикальным решением вопроса об общении человека и машины. Правда, чем выше уровень входного языка машины (чем он ближе к естественному языку), тем сложнее для нее перевод таких текстов на свой внутренний язык и, следовательно, тем больше времени он занимает. Работа с языками высокого уровня во многом затрудняет (а иногда вообще не позволяет) использование возможностей машины. Тем не менее наделение ЭВМ способностью "понимать" естественный язык остается фундаментальной задачей для решения проблемы общения человека с ЭВМ, особенно важной для обеспечения работы машины в режиме диалога.
В решении проблемы взаимодействия ЭВМ и человека на естественном языке за последнее десятилетие достигнуты существенные результаты. Правда, в настоящее время (и в обозримом будущем) ЭВМ способна "понимать" лишь ограниченные (как с лексической, так и с грамматической точки зрения) фрагменты естественного языка, его подъязыки. Эти ограничения могут касаться лексики (ограниченный словарь и даже запрещение использовать некоторые части речи), семантики (конечное число или единственное значение слова или словосочетания, обусловленное проблемной областью), синтаксиса (запрет на использование ряда конструкций, например причастных и деепричастных оборотов, предложений, содержащих более одного придаточного и др.). Они могут касаться и прагматики, как это имеет место в системе, разрабатываемой советским исследователем В. С. Файном (29, с. 17). В этом случае предложению приписывается определенная цель (например, постановка задачи или ссылка на библиографию). Множество целей в таких случаях конечно. Эти ограничения важны, но использование и ограниченных естественных языков или их фрагментов является существенным шагом в развитии искусственного интеллекта. Рассмотрим с этой точки зрения систему ДИЛОС (диалоговая информационно-логическая система), созданную и совершенствуемую в ВЦ АН СССР. Задача состояла в том, чтобы наделить ее "пониманием" письменной речи, "знанием" различных закономерностей и фактов исследуемого человеком мира. Посредством анализа и принятия решений она должна давать ответы на запросы человека. ДИЛОС содержит в себе лингвистический процессор, воспринимающий вопросы и сообщения на ограниченном естественном языке (38; 42; 43; 44).
Лингвистический процессор переводит предложения естественного языка на внутренний моносемантический, четкий язык машины. Перевод базируется на знаниях о языке, которые в форме семантических сетей содержатся в "модели мира", имеющейся в системе. Это значит, что сам естественный язык (его ограниченный фрагмент) является элементом предметной области системы. В процессе совершенствования ДИЛОСа перестраиваются его семантические сети. В частности, в настоящее время они включают в себя фреймы.
Кроме лингвистического система ДИЛОС имеет информационно-поисковый, вычислительный и логический процессоры. Она пополняет и обобщает свои "модели мира", выдает ответы (как хранящиеся в ее памяти готовыми, так и синтезируемые ею) на вопросы, самостоятельно строит алгоритмы вычислений и действий, используя исходные и текущие данные, требуемые результаты и "модель мира". Таким, образом, реализация в системе ДИЛОС семантической сети позволяет решать ряд интеллектуальных задач, включая взаимодействие с текстами на естественном языке.
Большой интерес представляет программа взаимодействия человека с ЭВМ на естественном языке, разработанная Т. Виноградом (45). Она непосредственно предназначена для взаимодействия с роботом, выполняющим элементарные операции манипулирования правильными геометрическими телами, но в ней реализован ряд оригинальных идей, касающихся анализа текстов. С гносеологической точки зрения наиболее важной является идея единства синтаксического и семантического анализа. У человека, как было показано выше, интерпретация текста опирается не только на знание синтаксиса языка, но и на его семантику, а также на внелингвистические знания. Семантика в ряде случаев направляет синтаксический анализ, помогая преодолеть грамматическую неоднозначность конструкции. Синтаксис в свою очередь направляет семантический анализ, способствует преодолению семантической неоднозначности. Программа Т. Винограда позволяет чередовать определенным образом вызов процедур синтаксического и семантического анализа, тогда как в большинстве программ, предназначенных для анализа текста, синтаксический и семантический анализ выступает в качестве последовательных, взаимоизолированных этапов, что обусловливает большую трудоемкость работы. Рассмотренная особенность данной программы повышает эффективность ее функционирования.
В реализации лингвистических аспектов искусственного интеллекта определенную роль играют автоматизированные системы реферирования, аннотирования и вообще создания вторичных массивов информации. В частности, представляет интерес автоматизированная система ТАНД (тезаурусного аннотирования научно-технических документов), разработанная группой под руководством Р. Г. Пиотровского (46; 47; 48; 49). Она предназначена для обработки французских текстов по темам "Опухоли человека" и "Современные методы окраски в машиностроении". В ответ на запрос система дает русские аннотации соответствующих статей, написанных по-французски.
Система ТАНД осуществляет формальный анализ смысла. Однако текст в ней рассматривается на основе иерархически организованной семантической сети, представляющей определенную область знания. В этой сети базовые понятия - узлы - это терминологические ключевые слова и словосочетания, т. е. наряду со знаками искусственных языков используются лексические единицы естественного языка. Отношения между понятиями в сети соответствуют отношениям в предметной области (в системе ТАНД не используется универсальный список базовых отношений).
Формальный анализ смысла основывается на соотнесении текста с маркированными заранее элементами иерархической системы. Эта иерархия в определенной мере воспроизводит структуру знания о предметной области. Выявление последней происходит на основе системного анализа соответствующей научной дисциплины. Ключевые слова и словосочетания представляют собой своеобразные ядра, вокруг которых группируются иерархически связанные с ними понятия. Они являются своеобразными коррелятами ядер лабильных образов, понятий, в форме которых знание существует в психике человека. В конце 70-х годов авторы ТАНД начали использовать для анализа текста фреймы-сценарии, что должно повысить эффективность системы. ТАНД способна к обучению.
Приведенные примеры работы ЭВМ с текстами на ограниченных фрагментах естественного языка, машинного перевода и машинного аннотирования, на наш взгляд, свидетельствуют о том, что утверждения о кризисе машинного перевода и вообще лингвистики, базирующейся на использовании ЭВМ, не обоснованы. Однако существуют и реальные трудности, с которыми столкнулась инженерная лингвистика в конце 60-х - начале 70-х годов. Некоторые из них носят принципиальный характер.
В сущности, не оправдались надежды, которые ряд кибернетиков возлагали на глобально-дедуктивный подход к проблемам автоматизации переработки текстов. Сторонники этого направления видели свою непосредственную задачу в создании систем переработки произвольных текстов (независимо от проблемной ориентации), записанных на естественном языке, без пред- и постредактирования. Предполагалось, что такая переработка, в частности машинный перевод, возможна на основе только лингвистических знаний. Рассматриваемый подход требует от машины значительно более высокого уровня "языковой компетенции", чем тот, который характерен для нормального человека. Для дешифровки текста он использует не только свою языковую компетенцию, но и внелингвистические знания.
Глобально-дедуктивный подход стимулировал ряд глубоких исследований в области синтаксиса и семантики, а также попытки формализации естественного языка или его фрагментов. Часть этих исследований нашла применение в неглобальных, прикладных системах. Вместе с тем основная задача, которая ставилась в рамках данного направления, - создание глобальных лингвистических автоматов - оказалась нерешенной и, как стало ясно, не будет решена, по крайней мере, в обозримом будущем.
Глобально-дедуктивный подход к лингвистическим проблемам - это лишь одно из проявлений стремления к универсализму, свойственному разработчикам искусственного интеллекта в конце 60-х - начале 70-х годов. В. М. Глушков (50) подчеркивал большую сложность автоматизации дедуктивных построений по сравнению с автоматизацией вычислительных задач. Тем не менее, общая теория вычислений создается на базе исследования огромного количества численных методов решения задач, накопленных математикой за тысячелетия своего существования.
Методы дедуктивных построений не менее сложны и разнообразны, чем решения задач вычислительной математики. Попытки построения единого метода на современном этапе развития кибернетики при отсутствии накопленного в этом направлении опыта утопичны. То же относится и к попыткам глобального решения лингвистических проблем искусственного интеллекта.
Ныне действующие, в частности, рассмотренные выше, системы автоматизированной переработки текстов не лежат в русле глобального подхода. Отказ от него заключается прежде всего в замене задачи взаимодействия с текстами на естественном языке задачей переработки текстов на ограниченном фрагменте этого языка, в проблемной ориентации перерабатываемых текстов, в курсе на создание не автоматических, а автоматизированных систем, в которых ЭВМ взаимодействует с человеком, особенно в режиме диалога. Разработка проблемы диалога между человеком и ЭВМ - одно из генеральных направлений в решении не только лингвистических, но и многих других задач искусственного интеллекта.
Значение взаимодействия человека и ЭВМ в режиме диалога в полной мере было осознано к концу 60-х - началу 70-х годов (51). "Гносеологический симбиоз" человека и ЭВМ в сущности начал формироваться со времени появления ЭВМ. Однако длительное время он не имел психологического характера: машина не могла использовать знания человека, которые заранее не заложены в ее память, а человек не мог консультироваться с ЭВМ в реальном режиме времени.
Диалоговый режим означает взаимодействие между человеком и ЭВМ в самом процессе решения задачи. В развитом виде он предполагает, что, после того как пользователь заложил в ЭВМ цель, человек и компьютер становятся равноправными партнерами в том смысле, что управление решением постоянно переходит от одного к другому; каждый из участников диалога совершенствует свои знания за счет партнера (52). На этом уровне ЭВМ систематически использует свою "модель мира", которая должна отвечать определенным гносеологическим требованиям. В идеале в ней должны содержаться (не обязательно в явном виде) аналоги комплекса познавательных орудий - категорий, логических структур, семиотических систем, свойственных человеческому познанию. Чем ближе этот комплекс к интеллектуальным средствам человека, тем - при прочих равных условиях - большими интеллектуальными возможностями располагает система. Этот идеал, по-видимому, недостижим, поэтому взаимодействие человека с ЭВМ представляет собой не простую кооперацию, а разделение труда, в котором функции обоих партнеров существенно различны. Партнеры превосходят друг друга в решении разных компонентов задач, над которыми они совместно работают.
Таким образом, можно говорить о двух группах лингвистических проблем, связанных с искусственным интеллектом. Во-первых, о решении собственно лингвистических задач и, во-вторых, так сказать, об уровне лингвистического развития ЭВМ, обусловливающем ее интеллектуальные способности. Они тесно связаны: решение лингвистических задач невозможно без высокоразвитого интеллекта, а высокий уровень интеллекта немыслим без овладения семиотическими системами.
Важнейшими итогами развития лингвистических способностей систем искусственного интеллекта явились создание семантических языков и повышение сложности входных языков вплоть до ограниченных фрагментов естественного языка. Семантические языки реализуют ряд универсалий естественного языка, отсутствующих в языках программирования. Однако ими не воспроизводятся важные черты других семиотических систем, используемых мышлением. ЭВМ с приданными ей периферийными системами способна воспринимать чувственное изображение и переводить его на язык символов. Она может также переводить аналитические выражения на язык чертежей, графиков и иных наглядных образов и высвечивать изображения на табло. Эта способность ЭВМ используется в процессе общения человека с машиной. Однако сама она в решении задач не использует тех преимуществ, которыми обладает чувственный образ по сравнению с понятием в его словесной оболочке.
В частности, машина и при использовании семантических сетей не обладает возможностью одновременного видения значительных массивов информации. Локальность обработки информации характеризует все современные дискретные информационные системы независимо от характера их математического обеспечения. Расчленение алгоритма на ветви хотя и позволяет в различных подсистемах обрабатывать информацию одновременно, но не снимает локального характера этой обработки на каждой ветви алгоритма. Это органически связано с дискретностью используемых языков и аппаратуры. Преодоление локального характера обработки информации невозможно с помощью семиотической системы при использовании аппаратуры, работающей на ныне применяемых принципах. Это относится не только к функционированию цифровых машин, но и к аналоговым системам.
Способность мозга к глобальной обработке информации, возможно, определяется не только функционированием большого числа параллельно действующих дискретных цепей и не самим по себе наличием аналоговых компонентов. Советские (С. Н. Брайнес, 29, с. 27) и зарубежные (К. Прибрам, 53, с. 406 - 409; М. Арбиб, 54, с. 259 - 267) исследователи высказывают мнения о том, что существенную роль в функционировании мозга играет голография. Известно, что изображения, получаемые с помощью голограмм, трехмерны, их можно наблюдать с различных сторон; любая часть голограммы какого-либо предмета позволяет воспроизвести его целиком; чем больше эта часть, тем четче изображение. На одну и ту же голограмму можно записать несколько изображений, а затем воспроизводить их по отдельности. К. Прибрам полагает, что мышление представляет собой воспроизведение некоторой голограммы или, во всяком случае, эквивалентно ему. Однако, какую бы роль ни играли голографические представления в объяснении реального мыслительного процесса у человека, голография (не обязательно оптическая) может использоваться в системе искусственного интеллекта. А это предполагает разработку специфической семиотической системы. Конечно, пока еще нельзя сказать, что именно голография является тем принципом, применение которого позволит вывести системы искусственного интеллекта за пределы локальной переработки информации. Однако поиск методов одновременной и глобальной переработки информации (в том числе функционирующих в мозгу) и их реализация в технических системах - важный путь наделения последних все более высокими интеллектуальными способностями.
Необходимо отметить также, что линейные семиотические системы, используемые в разработках искусственного интеллекта, располагают не комплексом универсалий естественного языка, необходимым для выполнения ими познавательной функции, а лишь их небольшой частью. Так, ограниченный естественный язык, используемый в качестве входного в системе ДИЛОС, является полисемантическим и в известной мере нечетким. Однако ее лингвистический процессор перерабатывает текст на этом языке в сообщение на моносемантическом и четком внутреннем языке системы. Интеллектуальная система должна уметь использовать знаки, которыми она располагает, для обозначения новых ситуаций, близких к тем, которые обозначались уже задействованными знаками. Это значит, что она должна уметь не только исключать, но и создавать полисемию. Потенциальная полисемия есть, с одной стороны, необходимое условие, а с другой - результат взаимодействия подлинно интеллектуальной системы со сложной средой.
Вместе с тем решение ограниченных (по предметным областям и прагматике) интеллектуальных задач не требует от используемых семиотических систем воспроизведения всей совокупности универсалий.
Ограниченность взаимодействия со средой связана не только с лингвистическими аспектами интеллектуальных систем. Наиболее ярко она обнаруживается в функционировании роботов. Даже самые совершенные роботы из-за низкого уровня "интеллекта" на современном этапе способны работать только в крайне примитивной внешней среде. Не менее важно, что сам уровень интеллекта зависит от его способности к физическому взаимодействию с внешним миром.
Основой познавательного процесса является, как известно, практика. Интегральный робот представляет собой квазисубъект, и его взаимодействие с миром может рассматриваться как квазипрактика, являющаяся базой для решения интеллектуальных задач. Об этом, в частности, свидетельствует важная роль изменения положения робота или его эффекторов в пространстве - "точки зрения" - для распознавания и анализа пространственных сцен. Динамичность робота в сочетании с расширением его рецепторной системы является важным путем повышения уровня его "интеллекта", а значит, и совершенствования интеллектуальных систем вообще. Если иметь в виду специфику задач, стоящих перед роботами, в частности задачи манипулирования различного рода объектами в пространстве, то особенно важно наделение их способностью к одномоментному схватыванию ситуации, а значит, и к оперированию наглядными образами на различных уровнях функционирования. Постановка перед роботами задач освоения непредвиденных и нестандартных ситуаций требует оснащения их языком, которому свойственны потенциальная полисемантичность и нечеткость.
Трудности, возникшие в развитии лингвистических аспектов искусственного интеллекта в 60-х - начале 70-х годов, породили у ряда авторов глубокий пессимизм в отношении машинного перевода и других проблем инженерной лингвистики. Обобщенное изложение аргументов в пользу такой позиции, по существу отрицающей возможность передачи машинам функций решения интеллектуальных лингвистических задач, дано в работе X. Дрейфуса (9). Он полагает, что ЭВМ ни при каких обстоятельствах не способна адекватно интерпретировать тексты на естественном языке. Это обусловлено тем, что человек при понимании речевых высказываний использует глобальный контекст, "периферийное сознание" или подсознание, нечеткость, интуицию, инсайт, которые, с точки зрения Дрейфуса, в принципе не могут быть воспроизведены в машине.
Эти элементы психики человек действительно использует при интерпретации текстов. Однако, чтобы утверждать, что искусственный интеллект невозможен, требуется предварительно доказать, что эти элементы, во-первых, обязательны для любой "интеллектуальной" системы независимо от ее структурно-субстратных особенностей и, во-вторых, что они невоспроизводимы в технической системе.
Первое утверждение не вызывает сомнений. В сущности анализ, проведенный в первых главах, показал, что аналоги указанных элементов психической деятельности необходимы для решения сложных задач отражения реальности независимо от того, решаются они системой, обладающей или не обладающей психикой. Второе утверждение, на наш взгляд, не может быть признано обоснованным данными современной науки. Понимание текста человеком опирается не только на его знание языка, но и на внелингвистические знания. Заключение Дрейфуса о невозможности создания систем искусственного интеллекта, использующих контекст, базируется на анализе программ, осуществляющих только синтаксический разбор текста. Программу Р. Квиллиана, который одним из первых разработал семантические сети, Дрейфус рассматривает как весьма частную, неспособную к дальнейшему совершенствованию.
Развитие систем искусственного интеллекта в 70-х годах, как мы видели, заключалось в первую очередь в разработке и совершенствовании систем представления знаний, в частности семантических сетей, которые позволяют перейти от знаков через их значение к совокупному знанию, содержащемуся в системе. Уже в рассмотренной нами программе Т. Винограда грамматическая интерпретация текста, в том числе и снятие грамматической неоднозначности (как и лексической), производится на основе использования знания, заключенного в тексте. А это значит, что техническая система способна для интерпретации текста использовать внелингвистический контекст. Развитие семантических сетей, систем фреймов и других способов представления знаний в перспективе содержит еще большие возможности в этом плане.
В известной мере то же можно сказать и относительно "периферийного сознания". Конечно, чтобы подсознательные процессы представить в памяти ЭВМ, их необходимо осознать и формализовать. Из этого, однако, не следует, что в технической системе принципиально невозможно воспроизвести отношение между различными массивами памяти, аналогичное в определенном смысле отношению между сознаваемым и несознаваемым (центром и периферией, по Дрейфусу) в психике человека. Так, не исключено, что, в то время как активной логической переработке подвергается некоторый локальный участок семантической сети, ассоциативные связи с другими участками сети не разрушаются, а, наоборот, активизируются. Их содержание в этом случае образует периферию, своеобразный фон, оказывающий воздействие на логическую переработку информации в "центре" функционирующего интеллекта.
Конечно, тип связей в подсознании человека и в семантических сетях принципиально различный, и поэтому поиск в семантической сети никогда не может быть суммой результатов (в частности, анализа речевого текста), которую дает взаимодействие между центром и периферией сознания. Важнейшими характеристиками периферии являются нечеткость, интуиция и глобальность. Однако не доказано, что этими чертами не могут быть наделены и искусственные системы. Нечеткие понятия, нечеткая логика, нечеткие алгоритмы уже ныне успешно проникают в различные сферы применения искусственного интеллекта.
В современных системах не имеется аналогов инсайта (озарения). А он, как известно, играет определенную роль и в некоторых процессах понимания текста. Однако нет оснований полагать, что такой эффект в принципе не воспроизводим техническими системами. С гносеологической точки зрения инсайт представляет собой разовый скачок от незнания к знанию, от условий задачи к ее решению. В процессе развития кибернетики был предложен ряд схем реализации такого скачка. Так, в некоторых исследованиях (55) решение задачи представляется как процесс возникновения цепи из известных понятий, связанных причинно-следственными отношениями, которая начинается условием и кончается решением. Образование такой цепи наступает при возбуждении всех ее звеньев, т. е. связанных понятий. Логический анализ, подчиненный целенаправленному поиску решения, может не нащупать то или иное звено в этой цепи, даже если он с точки зрения условий и решения идет в верных направлениях. Но процесс поиска включает в себя случайные (вероятностные) и ассоциативные компоненты, могущие активизировать невозбужденные звенья искомой цепи. Тогда цепь замыкается, возникает готовая информационная структура, являющаяся решением, т. е. имеет место внезапный скачок - инсайт. Эта схема, разумеется, не может претендовать на действительное описание реального процесса инсайта, происходящего в психике человека. Однако технические средства могут реализовать очерченный набросок схемы и таким образом приблизиться к выполнению функций инсайта.
Преодоление ограниченности локальной переработки информации, создание методов ее глобального охвата не могут быть осуществлены лишь методами совершенствования семиотических систем. Здесь определенную роль, как отмечено выше, может сыграть голография, что, по-видимому, является задачей довольно отдаленного будущего.
В связи с потенциальным приближением языков, используемых в системах искусственного интеллекта, к естественному языку возникает вопрос: нельзя ли рассматривать функционирование лингвистических процессоров в качестве моделей речевой деятельности человека? В сущности, этот вопрос является одной из конкретизации проблемы соотношения систем искусственного интеллекта с моделированием мышления. Речь идет о том, могут ли программы ЭВМ, выполняющие интеллектуальные (в частности, речевые) функции человека, рассматриваться как модели последних. Мы видели, что искусственный интеллект является средством познания сложных и сверхсложных систем. Такими системами являются, в частности, мозг, психика, мышление.
Эвристические программы типа "общего решателя задач" рассматривались их создателями в качестве полноценных моделей мыслительного процесса. Мы видели, однако, что они даже с позиций проблемы искусственного интеллекта весьма далеки от выполнения наиболее важных функций мышления. Вместе с тем реальное продвижение в решении задач искусственного интеллекта невозможно без наделения его важнейшими гносеологическими характеристиками мышления. Не следует ли отсюда, что системы искусственного интеллекта автоматически становятся моделями мышления? Ответ на этот вопрос должен опираться на общегносеологические критерии, по которым определяется адекватность мысленного образа объекту. Ведущую роль здесь играет оценка модели под углом зрения восхождения от абстрактного к конкретному. Важность такого подхода неоднократно отмечалась в марксистской литературе (11; с. 35 - 39, с. 45 - 47; 56; 57). Реальное развитие кибернетического моделирования в ряде исследований учитывает этот принцип. Однако он все еще недостаточно используется для оценки моделей, хотя в последнее время на него обращено внимание и с этой точки зрения (58; 59; 60). Мыслительная деятельность есть деятельность личности. Отсюда следует, что на процесс мышления влияют потребности, мотивы, воля, нравственная ориентация, в которой воплощены система ценностей и мировоззрение личности. Однако научная теория не может отобразить сразу всю совокупность внутренних и внешних связей мыслительного процесса.
Современные кибернетические модели мышления, даже если считать, что в них воплощены раскрытые гносеологией средства познания (к чему искусственный интеллект в действительности лишь начал приближаться), абстрагируются от эмоционально-волевой сферы и, следовательно, не дают и не могут дать полной картины мыслительного процесса. Они весьма абстрактны. При оперировании такими абстракциями, как отмечал В. И. Ленин, для истины нужны еще другие стороны действительности (61, т. 29, с. 178). Однако "мышление, восходя от конкретного к абстрактному, не отходит - если оно правильное... от истины, а подходит к ней... Все научные (правильные, серьезные, не вздорные) абстракции отражают природу глубже, вернее, полнее" (61, т. 29, с. 152). Абстракции, учитываемые в современных кибернетических моделях мышления, - символ, переработка информации, семантическая сеть и т. п. - это правильные, а не вздорные абстракции. Можно ли созданные на их основе программы считать моделями мыслительного процесса? На этот вопрос отвечают по-разному, начиная с полного отождествления процессов, происходящих в машине, с мышлением до полного отрицания какого бы то ни было сходства между ними. В основе последнего ответа лежит безусловная односторонность программ ЭВМ.
Мышление - это один из видов деятельности личности. В моделях мышления, созданных в кибернетике, последнее почти полностью отделено от личности как целого. Поэтому они не могут рассматриваться в качестве психологического понимания мышления. Однако та же претензия (хотя и в меньшей степени) может быть предъявлена и к традиционным психологическим теориям мышления. Как отмечает Е. В. Шорохова, задача ввести личностный аспект (действия, мотивы, способности) в исследования мышления хотя и была отчетливо сформулирована С. Л. Рубинштейном, но не решена до сих пор (62). Более того, современные кибернетические модели мышления, как правило, не учитывают даже множества взаимодействий внутри познавательной сферы и даже в самом процессе абстрактного мышления. Эти факты свидетельствуют не о том, что более или менее полноценная модель мышления невозможна, а о том, что кибернетическому моделированию предстоит длительный путь восхождения от абстрактного к конкретному, чтобы, используя искусственный интеллект, внести весомый вклад в создание психологической теории интеллектуальной деятельности личности.


ЗАКЛЮЧЕНИЕ

Гносеологический анализ проблемы искусственного интеллекта вскрывает роль таких познавательных орудий, как категории, специфическая семиотическая система, логические структуры, ранее накопленное знание. Они обнаруживаются не посредством исследования физиологических или психологических механизмов познавательного процесса, а выявляются в знании, в его языковом выражении. Орудия познания, формирующиеся в конечном счете на основе практической деятельности, необходимы для любой системы, выполняющей функции абстрактного мышления, независимо от ее конкретного материального субстрата и структуры. Поэтому, чтобы создать систему, выполняющую функции абстрактного мышления, т. е. в конечном счете формирующую адекватные схемы внешних действий в существенно меняющихся средах, необходимо наделить такую систему этими орудиями.
Развитие систем искусственного интеллекта за последние десятилетия идет по этому пути. Однако степень продвижения в данном направлении в отношении каждого из указанных познавательных орудий неодинакова и в целом пока незначительна.
1. В наибольшей мере системы искусственного интеллекта используют формально-логические структуры, что обусловлено их неспецифичностью для мышления и в сущности алгоритмическим характером. Это даст возможность относительно легкой их технической реализации. Однако даже здесь кибернетике предстоит пройти большой путь. В системах искусственного интеллекта еще слабо используются модальная, императивная, вопросная и иные логики, которые функционируют в человеческом интеллекте и не менее необходимы для успешных познавательных процессов, чем давно освоенные логикой, а затем и кибернетикой формы вывода. Повышение "интеллектуального" уровня технических систем, безусловно, связано не только с расширением применяемых логических средств, но и с более интенсивным их использованием (для проверки информации на непротиворечивость, конструирования планов вычислений и т. д.).
2. Намного сложнее обстоит дело с семиотическими системами, без которых интеллект невозможен. Языки, используемые в ЭВМ, еще далеки от семиотических структур, которыми оперирует мышление.
Прежде всего, для решения ряда задач необходимо последовательное приближение семиотических систем, которыми наделяется ЭВМ, к естественному языку, точнее, к использованию его ограниченных фрагментов. В этом плане предпринимаются попытки наделить входные языки ЭВМ универсалиями языка, например полисемией (которая элиминируется при обработке в лингвистическом процессоре). Разработаны проблемно-ориентированные фрагменты естественных языков, достаточные для решения системой ряда практических задач. Наиболее важным итогом этой работы является создание семантических языков (и их формализация), в которых слова-символы имеют интерпретацию.
Однако многие универсалии естественных языков, необходимые для выполнения ими познавательных функций, в языках искусственного интеллекта пока реализованы слабо (например, открытость) или используются ограниченно (например, полисемия). Все большее воплощение в семиотических системах универсалий естественного языка, обусловленных его познавательной функцией, выступает одной из важнейших линий совершенствования систем искусственного интеллекта, особенно тех, в которых проблемная область заранее жестко не определена.
Современные системы искусственного интеллекта способны осуществлять перевод с одномерных языков на многомерные. В частности, они могут строить диаграммы, схемы, чертежи, графы, высвечивать на экранах кривые и т. д. ЭВМ производят и обратный перевод (описывают графики и тому подобное с помощью символов). Такого рода перевод является существенным элементом интеллектуальной деятельности. Но современные системы искусственного интеллекта пока не способны к непосредственному (без перевода на символический язык) использованию изображений или воспринимаемых сцен для "интеллектуальных" действий. Поиск путей глобального (а не локального) оперирования информацией составляет одну из важнейших перспективных задач теории искусственного интеллекта.
3. Воплощение в информационные массивы и программы систем искусственного интеллекта аналогов категорий находится пока в начальной стадии. Аналоги некоторых категорий (например, "целое", "часть", "общее", "единичное") используются в ряде систем представления знаний, в частности в качестве "базовых
отношений", в той мере, в какой это необходимо для тех или иных конкретных предметных или проблемных областей, с которыми взаимодействуют системы.
В формализованном понятийном аппарате некоторых систем представления знаний предприняты отдельные (теоретически существенные и практически важные) попытки выражения некоторых моментов содержания и других категорий (например, "причина", "следствие"). Однако ряд категорий (например, "сущность", "явление") в языках систем представления знаний отсутствует. Проблема в целом разработчиками систем искусственного интеллекта в полной мере еще не осмыслена, и предстоит большая работа философов, логиков и кибернетиков по внедрению аналогов категорий в системы представления знаний и другие компоненты интеллектуальных систем. Это одно из перспективных направлений в развитии теории и практики кибернетики.
4. Современные системы искусственного интеллекта почти не имитируют сложную иерархическую структуру образа, что не позволяет им перестраивать проблемные
ситуации, комбинировать локальные части сетей знаний в блоки, перестраивать эти блоки и т. д.
Не является совершенным и взаимодействие вновь поступающей информации с совокупным знанием, фиксированным в системах. В семантических сетях и фреймах пока недостаточно используются методы, благодаря которым интеллект человека легко пополняется новой информацией, находит нужные данные, перестраивает свою систему знаний и т. д.
5. Еще в меньшей мере современные системы искусственного интеллекта способны активно воздействовать на внешнюю среду, без чего не может осуществляться самообучение и вообще совершенствование "интеллектуальной" деятельности.
Таким образом, хотя определенные шаги к воплощению гносеологических характеристик мышления в современных системах искусственного интеллекта сделаны, но в целом эти системы еще далеко не владеют комплексом гносеологических орудий, которыми располагает человек и которые необходимы для выполнения совокупности функций абстрактного мышления. Чем больше характеристики систем искусственного интеллекта будут приближены к гносеологическим характеристикам мышления человека, тем ближе будет их "интеллект" к интеллекту человека, точнее, тем выше будет их способность к комбинированию знаковых конструкций, воспринимаемых и интерпретируемых человеком в качестве решения задач и вообще воплощения мыслей.
В связи с этим возникает сложный вопрос. При анализе познавательного процесса гносеология абстрагируется от психофизиологических механизмов, посредством которых реализуется этот процесс. Но из этого не следует, что для построения систем искусственного интеллекта эти механизмы не имеют значения. Вообще говоря, не исключено, что механизмы, необходимые для воплощения неотъемлемых характеристик интеллектуальной системы, не могут быть реализованы в цифровых машинах или даже в любой технической системе, включающей в себя только компоненты неорганической природы. Иначе говоря, в принципе не исключено, что хотя мы можем познать все гносеологические закономерности, обеспечивающие выполнение человеком его познавательной функции, но их совокупность реализуема лишь в системе, субстратно тождественной человеку (1).
Такой взгляд обосновывается X. Дрейфусом. "Телесная организация человека, - пишет он, - позволяет ему выполнять... функции, для которых нет машинных программ - таковые не только еще не созданы, но даже не существуют в проекте... Эти функции включаются в общую способность человека к приобретению телесных умений и навыков. Благодаря этой фундаментальной способности наделенный телом субъект может существовать в окружающем его мире, не пытаясь решить невыполнимую задачу формализации всего и вся" (2, с. 220).
Как отмечает Б. В. Бирюков (3), подчеркивание значения "телесной организации" для понимания особенностей психических процессов, в частности возможности восприятия, заслуживает внимания. Качественные различия в способности конкретных систем отражать мир тесно связаны с их структурой, которая хотя и обладает относительной самостоятельностью, но не может преодолеть некоторых рамок, заданных субстратом. В процессе биологической эволюции совершенствование свойства отражения происходило на основе усложнения нервной системы, т. е. субстрата отражения. Не исключается также, что различие субстратов ЭВМ и человека может обусловить фундаментальные различия в их способности к отражению, что ряд функций человеческого интеллекта в принципе недоступен таким машинам. Эта проблема находится за пределами гносеологии, а потому осталась вне нашего детального рассмотрения.
Иногда в философской литературе утверждается, что допущение возможности выполнения технической системой интеллектуальных функций человека означает сведение высшего (биологического и социального) к низшему (к системам из неорганических компонентов) и, следовательно, противоречит материалистической диалектике, Однако в этом рассуждении не учитывается, что пути усложнения материи однозначно не предначертаны и не исключено, что общество имеет возможность создать из неорганических компонентов (абстрактно говоря, минуя химическую форму движения) системы не менее сложные и не менее способные к отражению, чем биологические. Созданные таким образом системы являлись бы компонентами общества, социальной формой движения. Следовательно, вопрос о возможности передачи интеллектуальных функций техническим системам, и в частности о возможности наделения их рассмотренными в работе гносеологическими орудиями, не может быть решен только исходя из философских соображений. Он должен быть подвергнут анализу на базе конкретных научных исследований. X. Дрейфус подчеркивает, что ЭВМ оперирует информацией, которая не имеет значения, смысла. Поэтому для ЭВМ необходим перебор огромного числа вариантов. Телесная организация человека, его организма позволяет отличать значимое от незначимого для жизнедеятельности и вести поиск только в сфере первого. Для "нетелесной" ЭВМ, утверждает Дрейфус, это недоступно. Конечно, конкретный тип организации тела позволяет человеку ограничивать пространство возможного поиска. Это происходит уже на уровне анализаторной системы. Совсем иначе обстоит дело в ЭВМ. Когда в кибернетике ставится общая задача, например распознания образов, то эта задача переводится с чувственно-наглядного уровня на абстрактный. Тем самым снимаются ограничения, не осознаваемые человеком, но содержащиеся в его "теле", в структуре органов чувств и организма в целом. Они игнорируются ЭВМ. Поэтому пространство поиска резко увеличивается. Это значит, что к "интеллекту" ЭВМ предъявляются более высокие требования (поиска в более обширном пространстве), чем к интеллекту человека, к которому приток информации ограничен физиологической структурой его тела.
Системы, обладающие психикой, отличаются от ЭВМ прежде всего тем, что им присущи биологические потребности, обусловленные их материальным, биохимическим субстратом. Отражение внешнего мира происходит сквозь призму этих потребностей, в чем выражается активность психической системы. ЭВМ не имеет потребностей, органически связанных с ее субстратом, для нее как таковой информация незначима, безразлична. Значимость, генетически заданная человеку, имеет два типа последствий. Первый - круг поиска сокращается, и тем самым облегчается решение задачи. Второй - нестираемые из памяти фундаментальные потребности организма обусловливают односторонность психической системы. Дрейфус пишет в связи с этим: "Если бы у нас на Земле очутился марсианин, ему, наверное, пришлось бы действовать в абсолютно незнакомой обстановке; задача сортировки релевантного и нерелевантного, существенного и несущественного, которая бы перед ним возникла, оказалась бы для него столь же неразрешимой, как и для цифровой машины, если, конечно, он не сумеет принять в расчет никаких человеческих устремлений" (2, с. 233). С этим нельзя согласиться. Если "марсианин" имеет иную биологию, чем человек, то он имеет и иной фундаментальный слой неотъемлемых потребностей, и принять ему "человеческие устремления" значительно труднее, чем ЭВМ, которая может быть запрограммирована на любую цель. Животное в принципе не может быть по отношению к этому фундаментальному слою перепрограммировано, хотя для некоторых целей оно может быть запрограммировано вновь посредством дрессировки. В этом (но только в этом) смысле потенциальные интеллектуальные возможности машины шире таких возможностей животных. У человека над фундаментальным слоем биологических потребностей надстраиваются социальные потребности, и информация для него не только биологически, но и социально значима. Человек универсален и с точки зрения потребностей, и с точки зрения возможностей их удовлетворения. Однако эта универсальность присуща ему как социальному существу, производящему средства целесообразной деятельности, в том числе и системы искусственного интеллекта.
Таким образом, телесная организация не только дает дополнительные возможности, но и создает дополнительные трудности. Поэтому интеллекту человека важно иметь на вооружении системы, свободные от его собственных телесных и иных потребностей, пристрастий. Конечно, от таких систем неразумно требовать, чтобы они самостоятельно распознавали образы, классифицировали их по признакам, по которым это делает человек. Им цели необходимо задавать в явной форме.
Вместе с тем следует отметить, что технические системы могут иметь аналог телесной организации. Развитая кибернетическая система обладает рецепторными и эффекторными придатками. Начало развитию таких систем положили интегральные промышленные роботы, в которых ЭВМ в основном выполняет функцию памяти. В роботах третьего поколения ЭВМ выполняет и интеллектуальные функции. Их взаимодействие с миром призвано совершенствовать их "интеллект". Такого рода роботы имеют "телесную организацию", конструкция их рецепторов и эффекторов содержит определенные ограничения, сокращающие пространство, в котором, абстрактно говоря, могла бы совершать поиск цифровая машина.
Тем не менее, совершенствование систем искусственного интеллекта на базе цифровых машин может иметь границы, из-за которых переход к решению интеллектуальных задач более высокого порядка, требующих учета глобального характера переработки информации и ряда других гносеологических характеристик мышления, невозможен на дискретных машинах при сколь угодно совершенной программе. Это значит, что техническая (а не только биологическая) эволюция отражающих систем оказывается связанной с изменением материального субстрата и конструкции этих систем. Такая эволюция, т. е. аппаратурное усовершенствование систем искусственного интеллекта, например, через более интенсивное использование аналоговых компонентов, гибридных систем, голографии и ряда других идей, будет иметь место. При этом не исключается использование физических процессов, протекающих в мозгу, и таких, которые психика в качестве своих механизмов не использует. Наряду с этим еще далеко не исчерпаны возможности совершенствования систем искусственного интеллекта путем использования в функционировании цифровых машин гносеологических характеристик мышления, о которых речь шла выше.
Развитие информационной техники позволило компенсировать человеку психофизиологическую ограниченность своего организма в ряде направлений. "Внешняя нервная система", создаваемая и расширяемая человеком, уже дала ему возможность вырабатывать теории, открывать количественные закономерности, раздвигать пределы познания сложных систем. Искусственный интеллект и его совершенствование превращают границы сложности, доступные человеку, в систематически раздвигаемые. Это особенно важно в современную эпоху, когда общество не может успешно развиваться без рационального управления сложными и сверхсложными системами. Разработка проблем искусственного интеллекта является существенным вкладом в осознание человеком закономерностей внешнего и внутреннего мира, в их использование в интересах общества и тем самым в развитие свободы человека.


ЦИТИРУЕМАЯ ЛИТЕРАТУРА
ВВЕДЕНИЕ
1 Маккарти Дж., Хейес Р. Дж. Некоторые философские проблемы в задаче построения искусственного интеллекта. - Кибернетические проблемы бионики. М., 1972.
2 Клаус Г. Кибернетика и философия. М., 1963.
3 Klaus б. Kybernetik und Erkentnistheorie. Berlin, 1966.
4 Маркс К., Энгельс Ф. Соч.
5 Нильсон Н. Искусственный интеллект. М., 1973.
6 Бенерджи Р. Теория решения задач. М., 1972.
7 Поспелов Г. С. Возникновение и развитие методов искусственного интеллекта. - Вопросы кибернетики, вып. 61. М., 1980.
8 Кузин Л. Т. Основы кибернетики, т. 2. М., 1979.
ГЛАВА I
1 Ильенков Э.В. Диалектическая логика. М., 1974.
2 Рубинштейн С. JI. О мышлении и путях его исследования. М., 1958.
3 Кант И. Соч. в 6-ти томах, т. 3. М., 1964.
4 Маркс К.,Энгельс Ф. Соч.
5 Крушипский Л. В. Биологические основы рассудочной деятельности. М., 1977.
6 Арнхейм Р. Визуальное мышление. - Зрительные образы: феноменология и эксперимент, ч. 1. Душанбе, 1971.
7 Арнхейм Р. Искусство и визуальное восприятие. М., 1974.
8 Грегори Р. Разумный глаз. М., 1972.
9 Зинченко В. П. Продуктивное восприятие. - Вопросы психологии, 197l, № 6.
10Ленин В. И. Поли. собр. соч.
11 Веккер Л. М, Психологические процессы, т. 1. Л., 1974; т. 2.
Л., 1976.
12 Украинцев Б. С. О возможностях кибернетики в свете свойства отображения материи. - Философские вопросы кибернетики. М., 1961.
13 Украинцев Б. С. Отображение в неживой природе. М., 1969.

<< Пред. стр.

страница 2
(всего 3)

ОГЛАВЛЕНИЕ

След. стр. >>

Copyright © Design by: Sunlight webdesign