Пиши и продавай!
как написать статью, книгу, рекламный текст на сайте копирайтеров

 <<<     ΛΛΛ     >>>   

346

тацией и достижением и использовать компьютеры подобно тому, как это делают остальные ученые — как замечательные вычислительные устройства для применения и проверки теорий. Сильный искусственный интеллект является требованием (опровергнутым мысленным экспериментом с китайской комнатой) того, что имитация интеллекта есть интеллект. Сирл полагает, что сильного искусственного интеллекта достичь не удастся в силу тех же причин, по которым компьютер не в состоянии осуществить процесс фотосинтеза: он сделан не из того материала. По мнению Сирла, фотосинтез — это природная биологическая функция определенных структур растения, а мышление и понимание — природная биологическая функция мозга. Машины не обладают природными биологическими функциями и поэтому не могут ни фотосинтезировать, ни понимать. Компьютеры могут обеспечить нас орудием для того, чтобы помочь исследовать фотосинтез или понимание, но, по мнению Сирла, они не в состоянии действительно делать то или другое. Аргументы Сирла напоминают замечания, сделанные Лейбницем:

Представим, что существует машина, сконструированная так, чтобы думать, чувствовать и понимать, как мы, и что при этом она таких размеров, что мы можем войти внутрь нее. Сделав это, мы обнаружим там только части, соединенные друг с другом, но ничего такого, что позволило бы объяснить восприятие, (цит. по: К. Gunderson, 1984, р. 629).

Мысленный эксперимент Сирла с «китайской комнатой» оказался одним из самых содержательных в истории искусственного интеллекта и когнитивистики, и спор все еще не закончен. Одних психологов и философов он вдохновляет, а у других вызывает ярость настолько, что спорящие стороны начинают говорить не друг с другом, а в пространство, не обращая внимания на аргументы противной стороны (J. Searle, 1997). То, на чью сторону встанет читатель, по-видимому, вопрос его интуиции, а также надежд и страхов по поводу компьютеризованного будущего.

Правдоподобен ли формализм? Согласно заявлению информационного комитета по когнитивистике (W. К. Estes and A. Newell, 1983), вследствие того, что компьютеры обладают «символьным поведением» (как раз тем, в чем Сирл им отказывал), «мы можем программировать их таким образом, чтобы они справлялись с любыми задачами, которые поставит наш разум». В заявлении комитета таилось утверждение в духе формализма. Компьютеры могут делать все, что может быть записано в виде компьютерной программы, и комитет, следуя заявлению Г. Саймона о том, что компьютеры можно запрограммировать делать «все, что способен делать человек, все, на что мы направляем наш разум», в неявной форме утверждал, что все, что делают люди, является формальной процедурой. Формализм в психологии представляет собой конечный пункт механизации картины мира; подобно тому, как физика добилась успеха в анализе природы как машины, когнитивистика надеется добиться успеха в анализе людей как машин (Н. Dreyfus, 1972). Но «китайская комната» Сирла бросила вызов механистическому формализму, продемонстрировав, что формальная обработка символов не влечет за собой понимания языка. Еще один вызов представляла собой проблема

347

фрейма, поскольку она ставила под вопрос не только способность компьютеров имитировать интеллект человека, но и саму возможность обретения интеллекта машиной.

Дэниел Деннет живо обрисовал проблему фрейма в следующей истории:

Жил-был робот, названный своими создателями Ry Его единственной задачей была забота о самом себе. Однажды его создатели устроили так, что он узнал, что его запасная батарея, драгоценный источник энергии, заперта в комнате с бомбой с часовым механизмом, которая вскоре должна взорваться. Rf нашел комнату и ключ от двери и сформулировал план, как спасти свою батарею. В комнате была тележка, батарея находилась на тележке, и R{ выдвинул гипотезу о том, что определенное действие под названием ВЫКАТИТЬ (ТЕЛЕЖКА, КОМНАТА) приведет к тому, что батарея окажется убранной из комнаты. Он сразу же приступил к действию, и действительно смог вытащить батарею из комнаты до того, как бомба взорвалась. Но, к несчастью, бомба тоже была на тележке. Rt знал, что бомба находилась на тележке в комнате, но не понимал, что выкатывание тележки из комнаты вместе с батареей принесет и бомбу. Бедный Д( упустил из виду очевидные последствия своего запланированного действия.

Создатели вернулись к кульману. «Решение очевидно, — сказали они. — Наш следующий робот должен быть сделан так, чтобы мог распознавать не только подразумевающиеся последствия действия, но и возможные побочные последствия, методом дедукции выводя эти последствия из описаний, которые он использует при формулировке своих планов». Они назвали свою следующую модель робот-дедуктор, RlDy Они поставили 7?,!), точно в такое же сложное положение, с которым не справился его предшественник, и, как только тот натолкнулся на идею ВЫКАТИТЬ (ТЕЛЕЖКА, КОМНАТА), он начал, как и было запланировано, рассматривать следствия подобного образа действий. В конце концов он пришел к выводу, что изъятие тележки из комнаты не изменит цвета стен, и приступил к рассмотрению еще одного следствия, согласно которому выкатывание тележки из комнаты приведет к тому, что число оборотов, которые совершат колеса тележки, превзойдет количество самих колес, но тут бомба взорвалась'.

Создатели вернулись к кульману. «Мы должны научить его различать относящиеся и не относящиеся к делу последствия, — сказали они, — и игнорировать те, которые к делу не относятся». Поэтому они разработали метод, с помощью которого проектируемый робот мог бы помечать следствия соответствующим ярлычком — «уместно» и «неуместно», и инсталлировали этот метод в свою следующую модель под названием робот-дедуктор уместности или, для краткости, R2DV Когда его подвергли испытанию, которое привело к гибели предшественников, ученые были удивлены, увидев робота сидящим в позе Гамлета за пределами комнаты, где тикала бомба; его природную решимость омрачила бледная тень размышлений, как метко заметил Шекспир... «Делай что-нибудь!» — закричали ему. «Я делаю, — ответил он. — Я проигнорировал несколько тысяч следствий, которые определил как не относящиеся к делу. Как только я нахожу неуместное следствие, я вставляю его в список, который должен игнорировать, и...» Бомба взорвалась (Dennett, 1984, pp. 129-130).

и его потомки оказались пойманными в ловушку проблемы фрейма. Каким образом можно формализовать человеческие знания и навыки решения проблемы в виде набора компьютеризированных правил? Достаточно очевидно, что люди не делают того, что делали роботы: каким-то образом мы решаем проблему быстро и

348

с незначительными сознательными размышлениями, как раз так, как это открыли вюрцбургские психологи. Если бы мы выполняли работу так же, как роботы, то уже давным-давно вымерли бы. Похоже, что люди выполняют эту работу с помощью интуиции, а не посредством вычислений: решения проблемы возникают у нас без размышлений; адаптивное поведение имеет место без размышлений. Нам не надо думать, чтобы игнорировать все абсурдные вещи, над игнорированием которых работал R2DV поскольку абсурдные и неуместные последствия у нас просто не возникают. Но компьютер, будучи формальной системой, должен переработать все последствия своих действий и затем проигнорировать их.

Выход из проблемы фрейма, видимо, подразумевает привлечение эмоций, которыми компьютеры не обладают.

Развитие: новый коннекционизм

Новая игра в городе. При всех спорах и трудностях парадигма манипуляции символами в когнитивистике оставалась «единственной игрой в городе», как любил говорить философ Джерри Фодор. Если мышление не является манипуляцией формальными символами согласно формальным правилам, то чем еще оно может быть? Поскольку на этот вопрос не было ответа (за исключением ответов «загнанных в гетто» последователей Б. Ф. Скиннера и нескольких других диссидентов, например последователей Л. Витгенштейна), то волей-неволей когнитивные психологи оставались в лагере переработки информации. Но в начале 1980-х гг. возникла конкурирующая игра под названием коннекционизм, напоминающая нам (но не самим коннекционистам) старый коннекционизм Э. Л. Торндайка.

 <<<     ΛΛΛ     >>>   

Был английский психолог ганс айзенк
психологии Лихи Т. История современной психологии 2 психологии
331 безобразное 115 его механизация 327 моделирование его 332 мэйо э моделирование натурализм
199 экспериментальная психология 107 эмпиризм 67 просвещения франции
Не к самому мышлению

сайт копирайтеров Евгений