iCub ростом с двухлетнего ребенка. У него есть глаза, уши и тактильные датчики, что позволяет ему взаимодействовать с окружающим миром и познавать его.
Если вы показываете iCub предмет и называете его («это красный мяч»), компьютерная программа сопоставляет зрительный образ объекта с вербальным обозначением. Таким образом, когда вы в следующий раз показываете красный мяч и спрашиваете, что это, робот ответит: «Красный мяч». Цель в том, чтобы каждое взаимодействие расширяло базу знаний робота. Изменяя связи в своей внутренней программе, он создает набор подходящих ответов.
Робот часто ошибается. Если вы покажете несколько предметов и попросите iCub назвать их, то услышите несколько ошибочных ответов и много раз повторенное «не знаю». Все это – составная часть процесса обучения и хорошая иллюстрация того, насколько сложно создать интеллект.
Я провел довольно много времени в лаборатории, взаимодействуя с iCub, и должен признаться, что это впечатляющий проект. Но чем дальше, тем очевиднее становился тот факт, что программу нельзя назвать разумной. Несмотря на большие глаза, дружелюбные интонации и детские движения, робот iCub не разумен. Он управляется строками программы, а не ходом мыслей. Хотя мы только приступаем к созданию искусственного интеллекта, я не могу удержаться от старого и глубокого философского вопроса: способны ли строки компьютерного кода думать? Робот iCub может ответить: «Красный мяч», – но воспринимает ли он красный цвет и понятие сферы? Делают ли компьютеры только то, на что запрограммированы, или они действительно накапливают внутренний опыт?
Можно ли компьютер запрограммировать таким образом, чтобы он обладал сознанием, разумом? В 1980-х гг. философ Джон Серл предложил мысленный эксперимент, который обращается к самой сути этого вопроса. Серл назвал его «Китайская комната».
Эксперимент устроен следующим образом. Я сижу в запертой комнате. Через узкую щель мне передают листки с вопросами на китайском языке. Я не знаю китайского. Я понятия не имею, что написано на этих листках бумаги. Но в комнате у меня есть библиотека с пошаговыми инструкциями, которые подробно объясняют, что делать с полученными символами. Я смотрю на символы и просто выполняю инструкцию из книги, в которой объясняется, из каких китайских иероглифов должен состоять ответ. Я записываю их и просовываю листок в щель.
В мысленном эксперименте «Китайская комната» человек в каморке манипулирует символами. Это вводит в заблуждение носителя языка, который думает, что человек в каморке знает китайский.
Когда человек, знающий китайский язык, получает мой ответ, записка кажется ему осмысленной. Создается впечатление, что тот, кто находится в комнате, должен понимать по-китайски – ведь он дает правильные ответы. Я обманул носителя языка, поскольку только выполнял инструкции, на самом деле не понимая, что происходит. Имея в своем распоряжении достаточно времени и достаточный набор инструкций, я могу ответить почти на все вопросы на китайском языке. Но я не понимаю китайского языка, а только манипулирую символами, не имея ни малейшего представления, что они означают.
Серл утверждал, что именно это и происходит внутри компьютера. Независимо от сложности программы, например, как у iCub, она лишь выполняет набор инструкций, чтобы выдать нужный ответ, – манипулирует символами, не понимая смысла своих действий.
Примером реализации этого принципа может служить Google. Когда вы отправляете запрос, поисковая система не понимает ни вашего вопроса, ни своего ответа: она просто пропускает нули и единицы через логический фильтр и возвращает вам нули и единицы. С помощью такой потрясающей программы, как Google Translate, я могу ввести фразу на суахили и получить перевод на венгерский. Но все это делает алгоритм. Он манипулирует символами, как человек в «Китайской комнате». Google Translate не понимает предложение, которое переводит; оно для него не имеет смысла.
Эксперимент «Китайская комната» показывает, что создаваемые нами компьютеры, которые имитируют человеческий интеллект, на самом деле не понимают, о чем идет речь; все их действия лишены смысла. Серл использовал этот мысленный эксперимент для доказательства того, что в мозгу человека есть нечто такое, что невозможно объяснить посредством аналогии с цифровым компьютером. Между бессмысленными символами и нашим сознательным восприятием пролегает глубокая пропасть.
Споры по поводу интерпретации «Китайской комнаты» продолжаются, но в любом случае этот аргумент подчеркивает удивительную загадку: каким образом физические элементы складываются в наше ощущение себя как живого существа в этом мире. При любой попытке симулировать или создать разум, подобный человеческому, мы сталкиваемся с главным из неразрешенных вопросов нейробиологии: как такое богатое и глубоко субъективное явление, как сознание – укол боли, краснота красного, вкус грейпфрута, – возникает из миллиардов маленьких клеток мозга, выполняющих простейшие операции? Сама по себе клетка может немногое. Каким образом миллиарды этих действий складываются в субъективное восприятие собственной личности?
В 1714 г. Готфрид Вильгельм Лейбниц заявил, что одна лишь материя не может произвести разум. Немецкий философ и математик Лейбниц был человеком энциклопедических знаний; иногда его называли «последним человеком, который знает все». Он считал, что мозговая ткань не может иметь внутренней жизни. Ученый предложил мысленный эксперимент, известный как «мельница Лейбница». Представьте себе большую мельницу. Войдя внутрь, вы увидите движущиеся шестерни и рычаги, но было бы нелепым предположить, что мельница обладает мыслями, чувствами или восприятием. Разве может мельница влюбиться или любоваться закатом? Это всего лишь механизм. То же самое относится к мозгу, утверждал Лейбниц. Если увеличить мозг до размеров мельницы и обойти его изнутри, вы увидите только элементы, из которых он состоит. Ничего такого, что соответствовало бы восприятию. Просто все части взаимодействуют друг с другом. Зарегистрировав каждое взаимодействие, вы не смогли бы показать вместилище чувств, мыслей и восприятия.