Китайська кімната - уявний експеримент, описаний Джоном Серлі, в якому критикується можливість моделювання людського розуміння, зокрема природної мови, шляхом створення " штучного інтелекту ". По суті є критикою тесту Тьюринга.

Був запропонований в 1980 у статті "Minds, Brains, and Programs" ("Розум, мозок і програми").

Приватним висновком є ​​неможливість повної імітації розуму за допомогою програм синтаксичного аналізу, т. зв. ботів, що добре підтверджується в реальній практиці. Типовою спробою створення такого бота був наприклад проект Alice-bot.


1. Уявний експеримент

У популярній статті "Is the Brain's Mind a Computer Program?" ("Чи є мозковий мислення комп'ютерною програмою?"), Опублікованої в 1980, Серлі описує експеримент наступним чином (цитується по російському перекладу: "У світі науки", 1990, № 3, с. 7-13):

Візьмемо, наприклад, який-небудь мову, якої ви не розумієте. Для мене такою мовою є китайський. Текст, написаний по-китайськи, я сприймаю як набір безглуздих каракулей. Тепер припустимо, що мене помістили в кімнату, в якій розставлені кошики, повні китайських ієрогліфів. Припустимо також, що мені дали підручник на англійській мові, в якому наводяться правила поєднання символів китайської мови, причому правила ці можна застосовувати, знаючи лише форму символів, розуміти значення символів зовсім необов'язково. Наприклад, правила можуть гласить: "Візьміть такий-то ієрогліф з кошика номер один і помістіть його поруч з таким-ієрогліфом з кошика номер два".

Уявімо собі, що знаходяться за дверима кімнати люди, розуміють китайську мову, передають у кімнату набори символів і що у відповідь я маніпулюю символами згідно з правилами і передаю назад інші набори символів. В даному випадку книга правил є не що інше, як "комп'ютерна програма". Люди, які написали її, - "програмісти", а я граю роль "комп'ютера". Кошики, наповнені символами, - це "база даних"; набори символів, що передаються в кімнату, це "питання", а набори, що виходять з кімнати, це "відповіді".

Припустимо далі, що книга правил написана так, що мої "відповіді" на "питання" не відрізняються від відповідей людини, що вільно володіє китайською мовою. Наприклад, люди, що перебувають зовні, можуть передати незрозумілі мені символи, що означають; "Який колір вам найбільше подобається?" У відповідь, виконавши запропоновані правилами маніпуляції, я видам символи мені також незрозумілі і що означають, що мій улюблений колір синій, але мені також дуже подобається зелений. Таким чином, я витримаю тест Тьюринга на розуміння китайської мови. Але все ж насправді я не розумію ні слова по-китайськи. До того ж я ніяк не можу навчитися цій мові в розглянутій системі, оскільки не існує ніякого способу, за допомогою якого я міг би дізнатися сенс хоча б одного символа. Подібно комп'ютера, я маніпулюю символами, але не можу додати їм якого б то не було сенсу. Цей приклад відповідає системі швидкого навчання формальним знанням для вирішення типових завдань, яка сьогодні стала витісняти в комерційних школах аналітичну систему освіти. Такі фахівці з програмним мисленням здатні швидко, не роздумуючи, вирішувати завдання з заученого набору, але абсолютно безпорадні в нестандартній ситуації. Аналітичне мислення, використовуючи власні знання, може шляхом зіставлення комбінацій символів і аналізу порядку в переданих повідомленнях для відповіді, визначити стійкі сценарії їх застосування, а значить побудувати класифікатор умовних понять і форм застосування. Отриману формальну систему можна узгодити з власною системою знань, за принципом несуперечності перекладу висловлювань на обох мовах в загальному просторі мислення. У результаті ми отримаємо однозначне відносне уявлення про невідомій мові, але конкретні характеристики об'єктів у цій мові залишаться невизначеними. Внести визначеність можна тільки калібрувальними тестами звірення базових елементів обох систем для встановлення функції їх відображення. До цього типу завдань відноситься також встановлення контакту з розумом іншої форми життя, розвинене в принципово інших фізичних умовах.


2. Формалізація

В 1984 році Серлі формулює свою ідею більш формалізовано. Він розглядає такі передумови:

  • Передумова 1: Мозок породжує розум.
  • Передумова 2: Синтаксису недостатньо для існування семантики.
  • Передумова 3: Комп'ютерна програма повністю визначається своєю синтаксичною структурою.
  • Передумова 4: Людський розум оперує смисловим змістом (семантикою).

І робить висновки:

  • Висновок 1: Програми не є сутністю розуму і їхньої наявності недостатньо для наявності розуму.
  • Висновок 2: Той спосіб, за допомогою якого людський мозок насправді породжує ментальні явища, не може зводитися лише до виконання комп'ютерної програми.
  • Висновок 3: Те, що породжує розум, повинно володіти принаймні причинно-наслідковими властивостями, еквівалентними відповідним властивостям мозку.

Фактично він спирається на той факт, що будь мозок є складною нейронною мережею з глибокої вкладеністю, взаємодіючої з системою інших аналогічних мереж, і робота всієї це системи, що є "великий" системою з нескінченним Недетермінірованним кількістю станів, по суті і породжує розум окремого суб'єкта, не може бути змодельована за допомогою кінцевих автоматів будь-якого типу.


3. Дискусія

Уявний експеримент викликав інтенсивну дискусію серед науковців. Були висунуті різні доводи проти результатів, отриманих Серлі:

  • Деякі критики вважають, що тест Тьюринга витримав не робот, а система, що складається з кімнати, книги правил і робота. Серлі, на їхню думку, відволікає увагу від цього факту, концентруючись на одному з компонентів системи, що виконує в даному випадку чисто механічну роботу. Система з книги правил, людини і кімнати, на їхню думку, є розумною і розуміє китайську мову.
  • Інші ставлять під сумнів саме існування семантики, на думку авторів цієї гіпотези, будь-яке мислення є всього лише маніпулювання синтаксисом, аналогічне здійснюваному в комп'ютерах.

Література

  • Searle, John. R. (1980) Minds, brains, and programs. Behavioral and Brain Sciences 3 (3): 417-457 (Джон Серлі, стаття "Розум, мозок і програми", 1980)
  • Джон Серлі, книга "Minds, Brains, and Science" ("Розум, мозок і наука", 1984)
  • Пол М. Черчленд і Патриція Сміт Черчленд ("Чи може машина мислити?", "У світі науки", 1990, № 3, с. 14)
  • Searle, John. R. Is The Brain 's Mind A Computer Program?. Scientific American, Jan. 1990, pp. 26-31 (Джон Сірл, стаття "Розум мозку - комп'ютерна програма?" "У світі науки", 1990, № 3, с. 7-13)

Примітки

Перегляд цього шаблону Уявні експерименти
Персоналій
і персонажів

Лаплас : Демон Лапласа Максвелл : Демон Максвелла Шредінгер : Кіт Шредінгера Рассел : Чайник Рассела Ейнштейн : Парадокс Ейнштейна - Подольського - Розена

Апорії Зенона : Ахіллес і черепаха Дихотомія Стадіон Стріла Зенона
Фізичні Демон Лапласа Демон Максвелла Квантове безсмертя Квантове самогубство Кіт Шредінгера Парадокс Белла Парадокс субмарини Парадокс Ейнштейна - Подольського - Розена Парадокс близнюків Мікроскоп Гейзенберга Гарматне ядро ​​Ньютона Парадокс Еренфеста
Кібернетичні Завдання двох генералів Завдання візантійських генералів Китайська кімната Імітація реальності Мозок у колбі
Інші Теорема про нескінченних мавпах Парадокс Ньюкома Дилема ув'язненого Кімната Марії Парадокс Левинталя Філософський зомбі
Наукова методологія Мислення (філософія)
Перегляд цього шаблону Штучний інтелект
Філософія

Тест Тьюринга Китайська кімната

Nuvola apps Talk.PNG
Портал
Напрямки
Застосування
Дослідники
Організації