101 заблуждение ИИ-философов

Материал из Викиверситета
Перейти к навигации Перейти к поиску
  1. Возможно создать сильный ИИ средствами машин Тьюринга
    Первая критика данного утверждения описана Джоном Сёрлом в «Сознание, мозг и программы». Он определяет сильный ИИ так: „Согласно сильному ИИ, компьютер – это не просто инструмент в исследовании сознания [в отличии от слабого ИИ]; компьютер, запрограммированный подходящим образом, на самом деле и есть некое сознание в том смысле, что можно буквально сказать, что при наличии подходящих программ компьютеры понимают, а также обладают другими когнитивными состояниями. Согласно сильному ИИ, поскольку снабженный программой компьютер обладает когнитивными состояниями, программы – не просто средства, позволяющие нам проверять психологические объяснения; сами программы суть объяснения.“ Причем акцент делается именно на любое моделирование феноменов человеческой психики средствами машин Тьюринга.
  2. Понимание, которое мы часто метафорически атрибутируем машинам, есть в точности то понимание, которое присуще людям
    Джон Сёрл указывает: „Мы говорим: «Дверь знает, когда открываться, так как в ней есть фотоэлемент», «Счетная машинка знает (умеет, способна), как складывать и вычитать, но не делить» и «Термостат воспринимает изменения температуры». Очень интересно, на каком основании мы делаем такие атрибуции, и это основание связано с тем, что мы распространяем на артефакты нашу собственную интенциональность; наши инструменты суть продолжения наших целей, и поэтому мы находим естественным приписывать им метафорическим образом интенциональность; но я считаю, что такие примеры не решают никаких философских вопросов. Тот смысл, в каком автоматическая дверь «понимает инструкции» посредством своего фотоэлемента, – это вовсе не тот смысл, в каком я понимаю английский язык.
  3. Чтобы проверить действительно ли машина может понять сказанное или написанное, достаточно получить правдоподобные ответы на вопросы
    Другими словами достаточность прохождения теста Тьюринга. В тесте о китайской комнате это очевидно опровергается.
  4. Если машина проходит тест Тьюринга, тогда то, что делает машина и ее программа, объясняет человеческую способность понимать рассказ и отвечать на вопросы о нем
    В тесте о китайской комнате это очевидно опровергается.
  5. Феномены человеческого сознания не зависят от физико-химических свойств человеческого мозга
    Джон Сёрл замечает: „... воспроизвести и объяснить ментальное, конструируя программы, возможно лишь в том случае, если сознание не только концептуально, но и эмпирически не зависит от мозга, ибо программа совершенно не зависит от той или иной реализации. Вы можете надеяться воспроизвести ментальное, конструируя и запуская программы, лишь в том случае, если вы полагаете, что сознание отделимо от мозга как концептуально, так и эмпирически, ибо программы должны быть независимы от мозга, а равно и от любых конкретных форм инстанциации. Если ментальные операции состоят в вычислительных операциях над формальными символами, то, следовательно, они никаким интересным образом не связаны с мозгом; единственная связь заключалась бы в том, что мозгу случилось быть одним из неопределенно большого числа типов машин, способных инстанциировать данную программу.“ А это не соответствует реальности, и приводит нас скорее к религии, чем к науке.
  6. Интеллект, мышление, сознание и прочие психологические состояния и ментальность не являются биологическим феноменом
    Джон Сёрл замечает: „Никому не придет в голову, что мы можем производить молоко и сахар, запустив компьютерную модель формальных последовательностей лактации и фотосинтеза, но когда заходит речь о сознании, многие люди упорно хотят верить в такое чудо по причине своего глубокого и прочно укорененного дуализма: сознание, которое они имеют в виду, зависит от формальных процессов и не зависит от совершенно конкретных материальных причин – в отличие от молока и сахара.
  7. Компьютерные модели могут быть самими реальными вещами
    Джон Сёрл замечает: „Никому ведь не приходит в голову, что компьютерное моделирование пожарной тревоги может сжечь дотла соседние дома или что компьютерное моделирование ливня заставит нас всех промокнуть. Так почему же кому-то должно прийти в голову, что компьютерная модель понимания на самом деле что-то понимает? ... Спутать моделирование чего-то с дублированием этого самого – ошибка одного и того же рода, идет ли речь о моделях боли, любви, познания, пожара или ливня.“. Кроме того С.Лем описал почему целью моделирования не является воссоздание действительности.
  8. Эмоции (ощущения, чувства, переживания) можно моделировать программно на компьютере
    Это по сути частный случай, когда компьютерная модель не может быть реальной вещью. Чтобы реально моделировать эмоции нужно воссоздать биологически условия, когда можно зарегистрировать, что машина (устройство) испытывает (а не имитирует) эмоцию. А пока мы знаем только биологические примеры таких реакций, например, когда эндорфины воздействуют на нервные окончания или когда производится раздражение ноцицепторов.
    -----------------------------------------------------------------------------------------------------------
    • Итак, начиная от сюда, мы прочно стали на тот путь, что моделируя интеллект на компьютере или другими не биологическими методами (например, робототехническими), невозможно получить сильный ИИ. А чтобы понять как моделировать интеллект биологически, нам вначале нужно понимать как функционирует биологический мозг. Поэтому мы занимаемся слабым ИИ, согласно которому „основная ценность компьютера в изучении сознания состоит в том, что он дает нам некий очень мощный инструмент. Например, он дает нам возможность более строгим и точным образом формулировать и проверять гипотезы.“ Но заблуждений еще по прежнему много.
  9. Для изучения интеллекта достаточно рассматривать только человека, а еще точнее только неокортекс
    В частности этого положения придерживается Джефф Хокинс [1]. Но мы знаем, что определенные зачатки интеллекта есть и у обезьян, ворон, рыб, и даже муравьев. Поэтому нижней границей интеллекта, является наличие нервной системы [2], которая эволюционно впервые появляется у гидры, поэтому уже начиная отсюда можно пытаться моделировать (изучать) проявление интеллектуальных способностей. Поэтому если мы хотим действительно разобраться в феномене интеллектуальности, нужно начинать с низкоуровневых признаков интеллектуальности, а не с высокоуровневых проявлений, которые невозможно разложить на более простые компоненты, а в следствии чего понять причины интеллекта.

Примечания[править]

  1. см. Джефф Хокинс (2005). On intelligence, Times Books, Henry Holt and Co. ISBN 0-8050-7456-2
  2. а может быть, и это не предел, т.к. эволюционных предшествеников мембранных белков, выполняющих функции рецепторов, столь важные для нервных клеток, можно найти в самых примитивных организмах, начиная с бактерий.

Литература[править]