Дискуссия: ИИ - аспекты при исследовании сворачивания РНК

Материал из Викиверситета
Научная дискуссия

Здесь ведется научная дискуссия. Соблюдайте правила ведения научной дискуссии, мнения и комментарии оставляйте на странице обсуждения.


Тезисы[править]

В ходе исследования по проекту RNAFoldingAI была проанализирована возможность использования методов искусственного интеллекта (ИИ), для улучшения и ускорения поиска траектории сворачивания цепи РНК. На основе этого исследования можно отметить проблематику методов ИИ и наметить пути их развития, с учетом того, что эти методы действительно должны обладать интеллектуальными возможностями.

Факты[править]

  1. Многие методы ИИ для поиска новых возможностей основываются на случайном поиске. Но отличает их от метода Монте Карло, то что они тем или иным образом выделяют подмножества, в которых наиболее рационально осуществлять случайный поиск. Примерами таких методов могут быть генетические алгоритмы и методы обучения с подкреплением (Q-Learning)

Выдвигаемые положения[править]

  1. Следует признать, что любые методы, которые используют поиск основанный на случайности - потерпят фиаско. Точное решение не будет никогда получено и ход его получения останется неизвестным
  2. В тоже время, следует отметь, что этот подход используется всегда для сложной и неизвестной задачи (это можно считать необходимым условием проявления интеллектуальности)
  3. Но всегда, когда есть возможность планомерно и логически получить решение, стоит воспользоваться именно таким подходом, а не основанные на случайном поиске
  4. Поэтому встает вопрос - как человек трансформирует изначальный случайный поиск решения в точный логический путь решения ? Наличие такой трансформации, выполняемой автоматически (без участия человека для новой задачи), является достаточным условием проявления интеллектуальности.

Поставленные вопросы[править]

Обсуждение[править]

Фрагмент частной беседы с Данером[1] (специалистом в области интеллектуальной робототехники)[править]

  • Итак, я пришел к однозначному выводу - что те методы ИИ, которые используют случайный поиск в каких бы то не было вариациях, а именно QLearning, Генетические алгоритмы и т.п., - они мало пригодны для, так сказать, основы ИИ в универсальном смысле ... S.J. 02:51, 11 марта 2010 (UTC)
Примичание от Данера : Я биоинформатику только на базовых уровнях знаю, поэтому сомневаюсь что мое мнение в этой области представляет какой-то интерес. Как мне кажется среда в которой я работаю (т.е. задачи) очень сильно отличается от той, о которой вы пишите. Не проще, не сложнее -- поросто другое. Поэтому мы с вами можем по разному оценивать важность каких-то методов для ИИ и именно по этой причине, я категорически против таких ГЛОБАЛЬНЫХ обобщений какие вы делаете.
А вот это как раз не столь важно, т.к. математически это все одно и тоже - поиск на некоторой ландшафтной поверхности, а какая там подоплека не столь важно. И именно поэтому в таких обобщениях нет ничего не обычного (собственно и обобщения нету - один в один) - просто разные исследуемые функции. А ваше мнение важно именно в данном аспекте, для тех же кто знаком с Биоинформатикой дискуссия разделена - Дискуссия: Биологические аспекты сворачивания РНК. К сожалению, людей которые знают и то и другое - единицы, и то знания в разной мере. S.J. 10:22, 11 марта 2010 (UTC)

daner

Согласен, с той частью в которой говориться про "универсальный". No free lunch. Другое дело, что я не согласен с частью про ИИ. Мне кажется подобны выводы у вас из-за того, что вы ИНС, ГА и прочие алгоритмы рассматриваете как самодостаточные. Я не верю, что какая-то ИНС (особенно из тех что обычно обсуждаются) или ГА или RL может быть основой полноценного алгоритма способного решать широкий круг сложных проблем (специально не пишу термин ИИ). Это скорее алгоритмы локальных оптимизаций и адаптаций. Кстати, локальный - это не значит на самом низшем уровне (хотя и он тоже).

Другими словами, я смотрю на них как "клей", который помогает создавать более гибкие и надежные системы способные меняться в зависимости от ситуации или как на способ создания алгоритма эмпирическим образом (почти эквивалент статистической подгонки параметров).

Но а так как сложные системы способные решать широкий круг сложный проблем, обычно требуют некоторой самостоятельности, гибкости и реакции на неожиданные ситуации, то без без такого "клея" ИМХО не обойдешься. Так что... называть это основой или не называть -- дело вкуса, но использовать все-равно придется, так как альтернатива - априорное описание всех возможных реакций, на все возможные случае, что явно не целесообразно, даже если каким-то хитрым образом их компоновать, обобщать и т.д. В противном случае, вам необходимо показать, что вы имеете такую систему структурирования событий/данных/т.п. которая понижает скорость экспоненциально растущей структуры до ... скажем полиномиальной, причем УНИВЕРСАЛЬНО и за полиномиальное время.

daner [уточняет]

Я написал о том, что если вообще не трогать схоастические методы которые лежат в основе подавляющего большинства самых элегантных решений в ИИ, то остается только надеяться на какую-то супер-пупер структуру данных (типа различных деревьев описывающих иерархии или вообще различных графов, без вероятностей) с помощью которой можно описывать всевозможные (для любой задачи) состояния системы и реакцию на них.

  • Действительно, необходимо иметь то, что в противном случае - "систему структурирования событий/данных/т.п. которая понижает скорость", и вот основная проблема в этом. Поэтому "клей" можно применять лишь так для оценки "на сколько он плохо клеит", чтобы сравнить потом с такой "системой структурирования данных", но и не более того, как клей не улучшай он будет только клеить (т.е. давать локальный минимум, а мне нужен глобальный). Единственно, ИНС - Вы зря в этот ряд поставили, несколько другая специфика, там нет случайного поиска, там есть случайно-распределенная классификация S.J. 03:04, 11 марта 2010 (UTC)


daner

я глубоко сомневаюсь, что одними только деревьями и иерархией (без использования вароятностей, например) можно УНИВЕРСАЛЬНО понижать сложность состояний до полиномиальных размеров, не теряя при этом всей важной информации. В прочем, подход этот не новый, ПОВСЕМЕСТНО успользуемый в огромном кол-ве вариантов (я и сам его люблю), но как панацея, пока не годится. Кстати, формально эта идея (на сколько я понимаю, хотя так и не нашел ни одной статьи с нормальным описанием, только какие-то урывки и ссылки, так что у меня очень смутное об этом представление) описанна в Геомет.Лингвистики. Еще наверное в этой же области лежат иерар.планеровщики. Но у всех и них есть и свои проблемы. Понижаются состояния, так растут затраты на описание, поиск правильной декомпозиции и т.д. Выгрываешь в одном, проигрываешь в другом, вопрос что для той или иной задачи важнее (т.е. универсальность на практике потеряли, а если только теоретически, то это не интересно, так как большинство широкоизвестных основопологающих методов эк. МТ... и кому от этого легче?).

Продолжение обсуждения[править]

Примечания[править]