В серии статей мы расскажем о новых подходах в ИИ, моделировании личности и обработке BIG Data, которые недоступны для большинства специалистов по ИИ и общественности. Ценность этой информации в том, что она вся проверена на практике и большинство теоретических наработок реализованы в прикладных проектах.
Многие из вас слышали про современные технологии, которые ассоциируются сегодня с понятием искусственный интеллект, а именно: экспертные системы, нейронные сети, лингвистические алгоритмы, гибридные системы, когнитивные технологии, имитационные(чат-боты) и пр.
Да, многие компании с помощью приведенных выше технологий решают задачи своих клиентов по обработке информации. Некоторые из этих компаний пишут, что создают или создали решения в области искусственного интеллекта. Но интеллект ли это?
Первое, что мы с вами сделаем это определим, что такое интеллект.
Представьте себе, что компьютер с интеллектом существует. И у вас есть возможность общаться с ним голосом или с помощью текстовых сообщений.
Вопросы:
- Обязательно ли встраивать в программу интеллекта компьютера особенности языка (описывать семантику, грамматику, морфологию) или он смог бы выучить языки самостоятельно через взаимодействие с человеком?
- Если бы вам поставили задачу научить компьютер языку, то что бы вы делали?
- Если бы в обучении принимали участие только вы, то на кого он был бы похож?
А теперь, ответьте на эти вопросы еще раз, с той лишь разницей, что обучать пришлось бы:
- Породистого попугая, теоретически способного к общению.
- Новорожденного ребенка.
Мы с вами только что проделали интеллектуальную работу, и я надеюсь, что многие из вас получили новые знания. И вот почему:
- Во-первых, я попросил вас представить себе (вообразить), «что будет если…». Вы действовали в изменившихся условиях. Возможно вам не хватало информации и знаний, вам было трудно.
- Во-вторых, вы оказались способны к обучению, познанию, вы нашли знакомую вам аналогию сами или встретили ее в тексте, а возможно вы воспользовались интернетом или спросили совет друга.
Существует множество подходов к определению интеллекта. Мы определим главные его признаки…
В первую очередь интеллект – это способность обучаться и воображать.
Для того чтобы создать алгоритм моделирующий интеллект, первое что нужно сделать это наделить его способностью к обучению, никаких знаний вкладывать в него не нужно.
Давайте вернемся к нашему примеру c ребенком для того, чтобы описать процесс обучения более подробно.
Какие принципы работают, когда ребенок учится понимать язык и говорить на нем?
- Чем чаще он слышит слово в разных контекстах, тем быстрее он его запомнит. Слово, которое он произнесет первым скорее всего будет – «мама».
«Мама тебя любит»
«Мамочка тебе ручки помоет»
«Мама тебя целует»
«А где мама?»
Обучение происходит за счет избыточности данных. - Чем больше каналов поступления информации задействовано, тем эффективнее обучение:
ребенок слышит: «Мама тебя любит».
ребенок видит улыбку мамы.
ребенок чувствует тепло исходящее от мамы.
ребенок чувствует вкус и запах маминого молока.
ребенок говорит «Мама». - Ребенок не сможет воспроизвести слово сразу правильно. Он будет пытаться, пробывать. «М», «Ма», «Мам», «М» … «Мама». Обучение происходит в действии, каждая следующая попытка корректируется пока не получим результат. Метод проб и ошибок. Очень важно получение обратной связи из реальности.
- Не воспитывайте своих детей, все равно они будут похожи на вас. Ребенок стремится быть похожим на окружающих его людей. Он подражает им и учится у них. Это один из механизмов моделирования личности, о котором мы поговорим более подробно в следующих статьях.
Какова же роль воображения?
Представьте себе, что вы едите на автомобиле по незнакомой трассе. Проезжаете знак ограничения скорости 80 км/ч. Едите дальше, и видите еще один знак ограничения скорости, но он забрызган грязью и его практически не разобрать. Вы передвигаетесь со скоростью 95 км/ч. Что будете делать? Пока вы принимали решение из-за кустов выглянул сотрудник полиции, и вы увидели лучезарную улыбку на его лице. В голове у вас мгновенно достроился «образ знака», и вы поняли почему тут стоит полицейский, и что вам срочно нужно нажать тормоз. Вы сбрасываете скорость до 55 км/ч, улыбка с лица полицейского мгновенно пропадает, и вы едите дальше.
И еще один интересный пример работы воображения из мира животных – это наблюдение за сороками. Сорока на глазах других сорок зарыла еду на пустыре. Все сороки улетели, но наша сорока вернулась на пустырь и перепрятала еду. Что произошло? Она представила себе(вообразила), «что будет если» прилетит другая сорока, которая видела куда она спрятала еду. Она смоделировала ситуацию и нашла решение как этого избежать.
Воображение – это моделирование ситуации на произвольных условиях.
Как вы уже убедились, интеллект – это не база знаний, это не набор запрограммированных реакций или следование заранее определенным правилам.
Интеллект – это способность к обучению, познанию и адаптации к изменяющимся условиям в процессе решения трудностей.
Вам не кажется, что определяя интеллект мы упустили из виду какие-то важные компоненты или забыли о чем-то рассказать?
Да, мы упустили из виду восприятие, и забыли рассказать про память.
Представьте себе, что вы смотрите в глазок и видите часть буквы:
Что это за буква?
Может быть «К»?
Конечно нет, это же японский иероглиф «вечность».
Перед вами только, что поставили задачу(проблему). Скорее всего вы нашли похожий образ буквы «К» у себя в голове и успокоились.
Ваш интеллект воспринимает все образами и ищет похожий образ в памяти, если его нет, то формируется привязка(якорь) к уже существующим образам и благодаря этому вы запоминаете новую информацию, получаете навыки или опыт.
Образ – субъективное видение реального мира, воспринимаемого при помощи органов чувств (каналов поступления информации).
Восприятие субъективно, потому что зависит от последовательности обучения, последовательности появления образов в жизни человека и их влияния.
Восприятие начинается с распознания образов светло/темно. Открываем глаза – светло, закрываем – темно. Далее человек учится распознавать все более сложные образы – «мама», «папа», мяч, стол, собака. Мы получаем опорные данные, а все последующие образы – это надстройка над предыдущими.
С этой точки зрения обучение – это процесс построения новых взаимосвязей между воспринимаемыми образами и образами, которые уже есть в памяти.
Память служит для хранения образов и их взаимосвязей.
А воображение – это способность достраивать незавершенный образ.
Для обобщения приведем еще один эксперимент из мира животных:
Шимпанзе посадили в клетку, а внутри клетки подвесили гроздь бананов довольно высоко от пола. Сначала шимпанзе прыгала, но быстро устала, и, казалось, потеряла интерес к бананам и уселась, едва обращая на них внимание. Но через некоторое время обезьяна взяла палку, оставленную в клетке, и раскачивала бананы до тех пор, пока они не упали. В другой раз, чтобы достать бананы, шимпанзе удалось соединить две палки, так как каждой палки по отдельности не хватало, чтобы до них дотянуться. Животное справилось и с более сложной задачей, неожиданно поставив под бананами коробку и используя ее как ступеньку.
Шимпанзе показали знакомый ей образ «гроздь бананов». Но образ для нее оказался незавершенным – их нельзя достать и съесть. Но так как это был единственный источник пищи из доступных, то незавершенный образ наращивал внутреннее напряжение и требовал завершения.
Средства для решения проблемы (завершения образа), всегда имелись в наличии, но возникновение решения требовало преобразования имеющихся образов (требовалось обучиться с помощью воображения). Шимпанзе необходимо было представить себе (умственно перечислить все возможные варианты): «что будет если я возьму палку», «а что будет если…» и наиболее вероятные предположения проверить на практике, попробовать и получить обратную связь, опять вообразить, попробовать, получить обратную связь и так далее до тех пор, пока мы не завершим образ(научимся).
Если бы распознание образа иероглифа «вечность» было бы для вас вопросом жизни и смерти, то вы обязательно нашли способ это сделать.
С более популярного языка перейдем к техническому и сформулируем основные понятия, которые мы будем использовать далее:
- Пересечение избыточной информации из разных информационных каналов создает образ.
- Обучение – это преобразование информационных потоков в информационное поле.
- Информационное поле(память) – хранение образов и их взаимосвязей.
- Воображение – …
– «Уважаемый читатель, дострой образ воображения самостоятельно, используя избыточную информацию из своего жизненного опыта и этой статьи».
- Интеллект – это способность обучаться и воображать.
В начале статьи мы перечислили технологии, ассоциирующиеся сегодня с искусственным интеллектом, теперь вы самостоятельно сможете оценить насколько они соответствуют понятию интеллект.
В следующей статье мы рассмотрим такую задачу как интеллектуальный поиск информации в интернете. Определим критерии интеллектуальности, разработаем практические подходы и «пощупаем» реальное приложение, в котором реализованы принципы, описанные в этой статье.
Статья не претендует на истину, является частью наших разработок и исследований. Пишите комментарии, дополняйте материал своими примерами или размышлениями. Обучайтесь и воображайте…
Комментарии (73)
peacemakerv
15.04.2015 15:08Чёрт, интересно! Всегда была интересна эта тема. Почему-то мне всегда не хватает «умного» поисковика интернетного, который мог бы делать _какой-то_умный_ рекурсивный поиск по сочетаниям слов, отношению этих слов к каким-то областям знаний, мне заранее неизвестных, и в результате возвращать не список документов, примерно подходящих по смыслу, а какую-то квинтэссенцию информации о запросе — ответ на вопрос, а не документы, где ответ нужно самому еще вычитать и понять…
Enano Автор
15.04.2015 16:20-1peacemakerv, вы угадали некоторые критерии интеллектуальности «умного поиска», не все конечно, но интрига пропала :)
Надеюсь, что скоро подобные технологии внедрят в промышленном масштабе, и вы будете довольны.
alx49
15.04.2015 16:22Уже запилили, Watson называется (wiki).
Enano Автор
15.04.2015 16:56alx49, IBM Watson умеет отвечать на ваши вопросы?
На каких языках он умеет отвечать?
Что нужно сделать, чтобы IBM Watson освоил новый язык?
Он способен к самообучению?
Он способен воображать?
Документация тут: www.redbooks.ibm.com/redpapers/pdfs/redp4955-ru.pdf.BelBES
15.04.2015 17:34Во время телевикторины Jeopardy, IBM Watson как и другие участники слушал вопросы на естественном языке и отвечал так-же.
Что касается самообучения, то он «закончил» мединститут и теперь определяет не хуже, а зачастую и лучше, чем профессиональные врачи.
Естественно, все его достижения имеют оговорки, но в целом IBM Watson пожалуй уже похож на нечто большее, чем слабый ИИ.Enano Автор
15.04.2015 19:05Прочтите внимательно вопросы и официальную документацию от IBM.
Попробуйте самостоятельно задать свои вопросы IBM Watson.
«закончил» мединститут — как проходило обучение?
У нас нет задачи вас переубедить.
Если вы оперируете только маркетинговыми статьями от IBM Watson, то значит они действительно на вас подействовали.BelBES
15.04.2015 19:30«закончил» мединститут — как проходило обучение?
А это не важно, важен результат. А в результате получилась качественная экспертная система.
официальную документацию от IBM.
Если вы оперируете только маркетинговыми статьями от IBM Watson, то значит они действительно на вас подействовали.
А разве в том, что вы называете «официальной документацией» есть описание алгоритмов? Там тоже просто полумаркетинговое описание возможностей системы и не более. Может лучше предоставите пруфы на научные публикации, из которых высделали выводы, что IBM Watson не может считаться текущим state of the art решением в области сильного ИИ? Или ваши представления об этой системе сформированы только 15 страничным буклетом?
У нас нет задачи вас переубедить.
Вы отрицаете интелектуальность IBM Watson, чьи «достижения» широко известны и действительно впечаталяют, при этом вы легко оперируете термином «понимает» в отношении какой-то своей системы… где-то тут возникает противоречия в вашей теории и ваших высказываниях.Enano Автор
15.04.2015 20:03Мы задаем вопросы, и используем ту информацию, которую можно проверить, а утверждаете как раз вы.
— Какими источниками вы пользовались для того, чтобы сделать вывод, что IBM Watson это сильный ИИ?
— Вы лично задавали свои вопросы IBM Watson?
Вы сами задали и ответили за нас на все свои вопросы:
получилась качественная экспертная система
Там тоже просто полумаркетинговое описание возможностей системы и не более
ваши представления об этой системе сформированы только 15 страничным буклетом
Вы отрицаете интелектуальность IBM Watson, чьи «достижения» широко известны и действительно впечаталяют
BelBES
15.04.2015 20:09Какими источниками вы пользовались для того, чтобы сделать вывод, что IBM Watson это сильный ИИ?
В каком месте я писал, что IBM Watson является сильным ИИ? По моему, нигде я такого не писал.
Вы лично задавали свои вопросы IBM Watson?
Нет не задавал, как-то не довелось её попробовать.
Мы задаем вопросы, и используем ту информацию, которую можно проверить, а утверждаете как раз вы.
На основе рекламных буклетов, вы делаете выводы о внутренностях системы.Enano Автор
15.04.2015 20:38В каком месте я писал, что IBM Watson является сильным ИИ? По моему, нигде я такого не писал.
Вы сказали:
IBM Watson пожалуй уже похож на нечто большее, чем слабый ИИ
из «чего» вы сделали выводы, IBM Watson не может считаться текущим state of the art решением в области сильного ИИ
На основе рекламных буклетов, вы делаете выводы о внутренностях системы.
Мы предлагаем почитать документацию, которая доступна в интернете, и «расскрывает» некоторые аспекты технологии, а также задаем вопросы для того чтобы вы на них для себя ответили и сделали выводы самостоятельно.
Также рекомендуем найти и попробовать IBM WATSON в действии.
Вы однозначно утверждаете, что IBM Watson имеет отношение к Интеллекту(или к ИИ) «сильному или „слабому“, вот нам и интересно на основании чего вы сделали такие выводы.
И еще вопрос для осмысления: „Чем отличается обучение от самообучения?“BelBES
15.04.2015 20:47«нечто большее, чем слабый ИИ» — это не то же самое, что и «сильный ИИ». Так же, как и «state of the art решением в области сильного ИИ» не гарантирует решения задачи сильного ИИ на данный момент.
Вы однозначно утверждаете, что IBM Watson имеет отношение к Интеллекту(или к ИИ) «сильному или „слабому“, вот нам и интересно на основании чего вы сделали такие выводы.
Да, на основе конкретных «сложно формализуемых» юзкейсов, которые с некоторой эффективностью решает IBM Watson.
Мы предлагаем почитать документацию, которая доступна в интернете, и «расскрывает» некоторые аспекты технологии, а также задаем вопросы для того чтобы вы на них для себя ответили и сделали выводы самостоятельно.
Ну так укажите, какую именно документацию читать, поиск статей на Google scholar релевантных результатов не дает, а тот буклет, на который вы скинули ссылку, не описывает подробностей системы.Enano Автор
16.04.2015 09:18Да, на основе конкретных «сложно формализуемых» юзкейсов, которые с некоторой эффективностью решает IBM Watson.
Какими источниками вы пользовались для этого кроме маркетинговых статей?
В интернете десятки и даже сотни статей про IBM WATSON, как часто в них IBM дает ссылки на прототипы или готовые продукты, которые демонстрируют возможности IBM WATSON?
Ну так укажите, какую именно документацию читать, поиск статей на Google scholar релевантных результатов не дает, а тот буклет, на который вы скинули ссылку, не описывает подробностей системы.
Мы не можем отвечать за IBM, но если вы хотите получить ссылки от нас:
ainlconf.ru/materialIBM
developer.ibm.com/watson
А если вы действительно хотите понять технологии, то задайте вопросы представителям IBM.BelBES
16.04.2015 10:34Какими источниками вы пользовались для этого кроме маркетинговых статей?
Ну да, основываюсь на источниках типа новостей о той-же победе в телевикторине. Нет оснований считать, что IBM врут насчет своих результатов, т.к. репутация им важна.
Мы не можем отвечать за IBM, но если вы хотите получить ссылки от нас:
ainlconf.ru/materialIBM
developer.ibm.com/watson
Вы даете ссылки на документацию разработчика, а не на научные публикации с описанием алгоритмов.Enano Автор
16.04.2015 11:17Каждый сам для себя решает на каких источниках основываться, чтобы быть уверенным в том, что он доказывает.
buriy
26.04.2015 19:51IBM Watson — это не единый цельный «интеллект», а всего лишь набор технических решений и модулей: парсеры, базы данных, алгоритмы, донастраивающиеся под задачу.
«Очеловечивание» его — это выдумка маркетологов IBM, и, как видите, этот маркетинговый приём успешно работает.
buriy
26.04.2015 20:24Вы ошибаетесь, IBM Watson в Jeopardy получал информацию в письменном виде.
«Watson received the clues as electronic texts at the same moment they were made visible to the human players.»
© en.wikipedia.org/wiki/Watson_(computer)
alx49
15.04.2015 17:52Матом ругаться обучился.
Enano Автор
15.04.2015 18:20вы с ним заговорили, а он вас обругал матом?
alx49
15.04.2015 18:51К сожалению, мне не довелось. habrahabr.ru/company/ibm/blog/165423
Enano Автор
15.04.2015 19:02Почитайте техническую документацию IBM.
Алексей, как вы думаете почему об этом уже говорят несколько лет, а попробовать вам не довелось?alx49
15.04.2015 19:08+1Потому, что не искал возможности? Потому, что не релизят сырой продукт? Или потому, что ругаться матом плохо и его разучили? Потому, что гладиолус? :)
Я не знаю почему.buriy
26.04.2015 19:49IBM Watson — это не единый цельный «интеллект», а всего лишь набор технических решений и модулей: парсеры, базы данных, алгоритмы, донастраивающиеся под задачу.
«Очеловечивание» его — это выдумка маркетологов IBM, и, как видите, этот маркетинговый приём успешно работает.
alx49
15.04.2015 17:57Да, замечу что вы как то слабо определили воображение. Если воображение это способность генерить новые знания на основе предыдущего опыта, то да, ватсон умеет воображать. Посмотрите, какие няшные рецепты блюд он может предложить вам отведать.
Enano Автор
15.04.2015 18:21— Мы будем рады, если вы нам поможете определить воображение точнее.
— Где мы можем посмотреть на рецепты от Watsona?alx49
15.04.2015 18:58Воображением я бы назвал способность обобщать знания, не более. Почитайте это, например. habrahabr.ru/company/ibm/blog/215207
А вообще, я думаю ваше определение ИИ в корне не верно и наивно. ИИ определяется не способностью обобщать (это статистика и ML), а способностью принимать рациональные решения в условия неопределенности и взаимодействия с внешней средой. Канонический рациональный агент.
Даже мы, люди, являемся такими рациональными агентами с серьезными ограничениями в способностях. Частично, решаем это техникой. Но уже сейчас, мы сталкиваемся с тем, что не можем осознать полученные решения, например, это.Enano Автор
16.04.2015 11:25а каковы по вашему критерии или хотя бы принципы определения рациональности/иррациональности?
alx49
16.04.2015 12:16Зависит от целей системы. Чистый пол для пылесоса за минимальное время. Есть что пожрать для человека. Доехать из точки А в точку Б никого не задавив по пути и за приемлемое время. В общем виде существует определенный профит и плата за этот профит. Рациональность — это достижение оптимального баланса между достигнутым профитом и платой за него.
alx49
16.04.2015 12:22+1Шутка природы над человеком заключается в том, что пока мы не понимаем что-то — для нас это магия. В том числе и про ИИ — воображение, сознание, аналитическое мышление и прочее филосовское блаблабла. А как только понимаем, что это тонны в общем то понятного, но унылого тервера — то магия развеивается и мы уже не хотим называть это магией. А раз это не магия, то какой же это интеллект!
Человек любит магию.Enano Автор
16.04.2015 12:48Погодите, но пылесос сам не может дойти до того что чистый пол это хорошо, танку все равно по какой траектории он доедет из пункта А в пункт Б. Это всего лишь детерминированные Вами задачи во вполне детерминированных Вами условиях.
Изменим условия: как определить рациональность, скажем, симпатической системы? Каковы здесь критерии? Как эти критерии определить?
На счет магии — мы не поддерживаем магию — она ненаучна :) Но мы готовы ее принять и предложить свой вариант ее развенчивания.BelBES
16.04.2015 13:06пылесос сам не может дойти до того что чистый пол это хорошо
Он получает эти знания через «обучние с учителем».
танку все равно по какой траектории он доедет из пункта А в пункт Б.
Опять таки знания о критериях оптимальности траектории танк получает через «учителя».
Это всего лишь детерминированные Вами задачи во вполне детерминированных Вами условиях.
При абсолютном отсутствии о внешних условиях и человек не может сделать ничего адекватного.Enano Автор
16.04.2015 13:21Он получает эти знания через «обучние с учителем».
Опять таки знания о критериях оптимальности траектории танк получает через «учителя».
Да а как определить при этом учителя?
Как он определяет что у танка хватит бензина и что пылесос все почистил?
Каковы его критерии.
Откуда он об этом узнал?
При абсолютном отсутствии о внешних условиях и человек не может сделать ничего адекватного.
Что Вы подразумеваете под сочетанием «отсуствие внешних условий? „BelBES
16.04.2015 13:24Да а как определить при этом учителя?
Как он определяет что у танка хватит бензина и что пылесос все почистил?
Каковы его критерии.
Откуда он об этом узнал?
Сейчас вы несете уже полную лажу.
На данный момент развития человечества у людей есть некоторый набор знаний об окружающем мире, которые модель ИИ может использовать как априорную информацию.
Что Вы подразумеваете под сочетанием «отсуствие внешних условий? „
Полное отсутствие априорных знаний о внешней среде.Enano Автор
16.04.2015 13:34Сейчас вы несете уже полную лажу.
На данный момент развития человечества у людей есть некоторый набор знаний об окружающем мире, которые модель ИИ может использовать как априорную информацию.
Мы пытаемся понять как Вы себе представляете ИИ в контексте пылесоса, учителя и его знаний, которые весьма вероятно являются субъективными.
И пока мы слабо себе представляем представленную Вами модель.
Ну в практической реализации.
Интересно было бы услышать от Вас как такие процессы как учитель и ученик реализуются технически.
Полное отсутствие априорных знаний о внешней среде.
Человек рано или поздно захочет есть и в попытках поиска еды знания появятся.
Как такие процессы могут быть реализованы с Вашей точки зрения?BelBES
16.04.2015 13:42Мы пытаемся понять как Вы себе представляете ИИ в контексте пылесоса, учителя и его знаний, которые весьма вероятно являются субъективными.
И пока мы слабо себе представляем представленную Вами модель.
Ну в практической реализации.
Интересно было бы услышать от Вас как такие процессы как учитель и ученик реализуются технически.
Также, как он сейчас реализован в умных пылесосах? Свою задачу они выполняют.
Человек рано или поздно захочет есть и в попытках поиска еды знания появятся.
Как такие процессы могут быть реализованы с Вашей точки зрения?
Или он умрет с голоду, если он не умеет добывать еду и инстинкты у него не работают(что и происходит иногда с животными, выращеными в неволе и отпущенными в дикую природу).
Вы исходите из неверных предположений: человеку не может просто так, без каких либо априорных знаний захотеться есть. При отсутствии инстинктов (которые и яввляются априорными знаниями, выработанными в результате эволюции) человек даже не поймет, что он хочет есть. А желание поесть — это сложная причинно-следственная связь между информацией «с датчиков» и «базой знаний». База знаний копилась много времени путем эволюции в какой-то степени методом Монте-Карло…Enano Автор
16.04.2015 13:53Также, как он сейчас реализован в умных пылесосах? Свою задачу они выполняют.
Умный пылесос звучит как-то странно. МЫ предполагаем ум другого плана когда говорим про ИИ.
С вашей точки зрения пылесос обладает ИИ.
Т.е. Интеллектом? Или это все же автомат?
Или он умрет с голоду, если он не умеет добывать еду и инстинкты у него не работают(что и происходит иногда с животными, выращеными в неволе и отпущенными в дикую природу).
Вы исходите из неверных предположений: человеку не может просто так, без каких либо априорных знаний захотеться есть. При отсутствии инстинктов (которые и яввляются априорными знаниями, выработанными в результате эволюции) человек даже не поймет, что он хочет есть. А желание поесть — это сложная причинно-следственная связь между информацией «с датчиков» и «базой знаний». База знаний копилась много времени путем эволюции в какой-то степени методом Монте-Карло…
КОль скоро человек эволюционно снабжен оприорными данными, то человек без оных будет не человеком, верно?
Т.е. Понятие «отсуствие оприорных данных» для человека неприменимо. Верно?
Однако, об ИИ.
Как вы себе представляете праткиечскую реализацию самообучения (коль скоро оприорные данные у нас есть). Есть ли какие-то примеры?BelBES
16.04.2015 14:01Умный пылесос звучит как-то странно. МЫ предполагаем ум другого плана когда говорим про ИИ.
С вашей точки зрения пылесос обладает ИИ.
Т.е. Интеллектом? Или это все же автомат?
В контексте слабого ИИ да, умные пылесос обладает интеллектом.
Что ВЫ можете предлагать, если ВЫ не можете формализовать терминологию.
КОль скоро человек эволюционно снабжен оприорными данными, то человек без оных будет не человеком, верно?
Т.е. Понятие «отсуствие оприорных данных» для человека неприменимо. Верно?
Да, не применимо. Человек без априорных знаний становится животным не интеллектуальным. Более того, в истории были примеры, когда ребенок выростал среди животных и не был способен адаптироваться к жизни среди людей.
Как вы себе представляете праткиечскую реализацию самообучения (коль скоро оприорные данные у нас есть). Есть ли какие-то примеры?
Читайте на unsupervised learning применительно к машиннному обучению. Вполне наглядный пример самообучения.
alx49
16.04.2015 16:54Умный пылесос звучит как-то странно. МЫ предполагаем ум другого плана когда говорим про ИИ.
С вашей точки зрения пылесос обладает ИИ.
Не нравится мне слова Искусственный и Слабый. Я бы предпочел говорить про интеллект в целом, один сложнее другого.
Уверяю, однажды намарсе будут яблокиземле побывает интеллект, по сравнению с которым вы — пылесос. И да, я считаю все системы, которые автономно в условиях неопределенности достигают целей — интеллектуальными, т.е. с интеллектом. И вас, и пылесос.
Разница — только в сложности.
alx49
16.04.2015 16:49Конечно не может. Цель кто то задает извне, всегда. Интеллект в том, чтобы достичь цель в неизвестном окружении.
А еще пылесоса можно учить с подкреплением. Например, дать ему колеса и веник и пустить на пол часа в комнату. Если через пол часа не будет чисто — побить палкой. Повторять до сходимости. Есть алгоритмы, которые позволяют ему научиться именно убирать комнату, а не просто ползать по ней или стоять в углу и махать веником. Не напоминает детенышей хомосапиенса?
Симпатической системы? Запросто. Организм должен адекватно функционировать в течении определенного времени. Адекватно — значит органы должны делать то, что они должны делать. Сердце качать кровь так, чтобы её всем хватало с одной стороны и не лопнули трубы от давления с другой. А дальше неопределенность, сейчас кислорода надо мало, и можно качать поменьше, через секунду его надо много и надо качать побольше. А можно заранее начать качать побольше зная, что через минуту надо будет бегать (жим-жим называется). А потом замерзли и чтобы не остыть надо перекрыть сосуды кожи. И т.д. по списку.
Нет, не подходит?
Enano Автор
16.04.2015 17:48Интеллект — да бывает разный.
Правда мы бы разложили интеллект на качества и определяли его более точно.
Исходя из объема оприорных данных, сложностей факторных цепей, условий определенности-неопределенности.
Пылесос — у него же нету сенсоров… подкрепления или это уже не пылесос. Нет?
А без сенсоров подкрепления не выйдет обеспечить обратную связь.
А если у пылесоса будет собственная обратная связь пусть и с подкреплением, то он должен обладать моделью памяти, адекватной сенсорам. нет?
В итоге получиться не пылесос а некий, ну робот, и, да, он будет более функционален.
Т.е в контексте вот именно пылесоса интеллект не подходит. Разве нет?
Про симпатику — мы бы все же упростили: Мы же говорили про оприорные данные, т.е. углеродный/белковый/газовый и прочие обмены есть.
Его производные — вполне «измеряемые» в рамках организма.
Используя опорные данные симпатика демонстрирует весьма и весьма определенные данные.
Т.е. это не интеллект, это конечный автомат.
И, да с качественной обратной связью.
Но он не решает интеллектуальные задачи, верно?
А что же с ИИ?
Отчасти с Вами можно согласиться, но на элемент обучения, адаптации, определения приоритетов, селекцию, т.е. упорядочивание инфопотока, его факторную формализацию у нас иная точка зрения и мы ее обязательно обсудим позже.
Пока же мы остановимся в рамках некой системы координат, присущей некому ИИ, решение задач в которой имеет прикладное применение.alx49
16.04.2015 17:56+1Пылесос — у него же нету сенсоров
Даже у моего отсталого пылесоса есть сенсор наполнения бака. У роботов-пылесосов сенсоров может быть достаточно много.
Пока же мы остановимся...
Ок, давайте остановимся.
BelBES
16.04.2015 20:21Пылесос — у него же нету сенсоров… подкрепления или это уже не пылесос. Нет?
Нет, в умных пылесосах, таких как производят Rumba, есть лазерный дальномер, на основе которого работат SLAM алгоритм для построения карты квартиры и навигации по ней, а также для объезда препятствий.
В продвинутых моделях есть еще куча всяких сенсоров для измерения уровня пыли в воздухе и т.п.Enano Автор
17.04.2015 07:56Если вы не видите разницу между сенсорами и сенсорами подкрепления, то прочтите наш комментарий еще раз более внимательно,
Так как вы самый активный комментатор нашей статьи, предлагаю вам написать свои размышления о ИИ в своей собственной статье, и нашу с вами беседу перенести туда, дабы не разводить «флуд», и не уходить от темы статьи.
В geektimes также есть «Диалоги», все ваши вопросы вы можете написать нам в виде сообщения.
Мы обязательно на них ответим.BelBES
17.04.2015 09:02Если вы не видите разницу между сенсорами и сенсорами подкрепления, то прочтите наш комментарий еще раз более внимательно
я загуглил термин «сенсор подкрепления», поисковик не выдает релевантных результатов. Может укажете источник, где можно прочитать про этот термин?
А без сенсоров подкрепления не выйдет обеспечить обратную связь.
А если у пылесоса будет собственная обратная связь пусть и с подкреплением, то он должен обладать моделью памяти, адекватной сенсорам. нет?
Просто из определения обратной связи следует, что лазерный дальномер в пылесосе обеспечивает обратную свзяь.
ServPonomarev
15.04.2015 16:18+1Как сказали умные люди уже давно — интеллекта без возможности изменять мир вокруг себя не существует. Нельзя просто загрузить в систему терабайты текстов и получить умную штуку — нужно, что-бы эта штука умела ошибаться и учиться на собственных ошибках. А в целом — удачи, результаты впечатляющие есть?
Enano Автор
15.04.2015 17:40ServPonomarev@, Спасибо за пожелание!
В следующей статье расскажем о нашей технологии, способной понимать любой язык и рассуждать на нем.
Не знаю является ли это впечатляющим результатом — решать вам.BelBES
15.04.2015 18:33+1В следующей статье расскажем о нашей технологии, способной понимать любой язык и рассуждать на нем.
Звучит как маркетинговое развешивание лапши на уши. А методику для автоматических рассуждений открыли уже давно при помощи алгебры логики и предикатного исчисления. А язык Prolog, который реализует эту методику, существует аж с 1977 года…
з.ы. ну и да, скатываясь к философской стороне вопроса, то термин «понимание» не может существовать в отрыве от формализованного определения для «интеллект».Enano Автор
15.04.2015 20:09Напишем чуть менее популярно, дабы не путаться в терминах:
технологии, способной понимать любой язык и рассуждать на нем
Интерактивный лингвистический алгоритм дедуктивного априорного поиска.
или
лингвистически управляемая система псевдомышления, способная осуществлять взаимодействие с человеком посредством текстовых и иных каналов связи"
А методику для автоматических рассуждений открыли уже давно при помощи алгебры логики и предикатного исчисления. А язык Prolog, который реализует эту методику, существует аж с 1977 года…
Приведите пример реализации методики автоматического рассуждения на прологе. Что было написано на нем?
Как определить рациональность в контексте ИИ?BelBES
15.04.2015 20:16Приведите пример реализации методики автоматического рассуждения на прологе. Что было написано на нем?
Например, системы автоматического доказательства теорем. Как пример, вот статья лохматого 1985 года: link.springer.com/chapter/10.1007%2F3-540-16042-6_7
Напишем чуть менее популярно, дабы не путаться в терминах:
технологии, способной понимать любой язык и рассуждать на нем
Как-то вы лихо оперируете терминами «понимать» и «рассуждать». Может для начала введете формальное определение этих терминов?
Как определить рациональность в контексте ИИ?
Так-же, как и в теории игр/теории принятия решений и т.п., т.е. как оптимальную последовательность действий для достижения наилучшего ожидаемого результата, не? И вы вообще к чему это спросили?_Enano Автор
16.04.2015 08:37Например, системы автоматического доказательства теорем. Как пример, вот статья лохматого 1985 года: link.springer.com/chapter/10.1007%2F3-540-16042-6_7
А как это связано с автоматическим рассуждением, например, на русском языке?
Как-то вы лихо оперируете терминами «понимать» и «рассуждать». Может для начала введете формальное определение этих терминов?
Да вы правы, термины не были определены в статье и ввести их в комментариях не представляется возможным. это тема для следующей статьи, мы об этом и написали:
В следующей статье расскажем о нашей технологии, способной понимать любой язык и рассуждать на нем.
Так-же, как и в теории игр/теории принятия решений и т.п., т.е. как оптимальную последовательность действий для достижения наилучшего ожидаемого результата, не?
А как определить с точки зрения рациональности наилучший ожидаемый результат?BelBES
16.04.2015 10:46А как это связано с автоматическим рассуждением, например, на русском языке?
А какая разница на каком языке записывать рассуждения? Формализуйте по тому же принципу русский и будет рассуждение на русском.
Вот, например, решение задачи Эйнштейна на Прологе, которое вполне можно считать рассуждением на русском языке на заданную тему.
Да вы правы, термины не были определены в статье и ввести их в комментариях не представляется возможным. это тема для следующей статьи, мы об этом и написали:
В следующей статье расскажем о нашей технологии, способной понимать любой язык и рассуждать на нем.
Ну, если «поля этой тетради слишком малы, чтобы вместить определение», то можете скинуть ссылки на свои научные публикации, например в рамках AAAI, с описанием ваших алгоритмов и методов. А то как-то слишком вы смахиваете на псевдоученого-шарлатана, которой критикует все уже существующие, и выдающие некоторые адекватные результаты, системы, попутно расхваливая свою тайную технологию, которой никто не видел и никто о ней не слышал.Enano Автор
16.04.2015 11:12А какая разница на каком языке записывать рассуждения? Формализуйте по тому же принципу русский и будет рассуждение на русском.
Т.е. для вас пролог — это инструмент рассуждений на русском языке?
которой критикует все уже существующие.
А разве мы критиковали?
Мы дали материал для размышления и задали вопросы — решать вам.
А то как-то слишком вы смахиваете на псевдоученого-шарлатана
Ну шарлатаны могут быть где угодно (в том же AAAI). Мы уверены, что люди, ориентирующиеся в теме, и так представляют о чем мы пишем, и о чем напишем. Мы исходим из того, что людям нужны не статьи, а прикладные решения, о чем мы и собираемся здесь говорить.
Вы не согласны?BelBES
16.04.2015 11:28Т.е. для вас пролог — это инструмент рассуждений на русском языке?
Где я это указывал? Пролог — это язык логического программирования.
А разве мы критиковали?
Мы дали материал для размышления и задали вопросы — решать вам.
От того, что вы в конце предложений ставите знаки вопроса, контекст и смысл этих предложений не меняется.
Ну шарлатаны могут быть где угодно (в том же AAAI).
Могут, но там, в отличие от поста на хабре/гиктаймся, нельзя опубликоваться без рецензии от нескольких авторитетных людей из области. Т.ч. шарлатану опубликоваться на «серьезной» конференции значительно сложнее, чем на медиа-ресурсе.
Мы уверены, что люди, ориентирующиеся в теме, и так представляют о чем мы пишем, и о чем напишем.
Если вы пишете для тех, кто все уже понимает, то зачем вообще ваш пост?
Мы исходим из того, что людям нужны не статьи, а прикладные решения, о чем мы и собираемся здесь говорить.
Ну т.е. у вас нет никаких публикаций на тему вашей системы, которая, в отличие от того же IBM Watson, умеет рассуждать на любом языке? Ну ок, всё с вами тогда понятно…Enano Автор
16.04.2015 12:38Т.е. для вас пролог — это инструмент рассуждений на русском языке?
Где я это указывал? Пролог — это язык логического программирования.
ранее вы писали:…
А какая разница на каком языке записывать рассуждения? Формализуйте по тому же принципу русский и будет рассуждение на русском.
это как то связано с прологом? Какова связь??
Мы хотим понять действительно ли принцип формализации на прологе идентичен, формализации на естественном русском языке?
Если вы пишете для тех, кто все уже понимает, то зачем вообще ваш пост?
А вы полагаете, что мы «Америку» открыли?
Мы считаем, что не все понимают — от того и пишем.
Интересна ваша позиция по проблематике ИИ в контексте коммуникации человека с машиной на естественном языке.
Ну т.е. у вас нет никаких публикаций на тему вашей системы, которая, в отличие от того же IBM Watson, умеет рассуждать на любом языке? Ну ок, всё с вами тогда понятно…
У вас есть всегда право выбора, что читать, кому доверять, на каком основании принимать решения.
На основании чего вы обычно принимаете решения, что считать интеллектом?
— Маркетинг, общественное мнение.
— Научная обоснованность.
— Прототип — продукт, который вы можете оценить.
Или предложите свои критерии.BelBES
16.04.2015 12:45это как то связано с прологом? Какова связь??
Мы хотим понять действительно ли принцип формализации на прологе идентичен, формализации на естественном русском языке?
Для русского языка есть лингвистическая модель, используя которую и проводят семантический анализ текстов и какой-то осмысленный вывод. Эту модель вполне можно формализовать в терминах языка Пролог (т.к. он является тьюринг полным), т.ч. не вижу существенных проблем в реализации продукционной системы для рассуждений на русском языке.
На основании чего вы обычно принимаете решения, что считать интеллектом?
— Маркетинг, общественное мнение.
— Научная обоснованность.
— Прототип — продукт, который вы можете оценить.
Научная обоснованность + описание подхода достаточное, для его повторения.Enano Автор
16.04.2015 12:49IBM WATSON подходит под ваши критерии?
BelBES
16.04.2015 13:02По IBM Watson я по крайней мере имею наглядные результаты и список статей, с которых можно начинать изучение этой системы. И речь не о IBM Watson, а о вашей системе. IBM ведь не заявляют, что их система может понимать и рассуждать на любом языке…
Список релевантных публикаций по IBM WatsonChu-Carroll, J.; Czuba, K.; Prager, J. M.; and Ittycheriah, A. 2003. Two Heads Are Better Than One in Question-Answering. Paper presented at the Human Language Technology Conference, Edmonton, Canada, 27 May–1 June.
Dredze, M.; Crammer, K.; and Pereira, F. 2008. Confidence-Weighted Linear Classification. In Proceedings of the Twenty-Fifth International Conference on Machine Learning (ICML). Princeton, NJ: International Machine Learning Society.
Dupee, M. 1998. How to Get on Jeopardy!… and Win: Valuable Information from a Champion. Secaucus, NJ: Citadel Press.
Ferrucci, D., and Lally, A. 2004. UIMA: An Architectural Approach to Unstructured Information Processing in the Corporate Research Environment. Natural Langage Engineering 10(3–4): 327–348.
Ferrucci, D.; Nyberg, E.; Allan, J.; Barker, K.; Brown, E.; Chu-Carroll, J.; Ciccolo, A.; Duboue, P.; Fan, J.; Gondek, D.; Hovy, E.; Katz, B.; Lally, A.; McCord, M.; Morarescu, P.; Murdock, W.; Porter, B.; Prager, J.; Strzalkowski, T.; Welty, W.; and Zadrozny, W. 2009. Towards the Open Advancement of Question Answer Systems. IBM Technical Report RC24789, Yorktown Heights, NY.
Herbrich, R.; Graepel, T.; and Obermayer, K. 2000. Large Margin Rank Boundaries for Ordinal Regression. In Advances in Large Margin Classifiers, 115–132. Linkoping, Sweden: Liu E-Press.
Hermjakob, U.; Hovy, E. H.; and Lin, C. 2000. Knowledge-Based Question Answering. In Proceedings of the Sixth World Multiconference on Systems, Cybernetics, and Informatics (SCI-2002). Winter Garden, FL: International Institute of Informatics and Systemics.
Hsu, F.-H. 2002. Behind Deep Blue: Building the Computer That Defeated the World Chess Champion. Princeton, NJ: Princeton University Press.
Jacobs, R.; Jordan, M. I.; Nowlan. S. J.; and Hinton, G. E. 1991. Adaptive Mixtures of Local Experts. Neural Computation 3(1): 79-–87.
Joachims, T. 2002. Optimizing Search Engines Using Clickthrough Data. In Proceedings of the Thirteenth ACM Conference on Knowledge Discovery and Data Mining (KDD). New York: Association for Computing Machinery.
Ko, J.; Nyberg, E.; and Luo Si, L. 2007. A Probabilistic Graphical Model for Joint Answer Ranking in Question Answering. In Proceedings of the 30th Annual International ACM SIGIR Conference, 343–350. New York: Association for Computing Machinery.
Lenat, D. B. 1995. Cyc: A Large-Scale Investment in Knowledge Infrastructure. Communications of the ACM 38(11): 33–38.
Maybury, Mark, ed. 2004. New Directions in Question-Answering. Menlo Park, CA: AAAI Press.
McCord, M. C. 1990. Slot Grammar: A System for Simpler Construction of Practical Natural Language Grammars. In Natural Language and Logic: International Scientific Symposium. Lecture Notes in Computer Science 459. Berlin: Springer Verlag.
Miller, G. A. 1995. WordNet: A Lexical Database for English. Communications of the ACM 38(11): 39–41.
Moldovan, D.; Clark, C.; Harabagiu, S.; and Maiorano, S. 2003. COGEX: A Logic Prover for Question Answering. Paper presented at the Human Language Technology Conference, Edmonton, Canada, 27 May–1 June…
Paritosh, P., and Forbus, K. 2005. Analysis of Strategic Knowledge in Back of the Envelope Reasoning. In Proceedings of the 20th AAAI Conference on Artificial Intelligence (AAAI-05). Menlo Park, CA: AAAI Press.
Prager, J. M.; Chu-Carroll, J.; and Czuba, K. 2004. A Multi-Strategy, Multi-Question Approach to Question Answering. In New Directions in Question-Answering, ed. M. Maybury. Menlo Park, CA: AAAI Press.
Simmons, R. F. 1970. Natural Language Question-Answering Systems: 1969. Communications of the ACM 13(1): 15–30
Smith T. F., and Waterman M. S. 1981. Identification of Common Molecular Subsequences. Journal of Molecular Biology 147(1): 195–197.
Strzalkowski, T., and Harabagiu, S., eds. 2006. Advances in Open-Domain Question-Answering. Berlin: Springer.
Voorhees, E. M., and Dang, H. T. 2005. Overview of the TREC 2005 Question Answering Track. In Proceedings of the Fourteenth Text Retrieval Conference. Gaithersburg, MD: National Institute of Standards and Technology.
Wolpert, D. H. 1992. Stacked Generalization. Neural Networks 5(2): 241–259.Enano Автор
16.04.2015 13:04Для русского языка есть лингвистическая модель, используя которую и проводят семантический анализ текстов и какой-то осмысленный вывод. Эту модель вполне можно формализовать в терминах языка Пролог (т.к. он является тьюринг полным), т.ч. не вижу существенных проблем в реализации продукционной системы для рассуждений на русском языке.
Звучит вполне правдоподобно. А подскажите пожалуйста различные примеры реализации лингвистической системы на прологе, если это так просто.
И прокомментируйте почему по вашему мнению такие простые реализации на прологе до сих пор не реализованы.BelBES
16.04.2015 13:12Я не говорил, что фрмализовать лингвистическую модель просто, но это возможно.
Вот к примеру способ составления простых фраз на английском языке: www.cpp.edu/~jrfisher/www/prolog_tutorial/7_2.html
И прокомментируйте почему по вашему мнению такие простые реализации на прологе до сих пор не реализованы.
Уже не раз упоминавшийся тут IBM Watson использует Prolog для процессинга естественного языка. Вот список статей, описывающих подобные системы:
articles[1] Michael A. Covington. Natural Language Processing for Prolog Programmers.
Prentice Hall, 1994.
[2] David Ferrucci, Eric Brown, Jennifer Chu-Carroll, James Fan, David Gondek,
Aditya A. Kalyanpur, Adam Lally, J. William Murdock, Eric Nyberg, John Prager,
Nico Schlaefer, and Chris Welty. Building Watson: An Overview of the DeepQA
Project. AI Magazine, 31(3), 2010.
3
[3] Adam Lally, John Prager, Michael McCord, Branimir Boguraev, Siddharth Patwardhan,
James Fan, Paul Fodor, and Jennifer Chu-Carroll. Question Analysis:
How Watson Reads a Clue. IBM Journal of Research and Development, submitted.
[4] Michael McCord, Branimir Boguraev, John Prager,, and J. William Murdock.
Parsing and Semantic Analysis in DeepQA. IBM Journal of Research and Development,
submitted.
[5] Michael C. McCord. Using Slots and Modifiers in Logic Grammars for Natural
Language. Artificial Intelligence, 18(3):327–367, 1982.
[6] Leon Sterling and Ehud Y. Shapiro. The Art of Prolog — Advanced Programming
Techniques. MIT Press, 2 edition, 1993.Enano Автор
17.04.2015 08:02Предлагаю вам написать свои размышления о прологе в своей собственной статье об ИИ:
— Думаю всем будет интересно почитать обзор приведенных вами статей и понять как IBM Watson использует Prolog.
— Предлагаем в этой статье также поразмыслить о том как создать лингвистическую модель на основе пролога, чтобы она могла размышлять на любом языке.
Мы обязательно подключимся к обсуждению, зададим вопросы и выскажем наше мнение, если оно вам будет интересно.
peacemakerv
15.04.2015 20:24Вот для Android есть приложение CamFind, определение предмета по фото, работающее на полтора порядка удивительнее, чем Гугловый Googles.
Он каким-то неспешный последовательным процессом анализирует фото и потом выдает тип\класс, к которому можно отнести предмет, цвет и т.д. и довольно-таки правильно…
Mist8
16.04.2015 23:47Стоит ещё понимать, что за интеллектом человека стоят как минимум десятки тысяч лет коллективного опыта.
Очень показательный пример — дети Маугли. Сам рассказ «Маугли» основан на реальных феноменах (хотя сам рассказ «фантастичен» в некоторых аспектах). Существует несколько зафиксированных и хорошо описанных случаев, когда находили детей маугли. Так вот, в зависимости от возраста, обычно эти дети — очень слабо социализировались, им тяжело давался язык и прямоходение и многие из них вообще не смогли вписаться в человеческую культуру.
Собственно это иллюстрация к тому, что наш интеллект — очень во многом строится на культурном слое. Все дети (кроме маугли) находятся в очень сильном и во многом типичном информационном потоке. Потоке в котором все окружающие подталкивают тебя учиться речи, учиться управлять своей физиологией, учиться говорить и понимать речь.
И наоборот, вне этого потока — физиологически дети могут вырасти (будучи воспитанными животными), но не научиться говорить, или ходить на двух ногах.
ИЧСХ, поэтом, после прохождения определенных периодов развития — научить их говорить/ходить и т.п. — крайне затруднительно. Хотя при этом, они в определенных областях развиты даже лучше, чем обычные люди. Например бегают на четвереньках сравнимо по скорости с бегом на двух ногах.Mist8
16.04.2015 23:57В целом, за 40 тыс. лет мозг не сильно изменился. У некоторых предков человека, по объему, мозг вообще был больше, чем сейчас. Но в целом, объем мозга не коррелирует с уровнем интеллекта. Среди гениальных людей он варьировался довольно сильно. Т.е. большой мозг =! большой ум или сильный интеллект.
Как мне кажется, «железо», т.е. сам мозг, у нас уже давно был способен на очень многое. Научный прогресс и развитие интеллекта, собственно, не упиралось в возможности нашего мозга. Они копились вместе с опытом, с развитием культурных механизмов (речь, письмо, знания).
Поэтому, вполне возможно, что в скором времени создание ИИ будет уже не столько вопросом улучшения железа (вычислительных мощностей), сколько — тем какие алгоритмы в него закладывать и каким образом.
evorios
Какие самые существенные различия вы видите между интеллектом алгоритмов, реализованных вами, и, например, интеллекта шимпанзе?
Enano Автор
У шимпанзе биологические рецепторы получения информации, многогранные, а у нашего псевдоинтеллекта только интернет и клавиатура, т.е. инфопоток, поступающий на наш псевдоинтеллект примитивнее.
Но основные принципы «информационного функционирования» можно считать схожими.
Gorthauer87
Можно, но мне кажется, что чего-то важного всё равно не хватает. Есть же куча самообучающихся систем, но они все быстро достигают потолка, иначе бы игра Жизнь давно бы уже писала свои комментарии к этой статье.
Enano Автор
— Да, вы правы — не хватает…
— Напишите, чего не хватает лично вам.
— Если бы они действительно были бы самообучающимися, то тогда, да, они бы сейчас комментировали эту статью.
— Если вы знаете такие системы, то приведите примеры, и мы их рассмотрим вместе.
Gorthauer87
Возможно, что не хватает банально времени — жизни потребовалось 4 миллиарда лет эволюции для появления человека. Сколько там за это время деталей родилось — черт знает.
Что касается систем, то это всякие клеточные автоматы, разного рода симуляции, да даже песочницы типа майнкрафта. Но и они даже до простейших биологических вирусов не дотягивают. А уж компьютерные вирусы так и тем более абсолютно лишены способности эволюционировать.
Enano Автор
Мы учтем ваши пожелания при написании следующих статей.
Как по вашему клеточные автоматы демонстрируют самообучение?
Gorthauer87
Вообще подумал на досуге и решил пару мыслей изложить.
1. Очень хочется поставить знак равенства между самообучением и эволюцией. Очень уж эти две вещи похожи. И модет быть можно эволюционные законы к обучению применить.
2. Вполне вероятно для самообучения машинам не хватает энтропии. Все компьютерные модели слишком мало информации из вне берут.
3. Возможно ИИ придется майнить наподобии биткоина.
Enano Автор
1. Эволюция и самообучение — это как мягкое и теплое. Эволюция — это борьба за выживание. Самообучение — лишь один из элементов борьбы.
2. Для самообучения машинам не хватает КАЧЕСТВА сенсоров/анализаторов/каналов поступления данных.
alx49
Почему? Например, как вы думаете, есть ли задачи, решению которых вы не способны обучится?
Enano Автор
логически — нет задач которым нельзя научиться.
практически — есть.
Ибо индивид может не тянуть, т.е. обладать недостаточным интеллектом.