mns2012 (mns2012) wrote in biosemiotics,
mns2012
mns2012
biosemiotics

Categories:

Можно ли на основе вычислительной машины синтезировать разум?



— Здрасьте, я ваша тетя!
Переводчик: она с вами здоровается и говорит, что она ваша родственница.

Эрик Ларсон — специалист по искусственному интеллекту, основатель компании, занимающейся классификаторами блогов и др. web-источников на основе разработанных им методов. Получил 1.7 миллионный грант от DARPA для исследований. Является редактором секции «Наука и технология» ресурса The Best Schools.org. Пишет монографию с целью показать чрезмерность ожиданий человечества относительно того, что на самом деле могут предложить технологии искусственного интеллекта. Верующий, если что.



Источник.

Ларсон указывает на три тяжелейшие проблемы в Natural Language Processing:

  1. common knowledge acquisition;

  2. frame (даже если машина сгенерировала знания, нужно еще уметь этими знаниями пользоваться в зависимости от контекста)

  3. model saturation (насыщение как естественный предел возможностей inductive reasoning);


Умный мужик. Много лет проработал в NLP. Говорит, что, несмотря на то, что cовременная модель AI = ML + Big Data все еще приносит дивиденды, скоро наступит эффект насыщения: сколько бы мы еще ни пихали дополнительных данных в модель, лучше результат не станет (иногда бывает, даже теряется точность от пресыщения данными — т.наз. overfitting). Ларсон приводит как анекдотическое доказательство недавний опыт Питера Норвига (кто занимается в AI, тот знает, кто это такой), который как раз об этом и сказал. Норвиг в последние несколько лет работает на Гугл и недавно признался в том, что модель ML + Big Data в его проекте уже достигла насыщения.

Проблема в том, что добавление еще и еще обучающих данных не даст ничего из-за асимптотического поведения точности обучаемой модели, постоенной на индуктивной логике (скажем, покрыли 90% случаев). Но самые интересные случаи (когда человек использует сарказм, преувеличения, анафоры, игру слов и пр.) как раз недосягаемы для таких моделей, поскольку они сравнительно нечасто встречаются в речи (те самые недостающие интересные 10% случаев, когда машина не может правильно проинтерпретировать смысл текста). А человек спокойно понимает из контекста (при условии погруженности в культурную среду), что имеется в виду. Высказывание «Кино было удивительное!» может нести противоположный прямому смысл, если говорится с сарказмом. «Погода в Британии зимой замечательная» — то же самое.

В 1960-70-х гг. были сформулированы труднейшие проблемы классического AI, о которых сейчас забыли из-за взрывного развития интернет-технологий. Но эти проблемы так и остались нерешенными. Экстенсивными методами типа ML + Big Data их не решить.

Если хотите заработать миллиард, делайте что-то новое, не рассчитывая на Big Data, инвестируйте в развитие абдуктивных моделей. То, что делается сегодня, AI в строгом смысле, который в это словосочетание вкладывался при самом зарождении AI, назвать нельзя. Индуктивная логика, лежащая в основе ML + Big Data, не покроет интересных маловероятных исключений, в которых и заключается богатство человеческого общения.

Джарон Ланиер (Jaron Lanier), человек оказавший большое влияние на развитие современных технологий, в частности, виртуальной реальности, говорит о том, что все эти технологии — всего лишь средство общения между людьми и никогда они человека не вытеснят. То есть, даже среди тех, кто оказывает серьезное влияние на развитие IT, есть трезвомыслящие люди. Опасная тенденция, по мнению Ланиера, состоит в том, что коллективно человечество теряет способность этического контроля над технологией.

220px-Jaron_lanier
Jaron Lanier. Википедия.


Человек мыслит абдуктивно в большинстве случаев. Абдукция — это логически некорректное суждение, оно неформализуемо. Это суждение о наиболее вероятных причинах наблюдаемого, делаемое на основе предыдущего опыта (inference to the best explanation). Индукция основана на обучающих примерах и выводит правило, которое можно опровергнуть исключениями. Дедукция — единственный из трех видов формулирования суждений, безупречный с точки зрения формальной алгоритмизации. Но наш мир устроен так, что применять на практике формальную дедукцию мало где возможно. Интересно и практически важно раскручивать причинно-следственные связи в обратную сторону, в сторону возможных причин. [Кстати, Шерлок Холмс занимался именно абдукцией, он обладал богатейшим опытом, хорошей памятью, аналитическими способностями и делал абдуктивные заключения, основываясь на предыдущих похожих случаях, как, в принципе, и делают все хорошие сыщики, ибо, как говорил Жеглов, «что-нибудь подобное где-нибудь, когда-нибудь с кем-нибудь уже просходило, на том наш брат сыщик и стоит» (с) — mns2012].

Ларсон подтверждает (правда, косвенно) скепсис относительно AI в том смысле, что некоторые поставленные проблемы вообще когда-нибудь возможно будет решить, по крайней мере, теми подходами, которые используются сейчас. Но прямо утвердительно или отрицательно насчет гипотезы о сильном искусственном интеллекте он не высказывается. И то хорошо, что большие сомнения. А ведь в 1956 г. на первой конференции по AI ученые отводили на создание искусственной модели разума человека, смешно сказать, 2 месяца, согласно данным, которые приводит Ларсон. Только построй нейронную сеть — и она начнет мозгами шевелить. А оказалось-то все сложнее.

Ларсон утверждает, что вместо того, чтобы сходить с ума от научной фантастики на тему «машины завоевали мир», «компьютер будет наделен разумом» или от трансгуманистической околесицы типа предположения о так называемой сингулярности (что наступит фазовый переход, когда машины станут более разумными, чем человек, который уступит место кибернетическим организмам), необходимо находить и решать такие практически важные проблемы, решение которых машиной гораздо эффективнее того, что может человек. А пока, по мнению Ларсона, тем, что могло бы реально продвинуть собственно AI в отличие от машинного обучения на больших массивах данных, люди вообще не занимаются. К проблеме сильного AI (сможет ли машина осознать себя и т.д.) практика вообще отношения не имеет.
Tags: artificial intelligence, искусственный интеллект
Subscribe

  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic
  • 4 comments