![]() |
ИИ желает знать...
Здравствуйте, одно время размышлял на тему программы, которая могла бы общаться с тобой подобно человеку. Полазал в энете поискал, инфу на эту тему. Понял что это затея пока еще ни кому в полной мере не удавалась. Потыкался, успокоился. Но недавно нашлось свободное время для размышлений и я попытался проанализировать что нужно подобной программе. Основное условие это разбор синтаксиса предложения. Понять где основа предложения а что второстепенное. В энете встречал подобные программы они не плохо раскладывали слова по иерархии их связи по смыслу. В этом проблем не должно возникнуть. Дальше база слов, тут еще проще накидал слов в базу и все. Теперь нужно эти слова связать между собой, через разные части речи, через определения. К примеру что такое высота? Ее можно описать разными словами с разным словом компаньоном. Возьмем слово высота объекта. Мне видится что на такое словосочетании у программы должна быть определение как: "это расстояние между нижней и верхней точками объекта в выбранной размерности". В этом определении одним из ключевых слов будет слово "расстояние". Ее определение мне кажется должно звучать как: "Это количество единиц выбранной размерности (только ... миллиметры,метры,километры ...) между двумя и более точек". После описания слов в базе и создания связи между ними программа, разобрав предложение, напечатанное человеком, определит основу предложения, второстепенные слова. Рассчитывает смысл предложения. Пускается по алгоритму в зависимости от эмоциональности заложенной в программе. Если вопрос, ответ. Если повествование, реакция(есть информация, высказывание, иначе вопрос для самопознания).Такая схема выглядит работоспособной, однако я не углубился в такие нюансы как эмоции и расчет смысла предложения. Однако без эмоций можно обойтись.без расчета в любом случае нельзя, но и без этого есть проблемы.
Просто начав эксперимент на бумаге и попытавшись связать ряд слов у меня доходя до дна иерархии определений возникали трудности. А как объяснить машине что такое бесконечность? Как ей сказать что такое единица? что I-это 1 а II-это 2. Вот поэтому я и хочу завязать некое обсуждение на эту тему, узнать что думают процедурные умы нашего форума?) |
Ответ: ИИ желает знать...
Вообще-то, это и не нужно... Хватает вполне хватает функциональности SIRI.
|
Ответ: ИИ желает знать...
Мы сами то о бесконечности знаем не больше, чем написано в википедии или какой-то умной книге.
пусть анализирует - учится, читает Вики, гуглит и находит правильный ответ, мы тоже не всезнающие, почему тогда от машины требуем большего. А как ты собрался объяснять машине, запахи и вкусы? Я например за свою жизнь не всё попробовал, лягушек не ел, и не знаю правда ли что они похожи на курицу, а если я не ел курицу, на что похожа по вкусу курица? |
Ответ: ИИ желает знать...
ingko, не знаешь как SIRI на тесте тьюринга себя ведет? Если я не ошибаюсь то система только умеет отвечать. Мне кажется И.интеллект должен и сам способен разговор поддержать.
|
Ответ: ИИ желает знать...
Цитата:
http://ru.wikipedia.org/wiki/%D0%AD%...B8%D0%B7%D0%B0 Современный вариант: http://ru.wikipedia.org/wiki/A.L.I.C.E. Тут можно поговорить на английском: http://www.pandorabots.com/pandora/t...d922d97e345aa1 |
Ответ: ИИ желает знать...
По Тьюрингу машины уже в 2000-м должны были научиться говорить. А объём памяти (в котором он видел аппаратное ограничение на реализацию адекватной системы) был достигнут ещё ранее. А премия* Лёбнера (за "полное прохождение") так и не досталась никому.
* везде пишут разное. Как я понял: награду ежегодно получает лучший из представленных, но идеально критерию Т. никто до сих пор не соответствует. А вообще - ряд исследователей критикуют тест Т. за антропоцентричное толкование интеллекта и бихевиористичность.
Вот с чем можно ознакомиться на досуге (что-то меньше, что-то больше относится к теме: в порядке возрастания номера в списке) 1) Тьюринг А. М. Может ли машина мыслить? // Может ли машина мыслить?: Сборник. – М.: Государственное издательство физико-математической литературы, 1960. – С. 19-58. 2) Азимов А. Совершенная машина // Человеческие способности машин: сборник статей из специального номера английского научно-популярного журнала Science Journal, oct. 1968. – М.: Изд. «Советское радио», 1971. – С. 187-198. 3) Рассел С., Норвиг П., Искусственный интеллект: современный подход. – М.: Издательский дом «Вильямс», 2006. – 1408 с. 4) Винер Н. Творец и робот – М.: Прогресс, 1966. – 104 с. 5) Винер Н. интервью в разделе “Наши интервью” // Природа. – 1960. – №8. – С. 68-69. 6) Международный конкурс летающих роботов – http://iarc.angel-strike.com 7) Официальный сайт премии Лёбнера – http://www.loebner.net/Prizef/loebner-prize.html |
Ответ: ИИ желает знать...
Wegox, ды яж не утверждаю ничего такого. Я не собираюсь этот ИИ программировать. Я просто размышляю... Ведь люди брались за построение подобных систем. Но как можно считать машину похожей на человека если ей нельзя объяснить на пальцах. Я и пытаюсь понять нужно ли машине знать о бесконечности. Ведь если исходить из связанности базы данных, то на каждое слово должно быть определение, иначе нет смысла в слове которое будет значить для машины набор букв. Тут наверно какую то асоциативное мышление нужно подкручивать к другим каким то сенсорам, помимо текстового поля.
|
Ответ: ИИ желает знать...
SBJoker, ну пока не пощупаешь не верится как то))
Последняя ссылка выглядит интересно, жаль конешь на английском, а то я бы наверно чуть позже отписался)) К тому же ALICE опять же не способна разговор поддержать. |
Ответ: ИИ желает знать...
impersonalis, читал про Лёбнера. Я думаю тест Тьюринга будет состоятельным если за стенкой от решающего будет установлено два компьютера, и единственный человек в тесте не сможет отличить их от людей.
|
Ответ: ИИ желает знать...
Цитата:
сказала что пошла покупать это. Я проснулся и первое что пришло в голову пояндаксить http://yandex.ru/yandsearch?text=%D1...id=14002&lr=12 Это всё что нашел, но по ассоциациям думал, что это какое то лекарство. |
Ответ: ИИ желает знать...
Wegox, А мне как то приснилось что я в мире где есть некий высший которого называли Иваси Васасич))) Погуглил когда проснулся с хорватского какое то из слов значит король или царь)) Кстити не факт что твоя девочка сказала именно это слово, при пробуждении ты мог исказить его действительное значение. К тому же, когда то книжку написали про Титан а утанул Титаник.
|
Ответ: ИИ желает знать...
Цитата:
Это я к этому Цитата:
|
Ответ: ИИ желает знать...
Wegox, я пока не планировал давать возможность машине спать и видеть сны)) Я после написал про ассоциации. Возможно помимо текствого поля обязательно должно быть что то еще.
|
Ответ: ИИ желает знать...
Цитата:
Набрать номер, ввести название в навигатор - может и SIRI. |
Ответ: ИИ желает знать...
Цитата:
Бред конечно, дофига утрировано, но я думаю, что если находят применение всяческой бесполезной хрени, то уж разговаривающий с тобой комп - само собой найдёт своё место в жизни человечества. Не тупо говорящий, а именно разговаривающий => мыслящий. Но тут правда можно вспомнить фильм Терминатор, он как раз о том, как дюже умный комп подумал что человечество ему угрожает, и тут понеслось... :) |
Ответ: ИИ желает знать...
Цитата:
Ну, а ежили, ты остался в бункере один, пусти себе пулю в лоб: дешево, надежно и практично :)) |
Ответ: ИИ желает знать...
Цитата:
1) философской 2) Ну-ка, ну-ка: пруфы. Максимум: это одна из версий и не более. (у меня Банкерт от того как люди умудряются свои домыслы и чьи-то мысли под "беленькую" называть "философией". Философия - это не синоним оборота "если пофантазировать", "можно представить", etc) 3) Самоубийство - это так "по христиански"* (тягчайший грех) =\ * я не агитирую за религию, но пользователь обычно сам апеллирует к подобной доказательной базе. |
Ответ: ИИ желает знать...
Цитата:
Да и таки да. Нельзя, ибо грех. Апд. Человек сейчас не может синтезировать свой мозг. А что будет завтра, послезавтра, через 100 лет - неизвестно, и непонятно кого человечество ещё создаст (если конечно само себя не уничтожит, что тоже вполне вероятно) |
Ответ: ИИ желает знать...
|
Ответ: ИИ желает знать...
Кстати, вспомнил почему мне такие мысли в котёл то полезли. Я в то самое свободное время читал книгу "Машина времени шутит" Кита Лаумера. Так вот там завязка в том что машина размещенная в огромном комплексе зданий своим создателем отцом героя книги, была покинута разработчиком по причине смерти . И когда сын случайно нашел её, завязка и пошла. Он напечатал пару вопросов этой машине и сел на пятую точку от понимания того что перед ним искусственный интеллект который в сотни раз умнее его и то что эта машина через интернет пустила свои "провода" по всему миру, влияя на него чтобы получать новые знания. Фантастика, но у фантастики есть свойство сбываться.
|
Ответ: ИИ желает знать...
Цитата:
|
Ответ: ИИ желает знать...
Вложений: 1
Цитата:
Вложение 18494 Чуть выше в тексте, автор даёт определение, что под "ёмкостью памяти" он понимает "логарифм числа состояний по основанию 2". Таким образом, ёмкость 10^9 надо понимать, как память, с числом состояний 2^(10^9), что соответствует 1Гбит. Или 128 Мб. Причём, ЕМНИП, в тексте нет разделения на тип памяти, иными словами - по большому счёту, не важно: будет ли достигнут данный объём за счёт гигантских свопов на винт, требуется ли огромная скорость доступа (а-ля кеш цп) или можно шерстить БД на SSD. Думаю, автор опускает технические детали по причине актуального уровня развития техники (1950), её проникновения в жизнь, и, как следствие, степени компьютерной грамотности широкого круга читателей. |
Ответ: ИИ желает знать...
Цитата:
impersonalis, Дружище, очень не хочу тебя "макать". :) Нельзя так подставляться. :rolleyes: Если ты, хотя бы почитываешь время от времени научную литературу, то знаешь, что наш мозг пока еще изучен, примерно, на 2 %. И ты, как хороший программист, должен понимать, что мало просто изучить что-то, чтобы написать эмулятор. Надо еще найти способы описать это всё неким кодом, и чтобы оно еще работало без ошибок и вылетов. То есть, мало сам мозг эмулировать, надо еще написать кучу всего вокруг него. :) Ученые даже не могут описать мозг мухи и как-то его имитировать, хотя, он уже изучен на 99 %! |
Ответ: ИИ желает знать...
Какой то бред выше
|
Ответ: ИИ желает знать...
Инка, ты правда так упорот, или просто троллишь?
|
Ответ: ИИ желает знать...
Цитата:
|
Ответ: ИИ желает знать...
Вложений: 1
Цитата:
Вложение 18495 |
Ответ: ИИ желает знать...
ingko
уже есть полная структурная схема мозга обезьяны, уже почти есть полная структурная схема мозга человека, ну и да ... я не хочу ломать твои стереотипы, но http://en.wikipedia.org/wiki/Blue_Brain_Project они в 2012 смогли симулировать 10 млрдов нейронов, в человеческом мозгу всего около 60-80 млрдов нейронов, обещают к 2023 полную симуляцию мозга человека, но скорее она будет достигнута куда раньше как бы мозги это топорные нейронные сети которые очень хорошо теоретически изучены, структурные схемы мозгов тоже очень просты, вопросов только три : 1) какие там бл*ть ВЕСА стоят ? вот это сложный чисто технически вопрос 2) как и какие химические и физические процессы влияют на нейроную сеть, может быть наше сознание как-то зависит и от квантовых процессов, но скорее всего нет 3) скорость симуляции - она пока очень далека от реального времени, но это чисто технические вопросы, ведь органический мозг вот перед нами, а исскуственную жизнь получили еще в 2008 году, значит и органическую технику сможем делать скоро, осталось решить чисто технические вопросы так что лучше или оставайся в своем .. 1985 .. или почитай наконец новости |
Ответ: ИИ желает знать...
|
Ответ: ИИ желает знать...
Arton
не гуглил сами пейперы, но вот http://www.bbc.co.uk/news/10132762 суть в чем : 1) изучаем организмы, понимаем основные принципы работы 2) составляем нужный нам набор генов, пишем днк на бумажке 3) синтезируем днк (сейчас есть компании которые за деньги синтезируют вам днк) 4) берем вирус и парим ему днк 5) подсовываем клетку к вирусу 6) вирус заражает клетку и заставляет её репродуцировать не-что с нашей днк 7) получаем организм с нашей днк опа-опа, синтетическая жизнь, так можно что угодно делать, вопрос только в понимании и сложности синтеза днк можно например вырезать систему мутации, тогда будут чисто клоны, а если ее вырезать то можно убрать пустые гены которые работают как fail-safe механизм (костыль грубо говоря), если некодирующие последовательности убрать то днк сильно уменьшится в размерах, но тогда начнётся вопрос валидации, ведь это химия, прилетит атом и раздолбает наше днк, а каких-то чек сумм природа не придумала толком |
Ответ: ИИ желает знать...
|
Ответ: ИИ желает знать...
jimon, спасибо просветил) А поповоду мозга, так это хоть наделай 10 таких искуственных мозгов и объедени, ничего не выйдет. Нынешняя наука поставила себе жесткие рамки и мы скоро в них упремся. Потом придется раздвигать их дальше, тогда можно будет говорить об синтезируемом интеллекте.
|
Ответ: ИИ желает знать...
Вот в догонку по ИИ:
http://habrahabr.ru/post/166467/#habracut ИИ уже учатся в университетах и выигрывают в телевикторинах а вот запись той игры |
Ответ: ИИ желает знать...
Вот ещё значимая (на мой взгляд) статья по теме. ( см "Китайская комната" )
Сирл, Дж. Разум мозга — компьютерная программа? // В мире науки. (Scientific American. Издание на русском языке). – 1990. – № 3. – С. 7-13. И да: чтоб не править давнишний пост (никто не увидит): Золотая Медаль Лёбнера не вручена (соответствие критерию), премия назначается каждый год. |
Ответ: ИИ желает знать...
Цитата:
Напомнило: Киберпанк "Призрак в доспехах: Невинность". Там на тему разумен ли человек много философствуют. Впрочем как и в первом фильме :-) |
Ответ: ИИ желает знать...
Цитата:
Отсылку к теории автоматов вообще считают лженаукой, почему ? Да вот бл*ть почему : Цитата:
|
Ответ: ИИ желает знать...
Прочитай саму статью. Википедия - лишь отправная точка (чтобы найти литературу или освежить знания): частенько там бред написан.
По сути речь идёт о том, что моделирование процессов мышления, никогда не сможет быть полным аналогом реального мышления. Конечно, можно решать большой круг задач при помощи ИИ. Но вопрос о корректности называть это "мышлением". Кроме того поднимается вопрос соотношения и связи семантики и синтаксиса. Как можно синтезировать семантику, оперируя абстрактными терминами? Как машина может думать о собаке, если для неё это просто СЛОВО (пусть даже обёрнутое связями и набором характеристик). Без эмоции и нерандомного личного отношения - это всего-лишь поисковая машина, моделирующая мысль, создающая внешний эффект мышления, основанный на "книге из Китайской комнаты" - словаре, биекции которого непонятны исполнителю. Человек же (особенно любители математики) наоборот - даже абстрактному мат.синтаксису генерируют не только формальную семантику ну и эмоциональное описание (к сожалению, не вспомню пруф): знак радикала - засоший корень дерева, синус и косинус - своеобразный инь и ян. Отсюда вытекают следующие аксиомы: 1. Компьютерные программы – это формальные (синтаксические) объекты. 2. Человеческий разум оперирует смысловым содержанием (семантикой). 3. Синтаксис сам по себе не составляет семантику и его недостаточно для существования семантики. 4. Мозг порождает разум. И выводы из них: 1. Программы не являются сущностью разума и их наличия недостаточно для наличия разума. 2. Любая другая система, способная порождать разум, должная обладать каузальными свойствами (по крайнее мере), эквивалентными соответствующим свойствам мозга. 3. Любой артефакт, порождающий ментальные явления, любой искусственный мозг должен иметь способность воспроизводить специфические каузальные свойства мозга, и наличия этих свойств невозможно добиться только за счёт выполнения формальной программы. 4. Тот способ, посредством которого человеческий мозг на самом деле порождает ментальные явления, не может сводиться к выполнению компьютерной программы. И как по мне, так в отличие от многих гуманитариев-фанатзёров (если интересно - я могу и таких примеров привести), автор достаточно объективно понимает суть вычислительной техники. По крайней мере, для себя подобные тезисы я сформулировал в старших классах (учитывая уровень развития и доступности техники на тот момент - это не сказать что б было сложно), в период известной тут многим болезни "аааа надо написать свой симулятор общения". И да критика этих взглядов, разумеется, есть. И да - я не обожествляю процесс человеческого мышления. Я лишь говорю: что цветок, его рисунок, и его пластиковая модель - это всё разные вещи, и посавить между ними "равно" можно лишь с оглядкой на конкретику решаемой задачи.
|
Ответ: ИИ желает знать...
Цитата:
Я не могу понять, КАК думает мой кот, но ведь это не повод чтобы отказать ему в разумности? Так чем ПРИНЦИПИАЛЬНО (как информационный процесс), вычисления программы отличаются от мышления мозга? зы. гуманитарии везде пихают мистическое "осознание собственного Я", так у некоторых программ оно просто зашкаливает, вон винда - чем не личность?:-D |
Ответ: ИИ желает знать...
Спасибо за ясную и интересную постановку вопроса.
Цитата:
С другой стороны, Тьюринг [2] на подобное мое предположение бы заявил: 1) Невозможно до конца "прочувствовать" другой интеллект - утверждать, что естественный мозг "ощущает" себя иначе, чем модель (опустим трактовку чувства - вполне возможно это паразитная информационная составляющая, типа помехи) - скатываться в солипсизм, утверждая, что только твоё ощущение Мира единственно подлинное, а всё остальное - жалкие реплики. 2) Нельзя преуменьшать возможность цифровой техники, пеняя на её дискретный (в отличии от непрерывной нервной системы биологического объекта) принцип действия: управляющая программа может воссоздать такой интерфейс, что наблюдатель никак не сможет отличить его от непрерывного. Честно говоря, не знаю что и возразить. Как-то, доцент кафедры технической электродинамики и электроники МИРЭА Савицкий сказал, что "железка не считает", а, мол, лишь выполняет определённый схемой алгоритм. В то время как "считать" до 4-х может и курица: если цыплят было 5 и вдруг стало 3 - она начнёт беспокоится. Вопрос плавно перетекает в терминологический: как вообще определить понятие МЫШЛЕНИЕ? Например, можно возразить, что калькулятор, вычислив "8*4", не мыслит, т.к. он не знает, что я вычисляю количество байтов в блитцевском int. С другой стороны, если я бы посчитал это сам, а потом внезапно tormoz, сказал, что 8*4 - это как раз площадь лужайки перед его домом - то, получается, и я не мыслил при синтезе ответа - т.к. наделял числа совсем другим смыслом? Ведь контекстная осведомлённость может ускорить синтез ответа, тем самым продемонстрировав преимущества интеллекта, оперирующего семантикой. С другой стороны - можно ли категорически утверждать, что нет возможности смоделировать семантику введением дополнительного количества ссылок между объектами мышления. Как я и писал выше, контекстно ограничиваясь, можно считать, что искусственный разум мыслит: абсолютно не важно - кто и как вычислит "8*4" (и IBM-ский Ватсон хорошо показывает насколько можно прокачать ИИ знаниями). С другой стороны (как выше тоже отмечалось): можем ли мы гарантировать что-либо о процессе, достоверно воссоздавая лишь видимую его сторону в ходе моделирования? 1. Сирл, Дж. Разум мозга — компьютерная программа? // В мире науки. (Scientific American. Издание на русском языке). – 1990. – № 3. – С. 7-13. 2. Тьюринг А. М. Может ли машина мыслить? // Может ли машина мыслить?: Сборник. – М.: Государственное издательство физико-математической литературы, 1960. – С. 19-58. |
Ответ: ИИ желает знать...
impersonalis
What ? Пойдем от обратного, можно сказать что ВСЕ физически\химические процессы в мозгу описываются физикой элементарных частиц (электрослабым взаимодействия и квантовой хромодинамикой, гравитацию можно пока исключить), я не могу сказать что ВСЕ процессы описываются теорией всего только потому что она гипотетическая, а вышеназванные теории уже созданы и подтверждены. То есть, я уже сейчас имею полную физическую модель человеческого мозга, покажи мне хоть одну причину почему я не могу симулировать модель на вычислительной технике ? То что мы пока не знаем что такое именно сознание и эмоции не означает что модель их не покрывает, наше невежество тут не причем, модель покрывает ВСЁ. Но мы знаем структурные единицы мозга и обобщенные математические модели процессов которые там происходят (читай нейрон), потому мы можем перейти от мегахардкорной по-атомной симуляции к симуляции этих процессов, энтропия сохраняется, мы получаем точно тот же мозг, просто меньшими усилиями. Ты путаешь цель, цель сейчас симулировать мозг, а понять что такое сознание это уже потом. Теоретически сознание можно симулировать, только сейчас оно будет вытекать из полной симуляции мозга. |
Ответ: ИИ желает знать...
Цитата:
|
Ответ: ИИ желает знать...
Интересная критика "Китайской комнаты" (в том числе, "светящаяся комната") изложена в статье:
Пол М. Черчленд, Патриция Смит Черчленд, Может ли машина мыслить? // В мире науки. (Scientific American. Издание на русском языке). – 1990. – № 3. – С. 14-21. |
Ответ: Связь между интеллектом и родным языком
Цитата:
Цитата:
|
Ответ: Связь между интеллектом и родным языком
Цитата:
|
Ответ: Связь между интеллектом и родным языком
Цитата:
Надо взглянуть сколько смогли набрать другие программы (если такое было). А так о-очень громкое заявление. |
Ответ: Связь между интеллектом и родным языком
|
Ответ: Связь между интеллектом и родным языком
http://habrahabr.ru/post/225599/
Цитата:
|
Часовой пояс GMT +4, время: 01:26. |
vBulletin® Version 3.6.5.
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Перевод: zCarot