Пообщайтесь с Евгением прямо сейчас: Eugene Goostman
Да ну, фигня, очередной искусственный идиот. Я ожидал чего-то большего. На любое слово (даже на любой символ, например, пробел) выдаёт десять-двадцать слов, постоянно повторяет предложения (т.е. не может формулировать новые предложения), и вообще странно отвечает. Вот, для примера: напечатал несколько совершенно случайных символов подряд; человек бы отреагировал вполне логично - переспросил бы или, при повторении такой бессмыслицы - отправил куда-нибудь подальше, а он отвечает: "Errr... Do you practice "blind typing"? Looking at all these typos I guess you do. I can't guess half of the words!". Вот какой человек станет разражаться четырьмя предложениями на набор ничего незначащих букв? И уж тем более писать про опечатки и то, что "я не могу угадать и половины слов", когда тут и половины одного слова нет, я уж молчу про то, что опечатка - ошибка в слове, а слов-то тут вообще нет. Если бы он ответил на такой бессмысленный набор букв, например, "What?", это было бы гораздо более человечным ответом, чем все эти тонны текста. А, например, на цифры он реагирует вообще только тремя фразами - это ещё раз доказывает то, что все фразы заданы заранее, поэтому можно уверенно утверждать, что эта программа точно не имеет механизма самообучения. Любая программа с самообучением давно придумала бы что-нибудь по-лучше.
Так что не беспокойтесь, настоящий интеллект ещё никто не разработал, даже обещанных 29.2% тут невидно.
Quote (omsklavr)
есть лучше русский вариант ИИ на сайт
Лучше это только тем, что можно самому редактировать. А ещё можно заставить поговорить двух инфов друг с другом, это вообще смешно получается (вот, хотя бы польза есть - поднимает настроение; а то этот "Евгений" скучный какой-то):
Quote (Кусок диалога двух "инфов")
Он: А ты интроверт или экстраверт? Она: Ты хочешь об этом поговорить? Он: Да, давай об этом поговорим. Она: Что? Он: Что-то интересное. Она: Что - что? Он: Да так, ничего... Она: Извини, я это не знаю! Он: Да ладно, что там... Она: Даже не знаю! Он: А зря. Это интересно знать. Она: Я рада!) Он: Я тоже рад!) Она: Извини, я не поняла!) Он: Да ладно, что там... Она: Не поняла! Он: Ну и не поймёшь. ( Она: Ты хочешь об этом поговорить? Он: Да, давай об этом поговорим. Она: Ага! Он: Именно. Расскажи мне анекдот? Она: Повар спрашивает повара... Он: Не понимаю. Извини. Она: Прощаю!
Оказывается, взаимное непонимание двух чат-ботов резко поднимает настроение. ...И, главное, она его в самом конце всё-таки простила, прямо роман такой с хэппи-эндом.
Quote (darthRevan)
А мелких роботов-вредителей
Робот-саранча? По-моему, натуральная саранча дешевле. Направил такой рой биомассой тонн на сто на другую страну - и у них уже кризис, жрать нечего, начинают покупать у тебя продукты, а ты заботливо поднимаешь цены и понимающе пожимаешь плечами - что поделаешь, и у нас якобы кризис. А чтобы они твою саранчу не убивали, можно немного модифицировать её на генетическом уровне, и готово - тонны бездумных насекомых убивают целую страну людей, хотя у людей интеллект есть, при чём натуральный. Можно ещё в обход законов и запретов сделать вирус, но это более рискованно, можно устроить небольшое тотальное вымирание человечества, поэтому этого никто не делает. Так что использовать роботов в войне крайне нерационально, тем более - интеллектуальных, это подрывает экономику страны. В крайнем случае можно делать таких роботов (впрочем, таких уже делают, разворовывают казну), которые действуют строго на "инстинктах" - ведь им не нужно думать, им нужно действовать, а думать будут по-старинке, военачальники всякие, типа генералов.
Да и вообще. Нового солдата призвать можно практически бесплатно, ну, форму ему самую дешёвую сшить, автомат подержанный дать, накормить чем попало - и в бой, авось убьёт кого-нибудь; а если собирать или покупать боевого робота - это тучу денег на одну штуку выложить нужно, чтобы закупить детали, топливо, это всё собрать, провести кучу испытаний, обучить персонал по работе с новой техникой, постоянно обслуживать - чтобы ничего не сломалось, а для этого нужны обученные механики, которых ещё нанять нужно, потому что на дороге не валяются, а потом этого супертехнологичного робота собьёт первой же ракетой какой-нибудь вражеский солдат без образования, которого с этой ракетницей обращаться никто не учил, потому что некогда солдат чему-то обучать - а он взял, и уничтожил. Обидно. И денег тучу на ветер выпустили, зато выглядели в момент разработки этого робота как передовая страна...
Лучше бы разработали робота, который сам еду готовит и хозяину приносит. И не очередной пищевой принтер, а натурально, на колёсиках и с трёхпалой рукой, чтобы тарелки раскладывать и кормить хозяина/хозяйку с ложечки, ибо ему/ей тянуться лень. Может работать как официант на батарейках, тоже польза, и чаевых не надо, и зарплата не нужна, знай только аккумуляторы заряжай и шарниры смазывай.
А мой фаворит - это NIALL. Non-Intelligent Language Learner, то есть. Он может пройти тест Тьюринга только случайно, но боже мой, порой выдаёт такие умные вещи, на которые обычные боты никогда не будут способны. К тому же он на самом деле учится. Уже через час беседы он сможет нелепо обсуждать с вами экзистенциальные вопросы, и вам будет казаться, что он вас понимает. К сожалению он, в отличие от Евгения, никаких наград не получал. Бледные дрыщекролики следят за вами
Ученые из Технологического института Джорджии разработали роботов, которые способны обманывать друг друга. Идею разработки они почерпнули в модели поведения обычных белок и птиц. Практическое приложение исследование найдет в будущих военных разработках. Работа публикуется в IEEE Intelligent Systems.
Команда ученых под руководством профессора Рональда Аркина начали с биологического исследования – они изучили, как ведут себя белки, собирающие желуди и прячущие их в своих тайниках. Когда другая белка может подсмотреть тайник, животное меняет свое поведение. Вместо того, чтобы обращаться к местам, где действительно могут храниться ее запасы, она посещает ложные тайники, мешая тем самым найти настоящие. Именно эту модель ученые перенесли на роботов. Если враг присутствует где-то рядом, робот может изменить свою стратегию патрулирования, чтобы обмануть другого робота или даже людей. Таким образом, можно выиграть время до прихода подкрепления.
Помимо этого, Аркин исследовали поведение птиц, которые "блефуют" перед лицом опасности – притворяются сильнее, чем они есть и даже нападают на противника. Не только эмпирические данные, но и математическая модель доказывает: такой обман является эффективной стратегией, польза от него перевешивает риск быть пойманным. И в военной операции, робот, который сам находится под угрозой, может не менее эффективно симулировать способность бороться с противником. Даже если он не в состоянии фактически защитить себя, его действия могут повлиять на интеллектуальную технику врага – заставить ее решить, что риск неоправданно высок. "Обман, если он используется в нужный момент, может минимизировать угрозу",- говорит Аркин.
Профессор Аркин также отмечает, что расширение технологии за пределы военной области, где порой "все средства хороши", может повлечь за собой много этических вопросов. Он настоятельно рекомендует тщательно взвесить то, насколько морально приемлемы результаты исследований, которые научили роботов обманывать.
Хм... классно очень радует! Будущее не так далеко как кажется, если конечно это не утка :/ А тест Тьюренга хороший показатель интеллекта. Именно в диалоге проявляется интеллект, способность мыслить и формулировать свою мысль, способность иметь мнения, делать выводы! Кстати, если вы сомневаетесь в тесте Тьюренга, значит вы скорее всего не всё знаете о нём, о сложности его прохождения и тд. Учёные не стали бы мучатся и к нему готовиться если бы не разделяли мнение о его правильности, а вы не умнее учёных, по крайней мере в их сфере. ИМХО. - Java - PHP, JavaScript - HTML/CSS DeadlySquare Run or Die Super SQUARE
Разработчики суперкомпьютера IBM Watson сделали большую ошибку, когда закачали в его память словарь уличного жаргона с сайта Urban Dictionary. IBM Watson обучен распознавать смысл предложений/вопросов и отвечать на них, используя усвоенные массивы неструктурированных данных (data mining). Благодаря этому компьютер выиграл у чемпионов телевикторины «Своя игра» (Jeopardy) в 2011 году, после чего начал изучать медицинские справочники с целью диагностировать болезни по симптоматике, как доктор Хаус.
Разработчики думали, что информация о дополнительных смыслах слов улучшит искусственный интеллект, поможет ему лучше понимать людей. Они ошиблись. Уличный жаргон оказался исключительно вреден суперкомпьютеру. Однажды он даже ответил на вопрос неприличным словом “Bullshit”.
Добавлено (19.01.2013, 21:10) --------------------------------------------- ------------------------------------------------------------------------- ------------------------------------------------------------------------- Vernor Vinge "What If the Singularity Does NOT Happen?" Конспект(не мой).
Цитата
Виндж всё ещё 2007 году полагает Сингулярность наиболее вероятным исходом, однако научная честность побуждает его изучить альтернативные сценарии. Представим, что мы находимся в 2045 году и обнаруживаем, что Сингулярность не произошла. Почему это может быть? Возможно, включился в действие закон падающей отдачи от усложнения компьютерных программ. Сложность программ растёт настолько, что никакими вложениями денег невозможно избавить их от багов, которые приводят ко всё более и более впечатляющим провалам: например, система автоматического управления самолётами сводит все самолёты в одной точке пространства-времени. Эти провалы приводят к снижения спроса на продвинутое компьютерное оборудование, в результате чего закон Мура прекращает действовать, хотя до физических пределов миниатюризации ещё далеко. Фундаментальные исследования в области материаловедения стагнируют, в частности, из-за отсутствия сверхмощных компьютеров. Прогресс продолжается только в таких простых областях, как компьютерная память. В результате у нас есть супер-пупер аудивидеоосистемы и огромные базы данных, но нет гениальных программ, чтобы с ними работать. В результате нет ничего удивительного, в том, что ИИ не развивается, а без него невозможны и нанороботы. Эта эпоха получает название «Эра разбитых надежд». Действует закон Эдельсона: «Число важный открытий, которые не были сделаны, экспоненциально растёт с течением времени». Это связано с тем, что при быстром прогрессе мы просто не успеваем проанализировать и связать воедино все открывшиеся возможности. Однако перспективы глобальной катастрофы никуда не делись – растут проблемы окружающей среды, и снова началась гонка вооружений и ожила концепция взаимного гарантированного уничтожения. Представим, что человечество пережило «эру разбитых надежд» и перед ним открылись перспективы Долгого настоящего (Long Now). Возможны три сценария: 1. Возвращение к гарантированному взаимному уничтожению. Виндж иллюстрирует каждый сценарий графиком, который связывает население и максимальный доступный ему источник энергии. Рано или поздно происходит катастрофа. 2. Золотой век. Стабилизируется большая продолжительность жизни большое население и высокий уровень доходов. 3. Колесо времени. Цивилизация переживает циклы спадов и подъёмов разной амплитуды. (Бостром пишет, что такая ситуация не может продолжаться вечно: она вырождается или в сингулярность или в полное вымирание). Этот сценарий кажется Винджу наиболее вероятным. Далее Виндж рассуждает о необходимости освоения космоса как о защите от глобальных рисков.
Это "ИИ", который почти прошёл тест Тьюринга, я могу за два часа написать на Free Pascal. Думаю, ы поняли, о чём я. ЪЪЪЪ! Лучшая благодарность - плюс в репутацию :-)
Хм... классно очень радует! Будущее не так далеко как кажется, если конечно это не утка :/ А тест Тьюренга хороший показатель интеллекта. Именно в диалоге проявляется интеллект, способность мыслить и формулировать свою мысль, способность иметь мнения, делать выводы! Кстати, если вы сомневаетесь в тесте Тьюренга, значит вы скорее всего не всё знаете о нём, о сложности его прохождения и тд. Учёные не стали бы мучатся и к нему готовиться если бы не разделяли мнение о его правильности, а вы не умнее учёных, по крайней мере в их сфере. ИМХО.
Эм, и что за тест такой?
Пообщавшись с роботом, я вообще не понял, как его можно не отличить от человека.