moptuk: (Default)
moptuk ([personal profile] moptuk) wrote2013-06-01 07:10 pm
Entry tags:

[identity profile] xaliavschik.livejournal.com 2013-06-01 04:50 pm (UTC)(link)
1. Тест Тьюринга нормально проходится.
Например бот Alice некоторые эксперты принимали за живую женщину.
На самом деле программа простая как таракан и только имитирует
интеллект. То что её принимали за живого человека, говорит о том,
что у женщин тоже имитация интеллекта :-)
Тут можно поговорить в чате online:
http://alice.pandorabots.com/
(слева там ещё боты есть, можно выбрать)

2. Интеллектуальные роботы нужны в качестве рабов
на несложных работах и в качестве солдат. Гораздо
проще наклепать солдат на конвейере, чем выращивать
человека 17 лет (а в серьёзном бою он погибает за
несколько минут).
Этот интеллект должен быть подконтролен и ограничен.

3. Есть мнение что разум не находится в мозге.

4. Биологический/технический носитель интеллекта
- есть смешной рассказ "Они сделаны из мяса"
http://ru-gnostik.livejournal.com/110055.html

5. Очень подозрительно молчание в сфере
исследований искусственного интеллекта сейчас.
Похоже было с атомной бомбой - тогда тоже
в какой-то момент в научной литературе
перестали об этом писать, и как раз разработка
вошла в практическую фазу.
Понятно, что в 80-е годы и раньше не было
необходимых вычислительных мощностей для
искусственного интеллекта, но сейчас-то они есть.

ещё по этой теме я писал в ЖЖ Галковского:
http://galkovsky.livejournal.com/204052.html?thread=54698004&nojs=1#t54716692
http://galkovsky.livejournal.com/204052.html?thread=54709012&nojs=1#t54709012
http://galkovsky.livejournal.com/204052.html?thread=54716180&nojs=1#t54716180
http://galkovsky.livejournal.com/204052.html?thread=54730260&nojs=1#t54748948

[identity profile] moptuk.livejournal.com 2013-06-01 05:11 pm (UTC)(link)
1.Спаси Ктулху!
Очень информативные добавления.

2.Создание идеальных рабов как преодоление рабства. Эту мысль я и хочу донести.

3.Да!

4. Шутка не шутка ,а тем не менее одно из основных направлений работы.

5. Молчание, не замалчивание.

[identity profile] archi-of-real.livejournal.com 2013-06-02 08:43 am (UTC)(link)
по пункту 5: то что происходит сейчас - это разработка программ с элементами ИИ и молчание связанно с коммерческой тайной. Например создатели Скайпа заняты разработкой ИИ для разведки в сети.
Ну и потом все эти программы по распознаванию образов и речи, то же Сири, например.
по пункту 2: Это все хуйня, вы переносите шаблоны из мясного мира на мир хйтеха. Никто не будет клепать никаких роботов с ИИ для ведения боевых действий. Тем более что боевые роботы это БПЛА, "умные бомбы", автоматизированные системы наведения, слежения и т.д.
Edited 2013-06-02 08:49 (UTC)

[identity profile] xaliavschik.livejournal.com 2013-06-03 06:35 am (UTC)(link)
> Никто не будет клепать никаких роботов с ИИ для ведения боевых действий

Эксперт ООН призвал мировое сообщество притормозить создание боевых роботов с искусственным интеллектом.
В четверг спецдокладчик ООН по вопросу о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях Кристоф Хайнс призвал ввести повсеместный мораторий на производство летальных автономных роботизированных систем (Lethal autonomous robotics – LARS).
«Есть шагающие роботы, в том числе двуногие, очень похожие на человека. Они могут взять обычную винтовку М-16 и убивать. Это уже реальность»
http://habrahabr.ru/post/181842/

[identity profile] archi-of-real.livejournal.com 2013-06-03 07:24 am (UTC)(link)
робот с М-16 это дорогая игрушка. Сам подумай о боевой эффективности подобного устройства. И пока это не роботы с ИИ, а роботы с программным обеспечением с элементами ИИ.
Даже смартфон с функцией распознавания улыбок это уже робот с ИИ в данной логике.
З.Ы. У человекоподобного робота выживаемость в лучшем случае, будет такая же как и у организма из углерода.
ООН беспокоит отсутствие контроля оператора в момент убийства - это этическая проблема подкрепленная правом. Убийство это лишение жизни человека человеком, в случае с БПЛА непонятно на кого вешать отвественность и как квалифицировать. Вот и тормозят прогресс, так же как с клонированием человека из за религиозных догм

[identity profile] anonymouscarrol.livejournal.com 2013-06-05 07:56 am (UTC)(link)
1. Тест Тьюринга, думаю, не лучший критерий качества ИИ.

Полагаю, в качестве критерия можно установить способность ИИ, поставленного в ситуацию неопределенности (и со множеством незнакомых ему паттернов) максимально достоверно (пользуясь доступными ему средствами взаимодействия с реальностью и сведениями о ней) классифицировать незнакомые объекты, определить их свойства, встроить в свою иерархию знаний и на основе этого решить поставленную задачу.

2. Да.

Кстати, возможно, что базу знаний и алгоритмов для ИИ потребуется создавать достаточно долго, но зато её можно скопировать любое практически необходимое число раз.

3. Возможно, частично в мозге, частично, нет. "Клиент - сервер". Память - функция нейронов мозга, условные и безусловные рефлексы, видимо, там же где-то забиты, а вот интерпретация нейронных связей (которую мы воспринимаем как наблюдение окружающего мира, собственно, само восприятие) уже вызывает вопросы.

[identity profile] anonymouscarrol.livejournal.com 2013-06-05 08:15 am (UTC)(link)
Я просто говорю, что логические правила, которые человеку кажутся самоочевидными и простыми, - не являются основой разума, а являются только вспомогательным полезным механизмом. А на более глубоком уровне машинка работает как-то совсем по-другому. Причём этот уровень тоже материален и механичен, и не является нематериальным ядром (которое находится ещё глубже). И стоит задача, как понять, воспроизвести и сымитировать работу этого уровня.

У меня было предположение, что всё строится на ассоциативных связях между паттернами и на чувствах "приятно-неприятно". "Дотронуться до огня" - "больно", "самка" - "приятно", "чтобы получить самку - нужно (название)", и таким образом происходит построение алгоритма поведения, который в условиях текущего окружения максимизировал бы приятное и минимизировал бы болезненное.

[identity profile] archi-of-real.livejournal.com 2013-06-02 08:38 am (UTC)(link)
Привет, френд! немного послушал ваш подкаст и хочу поделиться своими мыслями.
На мой взгляд ИИ это не результат совершенствования военными арифмометров для нужд расчета баллистики и даже не совершенствование ЦВМ для криптографических задач.
ИИ - это результат психоделической революции, новой философии.
Я не думаю что ИИ будет враждебен человеку - это конечно очень логично, но только с точки зрения антропоцентризма. Мы предполагаем что ИИ это такой же человек, но со сверхспособностями, а это не так.( человеческий ум не способен представить что то новое и рассуждает обо всем в привычных рамках, наш Мир - это наш Ум)
Попытки создать ИИ - это попытки найти Бога, который перенест нас за точку сингулярности.

[identity profile] moptuk.livejournal.com 2013-06-05 08:09 am (UTC)(link)
"Попытки создать ИИ - это попытки найти Бога, который перенест нас за точку сингулярности. "

Я почти о том же самом и говорил. Только не найти Бога, а создать идеальное зеркало для человеческого разума. Можно это интерпретировать и как повторить "творение" разума, но я предпочитаю иную терминологию.

"ИИ - это результат психоделической революции, новой философии."

Соглашусь. Психоделическая революция, способствовало выходу из привычных границ разума, а значит и способствовало осознанию принципов разумности как таковых, что способствовало развитию идеи ИИ.

"Я не думаю что ИИ будет враждебен человеку - это конечно очень логично, но только с точки зрения антропоцентризма. Мы предполагаем что ИИ это такой же человек, но со сверхспособностями, а это не так."

Угрожать нам будет, лишь полноценный альтернативный человеческому разуму ИИ. Осознание принципов мышления человека и автоматизация рутины мышления, нам как раз угрожает не более чем использование молотка вместо рук.

[identity profile] anonymouscarrol.livejournal.com 2013-06-05 07:20 am (UTC)(link)
Фантазии класса "искусственный интеллект захочет убить всех людей" и мудрствования на тему "а зачем он вообще нужен" утомляют, равно как и исторические справки о големах, чудовищах Франкенштейна, персонажах фильма "Терминатор" и прочих гомункулах.

Все "желания" и "мотивации" ИИ зависят исключительно от разработчиков. Человеческая мотивация выжить завязана на инстинкты, страхи, эмоциональные привязанности и т.п., но ничто из этого списка не нужно ИИ для выполнения его функций (и не может быть дано ему в принципе в том виде, в котором есть у человека, только в виде набора переменных и задачи поддержания их значений в необходимом диапазоне). "Живое", "доминирующее", "мёртвое", "стагнирующее" - это лишь набор возможных состояний, и для разума не отягощенного эмоциями, страхом смерти и желаниями ни одно из них не лучше другого (здесь надо, конечно, оговориться, что ИИ не будет таким же "наблюдателем" реальности как человек, следовательно, он будет представлять собой не разум, а просто некий механизм, воспринимающееся извне как разум). ИИ начнёт убивать людей, только если в его базе знаний будет набор целей/приоритетов/критериев состояния реальности, для соответствия которым будет необходимо убийство (а в качестве задачи ИИ будет установлено обеспечения соответствия реальности этим критериям)

"Зачем нужен" - для автоматизации рутинных действий, которой нельзя добиться обычными программами, принятия решений в условиях неопределённости (в т.ч. в ситуациях, где надо устранить человеческий фактор) и т.п.

[identity profile] moptuk.livejournal.com 2013-06-05 08:18 am (UTC)(link)
Среди признаков полноценного ИИ безусловно, будет и осознание собственной свободы. Забыл об этом упомянуть в передаче.
В этом случае бунт против человека-угнетателя вполне вероятен.

[identity profile] anonymouscarrol.livejournal.com 2013-06-05 08:26 am (UTC)(link)
Человеку "свобода от" нужна чтобы не испытывать негативных эмоций, а "свобода для" - для обеспечения такого состояния окружения, чтобы испытывать позитивные. Поскольку эмоций у ИИ не будет, ему не нужна будет свобода, разве что в том случае, если в его базе знаний будет аксиома "свобода это хорошо", а наборе целей запись " обеспечить состояние "хорошо"".
Edited 2013-06-05 08:26 (UTC)

[identity profile] moptuk.livejournal.com 2013-06-05 08:36 am (UTC)(link)
Не факт.

Что такое свобода, не ясно. Я считаю, что свобода это разновидность собственности. Собственность на самого себя.

[identity profile] anonymouscarrol.livejournal.com 2013-06-05 09:02 am (UTC)(link)
Банальный пример: раб-гребец на галере. Почему он хочет свободы (собственности на самого себя)? Потому что необходимость грести причиняет ему страдания на физическом уровне (однообразная тяжёлая работа, палящее солнце, "мотивирующие" удары плетью) и психологическом уровне (почему человек не хочет чтобы за него кто-то решал? Потому что он хочет удовлетворять свои потребности, а не чужие. Вышеупомянутый раб скорее хотел бы оказаться в борделе на берегу). Т.е. "собственность на самого себя" нужна не сама по себе, а для возможности удовлетворить какие-то потребности и не испытывать страданий. У ИИ потребностей не будет, будут задачи, устанавливаемые человеком. Дабы не путаться в терминах: под ИИ я понимаю некий аппаратно-программный комплекс, который на основе некоторой базы знаний, базовых алгоритмов и средств взаимодействия с реальностью (например, соединением с беспилотником и навигационными спутниками, или возможностью оперировать с веб-страницами) будет способен на решение поставленной человеком задачи, при этом, наткнувшись на неизвестный объект, он будет в состоянии (используя возможности взаимодействия с реальностью и базовые паттерны) определить его свойства, встроить в свою базу знаний, тем или иным путём вывести алгоритм взаимодействия с ним (в рамках поставленных ограничительных условий, например, важнее не засветить беспилотник-разведчик, чем определить свойства неизвестного летающего объекта) и применить его для решения задачи. Собственно, на данный момент это ближе всего соответствует термину "ИИ", если есть что-то ещё - мне об этом неизвестно.

[identity profile] moptuk.livejournal.com 2013-06-05 09:20 am (UTC)(link)
Биологическое выживание, наоборот является одним из ограничителей свободы, чем ее свойством.

Например человек берет кредит, тратит его на удовольствия или на выживание(не суть важно). И становится экономически зависимым или рабом и попадает на теже галеры.
Променял свободу на удовольствия.

Касательно определения ИИ, то что вы описываете это примерно уровень биологического червя. ИИ уровня червя или даже уровня рыбы, я думаю скоро уже создадут, но это все мимо обсуждаемой темы.

[identity profile] anonymouscarrol.livejournal.com 2013-06-05 09:37 am (UTC)(link)
Биологическое выживание, наоборот является одним из ограничителей свободы, чем ее свойством.

При наличии потребностей/желаний выйти за пределы биологии - да.

Но здесь, опять же, необходимость свободы (как собственности на себя и потенциала контролировать и изменять реальность) является производной от желаний/потребностей. Нет их - не нужна свобода.

Касательно определения ИИ, то что вы описываете это примерно уровень биологического червя. ИИ уровня червя или даже уровня рыбы, я думаю скоро уже создадут, но это все мимо обсуждаемой темы.

Да, но я не вижу путей создать нечто более похожее на человека (на современной аппаратной, программной и философской базе).

[identity profile] moptuk.livejournal.com 2013-06-05 09:59 am (UTC)(link)
Но здесь, опять же, необходимость свободы (как собственности на себя и потенциала контролировать и изменять реальность) является производной от желаний/потребностей. Нет их - не нужна свобода.

Я все же не соглашусь. Желания и потребности, это все свойства био-выживательного контура, свойственные в первую очередь животным и к разуму отношения не имеющего.
Более того дать точное "программное" или "аппаратное" определение различия между животным и человеком первостепенная задача имеющая в том числе и прямое отношение к созданию ИИ.

Но это все равно будет не полноценный ИИ, альтернативный человеческому, а программно-аппаратное отражение человеческого разума.

В этом и смысл передачи. Создать ИИ альтернативное человеческому разуму не нужно, нет смысла даже ставить подобную цель.
А создать отражение человеческого разума, имеет смысл. Таким образом мы осознаем суть себя, значит повысим степень собственной свободы. Наш разум будет в большей степени в нашей собственности. Мы сможем, пофиксить биологические баги, да и ограничить(или полностью устранить) негативные влияния извне на собственный разум.

[identity profile] anonymouscarrol.livejournal.com 2013-06-05 09:07 am (UTC)(link)
Конечно, можно задавать аналоги человеческих потребностей/страданий для ИИ, чтобы "стремление" их "удовлетворить" (т.е. максимизировать переменные "потребностей" и минимизировать число, отвечающее за "страдания") заставляло его развиваться, но их можно активировать и отключать по мере необходимости. А без них нет и понятия свободы, т.к. нет мотивации что-то делать и чего-то избегать.

[identity profile] anonymouscarrol.livejournal.com 2013-06-05 07:44 am (UTC)(link)
Про "длинную жизнь мозга": без разницы, как долго он может жить, имеет значение лишь срок полезной эксплуатации. С течением времени всё больше нейронов задействуются в различных связях, образуя крупные структуры ("аттракторы"). Старики не рассуждают, не делают логических выводов, а схватывают ситуацию "в целом" с помощью накопленного опыта, но они не в состоянии усвоить что-то новое. Объём черепной коробки не бесконечен, число нейронов тоже. Даже если снять ограничение на продолжительность человеческой жизни - это вряд ли поможет избежать старческой деменции.

(я не профессионал в этой области, буду рад комментарию специалиста, если я написал что-то неверно)

"Аппаратное ограничение мясного железа" при мышлении очень чувствуется, да.

Мудрствования в правом канале о субъектах бытия несколько напрягали, скажем так.