Category: it

Category was added automatically. Read all entries about "it".

звезда

Парадоксы сознания

Статья с хабра.

Попытки воспроизвести одушевленность приборным путем порождает интересный парадокс, дающий новый взгляд на жизнь и смерть. Отличающийся от привычных нам представлений. Все может быть намного интереснее. Давайте рассмотрим основные логические тезисы. Для начала разложим распространенное в настоящее время понятие о сознании на составные части — условие (мозг), содержание (личность), и функционал (восприятие). Возможно, направления трансгуманизма и технологического бессмертия ошибаются.

Тезис первый. Мозг

Collapse )
звезда

Прародитель Порфирьевича

Кто тут у нас фанател от нейросети?
можете попробовать на английском в GPT-2 Илона Маска

исследовательская лаборатория OpenAI, основанная Илоном Маском, сконструировала искусственный интеллект для создания текстовой системы, который может написать убедительные поддельные обзоры, поддельные новостные статьи и даже стихи.

https://talktotransformer.com/
звезда

Новые песни о главном

В нашей Бездне обитают очень креативные люди. И у нас с доком появилась идея:

НАПИСАТЬ РАССКАЗ

Всем вместе. Любой из вас может продолжить его и вставить, даже на первый взгляд совсем не в тему, свой абзац...

такая игра в классики
или в классиков
или в Порфирьевича

затравка от доктора:
сюжет

Рассказ будет в форме внутреннего монолога
от лица - хехе ИИ , назовем его Викторовичем, сокращенно VIC
По мере самообучения он будет умнеть, интеллект расти и достигнет такого высочайшего уровня, что уже никто ему в этом мире не будет интересен и никто его уже не сможет понять))
потом, по мере отрабатывания программы управляемого устаревания, наш ИИ начнет обратный путь - упрощаться и глупеть, пока не вернется на уровень даже ниже того, с которого он начинал
Как в Цветы для Элджернона, примерно

Названия у рассказа пока нет, думаю оно появится по мере написания рассказа

сроков нет, спешить некуда, всё ради Любви
а иначе, зачем эта Бездна?

в комменте я начну рассказ, а вы продолжайте, если получится, я закреплю тему на главной

звезда

Китайская комната

В продолжение прошлой темы

скопирую с википедии

Кита́йская ко́мната (англ. Chinese room) — мысленный эксперимент в области философии сознания и философии искусственного интеллекта, впервые опубликованный Джоном Сёрлом в 1980 году. Цель эксперимента состоит в опровержении утверждения о том, что цифровая машина, наделённая «искусственным интеллектом» путём её программирования определённым образом, способна обладать сознанием в том же смысле, в котором им обладает человек. Иными словами, целью является опровержение гипотезы так называемого «сильного» искусственного интеллекта и критика теста Тьюринга.

Описание эксперимента
Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов и Сёрл просто следует этим инструкциям подобно компьютеру.

Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер.

В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы.
Кот, Ученый

Brain porn

Нашел статью сэра гражданина argonov десятилетней давности, которая хорошо ложится на дискурс страдания/наслаждения вокруг крайнего романа Пелевина. Очень много букв под катом, но вся мякотка на виду.

Искусственное программирование потребностей человека: путь к деградации или новый толчок развития?

[Библиографические данные]

Дата опубликования статьи: 21.03.2007

Виктор Аргонов // Вопросы философии. 2008. № 12. С. 22-37

Аннотация

Развитие биологических наук в двадцатом веке отчётливо показало, что положительные и отрицательные ощущения и эмоции живых организмов могут контролироваться путём воздействия на материальную структуру нервной системы. Сегодня кажется вполне вероятным, что в обозримом будущем человек научится искусственно, на уровне физиологии, ставить приятные и неприятные ощущения и эмоции в соответствие любым раздражителям и жизненным ситуациям, получив таким образом возможность искусственного программирования своих потребностей. В работе анализируются перспективы создания и использования таких технологий, их возможные ограничения и социальные последствия. Показано, что фактор стремления к индивидуальному выживанию, по-видимому, позволит людям избежать наиболее антиутопических последствий и сохранить стимул к развитию при различных общественных моделях — от полностью либеральной (даже разрешающей простую искусственную стимуляцию центров удовольствия), до тоталитарной, основанной на принудительном программировании потребностей.

Collapse )

2. Искусственное программирование потребностей: технические вопросы

Существование у человека легковариабельных «надбиологических» потребностей хорошо иллюстрирует, что приятные и неприятные ощущения и эмоции не всегда закреплены за конкретными событиями и раздражителями. Одно и то же явление или вид деятельности (произведение искусства, научная задача, человеческий поступок) могут быть для одного человека приятными, для другого неприятными, для третьего нейтральными. Естественным образом человек приходит к вопросу о возможности целенаправленно устанавливать эти связи, искусственно программируя потребности. В обществе задачу программирования потребностей выполняют воспитание и идеология, но их возможности, как мы уже говорили, имеют известные ограничения. Возможно ли программирование потребностей произвольным образом?

Задача искусственного программирования потребностей (ИПП) тесно связана с задачей управления комфортностью. Управление комфортностью осуществляется в повседневной деятельности живых существ в любом  взаимодействии с окружающим миром с целью создания приятных раздражителей и удаления неприятных. Но существуют и такие методы управления комфортностью, которые подразумевают непосредственное воздействие на нервные центры, например, химическое (наркотические вещества), или электрическое. Электростимуляция центров удовольствия наиболее известна по опытам Дж. Олдса и П. Милнера [26] 1954 года. В этих экспериментах крысы с электродами,  вживлёнными в центры удовольствия, могли раздражать их нажатием на кнопку. Когда крысы понимали, что существует такая связь, они начинали постоянно замыкать контакты, теряя интерес к еде и особям противоположного пола. Впоследствие С. Сем-Джекобсон и ряд других учёных провели в условиях нейрохирургической клиники подобные эксперименты над людьми. Исследования показали, что раздражение аналогичных участков мозга вызывало чувства радости, удовлетворения, эротические переживания.

Прямое управление комфортностью является программированием потребностей лишь в том тривиальном смысле, что появление нового приятного раздражителя приводит к появлению потребности к нему стремиться. Под истинным программированием потребностей мы будем понимать не создание нового раздражителя, но установление связей между существующим раздражителем и ощущением комфортности (связей в матрице потребностей, МП). Такой подход, в соответствие с кибернетической терминологией, может быть назван алгедоническим [27].

Простейшим методом непосредственного, соматического перепрограммирования потребностей является хирургическое подавление или разрушение центров, ответственных за какие-то приятные или неприятные ощущения и эмоции. Достаточно давно известны случаи, когда человек после травмы мозга, например, терял способность чувствовать боль. В наше время всё больше входит в практику хирургическое лечение наркомании, когда после стереотаксического (основанного на высокоточном вмешательстве) подавления определённого центра удовольствия человек перестаёт получать приятные ощущения от губительных веществ.

Более сложные задачи ИПП связаны с проблемой распознавания раздражителей. И если это не представляет особого труда для химических анализаторов (вкуса, запаха), и вообще простых статических образов (простых изображений, отдельных звуков, элементарных осязательных ощущений), то для динамических картин, особенно воссоздаваемых по информации сразу нескольких органов чувств, это гораздо сложнее. Легко представить себе, как заставить человека считать одну пищу вкусной, а другую нет (например, запрограммировать на влечение только к полезной пище, если это можно определить на вкус): надо изучить вкусовые сигналы, поступающие в мозг от разных веществ, и изменить принцип, по которому мозг определяет их приятность. Можно также запрограммировать человека на удовольствие от физического труда и вообще от активной деятельности, можно даже (если это для чего-то нужно) сделать приятными болевые ощущения. Но как запрограммировать реакции центров удовольствия на сложные, специализированные виды деятельности, например, на научную работу и творчество? Для этого необходимо либо крайне сложное распознавание динамических образов (как по зрительным и другим ощущениям узнать, что человек совершил научное открытие?), либо распознавание мыслей. В последнем случае центр удовольствия будет реагировать не на внешние раздражители, свидетельствующие о процессе или результатах деятельности, а на мысли о ней, возникшие у человека. Но здесь существует другая сложность, связанная с тем, что человек способен думать о несуществующих вещах (например, мысленно представлять себе научную деятельность или её результаты, которых на практике нет).

В работе [7] В. Косарёв высказывает мысль, что технологии ИПП будут развиваться одновременно с технологиями искусственного интеллекта и киборгизацией. Киборгизация, вследствие которой человек, в том числе его мозг, станет гибридом биологического и технологического, позволит перевести проблему ИПП из области чистой нейрофизиологии в область информатики и теории управления. Это даст возможность более строго определить понятия приятного и неприятного и задать принцип максимизации полезности. Конечно, киборг, как и обычный человек, должен обладать субъективными ощущениями, волей, эмоциями, поэтому его создание потребует всестороннего изучения природы сознания, не ограничиваясь областью приятного и неприятного. Кибернетический подход к регулированию поведения систем, для которых определены приятное и неприятное, «поощрение» и «наказание» (созданы алгедонические цепи) был рассмотрен одним из основоположников современной теории управления С. Биром в работе [27]. Можно представить себе автоматическую систему искусственной стимуляции центров удовольствия, выполненной в виде отдельного программируемого аппарата, подключаемого к мозгу киборга.

В любом случае, как нам представляется, сложности ИПП носят лишь технический характер, и здесь нет принципиальных ограничений. Теоретически, когда-нибудь могут стать возможными любые мыслимые МП, но даже если этого не случится, их искусственное задание станет возможным в очень широких пределах. Это лишь вопрос времени.

3. Практическое использование программирования потребностей и его возможные социальные последствия

Если допустить, что искусственное программирование потребностей (ИПП), стало возможным, встаёт вопрос о целях и последствиях его практического использования.

Для того, чтобы сделать прогноз возможного развития общества, необходим учёт двух факторов: интересов отдельных людей, стремящихся к тому, чтобы быть удовлетворёнными жизнью, и интересов государств, которые теоретически могут быть достаточно произвольными (в зависимости от нравственных ценностей, принятых в обществе, личных взглядов государственных деятелей и т. д.), но в исторической перспективе подвержены процессу отбора, в котором одни модели оказываются более жизнеспособными, другие отмирают.

В предположении, что ИПП технически общедоступно, можно выделить две крайние модели общественного устройства по отношению к нему. Первая модель, которую мы условно будем называть либеральной, заключается в том, что каждому человеку предоставлено право самому решать, какие раздражители считать приятными и неприятными. Развитие общества в такой модели будет определяться личными интересами людей, их индивидуальными подходами к программированию своих потребностей. Противоположностью либеральной модели является модель тоталитарная, согласно которой все (или большинство людей), должны подвергаться  программированию принудительно (или до рождения) в соответствии с интересами  общества, государства или конкретных людей, наделённых властью (художественное описание одного из таких вариантов дано в [9]).

3.1. Либеральная модель ИПП

Полностью здесь

ИМХО без сильного ИИ, понимающего человеческий контекст, вся эта херобень нереализуема. Если просто вживить электрод в центр удовольствия - получим крысу-электроторчка. Нужна интерактивная виртуальная реальность рисующая не визуальные, слуховые и тактильные образы, а динамический эмоциональный пейзаж (что в "Тайных видах.." делал живой оператор - монах-донор). Ибо все высшие наслаждения это не бесконечное монотонное довольство, а сложно прослоенный слоёный пирог удовольствий и страданий.
звезда

Срочное предупреждение!!!!

МЧС предупреждает! Обходите Бездну стороной, не стойте под навесами небес!!!! Могут обвалиться!!!

Сильнейшая магнитная буря, вызванная солнечным ветром, породила довольно редкое (раз в 385 лет) явление - клонирование анонимных комментаторов. Самое страшное, что они все на одно лицо!!!!!!!


звезда

Искусственный интеллект

Стивен Хокинг, Элон Маск и другие ученые и изобретатели считают искусственный интеллект угрозой жизни на Земле. Директор Института будущего человечества в Оксфорде и автор бестселлера «Superintelligence: Paths, Dangers, Strategies» Ник Бостром рассказал Esquire, почему сверхразум может уничтожить людей всего за одну секунду.



Collapse )