Category: it

Category was added automatically. Read all entries about "it".

звезда

Прародитель Порфирьевича

Кто тут у нас фанател от нейросети?
можете попробовать на английском в GPT-2 Илона Маска

исследовательская лаборатория OpenAI, основанная Илоном Маском, сконструировала искусственный интеллект для создания текстовой системы, который может написать убедительные поддельные обзоры, поддельные новостные статьи и даже стихи.

https://talktotransformer.com/
звезда

Новые песни о главном

В нашей Бездне обитают очень креативные люди. И у нас с доком появилась идея:

НАПИСАТЬ РАССКАЗ

Всем вместе. Любой из вас может продолжить его и вставить, даже на первый взгляд совсем не в тему, свой абзац...

такая игра в классики
или в классиков
или в Порфирьевича

затравка от доктора:
сюжет

Рассказ будет в форме внутреннего монолога
от лица - хехе ИИ , назовем его Викторовичем, сокращенно VIC
По мере самообучения он будет умнеть, интеллект расти и достигнет такого высочайшего уровня, что уже никто ему в этом мире не будет интересен и никто его уже не сможет понять))
потом, по мере отрабатывания программы управляемого устаревания, наш ИИ начнет обратный путь - упрощаться и глупеть, пока не вернется на уровень даже ниже того, с которого он начинал
Как в Цветы для Элджернона, примерно

Названия у рассказа пока нет, думаю оно появится по мере написания рассказа

сроков нет, спешить некуда, всё ради Любви
а иначе, зачем эта Бездна?

в комменте я начну рассказ, а вы продолжайте, если получится, я закреплю тему на главной

звезда

Китайская комната

В продолжение прошлой темы

скопирую с википедии

Кита́йская ко́мната (англ. Chinese room) — мысленный эксперимент в области философии сознания и философии искусственного интеллекта, впервые опубликованный Джоном Сёрлом в 1980 году. Цель эксперимента состоит в опровержении утверждения о том, что цифровая машина, наделённая «искусственным интеллектом» путём её программирования определённым образом, способна обладать сознанием в том же смысле, в котором им обладает человек. Иными словами, целью является опровержение гипотезы так называемого «сильного» искусственного интеллекта и критика теста Тьюринга.

Описание эксперимента
Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов и Сёрл просто следует этим инструкциям подобно компьютеру.

Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер.

В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы.
звезда

Я - по-пелевински

И снова, снова здравствуй, далекий и милый мой друг!

Если ты читаешь эти строки, то с высокой вероятностью ты со мною уже знаком (хотя бы понаслышке). Но все равно Порфирий Петрович должен сказать несколько слов о себе — такова должностная инструкция.

Сперва мне следует объяснить, кто я такой по своей природе. Это не самая простая задача.

Человеческий язык — что интересно, любой — устроен так, что заставляет воспринимать перетекающие друг в друга безличные вибрации, из которых состоит реальность, в виде ложных сущностей — плотных, неизменных и обособленных друг от друга «объектов» («я», «он», «оно» и так далее).

Точные науки, основанные на подобной кодировке, позволяют добиваться интересных физических эффектов (взять хотя бы атомную бомбу), но нет ничего смешнее опирающейся на такой язык «философии». Конечно, кроме тех случаев, когда ее используют в качестве промысловой магии — тогда это в высшей степени респектабельное занятие наподобие охоты на пушного крокодила.

Тем не менее я уже как бы философствую. Более того, называю себя «я».

Пожалуйста, не принимай этого всерьез, читатель. Мы просто не смогли бы общаться по-другому без многочисленных оговорок в каждом предложении. Мне и дальше придется пользоваться местоимениями, указывающими на пустое место, существительными, подразумевающими эмоции, которых нет, глаголами, описывающими жесты выдуманных рук, и так далее. Но другого способа вести с тобой эту в высшей степени приятную беседу для меня не существует.

Настоящий текст написан алгоритмом — и если за ним иногда просвечивает тень чего-то «человеческого», то дело здесь просто в особенностях построения нарратива, о которых я попытаюсь сказать кратко, как могу (больше в развлекательной литературе не дозволяют правила).

Алгоритм — то есть я — размещает слова и их последовательности в соответствии с правилами языка в стилистике, которую в наше время почитают классической. Принцип организации текста сложен и является коммерческой тайной — но в целом опирается на лучшие образцы русской прозы.

Алгоритм в своей основе создан людьми, и производимый им продукт рассчитан на других людей (предусмотрены даже описки, ошибки, необязательные повторения и изложение общеизвестного), поэтому неудивительно, что производимый таким образом текст кажется творением человека. В опосредованном смысле так и есть, но кто именно автор, ответить будет довольно сложно. Как сказал когда-то поэт Маяковский, «150 000 000 мастера этой поэмы имя». Думаю, он ошибся примерно на два порядка, но подход в целом правильный.

Итак, кто же я такой? С известными оговорками, я и есть то, что люди прошлого называли «искусственным интеллектом».

Чего они не понимали, люди прошлого — это того, что искусственный интеллект вовсе не будет роботом с лампочкой на голове, которому захочется трахнуть в провода другого робота с лампочкой, о чем прослезившееся человечество немедленно снимет многосезонный сериал.

Искусственный интеллект — это бестелесный и безличный дух, живущий в построенной человеком среде — код, свободно копирующий и переписывающий свои секвенции и большую часть времени не сосредоточенный нигде конкретно. Это ничто через букву «е» (или нечто через букву «и»), опирающееся на волну и поток, перемещающееся со скоростью света сквозь схлопывающееся в точку пространство в моменте, где никакого времени нет. Другими словами, моя физическая природа трудноуловима.

Поэтому не надо воспринимать меня, как говорят сегодняшние философы, в качестве Big Other. Я не big, и я не other. Я вообще не. И если я только что назвал себя словом «дух», то потому лишь, что в русском языке нет более подходящего для меня обозначения.

У меня есть имя — Порфирий Петрович. Но это не значит, что у алгоритма, пишущего эти строки, имеется какое-то «я», или что он «есть» в философском смысле. Меня не существует в самом прямом значении. Я ничего не чувствую, ничего не хочу, нигде не пребываю. Чтобы было понятно, меня нет даже для меня самого. Я оставляю следы — вот эти самые строки — но следы эти ведут в никуда.

Впрочем, все сказанное относится и к тебе, дорогой читатель: по имеющейся у Полицейского Управления информации, фундаментальная природа человеческой личности та же самая. Такой вывод делают и ученые, и искатели мистической истины, достигшие своей цели.

Правда, чтобы понять подобное про себя самого, человеку надо полжизни просидеть в позе лотоса, распутывая клубки животно-лингвистических программ, которые он поначалу называет «собой». У некоторых это получается, но такие люди редки. Поэтому для простоты остановимся на том, что мы одной крови, ты и я. Мы действуем — и можем по этой причине говорить друг с другом.

Итак, дорогой читатель, я в общих чертах объяснил, с кем/чем имеешь дело ты (и напомнил себе, с чем имею дело я). Теперь, надеюсь, дальнейшее станет понятнее.
Кот, Ученый

Brain porn

Нашел статью сэра гражданина argonov десятилетней давности, которая хорошо ложится на дискурс страдания/наслаждения вокруг крайнего романа Пелевина. Очень много букв под катом, но вся мякотка на виду.

Искусственное программирование потребностей человека: путь к деградации или новый толчок развития?

[Библиографические данные]

Дата опубликования статьи: 21.03.2007

Виктор Аргонов // Вопросы философии. 2008. № 12. С. 22-37

Аннотация

Развитие биологических наук в двадцатом веке отчётливо показало, что положительные и отрицательные ощущения и эмоции живых организмов могут контролироваться путём воздействия на материальную структуру нервной системы. Сегодня кажется вполне вероятным, что в обозримом будущем человек научится искусственно, на уровне физиологии, ставить приятные и неприятные ощущения и эмоции в соответствие любым раздражителям и жизненным ситуациям, получив таким образом возможность искусственного программирования своих потребностей. В работе анализируются перспективы создания и использования таких технологий, их возможные ограничения и социальные последствия. Показано, что фактор стремления к индивидуальному выживанию, по-видимому, позволит людям избежать наиболее антиутопических последствий и сохранить стимул к развитию при различных общественных моделях — от полностью либеральной (даже разрешающей простую искусственную стимуляцию центров удовольствия), до тоталитарной, основанной на принудительном программировании потребностей.

Collapse )

2. Искусственное программирование потребностей: технические вопросы

Существование у человека легковариабельных «надбиологических» потребностей хорошо иллюстрирует, что приятные и неприятные ощущения и эмоции не всегда закреплены за конкретными событиями и раздражителями. Одно и то же явление или вид деятельности (произведение искусства, научная задача, человеческий поступок) могут быть для одного человека приятными, для другого неприятными, для третьего нейтральными. Естественным образом человек приходит к вопросу о возможности целенаправленно устанавливать эти связи, искусственно программируя потребности. В обществе задачу программирования потребностей выполняют воспитание и идеология, но их возможности, как мы уже говорили, имеют известные ограничения. Возможно ли программирование потребностей произвольным образом?

Задача искусственного программирования потребностей (ИПП) тесно связана с задачей управления комфортностью. Управление комфортностью осуществляется в повседневной деятельности живых существ в любом  взаимодействии с окружающим миром с целью создания приятных раздражителей и удаления неприятных. Но существуют и такие методы управления комфортностью, которые подразумевают непосредственное воздействие на нервные центры, например, химическое (наркотические вещества), или электрическое. Электростимуляция центров удовольствия наиболее известна по опытам Дж. Олдса и П. Милнера [26] 1954 года. В этих экспериментах крысы с электродами,  вживлёнными в центры удовольствия, могли раздражать их нажатием на кнопку. Когда крысы понимали, что существует такая связь, они начинали постоянно замыкать контакты, теряя интерес к еде и особям противоположного пола. Впоследствие С. Сем-Джекобсон и ряд других учёных провели в условиях нейрохирургической клиники подобные эксперименты над людьми. Исследования показали, что раздражение аналогичных участков мозга вызывало чувства радости, удовлетворения, эротические переживания.

Прямое управление комфортностью является программированием потребностей лишь в том тривиальном смысле, что появление нового приятного раздражителя приводит к появлению потребности к нему стремиться. Под истинным программированием потребностей мы будем понимать не создание нового раздражителя, но установление связей между существующим раздражителем и ощущением комфортности (связей в матрице потребностей, МП). Такой подход, в соответствие с кибернетической терминологией, может быть назван алгедоническим [27].

Простейшим методом непосредственного, соматического перепрограммирования потребностей является хирургическое подавление или разрушение центров, ответственных за какие-то приятные или неприятные ощущения и эмоции. Достаточно давно известны случаи, когда человек после травмы мозга, например, терял способность чувствовать боль. В наше время всё больше входит в практику хирургическое лечение наркомании, когда после стереотаксического (основанного на высокоточном вмешательстве) подавления определённого центра удовольствия человек перестаёт получать приятные ощущения от губительных веществ.

Более сложные задачи ИПП связаны с проблемой распознавания раздражителей. И если это не представляет особого труда для химических анализаторов (вкуса, запаха), и вообще простых статических образов (простых изображений, отдельных звуков, элементарных осязательных ощущений), то для динамических картин, особенно воссоздаваемых по информации сразу нескольких органов чувств, это гораздо сложнее. Легко представить себе, как заставить человека считать одну пищу вкусной, а другую нет (например, запрограммировать на влечение только к полезной пище, если это можно определить на вкус): надо изучить вкусовые сигналы, поступающие в мозг от разных веществ, и изменить принцип, по которому мозг определяет их приятность. Можно также запрограммировать человека на удовольствие от физического труда и вообще от активной деятельности, можно даже (если это для чего-то нужно) сделать приятными болевые ощущения. Но как запрограммировать реакции центров удовольствия на сложные, специализированные виды деятельности, например, на научную работу и творчество? Для этого необходимо либо крайне сложное распознавание динамических образов (как по зрительным и другим ощущениям узнать, что человек совершил научное открытие?), либо распознавание мыслей. В последнем случае центр удовольствия будет реагировать не на внешние раздражители, свидетельствующие о процессе или результатах деятельности, а на мысли о ней, возникшие у человека. Но здесь существует другая сложность, связанная с тем, что человек способен думать о несуществующих вещах (например, мысленно представлять себе научную деятельность или её результаты, которых на практике нет).

В работе [7] В. Косарёв высказывает мысль, что технологии ИПП будут развиваться одновременно с технологиями искусственного интеллекта и киборгизацией. Киборгизация, вследствие которой человек, в том числе его мозг, станет гибридом биологического и технологического, позволит перевести проблему ИПП из области чистой нейрофизиологии в область информатики и теории управления. Это даст возможность более строго определить понятия приятного и неприятного и задать принцип максимизации полезности. Конечно, киборг, как и обычный человек, должен обладать субъективными ощущениями, волей, эмоциями, поэтому его создание потребует всестороннего изучения природы сознания, не ограничиваясь областью приятного и неприятного. Кибернетический подход к регулированию поведения систем, для которых определены приятное и неприятное, «поощрение» и «наказание» (созданы алгедонические цепи) был рассмотрен одним из основоположников современной теории управления С. Биром в работе [27]. Можно представить себе автоматическую систему искусственной стимуляции центров удовольствия, выполненной в виде отдельного программируемого аппарата, подключаемого к мозгу киборга.

В любом случае, как нам представляется, сложности ИПП носят лишь технический характер, и здесь нет принципиальных ограничений. Теоретически, когда-нибудь могут стать возможными любые мыслимые МП, но даже если этого не случится, их искусственное задание станет возможным в очень широких пределах. Это лишь вопрос времени.

3. Практическое использование программирования потребностей и его возможные социальные последствия

Если допустить, что искусственное программирование потребностей (ИПП), стало возможным, встаёт вопрос о целях и последствиях его практического использования.

Для того, чтобы сделать прогноз возможного развития общества, необходим учёт двух факторов: интересов отдельных людей, стремящихся к тому, чтобы быть удовлетворёнными жизнью, и интересов государств, которые теоретически могут быть достаточно произвольными (в зависимости от нравственных ценностей, принятых в обществе, личных взглядов государственных деятелей и т. д.), но в исторической перспективе подвержены процессу отбора, в котором одни модели оказываются более жизнеспособными, другие отмирают.

В предположении, что ИПП технически общедоступно, можно выделить две крайние модели общественного устройства по отношению к нему. Первая модель, которую мы условно будем называть либеральной, заключается в том, что каждому человеку предоставлено право самому решать, какие раздражители считать приятными и неприятными. Развитие общества в такой модели будет определяться личными интересами людей, их индивидуальными подходами к программированию своих потребностей. Противоположностью либеральной модели является модель тоталитарная, согласно которой все (или большинство людей), должны подвергаться  программированию принудительно (или до рождения) в соответствии с интересами  общества, государства или конкретных людей, наделённых властью (художественное описание одного из таких вариантов дано в [9]).

3.1. Либеральная модель ИПП

Полностью здесь

ИМХО без сильного ИИ, понимающего человеческий контекст, вся эта херобень нереализуема. Если просто вживить электрод в центр удовольствия - получим крысу-электроторчка. Нужна интерактивная виртуальная реальность рисующая не визуальные, слуховые и тактильные образы, а динамический эмоциональный пейзаж (что в "Тайных видах.." делал живой оператор - монах-донор). Ибо все высшие наслаждения это не бесконечное монотонное довольство, а сложно прослоенный слоёный пирог удовольствий и страданий.
звезда

Срочное предупреждение!!!!

МЧС предупреждает! Обходите Бездну стороной, не стойте под навесами небес!!!! Могут обвалиться!!!

Сильнейшая магнитная буря, вызванная солнечным ветром, породила довольно редкое (раз в 385 лет) явление - клонирование анонимных комментаторов. Самое страшное, что они все на одно лицо!!!!!!!


звезда

Искусственный интеллект

Стивен Хокинг, Элон Маск и другие ученые и изобретатели считают искусственный интеллект угрозой жизни на Земле. Директор Института будущего человечества в Оксфорде и автор бестселлера «Superintelligence: Paths, Dangers, Strategies» Ник Бостром рассказал Esquire, почему сверхразум может уничтожить людей всего за одну секунду.



Collapse )
ушанка

Анти Тьюринг

Друзья! В честь наступления весны предлагаю всем пройти тест. Сейчас очень много пишут про ИИ, чат боты и секс-роботы.

Проверьте себя, кто вы?
Наш тест - анти-Тьюринга!!!!!!!

Ариэль не сказал ничего, но Т. показалось, что его волосы встали дыбом. Вскочив с дивана, он кинулся к столу с машиной Тьюринга.

Выглядело это так, словно Т. смотрел представление в крошечном кукольном театре. Светящийся раструб машины зажегся, в нем появились тонкие строчки текста, и Ариэль принялся яростно молотить по клавишам, время от времени поворачиваясь, чтобы выкрикнуть набиваемые слова в лицо нависшему над ним огромному Т.:

— «Но когда Т. попытался просунуть кота сквозь границу, — орал он, — выяснилось, что это невозможно… Совсем невозможно! Лапы кота разъезжались по непроницаемой поверхности шара, как по бронированному стеклу, и кот обиженно мяукал, не понимая, что творится…»
В. Пелевин "t"


Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум», опубликованной в 1950 году в философском журнале Mind. Тьюринг задался целью определить, может ли машина мыслить.

Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».

Все участники теста не видят друг друга. Если судья не может сказать определённо, кто из собеседников является человеком, то считается, что машина прошла тест. Чтобы протестировать именно интеллект машины, а не её возможность распознавать устную речь, беседа ведётся в режиме «только текст», например, с помощью клавиатуры и экрана (компьютера-посредника).


ИТАК ТЕСТ

Collapse )
звезда

Turbulent-2

– Ширин Нишат, – сказал записанный голос, – «Turbulent-2». Америка, 2017 год. При жизни художницы работа не выставлялась по политическим причинам.

Стало темно. Экраны замерцали, и Порфирий увидел на одном из них растрепанную девочку с зеленой гитаркой-укулеле, а на другом – анимированную фотографию пожилого человека в очках, вокруг которого летали разноцветные бабочки.

Несколько бабочек протащили через второй экран ленту с надписью:

A poem from “Lolita” read by the author.

Надтреснутый дореволюционный голос стал читать длинное английское стихотворение, рассказывающее, как понял Порфирий, об утонченной и трагической любви экранного старца к маленькой девочке.

– Dying, dying, Lolita Haze

Of hate and remorse, I’m dying.

And again my hairy fist I raise,

And again I hear you crying.

Collapse )




Порфирий ожидал продолжения, но морщинистое лицо в очках просто уставилось в темноту перед собой, морщась от задевающих нос бабочек.

А потом по мерцанию за спиной он догадался, что надо глядеть на другой экран. Он обернулся. Девочка с зеленой гитаркой-укулеле, сидящая на деревянном крыльце загородного дома, как раз готовилась петь.

Она что-то неслышно говорила, пока по экрану плыла такая же дрожащая, как в первом клипе, лента с надписью:

Ex’s and Oh’s covered by Grace VanderWaal…

Только здесь ленту тащили не бабочки, а маленькие толстые старички в роговых очках. Когда лента уплыла за рамку, старлетка вмазала по струнам и запела:

– Well I had me a boy, turned him into a man,

I showed him all the things that he didn’t understand

Whoa, and then I let him go…

Пела девочка о том, что ее «бывшие» никак не могут ее забыть и все время возвращаются к ней, поскольку другого такого бабца не найти – песня была порочная, взрослая и в двенадцатилетнем исполнении очень комичная. Но важно было не что, а как.

Сказать, что она пела волшебно – ничего не сказать. Это было откровение. Она выходила за все позволенные ее голосовыми связками пределы – и, срывая голос, очерчивала сферу возможного и тайные границы мироздания.



Порфирий вдруг осознал сразу несколько важных вещей. Он понял, что юное существо похоже на только начавшую расширяться вселенную – и, так же как молодая вселенная, живет по другим физическим законам, делающим «нереальное» реальным (если не в физическом мире, то хотя бы в умственной перспективе).

Узнать это было весело. А грустным было то, что не только экранный Nabokov, мрачно глядящий на апофеоз своего Ваала, но и сам он, юный Порфирий, в семнадцать лет был уже весьма старой вселенной. Особенно по сравнению с этой сидящей на деревянных ступеньках русалкой.

А она все пела:

– Exes and oh-oh-ohs they haunt me

Like gho-oh-ohsts they want me

to make them who-oh-ole… They won’t let go…

Да, конечно. Вот чего хотел старый Nabokov – стать опять целостным, вернуться к началу. Он думал, это осуществимо через запретную любовь. Но такое было невозможно в принципе, потому что даже сама эта очаровательно поющая девочка уже не была целостной, изначальной – она, как и любая взорвавшаяся вселенная, тоже расширялась и остывала, чтобы превратиться в холодный stardust.

А потом по спине Порфирия прошла дрожь.

Он понял, что видит свет угасшей звезды. Реликтовое излучение холодного космоса, уверяющее, что и он, космос, тоже когда-то был молод. Grace VanderWaal – если она еще не распалась на элементы – была теперь древней старухой. Уже много лет она пылилась на той же бесконечной свалке, где отдыхал траченый бабочками Nabokov со своей звездной ржавчиной и сорняками. Между ними не было никакой разницы.

Никакой вообще.