Category: технологии

Category was added automatically. Read all entries about "технологии".

Нейросети, ИИ

Писатель Владимир Торин обсуждает вместе с экспертами, сможет ли искусственный разум уничтожить человечество.

Мы сегодня будем говорить про нейросети. Буквально на днях было предложено нейросети GPT-3 написать колонку о себе в газету The Guardian. И что написала эта нейросеть? Заголовок был такой - «Люди, не волнуйтесь, мы вас не убьем». Когда машина говорит: «Люди, не волнуйтесь, мы вас не убьем», - почему-то начинаешь волноваться.

Итак, нейросети. У нас в гостях Игорь Никитин, генеральный директор «Корпорации роботов», и Сергей Худиев, православный публицист.

Слушайте, нейросеть пишет сама сочинение по очень простому алгоритму, и первое, к чему она приходит, к тому, что мы вообще-то могли бы убить людей, но, люди, не волнуйтесь, мы вас убивать не будем. Насколько это все похоже на какие-то фантастические расклады, какое-то страшное будущее, или не страшное будущее, или вообще не на будущее, как вы считаете, Игорь?

И. Никитин:

- Все зависит от программистов, которые готовили эту нейросеть и учили ее. Поэтому всё в наших руках. Если мы действительно ее научим убивать человечество, такой она и будет, если не будем этому учить, то не будет. Она же не сама придумала и написала: «Не волнуйтесь, мы вас убивать не будем».

В. Торин:

Collapse )
ушанка
  • daosden

TikTok

Нет сомнений, что провести вечер, залипая в тиктоке, — не французскую философию почитать...

Модерация TikTok-роликов осуществляется в два этапа: сначала видео проверяют нейросети — системы распознают определенные алгоритмы или поведенческие сигналы для идентификации потенциально вредоносного контента, затем — живые люди (в каждой стране это делает своя команда). После чего видео пропускают (или нет) в ленту рекомендации или удаляют за нарушение правил сообщества. Дополнительный способ модерации контента основан на жалобах, которые модераторы получают от пользователей приложения, — если их много, то ролик удаляют. Помимо общих для всех соцсетей моментов вроде запрета на разжигание ненависти, пропаганду терроризма и травлю, в TikTok очень жестко модерируется все, что касается секса. Начиная с того, что слишком откровенные видео, обнаженные тела и имитации совокуплений не пройдут модерацию, заканчивая тем, что в роликах нельзя ни говорить, ни писать само слово «секс».

Официально в TikTok под запретом кровь, изображения сигарет и алкоголя, сцены секса и насилия — в общем-то чего-то такого и ожидаешь от модераторов приложения, где очень большая часть аудитории — дети.

Идею «умной ленты» Чжан Имин реализовал еще в Toutiao — он всегда считал, что люди сами не понимают, какой контент они хотят видеть в своих лентах, и облегчить им жизнь должен искусственный интеллект. При этом, в отличие от конкурентов, его ИИ должен предлагать людям посты по их интересам, а не просто все самое популярное.

В странах, где уровень доверия к власти не очень высокий, молодежь стремительно политизируется, и тиктоку уже давно пророчат звание потенциально главной площадки для политического и социального высказывания нового поколения. Тут выступают квир-активисты, феминистки, экоактивисты и просто оппозиционно настроенные молодые люди.



А вы залипаете в TikTok ?

https://esquire.ru/articles/207043-enciklopediya-tiktok-chto-nuzhno-znat-o-prilozhenii-zahvativshem-mir/?fbclid=IwAR03r-CgUcIBNt1Poh86ajHSWKOhnaL8Xz

звезда

Парадоксы сознания

Статья с хабра.

Попытки воспроизвести одушевленность приборным путем порождает интересный парадокс, дающий новый взгляд на жизнь и смерть. Отличающийся от привычных нам представлений. Все может быть намного интереснее. Давайте рассмотрим основные логические тезисы. Для начала разложим распространенное в настоящее время понятие о сознании на составные части — условие (мозг), содержание (личность), и функционал (восприятие). Возможно, направления трансгуманизма и технологического бессмертия ошибаются.

Тезис первый. Мозг

Collapse )
звезда

Прародитель Порфирьевича

Кто тут у нас фанател от нейросети?
можете попробовать на английском в GPT-2 Илона Маска

исследовательская лаборатория OpenAI, основанная Илоном Маском, сконструировала искусственный интеллект для создания текстовой системы, который может написать убедительные поддельные обзоры, поддельные новостные статьи и даже стихи.

https://talktotransformer.com/
звезда

Новые песни о главном

В нашей Бездне обитают очень креативные люди. И у нас с доком появилась идея:

НАПИСАТЬ РАССКАЗ

Всем вместе. Любой из вас может продолжить его и вставить, даже на первый взгляд совсем не в тему, свой абзац...

такая игра в классики
или в классиков
или в Порфирьевича

затравка от доктора:
сюжет

Рассказ будет в форме внутреннего монолога
от лица - хехе ИИ , назовем его Викторовичем, сокращенно VIC
По мере самообучения он будет умнеть, интеллект расти и достигнет такого высочайшего уровня, что уже никто ему в этом мире не будет интересен и никто его уже не сможет понять))
потом, по мере отрабатывания программы управляемого устаревания, наш ИИ начнет обратный путь - упрощаться и глупеть, пока не вернется на уровень даже ниже того, с которого он начинал
Как в Цветы для Элджернона, примерно

Названия у рассказа пока нет, думаю оно появится по мере написания рассказа

сроков нет, спешить некуда, всё ради Любви
а иначе, зачем эта Бездна?

в комменте я начну рассказ, а вы продолжайте, если получится, я закреплю тему на главной

звезда

ЧП в Бездне!!! Факни свое Я!!!

Нейросеть "Порфирьевич" заглот***ила участника соо "Директ - машину" в свое бездонное чрево.
Машина поглотила машину. Остальные пока выжили. Опасносте!!!! Всеобщая тревога!!!!

Все по роману Пелевина Ай фак 10!!!!
Злобная нейросеть - имя которой на самом деле - МАРА - пытается утилизовать то, что директ думал о себе - его ложное Я - сначала на микросхемы, а потом на дырки и электроны!!!


звезда

Китайская комната

В продолжение прошлой темы

скопирую с википедии

Кита́йская ко́мната (англ. Chinese room) — мысленный эксперимент в области философии сознания и философии искусственного интеллекта, впервые опубликованный Джоном Сёрлом в 1980 году. Цель эксперимента состоит в опровержении утверждения о том, что цифровая машина, наделённая «искусственным интеллектом» путём её программирования определённым образом, способна обладать сознанием в том же смысле, в котором им обладает человек. Иными словами, целью является опровержение гипотезы так называемого «сильного» искусственного интеллекта и критика теста Тьюринга.

Описание эксперимента
Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов и Сёрл просто следует этим инструкциям подобно компьютеру.

Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер.

В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы.
звезда

Порфирьевич

Скажу свое мнение о нейросети "Порфирьевич".

Я не считаю, что это потустроннее, что кто-то там вещает из непознанного, что ответы имеют форму диалога или что это бесы:)

Каждый волен думать свое. Но на мой взгляд, не стоит искать в алгоритме сознание.
Пока еще никто не смог создать сильный ИИ.
Но легко при желании нафантазировать себе, что вам уже отвечает Разум.
Я вижу набор слов, которые программа составляет так, что иногда это кажется разумным, но чаще - предложения не содержат никакого смысла. Имитация человека, не более того.