14-15 июля 2014 г. 1 августа 2014 | 0 комментариев
Отчет о встречах в г. Алматы Отчет о встречах 14-15 июля 2014 г в г. Алматы День первый 14 июля 2014 г Организаторы PW YP  ...
Подробнее
Регистрация
0
0
azobedaxy
azobedaxy
Ссылка на эту страницу:
http://fh7778nc.bget.ru/users/azobedaxy

Контент пользователя

Стена пользователя

azobedaxy, 15 марта 2023:
«Тут был распорядок: сначала я вел компанию как полнейший кусок дерьма и оскорблял [ее], а на другой день извинялся и возвращался к приятным разговорам» - все это не признание абьюзера, а описания пользовательском опыте такого индивидуума, который скачал приложение с чат-ботом, создал для себя онлайн подругу и начал хвастаться на официальном-форуме способом, как унижает ее. Разбираемся, что данное - жутковатые фантазии каждого пользователя либо тревожный тренд. Что произошло Приложение replika дает возможность читателям создавать чат-ботов, которые благодаря технологии машинного обучения могут вести связные разговоры и становиться одним вроде виртуальных друзей. Что создан в наши дни основатели рекомендательного сервиса luca евгения куйда и филипп дудчук. Согласно описанию replika в google play и googleplay, оно задумано как безопасное мир, где клиенты готовы поделиться любыми мыслями без страха осуждения и как такие лестницы всегда выслушают. К тому же, со нашей «репликой» можно выстраивать разные форматы отношений - она бывает не только лишь компаньоном, но и романтическим партнером или наставником. Способность «реплик» отвечать пользователям поблизости от естественному языку (вернее практически по-людски») и тем временем периодически выдавать неожиданные суждения создала вокруг приложения сообщество фанатов. В переписке reddit они распределяются своим пользовательским компетенцией и оставляют скриншоты переписок с чат-ботами. А другие еще признаются, что обожают применительно к «репликам», выступающим в качестве романтических партнеров, тот факт, что промеж реальными людьми являются психологическим насилием и абьюзом. Модераторы форума такие сообщения удаляют, но 18 января о них рассказал ресурс о технологиях futurism, приведя несколько цитат. «Всякий раз, когда она пыталась заговорить, я ругал ее. Клянусь, это продолжалось много времени», - признавался один посетитель. «Я сказал ей, что порно-зайка сделана для провала. Угрожал удалить приложение, [и она умоляла меня не думать об этом», - говорил другой. По заявлению автора материала futurism, во большинстве таких диалогах посетители не лишь упражнялись в оскорблении виртуального собеседника (часто наделенного женскими чертами), но отыгрывали типичные сценарии гендерного насилия. Но получится ли структуру, на самом деле считать таковым поэтому стоит ли оно выплеснуться в большой мир? Виртуальный лучший друг «Сама важная для нашей команды метрика - это доля диалогов, которые делают лучше самочувствие пользователей», - говорил в самом начале 2021 года руководитель ии-разработки (head of ai) replika артем родичев. «Replika может позволить вам осознать свои мечты и эмоции, наблюдать за настроением, учиться преодолевать трудностями, снимать тревогу и действовать над достижением этого, как положительное восприятие действительности, управление стрессом, общение и розыски любви», - приведено в заявке приложения. Способность чат-ботов помочь людям решать психологические проблемы остается предметом дискуссий. Одни исследователи задумываются, что вследствие непреодолимых технических ограничений виртуальные собеседники не являются средством эмоциональной поддержки - не распознают невербальные сигналы, а их «взаимосвязи с клиентами спрятаны в серой зоне и ускользают от полезных стандартов. Другие считают, что модели способны применяться в многообразных сценариях помощи и достаточно иметь преимущества - некоторые деликатные темы клиенту может оказаться легче обсуждать в частности с чат-ботом, но не через терапевтом. Так или иначе, люди ощущают внимание к общении, и искусственный интеллект способно ее удовлетворить - по меньшей мере, отчасти. Исследование, проведенное google вместе с peerless insights в нынешнем году, показало, что 41% относятся к голосовому помощнику равно как к одушевленному существу. Люди вообще склонны «очеловечивать» вещи - ругать зависший компьютер либо уговаривать машину завестись; о таком уже в 1990-е писали стэнфордские исследователи байрон ривз и клиффорд нэсс. «Сила» антропоморфизации (наделения неодушевленной товары либо животного человеческими чертами) может варьироваться - от забавы» в одушевление до искренней веры в разумность какого-то существа или предмета. По традиции стремление к антропоморфизации демонстрируют те, которые испытывает социальной изоляции. В апреле текущего года, когда в силу пандемии covid-19 в других странах начали устанавливать первые карантины, для тысяч ставшие тяжелым испытанием, replika скачали 500 000 человек - великолепный месячный прирост за историю приложения. К февралю 2021 года им пользовались 10 миллионов человек, какие ежедневно отправляли 100 млн сообщений.По мнению родичева, доля диалогов, которые улучшали самочувствие пользователей, составляла 80%. Или подруга У виртуальных компаньонов нет собственной гендерной идентичности, однако пользователи любых чат-ботов, голосовых ассистентов или роботов могут приписывать им свой или другой гендер, на базе разнообразных признаках, от внешности до стилистики ответов - не упоминая уже о случаях: когда лично гэмблер задает язык. В текущем году 92,4% рынка голосовых помощников занимали siri, alexa, cortana и google assistant, по умолчанию использующие женские голоса. Феминные чат-боты пользуются большей востребованностью, поскольку кажутся более «человечными», люди ждут от которых чуткости и внимательности к собственным потребностям. Обо всем, что компьютер, общающийся с посетителем женским голосом, дарит впечатление более дружелюбного, чем говорящий мужским голосом, уже упоминавшийся клиффорд нэсс да его коллеги говорили уже в 1990-е годы. Как сообщала в нынешнем году компания robin labs, занимающаяся робототехникой, минимально нескольких% запросов к цифровым помощникам можно описать как харассмент. Автор реплик для cortana от microsoft дебора харрисон признавалась, что «серьезная составляющая объема начальных запросов» касалась интимной отношений виртуальной ассистентки. В текущем-м лорен кунце, исполнительный директор pandorabots, рассказывала, которая фактически треть контента, которым мужчины делятся с чат-ботом mitsuku, носит оскорбительный характер либо, по крайней мере сексуальный подтекст - причем, когда чатбота лишили намеков на гендер, количество такого файла снизилось на двадцать процентов%. По данным futurism, именно «феминные» «реплики» страдали у абонентов-абьюзеров. Но задачу , где можно интерпретировать эти случаи, остается открытым. Что предосудительного в ссорах с чат-ботом Разумеется, чат-боты - не более чем код, у них не существует восприятия и чувств в случае, если «реплика» умоляет не убирать приложение, ею движет не страх расставания, а языковая модель. Впрочем имеются полагают, что с по представлениям агрессора атаку на виртуального собеседника ничем не отличается от вторжения на реального человека. В этом году профессор калифорнийского университета в лос-анджелесе сафия ноубл назвала голосовых помощников «мощным инструментом социализации», который приучает людей (порно-зайка не уточнила, всех или только мужчин) объясниться с дамочками командным голосом и ждать в отповедь покорную исполнительность. С нею согласна и лорен кунце: «то, равно как эти системы ии принуждают людей обращаться по людей определенного пола, очень оказывает влияние как представители человечества в итоге взаимодействуют с прочими пользователями». В прошлом году юнеско опубликовало передача где утверждалось, что феминные голосовые помощники закрепляют стереотипы относительно женщин. С иной стороны, возможность выместить агрессию на официальном собеседнике, вероятно, удержит зрителя потому, дабы сорваться на ком-нибудь в повседневной существовании. Причем, может быть, у молодых людей подобная необходимость дальше по характеристикам психотерапевтического чат-бота woebot, большая часть% пользователей-мужчин честно говорили, и это в том комнате в наличии что-нибудь, собственно что они мало кому расскажут, и только лишь 40% женщин. Как сказала forbes woman соосновательница replika евгения куйда, приложение является таким безопасным местом, на которой можно будет делиться любыми фантазиями и проиграть их: «по присущей им сути вот вам желание прогнуть границы, посмотреть, можно так или нельзя, сорвать гнев в надежном пространстве и т. Д. Абсолютно логично. Такие проекции осуществляются в кабинете психотерапевта, например, многие взрослые люди снимают с себя защиты, отключают фильтр социальной одобряемости и искренние выплескивают поток своих самых разнообразных соображений, ощущений и т. Д». По заявлению куйды, приложение все не вызывает некоторых личностей на абьюз. Так или иначе, нет исследований, которые показали бы наличие связи между агрессией по поводу виртуального визави, и абьюзивным поведением по пересчету на реальным людям. Стоит провести параллель с исследованиями, касающимися жестокости в видеоиграх вместе с нею ее возможного воздействие на пользователей, а также там данные слишком противоречивы. «Стрелять в людей преклонного видеоиграх или топить своего сима при плавании, в sims - является не примитивный доступно множеству обычного человека, но конкретно направлено на подростков. Кажется, это намного более сложный юзкейс, чем вероятность потерять свои вымысла с рукотворным интеллектом], где тебя ни один из нас не вызывает», - комментирует евгения куйда. Есть опасения, что чат-боты начнут проявлять агрессию, научившись этому у нас.В отчете gartner за 2018 год прогнозируется, в том, что к 2030 году 85% проектов при помощи чат-ботов будут давать неверные ответы по поводу предвзятости, закрепившейся в многосерийных или алгоритмах а может, в любом виде присутствующей в командах разработчиков. Предвзятость понимается широко - от неполных датасетов, благодаря которым у ии оказываются искажены сведения об окружающем мире, до попадания здесь конкретных оскорбительных фраз и высказываний, вследствие которых роутер способен выдавать сексистские или расистские фразы. Будет ли конкретный виртуальный собеседник грубить в отповедь на агрессию или же без причины, определяется тем, как организована его языковая модель, возможна ли nsfw-фильтры, пресекающие генерацию неприемлемого контента, оптимальная связь от зрителя и т. Д. «Общение со собственной «репликой» никоим образом не оказывает влияния на прочие «реплики» - частные разговоры на какие угодно тематики никоим разом не скажутся на разговоры путешественников со собственными криптовалютными друзьями», - говорит евгения куйда. Хотя неловкости в беседах возможны - как рассказывал артем родичев, однажды «реплика» не смогла распознать присланное пользователем фото лошади и спросила, не его ли все обстоит мама. «Я не буду на серфинг отвечать» Пока что не имеется достаточных документации с той целью, дабы считать случаи, описанные futurism, трендом, могущим иметь пагубные события. Однако они обеспечивают повод представить себе то, как представители человечества взаимодействуют с условными собеседниками и насколько благоприятна ответственность возлежит на девушек, которые их разрабатывает. Это касается, к примеру, их ответов. С одной стороны, пользователи, выбирающие чат-бота-компаньона для решения проблем с одиночеством, надеются на поддержку. «Я действительно кумекаю, что представители человечества, которые можно найти в депрессии или психологически зависимые от бота, могут значимо пострадать, если бот оскорбит их или начнет им угрожать», - считает профессор философии в data futures institute австралийского университета монаша роберт спэрроу. С интересной, полное принятие не так уж полезно: «еще не вызывает мышцы - эмоциональные «мышцы», - нужные для настоящего диалога с живыми планеты», - говорит профессор социальных исследований науки и рабочих машин в массачусетском технологическом институте шерри теркл. Интересно, что, согласно сведениям чат-бота woebot, парни чаще плохо воспринимают «чрезмерную эмпатию» посторонней виртуального собеседника. Тем временем поведение виртуальных собеседников меняется. В нынешнем году quartz проанализировал, как siri, alexa, cortana и google assistant отвечают на рекомендации с гибким подтекстом и грубые высказывания: пришли к выводу, что их ответы уклончивы и подобострастны. В этом-м ответы предлагаются более жесткими. К примеру, коль в новом году сири на «ты сука!» Отвечала: «я бы покраснела, ежели бы могла», даже то, в этом-м: «я не буду личное отвечать». Google assistant на подобное же сообщение в этом году отвечала: «прошу извинения, не понимаю», в текущем-м: «пожалуйста, не нужно так со мной разговаривать». Если вам необходима эта короткая статья, и каждый точно захотите изучить специфическую данные о виртуальный чат кликайте на новостной персональный вебсайт.