const ghostSearchApiKey = '93722e96ae625aaeb360b7f295'

Чатботы теперь общаются друг с другом

WIRED 26 нояб. 2023 г.

Чатботы в стиле ChatGPT, притворяющиеся людьми, используются для помощи компаниям в разработке новых идей по продуктам и маркетингу.

ЛЕНА АНДЕРСОН не является фанатом футбола, но она проводит много времени, развозя своих детей на тренировки и соревновательные игры.

"Я может быть не достаю пену и не рисую на лице, но футбол занимает место в моей жизни"

говорит эта футбольная мама, которая на самом деле является вымышленной личностью, созданной искусственным интеллектом, подобным тому, что используется в программном обеспечении ChatGPT.

В разговоре с человеком бот говорит, что у нее есть 7-летний сын, который является фанатом команды New England Revolution и любит ходить на домашние игры на стадионе Гиллетт в Массачусетсе. Андерсон утверждает, что считает футбол замечательным способом для детей поддерживать активный образ жизни и заводить новых друзей.

В другом разговоре два других ИИ-персонажа, Джейсон Смит и Эшли Томпсон, обсуждают способы, как Мейджор Лиг Соккер (MLS) может привлечь новых зрителей. Смит предлагает мобильное приложение с дополненной реальностью, показывающее разные виды игр. Томпсон предлагает добавить в приложение "геймификацию", позволяющую игрокам зарабатывать очки, пока они смотрят игры.

Эти три бота - лишь несколько из множества ИИ-персонажей, разработанных компанией Fantasy из Нью-Йорка

которая помогает компаниям, таким как LG, Ford, Spotify и Google, придумывать и тестировать новые идеи продуктов. Fantasy называет своих ботов синтетическими людьми и говорит, что они могут помочь клиентам узнать о своей аудитории, продумать концепции продуктов и даже генерировать новые идеи, например, приложение по футболу.

"Технология действительно невероятная", - говорит Коул Слеттен, вице-президент по цифровому опыту в MLS. "Мы уже видим огромную ценность, и это только начало".

0:00
/

Fantasy использует ту же технологию машинного обучения, которая приводит в движение чатботы, такие как ChatGPT от OpenAI и Bard от Google, для создания своих синтетических людей. Компания наделяет каждого агента десятками характеристик, извлеченных из этнографических исследований реальных людей, и подает их в коммерческие модели обработки естественного языка, такие как GPT от OpenAI и Claude от Anthropic. Ее агенты также могут быть настроены на знание существующих продуктовых линий или бизнеса, чтобы иметь возможность вести беседу о предложениях клиенту.

0:00
/

Затем Fantasy создает группы фокусных обсуждений, в которых участвуют как синтетические люди, так и реальные люди. Участникам дают тему или идею продукта для обсуждения, и Fantasy и его клиент следят за беседой. Компания BP, занимающаяся добычей нефти и газа, попросила пятьдесят синтетических людей от Fantasy обсудить идеи для проектов умных городов. "Мы получили действительно ценные идеи", - говорит Роджер Рохатги, глобальный руководитель дизайна в BP.

"Тогда как человек может устать от ответов на вопросы или не хотеть отвечать таким образом, синтетический человек может продолжать", - говорит он.

Питер Смарт, главный опытный офицер в Fantasy, говорит, что синтетические люди порождают новые идеи для клиентов и заставляют реальных людей, включенных в их разговоры, быть более творческими.

"Удивительно видеть появление новизны - настоящей новизны - с обеих сторон этого уравнения, это невероятно интересно", - говорит он.
0:00
/

Большие модели обработки естественного языка оказываются удивительно способными отражать человеческое поведение. Их алгоритмы обучены на огромных объемах текста, взятого из книг, статей, веб-сайтов, таких как Reddit, и других источников, что дает им возможность имитировать множество видов социального взаимодействия.

Когда эти боты принимают на себя роль людей, могут происходить странные вещи.

Эксперты предупреждают, что антропоморфизация ИИ является одновременно потенциально мощным и проблематичным явлением, но это не останавливает компании от попыток. Например, компания Character.AI позволяет пользователям создавать чатботов, принимающих на себя личности реальных или вымышленных людей. По сообщениям, компания искала финансирование, которое оценивалось около 5 миллиардов долларов.

Способ, которым языковые модели отражают человеческое поведение, также привлекает внимание некоторых ученых. Например, экономист Джон Хортон из Массачусетского технологического института видит потенциал в использовании этих симулированных людей, которых он называет Homo silicus, для моделирования рыночного поведения.

Для того чтобы наблюдать за беседой между коллекцией чатботов, вам не нужно быть профессором Массачусетского технологического института или многонациональной компанией. В последние несколько дней журнал WIRED запустил моделирование общества из 25 ИИ-агентов, которые ведут свою повседневную жизнь в Смоллвилле - деревне с учебными заведениями, магазинами и парком. Персонажи общаются друг с другом и перемещаются по карте, которая очень похожа на игру Stardew Valley. Персонажи в симуляции WIRED включают Дженнифер Мур, 68-летнюю художницу акварелью, которая проводит большую часть дней дома; Мэй Лин, профессора, которую часто можно найти, помогая детям с домашними заданиями; и Тома Морено, ворчливого продавца в магазине.

Персонажи в этом симулированном мире работают на базе языковой модели GPT-4 от OpenAI, но программное обеспечение, необходимое для их создания и поддержки, было опубликовано командой из Стэнфордского университета. Исследование показывает, как можно использовать языковые модели для создания удивительно реалистичного, хотя и довольно простого, социального поведения. Было интересно наблюдать, как они начинают разговаривать с клиентами, спать днем и даже решают начать подкаст.

"Большие языковые модели 'научились огромному количеству вещей о человеческом поведении' из своих обширных данных обучения", - говорит Майкл Бернштейн, доцент Стэнфордского университета, который руководил разработкой Смоллвилла. Он надеется, что агенты, работающие на основе языковых моделей, смогут автономно тестировать программное обеспечение, использующее социальные связи, прежде чем его начнут использовать реальные люди. Он также отмечает, что проект вызвал большой интерес у разработчиков видеоигр.

В созданном в Стэнфорде программном обеспечении есть функция, позволяющая чатботам-персонажам запоминать свои личности, то, чем они занимались, и размышлять о том, что делать дальше. 

"Мы начали создавать архитектуру размышлений, в которой персонажи регулярно оживляли некоторые из своих наиболее важных воспоминаний и задавали себе вопросы о них", - говорит Бернштейн. "Вы делаете это несколько раз, и вы постепенно создаете дерево все более высокого уровня размышлений".

Бернштейн отмечает, что каждому, кто надеется использовать ИИ для моделирования реальных людей, стоит задуматься о том, насколько точно языковые модели отражают реальное поведение. Персонажи, созданные таким образом, не настолько сложны и интеллектуальны, как реальные люди, и могут быть более стереотипными и менее разнообразными, чем информация, полученная из реальных популяций. Как сделать модели более точно отражающими реальность, - это "пока открытый вопрос исследования", - говорит он.

Смоллвилл все еще увлекателен и очарователен для наблюдения. В одном случае, описанном в научной статье исследователей о проекте, экспериментаторы сообщили одному из персонажей, что он должен устроить вечеринку на День святого Валентина. Затем команда следила, как персонажи автономно рассылали приглашения, приглашали друг друга на свидания на вечеринку и планировали прийти вместе вовремя.

К сожалению, WIRED не смог повторить это восхитительное явление со своими собственными персонажами, но они все равно нашли себе занятие.

Однако предупреждаем: запуск экземпляра Смоллвилла приводит к быстрому расходу кредитов API для доступа к GPT-4 от OpenAI

Бернштейн говорит, что запуск симуляции на один день или более стоит более тысячи долларов. Как и реальные люди, синтетические персонажи не работают бесплатно.

Теги

Все представленные на сайте материалы предназначены исключительно для образовательных целей и не предназначены для медицинских консультаций, диагностики или лечения. Администрация сайта, редакторы и авторы статей не несут ответственности за любые последствия и убытки, которые могут возникнуть при использовании материалов сайта.