Нейросети и цифровые инструменты: Мощное сочетание для автоматизации

Нейросети 9 сент. 2023 г.

Некоторые вещи больше, чем сумма их частей. ИИ, способный манипулировать и взаимодействовать даже с простыми инструментами, станет намного более мощным, чем сами инструменты. Давайте убедимся, что мы к этому готовы.

Используете ChatGPT только для работы с текстом? Поверьте у этой нейросети, гораздо шире возможности.

‌‌‌‌В марте прошлого года, спустя две недели после выхода GPT-4, исследователи из Microsoft без особого шума объявили о планах по объединению миллионов API - инструментов, которые могут выполнять любые действия, от заказа пиццы до решения уравнений физики и управления телевизором в гостиной, - в команду нейронок, которая станет доступна для больших языковых моделей (LLM).

Проект Microsoft направлен на то, чтобы одним махом научить ИИ пользоваться любыми цифровыми инструментами. Сегодня специалисты LLM могут вполне успешно порекомендовать начинку для пиццы, если вы опишите свои диетические предпочтения, и составить диалог, который можно использовать при звонке в ресторан.

Сейчас ещё большинство инструментов искусственного интеллекта не могут сделать заказ, даже в режиме онлайн. Для сравнения,  помощник Google может синтезировать ваш голос по телефону и заполнить форму онлайн-заказа, но не может выбрать ресторан или угадать ваш заказ.

Однако, объединив эти возможности, ИИ с инструментами сможет делать все. ИИ, имеющий доступ к вашим прошлым разговорам и таким инструментам, как калькуляторы калорий, база данных меню ресторанов и ваш цифровой платежный кошелек, действительно может решить, что вы пытаетесь похудеть и хотите низкокалорийный вариант, найти ближайший ресторан с вашими любимыми начинками и оформить заказ на доставку. Если у него есть доступ к истории ваших платежей, он может даже предположить, насколько щедрыми обычно бывают ваши чаевые. Если у него есть доступ к датчикам на ваших умных часах или фитнес-трекере, он может определить, когда уровень сахара в крови понизился, и заказать пирог еще до того, как вы почувствуете голод.‌‌‌‌

Теперь о работе с базами данных  и ответам на различные научные и бытовые вопросы. LLM может анализировать свои внутренние процессы, предлагая эмпирические оценки своих рассуждений и детерминированные объяснения того, почему он дал именно такой ответ.‌‌

Если предоставить доступ к инструментам получения обратной связи от людей, то LLM с их помощью может даже генерировать специализированные знания, которых пока нет в Интернете. Он может искать данные о предпочтениях людей, проводя опросы для получения обратной связи напрямую вам , либо для того, чтобы настроить собственное обучение, чтобы иметь возможность лучше отвечать на вопросы в будущем. Со временем ИИ начнут во многом напоминать людей.

LLM может генерировать код намного быстрее, чем любой программист-человек, поэтому он может легко манипулировать системами и службами вашего компьютера. Он может использовать клавиатуру вашего компьютера и курсор, как это делает человек, что позволяет ему использовать любую программу, которую вы используете. И оно могло бы улучшить свои собственные возможности.

‌‌Легко увидеть, что использование такого рода инструментов сопряжено с огромными рисками. Представьте себе, что LLM может найти чей-то номер телефона, позвонить ему и тайно записать его голос, угадать, каким банком он пользуется, основываясь на крупнейших провайдерах в своем регионе, выдать себя за него во время телефонного звонка в службу поддержки клиентов, чтобы сбросить пароль, и ликвидировать его счет.

Каждая из этих задач задействует простые инструменты — поиск в Интернете, синтезатор голоса, банковское приложение — и LLM создает сценарий последовательных действий.

Таким образом, предоставление нынешнему генеративному ИИ внезапного доступа к миллионам API — как планирует Microsoft — может быть немного похоже на то, как позволить малышу гулять на складе оружия. ‌‌

Такие компании, как Microsoft, должны быть особенно осторожны, предоставляя ИИ доступ к определенным комбинациям инструментов. Доступ к инструментам для поиска информации, проведения специализированных расчетов и проверки реальных датчиков несет в себе определенный риск.

Возможность передавать сообщения за пределы непосредственного пользователя инструмента или использовать API, которые манипулируют физическими объектами, такими как замки или машины, несет в себе гораздо больший риск.

Объединение таких категорий  увеличивает риски каждой из них. ‌‌Операторам наиболее передовых программ LLM, таких как OpenAI, следует продолжать действовать осторожно, когда они начинают разрешать использование инструментов, и ограничивать использование своих продуктов в чувствительных областях, таких как политика, здравоохранение, банковское дело и оборона.

Но кажется очевидным, что лидеры отрасли уже в значительной степени потеряли свои позиции в отношении технологии. LLM — открытый исходный код догоняет их. Признавая эту тенденцию, Meta приняла подход «Если вы не можете победить их, присоединяйтесь к ним» и частично взяла на себя роль предоставления платформ LLM с открытым исходным кодом. ‌‌

Регуляторы должны рассмотреть, что разрешено делать ИИ автономно, например, можно ли им передать право собственности или зарегистрировать бизнес. Возможно, для более конфиденциальных транзакций потребуется присутствие проверенного человека, даже ценой некоторых дополнительных сложностей.

Хитрость заключается в том, чтобы не позволить им перекладывать свои обязанности на искусственных третьих лиц.

Мы также должны быть готовы к тому, что использование инструментов ИИ может оказать благоприятное воздействие на общество, например,  LLM может быстро ускорить такую область, как открытие лекарств, и работу с патентном ведомством.

И мы должны убедиться, что экономические выгоды от сверхразумного, экономящего труд ИИ распределяются справедливо . ‌‌Мы можем спорить о том, действительно ли LLM умны, сознательны или обладают свободой действий, но в любом случае ИИ будут становиться все более способными пользователями инструментов.

По материалам https://www.wired.com/

Теги

Все представленные на сайте материалы предназначены исключительно для образовательных целей и не предназначены для медицинских консультаций, диагностики или лечения. Администрация сайта, редакторы и авторы статей не несут ответственности за любые последствия и убытки, которые могут возникнуть при использовании материалов сайта.