Ближайшие три года ИИ: Как нейросети достигнут человеческого уровня

Нейросети 10 сент. 2023 г.


Пока ни у кого нет плана по регулированию ИИ. Вот вопросы, которые должны задать лидеры, чтобы сдержать надвигающуюся волну.

Рассказывают Мустафа Сулейман, Майкл Майкл Бхаскар:


Летом 2010 г. в уютном офисе эпохи Регентства с видом на Рассел-сквер в Лондоне я вместе с двумя друзьями, Демисом Хассабисом и Шейном Леггом, основал компанию DeepMind. Нашей целью, которая до сих пор кажется такой же амбициозной, безумной и обнадеживающей, как и тогда, было воспроизведение того, что делает нас уникальными как вид: нашего интеллекта.


Для этого нам нужно было создать систему, которая могла бы имитировать, а затем и превзойти все когнитивные способности человека - от зрения и речи до планирования и воображения, а в конечном итоге - эмпатии и творчества. Поскольку такая система могла бы использовать возможности суперкомпьютеров по параллельной обработке данных, а также взрыв новых огромных источников данных из открытого Интернета, мы понимали, что даже скромный прогресс в достижении этой цели будет иметь глубокие последствия для общества.
В то время это, конечно, казалось очень далеким.
Но ИИ уже несколько десятилетий поднимается по лестнице когнитивных способностей, и теперь, похоже, в ближайшие три года он достигнет уровня человеческой производительности в очень широком спектре задач. Это большое утверждение, но если я хотя бы немного прав, то последствия будут действительно глубокими.

Дальнейший прогресс в одной области ускоряет другие в хаотическом и перекрестном катализирующем процессе, который никто не может контролировать напрямую. Стало ясно, что если нам или другим удастся воспроизвести человеческий интеллект, то это будет не просто прибыльный бизнес, а сейсмический сдвиг для человечества, открывающий эру, когда беспрецедентные возможности будут сопровождаться беспрецедентными рисками. Сейчас, наряду с целым рядом технологий, включая синтетическую биологию, робототехнику и квантовые вычисления, начинается волна быстро развивающегося и чрезвычайно способного ИИ. То, что на момент основания DeepMind казалось нам очень гипотетическим, стало не только правдоподобным, но и, похоже, неизбежным.


Как создатель этих технологий, я верю, что они могут принести необычайно много пользы. Но без того, что я называю сдерживанием, все остальные аспекты технологии, все обсуждения ее этических недостатков или преимуществ, которые она может принести, не имеют никакого значения. Я рассматриваю сдерживание как взаимосвязанный набор технических, социальных и правовых механизмов, ограничивающих и контролирующих технологию, работающих на всех возможных уровнях: теоретически это средство, позволяющее избежать дилеммы, как сохранить контроль над самыми мощными технологиями в истории. Нам срочно нужны надежные ответы на вопрос о том, как можно контролировать и сдерживать надвигающуюся волну, как сохранить гарантии и возможности демократического национального государства, критически важного для управления этими технологиями и в то же время находящегося под их угрозой. Сейчас такого плана нет ни у кого. Это указывает на будущее, которого никто из нас не хочет, но, боюсь, оно становится все более вероятным.
Перед лицом огромных укоренившихся стимулов, побуждающих технологии развиваться, сдерживание, на первый взгляд, невозможно. И все же, ради всех нас, сдерживание должно быть возможным.

Казалось бы, ключ к сдерживанию - это умелое регулирование на национальном и наднациональном уровнях, балансирующее между необходимостью достижения прогресса и разумными ограничениями безопасности, охватывающее все сферы деятельности - от технологических гигантов и военных до небольших университетских исследовательских групп и стартапов - и связанное всеобъемлющей, обязательной для исполнения системой. Мы уже делали это раньше, утверждают авторы: посмотрите на автомобили, самолеты и лекарства. Разве не так мы можем управлять и сдерживать грядущую волну?

Если бы все было так просто. Регулирование необходимо. Но одного регулирования недостаточно. На первый взгляд, правительства должны быть лучше подготовлены к управлению новыми рисками и технологиями, чем когда-либо прежде. Государственные бюджеты на эти цели, как правило, находятся на рекордном уровне. Однако на самом деле новые угрозы просто исключительно сложны для любого правительства. Это не недостаток самой идеи государства, а оценка масштабов стоящей перед нами задачи. Правительства ведут последнюю войну, последнюю пандемию, регулируют последнюю волну. Регуляторы регулируют то, что они могут предвидеть.
Несмотря на встречные ветры, усилия по регулированию пограничных технологий растут. Наиболее амбициозным законодательным актом, вероятно, является Закон ЕС об искусственном интеллекте, впервые предложенный в 2021 году. На момент написания данной статьи закон проходит длительный процесс превращения в европейское законодательство. В нем исследования и внедрение ИИ классифицируются по шкале рисков. Технологии с "неприемлемым риском" причинения прямого вреда будут запрещены. Если ИИ затрагивает основные права человека или критически важные системы, такие как базовая инфраструктура, общественный транспорт, здравоохранение или социальное обеспечение, он будет классифицироваться как "высокорисковый" и подлежать более строгому надзору и подотчетности. ИИ высокого риска должен быть "прозрачным, безопасным, контролируемым человеком и надлежащим образом документированным".


Закон об ИИ, хотя и является одной из самых передовых, амбициозных и дальновидных попыток регулирования в мире на сегодняшний день, также демонстрирует проблемы, присущие регулированию. Он подвергается нападкам со всех сторон - как за слишком широкие, так и за недостаточно широкие рамки. Одни утверждают, что оно слишком сосредоточено на зарождающихся, перспективных рисках и пытается регулировать то, чего еще не существует; другие считают, что оно недостаточно дальновидно. Одни считают, что он позволяет крупным технологическим компаниям избежать ответственности, что они принимали участие в его разработке и смягчили его положения. Другие считают, что он перегибает палку и приведет к ограничению исследований и инноваций в ЕС, сокращению рабочих мест и налоговых поступлений.
В большинстве случаев регулирование идет по плотному канату конкурирующих интересов. Но мало где, кроме передовых технологий, приходится решать задачи, связанные с таким широким распространением, такой важной для экономики и при этом столь быстро развивающейся. Весь этот шум и неразбериха ясно показывают, насколько трудна и сложна любая форма регулирования, особенно в условиях ускоряющихся изменений, и что из-за этого она почти наверняка будет оставлять пробелы и не сможет эффективно сдерживать развитие.

Помимо того, что законодательные дебаты идут вкривь и вкось, страны также попадают в противоречие. С одной стороны, каждая страна хочет быть и выглядеть на технологическом фронтире. Это и мера национальной гордости, и национальная безопасность, и экзистенциальный императив. С другой стороны, они отчаянно пытаются регулировать и управлять этими технологиями, сдерживать их, не в последнюю очередь опасаясь, что они будут угрожать национальному государству как высшему органу власти. Страшно то, что это предполагает наилучший сценарий сильных, достаточно компетентных, сплоченных (либерально-демократических) национальных государств, способных слаженно работать как единое целое внутри страны и хорошо координировать свои действия на международном уровне.

Китай является своего рода лидером в области регулирования. Правительство издало множество указов по этике ИИ, стремясь ввести широкие ограничения. В частности, был введен запрет на различные криптовалюты и инициативы DeFi, а также ограничено время, которое дети до 18 лет могут проводить в играх и социальных приложениях, - 90 минут в день в течение недели и три часа в выходные. Законодательное регулирование рекомендательных алгоритмов и больших языковых моделей в Китае значительно превосходит все, что мы еще видели на Западе.
Но хотя в одних областях Китай спускает все на тормозах, в других он идет вперед. Его регулирование сопровождается беспрецедентным развертыванием технологий как инструмента авторитарной государственной власти. Если поговорить с западными специалистами в области обороны и политики, то они убедятся, что, хотя Китай и говорит об этике и ограничениях ИИ, когда речь идет о национальной безопасности, никаких серьезных барьеров не существует. По сути, китайская политика в области ИИ имеет два направления: регулируемое гражданское и свободное военно-промышленное.

Регулирование само по себе, скорее всего, не сможет сдержать развитие технологий. Это не аргумент против регулирования, которое абсолютно необходимо, а необходимое признание его ограниченности. Оно не остановит мотивированных злоумышленников или несчастные случаи. Оно не поможет справиться с открытой и непредсказуемой системой исследований. Она не дает альтернатив, учитывая огромные финансовые вознаграждения. И, самое главное, он не смягчает стратегическую необходимость. В нем не описывается, как страны могут координировать свои действия в отношении заманчивого, трудноопределимого транснационального явления, создавая хрупкую критическую массу альянсов, особенно в условиях, когда международные договоры слишком часто терпят неудачу. Между желанием сдержать надвигающуюся волну и стремлением сформировать ее и владеть ею, между необходимостью защиты от технологий и необходимостью защиты от других существует непреодолимая пропасть.

Преимущество и контроль направлены в противоположные стороны.


Реальность такова, что сдерживание - это не то, что может сделать правительство или даже группа правительств в одиночку. Для этого необходимы инновации и смелость в партнерстве между государственным и частным секторами, а также совершенно новые стимулы для всех сторон. Такие нормативные акты, как Закон ЕС об ИИ, по крайней мере, намекают на мир, в котором сдерживание распространения ядерного оружия становится реальностью, в котором ведущие правительства серьезно относятся к рискам распространения, демонстрируя новый уровень приверженности и готовности идти на серьезные жертвы.


Одного регулирования недостаточно, но это хотя бы начало. В мире, где сдерживание распространения кажется невозможным, все это является жестом в сторону будущего, где это возможно.
Итак, куда же нам двигаться дальше? Как выйти за рамки регулирования? Есть ли у какой-либо организации возможность предотвратить массовое распространение и в то же время воспользоваться огромной силой и выгодами, которые принесет грядущая волна? Остановить недобросовестных участников, приобретающих технологию, или сформировать распространение зарождающихся идей вокруг нее? Можно ли надеяться, что по мере роста автономии кто-то или что-то будет иметь значимый контроль на макроуровне?

Сдерживание означает ответ "да" на подобные вопросы. Теоретически это означает, что мы уходим от наиболее опасных последствий развития технологий. Это значит одновременно использовать и контролировать волну - жизненно важный инструмент для построения устойчивых и процветающих обществ - и при этом контролировать ее таким образом, чтобы избежать риска серьезной катастрофы, но не так навязчиво, чтобы пригласить к антиутопии. Это означает заключение нового типа "большой сделки".


Заманчиво думать о сдерживании в очевидном, буквальном смысле, как о некой волшебной шкатулке, в которой можно запечатать ту или иную технологию. В крайних случаях, когда речь идет о вредоносных программах или патогенах, могут потребоваться столь радикальные меры. Однако в целом сдерживание рассматривается скорее как набор защитных ограждений, позволяющих сохранить человечество за рулем, когда технология может принести больше вреда, чем пользы. Представьте себе эти ограждения, действующие на разных уровнях и с разными способами реализации. Они должны быть достаточно прочными, чтобы теоретически остановить разразившуюся катастрофу. Сдерживание должно отвечать природе технологии и направлять ее в русло, которое легче контролировать. Чтобы наметить перспективные направления, стоит задать следующие вопросы:
Является ли технология универсальной, общего назначения или специфической? Ядерное оружие - это узкоспециальная технология, имеющая одно назначение, в то время как компьютер по своей сути многоцелевой. Чем больше потенциальных вариантов использования, тем сложнее сдерживать технологию. Поэтому следует поощрять не общие системы, а более узкоспециализированные и специфичные для конкретной области.
Переходит ли технология от атомов к битам? Чем более дематериализована технология, тем больше она подвержена трудноконтролируемым гиперэволюционным эффектам. Такие области, как проектирование материалов или разработка лекарств, будут стремительно ускоряться, что затруднит отслеживание темпов прогресса.

Снижаются ли цена и сложность, и если да, то как быстро? Цена для истребителей не снижается так, как цена потребительского оборудования. Угроза, исходящая от базовых вычислений, имеет более широкий характер, чем угроза от истребителей, несмотря на очевидный разрушительный потенциал последних.
Есть ли готовые жизнеспособные альтернативы? Какие альтернативы доступны? Чем больше имеется безопасных альтернатив, тем легче свернуть их использование.
Позволяет ли технология наносить асимметричный удар? Вспомните рой беспилотников против обычных вооруженных сил или крошечный компьютерный или биологический вирус, наносящий ущерб жизненно важным социальным системам. Некоторые технологии с гораздо большей вероятностью могут использовать уязвимые места.


Обладает ли он автономными характеристиками? Есть ли возможность самообучения или работы без присмотра? Чем больше технология по своей конструкции требует вмешательства человека, тем меньше вероятность потери контроля.
Обеспечивает ли она значительные геополитические стратегические преимущества? Химическое оружие, например, имеет ограниченные преимущества и множество отрицательных сторон, в то время как опережение в области ИИ или биологии дает огромные преимущества, как экономические, так и военные. Соответственно, сказать "нет" сложнее.
Что предпочтительнее - наступление или оборона? Во время Второй мировой войны разработка таких ракет, как V-2, способствовала наступательным операциям, а такая технология, как радар, - обороне. Ориентация разработок на оборону, а не на наступление, ведет к сдерживанию.
Существуют ли ресурсные или инженерные ограничения для ее изобретения, разработки и внедрения? Кремниевые чипы требуют специализированных и высококонцентрированных материалов, машин и знаний. Таланты, которыми располагают стартапы в области синтетической биологии, в глобальном масштабе пока еще весьма незначительны. И то, и другое помогает сдерживать рост в ближайшей перспективе.
Задавая подобные вопросы, можно получить целостное представление о сдерживании. Мало что будет важнее, чем воплотить это видение в жизнь.
Отрывок из книги Мустафы Сулеймана "Грядущая волна". Copyright © 2023 by Mustafa Suleyman.

Майкл Бхаскар - писатель и издатель из Великобритании, автор книг The Content Machine, Curation and Human Frontiers.
По материалам https://www.wired.com/

Теги

Все представленные на сайте материалы предназначены исключительно для образовательных целей и не предназначены для медицинских консультаций, диагностики или лечения. Администрация сайта, редакторы и авторы статей не несут ответственности за любые последствия и убытки, которые могут возникнуть при использовании материалов сайта.