• Образ жизни
  • Технологии
Технологии

Поделиться:

Уволенный сотрудник OpenAI опубликовал 165-страничный доклад: к 2030 году нас ждет цивилизация супер-ИИ в разы умнее людей

Общий искусственный интеллект — то есть алгоритм, который сможет понимать окружающий мир, так же как человек, может быть создан уже к 2027 году. Такой прогноз дал экс-сотрудник OpenAI Леопольд Ашенбреннер. В начале июня он опубликовал доклад о будущем ИИ, который мгновенно стал сенсацией, — его основные тезисы разлетелись по западным СМИ и популярным подкастам. И это неудивительно, ведь Ашенбреннер предсказал глобальную гонку искусственных интеллектов и возможное возникновение цивилизации сверхразумов. «Собака.ru» изучила 165-страничный (!) документ и коротко пересказывает его ключевые тезисы. 

SvetaZi / Shutterstock

«Гонка за право называться создателем первого Общего искусственного интеллекта началась», — с такого предупреждения начинается доклад бывшего сотрудника OpenAI Леопольда Ашенбреннера о будущем ИИ в ближайшие 10 лет. 

Весной 2024 года Ашенбреннер, работавший в компании-создательнице ChatGPT исследователем, был уволен. СМИ связывали это с прошлогодним конфликтом, когда часть руководства OpenAI попыталась уволить сооснователя компании Сэма Альтмана якобы из-за опасений относительно безопасности исследований в области ИИ. Часть сотрудников поддержала Альтмана, другая — выступила против него. Ашенбреннер принадлежал к числу последних.

В итоге исследователь был вынужден покинуть компанию, по официальной информации, за утечку данных. В недавнем интервью, экс-сотрудник OpenAI прямо заявил, что «безопасность не была приоритетом» для его бывших работодателей. А в июне Ашенбреннер выпустил 165-страничный меморандум-предупреждение о том, куда движется индустрия искусственного интеллекта и чего она может достичь уже в ближайшие 10 лет.


Леопольд Ашенбреннер

Экс-сотрудник OpenAI, специалист в области искусственного интеллекта:

Мы создаем умные машины, которые могут думать и объяснять свои действия. К 2025/26 году эти машины догонят [по своим возможностям] выпускников колледжей. К концу десятилетия они будут умнее нас с вами — это будет Сверхинтеллект в прямом смысле этого слова.

Полноценный искусственный интеллект к 2027-му

«Десять лет назад модели [искусственного интеллекта] с трудом могли распознавать простые изображения кошек и собак, четыре года назад GPT-2 едва связывала слова в полувразумительные предложения», — пишет в своем тексте Ашенбреннер. Сегодня же, по его словам, GPT-4 напоминает уже по своим способностям «умного старшеклассника».

Как полагает экс-сотрудник OpenAI, такой прогресс стал возможен за счет нескольких основных факторов: 

  • Огромные деньги, вложенные в ИИ. «Раньше потратить миллион долларов на модель было немыслимо; к концу десятилетия у нас, вероятно, будут кластеры стоимостью 100 млрд или 1 трлн долларов», — пишет Ашенбреннер.
  • Быстрое совершенствование компьютерной техники. За счет огромных инвестиций вычислительные мощности в последние годы росли в 5 раз быстрее, чем ранее предполагал Закон Мура (прогноз инженера Гордона Мура, который в середине 1960-х годов ожидал, что каждые 24 месяца количество транзисторов на кремниевом чипе будет удваиваться);
  • Увеличение эффективности алгоритмов. «Например, более совершенный алгоритм позволяет достичь той же производительности ИИ при 10-кратном сокращении вычислений для обучения», – поясняет автор доклада.

Если эта тенденция сохранится, пишет экс-сотрудник OpenAI, очень скоро ИИ преодолеет существующие ограничения. Модели смогут погружаться в контекст того, что они делают, пользоваться компьютером и интернетом, как это делает человек. В итоге, предполагает Ашенбреннер, искусственный интеллект все менее будет напоминать чат-бота или голосового помощника и будет все ближе к тому, чтобы полноценно исполнять обязанности сотрудника компании или лаборатории.    

И хотя будущий прогресс в области искусственного интеллекта не так просто предсказать (к примеру, существует проблема «Стены данных», а именно конечности информации в интернете, которой в скором времени будет не хватать для обучения новых моделей), Ашенбреннер уверен, человечество на пороге создания AG, или Общего искусственного интеллекта. 

«AGI к 2027 году выглядит поразительно правдоподобно, — пишет экс-сотрудник OpenAI. — Для этого не нужно верить в научную фантастику, нужно просто верить в прямые линии на графике [роста возможностей ИИ]».


Александр Кугаевских

Доцент Университета ИТМО:

Термин Общий искусственный интеллект (AGI) появился сравнительно недавно, до этого его именовали сильный искусственный интеллект. При этом до сих пор нет его точного определения. В двух словах — это ИИ, который по своим возможностям не уступает человеку, включая сложное мышление, сознание, креативность и воображение, самообучение, рефлексию и т.п. Сейчас большие языковые модели могут отвечать на Ваши вопросы, поддерживать беседу, решать несложные задачи. Но они сами не уверены в своих ответах. К тому же они обучались на текстах из Интернета, которые далеко не всегда отличаются высоким качеством. Технологически большие языковые модели, считающиеся текущей вершиной искусственного интеллекта, умеют обобщать информацию, комбинировать ее, искать, но они не генерируют новое знание, не ставят правдоподобные гипотезы — AGI должен уметь это делать.

Nadya C / Shutterstock

Миллиарды Сверхинтеллектов 

Когда человечество получит в свои руки AGI, оно не остановится,  уверен Ашенбреннер. Сразу начнутся работы по созданию еще более мощных алгоритмов, которые смогут не только сравниться с человеком, но и многократно превзойти его возможности. 

«Не успеем мы оглянуться, как у нас в руках окажется сверхразум — системы искусственного интеллекта, намного более умные, чем люди, способные к новому, творческому, сложному поведению, которое мы даже не сможем понять. Возможно, даже небольшая цивилизация, насчитывающая миллиарды таких систем. Их мощь также будет огромной, — предупреждает автор доклада. — Чрезвычайно сложные научные и технологические проблемы, над которыми человек застрял бы на десятилетия, покажутся им очевидными. Мы будем похожи на старшеклассников, которые застряли на физике Ньютона, в то время как они изучают квантовую механику». 

Наконец, такие сверхразумы смогут сами тренировать еще более сложный искусственный интеллект. «Они с легкостью смогут писать миллионы строк сложного кода, сохранять всю кодовую базу в контексте и не будут тратить десятки лет (или больше) на проверку и перепроверку каждой строки кода на наличие ошибок и оптимизацию. Они будут превосходно компетентны во всех аспектах своей работы», — констатирует экс-сотрудник OpenAI. 

Создание такой «цивилизации» обеспечит:

  • Ускорение научно-технического прогресса. «Представьте, если бы технический прогресс 20 века был достигнут менее чем за десятилетие», — пишет Ашенбреннер. 
  • Взрывной рост производительности труда. «Мы могли бы наблюдать темпы экономического роста на уровне 30% в год и выше», — полагает автор доклада, утверждая, что это «довольно очевидно следует из моделей экономического роста». 
  • Решающее и подавляющее военное превосходство. «[Использование сверхинтеллекта] против оружия, существовавшего до его появление, будет напоминать столкновение современных военных с кавалеристами XIX века», — пишет экс-сотрудник OpenAI.

Однако такое могущество вызывает тревогу автора. Он пишет, что тот, кто будет обладать могуществом сверхразума, будет столь силен, что «сможет свергнуть правительство США». «Время, которое наступит сразу после появления сверхразума, будет одними из самых нестабильных, напряженных, опасных и необузданных периодов в истории человечества», — заключает он. 

Phonlamai Photo / Shutterstock

Пятая часть всей электроэнергии

Грядущие успехи в развитии искусственного интеллекта, уверен экс-сотрудник OpenAI приведут к еще большим капиталовложениям в эту область. «Доходы от ИИ-продуктов быстро растут, — предупреждает он, — к 2026 году они, вероятно, достигнут 100 млрд долларов в год для таких компаний, как Google или Microsoft благодаря мощным, но еще не разработанным системам. Это [в свою очередь] будет стимулировать еще большую мобилизацию капитала, а общий объем инвестиций в ИИ может превысить 1 трлн долларов в год к 2027 году».

Впрочем, гонка ИИ в скором времени будет вестись «не только за ноутбуками», Ашенбреннер уверен, что она будет сопровождаться «мобилизацией промышленной мощи». Автор доклада полагает, что к концу десятилетия человечество приблизится к созданию кластеров для обучения ИИ стоимостью в 1 трлн долларов. «Они потребуют мощности, эквивалентной более чем 20% производства электроэнергии в США», — пишет экс-сотрудник OpenAI.


Александр Кугаевских

Доцент Университета ИТМО:

Это полная правда. Уже сейчас большие языковые модели, которые и близко не подошли к возможностям AGI, потребляют очень много энергии. Причем не только для их обучения, но и для функционирования. Поэтому разделяя убеждения Ашенбреннера, думаю, что создание AGI будет под силу только державам с развитой промышленностью, мощной энергетикой и сильной научной школой. 

Однако, сетует автор доклада, высокотехнологичные компании уделяют недостаточно внимания вопросам безопасности. По его мнению, сейчас США ведут гонку за создание сверхмощных систем Искусственного интеллекта с Китаем (здесь стоит оговориться, что бывшие коллеги по OpenAI обвиняли Ашенбреннера в расизме и китаефобии). Он уверен что охране алгоритмов ИИ нужно уделять едва ли не такое же внимание, как и защите секретов, связанных с ядерным оружием. 

«Все очень легко может пойти наперекосяк»

Впрочем, как пишет автор доклада, беспокоит его не только геополитическое противостояние и возможное применение сверхинтеллекта конкурентами США. «Надежное управление системами искусственного интеллекта, которые намного умнее нас, является нерешенной технической проблемой. И хотя это решаемая проблема, во время стремительного интеллектуального взрыва все очень легко может пойти наперекосяк», — признает он. 

Управление такими мощными системами технически очень сложно, а «сбой может привести к катастрофическим последствиям». Однако он уверен, что это не главная из возможных проблем. Да, признает Ашенбреннер, существующие методы контроля ИИ-моделей не могут быть масштабированы до сверхчеловеческого уровня. Однако, продолжает он, у исследователей уже есть план на этот счет. 

По его мнению, современные разработки в области ИИ помогут если не понять, какие именно процессы происходят в алгоритмах, то хотя бы сделать их «в достаточной мере интерпретируемыми», чтобы обеспечить безопасность. И все же он признается, что непредсказуемость возможных последствий запуска сверхразумного ИИ «не дает ему спать по ночам».   

«Сверхчеловеческий инопланетный интеллект — это новая игра, и это страшная игра. Интеллектуальный взрыв будет больше похож на ведение войны, чем на запуск продукта, — полагает он. — На данный момент ни одна лаборатория не продемонстрировала особого желания идти на какие-либо дорогостоящие компромиссы ради обеспечения надлежащей безопасности (да, у нас есть множество комитетов по безопасности, но они довольно бессмысленны). По умолчанию мы, скорее всего, столкнемся с интеллектуальным взрывом и лишь через несколько итераций [предполагающих десятикратное увеличение возможностей ИИ] поймем, во что мы ввязались. Мы слишком сильно полагаемся на удачу».


Александр Кугаевских

Доцент Университета ИТМО:

Спрогнозировать последствия появления AGI действительно трудно. Футурологи, писатели, ученые делали много попыток. Самая масштабная, пожалуй, жанр киберпанка. И степень последствий варьируется от конца света до еще одной технологии на службе человечества. Как мне кажется, мы все же будем способны удержать над ней контроль. Учитывая, что ИИ создают и обучают люди со свойственными нам не только недостатками, но и достоинствами, а также взглядами на социальную организацию жизни. И сильному ИИ, чтобы решать поставленные задачи, надо будет принимать эту модель.

С предсказаниями в сфере ИИ все очень сложно. С тех пор, как появились первые нейронные сети в 50-х годах прошлого века, ученые обещали создать ИИ в ближайшие пять лет или на худой конец создать полностью беспилотный автомобиль за те же пять лет. С тех пор мы пережили две зимы искусственного интеллекта, когда в этой области разочаровывались почти все. Сейчас многие эксперты говорят, что мы или на пороге третьей или уже в ней. Мне кажется, что создание именно AGI к 2030 невыполнимая задача. 

Следите за нашими новостями в Telegram

Комментарии (0)

Купить журнал: