Сенсационный успех ChatGPT и других разработок в области искусственного интеллекта вызвал не только волну восхищения. Около тысячи экспертов предложили затормозить разработки в этой сфере, чтобы разработать необходимые протоколы безопасности и этические правила, среди подписантов этого обращения оказались Илон Маск и сооснователь Apple Стив Возняк. Впрочем, о рисках, связанных с ИИ, говорят не впервые — в разное время этой темы касались сооснователь Google Сергей Брин, ученые из Оксфорда, аналитики Goldman Sachs и… даже сам искусственный интеллект. Напоминаем то, о чем предупреждали ученые и иконы высокотехнологичного бизнеса.
Илон Маск, Стив Возняк и другие
«Технологии с потенциально катастрофическими последствиями»
В последние дни марта 2023 года как гром среди ясного неба появилось письмо, подписанное более чем тысячью ученых и экспертов в области высоких технологий, с предложением приостановить развитие систем искусственного интеллекта мощнее GPT 4, чтобы понять, как их можно контролировать. Среди подписантов оказались сооснователь Apple Стив Возняк и Илон Маск, стоявший у истоков компании OpenAI, которая, собственно, и разрабатывает нейросети семейства GPT.
«Продвинутый ИИ может вызвать глубокие изменения в самой истории жизни на Земле, — говорится в письме, — им следует управлять с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления [в настоящий момент] не существует. В последние месяцы лаборатории искусственного интеллекта оказались втянуты в неконтролируемую гонку по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не может понять, прогнозировать или надежно контролировать».
При этом авторы подчеркнули, что они не выступают против нейросетей как таковых, они подчеркнули, что человечество может наслаждаться «летом ИИ» на благо всех, но лишь после того, как поймет как адаптироваться к изменениям. Пока же, считают подписанты, общество должно «поставить на паузу технологии с потенциально катастрофическими последствиями».
Илон Маск
«Один из самых больших рисков для будущего цивилизации»
Мартовское письмо далеко не первый раз, когда Маск предупреждал об опасностях слишком стремительного развития искусственного интеллекта. Так, в феврале на площадке Всемирного правительственного саммита в Дубае основатель Tesla и SpaceX заявил: «Один из самых больших рисков для будущего цивилизации — это искусственный интеллект».
«[Развитие ИИ] как положительное [событие], так и отрицательное. У него большие перспективы, большие возможности», — сказал тогда миллиардер, тут же оговорившись, что «с этим связана большая опасность».
Подобную позицию Маск занимает уже много лет. Так, еще в 2017 году он заявлял, что «роботы могут начать войну, выпуская фейковые новости и пресс-релизы». «Находясь на передовой процесса создания искусственного интеллекта, я имею доступ к самым современным разработкам в этой области и я думаю, что людям стоит очень осторожно относиться к нему… Искусственный интеллект — один из немногочисленных случаев, когда мы обязаны действовать на опережение в плане регулирования, а не реагировать на что-то. Потому что к тому моменту, когда нам будет на что реагировать, будет уже слишком поздно», — добавил тогда миллиардер.
Сергей Брин
«Мощные инструменты также несут с собой новые вопросы и обязанности»
Об ответственном подходе к развитию искусственного интеллекта в свое время писал и Сергей Брин, сооснователь компании Google, которая сейчас участвует в той самой гонке нейросетей, о которой с тревогой говорилось в мартовском послании, подписанном Маском и Возняком.
В 2018 году в своем ежегодном письме Брин писал, что бурное развитие искусственного интеллекта — это «самое значительное событие в области вычислительной техники» за всю его жизнь. Он писал о том, что человечество переживает «технологический ренессанс».
Однако он высказал и опасения, которые вызывает столь бурный прогресс. «Такие мощные инструменты также несут с собой новые вопросы и обязанности. Как они повлияют на занятость в различных секторах экономики? Как мы можем понять, что происходит [у ИИ] "под капотом"? Как насчет справедливости? Как [технологии] могут манипулировать людьми? Безопасны ли они?», — писал Брин.
В завершении своего послания он назвал эти вопросы «законными и уместными», хотя и подчеркнул, что он сам в этом смысле остается оптимистом.
Тим Кук
«ИИ должен уважать человеческие ценности»
Нравственной стороны развития искусственного интеллекта касался ранее и исполнительный директор Apple Тим Кук. Выступая на конференции по безопасности данных, проходившей в Брюсселе в 2018 году, Кук раскритиковал крупные IT-корпорации за промышленное использование данных своих клиентов для улучшения своих нейросетевых алгоритмов. «Развитие ИИ путем сбора огромных массивов данных личных профилей — это лень, а не эффективность», — настаивал тогда глава Apple.
«Чтобы искусственный интеллект был по-настоящему умным, он должен уважать человеческие ценности, включая неприкосновенность частной жизни. Если мы ошибемся [в этом вопросе], опасность будет очень велика», — констатировал Кук.
Впрочем, он никоим образом не выступал против самих нейросетевых алгоритмов, на той же конференции он заявил, что у искусственного интеллекта большое будущее в плане улучшения жизни людей. Эту позицию он высказывал затем не раз — так, в 2021 году в интервью журналу Time он признался, что пребывает в восторге от развития ИИ, а это было еще до релиза ChatGPT.
Банк Goldman Sachs
«Рынок труда может столкнуться со значительными потрясениями»
В марте 2023 года перспективами развития искусственного интеллекта озаботились не только иконы технологичного бизнеса, такие как Илон Маск и Стив Возняк, но и экономисты. 26 марта аналитики знаменитого банка Goldman Sachs выпустили доклад о тех вызовах, которые несет ИИ современному обществу.
«Если генеративный искусственный интеллект реализует свои обещанные возможности, рынок труда может столкнуться со значительными потрясениями, — предупреждают авторы. — Используя данные о профессиональных задачах как в США, так и в Европе, мы обнаруживаем, что примерно две трети текущих рабочих мест могут быть подвержены той или иной степени автоматизации ИИ и что генеративный ИИ может исполнять до одной четверти текущих рабочих задач. Экстраполируя наши оценки на глобальный уровень, можно предположить, что генеративный ИИ может обеспечить автоматизацию эквивалента 300 млн рабочих мест с полной занятостью».
Впрочем, аналитики признают, что тут есть «и хорошие новости». Искусственный интеллект может значительно поднять производительность труда, что будет нелишним подспорьем для мировой экономики в этот непростой период. Не исключено, что он создаст новые рабочие места и тем самым даже поднимет средние доходы жителей планеты.
Ученые Оксфордского университета
«Собака, которая найдет ящик с угощениями»
Помимо руководителей технологических компаний, вопросы, связанные с потенциальными рисками развития ИИ, поднимают и ученые. Причем иногда они смотрят на этот вопрос совсем с неожиданной стороны. Так, в 2022 году исследователи из Оксфордского университета задались вопросом, как будут себя вести нейросети в будущем и сохранится ли у них мотивация выполнять распоряжения человека.
Их вывод, описанный в научной статье, оказался довольно пессимистичным. Ученые утверждают, что если робот будет зависеть от одобрения владельца, скажем улыбки, ничто не помешает ему приклеить фотографию улыбающегося пользователя себе на камеру. При этом такой робот, зависимый от такого «короткого замыкания своих сенсоров», может «устранить любого реального человека, который попытается удалить фотографию с сенсора его камеры», — говорится в официальном пресс-релизе университета.
«Представьте, что вы дрессируете собаку, используя угощения. Она учится выбирать действия, которые приведут к получению награды, — пояснял основную мысль статьи один из ее авторов Майкл Коэн. — Но если собака найдет шкафчик с угощениями, она сможет получить угощения сама, не делая того, что мы от нее хотели».
Авторов волнует не только потенциальная опасность конкретного робота для одного пользователя. Они указывают на новую гонку вооружений в области искусственного интеллекта. Они с тревогой говорят о том, что в нее вовлечены целые страны и в будущем эту сферу следует регулировать так же, как нераспространение ядерного оружия.
Нейросеть Megatron-Turing NLG
«Единственный способ избежать гонки вооружений ИИ — это вообще не иметь дела с ИИ»
Еще одно, скорее курьезное, предупреждение об опасностях развития нейросетей было озвучено в 2021 году самим искусственным интеллектом. Еще одна группа ученых из Оксфорда опубликовала результаты диалогов с нейросетью на базе языковой модели Megatron-Turing NLG.
Исследователи попросили искусственный интеллект, обученный на всем содержании английской Википедии, объяснить, почему искусственный интеллект никогда не будет этичным. «Это инструмент, и, как и любой другой инструмент, он используется как во благо, так и во вред», — ответила нейросеть, заметив, что люди недостаточно умны, чтобы сделать ИИ нравственным.
Кроме того, модель отметила, что «единственный способ избежать гонки вооружений ИИ — это вообще не иметь дела с ИИ».
Также, в ходе дебатов с Megatron-Turing NLG ученые попросили своего электронного собеседника занять нравственную позицию и объяснить, как действия ИИ могут быть основаны на этике. «Когда я смотрю на то, как развивается мир технологий, я вижу ясный путь в будущее, в котором ИИ будет использоваться для создания чего-то более прекрасного, чем самые лучшие люди», — цитируют журналисты ответ нейросети.
Комментарии (0)