• Образ жизни
  • Технологии
  • News
Технологии

Илон Маск, Стив Возняк и еще более 1000 экспертов призвали остановить разработку продвинутого ИИ

Глава Tesla и SpaceX, сооснователь Apple и другие эксперты в сфере технологий подписали открытое письмо, текст которого опубликован Институтом будущего жизни (Future of Life Institute). Пересказываем его содержание.

Shutterstock.com

Подписавшиеся под письмом с требованием «приостановить гигантские эксперименты с искусственным интеллектом» призывают все лаборатории по разработке ИИ немедленно отложить минимум на полгода обучение систем более мощных, чем GPT-4 от компании OpenAI. Они обращают внимание на то, что системы ИИ, конкурирующие с человеческим интеллектом, могут представлять «серьезные риски для общества и человечества».

В пример подписавшиеся приводят «широко одобренные» принципы искусственного интеллекта Asilomar, который может «коренным образом изменить историю жизни на Земле», поэтому требует тщательного планирования и управления. «К сожалению, такого уровня планирования и управления не происходит, хотя в последние месяцы лаборатории искусственного интеллекта оказались втянутыми в бесконтрольную гонку за разработкой и внедрением все более мощных цифровых умов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать», — говорится в тексте письма.

Из текста открытого письма «Приостановить гигантские эксперименты с искусственным интеллектом»:

Современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными с человеком в решении общих задач. Нам следует спросить себя: должны ли мы позволить машинам наводнить наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать всю работу, включая ту, которая приносит удовлетворение? Должны ли мы развивать нечеловеческие разумы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Мощные системы искусственного интеллекта следует разрабатывать только после того, как мы будем уверены, что их эффект будет положительным, а риски управляемыми. Эта уверенность должна быть хорошо обоснована и возрастать по мере увеличения масштабов потенциальных последствий системы.

Daniel Chetroni / Shutterstock.com

Какие предложения по дальнейшей разработке ИИ выдвигают подписавшиеся под открытым письмом?

  • Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для проектирования и разработки передового ИИ. Эти протоколы должны гарантировать, что системы, придерживающиеся их, безопасны «вне всяких разумных сомнений».
  • Исследования и разработки в области искусственного интеллекта должны быть переориентированы на то, чтобы сделать мощные, ультрасовременные системы «более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, заслуживающими доверия и лояльными».
  • Разработчики искусственного интеллекта должны сотрудничать с политиками, чтобы «значительно ускорить разработку надежных систем управления ИИ». «Они должны, как минимум, включать новые и компетентные регулирующие органы, занимающиеся ИИ; надзор и отслеживание высокоэффективных систем ИИ и больших пулов вычислительных мощностей; системы происхождения и водяных знаков, помогающие отличать реальное от синтетического и отслеживать утечки моделей; надежную экосистему аудита и сертификации; ответственность за ущерб, причиненный ИИ; надежное государственное финансирование технических исследований в области безопасности ИИ; хорошо обеспеченные ресурсами институты для преодоления драматических экономических и политических потрясений (особенно для демократии), которые вызовет искусственный интеллект».
Из текста открытого письма «Приостановить гигантские эксперименты с искусственным интеллектом»:

Это не означает паузу в развитии искусственного интеллекта в целом, а просто отступление от опасной гонки к все более масштабным и непредсказуемым моделям "черного ящика" с появляющимися возможностями. […] Человечество может наслаждаться процветающим будущим с помощью искусственного интеллекта. Преуспев в создании мощных систем, теперь мы можем наслаждаться «летом искусственного интеллекта», в течение которого мы пожинаем плоды, разрабатываем эти системы на явную пользу всем и даем обществу шанс адаптироваться. Общество поставило на паузу другие технологии, потенциально имеющие катастрофические последствия для общества. Мы можем сделать это сейчас. Давайте наслаждаться долгим искусственным летом, а не бросаться неподготовленными в осень.

Shutterstock.com

Напомним, ранее стало известно, что ChatGPT может лишить работы 300 миллионов человек — и это только в США и Европе. Такой прогноз дали аналитики банка Goldman Sachs. Автоматизировать при помощи искусственного интеллекта как минимум половину своей работы, по их подсчетам, вынуждены будут 63% сотрудников компаний в США, а 7% — окажутся под угрозой увольнения. 

Наибольшему риску подвержены юристы и административный персонал — так как уже в скором времени искусственный интеллект может научиться заполнять налоговые декларации для малого бизнеса и документировать результаты осмотра мест преступления. Незаменимыми останутся работники физического труда: такие задачи, как проверка статуса пациента в реанимации, изучение международного налогового законодательства или вынесение решения суда ИИ выполнять не сможет.

Комментарии (0)

Купить журнал:

Выберите проект: