18+
  • Развлечения
  • Кино и сериалы
Кино и сериалы

Поделиться:

Нейросети в кино: это будущее или крах индустрии? Обсудили с экспертом

На фоне премьеры нового сезона «Черного зеркала», в котором одну из серий (действительно удачный эпизод «Отель "Мечта"»!) посвятили съемкам фильма с помощью продвинутой нейросети, зрители и критики опять обсуждают, стоит ли за технологиями блестящее будущее кинематографа или они уверенно тащат его в бездну. Практически каждый месяц в индустрии происходит либо скандал с использованием ИИ (самый масштабный — сгенерированный венгерский акцент Эдриана Броуди и Фелисити Джонс в «Бруталисте» Брэйди Корбе), либо говорят об очередном шаге к картинам с минимальным участием человека (многих впечатлила короткометражка The Heist, созданная Google Veo 2 из текстового описания). Собака.ru обсудила с доцентом ИТМО Алексеем Комиссаровым, энтузиастом нейросетей, перспективы их развития в кино. 

Кадр из фильма «Бруталист»
Brookstreet Pictures, Kaplan Morrison, Intake Films, 2025

Кадр из фильма «Бруталист»

 

Как нейросети захватывают кинематограф и производство видео?

За последние несколько лет за новостями о влиянии ИИ на производство фильмов и видеоконтента практически не уследить. Только за этот год можно вспомнить как минимум несколько. Во-первых, скандал с фильмом «Бруталист» — претендента на «Оскар» обвинили в использовании нейросетей для имитации венгерского акцента.

Во-вторых, высказывания Николаса Кейджа («технологии крадут лицо, голос, движения и душу»), Роберта Дауни-младшего («мои адвокаты будут очень активны, если после моей смерти вы сделаете цифровую копию») и Джеймса Кэмерона, который сначала заявил, что реальность ИИ страшнее любой его фантазии, а затем резко поменял мнение и признал, что хочет использовать нейросети для экономии на съемках.

В-третьих, историю с нью-йоркским адвокатом Джеромом Дьюлдом, который отправил в суд по видеосвязи свой цифровой аватар и этим сильно смутил судью: та увидела в этом манипуляцию и потребовала у него лично явиться в суд.

При этом практически каждый день появляются сообщения о том, как нейронные сети научились делать практически неотличимые от оригинала отрывки из, например, «Тома и Джерри» или очередной режиссер собирается снять фильм только усилиями компьютерных технологий. Не говоря уже о том, что соцсети переполнены сгенерированными картинками и видео, а обновления высокоинтеллектуальных программ выходят с пугающей скоростью.

Кадр из сериала «Черное зеркало»
Netflix, 2025

Кадр из сериала «Черное зеркало»

Как ситуацию видит эксперт?

Узнали у Алексея Комиссарова, доцента института прикладных компьютерных наук ИТМО и большого энтузиаста в изучении тенденций развития нейросетей.

Уже посмотрели новый сезон «Черного зеркала»? Там как раз есть сюжет о пересъемках классики Голливуда в условиях виртуальной реальности.

В процессе, серию про кино уже посмотрел. Пока для меня лучшая!

Это, конечно, научная фантастика, потому что героиню практически погружают в «Матрицу». А к ней мы за 26 лет с момента выхода фильма Вачовски как-то не особо приблизились. Тем не менее, это все равно породило разговоры, сможет ли (и когда) нейронная сеть создать удобоваримый фильм с внятным нарративом — не ролик, а именно кино длиной хотя бы полтора часа, которое можно будет показывать на фестивалях.

Вангую, что уже летом этого года. Скорее всего, к осени кто-нибудь его уже сделает. Если бы меня спросили неделю назад — я бы назвал 2026 год, но с позавчерашним выпуском Veo 2 (модель искусственного интеллекта для создания видео, разработанная Google. — Прим. ред.), который стал доступен абсолютно всем в бесплатных и платных подписках, сроки поменялись. Это классный сервис, который был жутко дорогим, но на нем получается делать очень красивое кино. Просто другой уровень генерации видео по сравнению с остальными. Так что короткометражные фильмы уже делают, те даже участвуют в фестивалях.

Есть целый телеканал СI+ (платное цифровое телевидение. — Прим. ред.), где VoD (видео по запросу. — Прим.ред.) генерируется машиной. Все это происходит прямо сейчас и активно развивается. Тут не нужно быть футурологом — короткие фильмы по полчаса уже делают. Я бы поставил вопрос так: будет ли у нас к концу года блокбастер, сделанный машиной. Или драма, психологический триллер — мы же в последний месяц можем еще и генерировать любые голоса с любыми эмоциями. Я говорю «месяц, неделя, день»: но все развивается с такой скоростью, что нейросеть сегодня рассказывает про свою новую модель, а вчера — про предыдущую. Время сжимается.

Кадр из фильма The Heist, созданного с помощью модели Veo 2

Кадр из фильма The Heist, созданного с помощью модели Veo 2

А что с легальностью контента?

Это самый уязвимый момент. Как сделать так, чтобы актеры, сценаристы и режиссеры, например, из Голливуда не подавали иски. А ведь есть еще Китай, Россия и множество других стран с развитым авторским правом. Но наверняка будет и кто-то, у кого законы более мягкие.

Обсудим техническую сторону: мы говорим про Veo 2, но у них есть конкуренты — Sora и Runway.

Да, Runway, в первую очередь, хотя есть еще Moviegen. Runway — ключевые игроки. Пока получить доступ можно на самых дорогих подписках, зато у них персонаж становится консистентным между сценами. Генерация идет маленькими кусочками буквально по пять секунд. Очень долго проблемой было как сделать так, чтобы персонаж сохранялся между отрезками. И полтора месяца назад они выкатили модель Gen 4. Она открывает дорогу к фильму, где персонаж все экранное время будет выглядеть одинаково. В Sora пока этого добиться нельзя.

При этом есть очень много бесплатных подписок — из-за этого мы наблюдаем периодически тренды в соцсетях. Например, недавно все массово делали картинки в стиле студии Ghibli. В какой-то момент мы можем проснуться и увидеть кучу фильмов, которые люди снимут с помощью ИИ про себя и своих друзей.

Кадр из сериала «Черное зеркало»
Netflix, 2025

Кадр из сериала «Черное зеркало»

 

А как быть с крупными студиями? Наверняка они захотят все это монетизировать. И как это повлияет на рынок труда? Многие сейчас опасаются, что сотни тысяч человек — операторы, художники и так далее — могут остаться без работы.

Как и во всех областях, профессионалы останутся, а людей, которые выполняли простую работу, заменят. Тут, к сожалению, других вариантов для нас нет. Но в целом я ставлю на рассвет инди. Как было с играми — каждый новый бесплатный движок приводил к тому, что появлению кучи инди-образцов. Появится куча независимых фильмов — другой вопрос, что большая часть из них окажется невыносимо низкого качества. Но будут и алмазы.

А большие студии, конечно, включатся, но далеко не сразу: вопросы легальности, иски, забастовки, контракты, прописанные планы фильмов. Перестроиться будет сложно, поэтому революция пойдет снизу. Поэтому нас, скорее всего, ждут открытия новых режиссеров и студий. Как потребители мы выиграем.

Но большая техническая работа все равно остается.

Фильм делается из большого количества кусочков — их нужно склеить, сделать переходы. Работа ускоряется, но все равно остается сложной. В целом есть два пути: можно генерить фильмы, а можно стилизовать: под любое окружение, фигуры. Раньше для этого нужен был зеленый экран, сейчас достаточно видео с телефона и запроса: «Нарисуй мне в стиле "Властелина колец", как я хожу по кухне».

И в заключение — чисто человеческий вопрос. С этической точки зрения мнения разделились: одни говорят, что нейронки убьют кино в нынешнем понимании, другие — что улучшат, и это будет новая эра, третьи — ожидают нечто среднее, когда по итогу ничего не изменится. Что думаете вы?

Если делать отсылку к «Черному зеркалу» — мы же не смотрим черно-белое кино. Мы знаем, что оно есть, там очень много шедевров. Но как для потребителя для меня даже фильмы 1980-х вроде «Чужих» уже безумно медленные. Произойдет скачок к еще более стремительному ритму: в кинематографе всегда шла борьба за зрителя — нужно было делать быстрее и увлекательнее. Так что я ожидаю, что нам расскажут гораздо больше интересных историй, которые по разным причинам до этого не попадали в кинотеатры. Будет интересно — и безумно сложно, какой фильм выбрать.

Комментарии (0)

Купить журнал: