EN
OreX
OreX
5 818 subscribers
goals
886.03 of $ 1 321 money raised
На развитие проекта и поддержку автора ☕

Stable Video Diffusion | Генерируем видео на ПК и в Сети

  Stable Video Diffusion - это новая технология для генерации видео. Видео можно генерировать из фотографии, то есть мы можем оживлять наши генерации. На данный момент SVD работает на ComfyUi, но скоро выйдет и расширение под Automatic 1111.
В этом видео вы узнаете как генерировать видео на вашем ПК. И если у вас слабая видеокарта, то вы можете воспользоваться бесплатным сетевым сервисом.

Меню:
00:00 - Вступление
01:39 - Установка Stable Video Diffusion на ComfyUI
05:49 - Обзор рабочего процесса SVD на ComfyUI
11:39 - Интернет сервис для генерации видео Decoherence
16:16 - Эпилог
Ссылки
Интернет сервис для генерации видео Decoherence: ссылка
Модели: ссылка
ComfyUI: ссылка
ComfyUI Manager: ссылка
🟢 Файл рабочего процесса:
OreX-SVD-1.json18.33 KbDownload
avatar
12700K+3070Ti (8гб) - этого хватит для установки локальной версии?
Не увидел/услышал в начале требований к железу
avatar
OreX, Спасибо, значит отложим на вечер на поэтапную установку с просмотром трех видео.
avatar
EXPROMT MAX, да конечно хватит
avatar
Спасибо большое, получилось запустить и сгенерировать. Но только очень много времени потратил на то, что выдавало ошибки из-за того, что ваши .json не сохраняют модели, то есть их заново нужно выставлять в ComfyUI. А я думал у меня с путями проблемы, или подключал неправильно - столько вариантов перепробовал, пока допетрил, ведь трогать то страшно было чего то в ComfyUI в первый раз ))
И кстати, видюхе хватает оперативы, а вот оперативы общей до 35 гигов кушалось из 64
И сразу же вопрос - а можно (и как) источником изначальной генерации сделать фокус?
avatar
OreX, не, я не про это. Это само собой, собственно, мне для этого больше всего и нужен он, что б анимацию уже готовым фоткам/изображениям давать.
А вот что бы избавиться от дополнительного шага, то есть открытия фокуса, генерации в нем, затем закрытия (потому что если фокус открыт, генерация видео в разы медленней). Да и вообще продуктивней всего сюда пришпандоривать фокус, а не стейбл, ибо он очень стабильные и хорошие результаты выдает по самому тупому промту, в отличии от стейбл, которому нужно километровый промт писать, что б получить красивую картинку.
avatar
EXPROMT MAX, не фокус сюда не приделать. Только паралельно запускать или поочередно если комп не тянет сразу оба интерфейса.
avatar
Добрый вечер!У меня ошибка вылезает:Спасибо заранее!!!   Prompt outputs failed validation
ImageOnlyCheckpointLoader:
- Value not in list: ckpt_name: 'SVD--\svd_xt.safetensors' not in (list of length 107)
CheckpointLoaderSimple:
- Value not in list: ckpt_name: 'juggernautXL_version6Rundiffusion.safetensors' not in (list of length 107)
avatar
GP studia, бро, очень похоже на мою. Модель поменяй на ту, что скачал на самом первом блоке - "генератор" и в блоке "SVD"
avatar
GP studia, нужно перевыбрать модель svd и checkpoint тоже
avatar
Перевыбрал модель но вылезает ошибка.Спасибо заранее!!!
avatar
норм разобрался
avatar
У меня почему то не заводится кастомная нода. Все поставились ок, последняя не хочет: 
(IMPORT FAILED) ComfyUI-VideoHelperSuite. Гугл не помог =(
avatar
OreX, а вот насчет движения совсем никак? А то оно у нас однотипное получается. Да, интенсивность меняется, я даже выкручиваюсь, приляпывая потом поверх всякие движняки. Но может можно туда прикрутить типа "слева направо", справа налево, снизу вверх, сверху вниз и тому подобное?
avatar
EXPROMT MAX, пока это первый релиз. Скоро добавят эти функции.
avatar
Если интересно, вот нагенерил), спасибо!
https://www.youtube.com/watch?v=pc4VTJoH4ug&ab_channel=RAMILGR
avatar
Вроде все сделал по инструкции, но выскакивает такая ошибка. В гугле пишут, что вроде модель не соответствует лоудеру, но вроде ничего не менял. Перекачал заново, кинул модель и в папку автоматика и в папку комфи, но все равно ничего не работает
avatar
Сергей Мухин, В Louder Checkpoint выберите модель.
avatar
Я только не понял - если картинку готовую ему подсунуть, то промт не нужен? Он сам понимает, что на картинке и рандомно действие делает?
avatar
OreX подскажи как исправить:
ERROR:root:Failed to validate prompt for output 59:
ERROR:root:* RIFE VFI 58:
ERROR:root: - Value not in list: ckpt_name: 'sudo_rife4_269.662_testV1_scale1.pth' not in ['rife40.pth', 'rife41.pth', 'rife42.pth', 'rife43.pth', 'rife44.pth', 'rife45.pth', 'rife46.pth', 'rife47.pth', 'rife48.pth', 'rife49.pth']
ERROR:root:Output will be ignored
ERROR:root:Failed to validate prompt for output 51:
ERROR:root:* CheckpointLoaderSimple 46:
ERROR:root: - Value not in list: ckpt_name: 'juggernautXL_version6Rundiffusion.safetensors' not in (list of length 30)
ERROR:root:Output will be ignored
avatar
Atol51, похоже нужно выбрать модель
avatar
Попробуйте manager - all update и перезапустить ComfyUi
avatar
Здравствуйте. У меня тоже ошибка. Причем confyUI только сегодня установила, и модель скачала и выбрала. Запущен в Linux Ubuntu
И такая ошибка выскакивает не только на ваш файл. Вот тут https://comfyanonymous.github.io/ComfyUI_examples/video/ образцы для генерации видео. Первый образец, где из картинки видео, он работает. А второй, где из текста в картинку, а потом в видео -- та же ошибка. Подскажите, пожалуйста. Что я делаю не так?
avatar
OreX, А у меня еще один вопрос. Подскажите, пожалуйста. Нод RIFE VFI что означает и для чего он? Вроде и без него все работает. Все остальные более менее поняла, а этот не нашла пока пояснений. Буду очень благодарна.
avatar
Юна Ариманта, это интерполятор кадров
avatar
добрый день после установки файла рабочего процесса,и обновления расширения ,перезагрузил комфи юа,стал показывать вот такую ошибку
avatar
My lineage tv, впервые такое вижу. Но для полноценной работы с ComfyUi поставьте отдельную версию. В ComfyUi должен быть python 3.11 который нужен для работы большинства расширений, а A1111 работает на python 3.10. То что в сборке стоит оно проверенно, остальное не факт что будет под automatic работать в ComfyUi.
avatar
комви находиться в автоматике
avatar
Спасибо за урок, на 3090 генерирует довольно быстро. Единственный вопрос, можно ли как-то добавить "ноду" в которой я смогу прописать в промте, что я хочу получить от этого видео. Например, чтоб модель улыбнулась, или присела, подпрыгнула, камера чтоб зумировалась или повернулась по оси. Может есть возможность загрузить первый кадр и последний, а промежуточные нейронка сама допилит. Есть какой-то более точный контроль того что будет происходить во время генерации?

Subscription levels

Поддержать автора

$ 2,65 per month
✔ Если появится платный контент, то с подпиской будет доступен. 
✔ Карма выше.
Go up