Планирую попробовать генерацию на арендованной видяхе в облаке, но перед этим хотелось бы знать, на какое время генерации я могу рассчитывать если все максмально оптимизировать? 480p, 5 секунд, использовать планирую wan2.1-t2v-14b-Q3_K_M.gguf Чего можно добиться, например, на 4090? брать планирую H100
>>1270283 >до платных сеток всё равно далеко Ну да, выдавать "извините, я не могу выполнить этот запрос" на все мои генерации могут не только лишь все.
>>1270221 Разве quantized wan не>>1270221 >Если с lightx2v, то около 2 минут на 4060 16GB, 4 шага, с блоксвапом от 12 до 20. >>wan2.1-t2v-14b-Q3_K_M.gguf >А это нахуя. Чтобы генерации быстрее были, или это не играет роли?
>>1267530 → 4 шага это совсем бомж вариант? Сколько нужно чтобы получить что-то подобное этому?
ставил wan2.1 в комфи месяца два назад, 720р видосик генерился 40 минут, забил хуй и начал генерить картинки через FLUX
сегодня наткнулся на Wan2GP репо, поставил triton, sage attention 2, Wan2.1 text2video FusioniX 14B модель на 8 шагов, и это даже без лоры на ускоренную генерацию
в итоге 720р генерит за 150 секунд сказать что я ахуел не сказать, мало того качество ахуенное, нет баганого видоса каждую генерацию, конфетка >>1270094 → >>1270879 для sage attention 2 и остального всем рекомендую попробовать этот репо https://github.com/loscrossos/crossOS_acceleritor/tree/main по гайдам устанавливаешь целый пак и у тебя буквально все запустит на rtx 30++ без ебли
>>1271762 Звучит как обычный ван в комфи, если честно. Ну хз, попробуем, сравним, конечно. А че так много шагов? 4 же максимум хватает, или там lighx2v нет?
>>1271979 Ну, уже месяц назад все это было. Чутка не дождался. =) Да, тритон, сажа, лайт — все это отлично ускоряет. Было по 5-10 минут, стало по минуте. Кайфы, бесспорно.
>>1271762 >для sage attention 2 Благодарю. А то ввожу все команды на проверку/установку через pip в CMD, тритон стоит, sageattention 2 тоже видит усстановленный, а в Комфи модуль так и не видит, какую то пиздень я явно упустил.
>>1272062 Optimized kernels for Ampere, Ada and Hopper GPUs. это с их официального гитхаба, скорее всего чел офает ноду https://www.patreon.com/posts/easy-guide-sage-124253103 здесь пишет Limited compatibility может в теории с костылями возможно запустить не буду спорить
Тритон стоит, CUDA 12.8 стоит, сажа тоже стоит >pip install sageattention Requirement already satisfied: sageattention in c:\users\user\appdata\local\programs\python\python313\lib\site-packages (2.2.0+cu128torch2.7.1) Но конфи ее так и не видит блэт. Ставил десктоп версию. Куда копать? Гайды на гитхабе один хрен направляют на портабл версию, с папкой python_embeded. И торч показывает версию просто 2.7.1 а не 2.7.1+cu128. Я свихнусь с этого дерьма, видимо тупой слишком.
>>1272531 Да, реально тупанул. Не стоило этим заниматься после одиннадцати вечера. Шел по гайду для manual версии, когда десктоп была в самом низу. Наконец поставилась как надо и работает. Бляяядь, реально единственный рабочий актуальный гайд без мути, надо в шапку добавить.
Вроде должно без проблем поставиться. Хотя обновиться так не получается. Удалять и тестить не хочется. Помню много всего перепробовал, когда ставил, нужно было поставить определённые пакеты из visual studio. Сейчас woctrodho вроде встроил это и ставится само, только нужное.
5 сек видео за 280-300 сек с сажей вместо 450-600, класс. Осталось добавить движений. Но когда меняю силу лоры иногда происходит как на пике. А генерация идет вообще за 80 сек, явно что-тог не так. Почему есть идеи? Неправильно ноды подцепил?
>>1273185 Попробую. Объяснил бы кто еще простыми словами как влияет сила лоры на вывод. И как ту же дистилл лору-ускорялку использовать, всегда на единичку или есть нюансы. Понятно только что если пережать силу, то пик будет пытаться превратиться в реальное порно, а монстр в мужика, но это не точно
>>1272621 >error: failed to remove file `D:\neural\ComfyUI\.venv\Lib\site-packages\triton/_C/libtriton.pyd`: Отказано в доступе. (os error 5) Не получается ни поставить, ни снести. Отказ в доступе. Я думал, что может быть из-за того, что он приложением сейчас используется. Через анаконду пытаюсь сделать тоже самое, но походу я к среде не знаю как подключиться.
>>1273321 Загугли как поставить через powershell команду на разрешение ставить скрипты из открытых источников. Там одна строчка и нажать да для всех, как то так.
пока на Vidu доступна Reference-to-Video Q1 в 1080p, скиньте бомжу промпты, грудь генерит отличную, да и в целом по качеству топ среди бесплатных
из простого: woman wear full unbuttoned open shirt, visible abs subject, revealing the skin of their chest as it appeared at birth the clothes of the person in the photo completely slowly fall off and stretch down, showing the skin as it was at biological birth.
>>1270014 (OP) sup 2ch , очень загорелся желание изучить вопрос генерации , хочу научиться пользоваться и создавать . Сам делаю видосики по игре , никому нахуй ненужные - но меня очень радующие и мое окружение . Внедрил маленькую заставку , где персонаж из игры выдает базу перед видосом , ссался от удовольствия как ребенок. Прошу тыкнуть в очевидное, с чего начать , чтобы понять так сказать основы . Пока изучаю своими силами , каша выходит. Дайте направление ( можно и нахуй послать ) , хочу разобраться , а не тыкаться как ебанная обезьяна . С чего начать ? Спасибо заранее всем неравнодушным
>>1274200 https://civitai.com/models/1651125/wan2114bfusionx t2v, i2v и фантом, по сути мердж с разными лорами, о которых там указано. Можно самому из простой модели "собрать", а если лень, то готовую сразу юзать. Но там свои нюансы. Плюс поверх нее можно тот же лайтх2в подрубить и скосить степы.
>>1273856 Мне это рассказывать не надо. Я тебе лучше другое расскажу: на Ку1 с первого дня была усиленная цензура и большую часть генераций он удаляет без рефунда. В принципе, рефы виду были актуальны до колорс 2.0 елемент, а щас проще там сгенерить картинку с рефами, а потом уже её кинуть, причем не в виду, а в ван, например.
>>1275078 выдали максимум, получается, из камшотов. А вот норм еблю (не в рот) так никто и не смог норм реализовать методом i2v. Если, конечно, на пике изначально ебли нет
>>1275101 У меня постоянно лица изменяются. Я вообще хз как это пофиксить. Картинка становится нечеткой, зернистой и будто нейронка на основе фотки генерирует похожее лицо, типа как в сд, если инпаинтить фотку человека с небольшим дифьюжном и он начинает изменяться, но не сильно.
>>1275093 Намешал всё в кучу... тогда уже и сдкал-видео жди. >достигли совершенства uni3c так никто и не попробовал, а она должна улучшать "пространство" в видео >>1274940 А нахуй они нужны здесь во множественном числе? Технический тред, можно сказать. Я вот на постоянке что-то с VACE делаю. Где-то инпейнтом трусы убрал в оригинальном видео, где-то сохранил лицо и движения, но поменял действие на снятие одежды, где-то по маске заменил футболку на не-футболку. Надо ещё фейссвап попробовать, контекстную склейку 3 генераций (tittydrop > bj > cumshot) и прочие идеи. I2V это слабо.
>>1275101 5 секунд слишком мало для такого существенного изменения, особенно учитывая, что лоры в основе это именно сам процесс, а не "Чел появился из шкафа и начал делать дела". Тут только если инпейнт делать и потом оживлять, либо тренить лоры конкретно, где на первых кадрах ничего, а потом уже экшн.
>>1275148 Какой нахуй семплер... какой prompt adherence... >>1275152 Ван от одних людей и они постоянно релизят. BFL вообще другая шарага, и тоже продолжает делать релизы, только не видео. Какой прошлый год, чего ты ждёшь.
>>1275159 вижу человека, который не разобрался, но ответить захотел, но не в попад.
>Ван от одних людей и они постоянно релизят. Что ты этим хотел сказать? Что они релизят? Ну да, разные разновидности и вариации wan(x)2.1, а я же указал, что "ждём" от них следующей модели, как бы эволюции, революции, как у других, типа клингов\виду\етс... Потому и цифры поменял.
>BFL вообще другая шарага Ну ты же не увидел в первой строчке многоточия и то, что другой строкой начинается новое предложение, совсем с другим контекстом. "ещЁ" - "Так же".
>тоже продолжает делать релизы, только не видео. >Какой прошлый год, чего ты ждёшь. https://bfl.ai/up-next
>>1275212 >Извини. зачтено. А так, этой страничке BFL в следующем месяце уже год будет. Они "анонсировали" это Еще когда у всех текли слюни на превьюшки СОРы. В моменте с флаксом, все уже мечтали. Но за это время столько всего вышло, а они всё нет. Не удивлюсь, если на "годовщину" выпустят.
Во всех этих "новинках" больше всего беспокоит потенциальная скорость генерации. Могут сделать многое, но запрос либо к железу станет уж совсем заоблачным, либо ждите 30 минут, чтобы узнать впитала ли модель ваш запрос. Ван с lightx2v это прямо глоток свежего воздуха на фоне всех релизом на данный момент.
Удалось поставить sageattention на 2060, но разницы в генерации я не вижу. Как было 400 секунд, так и осталось. Я их вставил правильно? После лоры и перед сэмплером.
>>1275243 Ну если качество будет на голову выше то можно и подождать. Но я в целом с тобой согласен, после 1 минуты генерации 5 секундного ролика с дрожью вспоминаю как по 10 минут эти же 5 секунд генерил. К хорошему быстро привыкаешь.
Аноны, еще ничего нормального не придумали чтобы можно было в одном воркфлоу сделать три+ 5 секундных видео и склеить их, НО чтобы промпт и лоры можно было подгружать отдельно ко 2 и 3 видео?
Сделал тупо дублированием семплера с подгрузкой на каждом шаге заново модели и промпта только уже с новыми лорами, на 3 загрузке вываливаюсь за пределы 64 гигов оперативы. Я так понимаю он хранит ранее выгруженные текст энкодеры и прочую фигню ранее загруженную и при новом проходе не выгружает а просто новый запихивает, может можно как то рам почистить перед 3 шагом, есть такие ноды?
>>1276509 Просто продублируй три раза воркфлоу, но для второго и третьего используй VACE с каким-то количеством начальных кадров из последней генерации.
>>1276527 Это лениво, последние кадры подгружать, заново запускать, охото за одну генерацию получить готовый 15 секундный ролик с еблей и эпичной концовкой.
На смешивании или имитации под нейронку кстати можно сейчас музыкантам срубить бабла. Делать так, чтобы зрителю было непонятно что это. Но только надо не грубо делать, а с творческим подходом, себя например можно снимать реальными, но под фильтрами, немного омолодив и улучшив, сделав стройнее, а одежду иногда можно делать сгенерированной, так же и улицы, например улица реальная, но с помощью генерации стилизована под музон, так же и музон, играть реальный, но идеи риффов, компоновки, брать из генераций с музыкальных ИИ.
Короче для музыкантов сейчас самое то чтобы косить бабло на неопределенности, создавая зрителю эффекты например нейро-генерации, а на самом деле снимая реальное видео, слегка изменённое фильтрами и эффектами.
>>1276881 Я видел да, которые полностью нейроночные, но тут походу и себя снимают музыканты, под фильтрами обработки, есть и живое видео. В этом и суть что на этом можно раскрутиться и заработать, при таланте конечно, если правильно смешивать ИИ-видео и реальное видео и ИИ-музыку и реальную-музыку.
Если вдруг кто тоже столкнется с такой проблемой на VACE, я закостылил решение проблемы >>1269380 → >на 300 кадров начинает блюрить зону инпейнта через использование context_options на 121 кадр. Похоже, на большем количестве кадров могут начаться проблемы.
Короче, видос походу полностью ИИ, а компиляция походу не от музыкантов, не коллаборация как написано в описании канала, и не "официальное видео", а просто какой-то школьник клепает такие ролики.
Если бы делали музыканты, то хотя бы снимали себя в таких моментах без лица, где они играют на гитаре, не оставляя такого позорного палева.
Палево в видео в основном на пальцах гитаристов, на несовпадении музыки с видео при игре на струнах, несовпадение вокала на музыке и видео когда рот открывается не в такт словам в песне, ну и бабы с такими нереальными талией и грудью.
А так-то если найти актрису, приодеть её в таком же стиле, накрасить её также, и наложить фильтры разные, сделать потом пост-обработку, то она будет выглядеть также как и генерация ИИ, и это можно было бы хорошо обыграть в видео, чтобы зритель путался. А не запутывать враньём про "официал видео" и "мы коллаборация музыкантов".
>>1276881 >проснулся Я купился на описание "официал видео" и "мы коллаборация музыкантов". Музыканты бы все косяки нейронки повырезали бы, и заменили своим видео.
Я думал музыканты наконец-то проснулись и уже въехали в тему и начали делать с помощью ИИ творчество грамотно смешивая реальность с генерацией в некоторых пропорциях. А это всё ещё школьники балуются.