Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 521 178 77
ТЕХНОТРЕД №3 ИТТ делимся результатами обучения, советами, лайфхаками, наблюдениями, обсуждаем внутр /tech/ Аноним 27/01/23 Птн 13:51:37 82417 1
.png 979Кб, 3510x2910
3510x2910
.png 281Кб, 1356x1838
1356x1838
.png 480Кб, 1733x1036
1733x1036
ТЕХНОТРЕД №3

ИТТ делимся результатами обучения, советами, лайфхаками, наблюдениями, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем
Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются

➤ Гайды по обучению

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
Текстуальная инверсия (Textual inversion) может подойти, если сеть уже умеет рисовать что-то похожее:
https://rentry.org/textard (англ.)
Гиперсеть (Hypernetwork) может подойти, если она этого делать не умеет; позволяет добавить более существенные изменения в существующую модель, но тренируется медленнее:
https://rentry.org/hypernetwork4dumdums (англ.)
Dreambooth – выбор 24 Гб VRAM-бояр. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://github.com/nitrosocke/dreambooth-training-guide (англ.)
LoRA – "легковесный Dreambooth" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением:
https://rentry.org/2chAI_LoRA_Dreambooth_guide
Text-to-image fine-tuning для Nvidia A100/Tesla V100-бояр:
https://keras.io/examples/generative/finetune_stable_diffusion/ (англ.)
Бонус. ✱ Text-to-image fine-tuning для 24 Гб VRAM:
https://rentry.org/informal-training-guide (англ.)

➤ Гугл колабы
﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA [1] https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
﹡LoRA [2] https://colab.research.google.com/drive/1bFX0pZczeApeFadrz1AdOb5TDdet2U0Z

➤ Полезное
Гайд по фиксу сломанных моделей: https://rentry.co/clipfix (англ.)
Расширение WebUI для проверки "сломаных" тензоров модели: https://github.com/iiiytn1k/sd-webui-check-tensors
Гайд по кручению весов слоев моделей: https://rentry.org/mp2dt
Гайд по апскейлу: https://rentry.org/SD_upscale
Подборка мокрописек от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)
Коллекция лор от анонов: https://rentry.org/2chAI_LoRA (заливать лоры можно сюда https://technothread.space/ пароль 2ch)
Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/gayshit/makesomefuckingporn
Сервер анона с моделями: https://static.nas1.gl.arkprojects.space/stable-diff/

Шапка: https://rentry.org/ex947
Прошлые треды:
№1 https://arhivach.ng/thread/859827/
№2 https://arhivach.ng/thread/860317/
Аноним 27/01/23 Птн 14:01:00 82440 2
.png 61Кб, 796x648
796x648
Для тех кто не увидел из-за бамплимита в прошлом треде, рекламирую еще раз. Теперь у лоры есть гуй:

https://github.com/anon-1337/LoRA-train-GUI/releases/tag/v0.2

Из основных возможностей это вкладки, которые будут обучаться последовательно и импорт/экспорт настроек
Аноним 27/01/23 Птн 14:04:28 82456 3
>>82440
> Теперь у лоры есть хуй
Аноним 27/01/23 Птн 14:07:03 82463 4
Аноним 27/01/23 Птн 14:07:53 82464 5
Аноним 27/01/23 Птн 14:08:37 82467 6
>>82440
Ты же осознаешь, что ты мог просто сделать экстеншон для сд?
Аноним 27/01/23 Птн 14:10:34 82472 7
>>82467
Делал в первую очередь для себя. У меня 6 гб врам и браузер её жрет нещадно и режет скорость достаточно сильно. +я не знаю что такое градио
Аноним 27/01/23 Птн 14:12:58 82475 8
>>82472
>браузер её жрет нещадно
Отключить аппаратное ускорение, не?
>я не знаю что такое градио
А мог бы узнать, точно так же как узнал про dearpygui
Аноним 27/01/23 Птн 14:17:24 82490 9
>>82475
Я могу в теории попробовать сделать расширение для сд. Но это будет куда сложнее чем сделать простую обертку для скрипта, как минимум мне нужно понять как выгрузить модель из памяти, потому что у меня лично автоматик 2 гб врам отжирает просто ничего не делая
Аноним 27/01/23 Птн 14:18:50 82495 10
>>82490
Каво бля? Разве лора не на модели тренируется? Нахуя ее выгружать?
Аноним 27/01/23 Птн 14:20:47 82500 11
>>82495
А, я тебя понял, скрипты с автоматиком никак не связаны. Ну хуй знает тогда.
Аноним 27/01/23 Птн 14:23:42 82513 12
>>82495
Ну я тупанул. Все равно проще особо не становится, это получается надо форкать репо китайца и шерудить там под капотом, чтобы запускать тренировку не посылая аргументы левому скрипту, а как бы нативно из автоматика. Это очень интересная задача и я не против ей заняться, но я не уверен что моих текущих знаний достаточно чтобы это реализовать

советом лучше помоги
Аноним 27/01/23 Птн 14:27:39 82524 13
Уже две личные лоры есть, хороший тред. Третья лора будет по shion yorigami
Аноним 27/01/23 Птн 14:32:38 82537 14
.png 467Кб, 512x512
512x512
Не знаю чего там все плачут по поводу китайцоскрипта версии 0.4.0, еще в прошлом треде писал что всё нормально работает и у меня лично результаты даже лучше чем раньше. Впервые я на таком малом количестве шагов оттренил Феликса с полноценным запоминанием концепта, до этого постоянно вылезали косяки типа не та одежда, не тот цвет того или иного элемента и т.д. А сейчас стренил 800 шагов и всё как было в датасете, так оно есть и в генерации

Всё что нужно на новой версии поменять, это поставить (при network_dim = 128, network_alpha = 1) learning_rate в 10 раз выше рекомендуемого (т.е. 1e-4 -> 1e-3) и всё будет работать ИЗКАРОПКИ. Дайте шанс китайцу

инби4: кохъя-лахта

>>82524
Не стесняйся делиться. В шапке есть ссылка на репозиторий, если мне не лень я туда добавляю то что скидывают, но в последнее время суперлень ебаться с разметкой и заливать туды-сюды папки с датасетами и сетками, но ты можешь сам добавить туда своё пароль для редактирования 2ch
Аноним 27/01/23 Птн 14:41:34 82553 15
>>82537
>800 шагов
У меня 3200 шагов уходит на концепт перса.
>делиться
Если бы, ты ведь меня недолюбливаешь. Уже понял кто я, да?
>1e-3
Не работает у меня.
Аноним 27/01/23 Птн 14:44:42 82568 16
>>82553
> У меня 3200 шагов уходит на концепт перса.
Охуеть
> Уже понял кто я, да?
Нет, няш, я не помню чтоб кого-то недолюбливал. Если ты тот анон с эмбедингами и спич баблами, то я извиняюсь за тот инцидент, мне не стоило помогать когда я сам не до конца разбираюсь. Если ты не он, то возможно с кем-то меня путаешь?
> Не работает у меня.
Да как так-то блджад, что именно-то не работает, могу попробовать помочь
Аноним 27/01/23 Птн 14:49:32 82584 17
.png 7Кб, 553x75
553x75
Тааааак, чекнем репо китайца, что он там мутит...

...

ОХУЕТЬ!
Аноним 27/01/23 Птн 14:49:46 82586 18
>>82568
>анон с эмбедингами и спич баблами
Я анон с кокоро.
Аноним 27/01/23 Птн 14:50:23 82591 19
>>82584
>textual inversion
Зачем это хуево работающее, медленное и кривое говно поддерживать? Для чего?
Аноним 27/01/23 Птн 14:53:01 82599 20
image.png 18Кб, 761x289
761x289
>>82537
Нижний пост - твой? У тебя же ничего не работало на этой скорости, почему заработало?
Аноним 27/01/23 Птн 14:57:25 82612 21
>>82586
Кек, да мне похуй в целом уже. Но все равно неприятно когда просят совета, ты его даешь, человек советом не пользуется и потом говорит всем что совет говно. Уж пойми
Как у тебя дела с сетками? Заебатые теперь получаются?

>>82591
Если у китайца хорошая имплементация TI, то почему бы и нет? Это инструмент для своих задач. Даёт другие результаты. Я хоть и считаю что лора это киллерхуйня, но лора + эмбед > лора

>>82599
Да, это мой пост. Как оказалось вся проблема была в ебучем автоматике, я не смотрел в консоль, а там писало что сетка не грузится, даже учитывая что я пользовался расширением китайца. Обновил автоматика и все сетки заработали. 1е-3 дал отличные результаты на малом количестве шагов, мне понравились больше чем старые до альфы на 1е-4
Аноним 27/01/23 Птн 14:59:16 82616 22
00179-962695155[...].png 1946Кб, 1024x1536
1024x1536
yuuma1.png 2169Кб, 1024x1536
1024x1536
>>82612
>Как у тебя дела с сетками? Заебатые теперь получаются?
Вот такие получаются.
1 пик - Kasen Ibaraki.
2 пик - Yuuma Toutestu.
Аноним 27/01/23 Птн 15:00:19 82618 23
>>82616
Заебатые. Тохофаг? Я тоже немного
Аноним 27/01/23 Птн 15:01:46 82623 24
image.png 3Кб, 88x59
88x59
>>82618
>Тохофаг
Ага, сегодня ночью соберу датасет на Shion Yorigami и оттреню её
Аноним 27/01/23 Птн 15:02:49 82625 25
>>82612
>Обновил автоматика
А вот я боюсь обновляться.. Из-за производительности и криворукости автоматика
Аноним 27/01/23 Птн 15:05:08 82629 26
>>82625
Я не боюсь. Сохраняешь в блокнотик хэш текущего коммита, пуллишь, не нравится - возвращаешься
Кстати китаец для своего расширения повыкатывал фиксы, есть смысл начать с него
Аноним 27/01/23 Птн 15:06:40 82631 27
>>82629
Да, я знаю про git checkout, но все равно тряска. Мб позже и обновлюсь. Сейчас все работает и я доволен.
Аноним 27/01/23 Птн 17:26:10 83060 28
>>82440
как этим пользоваться?
Аноним 27/01/23 Птн 17:58:30 83140 29
>>82440
Вот что выдает "train_network.py: error: unrecognized arguments:"
Аноним 27/01/23 Птн 18:02:21 83147 30
>>82417 (OP)
Как обучить лору на собственно перса? Есть идеи у треда? Это важная проблема SD - невозможность создания авторских персонажей. В соседнем треде анон продвинулся в проблеме решения генерации кривых рук, надеюсь, что он своё изобретение все же опубликует, а не зажмотит.
Аноним 27/01/23 Птн 18:02:49 83148 31
>>83060
Этим не надо пользоваться, пользуйся скриптом. В гуи нет защиты от дурака, да и не удобный оне.
Аноним 27/01/23 Птн 18:05:41 83160 32
>>83147
>собственного перса
фикс
Аноним 27/01/23 Птн 18:22:00 83188 33
>>83147
1) Собрать датасет с персом
2) Обучить лору
3) Пользоваться
Аноним 27/01/23 Птн 18:23:21 83191 34
>>83188
>1) Собрать датасет с персом
Вот это главная проблема, спавнит в рандомной одежде. Хер знает как это решать
Аноним 27/01/23 Птн 18:42:33 83234 35
>>83140
Я даун, пофиксил, можешь перекачать

>>83060
Скачать, открыть, заполнить поля, нажать "Запустить"
Аноним 27/01/23 Птн 18:58:59 83253 36
1674835136976.jpg 536Кб, 1536x2048
1536x2048
1674835136988.jpg 479Кб, 1536x2048
1536x2048
1674835136999.jpg 626Кб, 1536x2048
1536x2048
1674835137004.jpg 466Кб, 1536x2048
1536x2048
>>82537
Сколько пикч в дата-сете? Зеркалил? Сколько повторений?
Игрался с скоростями. Над этим персонажем 5e-5 дала результат неплохой. Слабый-мягкий, но легко редактируемый.
В нем было 94 пикчи уникальных, cosine_with_restarts, 12 повторений, 8 эпох.
1 пик - 5e-5
2 пик - 1e-3
3 пик - на старой версии с 1e-4
4 пик - на старой версии с 1e-4 и 24 пикчи

А вот с совсем другим персонажем и дата-сетом на 26 уникальных пикчи с теми же настройками нихрена не вышло на новой версии и 5e-5. От персонажа ни одной детали не взялось. А на 1e-3 наоборот ели-ели задний фон редактируется.
Видимо для 5e-5 надо иметь большой дата сет. Минимум 100 пикч без учета отзеркаливания.
Аноним 27/01/23 Птн 19:05:26 83270 37
>>83253
14 пикч х 9 повторений и 13 пикч х 3 повторения. Ничего не зеркалил, все пикчи уникальные. 1е-3 linear
> нихрена не вышло на новой версии и 5e-5. От персонажа ни одной детали не взялось. А на 1e-3 наоборот ели-ели задний фон редактируется.
5e-5 это крайне мало, тем более для новой версии. Если на 1е-3 сеть перетренировалась, попробуй 5е-4
> Видимо для 5e-5 надо иметь большой дата сет
Запоминание концепта вряд ли зависит от количества пикч в датасете, оно зависит скорее от разнообразия этих пикч и скорости обучения
Аноним 27/01/23 Птн 19:30:45 83325 38
>>83270
> вряд ли
Вот на 3 не выйдет ничего обучить, тут минимум от 15-20 начинается.
Аноним 27/01/23 Птн 19:48:38 83372 39
Аноним 27/01/23 Птн 20:29:22 83462 40
Аноним 27/01/23 Птн 20:29:55 83464 41
>>83462
Так 5 пикч же. 1.5к шагов всего
Аноним 27/01/23 Птн 20:33:49 83486 42
>>83464
А повторений 1?
Аноним 27/01/23 Птн 20:35:55 83493 43
Аноним 27/01/23 Птн 20:38:08 83504 44
.png 536Кб, 768x512
768x512
.png 553Кб, 768x512
768x512
.png 525Кб, 768x512
768x512
.png 514Кб, 768x512
768x512
Блядь, а вот другая сетка на 1е-3 однозначно перетренировалась
Аноним 27/01/23 Птн 20:40:09 83511 45
>>83504
Тю блять, забыл негативы подрубить. Но не суть, все равно что-то не то
Аноним 27/01/23 Птн 20:42:38 83517 46
>>82417 (OP)
Существует подробное объяснение принципа тренировки самого СД? Что такое "нейрон", что конкретно пишется в файл модели и т.п.
Аноним 27/01/23 Птн 21:17:58 83611 47
Кароче начинаю ебаторию с лёрнинг рейтом. Оттренил 3 сетки на 1е-3, все перетренированные. Начну с 5е-4 unet, 1e-4 text encoder. На том же сиде
Аноним 27/01/23 Птн 21:35:11 83674 48
>>82440
>>81795 →
Помацал. На пре 0.4.0 работает, найс.

По сохранению настроек - не сохраняется путь к папке sd-scripts, не сохраняется нетворк альфа с пустым значением (с обычным сохраняется) и батч сайз.

Алсо, сделай что бы по умолчанию при запуске гуи открывалась вкладка. А то без открытой вкладки настройки не импортируются, сейвит один клик, лол.

Глянул в код и мне кажется ты забыл прописать присвоение переменной батч сайза к соответствующему аргументу, т.к. оно игнорирует выставленный в гуи батч сайз.

И сделай значение "сохранять только последние n эпох" наверное 999 как раньше, а то я уже успел обосраться с этим))0))).
Аноним 27/01/23 Птн 22:02:02 83804 49
.jpg 164Кб, 1024x768
1024x768
Анон, который сделал лору на Лейн, ты крут! Прямо потрясно работает. Спасибо.
Аноним 27/01/23 Птн 22:05:49 83821 50
>>83804
почему она потеет?
Аноним 27/01/23 Птн 22:07:45 83827 51
>>83821
Жарко, влажно, Азия-с
Аноним 27/01/23 Птн 22:11:31 83837 52
Почему лоры уже который день не пополняюца?
Аноним 27/01/23 Птн 22:14:29 83854 53
Аноним 27/01/23 Птн 22:15:26 83858 54
Аноним 27/01/23 Птн 22:35:34 83923 55
>>83837
У меня мои лоры постоянно пополняются, если тебе надо - ты и тренируй.
Аноним 27/01/23 Птн 22:37:39 83930 56
>>83611
А мог бы просто перейти на старую версию
Аноним 27/01/23 Птн 22:43:28 83955 57
image.png 25Кб, 1204x179
1204x179
>>83923
двачую. делайте сами.
Аноним 27/01/23 Птн 22:45:08 83966 58
Аноним 27/01/23 Птн 22:46:19 83972 59
Аноним 27/01/23 Птн 22:56:10 84003 60
Аноним 27/01/23 Птн 22:58:33 84014 61
>>83674
Ага, учел, спасибо за фидбек, буду править
На счёт сохранения папки sd-scripts я пока не знаю. Не умею работать с реестром. Поэтому остается два варианта: либо файлик текстовый генерировать в папке с гуем, из которого подхватываются начальные настройки, либо сделать так, что если гуй находится в папке со скриптом, автоматически заносить путь в необходимый инпут

>>83804
Спасибо. Как разберусь с правильными настройками на 0.4.0, перетреню, вдруг еще лучше будет

>>83837
Потому что мне лень, другие дела. Пароль 2ch, если хочешь добавить что-то своё

>>83930
Я еще раз повторяю: МНЕ НЕ НУЖНЫ НУЛЕВЫЕ ТЕНЗОРЫ
Аноним 27/01/23 Птн 23:28:53 84046 62
>>84014
>тензоры
Не похуй ли? Результат же норм
Аноним 27/01/23 Птн 23:33:46 84051 63
Глянул код GUI. Лучше бы не глядел.
Аноним 27/01/23 Птн 23:34:44 84053 64
Аноним 27/01/23 Птн 23:38:54 84065 65
Зачем хранить параметры в ini файле и потом заниматься онанизмом в виде str2bool и line_split = line.split(": ", 1)?
Сделай словарь, в котором будут храниться все параметры и сохраняй его в JSON или yaml.
Аноним 27/01/23 Птн 23:41:10 84073 66
>>84065
Я не умею. Ты тоже с первого дня пользовался json или yaml? Сделал в соответствии со своими знаниями. В следующий раз будет лучше. Извините.
Аноним 27/01/23 Птн 23:42:17 84076 67
>>84065
Ты мне лучше скажи как реализовать вкладки правильно, чтобы не нужна была функция append_instance_number()
Аноним 28/01/23 Суб 02:19:10 84350 68
.png 19Кб, 943x178
943x178
>>83674
Всё, сделал. Оказалось с реестром всё не так страшно, теперь после нажатия кнопки "запустить" путь к папке sd-scripts отправляется туда и после этого подхватывается при запуске. И еще если в папке с гуем есть файл "ltg_default.ini", каждая вкладка будет подхватывать значения оттуда
Только маленький нюанс: пришлось переименовать кучу переменных для удобства, чтобы их названия соответствовали таковым из китайцоскрипта, поэтому старые конфиги не подойдут. За это извиняюсь, надо было изначально нормально всё проименовать
Новую версию на тестовой сетке протестил, в этот раз не должно быть как обычно

https://github.com/anon-1337/LoRA-train-GUI/releases/tag/v0.21
Аноним 28/01/23 Суб 02:30:58 84369 69
>>84350
Хранить настройки в реестре очень хуёвая идея
Аноним 28/01/23 Суб 02:36:16 84384 70
Аноним 28/01/23 Суб 02:39:05 84390 71
>>84350
Зачем реестр? Положил бы рядом cfg и свободен.
Аноним 28/01/23 Суб 02:53:51 84415 72
>>84384
Масштаб страницы измени (ctrl+колёсико мыши)
Аноним 28/01/23 Суб 02:56:12 84417 73
>>84415
Это понятно. Я на ноутбуке, остальные элементы интерфейса тогда становятся комически крошечными. Явно же есть где-то в файлах настройки их скейлинга. Подскажите хотя бы, где искать, я совсем не шарю.
Аноним 28/01/23 Суб 03:03:34 84430 74
>>84417
А нету их там лол. Эта хуйня зархардкожена в gradio.
Аноним 28/01/23 Суб 03:28:08 84471 75
1587132049379.png 10Кб, 688x140
688x140
1591113252651.png 11Кб, 373x385
373x385
>>84350
Ну вообще сохранение пути сдскриптс в ини было бы норм, впрочем и так норм наверное

Теперь вылезает нюанс при импорте настроек в виде пик 1. При этом из такого же файла дефолтных настроек все подгружает без ошибок. Настройки свежие офк

Батч сайз все еще игнорируется Где?

>поэтому старые конфиги не подойдут
Это норма

>>84369
> Хранить настройки в реестре очень хуёвая идея
Почему кста? Вроде дохуя 3рд пати хранят некоторые настройки в реестре

>>84384
> Такой вопрос есть
Можешь через стили это попробовать решить, ватоматик объявлял поддержку
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#usercss

Тыкаешь f12, выбираешь элемент, смотришь как он называется, теребишь длину-ширину, если работает, то создаешь свой файл css с описанием характеристик т.е. длины и ширины и кидаешь куда надо. Описал примерно, я глянуть не могу, т.к. не хочу гитпулить
Аноним 28/01/23 Суб 04:28:16 84532 76
.png 1563Кб, 1396x1901
1396x1901
Решил всё же свой старый грид до ума немного довести. Добавил в него поддержку конфига, чтобы картинки не были гвоздями прибиты. Так же левой кнопкой мыши осуществляется скролл по гриду. Грузятся только картинки, находящиеся близко к зоне видимости, так что хоть гриды довольно увесистные, они не должны долго грузиться, если у вас быстрый интернет.

Для создания своего грида у вас есть два варианта использования:
1. Вы либо делаете форк/копию и засовываете свой config.json в корень проекта
2. Либо вы ссылаетесь на мою репу (ну или на свой форк) и передаёте путь до конфига в queryParams, как в примерах ниже. Хотя не думаю, что вам имеет смысл использовать такой вариант, я его скорее для себя делал, чтобы если обновы делать буду, то сразу ко всем гридам правки применялись.

Если всё же будете использовать второй вариант, то нужно убедиться, что ваш стор не блочит cross-origin запросы. В идеале, для этого грида надо ещё добавить поддержку зума по типу того, как другой анон тут делал - https://diffai.xyz/grid/ewZc47dGmRQ

Проблема в том, что для реализации зума надо создавать несколько тайлов для разного масштаба. Я исследовал этот вопрос пару месяцев назад, и, в целом, можно провернуть трюк с тем, что тайлы можно создать полностью на фронте в момент, когда вы грид оформляете (у меня с головой всё относительно в порядке, так что я не планирую какую-то инфраструктуру для нужд двачеров поднимать) и потом выплёвывать юзеру zip архив со всеми тайлами, но для этого надо UI пилить, а мне пока лень, поскольку это никому не нужно, так что пока так.

Ридми потом оформлю, я уже задолбался на сегодня. По пику я думаю формат конфига должен быть понятен.

Грид по гиперу Сенко в стиле Римукоро для Abyss Orange Mix:
https://neurosenko.github.io/sd-grid-viewer/?configUrl=https://neurosenko.github.io/sd-grids/orange-senko-by-rimukoro/config.json

Грид по гиперу Сенко в стиле Римукоро для Anything V3.0:
https://neurosenko.github.io/sd-grid-viewer/?configUrl=https://neurosenko.github.io/sd-grids/any3-senko-by-rimukoro/config.json

Старый грид для Шинобу:
https://neurosenko.github.io/sd-grid-viewer/?configUrl=https://neurosenko.github.io/sd-grids/nai-shinobu-example/config.json

---

Публикую свои гиперы для Сенко в стиле Римукоро. Уже вкидывал их раньше в тред, но добавил описание, наконец.

Abyss Orange Mix:
https://huggingface.co/NeuroSenko/abyss_orange_mix_senko_by_rimukoro_hyper

Anything V3.0:
https://huggingface.co/NeuroSenko/any3_senko_by_rimukoro_hyper

any222trinart:
https://huggingface.co/NeuroSenko/cab_senko_by_rimukoro_hyper

По фреймам из аниме я тоже пытался тренировать модели, но мне они не особо понравились, так что, наверное, не буду их публиковать пока.

---

Так же публикую свои датасеты на Сенко.

Все арты Римукоро:
https://huggingface.co/datasets/NeuroSenko/senko_by_rimukoro

Все фреймы из аниме (773 изображения):
https://huggingface.co/datasets/NeuroSenko/senko_anime_full

Все фреймы из аниме с фильтрацией неудачных кадров (629 изображений):
https://huggingface.co/datasets/NeuroSenko/senko_anime_no_bad_frames

Фреймы из аниме с фокусом на лицо (404 изображений):
https://huggingface.co/datasets/NeuroSenko/senko_anime_face_only

Фреймы из аниме где видно одеяние мико (213 изображений):
https://huggingface.co/datasets/NeuroSenko/senko_anime_miko_visible
Аноним 28/01/23 Суб 05:17:34 84565 77
Почему анатомию от лоры пидорасит? Есть идеи?
Аноним 28/01/23 Суб 05:57:15 84599 78
Надо ли вписывать --opt-split-attention или на 3060 оно автоматом включено?
Аноним 28/01/23 Суб 06:18:55 84629 79
Аноним 28/01/23 Суб 06:32:12 84639 80
>>84629
Его ещё в 20 наитреде обсуждали, его отличие от сдапскейла примерно нихуя
Аноним 28/01/23 Суб 06:41:59 84643 81
>>84639
Даже объяснять лень где ты не прав и почему, иди обратно в анимушный загон.
Аноним 28/01/23 Суб 06:45:07 84646 82
>>84639
>обсуждали
че могли обсуждать брейнлес пчелы со скопипасченными (((()))) и жереми липкингом?
Аноним 28/01/23 Суб 06:47:29 84649 83
>>84599
Если модель норм грузится в память по дефолту и рендерит без отвалов то никакие оптимизаторы врама не нужны.
Аноним 28/01/23 Суб 07:00:24 84660 84
>>84643
Потому что ты не прав, довен бля, его тестили прямо в треде. Результат - примерно нихуя, на уровне погрешности.
>>84646
Показывай как пользоваться, умник бля.
Аноним 28/01/23 Суб 09:44:13 84794 85
Почему скрипт отказывается запускаться, если я прописываю путь с регуляризационными изображениями?
Аноним 28/01/23 Суб 10:04:21 84824 86
Аноним 28/01/23 Суб 10:11:23 84840 87
>>84808
Я тестил, вопросы?
Если есть 12гб и больше, то ультимейт не нужен. В то время как цель хорошего апскейла сделать как можно меньше тайлов, то ультимейт наоборот делает их много + ещё и проходится потом вторым проходом, уничтожая детали. Он нужен только, если ты не можешь штатным сделать нормально, т.е. ограничен врам.
Аноним 28/01/23 Суб 10:19:54 84850 88
>>84842
Какой же смешной подрыв тралёнка, обнаружившего, что его любимая новая игрушка нравится только ему. Апскейлил дольше чем ты знаешь про сд, запустил лдср и принес валар в /б. Что ещё расскажешь?

>грю
гри дальше, деревня.
Аноним 28/01/23 Суб 10:33:35 84879 89
>>84854
> Ебать достижение
Что-то не скопировал раньше никто. Про валар вообще не слышали.

>>84857
> чсвшный
Я же не пишу это в каждом посте итт, глурый, а чтобы ты понимал, что я не первый раз апскейл вижу. Конкретно к обсуждение новой мокрописьки, которую ты только увидел и решил притащить сюда. А её давно протестили и выбросили как мусор ничем не выдающуюся
Аноним 28/01/23 Суб 10:34:38 84882 90
>>84879
>чсвшный мудень продолжает строить из себя что-то хотя ему настойчиво рекомендовали завалить ебало
прикольно, говно отыгрывает маняэксперта
Аноним 28/01/23 Суб 10:55:40 84945 91
>>84471
Ладно, тут анон(-ы) жалуется что оффтоп и в принципе я согласен, буду обновлять теперь молча, если есть какие-то проблемы можно создать ишью, или на крайняк если не хочется палить гитхаб можно написать тут кратко. Следи за релизами
>>84369
Меня переполняет любопытство почему?
Аноним 28/01/23 Суб 11:13:30 84977 92
>>84973
А ты посмотри на себя со стороны, вы друг друга стоите по уровню щитпостинга и малоинформативности.
Аноним 28/01/23 Суб 11:24:14 84999 93
LDSR хоть и годно апскейлит, но бля, если ты стартанул, то ты уже не сможешь прервать операцию, кроме как закрыть батник и перезапустить автоматик.
Аноним 28/01/23 Суб 11:45:32 85044 94
.png 134Кб, 2181x708
2181x708
.png 215Кб, 2195x986
2195x986
.png 66Кб, 503x925
503x925
Бахнул 6 сеток ночью, 0.4.0 с разными lr: unet 5e-4, 3e-4, 1e-4
Каждое значение unet lr имеет две вариации: text encoder lr = unet lr и text encoder lr = unet lr / 2
Все остальные настройки абсолютно одинаковые, в т.ч. сид
Беглым взглядом по графикам что-то сказать сложно, да, есть закономерность что чем больше lr, тем меньше loss, но это ни о чем не говорит, тем более значения отличаются минимально
Гриды в процессе
Аноним 28/01/23 Суб 11:51:14 85058 95
Йей, ватоматик сделал дпм++ карась дефолтным семплером. Наконец-то мы, мученики колаба и прочих пейперспейсов, сможем вздохнуть спокойно (еще бы починил нам линк с градио, а то достало его после каждого пакета перегружать)

>>85038
Такими задницами, как справа
Аноним 28/01/23 Суб 12:03:25 85073 96
>>84999
LDSR еще вымораживает тем, что он пол часа грузится, а потом при генерации выдает ошибку, мол вае твое говно, ставь ноу халф вае.
>>85058
Какой командой обновлять автоматик? А то чет он по дкфолту сам не обновляется.
Аноним 28/01/23 Суб 12:10:30 85087 97
>>85073
>Какой командой обновлять автоматик? А то чет он по дкфолту сам не обновляется.
Я-то на колабе, я всегда делаю клон
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui

А тебе, наверное, надо делать git pull
Аноним 28/01/23 Суб 13:00:52 85159 98
Реально ли натренить DreamBooth-модель на позу? Хочу таки сажать тянок на шпагат :3
Или хоть на вертикальный стабильно ставить.

Кто-нибудь что-нибудь подобное пробовал?
Аноним 28/01/23 Суб 13:10:02 85183 99
00755-262666368[...].png 1304Кб, 896x1216
896x1216
00750-262666368[...].png 1235Кб, 896x1216
896x1216
01170-448784409[...].png 1407Кб, 1024x1024
1024x1024
01171-448784410[...].png 1460Кб, 1024x1024
1024x1024
Аноним 28/01/23 Суб 13:42:27 85244 100
AttributeError: module 'modules.paths' has no attribute 'data_path'
Что это? Как это исправить?
Аноним 28/01/23 Суб 13:57:38 85259 101
.jpg 5659Кб, 4480x5384
4480x5384
.jpg 5620Кб, 4480x5384
4480x5384
.jpg 5670Кб, 4480x5384
4480x5384
.jpg 3161Кб, 2944x3655
2944x3655
>>85044
Так, ну сделались гриды

1 пик, UNet LR = 1е-4: нормальные результаты, отличная редактируемость. Очень медленная скорость: у сети проблемы с отображением концепта, персонаж не похож на ГТ. Касаемо разных скоростей ТЕ: трудно сказать чем они отличаются. У меньшей скорости ТЕ проблемы с запоминанием концепта заколки на волосах персонажа (она присутствует на каждом изображении датасета) - не в том месте и не той формы. У большей скорости с этим получше, но все равно далеко. По внешности +- одинаково, трудно выбрать победителя.
Вывод. 1е-4 - не очень хороший выбор для обучения на 0.4.0, обучить сеть концепту(-ам) вероятно можно, но потребуется большое количество шагов, что немного нивелирует плюс Лоры как быстрого способа обучения. Возможно попробую еще раз на большом количестве шагов. Какую скорость ТЕ брать: трудно сказать, нужно еще тестировать. На такой маленькой дистанции (1.5к шагов) однозначно сказать трудно.

2 пик, UNet LR = 3e-4: хорошие результаты, но уже появляются следы отхода рисовки от модели в последних эпохах. Концепт намного больше похож на ГТ (оно и логично, скорость обучения UNet возросла в 3 раза). Разные скорости ТЕ: цвет волос концепта на меньшей скорости более консинстентный (субъективно). У обеих скоростей ТЕ проблемы с концептом заколки примерно одинаковые. Меньшая скорость ТЕ даёт чуть большую редактируемость + генерации меньше отходят от стиля рисовки модели (субъективно + малая выборка).
Вывод. 3е-4 хорошая скорость для обучения, но всё же не очень быстрая для Лоры, поэтому вероятно потребуется большее количество шагов. Но это будет гораздо быстрее, чем тренировать на 1е-4. Какую скорость ТЕ брать: я бы брал 1.5е-4 (субъективно).


3 пик, UNet LR = 5e-4: хорошие результаты, заметно более низкая редактируемость и bias в сторону стиля датасета, а не модели. Персонаж также достаточно сильно похож на ГТ, но не сказать что сильно обошел 3е-4, на уровне погрешности. Меньшая скорость ТЕ заметно лучше справляется с генерацией в стиле модели, меньший bias в сторону датасета (субъективно). У обеих скоростей ТЕ проблемы с редактируемостью, но у более низкой скорости она лучше (опять же, субъективно).
Вывод. Для быстрой тренировки 5е-4 подойдет. Быстро понимает основной концепт и также быстро уменьшает редактируемость и вариативность и вносит изменения в стиль рисовки модели. Какую скорость ТЕ брать: однозначно уменьшенную (имхо).

4 пик, сравнение всех финальных эпох со вчерашней тестовой сеткой (LR 1e-3): 1е-3 просто уничтожает картинку. Сеть страшно перетренирована на крупных деталях: полное отсутствие какой либо мелкой детализации, уничтоженные контуры, околонулевая редактируемость, гигантский bias в сторону рисовки датасета. Тем не менее лучше всех справилась с заколкой, хоть она и по-прежнему далека от ГТ.
Вывод. Я не нашел применения такой большой скорости. Возможно я что-то делаю не так. Возможно стоило добавить приличный warmup для планировщика, потому что сеть без него стартует с гигантской скорости. Возможно ситуацию мог спасти другой планировщик, какой-нибудь рабочий polynomial (но ни в коем случае не constant). Возможно нужно было тренировать на меньшем количестве шагов. Нужно экспериментировать а у меня слабое железо и это займет вечность
в китайцоскрипте от него никакого толку, потому что этот планировщик в его имплементации не поддерживает важные дополнительные переменные и polynomial имеет ровно такой же график как linear

Что дальше? Пока думаю. Нужные значения имхо лежат где-то в районе первых двух результатов. Несмотря на не очень большую схожесть с ГТ, мне понравились результаты 1е-4 с уполовиненной скоростью ТЕ: отличная редактируемость, отсутствие bias в сторону датасета. Если я правильно понимаю, большее количество шагов должно спасти ситуацию. У сети будет больше времени обучиться концепту и она не "задавит" своими весами веса модели из-за маленькой скорости. Минус этого варианта очевидный: увеличенное время тренировки. Раньше я мог на своём корыте натренировать персонажа за 20-40 минут и получить нормальные результаты, но с обновлением 0.4.0 это больше не так. Видимо либо качество, либо скорость. Я всё же придержусь мнения что тренировать нужно только на 0.4.0, потому что в этой версии ввели то, что должно быть изначально, альфа - это переменная которая всегда была в оригинальном репо cloneofsimo, даже изменение переменной ранка (network_dim) появилось не сразу.

Вот бы нам анона с 4090, которому не лень было этим заняться. Уже бы давно всё порешали и тренили отличные сетки без нулевых тензоров на 0.4.0.
Аноним 28/01/23 Суб 14:04:44 85266 102
>>85259
Макаба сломала мне разметку, имелось в виду
> рабочий polynomial(звездочка)
> (звездочка)в китайцоскрипте от него никакого толку, потому что этот планировщик в его имплементации не поддерживает важные дополнительные переменные и polynomial имеет ровно такой же график как linear
Аноним 28/01/23 Суб 14:35:52 85310 103
>>85259
Что значит "перетренирована", мне может кто-нибудь объяснить? Как сеть может быть перетренирована, как это понимать из картинки нахуй?
Аноним 28/01/23 Суб 15:06:26 85358 104
>>85259
>Вот бы нам анона с 4090, которому не лень было этим заняться.
Чем конкретно надо заняться?
анон с 4090
Аноним 28/01/23 Суб 15:12:05 85362 105
Аноним 28/01/23 Суб 15:18:28 85372 106
>>84945
Да какой оффтоп, хз, как по мне это релейтед, уж точно надохуя чем срунесрачи на 50 постов

>анон(-ы) жалуется
Вахтер

Тут удобнее чем на гитхабе
Аноним 28/01/23 Суб 15:51:50 85418 107
>>84471
> > Хранить настройки в реестре очень хуёвая идея
> Почему кста? Вроде дохуя 3рд пати хранят некоторые настройки в реестре
Потому что
1) В linux ВНЕЗАПНО нет реестра, а твоей программой в теории могут пользоваться его пользователи.
2) Эта программа подразумевает некоторую портативность. При использовании файлов с настройками ты можешь создавать сколько угодно копий программы разных версий не боясь конфликтов между ними. Так же ты можешь переносить свои конфиги с одного компьютера на другой или делиться ими с другими пользователями. В случае с реестром это будет боль.
Аноним 28/01/23 Суб 16:05:35 85441 108
>>85418
Линукс-кун а треде все в айклоунд
Два чаю. Привязывать к реестру - не лучший выход. JSON в пихоне должен писаться и читаться одной строчкой (т.е. одной - читаться и ещё одной - писаться). И можно иметь разные версии конфигов и переключаться между ними переименованием файлов.

Дай линк на сорцы, мож чё умное присоветую.
Аноним 28/01/23 Суб 16:08:32 85448 109
>>85183
У третьей перелом лодыжки. Опасное дело - спорт.

Можно промт и модель? Не на перелом лодыжки, а на первые две
Аноним 28/01/23 Суб 16:10:51 85453 110
>>84794
!sudo systemctl telepathy start

Пробелы в путях? Кириллица? Прописать абсолютный путь?
Аноним 28/01/23 Суб 16:31:24 85484 111
>>85310
Я понимаю это так, что сеть "слишком сильно обучается" тому, чему ты её учишь и ничего кроме тренируемого концепта воспроизвести не может
>>85358
Ну вот этой хренью что я занимаюсь. Берется один датасет, одни настройки, один сид и хуярится пять тыщ сеток с чутка разными настройками, потом гриды где всё это дело сравнивается. Мы находим нормальный диапазон значений для тренировки и всё счастливы. Все тренят на 0.4.0, кохъялахта остается без работы, мир погружается в утопию
>>85372
Ок, остаемся здесь
Бля пиздец чувствую себя как собака, мне говорят одно я делаю, мне говорят другое я делаю
>>85441
Держи, анон. Если не лень и есть время, разъеби по фактам и насоветуй всего что в голову приходит, как сделать этот код нормальным. Из основного что меня тревожит, это то как реализованы вкладки и то, что каждая новая вкладка открывается дольше предыдущей до тех пор, что на плюсик приходится нажимать аж несколько раз
https://github.com/anon-1337/LoRA-train-GUI
Аноним 28/01/23 Суб 19:18:07 85827 112
>>85484
>>84076
У тебя подход изначально неправильный. Не питонический и не ООПшный.
Создай словарь, в котором будут описаны все поля и параметры вкладки по умолчанию.
Создай список, в котором будут храниться все экземпляры вкладок.
Создай класс, конструктор которого будет загружать поля из этого словаря или другого указанного:
tab_settings_dict={"input_ckpt_path": "./", "checkbox_is_sd_768v_ckpt": False, "checkbox_is_sd_2x_ckpt": False, ... и т.д.}
tabs = list()
class lora_tab():
....def __init__(self, input_dict, *kwargs):
........for dictionary in input_dict:
............for key in dictionary:
................setattr(self, key, dictionary[key])
........for key in kwargs:
............setattr(self, key, kwargs[key])

При создании новой вкладки (в начале функции add_lora_tab) просто создавай новый экземпляр:
tabs.append(lora_tab(tab_settings_dict))
Теперь ты сможешь обращаться к параметрам любой созданной вкладки через её номер(индекс в списке) и поле:
tabs[0].checkbox_is_sd_768v_ckpt
Индекс созданной новой вкладки будет последним:
tab_num = len(tabs)-1

Так же ты можешь выгрузить все параметры любой вкладки в словарь и таким образом сохранить их в файл json:
with open('tabsettings.json', 'w') as json_file:
....jsonDict = json.dumps(tabs[0].__dict__)
....json_file.write(jsonDict)

И соответственно можешь сделать наоборот — загрузить параметры из файла
with open('tabsettings.json') as json_file:
....jsonDict = json.load(json_file)
....tabs[0].__dict__ = jsonDict.copy()

Так же можешь копировать значения из одной вкладки в другую:
tabs[2].__dict___ = tabs[0].__dict___.copy()

Единственное что нужно будет написать два колбека.
Один должен будет вызываться в каждом элементе gui и при изменении его состояния должен будет изменять соответствующее поле в своем экземпляре.
Например
dpg.add_checkbox(tag = f"checkbox_is_sd_2x_ckpt{tab_num}", label = "Stable Diffusion 2.x", before = f"checkbox_is_sd_768v_ckpt{tab_num}", default_value=tabs[tab_num].checkbox_is_sd_2x_ckpt, callback=elements_callback, user_data=(tab_num, "checkbox_is_sd_2x_ckpt"))
А колбек должен будет выглядеть примерно так.
def elements_callback(sender, app_data, user_data):
....tab_num=int(user_data[0])
....tab_setting=user_data[1]
....setattr(tabs[tab_num], tab_setting, app_data)
Теперь если тыкать на этот чекбокс значение tabs[tab_num].checkbox_is_sd_2x_ckpt будет принимать значение True или False

Второй колбек должен делать всё наоборот. При загрузке параметров из файла он должен изменять состояние каждого соответствующего элемента gui при помощи dpg.configure_item

Либо при загрузке параметров из файла создавать новую вкладку с параметрами из указанного словаря.
Можно, например, у функции add_lora_tab добавить параметр input_file_dict, который по умолчанию имеет значение None
def add_lora_tab(sender, app_data, input_file_dict= None)
Параметры sender и app_data обязательны, потому что это колбек-функция.
После чтения файла создавать новую вкладку:
with open('tabsettings.json') as json_file:
....jsonDict = json.load(json_file)
....add_lora_tab(input_file_dict = jsonDict)

И дальше проверять — если параметруказан, то брать значения из него при создании экземпляра вкладки:
if tab_dict != None:
....tabs.append(lora_tab(input_file_dict))

> и то, что каждая новая вкладка открывается дольше предыдущей до тех пор, что на плюсик приходится нажимать аж несколько раз
Это из-за хинтов _help

Вообще советовать DPG была плохая идея, лол. Слишком он уж всрат. Лучше было бы использовать tkinter или PyQt. У них порог входа выше, но они гораздо лучше.
Аноним 28/01/23 Суб 19:32:34 85857 113
>>85827
Спасибо тебе огромное что не поленился и расписал! Буду курить твои советы, читать документацию и потиху править код. Не знаю только что такое __dict__ и *kwargs.
>>85827
> Слишком он уж всрат
Но кстати дизайн интерфейса у него приятный.
Аноним 28/01/23 Суб 19:33:11 85859 114
Еще замечание. Есть элементы gui у которых в качестве входных параметров указываются списки или кортежи:
Как сделано у тебя:
gui.add_combo(["linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup"], tag = append_instance_number("combo_scheduler"),default_value = "linear", width = -1, callback = scheduler)
Так делать не надо. Создай кортеж с котором прописаны все эти элементы
schedulers = ("linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup")
При создании элемента указывай этот кортеж
gui.add_combo(items = schedulers,
В default_value указывай индекс.
default_value = schedulers[0]
В колбеке так же работай со значениями app_data по индексу
def schedulers_callback(sender, app_data):
....schedulers.index(app_data)

Теперь если тебе нужно будет добавить или убрать количество планировщиков, то достаточно будет изменить только кортеж schedulers.
Аноним 28/01/23 Суб 19:59:07 85916 115
.png 148Кб, 2179x584
2179x584
Потренил 3 сетки на unet 2e-4, te 1e-4 с разными network_dim: 128, 64, 32. Очень интересно что получится, делаю гриды сейчас

>>85859
Хорошо, спасибо еще раз
Аноним 28/01/23 Суб 20:22:02 85966 116
>>85259
Сколько пикч было в дата-сете? Какого разрешения?
Можно в крадце. Если ты говоришь про 2 способ, т.е. брать UNet LR 3e-4, а TE 1.5е-4, то какую основную LR ставить? А планировщик?
Аноним 28/01/23 Суб 20:29:13 85981 117
>>85966
Планировщик я брал linear. В датасете 11 пикч 12 повторений + 15 пикч 3 повторения, итого 26 уникальных пикч, одна эпоха равна 177 шагам. Основной LR можно никакой не ставить. Значения UNet LR и TE LR переопределяют основной LR. Ты либо тренишь на одинаковой скорости и UNet и LR, выставляя только основной LR (UNet LR = LR, TE LR = LR), либо ставишь свои значения в отдельные скорости и основной LR как параметр не используется.
Аноним 28/01/23 Суб 21:53:12 86136 118
1610243754202.png 227Кб, 1889x652
1889x652
>>84384
Оформил гит пул и тоже сгорел. Ватоматика надо пиздить палками.

Кароч, открываешь style.css в корневой папке. Ищешь там .extra-network-cards .card , после него меняешь width: 16em; height: 24em; ставишь 6em и 12em соответственно например. Это ширина и высота панели в размерах текущего шрифта.

Потом идешь .extra-network-cards .card .actions .name , под ним меняешь font-size: 1.7em; на 1.2em например, это размер шрифта названия.

Сохраняешь, рестартишь градио, получаешь такое.

Обновляться потом через гит ресет или подкидываешь забекапленный файл
Аноним 28/01/23 Суб 22:15:31 86175 119
>>86136
Спасибо.
>Обновляться потом через гит ресет или подкидываешь забекапленный файл
Можно подробнее? Писать не git pull а git reset и потом делать то же самое в .css?
Аноним 29/01/23 Вск 00:42:55 86495 120
Ебать. Почему я не тестил нетворк Диму меньше 128? У меня на нетворк дим 1 (!!!) получились нормальные результаты, учитывая размер в 1.23 Мб (!!!)
Аноним 29/01/23 Вск 00:43:47 86500 121
>>86495
Я давно писал, что на 8 норм
Аноним 29/01/23 Вск 00:44:44 86501 122
>>86500
В натуре. 128 это оверкилл какой-то. Буду тренить теперь на 8-32. Повелся на дурачков с форча
Аноним 29/01/23 Вск 01:10:56 86552 123
.png 11666Кб, 2880x3674
2880x3674
Чувствую себя наебанным
Аноним 29/01/23 Вск 01:32:15 86594 124
>>86495
>>86552
пока мальчик трясётся за свои мегабайтики, мужчина зарабатывает на очередной трбайтный ссд.
Аноним 29/01/23 Вск 02:49:56 86776 125
>>86175
> Можно подробнее?
Бля, сорян. Кароч если через гит пул не сможет, то пишешь git reset --hard HEAD все откатится до до последнего коммита, дальше git pull. Ну или просто возвращаешь обратно исходный файл что бы перестало ругаться и гитпулишь как обычно.

>и потом делать то же самое в .css?
Ага
Аноним 29/01/23 Вск 03:27:07 86849 126
Этот компьютер2[...].jpg 373Кб, 1682x1035
1682x1035
>>86594
С терабайтными ссд проблем нет, вопрос скорее "нахуя?"
Аноним 29/01/23 Вск 03:52:03 86863 127
image.png 10Кб, 976x196
976x196
Ну вот и что, и чего?

Делал все по гайду тренинга лоры, дошел до запуска скрипта пикрил. А как его запустить-то? Это же блокнот! На .\train_network.ps1 что в павершеле, что в командной строке выдает
>не распознано как имя командлета, функции, файла сценария или выполняемой программы. Проверьте правильность написания имени, а также наличие и правильность пути, после чего повторите попытку
>не является внутренней или внешней командой, исполняемой программой или пакетным файлом.
Аноним 29/01/23 Вск 03:54:22 86869 128
>>86863
Ты в папку с файлом-то зашел? В powershell.
ls напиши и проверь что файл есть в списке
Аноним 29/01/23 Вск 03:57:46 86875 129
image.png 9Кб, 551x143
551x143
>>86869
Вот он у меня закинут в папку сд скриптс. В списке есть. Павершел с момента выборов не закрывал.
Аноним 29/01/23 Вск 04:01:20 86878 130
1653250906292.png 5Кб, 351x148
351x148
>>86875
Выйди из венв перезапусти

>>86863
Че так сложно? Просто через пкм или открываешь павершелл через пуск и тупа кидаешь в него файл
Аноним 29/01/23 Вск 04:01:42 86879 131
>>86875
Попробуй сделать
Set-ExecutionPolicy -ExecutionPolicy Unrestricted -Scope CurrentUser
Аноним 29/01/23 Вск 04:09:14 86885 132
image.png 15Кб, 847x147
847x147
>>86879
Делал в самом начале, нагуглил когда начало выдавать ошибку.

>>86878
>Выйди из венв перезапусти
Сделал.
>открываешь павершелл через пуск и тупа кидаешь в него файл
Без админа - просто открывает блокнот. С админом - пикрил.
Аноним 29/01/23 Вск 04:14:52 86888 133
>>86875
.txt убери из имени файла
Аноним 29/01/23 Вск 04:18:07 86893 134
image.png 2Кб, 162x60
162x60
>>86888
Его там нет. Здесь просто показывает формат.
Аноним 29/01/23 Вск 04:24:20 86900 135
>>86893
Пкм - свойства - подробно - имя
показ расширений надо включать
Аноним 29/01/23 Вск 04:28:20 86902 136
image.png 22Кб, 768x302
768x302
>>86900
Запустил вроде.
Решение как всегда нашлось на каком-то форуме за 2011 год.
Аноним 29/01/23 Вск 05:49:12 86970 137
>>86902
я тоже долго мучался, понять не мог, что это не расширение ps1 стоит, а просто часть имени.
Аноним 29/01/23 Вск 05:56:27 86979 138
Хуита вышла, на 0.3.1 персы тренируются, а стили художников - нет. Как решать - я хуй знает.
Аноним 29/01/23 Вск 06:03:55 86994 139
103095198p0.jpg 2812Кб, 2867x3197
2867x3197
00066-202892983[...].png 536Кб, 512x768
512x768
Аноним 29/01/23 Вск 06:20:29 87008 140
>>86994
Бля, как же надоели стандартные стили моделей, а поменять не могу...
Аноним 29/01/23 Вск 06:27:21 87022 141
>>87008
Пиши by Jeremy Limpkins и жизнь наладится.
Аноним 29/01/23 Вск 06:31:42 87028 142
00047-202892983[...].png 1638Кб, 1024x1536
1024x1536
>>86994
Хуита, на стиль влияние минимальное.
Аноним 29/01/23 Вск 06:37:14 87042 143
>>87022
Я знаю что granblue fantasy работает на аниме-моделях, но больше я ничего не знаю.
Аноним 29/01/23 Вск 07:14:44 87090 144
>>86552
Спасибо за сравнение

Мимо тот, у кого 32мерные лоры получились лучше, чем 128, а первая, на дримбутовском дополнении, еще до всего этого хайпа, то есть размерности 4, еще и более редактируемая
Аноним 29/01/23 Вск 08:19:54 87154 145
>>85916
Вот кстати, у этих лосей есть нисходящий тренд. Помню в обсуждениях на гитхабе все пытались добиться нисходящего тренда от имбеддингов и гиперсеток ( и ведь добились https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/7011 ). Интересно, что будет, если продолжить тупо тренировать дальше.
Аноним 29/01/23 Вск 10:25:59 87346 146
>>87090
Кстати да, все эти лоры меньшей размерности лучше редактируются и меньше влияют на стиль модели. Мое предположение что это из-за того что тренируется меньше параметров unet и текстового энкодера, соответственно меньше влияние на модель
>>87008
Выкладывай датасет и настройки. И показывай что есть и какой результат необходим. Тут нет телепатов
>>87154
Я вообще этого не понимаю, лоры эти ебаные. Даже если есть нисходящий тренд, то он просто минимальный, на уровне погрешности. А всё потому что китаец - ебаный лентяй, написал код который работает на 6 гб врам и теперь думает что он ебать какой охуенный и ничего больше имплементировать не надо. А ведь там еще немало фич вроде как в офф. репо cloneofsimo. И он добавляет новые. У китайца блядь не работает polynomial (!), потому что он принимает важный параметр, отвечающий за скорость спада кривой (или за её кривизну, хуй знает как сказать), у китайца соответственно нет и график полиномиал выглядит как линеар. А ведь правильно настроенный полиномиал - это поле для экспериментов, потому что он позволяет выставлять экстремальные значения скорости обучения без ущерба для результата (в теории). И китаец игнорирует уже который ишью с этой просьбой, лучше замерджить очередной бесполезный пул реквест с парой новых строчек в метадате сети
Ух, как печет у меня сука с него
Было бы 12 гб врам, тренил бы на оффициальном репозитории, похуй на оптимизации. Надеюсь cloneofsimo оптимизирует свое детище, он про что-то такое недавно писал
пригорел
Аноним 29/01/23 Вск 10:45:11 87384 147
image.png 54Кб, 651x487
651x487
Больше не куда писать. Анон в соседнем треде открыл мне генерацию голоса, я попытался локально установить по гайду китайца - вот он
https://www.bilibili.com/video/BV1T84y1e7p5/?vd_source=6d5c00c796eff1cbbe25f1ae722c2f9f#reply607277701
Вот демка на тест
https://huggingface.co/spaces/Plachta/VITS-Umamusume-voice-synthesizer
А проблема на пике, не знаю что и делать. Может тут сидят знающие?
Аноним 29/01/23 Вск 10:48:09 87390 148
.png 107Кб, 1042x731
1042x731
.png 114Кб, 2196x554
2196x554
.png 288Кб, 2172x968
2172x968
Пик 1. Вот блять потратил еще 8 гпу часов на тестовые сетки, на этот раз с разным количеством эпох при абсолютно одинаковых настройках. И не дай бог конечные эпохи визуально отличаться не будут.

Пик 2. И почему график так колдоёбит на старте эпох? Такого раньше не было, появилось с нетворк альфой 1 (окей, тут я не разбираюсь, может это особенности алгоритмов обучения).

Пик 3. Окей, выкручивая смузинг на 1 нисходящий тренд очевидно есть, но он... маленький? Или я многого прошу? Сеть как будто мало чему обучается, как будто меня опять ждёт ебатория с лёрнинг рейтами

>>87384
Хоть и немного анрелейтед, но выглядит как проблема с кодировкой
Попробуй накатить LocaleEmu и запустить с китайским языком
https://github.com/xupefei/Locale-Emulator
Аноним 29/01/23 Вск 10:49:50 87396 149
image.png 33Кб, 645x492
645x492
>>87390
Пытался, выдает пикрил. Видно проблема с noise scale, но не ясно что именно.
Аноним 29/01/23 Вск 10:53:38 87405 150
Аноним 29/01/23 Вск 10:55:13 87411 151
>>87396
Может это параметр и он как-то неправильно передается или не передается вообще?
Аноним 29/01/23 Вск 10:57:31 87415 152
image.png 5Кб, 168x165
168x165
image.png 22Кб, 841x331
841x331
>>87411
Это вот это вот хрень, не ясно где оно вообще хранится в .json его нет.
Аноним 29/01/23 Вск 10:58:43 87420 153
image.png 4Кб, 249x146
249x146
>>87415
Открывается окошко по этой кнопке, если что. Эти числа сами выставлены изначально, я их не ставил.
Аноним 29/01/23 Вск 11:00:05 87422 154
>>87420
Сори анон, я тут не помогу. Напиши в наи тред, там гораздо больше людей сидит
Аноним 29/01/23 Вск 11:03:55 87430 155
>>87415
Попробуй точку как разделитель в порядке бреда.
Аноним 29/01/23 Вск 11:06:04 87433 156
image.png 2Кб, 154x96
154x96
>>87430
Я пытался это, печатать не дает, а если скопировать 0.667 с точкой то результат пикрил.
Аноним 29/01/23 Вск 11:09:02 87442 157
>>87433
А, не, просто меняет точку на запятую.
Аноним 29/01/23 Вск 11:12:57 87449 158
image.png 25Кб, 838x377
838x377
Нашел другую мокрописю, только китайщины пиздец.
Аноним 29/01/23 Вск 11:13:47 87451 159
>>87449
И то ли я вообще нашел, хз.
Аноним 29/01/23 Вск 11:25:52 87486 160
Да, в пизду Диму 128. Оттренил 7 сеток на 16, результаты поражают. Даже на "высоком" лр, где на 128 уже датасет выдавливал рисовку модели своей рисовкой, на 16 никаких следов от этого нет. Куда лучшая переносимость. Интересно потом будет потренить стиль на таком Диме.
Аноним 29/01/23 Вск 11:29:31 87491 161
>>87486
не понял, стили лучше тренятся на низком диме? у тебя 0.4.0?
Аноним 29/01/23 Вск 11:32:38 87497 162
>>87491
У меня 0.4.0
Я не тренировал на низком диме
> Интересно потом будет потренить стиль на таком Диме
Но я буду не против если потренишь и покажешь что получилось. Уже подзаебался если честно
Аноним 29/01/23 Вск 11:51:47 87560 163
.jpg 1865Кб, 3456x2663
3456x2663
.jpg 1910Кб, 3456x2663
3456x2663
.jpg 1978Кб, 3456x2663
3456x2663
.jpg 2087Кб, 3456x2663
3456x2663
Скорость обучения UNet 5е-4, ТЕ 2.5е-4, network_dim 16, alpha 1
Маленький дим позволил наконец-то сети понять что такое заколка, где она, какого она цвета и формы! (для тех кто читал вчерашний пост). Сетки весят по 18 мегабайт, волшебно.
Да, длительность обучения однозначно влияет на результаты. Чтобы получить похожие результаты, нужно тюнить скорость обучения или еще чего. Тренировать на одном LR разное количество эпох – нет, это так не работает.
Лучший результат для меня – 10 эпох (1770 шагов / 177 пикч с повторениями). На 20 эпохах сетка перетренировалась, на 30 перетренировалась жутко. Есть смысл понижать LR для большего количества эпох, но в пизду, меня мои 10 эпох устраивают.
Итого что я имею на данный момент, это network_dim 16, network_alpha 1, UNet LR 5e-4, TE LR 2.5e-4, 17.7 повторений на 1 пикчу датасета (учитывая повторения) пока хуй знает насчет этого. Осталось выяснить планировщик. Буду пробовать cosine и cosine_with_restarts. Первый в китайцоскрипте внезапно рабочий, второй полурабочий, но все же не такая ситуация как с polynomial, можно еще найти применение.
Потом попробую найти примерный оптимал для стилей, не удивлюсь что все настройки в итоге окажутся такими же.
Аноним 29/01/23 Вск 14:19:24 88012 164
Аноны, вдруг кто в курсе: есть 2060 super на 8 гигов, ее хватает на тренировку 1.5 модели файлами 512 пикселей и без текст энкодера, но хотелось бы тренировать модель 2.1 файлами 768 пикселей ну или хотя бы 1.5, но с текст энкодером. Если я поставлю вторую такую же карту, можно ли будет как-нибудь использовать суммарный VRAM этих карт для тренинга? Или лучше все же сразу мутить одну карту на 16+ гигов?
Аноним 29/01/23 Вск 14:33:46 88048 165
>>88012
> суммарный VRAM этих карт
Нет.
Аноним 29/01/23 Вск 15:22:30 88201 166
Почему я на 4090 на пикче 512х512 получаю 10 it/sec? WTF автоматик?
Аноним 29/01/23 Вск 15:32:53 88224 167
>>88201
с какими параметрами запущен webui?
Аноним 29/01/23 Вск 15:36:40 88229 168
>>88201
Добро пожаловать в пердолинг. Потом получишь около 35 (на батче со 150шагами, иначе слишком быстро).
Аноним 29/01/23 Вск 16:00:51 88266 169
>>88224
set COMMANDLINE_ARGS= --xformers --deepdanbooru --no-half

Причем есть две папки с разными xformers, скорость ~одинаковая
Аноним 29/01/23 Вск 16:06:35 88286 170
Вы тут только аниме трените? Кто-нибудь реальных людей тренил? 20 фоток достаточно? Я делал по 12 повторений на 10 эпох и как понимаю перетренировывал. Получалось 2400 шагов. То есть закидывал портреты и стабл 99% портретов выдавал, пусть и очень похожих. Вопрос соответственно, лучше больше фоток и меньше повторений тренить?
Аноним 29/01/23 Вск 16:08:37 88289 171
Аноним 29/01/23 Вск 16:12:17 88294 172
>>88286
Если перетренировал попробуй уменьшить вес
Аноним 29/01/23 Вск 16:16:04 88302 173
>>88289
Закинул. На старом торче 14,5 , на новом 15,5. Уже лучше, спасибо. Хотя мне казалось что на новом торче уже должны быть новые либы
Аноним 29/01/23 Вск 16:30:52 88347 174
>>88302
можешь ещё конкретно вот эту версию xformers накатить https://github.com/C43H66N12O12S2/stable-diffusion-webui/releases/download/torch13/xformers-0.0.14.dev0-cp310-cp310-win_amd64.whl
челу из трэда https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/7135 вроде как помогло

если не поможет, можешь в корне webu, в файле webui.py после
def initialize():
check_versions()
написать
torch.backends.cudnn.enabled = False
Аноним 29/01/23 Вск 16:47:39 88385 175
Аноним 29/01/23 Вск 16:49:25 88388 176
Аноним 29/01/23 Вск 16:56:10 88400 177
>>88385
Спасибо
>>88388
Чтобы рисовал, что просят, а не что научили?
Аноним 29/01/23 Вск 16:59:11 88409 178
>>88347
Типо откатиться на старые? Хм, попробую
Аноним 29/01/23 Вск 17:14:26 88447 179
Ребзя, подскажите почему часто при включении или при смене модели перестает работать? последнее что пишет Loading weights название модели. Может озу не хватает?
Аноним 29/01/23 Вск 17:17:22 88455 180
>>88447
Не было такого, 32 гб рамы.
Аноним 29/01/23 Вск 17:18:50 88458 181
>>88455
Ну у меня 16 озу и 16 подкачки
Аноним 29/01/23 Вск 17:20:30 88462 182
>>88458
может в самом ватоматике дело, у меня последний релиз всего
Аноним 29/01/23 Вск 17:29:11 88479 183
>>88462
надо попробовать обновить, я оч давно не обноалял
Аноним 29/01/23 Вск 17:33:02 88484 184
Вопрос, как гиперневорк включать через промпт?
Аноним 29/01/23 Вск 17:51:35 88511 185
>>88484
Никак. Через промт включается лишь эмбеддинг и с недавних пор лора. Гиперсеть через настройки выбирается, как vae.
Аноним 29/01/23 Вск 17:54:19 88518 186
.png 358Кб, 1588x1062
1588x1062
>>88511
Да что ты говоришь
Аноним 29/01/23 Вск 17:55:14 88521 187
1531352124256.png 5Кб, 271x66
271x66
1519409413045.png 15Кб, 899x82
899x82
1556683564933.png 2Кб, 160x47
160x47
>>88484
Если у тебя одна из новых версий, этот - >>88511 - пиздит. Теперь можно кнопочками или набрать по памяти.
Аноним 29/01/23 Вск 17:56:31 88524 188
>>88518
>>88521
Не обновлялся неделю. Извиняюсь.
Аноним 29/01/23 Вск 17:58:40 88529 189
>>88524
Ничего страшного, анон
Аноним 29/01/23 Вск 18:03:57 88538 190
Кстати, раз уж такая тем, то как туда превью заделать?
Аноним 29/01/23 Вск 18:11:14 88550 191
1639277286557.png 6Кб, 98x106
98x106
>>88538
Генеришь с выбранными эмбедом/гипером/лорой картинку, нажимаешь иконку на болванке по наведению мышкой, превью запекается.
Аноним 29/01/23 Вск 18:22:58 88567 192
>>88550
Вауу, вот это круто, спасибо
Аноним 29/01/23 Вск 18:40:47 88611 193
Блять арендовал гпу, стоит по дефолту 3.7 питон, не знаю как сука 3.10 накатить, без него обучалка не работает
Аноним 29/01/23 Вск 18:53:04 88648 194
Аноним 29/01/23 Вск 18:54:22 88651 195
>>88648
А, это не линакруфовский, а тохуебский колаб. Ну, сорта...
Аноним 29/01/23 Вск 18:54:36 88652 196
>>88648
Оп, пасиба, попробую
Аноним 29/01/23 Вск 18:54:50 88654 197
Аноним 29/01/23 Вск 18:55:36 88659 198
>>88654
Нихуя, спасибо
Аноним 29/01/23 Вск 19:08:33 88708 199
>>88400
это не рисунок, а интерполяция, нейросетка не рисует а только пиздит
Аноним 29/01/23 Вск 19:25:28 88759 200
>>88524
всё теперь точно обновляюсь
Аноним 29/01/23 Вск 19:26:16 88765 201
.png 354Кб, 2560x1294
2560x1294
Господи, блять, неужели. 2 часа проебался чтобы запустить это говно. Иксформерс не пашут, 8бит адам не пашет, я ебал этот линупс.

>>88648
>>88654
Еще раз сепсис
Аноним 29/01/23 Вск 19:27:33 88769 202
>>88765
> 4.02 s/it
И стоило оно того?
Аноним 29/01/23 Вск 19:27:58 88772 203
>>88769
train_batch_size 10, здравствуйте
Аноним 29/01/23 Вск 19:39:58 88810 204
Аноним 29/01/23 Вск 19:43:37 88825 205
1559436379203.jpg 374Кб, 1019x629
1019x629
>>88810
Чтение комментариев по ссылке - для лохов?
Аноним 29/01/23 Вск 19:45:06 88832 206
>>88388
Устраивать жирные набросы, сначала в наи треде потом здесь.
Аноним 29/01/23 Вск 19:46:37 88838 207
>>88832
Я уже понял что это один и тот же человек. Именно один. Болезненный какой-то. Игнорируем.
Аноним 29/01/23 Вск 21:41:21 89124 208
>>82417 (OP)
Ебашу лорку на 6400 шагов на стиль худа
Аноним 29/01/23 Вск 21:43:49 89131 209
Аноним 29/01/23 Вск 21:56:44 89177 210
>>85183
Или промпт и модель, или не было это нарисовано мясным мешком / img2img
Аноним 29/01/23 Вск 22:12:48 89239 211
Аноним 29/01/23 Вск 22:20:30 89266 212
>>89239
Типо бля наэкранный интерфейс чи шо?
Аноним 29/01/23 Вск 22:34:09 89307 213
>>88810
Упоролся и протестировал все методы на Top P 100 у плагина, для CFG 30.

По итогу могу сказать, что лучше всех работает в таких экстремальных условиях только
cosine up + linear down. Возможно другие варианты смогут лучше себя раскрыть если понижать Top P, но мне пока лень этим заниматься.

-- - значительный баг или непопадание, возможности фиксирования не проверялись
+- - выдает неплохой результат, но имеет значительный баг, который можно пофиксить через mimic и top p
++ - хороший результат

Общий результат:

-- cosine up + constant (distortion face)
++cosine up + linear down
-- cosine up + cosine down
+- cosine up + linear up
--cosine up + cosine up


--constant + constant
+-constant + linear down
-- constant + cosine down
+-constant + linear up
+-constant + cosine up

--linear down + constant
+-linear down + linear down
+-linear down + cosine down (black n white bug)
+-linear down + linear up (distortion face)
--linear down + cosine up

--cosine down + constant
-+cosine down + linear down
+-cosine down + cosine down (black n white bug)
-- cosine down + linear up (perfect prompt with distortions)
--cosine down + cosine up

--linear up + constant
+-linear up + linear down
+-linear up + cosine down (black n white bug)
+-linear up + linear up (perfect prompt with distortions)
--linear up + cosine up
Аноним 29/01/23 Вск 23:27:05 89423 214
Куда лучше залить свои лоры? На civitai или huggingface? Или по старинке на мегу?
Ничего особенного у меня нет, кроме как стилей авторов рисунков и персонажей из аниме. Хотелось бы знать за ту местную мочу. Можно ли указывать, что стиль определенного автора? И можно ли на civitai несколько версий залить на одну страницу?
Аноним 29/01/23 Вск 23:36:04 89439 215
>>89423
местному анону который не обновляет репозиторий уже неделю
Аноним 29/01/23 Вск 23:42:08 89449 216
>>89439
У меня нет желания. Пароль 2ch
Аноним 29/01/23 Вск 23:46:14 89454 217
00745-103323584[...].png 1316Кб, 896x1216
896x1216
>>89177
это мясной нарисовал, успокойся
Аноним 30/01/23 Пнд 00:02:30 89483 218
>>89449
Почему? Хорошая же идея была.
Аноним 30/01/23 Пнд 00:38:05 89542 219
Обновил automatic, теперь включено превью пикч пока генерятся. Вопрос на сколько сильно это замедляет и надо ли выключать?
Аноним 30/01/23 Пнд 00:44:32 89560 220
>>89542
Зависит от жирности превью и частоты вывода, на фул - сильно. Потести сам, я вообще включаю только когда нужно.
Аноним 30/01/23 Пнд 01:16:55 89620 221
Эх, а тут ведь еще реквесты брали, но так кроме парочки и не доставили. Я еще чуть-чуть жду.
Аноним 30/01/23 Пнд 01:26:36 89647 222
>>89620
Какие реквесты?
Аноним 30/01/23 Пнд 01:38:22 89665 223
А есть какой-нибудь гайд для тренировки ЛОР в облаке, на том же коллабе? Какие-то ссылки я видел, но пользоваться как - хз вообще.
Только гайд чтоб для совсем хлебушков, которые с этой фигней никогда раньше не работали.
А то моя 2070 и полноценно тренировку не тянет, долго сильно, да и, чую, помрет скоро такими темпами.
Аноним 30/01/23 Пнд 01:59:11 89675 224
>>89665
Что за настройки ты накрутил, чтобы тренировка не тянулась? С 512 пикчами ест где-то 6гб. И что означает "полноценно"?
Аноним 30/01/23 Пнд 02:04:06 89684 225
Сколько надо памяти чтоб мержить?
Аноним 30/01/23 Пнд 02:30:22 89724 226
>>89675
Долго сильно. Так то по памяти оно тянет, впритык к моим 8гб. 512px, 2 batch.
Но я в основном стили и концепты тренировать пытаюсь, а это очень долго выходит, исходя из необходимого количества материала и повторений. И не шибко стабильно.
Поэтому и думаю, куда это можно перетащить, чтоб не так медленно было.
Аноним 30/01/23 Пнд 02:31:23 89726 227
>>89665
> А то моя 2070 и полноценно тренировку не тянет
тут у людей 1060 тянет
Аноним 30/01/23 Пнд 02:32:27 89729 228
>>89724
Колабоская Т4 гораздо слабее твоей 2070
Аноним 30/01/23 Пнд 02:38:20 89742 229
Аноним 30/01/23 Пнд 02:41:01 89747 230
>>89620
А какой у тебя реквест и готов ли датасет?
Аноним 30/01/23 Пнд 02:45:22 89757 231
>>89620
Да, у меня до сих пор пару датасетов валяется неоттрененных. Меня заебала вонючая лора. Не могу найти хорошие настройки. Сейчас чувствую брошу нахуй всё. Немного спасает что теперь могу в облаке тренировать
Аноним 30/01/23 Пнд 02:46:53 89758 232
>>89726 >>89729
Гугл включил - и другими делами занимаешься.
Пусть и дольше будет, зато комп свободен.

Вместо того, чтоб комментировать, плохо ли, хорошо ли, а зачем тебе - написали бы, где нормальное руководство искать. Можно и на английском, у меня с ним норм. Но чтоб подробно.
Аноним 30/01/23 Пнд 02:49:31 89763 233
>>89757
Это ты написал мокропиську-гуй для скрипта?
Аноним 30/01/23 Пнд 02:52:45 89769 234
>>89483
Некоторые аноны не делятся нихуя. Другим проще повниманиеблядствовать на цивите или хагинфейсе. Я ебусь с настройками как долбаеб. Ничего не треню, ебу один и тот же датасет. Меня от её ебала уже тошнит. Блядский питухон изучаю и мне сложна, у меня задница с этого горит. В гайд есть что добавить, но мне лень и я боюсь вкинуть дезинформацию потому что сам до конца не понимаю как всё работает. Таблетки не помогают. С треда 80% людей съебало, интересные темы и вопросы не поднимаются. Настали темные времена...
Аноним 30/01/23 Пнд 02:53:22 89771 235
Аноним 30/01/23 Пнд 02:56:04 89779 236
Аноним 30/01/23 Пнд 02:56:33 89781 237
>>89771
Это тоже твои ресерчи? >>87560
Такое чувство что ты тут один остался кто за идею хуярит. Скинь какой-нибудь датасет, скажи настройки, я попробую какое-то сравнение из нескольких лор, сделанных на разных настройках сделать чтобы помочь, заодно получше научусь
Аноним 30/01/23 Пнд 03:00:18 89786 238
>>89742
У меня 16 и выдает ошибку. Что делать?
Аноним 30/01/23 Пнд 03:01:07 89789 239
Аноним 30/01/23 Пнд 03:03:30 89792 240
>>89781
Да, хуйней тут страдаю. Ценю помощь, спасибо. Но сейчас ничего не скину, с телефона капчую проснулся и не могу заснуть :(
Это вполне нормально что всем похуй, я не обижаюсь. Часть анонов съебала, многие судя по всему остались на версии 0.3.2 где все относительно стабильно, но мне сука хочеца выжать максимум из этой сучки
Аноним 30/01/23 Пнд 03:04:43 89798 241
>>89779
Ага, в основном доступно.
Настройки кучкой, минимум всяких окон, которые непонятно чего делают.
Третий шаг, как я понимаю, можно пропустить, если свою модель в гугл загрузить в соответствующую папку?
Аноним 30/01/23 Пнд 03:07:18 89801 242
Большинство перегорели уже. В частности меня и пару моих знакомых, которые тоже варятся в этом котле, уже заебало одно и тоже.
Аноним 30/01/23 Пнд 03:08:43 89803 243
>>89798
Да, только все пути и имена файлов нужно будет правильно указать в полежнем шаге
Аноним 30/01/23 Пнд 03:09:34 89808 244
Аноним 30/01/23 Пнд 03:09:41 89809 245
И добавить строчку с параметром альфы
Аноним 30/01/23 Пнд 03:14:12 89815 246
>>89769
То, что сейчас я залил, сделал еще дней 10 назад. Но ебался с настройками, думал вот сейчас точно лучше будет, а в итоге только первые две попытки и оказались успешнее всего. Примерно с гиперсетями у меня похожая история была. Искал 100% годные рецепты, находил не раз, а каждый раз все хуже и хуже. Остановился на том, что дефолтные лучше всего.
Рано или поздно кто-то да поделится.
Отток людей это нормально. Набегут еще. Скорее хаус упорядочился.
Аноним 30/01/23 Пнд 03:17:11 89819 247
>>89803
Понять бы еще, какая там папка корневая.
Вот, допустим, у меня лежит в корне гугл-диска папка "AI", и там уже всё остальное - сеты для тренировки, папка с моделью, папка для вывода, всё такое.
Как будет путь выглядеть?
Аноним 30/01/23 Пнд 03:20:21 89823 248
>>89808
Генерация контента уровня "аниме-тян на фоне какой-нибудь хуйни" или "реалистик-тян (с эффектом зловещей долины) на фоне какой-нибудь хуйни". Иногда не тян, а кун, неважно. И все имидж борды и дискорд серваки (российские, американские, японские, корейские) завалены на 99.9% именно таким контентом.
Аноним 30/01/23 Пнд 03:21:16 89826 249
>>89815
О, вижу залил, красава! До слёз. Прикольный стиль, надо с утра попробовать
> думал вот сейчас лучше будет
Классика :( Хочется как лучше, а в итоге как обычно. К гиперсетям я вообще боюсь притрагиваться, у кого-то на 2000 шагах вырвиглаз, у других на 50к всё нормально. А для технотреда еще настанут золотые времена! Все еще только зарождается
Аноним 30/01/23 Пнд 03:21:52 89828 250
>>89819
/content/drive/MyDrive/AI/
Аноним 30/01/23 Пнд 03:24:41 89832 251
>>89823
Да, понимаю. Грустно, кумеры победили. Поэтому люблю иногда включать сд 2.1 и генерировать всякую хуету, всякие подземные заброшенные лаборатории, ебанутые концепты всякой дичи, инопланетное говно, сооружения на марсе, весело, отвечаю
Аноним 30/01/23 Пнд 03:29:59 89839 252
>>89826
Я все еще работаю над meme-chan, coconut из некопары. В идеале хочу все же сделать всех кукл розен майден и нек из некопары одним файлом для каждых. Еще месяц-два назад видел, как кто-то с форчана запилил лору с несколькими тянками из Love Live, когда у нас про эту самую лору никто не знал.
Если я чем-то загорелся, значит все, минимум на год, а скорее на года два. Так что я здесь еще на очень долго. В процессе еще что-то придумаю.
Аноним 30/01/23 Пнд 03:33:32 89848 253
>>89792
Ну я попробовал 0.3.2, там точно работало, опыта у меня мало, сейчас вот уже перекатился тоже на 0.4.0 и хочу что-то потренить, видимо придётся самому собирать что-нибудь для датасета, раз уж и ты там в полудрёме, ничего плохого в 0.3.2 тоже ведь нету, лоры оттуда работают, да и твои на 0.4.0 уже выдают отличные результаты, так что тут можно только похвалить кохью и автоматика, что обратная совместимость есть
Аноним 30/01/23 Пнд 03:33:36 89849 254
>>89828
Ага, оно живое.
Каких-то варнингов накидало, но тренировку запустило. И вроде как побыстрее локали, видимо за счет batch 3 вместо моих 2. Число шагов все-таки пониже получается.
Спасибо.
Аноним 30/01/23 Пнд 03:36:22 89854 255
>>89839
Так ты пости результаты, будем обсуждать, корректировать что надо. Хочу коконат увидеть
Бтв съебываю из репо китайца походу, сейчас листаю гитхаб оффициальной лоры, так там пиздец, столько крутых фич чтобы улучшить результаты! Еще и вчера новая версия вышла. Там конечно 6 гб памяти не вытянут скорее всего, буду в облаке тренить, что остается
Жду ваниллу бтв
Аноним 30/01/23 Пнд 03:40:35 89861 256
>>89848
В 0.3.2 есть большая проблема, это нулевые тензоры. Впустую потраченное время гпу, неполноценные недотренированные модели, которые в теории могли быть лучше
> твои на 0.4.0 уже выдают отличные результаты
Спасибо, но я так не считаю. Есть бесячие моменты которые пока не удается исправить
Аноним 30/01/23 Пнд 03:50:58 89881 257
1675039856016.jpg 1624Кб, 4000x2872
4000x2872
>>89854
Вот по этому совету сделал сегодня >>87560
И в правду редактируемость фона улучшилась.
Тестировал тег squatting. Колготки в сетку само собой глючат.
Аноним 30/01/23 Пнд 03:57:20 89893 258
>>89881
Слушай, а ведь хорошо получилось! Но на большем весе видно как рисовка датасета "выдавливает" рисовку модели. Я вот пытаюсь с этим бороться. Помогает уменьшение обоих lr до 3е-4/1.5е-4, но не панацея
Аноним 30/01/23 Пнд 04:05:40 89910 259
>>89861
Не в пустую, прямо сейчас генерил Лейн лорой созданной еще на бородатой версии каким-то здешним аноном, за что ему кстати спасибо, объединённой с лорой на йошитоши абе.
Впустую, ты наверное имеешь ввиду, когда только эту проблему решать взялись и у всех начались проблемы.
Вообще если так рассуждать, всё это время эни3 могла бы быть с пофикшенными тензорами, и пару других чисел многие генерации изменили бы до неузнаваемости, в теории лучше, но кто его знает, может быть и наоборот, однако это не отменяет того, что до выхода апельсина многие ей пользовались как основой для очень многих миксов и делали вполне неплохие арты.
Хорошо кстати, что ты эти знания выкладываешь по новой версии тренировки лор, я ими обязательно воспользуюсь в ближайшее время.
Аноним 30/01/23 Пнд 10:38:04 90295 260
>>89910
А откуда лору брал? Я просто тоже Лейн делал лору
Не впустую конечно, я просто шиз, помешанный на перфекционизме и неприятно что все что я делал до 0.4.0 как бы могло быть лучше
Ух, сегодня великий день, попробую другой репозиторий. Ожидания высокие
Аноним 30/01/23 Пнд 10:45:14 90308 261
Нейро-ребята, подскажите нейросеть которая генерит теги по изображению
Аноним 30/01/23 Пнд 11:45:55 90372 262
.png 8Кб, 761x71
761x71
Наныл-таки!
Аноним 30/01/23 Пнд 11:46:23 90373 263
00787-135b840d5[...].png 1684Кб, 1280x1024
1280x1024
00837-135b840d5[...].png 1771Кб, 1280x1024
1280x1024
>>90295
Ну я из треда скачивал, это она вроде лежит сейчас в коллекции лор? Твоя? Отлично сочетается со стилем художника из коллекци форчана.
Будешь тестить какую-то репу с более обширным функционалом?
Аноним 30/01/23 Пнд 11:48:05 90375 264
>>90373
> Твоя?
Да :3
> Будешь тестить какую-то репу с более обширным функционалом?
Да: https://github.com/cloneofsimo/lora
Оч интересно что выйдет
Аноним 30/01/23 Пнд 13:36:42 90564 265
Аноним 30/01/23 Пнд 13:57:58 90600 266
>>90375
Расскажешь потом что получится?
Алсо это же не нормально когда вызываемая лора начинает работать правильно только с кучей сопутствующих тегов на заколку, цвет глаз, использованных при тренировке, а не просто ее вызов в промпте? Просто простой вызов на 1.0 проебал походу вообще все элементы персонажа, кроме цвета волос. Алсо, если не менять промпт генерит как будто "на одном и том же сиде", если прописать детально промпт. Совсем маленькие отличия, даже не поворачивается персонаж особо от генерации к генерации, но фоны удивительно поддаются.
Аноним 30/01/23 Пнд 13:58:12 90601 267
>>89832
Ну так делись с народом.
Аноним 30/01/23 Пнд 14:10:34 90625 268
Приветик гайсовсня! Как добавить триггер слово в Лору?
Аноним 30/01/23 Пнд 14:49:40 90682 269
А как пофиксить остаточный ген после прошлой версии промта? Ну то есть допустим был рендер 1, меняем его на 11 и первый новый рендер будет рендерить прошлый промт, а второй уже новый.
Аноним 30/01/23 Пнд 15:10:52 90718 270
>>90600
> Расскажешь потом что получится?
Конечно, если получится
> Алсо это же не нормально когда вызываемая лора начинает работать правильно только с кучей сопутствующих тегов на заколку, цвет глаз, использованных при тренировке, а не просто ее вызов в промпте?
Да, но при этом в датасете должны быть изображения где этой заколки нет, чтобы сеть поняла, как рисовать персонажа когда она есть в промте и как рисовать когда её нет
> Просто простой вызов на 1.0 проебал походу вообще все элементы персонажа, кроме цвета волос.
Немного не понял, что ты имеешь в виду
> Алсо, если не менять промпт генерит как будто "на одном и том же сиде", если прописать детально промпт. Совсем маленькие отличия, даже не поворачивается персонаж особо от генерации к генерации, но фоны удивительно поддаются.
Маленький и не разнообразный датасет + возможно выключенная настройка "--shuffle_caption" при обучении
Я с таким сталкивался, брал промт из датасета и сетка старательно пыталась повторить пикчу с этим промтом
Если в датасете все пикчи как персонаж стоит и только одна как он сидит, неудивительно что на тег "sitting" будет мало разнообразия
>>90601
Чем? Генерациями?
>>90625
В гайде по лоре написано, поиск по странице "keep_tokens"
>>90682
Не понял
Аноним 30/01/23 Пнд 15:11:24 90719 271
grid-0035.png 764Кб, 1024x768
1024x768
102990927p0.jpg 3239Кб, 2894x4058
2894x4058
>>82417 (OP)
6400 шагов(8 повторений, 16 эпох, 50 картинок) на стиль худа
рейт
Аноним 30/01/23 Пнд 15:12:37 90724 272
>>90719
ну хоть так словил стиль, даун ебаный, как будто гиперссеть треню, а не лору
терь хз будет ли что-то кроме поз с датасета выдавать
Аноним 30/01/23 Пнд 15:13:50 90728 273
>>90719
Нихуя, красиво. Я так и не понял кто такой худ, не могу нагуглить даже. 6400 звучит как дохуя
Аноним 30/01/23 Пнд 15:34:01 90771 274
>>90728
>худ
Это сокращение от слова художник.
Второй пик его, первый - мой
Аноним 30/01/23 Пнд 15:39:19 90781 275
Аноним 30/01/23 Пнд 15:44:10 90786 276
Аноним 30/01/23 Пнд 17:40:11 91001 277
>>90718
>понял
че никода такого не было?

еще раз:
1. генерим на промте zhopa
2. добавляем zhopa anus
3. после нажатия генерации будет генерить все еще промт zhopa
4. вторая генерация после будет zhopa anus
Аноним 30/01/23 Пнд 17:41:44 91003 278
Аноним 30/01/23 Пнд 17:54:04 91009 279
Всё-таки завел иксформерсы в облаке. Блять, как же они ебашут.
Аноним 30/01/23 Пнд 18:00:00 91018 280
функция .blend() работает в pos/neg?
Аноним 30/01/23 Пнд 18:23:28 91058 281
>>91009
К этой хуйне можно иксформерсы подсосать? А локально?
Аноним 30/01/23 Пнд 18:25:11 91062 282
>>91018
интересненько, генерация с блендом на 3-4 секунды (рандом) быстрее, чем без - 41.81 vs 44.92
Аноним 30/01/23 Пнд 18:26:18 91068 283
>>91058
К какой именно? Я про аренду гпу в облаке, сначала не ставились, накатил 1.13.1 торч и последние иксформерсы и всё встало. Прирост почти 2 раза в скорости обучения
Аноним 30/01/23 Пнд 18:31:04 91080 284
>>91068
>аренду гпу в облаке
Сколько стоит?
Аноним 30/01/23 Пнд 18:31:44 91082 285
.png 42Кб, 816x155
816x155
Но блять не могу подобрать лр для батч сайза 10, либо не тренит нихуя, либо какая-то говнина с артефактами выходит
>>91080
Аноним 30/01/23 Пнд 18:33:33 91087 286
>>91082
Оно включается/отключается в любую минуту, как колаб? Скинь ссыль на сайт
Аноним 30/01/23 Пнд 18:37:07 91092 287
>>91087
https://console.vast.ai/
Нет, ты платишь за пользование гпу определенную цену в час + еще немного за хранилище. Чем больше выделил себе ссд, тем больше платишь, очевидно. 50 гб у меня 1 цент в час. Ты можешь вырубить в любой момент и тогда будешь платить только за хранилище. Если не хочешь платить вообще, то можно удалить инстанс, но придется потом заново всё настраивать
Аноним 30/01/23 Пнд 18:45:44 91106 288
.png 5Кб, 450x144
450x144
Но мне судя по всему иксформерсы насрали в штаны, видимо 0.0.16 не работает с китайцоскриптом. Сейчас убрал и нету нанов
Аноним 30/01/23 Пнд 18:47:06 91111 289
вручную обработал 500кб текста, ебать я ебнутый
Аноним 30/01/23 Пнд 18:50:55 91116 290
>>90373
А сылочку можно на АБе-лору?
Аноним 30/01/23 Пнд 19:42:55 91202 291
.png 2Кб, 152x26
152x26
.png 215Кб, 813x993
813x993
Если на васт.аи поставить эту галочку, появятся неверифицированные машины в списке с очень вкусными ценами
Аноним 30/01/23 Пнд 19:47:31 91212 292
>>91202
Лол, что за домашний-тир машины? Они радмином заразили чей-то парк?
Аноним 30/01/23 Пнд 19:51:10 91217 293
>>91212
Любой может предоставлять аренду своей видеокарты на этом сайте
Аноним 30/01/23 Пнд 19:54:42 91226 294
>>91217
Сейчас бы за 14р/час свою 3090 предоставлять. Лицо согласившихся представили? Я свою точно не дал бы
Аноним 30/01/23 Пнд 19:56:58 91232 295
.png 1Кб, 346x36
346x36
Аноним 30/01/23 Пнд 20:03:15 91240 296
>>91232
Не, за тебя-то понятно я рад.
Аноним 30/01/23 Пнд 20:04:32 91243 297
>>91226
Поставил на ночь, пусть работает. Хули нет? Майнинг то уже сдох, переходим в нейромайнинг.
Аноним 30/01/23 Пнд 20:06:19 91245 298
>>91202
А после аренды, как каломатика накатывать? На колабе то все за тебя колабщик сделал, а тут...
Аноним 30/01/23 Пнд 20:08:13 91250 299
>>91245
Ноутбуки тут тоже поддерживаются. Берешь любой и копипастишь. Ячейки прожал и работаешь
Аноним 30/01/23 Пнд 20:10:11 91251 300
3060 - 0.08$/час. Мнение?
Аноним 30/01/23 Пнд 20:11:01 91253 301
>>91251
Да 3070 дохера с такой или ниже ценой. Интересный сервис...
Аноним 30/01/23 Пнд 20:12:17 91254 302
Господа, что прописать что бы грид выдавал 10 штук рандомных сидов? Рандомный сид это -1, а дальше?
Аноним 30/01/23 Пнд 20:15:24 91258 303
>>91092
>за хнанилище
Сколько?
Аноним 30/01/23 Пнд 20:16:52 91260 304
Аноним 30/01/23 Пнд 20:19:56 91266 305
>>91260
Ой, не заметил...
Аноним 30/01/23 Пнд 20:20:36 91268 306
.png 394Кб, 512x512
512x512
.png 411Кб, 512x512
512x512
.png 426Кб, 512x512
512x512
.png 362Кб, 512x512
512x512
Есть некоторый кек в том чтобы тренировать без текст энкодера
Аноним 30/01/23 Пнд 20:21:55 91274 307
>>91217
Где сдать свою 1060?
Аноним 30/01/23 Пнд 20:22:41 91278 308
>>91274
На металоприемке
Аноним 30/01/23 Пнд 20:22:42 91279 309
>>91274
В дом престарелых
Аноним 30/01/23 Пнд 20:23:24 91283 310
>>91268
> кек
ст энкодер
Аноним 30/01/23 Пнд 20:24:42 91288 311
>>91283
Я вас не понимаю
Аноним 30/01/23 Пнд 20:26:24 91293 312
Аноним 30/01/23 Пнд 20:28:32 91300 313
чичас вкину сравнение только унет, только кекст энкодер и оба
Аноним 30/01/23 Пнд 20:32:45 91307 314
>>91254
Сам нашел -1--1[10] как-то всрато
Аноним 30/01/23 Пнд 20:33:46 91308 315
Аноним 30/01/23 Пнд 20:33:57 91309 316
>>91307
Ну пропиши 10 штук через запятую.
Аноним 30/01/23 Пнд 20:38:09 91323 317
.png 15Кб, 683x127
683x127
Аноним 30/01/23 Пнд 20:40:40 91328 318
>>91309
Дольше и костыльнее
Аноним 30/01/23 Пнд 20:48:43 91341 319
.jpg 1200Кб, 2560x1668
2560x1668
.jpg 1208Кб, 2560x1668
2560x1668
.jpg 1135Кб, 2560x1668
2560x1668
.png 5Кб, 101x63
101x63
Аноним 30/01/23 Пнд 20:50:02 91345 320
>>91328
Всмысле костыльнее? Это та же логика что при записи всех других штук в x\y график.
Аноним 30/01/23 Пнд 20:53:00 91354 321
.png 22Кб, 815x113
815x113
Мнение?
Аноним 30/01/23 Пнд 21:00:16 91365 322
>>91345
> Всмысле костыльнее?
Меня однажды отпиздили за гаражами за то что задал массив как [1,2,3,4,5] а не [1..5]

>та же логика
Мейби, но писать 0.1-1(+0.1) удобнее чем перечислять все значения например
Аноним 30/01/23 Пнд 21:20:15 91395 323
>>91354
Окупаемость за 1000 часов. В принципе неплохо.
Аноним 30/01/23 Пнд 22:30:08 91541 324
.png 6074Кб, 2432x1675
2432x1675
Шизы на месте? Продолжаем тестирование.
Аноним 30/01/23 Пнд 22:31:44 91544 325
>>91541
левая верхняя лучше всего получилась
Аноним 30/01/23 Пнд 22:33:25 91547 326
Аноним 30/01/23 Пнд 22:35:00 91552 327
Meryl701.png 446Кб, 560x536
560x536
Meryl701.png210[...].png 400Кб, 512x512
512x512
Meryl701.png327[...].png 399Кб, 512x512
512x512
Meryl701.png419[...].png 399Кб, 512x512
512x512
Правильно ли я понимаю, что если у меня есть пик1 (560x536px), то из него имеет смысл по-разному вырезать куски 512x512px (пик 2-4)? Я понимаю, что это не заменит датасет. Речь идёт скорее об обработке каждой фотки в датасете подобным образом.

Есть ли готовый скрипт для этого?
Аноним 30/01/23 Пнд 22:38:53 91554 328
>>91552
> из него имеет смысл
Не имеет
Аноним 30/01/23 Пнд 22:48:02 91574 329
>>91547
пипец долго думал почему лол
нет просто имо поза и выражение лица самые милые
Аноним 30/01/23 Пнд 23:07:36 91611 330
Есть ли различие между batch_size и batch_count при генерации на CPU?
Аноним 31/01/23 Втр 00:22:18 91761 331
Latte-no-tags.jpg 7736Кб, 5888x5500
5888x5500
any222trin-no-t[...].jpg 8311Кб, 5888x5500
5888x5500
screenshot.png 1372Кб, 2392x972
2392x972
Аноним 31/01/23 Втр 00:24:50 91771 332
Latte-tags.jpg 9573Кб, 5888x5500
5888x5500
any222trin-tags.jpg 9772Кб, 5500x5137
5500x5137
Аноним 31/01/23 Втр 00:35:45 91798 333
>>91771
Ой бля даже хуй знает что сказать. Датасет вроде нормальный. Хуй поймешь эту лору. 10ая эпоха вообще пиздец странная, как будто из другой вселенной, втф? Возможно слишком долго обучал. Я сегодня сравнивал 10, 20, 30 эпох на одинаковых настройках, так вот чем дольше, тем нейронка "сильнее" запоминает датасет и теряется вариативность. Когда переобучаешь спасает только уменьшение веса лоры, но есть риск сделать персонажа менее узнаваемым
Щас я грид сделаю, у меня +197 лора файлов, вроде как что-то нащупал, и выглядит опрятно, и стиль от модельки к модельке меняется. И заколка в паре сеток уверенно так рисуется, прямо как в датасете, перамога кек
Аноним 31/01/23 Втр 00:50:03 91839 334
10th-epoch-tags.jpg 9239Кб, 5888x5500
5888x5500
10th-epoch-no-t[...].jpg 7903Кб, 5888x5500
5888x5500
>>91798
С десятой эпохой обосрамс с лишним нулём в гриде, она всё таки рабочая, но всё равно какая-то не оч, мне больше всего не нравится, что сид хоть и меняется с уточняющими тегами, смены положения персонажа в кадре нету, всегда слева направо смотрит, иногда в середине мелькает, наверное зеркалить всё таки нужно, но тогда беда с заколкой будет ещё больше по идее. Ну и восьмая эпоха похожа на самую стабильную.
Аноним 31/01/23 Втр 01:11:07 91864 335
я нихуя не понял как, но маняфункция
,,,,,blend(промт)
миксит прям перфект без дропов, экспрессия на картинах прям дышит, можно поменьше запятых, допустим одну, с точкой вначале результаты дает хуже
токен , = 267, токен . = 269
Аноним 31/01/23 Втр 01:11:47 91865 336
>>91554
Поздно, я уже написал скрипт, который это делает.
https://pastebin.com/9anRu74x
Так что теперь датасет должен быть не из картинок 512х512, а из таких картинок, что любой прямоугольник 512х512 содержит заданный концепт.

Любители загнаться - велкам!
Аноним 31/01/23 Втр 01:14:08 91870 337
.jpg 2667Кб, 2944x2692
2944x2692
.jpg 3042Кб, 2944x2692
2944x2692
.jpg 3084Кб, 2944x2692
2944x2692
.png 2122Кб, 1587x1000
1587x1000
>>91839
Кароче вот мои наблюдения за сегодня

1 пик AOM2-sfw, 2 пик ACertainty, 3 пик udonNoodleMix, 4 пик ГТ (референс)

Что общего у всех: основа ACertainty, датасет 59 пикч суммарно вместе с повторениями (11х4+15х1), network_dim 16, network_alpha 1, train_batch_size 10 (<- это очень важно), clip_skip 2 очевидно, keep_tokens 1, shuffle_caption (триггер токен tk первым тегом везде), lr_scheduler constant_with_warmup, 20 эпох, разгон планировщика ровно половину всех шагов (но с этим в теории можно поиграться)

Разные скорости обучения:
unet:
0.5e-3, 1.0e-3, 2.0e-3, 3.0e-3
text encoder:
0.1e-3, 0.2e-3, 0.4e-3, 0.6e-3 (т.е. в 5 раз меньше unet lr)

Что я получил:
1. Ебучую заколку на некоторых сетках, причем довольно уверенную
2. Переносимость между моделями: охуенскую переносимость между моделями. Как-то так вышло. Причем без особых тегов и кручения весов, всё в стоке, обычный промт и сразу выдает разную картинку на разных моделях. Далеко не всегда такое было, но тут прям зачёт
3. Отсутствие мыла или перешарпленности. Джизес крайст, и такое бывало
Но мне чёт МАЛА. Нужно еще что-то придумать.

Насчёт train_batch_size. Если бы у меня был батч сайз 1 то скорость была б в 10 раз меньше, но она такая гигантская потому что у меня стояло 10! Нужно всегда пересчитывать скорость под свой батч сайз. Потому что умные дяди сказали что линейная зависимость: во сколько раз относительно единицы увеличил батч сайз, во столько же раз увеличиваешь скорость обучения (обе)! А я долго ебался и не мог понять почему у меня не получается воспроизводить старые сетки, они то недо-, то перетренированные

Насчёт разгона планировщика lr_warmup_steps: на всех пиках разгон первые 50% шагов. После 50% шагов скорость обучения выходит на ровную прямую до конца обучения. Как рассчитать? Хуй знает. Я возможно проебался в нескольких моментах в скрипте и в гуе, для батч сайз стопудово он точно считает сколько ставишь, но для батч сайза больше одного не уверен. Легко проверить: настроить запустить скрипт, посмотреть сколько шагов тебе насчитала обучалка, закрыть, поставить половину от этого в lr_warmup_steps и запустить снова

Как-то так
Аноним 31/01/23 Втр 01:29:55 91886 338
.png 1028Кб, 1232x672
1232x672
.png 1423Кб, 1232x672
1232x672
.png 811Кб, 1232x672
1232x672
>>91870
> для батч сайз стопудово
для батч сайз 1 бля*

И еще важное про эпохи не упомянул. Их тут ровно 20 на каждом пике. Будет меньше или больше эпох, будут другие результаты. Но на 20 эпохах именно такие

ШУЕ ППШ
Аноним 31/01/23 Втр 01:30:40 91888 339
>>91864
>>91018
Да, бленд рабоатет в негативах и позитивах, проверяется через
"blend(prompt)", где " токен 1 и получается бесконечное смешивание в одноцветный градиент. То есть от токена зависит смешивание.
Аноним 31/01/23 Втр 01:39:42 91908 340
Мне пришла гениальная идея! Попробовать обучить своё говно в стиле дримбуз: инстанс токен + класс токен. Без тегов
Аноним 31/01/23 Втр 01:46:00 91918 341
У лоры на первых-серединных эпохах результаты могут быть лучше, чем на последней? А я удалял все, кроме последней. В гайде про это ни слова, а тут смотрю эпохи сравнивают в треде.
Аноним 31/01/23 Втр 01:50:23 91934 342
>>91870
> После 50% шагов
Это локализовано как "Разогрев планировщика?"

> поставить половину от этого в lr_warmup_steps
Такой опции же даже нету в гуе, или ты имеешь ввиду 25% сделать?
Аноним 31/01/23 Втр 01:53:34 91942 343
>>91918
Могут. На вкус и цвет. Если грамотно подобрать настройки то последняя эпоха выйдет самой лучшей. Мы этим в треде и занимаемся

>>91934
> Это локализовано как "Разогрев планировщика?"
Да. Перевод фаргус
> Такой опции же даже нету в гуе, или ты имеешь ввиду 25% сделать?
Нет, 50% и ставишь, но я опять же говорю что за правильность расчета при батч сайзе больше одного не ручаюсь. Но это в любом случае не суперкритично, просто я оттренил на всех значениях от 0-100% и мне серединка показалась самой лучшей
Аноним 31/01/23 Втр 01:54:15 91945 344
1675119252552.jpg 1380Кб, 4000x2071
4000x2071
1675119252567.png 3855Кб, 1536x2048
1536x2048
1675119252590.png 3810Кб, 1536x2048
1536x2048
1675119252604.jpg 2024Кб, 3840x2160
3840x2160
Запихнул Кокос в двух одеждах и Ваниль в network_dim 32
Не знаю нафига, но тренил 10.5 часов на 10 эпох в 21k шагов. Хотя уже 3-я эпоха норм.
Изменчивость фона хорошая, позы тоже.
Его настройки >>87560 Только я ставил 12 повторений.
>>91918
Ну да. Поэтому мы и прогоняем x\y тесты постоянно, беря шаги\эпохи с запасом. Я вот вечно наваливаю слишком много и из 8-10 эпох наиболее лучшими выходят где-то 4-6.
Аноним 31/01/23 Втр 01:58:53 91951 345
>>91945
21к - ебануться! Ебать я в голосину громко проиграл, без обид. Таких циферь на лоре еще не видел, даже от анонов с 4090. Выглядит няшно достойно имхо. А на какой модели пики делал? Интересна переносимость
Аноним 31/01/23 Втр 02:01:32 91953 346
Можешь кстати лорки скинуть, хочу повертеть
Аноним 31/01/23 Втр 02:05:12 91955 347
00052-382657822[...].png 251Кб, 512x512
512x512
Поясните, в чем смысл параноидальной педоборьбы в разработке SD и вокруг t2i в целом?
Я по своему опыту знаю, лольки 7-14 лвл это те еще маленькие чертовки. Бывает что еще не появились там волосы, а уже пускается во все тяжкие! Раньше в 13 лет выходили замуж, а у муслей в Судане выдают замуж в 9 лет.
Аноним 31/01/23 Втр 02:05:21 91956 348
15 более-менее схожих картинок с вполне чистым фоном хватит для обучения?
Аноним 31/01/23 Втр 02:06:46 91957 349
1675120003998.png 921Кб, 832x1024
832x1024
Аноним 31/01/23 Втр 02:09:17 91959 350
>>91956
Вполне. Результат зависит от контента датасета. Датасет разноообразный - чаще результаты хорошие

>>91955
Потому что педо это плоха! И это действительно плохо, но я не понимаю почему цифру, почему пиксели называют педофилией. Я думал что педофилия - это когда страдают дети. Я не знал что пиксели тоже должны быть под защитой. Педоистеричек трудно понять на самом деле

>>91957
Спасянс
Аноним 31/01/23 Втр 02:12:27 91964 351
>>91956
Для персонажа или стиля?
Для персонажа желательно чтобы с разных сторон он был, хотя бы одна пикча с full body, желательно еще со спины. То есть максимально кайфовый дата-сет - это концепт арты. Я вообще использую то модели из MMD, то фотографии аниме фигурок, если ничего другого нет, чтобы показать персонажа со всех сторон.
Аноним 31/01/23 Втр 02:13:09 91965 352
image.jpg 184Кб, 1891x510
1891x510
>>91942
Я не пони, елаборейт плиз. Вот на скрине зарядил батч сайз 10 на 20 эпох + 50%, в проге пишет 408 шагов, сама консоль тренирует 4080 шагов.
Аноним 31/01/23 Втр 02:15:11 91968 353
>>91965
На пике написано батч сайз 1! Ты через мокрописю? Когда обновлял? Я пофиксил баг с батч сайзом
Аноним 31/01/23 Втр 02:17:10 91972 354
И кстати у тебя батч сайз потянет-то хоть, там нужно 24 гб, я в облаке делал. И еще. Постарайся избавиться от повторений в датасете если несколько папок. Т.е. если у тебя там папки 20_кек и 5_кек, то так не надо делать, приведи к НОД: сделай 4_кек и 1_кек
Аноним 31/01/23 Втр 02:20:11 91974 355
.png 659Кб, 512x768
512x768
.png 540Кб, 512x768
512x768
.png 469Кб, 512x768
512x768
.png 587Кб, 512x768
512x768
>>91957
Ты бля на фигурках ваниллу обучал? :)))
Бтв жаль датасет не сильно разнообразный был, пририсовывает мейд сьют везде где только можно
Аноним 31/01/23 Втр 02:27:28 91982 356
>>91974
Ну а что поделать. По хентаю арты как правила почти не рисуют. К счастью хоть аниме вышло, от туда взял скринов.
Не думал, что кто-то будет использовать эту лору с реализмом, поэтому не тестировал на таких моделях.
Аноним 31/01/23 Втр 02:31:53 91987 357
>>91972
>>91968
Хз когда, видимо батч сайз 2 тоже до этого не работал, ладно ща попробую, а зачем НОД то, повторений же очень мало станет, не?
Аноним 31/01/23 Втр 02:34:32 91991 358
>>91982
Забавно. Интересно, помогли бы регуляризационные изображения

>>91987
Ну можешь оставить как есть. Только все эпохи сохрани
Аноним 31/01/23 Втр 02:36:36 91995 359
>>91964
Чисто персонаж.
Большая часть артов - фуллбоди. Специфическая одежда. На все буры 200 артов, где половина сразу отпадает, т.к. левая одежда, неотковыриваемые левые персонажи. Потом отваливаются просто кривые арты, всратый хентай, чибики, обнаженка. Вот и осталось 15 картинок.
Аноним 31/01/23 Втр 02:37:16 91997 360
>>91991
> Ну можешь оставить как есть. Только все эпохи сохрани
Так это ты предлагаешь сделать просто чтобы последняя эпоха нормальной сохранилась?
Аноним 31/01/23 Втр 02:39:10 91999 361
>>91991
Не раз пробовал. Персонаж совсем теряется, будто силу лоры ставлю не 0.6-0.8, а 0.2-0.3, лишь пару мелких деталек остается.
Аноним 31/01/23 Втр 02:40:40 92004 362
>>91997
Он предлагает это сделать что бы ты потом с помощью грида выбрал из всех эпох наиболее подходящую
Аноним 31/01/23 Втр 02:42:21 92007 363
>>91995
Нормально. Думаю все выйдет.
Аноним 31/01/23 Втр 02:42:23 92008 364
>>91997
>>92004 <- вот это
С большим кол-вом потворений будет куча шагов, план может пойти по пизде

>>91999
Да, с регами пизда какая-то. У меня всегда всё кончалось тем что персонаж не выглядит как датасет, а выглядит как реги
Аноним 31/01/23 Втр 03:05:46 92023 365
.png 374Кб, 512x512
512x512
.png 353Кб, 512x512
512x512
.png 397Кб, 512x512
512x512
.png 422Кб, 512x512
512x512
Оттренил датасет в стиле дримбуза только без рег. изображений, заняло три минуты, ноль тегов, папка подписана как "4_tk 1girl", результаты:
Аноним 31/01/23 Втр 03:07:41 92025 366
нихуя не понимаю есчесно как это работает, но я и одежку и фон и всё могу поменять
Аноним 31/01/23 Втр 03:12:42 92030 367
>>92008
>>92004
Бля, батч сайз 5 видяха тянет, а вот системная память нет, падает после 4 эпохи стабильно, с батчем 4 на 16, придётся откатится до 3 с соответствующим ЛР, повторения для такого нужно изменять у пикч? Не совсем понял почему нужно так мало ставить, типо каждая эпоха будет совсем по чуть чуть тренироваться и можно будет выбрать из более обширного количества лор во время тренировки, так это уловил.
Аноним 31/01/23 Втр 03:15:55 92032 368
>>92030
Да просто дохуя повторений это дохуя степсов, я не знаю что произойдет если много степсов навалить. Если хочешь пробуй. У меня эпохи были на батч сайзе 10 по 9 шагов
Аноним 31/01/23 Втр 03:38:01 92038 369
ВТФ?! После ответов на вопросы по гайду для скрипта файл train_network.ps1 тупо не появляется. Ошибок никаких при этом после ответов на вопросы не вылетает.
Аноним 31/01/23 Втр 03:39:37 92040 370
>>92038
Не понял. Каких вопросов. Скрипт качается отдельно
Аноним 31/01/23 Втр 03:45:56 92044 371
>>92040
>Скачать скрипт (ПКМ -> "Сохранить как...") (иногда обновляется)
А.. Я слепой. Думал там выложен архив что на гитхабе, а не сам сприпт.
Аноним 31/01/23 Втр 04:38:47 92053 372
Latte-no-tags.jpg 8441Кб, 5888x7036
5888x7036
Latte-tags.jpg 9419Кб, 5021x6000
5021x6000
>>92032
>>91972
Ну по всей видимости это не дотренилось? С тегами конечно получше, но всё равно херня получилась, без них почти ноль эффекта.
Всё таки осилил в 5 батч запустить, я же верные параметры выставил с таким батчем?
unet_lr: 5e-4
text_encoder_lr: 1e-4
lr_scheduler: constant_with_warmup
lr_warmup_ratio: 50.0

У тебя вроде пикч в два раза больше? Из-за этого может?
Аноним 31/01/23 Втр 06:57:57 92084 373
>>89786
Не знаю, здесь ли ты ещё, но попробуй https://github.com/bbc-mc/sdweb-merge-block-weighted-gui , там такой хуйни нет

Олсо, у меня все спокойно без расширений мерджится на пейперспейсе, где 8гб, и не мерджится на колабе, где 16. Там не только vram участвует, походу.
Аноним 31/01/23 Втр 07:35:47 92099 374
>>91999
Возможно, это особенность конкретных регов? Если делаешь реги в наи только по классу 1girl + теги качества, херачится сеймфейс/невнятная одежда, которые и запоминаются?

У меня наоборот проблема с регами. Я заморочился, наделал вагон совершенно разных высококачественных необрезанных мужиков с разными лицами, в разных позах, в разной броне, на разных фонах с разным светом. Все это в надежде, что Лора выучит именно разницу, а все хорошее (качество) возьмёт от регов.

Ага, хуй там плавал. Лора как обычно выучила основной датасет, 350 самых разных регов псу под хвост. Но я делал и реги и теги. Может, теги помешали, и надо делать мини-дримбут только с классом.
Аноним 31/01/23 Втр 07:48:35 92103 375
>>92084
При мердже vram не используется вообще.
Аноним 31/01/23 Втр 10:13:01 92152 376
>>92103
Ага. Оно тупо все в оперативу заливается. Чтобы заниматься слиянием моделей 4+ гигов имея на борту 16 оперативы - приходится все по максимум вырубать, чтобы хватило памяти. Надо 32, а лучше 64, чтобы наверняка.
Аноним 31/01/23 Втр 11:09:34 92186 377
>>91268
>>91341
На реалистике с точки зрения именно черт лица унет и текстовый енкодер дают разные результаты.

Кстати, если тренировать их вместе, кохия добавил наконец их разделение в своих additional networks, их теперь можно взвешивать раздельно.

https://github.com/kohya-ss/sd-webui-additional-networks
>Add separated U-Net/Text Encoder weight sliders. Thanks to Naegles and space-nuko!
Аноним 31/01/23 Втр 12:00:30 92250 378
>>92053
Эхх, херню значит посоветовал. Но мне мой резалт понравился, странно.
Если недотренировано у тебя еще есть варианты потренить unet 1е-3 и 1.5е-3. Есть также вариант тренить без текст энкодера, кек. А сколько шагов в сумме получилось?
Аноним 31/01/23 Втр 12:04:03 92257 379
>>92186
>Кстати, если тренировать их вместе, кохия добавил наконец их разделение в своих additional networks, их теперь можно взвешивать раздельно.
Лоол, спасибо за инфу
Аноним 31/01/23 Втр 12:18:03 92268 380
>>92053
Еще я кстати пробовал опускать все теги, описывающие внешность персонажа, такие как цвет глаз, волос, длина волос, всякие дополнительные вещи типа заколок и т.п. т.е. то, что присутствует на каждом изображении датасета. Тогда вся эта информация у сетки ассоциируется с твоим триггер токеном (в моем случае tk). Еще я пробовал опускать вообще все теги, у меня не было текстовых файлов, а папки назывались "n_tk 1girl" -- результаты меня поразили, я думал это невозможно. Я так понял если сетка обучается только через единственный инстанс токен, то ей ничего не остается кроме как найти общее на всех пиках, а на всех пиках общее это только лицо
Аноним 31/01/23 Втр 12:48:49 92310 381
>>92250
С батчем в 5 надо общее количество на 5 умножать? В проге при 1_fan_art 2_sprite всего навсего 192 пишет. Увеличивал постепенно 2 и 4, 3 и 6, 4 и 8. В итоге только 4 и 8 и 3 и 6 более менее норм оказались, примерно на уровне предыдущей тренировки, где почти весь персонаж без тегов выдавался, и тоже 7-9 эпохи лучше всего получились у 4 и 8 и 18-20 у 3 и 6.

>>92268
> Еще я пробовал опускать вообще все теги, у меня не было текстовых файлов, а папки назывались "n_tk 1girl"
То есть папку назвать нужно так: "12_elie 1girl"? Зачем 1гёрл, типо как тег? А ничего что она через пробел?

Скинь свой датасет, хочу для сравнения глянуть. Как ты кстати графики такие >>85044 выводишь?

С большой скоростью тоже попробовал, по типу 1e-3, вообще не пошло, просто картинка в кашу на второй же эпохе, правда я там поставил cosine и без разогрева с батчем в 1. Просто решил попробовать так сделать.
Аноним 31/01/23 Втр 12:55:40 92325 382
>>92310
Нет, я написал скорости уже посчитанные для батча 5
1girl может и необязательно, просто в дримбузе указывается инстанс токен + класс токен
Датасет есть в лора репо в шапке
Аноним 31/01/23 Втр 13:21:35 92402 383
>>92325
> Нет, я написал скорости уже посчитанные для батча 5
Я не про скорость, а про количество шагов отображаемое в проге говорю, при 1 и 2 повторений на папках получилось 192 при батче в 5, если поставить батч 1, то число умножается на 5, дальше просто по +192 на каждый вариант повторений который я тестил.
Как ты кстати эту 1e-3 скорость посчитал? Ты же вроде тестил на такой же, но с батчем в 10, мне же надо как минимум в два раза ниже ставить для батча в 5, как ты и писал раньше? Что я собственно и делал. На 4 и 8 повторений с батчем 5 с 12-13 эпохи жуткий перетренинг пошёл, мутации, экстрашарп.
Аноним 31/01/23 Втр 14:24:20 92503 384
>>92402
Поясните, почему решили ставить батч 10? Я не критикую, может, это волшебная таблетка, но аноны с форчка с претензией на знание мл говорили, что слишком большой батч при тренировке сглаживает обучение, потому что модель меняется один раз за батч. То есть это аналог gradient accumulation
Аноним 31/01/23 Втр 14:25:04 92505 385
На что вообще влияет описание тегами в датасете лоры? Я натренил стиль сетом без тегов (только с тегом вызова) и он вышел весьма неплохо, но слабо следует промту. Есть ли здесь взаимосвязь?

Сколько нужно уникальных пикч для датасета? Чем больше, тем лучше, или больше ~50 например не особо имеет смысл?
Аноним 31/01/23 Втр 14:58:59 92536 386
>>92505
Вроде как теги в файле заменяют собой концепт. То есть ты учишь не концепту, по которому назвал папку, а тегам, которые лежат в txt-файлах.
Аноним 31/01/23 Втр 15:10:53 92548 387
>>92503
Я лично ничего не решил, просто ньюби, перебираю разные способы тренировки, чтобы посмотреть результаты и найти наиболее лучший. А вот у анона выше точно шило в заднице, он стремится к перфекционизму.
Аноним 31/01/23 Втр 15:26:11 92568 388
>>92536
А если я учу стилю? Пики в датасете совершенно разные, общий только стиль. Есть тогда вообще смысл в тегах, кроме общего?
Аноним 31/01/23 Втр 15:26:54 92569 389
>>92568
Думаю нет, хватит названия в папке
Аноним 31/01/23 Втр 16:27:39 92635 390
804275708892395.png 43Кб, 1810x315
1810x315
Аноним 31/01/23 Втр 17:00:39 92671 391
Что я не так делаю? Пользуюсь этим коллабом https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb
И на выходе получаю 5 гиговый файл, который не работает как лора, а работает как обычная модель. И вроде бы и перса рисует, и всё остальное без потерь как та модель, на которой обучалось, но это же нихрена не так должно работать, верно?
Аноним 31/01/23 Втр 18:14:23 92797 392
powershell : The string is missing the terminator: ".
D:\sd-scripts\train_network.ps1:369 знак:4
+ powershell accelerate launch --num_cpu_threads_per_proces ...
+ ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
+ CategoryInfo : NotSpecified: (The string is missing the terminator: ".:String) [], RemoteException
+ FullyQualifiedErrorId : NativeCommandError

+ CategoryInfo : ParserError: (:) [], ParentContainsErrorRecordException
+ FullyQualifiedErrorId : TerminatorExpectedAtEndOfString

Скрипт криво сохранился или я что сломал? Запускаю из среды редактирования скрипта. В принципе если просто "выполнить в павершелле", то тоже самое, но нормальной консоли вывода ошибки не посмотреть.
Аноним 31/01/23 Втр 18:25:36 92822 393
>>92671
Ты пользуешься скриптом конверсии, или так?
Аноним 31/01/23 Втр 18:35:55 92854 394
4442.PNG 33Кб, 1856x760
1856x760
>>92822
То есть нужно на пике выбрать диффузер, а потом сконвертить в сейфтензор в шаге 7.1? А я сразу там выбирал сейфтензор.
Аноним 31/01/23 Втр 18:44:42 92876 395
>>92797
Попробуй убрать из путей в конце слэши
>>92671
Предположу что ты тренировал не сетку, а дримбуз
Аноним 31/01/23 Втр 22:29:59 93445 396
>>92797
Тебе русским английским языком чёрным по белому белым по чёрному написано: струна скучает по Терминатору?

Что тут непонятного?
Аноним 31/01/23 Втр 23:12:15 93547 397
image.png 99Кб, 256x256
256x256
Я взял работавший у меня рецепт дримбуз-модели (датасет, параметры) и решил поэкспериментировать. Я отключил prior preservation и получил на выходе вот такое вот. Закономерно ли это? prior preservation и впрямь настолько важен или это я где-то прокосорезил?

Я взял заряженный калаш, из которого только что стрелял, навёл его себе на ногу и нажал курок. Теперь в ноге дырка и оттуда что-то течёт. Так и должно быть или я неправильно понимаю принцип действия калаша?

Как вообще определять количество регуляризационных изображений? Экспериментально или есть примерная формула?
Аноним 01/02/23 Срд 00:54:18 93709 398
На недавно прошедшей сходке аи-энтузиастов порешали Кароче, оказывается подмена CLIPа от SD таки влияет на графинум и интерпретацию чанков, невероятные просторы кастомайзинга моделей открылись, клип и юнет что очевидно файлы оказывается не одинаковые божечки мои. То есть если вам надо фиксануть только ids не меняя трейнинг дату клипа на дефолтную/от другой модели, то делайте просто фикс клип идов без импорта фулового .pt файла клипа.

Верно и обратное, если вы хотите скормить своей модели мутировавший клип от скажем оранжа или протогена - вот тогда можете импортировать. То же самое касается и UNET.

Обновил гуид если че https://rentry.org/clipfix
Аноним 01/02/23 Срд 01:07:05 93718 399
>>93709
Слушай, я думаю что лучше написать, что если хочешь сделать подмену клипа для аниме модели, у которой глубоко в корнях лежит NAI, то стоит из NAI клип и выдирать. Он ведь натренирован на данбуру тегах, мне кажется ставить сд клип в аниме модель не лучшая затея. Он чистый, я проверил. Ну там только какая-то трабла была с ключами, я с помощью тулкита пофиксил это, сдул до 2 гигов и выдрал клип. Протестил на капустомиксе, отличия минимальные, но есть.
И естесна унет будет отличаться у каждой модели, это ведь её основа, именно она даёт пикчи. Но стоит ли унет трогать? Мне кажется если поставить унет от оранжмикса в какой-нибудь эни3, то эни3 станет оранжмиксом
Аноним 01/02/23 Срд 01:17:28 93733 400
>>93709
Была бы сказка если бы ты свою калфу перестал рекламировать.
Аноним 01/02/23 Срд 01:19:37 93738 401
>>93718
>Слушай, я думаю что лучше написать, что если хочешь сделать подмену клипа для аниме модели, у которой глубоко в корнях лежит NAI, то стоит из NAI клип и выдирать.
Там прикол в том, что микширвоание моделей дает уникальные мутации в дате клипа, да и в целом текстовый енкодер можно отдельно смешивать между моделями.
>мне кажется ставить сд клип в аниме модель не лучшая затея
Yes
>Протестил на капустомиксе, отличия минимальные, но есть.
>то стоит из NAI клип и выдирать
Так вот, если ты меняешь из условного капустомикса обратно на дефолтный NAI, то энкодер как бы "забывает" ассоциации, полученные при возможных предыдущих обучениях и мердже. Вот поэтому отличия и есть тип.
>Но стоит ли унет трогать? Мне кажется если поставить унет от оранжмикса в какой-нибудь эни3, то эни3 станет оранжмиксом
Чел один сует во все модели юнет и клип от протогена например и он тип доволен как слон. Так что пробовать менять можно.
Аноним 01/02/23 Срд 01:19:54 93739 402
Аноним 01/02/23 Срд 01:22:01 93743 403
>>92402
> Как ты кстати эту 1e-3 скорость посчитал? Ты же вроде тестил на такой же
Я тестил на диапазоне скоростей от 5e-4 до 3e-3. И все в принципе нормальные, на вкус и цвет
> жуткий перетренинг пошёл, мутации, экстрашарп
Значит нужно меньше повторений/меньше эпох. Если не помогает - меньше скорость обучения. Немаловажную роль играет датасет, что изображено на пикчах и их количество. И тут я тебе не подскажу, тут какбе рулетка. Лишь могу подсказать относительно моего датасета сколько нужно и чего чтоб нормально получилось

>>92503
Ну типа быстрее так.
> слишком большой батч при тренировке сглаживает обучение, потому что модель меняется один раз за батч
Вообще этого не понял если честно
Аноним 01/02/23 Срд 01:22:29 93745 404
>>93739
Ещё скажи что не реклама.
Аноним 01/02/23 Срд 01:26:21 93751 405
>>93745
Ой прекрати, это файлопомойка файлов для сетки и сборник хуйни чтоб не забыть.
Аноним 01/02/23 Срд 01:27:48 93753 406
>>93738
> Чел один сует во все модели юнет и клип от протогена например и он тип доволен как слон.
Интересно, это где он обитает?
В моем понимании у каждой модели архитектуры SD есть VAE, UNet и CLIP, и если всё перечисленное переместить из модели А в модель Б, то модель Б станет копией модели А. Либо я чего-то не понимаю
Аноним 01/02/23 Срд 01:29:16 93755 407
>>93751
Храни хуйню на рентри, додик.
Файлы тоже знаешь где хранить можно.
Аноним 01/02/23 Срд 01:31:02 93757 408
>>93755
>Файлы тоже знаешь где хранить можно.
В телеге, самый удобный бездонный файлообменник.
Аноним 01/02/23 Срд 01:32:54 93760 409
>>93753
>Интересно, это где он обитает?
В конфе унстейбл дифужена.
>В моем понимании у каждой модели архитектуры SD есть VAE, UNet и CLIP, и если всё перечисленное переместить из модели А в модель Б, то модель Б станет копией модели А.
Ну получается что нет, но я сам лично юнет и клип с одной модели на другую не переносил, вот хочу попробовать.
Аноним 01/02/23 Срд 01:33:58 93761 410
>>93760
Сейчас протестирую
Аноним 01/02/23 Срд 01:34:52 93764 411
>>93757
>самый удобный бездонный файлообменник
Как ты свою калфу не называй, калфой она быть не перестанет.
Аноним 01/02/23 Срд 01:35:49 93767 412
Аноним 01/02/23 Срд 01:45:56 93792 413
.png 5211Кб, 2944x1607
2944x1607
>>93760
> Ну получается что нет
Всё таки да. Можешь не тестировать. Выдрал все компоненты из АОМ2_сфв и вставил в стоковую сд 1.5
Аноним 01/02/23 Срд 01:49:31 93798 414
image.png 893Кб, 655x1150
655x1150
>>93792
В ленточке есть незначительные отличия.
А вообще он в другие модели сует от протогена. Какой смысол сувать в 1.5, которая по дефолту в ядре любой модели сидит?
Аноним 01/02/23 Срд 01:51:20 93801 415
.png 158Кб, 1274x1153
1274x1153
>>93798
Охуенные отличия. У меня иксформерс, он даёт недетерминированность. Окей, если тебе мало, могу компоненты любой модели в любую другую пихнуть, выбирай.
Аноним 01/02/23 Срд 01:52:20 93803 416
>>93801
Да я сам хочу попробовать, как будто подарок на новый год ощущение будет, а внутри подарка кал на блюде.
Аноним 01/02/23 Срд 01:52:43 93806 417
Аноним 01/02/23 Срд 01:54:12 93808 418
>>93806
А, я вспомнил. У копрогена похоже юнет свой особенный вроде как, поэтому его и сует.
Аноним 01/02/23 Срд 01:56:41 93814 419
>>93808
Где-то видел список особенных юнетов бля, щас найду.
Аноним 01/02/23 Срд 01:59:05 93818 420
>>92053>>91945
Поясните как сделать грид с лорой?
Аноним 01/02/23 Срд 01:59:12 93821 421
>>93814
Недопираю. Унет же у каждой модели свой, уникальный. Это фактически и есть 90% любой модели, это нейросеть, которая убирает шум с каждым шагом. Каким образом могут быть особенные и не особенные унеты не понимаю, ищи список, оч интересно что там мамкины технари напридумывали
Аноним 01/02/23 Срд 02:00:28 93822 422
.png 36Кб, 620x681
620x681
>>93818
Через xyz plot, если установлено расширение китайца для лор есть такие пункты как на пике. Названия моделек через запятую либо построчно
Аноним 01/02/23 Срд 02:03:28 93824 423
>>93792
как грид из трех моделей сделать?
Аноним 01/02/23 Срд 02:04:33 93825 424
.png 65Кб, 1224x418
1224x418
Аноним 01/02/23 Срд 02:06:14 93826 425
Аноним 01/02/23 Срд 02:28:12 93856 426
>>93822
В списке моделей None стоит. Если положить модели в папку "\sd\extensions\sd-webui-additional-networks\models\lora", то их нельзя будет юзать через гуй от автоматика. Можно сделать чтобы оба варианта работали?
Аноним 01/02/23 Срд 02:31:17 93860 427
image.png 338Кб, 512x512
512x512
Угадайте нахуй промт. Пиздец протоген с обосранными тензорами в хлам я ебу.
Аноним 01/02/23 Срд 02:31:44 93861 428
>>93856
Во-первых в автоматике есть параметр --lora-dir, во-вторых в расширении китайца можно прописывать дополнительные пути для поиска лор в настройках

>>93860
1girl
Аноним 01/02/23 Срд 02:32:15 93862 429
Стикер 184Кб, 56x56
56x56
Аноним 01/02/23 Срд 03:01:13 93888 430
.png 77Кб, 244x235
244x235
.png 371Кб, 512x512
512x512
Анончик, это опять я. Ну потренируй лору на Сяо, будь другом... Не пашет у меня ни скрипт, ни будка.
Надеюсь, я правильно датасет собрал.


https://files.catbox.moe/2bigee.7z
Аноним 01/02/23 Срд 03:03:34 93892 431
>>93888
Что там не пашет
Аноним 01/02/23 Срд 03:05:19 93895 432
>>93888
зачем тебе дефолтная анимебаба
Аноним 01/02/23 Срд 03:21:47 93905 433
>>93888
Ну датасет имхо так се

>Не пашет у меня ни скрипт, ни будка.
Не помню что б ты жаловался хотя тред по диагонали читаю
Аноним 01/02/23 Срд 03:32:22 93923 434
>>93709
Это было довольно очевидно.
В плане моделей тред толчет воду в ступе, обмазались своими оранджами хотя это могли быть и протогены, не суть, которые сами по себе лютые солянки из чего попало. Можно сколько угодно выдирать из них части и подменять одно на другое, никакого осмысления процесса не придет. Чтобы стабильно улучшать модели, нужны доноры из будки с определенным и внятным контентом.
А у нас тут сплошной confirmation bias царит. Чего-то выдрал, намешал, сгенерилось вроде не очень криво, ну и доволен собой.
Аноним 01/02/23 Срд 03:32:29 93924 435
>>93905
>>93892

Да вот я тут уже сренькать в штаны начал. >>78566 → >>78580 →
На шаге с bites and bytes всё перестало работать, я скопировал гитовскую папку в виртальную папку, но он не делает accelerate config, выдает еррор.
А будка или не тянет из-за 6ГБ врам, или когда я заменяю ее новую версию на старую как в гайде перестает реагировать на кнопки в принципе. И выдает .py ошибки в консоли.
Аноним 01/02/23 Срд 03:38:24 93926 436
Ну ладно, если у меня и датасет хуйня, то и хуй с ним...
Аноним 01/02/23 Срд 03:38:47 93927 437
>>93924
У меня с траблшутингом такого неоче, могу оттренить по твоему датасету. Модель? повторений на концепт?
Аноним 01/02/23 Срд 03:42:44 93928 438
>>93927

Я ещё ни разу не тренил сам, не выяснил какое нужно количество повторений на концепт, прости, анончик. Если есть какое-то базовое, которое приемлемое для персонажей, пусть будет оно.
Модель AbyssOrange2, если можешь и на ней вообще тренят. Если не тренят, то эни3.
Аноним 01/02/23 Срд 03:43:54 93929 439
>>93928
Окей, ща попробуем
Аноним 01/02/23 Срд 03:48:01 93932 440
>>93929

Буду ждать!
Коли совсем говно выйдет, то и не судьба.
Аноним 01/02/23 Срд 04:50:07 93939 441
тут все по лоре или кто нибудь через дефолтный автоматик хайпернетворки тренит? если да поделитесь наблюдениями.
так же вопросец Prompt template влияет на результат если да как его правильно составить?
Аноним 01/02/23 Срд 04:55:07 93940 442
>>93888
А разве до тебя его не запилили?
Аноним 01/02/23 Срд 04:57:36 93943 443
>>93940

Нет, я всё что мог прочекал.
Аноним 01/02/23 Срд 05:00:28 93944 444
1674517810723.jpg 18615Кб, 8064x7680
8064x7680
>>93932
Например. Я особо не задумывался, сделал 3 повтора на оба. Пикч и так мало, уши все равно без вызова почти не рисует. Датасет бедноват на ковбой шоты с дефолтной одеждой, впрочем я хз что ты сам хотел получить. Клип скип 2 AbyssOrangeMix2_nsfw
Аноним 01/02/23 Срд 05:00:34 93945 445
1675216833479.png 225Кб, 1247x2155
1247x2155
Пиздец. 6 часов сижу и только пикчи режу в фотошопе.
>>93939
> хайпернетворки
Заебались, давно все чай уже выгорели с ним.
Давно не пользовался, давно не обновлялся. Но где-то в версии, которая была в гайде, я ставил вот так и все было норм.
Аноним 01/02/23 Срд 05:06:29 93946 446
>>93944

Я и сам хз что я хотел получить, представление нейросетки о персонаже какое-то, чтоб потом его можно было переодевать из каноничных шмоток в современные и обратно, типа того.

Мне кажется, 13 выглядит хорошо. Ну и 11 исключительно потому что там уши прилепились.
На самом деле все круто выглядит, анончик.
Аноним 01/02/23 Срд 05:18:20 93949 447
>>93945
можно как-то понять на каких пикчах он спотыкается и удалить их из датасета, потому что я вижу где-то лосс 0.0001 в где-то 0.3?

как понять на каком шаге понижать скорость?
Аноним 01/02/23 Срд 05:20:44 93950 448
>>93946
> Мне кажется, 13 выглядит хорошо. Ну и 11 исключительно потому что там уши прилепились.
Все что выше 9 уже перетрен так сказать, т.к клоз апы рисует из которых в основном и состоит датасет. Но на меньших эпохах одежду очень плохо уловило и детали неправильные. Ща еще пощупаю че тут получилось

> На самом деле все круто выглядит, анончик.
Ну мейби, но по мне резалт неудовлетворительный. Хз у меня лоры обычно с 3+ попытки получаются, после ебли с датасетом.
Аноним 01/02/23 Срд 05:27:06 93952 449
>>93950

Ну сам видишь, какой у меня датасет. Что-то получилось, лицо/прическу улавливает и то замечательно.
Я видимо совсем бака, если не вижу как "перетрен" выражается...
Аноним 01/02/23 Срд 05:27:27 93953 450
>>93949
Я на такое забиваю. Ближе к концу стабилизируется.
Я скорость там не трогал. Как стояло все по умолчанию, так все и оставлял.
Аноним 01/02/23 Срд 05:35:53 93954 451
1560931122945.png 1168Кб, 720x1280
720x1280
1624836907493.png 1176Кб, 720x1280
720x1280
1640630156949.png 1158Кб, 720x1280
720x1280
1613337036387.png 1192Кб, 720x1280
720x1280
>>93952
Впрочем хз, не сказать что он не хочет переодеваться, это 11 эпоха. Неплохие резалты и на 15 проскакивают.

>как "перетрен" выражается
Не слушается тегов, что на гриде выше частично, или лезут артефакты, но тут такого нет.

Щас залью сам помацаешь
Аноним 01/02/23 Срд 05:38:02 93955 452
.png 14Кб, 1027x731
1027x731
Аноним 01/02/23 Срд 05:40:46 93959 453
Аноним 01/02/23 Срд 05:43:08 93962 454
>>93959
Спасибо, спасибо, спасибо!!! Сейчас буду трогать и выставлю лучший результат!!!
Нетворк дим...что это вообще такое, мне надо что-то где-то жать?
Аноним 01/02/23 Срд 05:46:25 93964 455
>>93959

>.safetensors

Это всё еще лора или хипернетворк? А то лора .pt в папке лежит у меня, смотрю, или они разных вариантов бывают?
я нуб, да, извините...
Аноним 01/02/23 Срд 05:47:03 93966 456
Имари так и не запилили? Скидывал сет в прошлом треде...
Аноним 01/02/23 Срд 05:52:39 93968 457
.png 22Кб, 731x208
731x208
.png 11Кб, 493x69
493x69
вздыхает
что ему опять не по душе?
Аноним 01/02/23 Срд 05:58:38 93972 458
Аноним 01/02/23 Срд 05:59:51 93974 459
1540934913718.png 2721Кб, 1536x1536
1536x1536
1572430832507.png 2849Кб, 1536x1536
1536x1536
1527907737871.png 2684Кб, 1536x1536
1536x1536
1534782363552.png 3040Кб, 1536x1536
1536x1536
>>93962
Да нзч так сказать

> Нетворк дим...что это вообще такое, мне надо что-то где-то жать?
Это размерность модели, тебе ничего с ней делать не надо, указывается при тренировке. Но как 1060 анон выяснил, она чутка влияет на результаты на 0.4.0., а до этого выяснили что и дим 8 норм на старой версии.

Ну я вообще бы пересобрал датасет или добавил туда больше разных пикч, с дефолтной одеждой full body, cowboy shot, еще ракурсов где он standing.
И протегал бы внимательнее, у тебя клоз апы не протеганы, facial mark видел в одном файле повторяется и cat ears где-то помню было пропущено.

Алсо, в начало каждого описания добавил токен xiao свободен кстати, но ориг тег не убрал, так что можешь вызывать по нему.
Алсо, слеши перед скобками в описании типа \(asdasd\) не нужны, оно и так понимает

>>93964
> Это всё еще лора
Это лора, .pt не видел, все сейфтензорами кидаются

>>93968
Странно, там нет альфы, т.к. тренилось на старой версии, но и без этого все должно работать.
Аноним 01/02/23 Срд 06:03:18 93978 460
>>93966
Могу оттренить, за результат не ручаюсь, лучше если ты сам нужные параметры скажешь
Аноним 01/02/23 Срд 06:04:19 93979 461
.png 252Кб, 392x504
392x504
>>93974

Анончик!!! Как круто у тебя выглядит всё!!! У меня первый пик наконец-то пошел после фикса лоры, ура! Спасибо спасибо спасибо!

Я сейчас слишком рад, чтобы всё запомнить из твоих советов, но я обязательно перечитаю и запомню, как немного перестанет аштрясти.
Аноним 01/02/23 Срд 06:11:44 93985 462
>>93974

Подскажешь, как у тебя базовый промпт с ним выглядит?
Аноним 01/02/23 Срд 06:17:29 93987 463
.png 965Кб, 664x992
664x992
.png 925Кб, 664x992
664x992
.png 1039Кб, 664x992
664x992
>>93954
>или лезут артефакты, но тут такого нет

Понял, кстати, о чем речь, у Кли так, некоторые вещи просто "пристают" к ней и всё.
Аноним 01/02/23 Срд 06:22:04 93990 464
1635808110220.jpg 13147Кб, 3150x9728
3150x9728
>>93985
В бизнес сьюте такой

1boy, xiao_\(genshin_impact\), yellow_eyes, bead_necklace, multicolored_hair, green hair, ahoge, facial_mark, facial_mark, facial_tattoo, forehead_mark, green_hair, jewelry, looking_at_viewer, mountain, standing, business suit,
Negative prompt: lowres, text, (low quality, normal quality:1.2), 1girl, multiple views,

Промт можешь взять из своего файла описания, в частности цвет волос, украшения, описание татух эти теги помогают вызывать то что надо.
Аноним 01/02/23 Срд 06:39:02 93997 465
>>93987
Не сказать что тут артефакты есть, мб просто сильно захватило датасет, при таком еще стиль основной модели идет по пизде, а мб что-то не протегали при тренировке, украшение в волосах например, хз
Аноним 01/02/23 Срд 06:43:34 93998 466
1658701186398.png 573Кб, 720x640
720x640
1615820210036.png 511Кб, 720x640
720x640
>>93987
Вот например явный перетрен с артефактами, увеличение разрешения тут не спасает. но это хуйдожник виноват что ебла одинаковые рисует
Аноним 01/02/23 Срд 06:52:41 94002 467
.png 1394Кб, 768x1280
768x1280
.gif 939Кб, 498x498
498x498
.png 1865Кб, 768x1280
768x1280
>>93990

Оно работает, анон! Работает! Спасибо!!
Аноним 01/02/23 Срд 06:57:05 94003 468
>>93974
Мимо, а с какими параметрами тренил? Тоже попробовать хочу
Аноним 01/02/23 Срд 07:07:09 94008 469
1622341162697.png 12154Кб, 2520x5120
2520x5120
>>94002
Ты прям сильно рад, удивительно, впрочем я тоде был рад, когда увидел как первая натрененная лора у меня работает лучше эмбеддингов.
Дополнительные гриды то не забываешь строить?
Аноним 01/02/23 Срд 07:07:27 94009 470
Untitled (1).jpg 152Кб, 1096x628
1096x628
Аноним 01/02/23 Срд 07:14:58 94014 471
>>94003
15 эпох, батч сайз 2, вышло 517 шагов на его датасете. Lr общий 1е-4, планировщик констант с вармапом, вармап 20%, клип скип 2, перемешивание токенов включено, защита от перемешивания первого токена, нетворк дим 8.

Однако у меня старая версия скрипта так что альфы нет, что бы на новой сейм резалт получить надо альфу равную нетворк дим ставить емнип, могу ошибаться,но у анонов от этого наны идут и тензоры в киосках заряжаются. Для 0.4.0 надо читать исследования приключения вот этого господина >>85259
Аноним 01/02/23 Срд 07:16:19 94015 472
>>94009
Тебе стиль или персонажа? Могу затраить
Аноним 01/02/23 Срд 07:17:40 94016 473
.png 1390Кб, 768x1280
768x1280
.png 903Кб, 768x832
768x832
>>94008

Я сейчас обо всем на свете забываю!!!
Пока просто приноравливаюсь к использованию лоры, до этого особенно не пытался даже. Да и гриды долгое дело, а хочется не ждать, а вот прямщас потрогать. Но дело хорошее, надо поставить перед сном будет хоть одну на любимый аутфит и посмотреть которая лора вывозит лучше. У тебя видюха хорошая, наверное? Сколько такой грид по времени занимает?

Местами кекно, конечно, когда какие-то детали волос/лица меняются произвольно, похоже на китайский бутлег на китайскую же игру, лол.
Аноним 01/02/23 Срд 07:17:57 94017 474
>>94015
Персонажа.

Попробуй, хотя б с дефолтными значениями из гайдов. Сделал бы и сам, но lora почему-то не ставится на UI скрипт в облаке (а своей видяхи нет кроме встроенной)
Аноним 01/02/23 Срд 07:23:52 94018 475
>>94014
Я тренил по его советам, получилось неплохо вроде на 0.4.0 >>91761
Первая лора которую тренил, это нормально что без уточняющих тегов, маловато схватывает всего персонажа целиком, ну там с заколкой, цветом глаз?
Так и не понял, хорошо это или плохо, когда на разных сидах, без смены тегов, маловато изменяется положение персонажа. Тегов то всех вроде слушается, да и на аниме моделях всех метовых работает.
Можешь в мой датасет глянуть, чего там не хватает или наоборот что там лишнее подсказать?
Аноним 01/02/23 Срд 07:30:19 94019 476
>>94009
Забыл добавить, делал теги с deep danbooru, поэтому отсутствует важный тег "side ponytail" ("sidetail") и "asymmetrical hair", возможно они нужны для хороших результатов.
Аноним 01/02/23 Срд 07:34:36 94020 477
Кто пробовал трейнить лору на подборке своих же сгенерированных пикч, чтобы срезать токены для следующих генераций с этим стилем?
Аноним 01/02/23 Срд 07:38:03 94022 478
Будущее за редактированием (допиливанием) пикч по текстовому GPT вводу (не промпту, а именно инструкции что делать с пикчей).

Скриньте.
Аноним 01/02/23 Срд 08:06:23 94035 479
>>94016
> Да и гриды долгое дело, а хочется не ждать, а вот прямщас потрогать
Понимаю

> У тебя видюха хорошая, наверное?
У меня 3070, в которую дядя хуанг забыл доложить памяти, впрочем с медврам и фп16 моделями без ема двухгиговые могу генерить квадраты со стороной 1792.

> Сколько такой грид по времени занимает?
Этот >>94008 две минуты, этот >>93944 минут 12 где-то, ddim 32 шага везде

> похоже на китайский бутлег на китайскую же игру
Тренил кста под red sun in the sky

>>94017
Такой вопрос, почему у тебя много пикч с белыми полями? По опыту хуевой обрезки страниц мангача, могу сказать что белые поля могут сролять в конечном резалте не в лучшую сторону.
Плюс еще надо проверять че там дипданбуру натегал, а то в описании к 4 пикче large breasts и medium breasts например ???, к 11 отсутствуют теги к позе, к 15 есть striped, vertical stripes хотя там этого нет например.

>>94019
> возможно они нужны для хороших результатов
Нужны.

Ну могу прям так бахнуть. Или исправишь? Тег imari я могу сам скриптом добавить во все файлы.

>>94018
Я не сказать что опытный лораеб

> это нормально что без уточняющих тегов, маловато схватывает всего персонажа целиком, ну там с заколкой, цветом глаз?
Скорее да чем нет, больше да, хотя может говорить о недотрене. Помогающие теги нужны, без них наверное главное что бы лора правильно уловила основные детали, типа формы глаз, лица, некоторых предметов присущих персонажу, конечно же если они есть в промте, и не заданы подробно. Не уверен что понятно и правильно выразился.

> хорошо это или плохо, когда на разных сидах, без смены тегов, маловато изменяется положение персонажа
Если легко контролируется, то почему нет? Если можешь достичь с ней задуманного результата, то не вижу никаких проблем.

> Можешь в мой датасет глянуть, чего там не хватает или наоборот что там лишнее подсказать?
Попозже гляну

Я медленно отвечаю если что.
Аноним 01/02/23 Срд 08:20:15 94047 480
>>94018
А, еще забыл добавить, что иногда есть смысл тренить до перетрена, что бы понять как он выглядит на этой лоре и примерно понять когда начинается. Строить гриды по другой позе, одежде, бекграунду например.
Аноним 01/02/23 Срд 08:21:57 94048 481
>>94035
Поковыряю и перезалью.
Надо б конечно грузить сразу с тегами с Danbooru, но это технически сложнее + некоторые пикчи это сканы с e-hentai.

От белых полос можно избавиться растягиванием для квадрата, или инпейнтом (не пробовал).
Аноним 01/02/23 Срд 08:29:13 94052 482
>>93949
Если это у кохии, то у меня такое полностью прошло при переходе на 0.4.0
Аноним 01/02/23 Срд 08:33:15 94053 483
>>94048
А ты их прогонял через что-то? Все 512х512 как будто автообрезка + заполнение отработало, хз

> От белых полос можно избавиться растягиванием для квадрата
Если их убрать то будет лучше, скрипт сам подгоняет под подходящие разрешения из набора и ресайзит, правда не уверен какая часть изображения при этом проебывается, но видимо небольшая.

> или инпейнтом
Сомнительно
Аноним 01/02/23 Срд 08:37:30 94055 484
>>93547
>Как вообще определять количество регуляризационных изображений?
По одному на каждый шаг в эпохе. Но можно и с 2-4 повторениями. То есть если в эпохе 600 шагов, то 150-300 регов вполне катят.
Аноним 01/02/23 Срд 08:40:56 94056 485
no-tags.jpg 9624Кб, 2986x12678
2986x12678
tags.jpg 9613Кб, 2708x11500
2708x11500
>>94035
> Я не сказать что опытный лораеб
Я просто сейчас любого, кто имеет хоть какой-то опыт спрашиваю насчёт этого, хочу научится и понять что где крутить, если встретится определённое поведение связанное с тренингом.

> конечно же если они есть в промте, и не заданы подробно. Не уверен что понятно и правильно выразился.
На самом деле реально ЯННП, типо в промпте(тегах) при тренировке можно как-то подробнее описать какую то часть?
Ну без уточняющих тегов вот пик1, говно выходит. С уточняющими другое дело на пик2.

> Если легко контролируется, то почему нет? Если можешь достичь с ней задуманного результата, то не вижу никаких проблем.
Ну я уже даже сделал один красивый арт с результатом этой тренировки. Результатом то я доволен, просто хочу научиться больше.

> Попозже гляну
Впринципе насчёт длительности тренировки я уже более менее начинаю догонять, как и насчёт проверки всего этого дела, ед