>>82475 Я могу в теории попробовать сделать расширение для сд. Но это будет куда сложнее чем сделать простую обертку для скрипта, как минимум мне нужно понять как выгрузить модель из памяти, потому что у меня лично автоматик 2 гб врам отжирает просто ничего не делая
>>82495 Ну я тупанул. Все равно проще особо не становится, это получается надо форкать репо китайца и шерудить там под капотом, чтобы запускать тренировку не посылая аргументы левому скрипту, а как бы нативно из автоматика. Это очень интересная задача и я не против ей заняться, но я не уверен что моих текущих знаний достаточно чтобы это реализовать
Не знаю чего там все плачут по поводу китайцоскрипта версии 0.4.0, еще в прошлом треде писал что всё нормально работает и у меня лично результаты даже лучше чем раньше. Впервые я на таком малом количестве шагов оттренил Феликса с полноценным запоминанием концепта, до этого постоянно вылезали косяки типа не та одежда, не тот цвет того или иного элемента и т.д. А сейчас стренил 800 шагов и всё как было в датасете, так оно есть и в генерации
Всё что нужно на новой версии поменять, это поставить (при network_dim = 128, network_alpha = 1) learning_rate в 10 раз выше рекомендуемого (т.е. 1e-4 -> 1e-3) и всё будет работать ИЗКАРОПКИ. Дайте шанс китайцу
инби4: кохъя-лахта
>>82524 Не стесняйся делиться. В шапке есть ссылка на репозиторий, если мне не лень я туда добавляю то что скидывают, но в последнее время суперлень ебаться с разметкой и заливать туды-сюды папки с датасетами и сетками, но ты можешь сам добавить туда своё пароль для редактирования 2ch
>>82537 >800 шагов У меня 3200 шагов уходит на концепт перса. >делиться Если бы, ты ведь меня недолюбливаешь. Уже понял кто я, да? >1e-3 Не работает у меня.
>>82553 > У меня 3200 шагов уходит на концепт перса. Охуеть > Уже понял кто я, да? Нет, няш, я не помню чтоб кого-то недолюбливал. Если ты тот анон с эмбедингами и спич баблами, то я извиняюсь за тот инцидент, мне не стоило помогать когда я сам не до конца разбираюсь. Если ты не он, то возможно с кем-то меня путаешь? > Не работает у меня. Да как так-то блджад, что именно-то не работает, могу попробовать помочь
>>82586 Кек, да мне похуй в целом уже. Но все равно неприятно когда просят совета, ты его даешь, человек советом не пользуется и потом говорит всем что совет говно. Уж пойми Как у тебя дела с сетками? Заебатые теперь получаются?
>>82591 Если у китайца хорошая имплементация TI, то почему бы и нет? Это инструмент для своих задач. Даёт другие результаты. Я хоть и считаю что лора это киллерхуйня, но лора + эмбед > лора
>>82599 Да, это мой пост. Как оказалось вся проблема была в ебучем автоматике, я не смотрел в консоль, а там писало что сетка не грузится, даже учитывая что я пользовался расширением китайца. Обновил автоматика и все сетки заработали. 1е-3 дал отличные результаты на малом количестве шагов, мне понравились больше чем старые до альфы на 1е-4
>>82625 Я не боюсь. Сохраняешь в блокнотик хэш текущего коммита, пуллишь, не нравится - возвращаешься Кстати китаец для своего расширения повыкатывал фиксы, есть смысл начать с него
>>82417 (OP) Как обучить лору на собственно перса? Есть идеи у треда? Это важная проблема SD - невозможность создания авторских персонажей. В соседнем треде анон продвинулся в проблеме решения генерации кривых рук, надеюсь, что он своё изобретение все же опубликует, а не зажмотит.
>>82537 Сколько пикч в дата-сете? Зеркалил? Сколько повторений? Игрался с скоростями. Над этим персонажем 5e-5 дала результат неплохой. Слабый-мягкий, но легко редактируемый. В нем было 94 пикчи уникальных, cosine_with_restarts, 12 повторений, 8 эпох. 1 пик - 5e-5 2 пик - 1e-3 3 пик - на старой версии с 1e-4 4 пик - на старой версии с 1e-4 и 24 пикчи
А вот с совсем другим персонажем и дата-сетом на 26 уникальных пикчи с теми же настройками нихрена не вышло на новой версии и 5e-5. От персонажа ни одной детали не взялось. А на 1e-3 наоборот ели-ели задний фон редактируется. Видимо для 5e-5 надо иметь большой дата сет. Минимум 100 пикч без учета отзеркаливания.
>>83253 14 пикч х 9 повторений и 13 пикч х 3 повторения. Ничего не зеркалил, все пикчи уникальные. 1е-3 linear > нихрена не вышло на новой версии и 5e-5. От персонажа ни одной детали не взялось. А на 1e-3 наоборот ели-ели задний фон редактируется. 5e-5 это крайне мало, тем более для новой версии. Если на 1е-3 сеть перетренировалась, попробуй 5е-4 > Видимо для 5e-5 надо иметь большой дата сет Запоминание концепта вряд ли зависит от количества пикч в датасете, оно зависит скорее от разнообразия этих пикч и скорости обучения
По сохранению настроек - не сохраняется путь к папке sd-scripts, не сохраняется нетворк альфа с пустым значением (с обычным сохраняется) и батч сайз.
Алсо, сделай что бы по умолчанию при запуске гуи открывалась вкладка. А то без открытой вкладки настройки не импортируются, сейвит один клик, лол.
Глянул в код и мне кажется ты забыл прописать присвоение переменной батч сайза к соответствующему аргументу, т.к. оно игнорирует выставленный в гуи батч сайз.
И сделай значение "сохранять только последние n эпох" наверное 999 как раньше, а то я уже успел обосраться с этим))0))).
>>83674 Ага, учел, спасибо за фидбек, буду править На счёт сохранения папки sd-scripts я пока не знаю. Не умею работать с реестром. Поэтому остается два варианта: либо файлик текстовый генерировать в папке с гуем, из которого подхватываются начальные настройки, либо сделать так, что если гуй находится в папке со скриптом, автоматически заносить путь в необходимый инпут
>>83804 Спасибо. Как разберусь с правильными настройками на 0.4.0, перетреню, вдруг еще лучше будет
>>83837 Потому что мне лень, другие дела. Пароль 2ch, если хочешь добавить что-то своё
>>83930 Я еще раз повторяю: МНЕ НЕ НУЖНЫ НУЛЕВЫЕ ТЕНЗОРЫ
Зачем хранить параметры в ini файле и потом заниматься онанизмом в виде str2bool и line_split = line.split(": ", 1)? Сделай словарь, в котором будут храниться все параметры и сохраняй его в JSON или yaml.
>>83674 Всё, сделал. Оказалось с реестром всё не так страшно, теперь после нажатия кнопки "запустить" путь к папке sd-scripts отправляется туда и после этого подхватывается при запуске. И еще если в папке с гуем есть файл "ltg_default.ini", каждая вкладка будет подхватывать значения оттуда Только маленький нюанс: пришлось переименовать кучу переменных для удобства, чтобы их названия соответствовали таковым из китайцоскрипта, поэтому старые конфиги не подойдут. За это извиняюсь, надо было изначально нормально всё проименовать Новую версию на тестовой сетке протестил, в этот раз не должно быть как обычно
>>84415 Это понятно. Я на ноутбуке, остальные элементы интерфейса тогда становятся комически крошечными. Явно же есть где-то в файлах настройки их скейлинга. Подскажите хотя бы, где искать, я совсем не шарю.
>>84350 Ну вообще сохранение пути сдскриптс в ини было бы норм, впрочем и так норм наверное
Теперь вылезает нюанс при импорте настроек в виде пик 1. При этом из такого же файла дефолтных настроек все подгружает без ошибок. Настройки свежие офк
Батч сайз все еще игнорируется Где?
>поэтому старые конфиги не подойдут Это норма
>>84369 > Хранить настройки в реестре очень хуёвая идея Почему кста? Вроде дохуя 3рд пати хранят некоторые настройки в реестре
Тыкаешь f12, выбираешь элемент, смотришь как он называется, теребишь длину-ширину, если работает, то создаешь свой файл css с описанием характеристик т.е. длины и ширины и кидаешь куда надо. Описал примерно, я глянуть не могу, т.к. не хочу гитпулить
Решил всё же свой старый грид до ума немного довести. Добавил в него поддержку конфига, чтобы картинки не были гвоздями прибиты. Так же левой кнопкой мыши осуществляется скролл по гриду. Грузятся только картинки, находящиеся близко к зоне видимости, так что хоть гриды довольно увесистные, они не должны долго грузиться, если у вас быстрый интернет.
Для создания своего грида у вас есть два варианта использования: 1. Вы либо делаете форк/копию и засовываете свой config.json в корень проекта 2. Либо вы ссылаетесь на мою репу (ну или на свой форк) и передаёте путь до конфига в queryParams, как в примерах ниже. Хотя не думаю, что вам имеет смысл использовать такой вариант, я его скорее для себя делал, чтобы если обновы делать буду, то сразу ко всем гридам правки применялись.
Если всё же будете использовать второй вариант, то нужно убедиться, что ваш стор не блочит cross-origin запросы. В идеале, для этого грида надо ещё добавить поддержку зума по типу того, как другой анон тут делал - https://diffai.xyz/grid/ewZc47dGmRQ
Проблема в том, что для реализации зума надо создавать несколько тайлов для разного масштаба. Я исследовал этот вопрос пару месяцев назад, и, в целом, можно провернуть трюк с тем, что тайлы можно создать полностью на фронте в момент, когда вы грид оформляете (у меня с головой всё относительно в порядке, так что я не планирую какую-то инфраструктуру для нужд двачеров поднимать) и потом выплёвывать юзеру zip архив со всеми тайлами, но для этого надо UI пилить, а мне пока лень, поскольку это никому не нужно, так что пока так.
Ридми потом оформлю, я уже задолбался на сегодня. По пику я думаю формат конфига должен быть понятен.
>>84643 Потому что ты не прав, довен бля, его тестили прямо в треде. Результат - примерно нихуя, на уровне погрешности. >>84646 Показывай как пользоваться, умник бля.
>>84808 Я тестил, вопросы? Если есть 12гб и больше, то ультимейт не нужен. В то время как цель хорошего апскейла сделать как можно меньше тайлов, то ультимейт наоборот делает их много + ещё и проходится потом вторым проходом, уничтожая детали. Он нужен только, если ты не можешь штатным сделать нормально, т.е. ограничен врам.
>>84842 Какой же смешной подрыв тралёнка, обнаружившего, что его любимая новая игрушка нравится только ему. Апскейлил дольше чем ты знаешь про сд, запустил лдср и принес валар в /б. Что ещё расскажешь?
>>84854 > Ебать достижение Что-то не скопировал раньше никто. Про валар вообще не слышали.
>>84857 > чсвшный Я же не пишу это в каждом посте итт, глурый, а чтобы ты понимал, что я не первый раз апскейл вижу. Конкретно к обсуждение новой мокрописьки, которую ты только увидел и решил притащить сюда. А её давно протестили и выбросили как мусор ничем не выдающуюся
>>84471 Ладно, тут анон(-ы) жалуется что оффтоп и в принципе я согласен, буду обновлять теперь молча, если есть какие-то проблемы можно создать ишью, или на крайняк если не хочется палить гитхаб можно написать тут кратко. Следи за релизами >>84369 Меня переполняет любопытство почему?
Бахнул 6 сеток ночью, 0.4.0 с разными lr: unet 5e-4, 3e-4, 1e-4 Каждое значение unet lr имеет две вариации: text encoder lr = unet lr и text encoder lr = unet lr / 2 Все остальные настройки абсолютно одинаковые, в т.ч. сид Беглым взглядом по графикам что-то сказать сложно, да, есть закономерность что чем больше lr, тем меньше loss, но это ни о чем не говорит, тем более значения отличаются минимально Гриды в процессе
Йей, ватоматик сделал дпм++ карась дефолтным семплером. Наконец-то мы, мученики колаба и прочих пейперспейсов, сможем вздохнуть спокойно (еще бы починил нам линк с градио, а то достало его после каждого пакета перегружать)
>>84999 LDSR еще вымораживает тем, что он пол часа грузится, а потом при генерации выдает ошибку, мол вае твое говно, ставь ноу халф вае. >>85058 Какой командой обновлять автоматик? А то чет он по дкфолту сам не обновляется.
1 пик, UNet LR = 1е-4: нормальные результаты, отличная редактируемость. Очень медленная скорость: у сети проблемы с отображением концепта, персонаж не похож на ГТ. Касаемо разных скоростей ТЕ: трудно сказать чем они отличаются. У меньшей скорости ТЕ проблемы с запоминанием концепта заколки на волосах персонажа (она присутствует на каждом изображении датасета) - не в том месте и не той формы. У большей скорости с этим получше, но все равно далеко. По внешности +- одинаково, трудно выбрать победителя. Вывод. 1е-4 - не очень хороший выбор для обучения на 0.4.0, обучить сеть концепту(-ам) вероятно можно, но потребуется большое количество шагов, что немного нивелирует плюс Лоры как быстрого способа обучения. Возможно попробую еще раз на большом количестве шагов. Какую скорость ТЕ брать: трудно сказать, нужно еще тестировать. На такой маленькой дистанции (1.5к шагов) однозначно сказать трудно.
2 пик, UNet LR = 3e-4: хорошие результаты, но уже появляются следы отхода рисовки от модели в последних эпохах. Концепт намного больше похож на ГТ (оно и логично, скорость обучения UNet возросла в 3 раза). Разные скорости ТЕ: цвет волос концепта на меньшей скорости более консинстентный (субъективно). У обеих скоростей ТЕ проблемы с концептом заколки примерно одинаковые. Меньшая скорость ТЕ даёт чуть большую редактируемость + генерации меньше отходят от стиля рисовки модели (субъективно + малая выборка). Вывод. 3е-4 хорошая скорость для обучения, но всё же не очень быстрая для Лоры, поэтому вероятно потребуется большее количество шагов. Но это будет гораздо быстрее, чем тренировать на 1е-4. Какую скорость ТЕ брать: я бы брал 1.5е-4 (субъективно).
3 пик, UNet LR = 5e-4: хорошие результаты, заметно более низкая редактируемость и bias в сторону стиля датасета, а не модели. Персонаж также достаточно сильно похож на ГТ, но не сказать что сильно обошел 3е-4, на уровне погрешности. Меньшая скорость ТЕ заметно лучше справляется с генерацией в стиле модели, меньший bias в сторону датасета (субъективно). У обеих скоростей ТЕ проблемы с редактируемостью, но у более низкой скорости она лучше (опять же, субъективно). Вывод. Для быстрой тренировки 5е-4 подойдет. Быстро понимает основной концепт и также быстро уменьшает редактируемость и вариативность и вносит изменения в стиль рисовки модели. Какую скорость ТЕ брать: однозначно уменьшенную (имхо).
4 пик, сравнение всех финальных эпох со вчерашней тестовой сеткой (LR 1e-3): 1е-3 просто уничтожает картинку. Сеть страшно перетренирована на крупных деталях: полное отсутствие какой либо мелкой детализации, уничтоженные контуры, околонулевая редактируемость, гигантский bias в сторону рисовки датасета. Тем не менее лучше всех справилась с заколкой, хоть она и по-прежнему далека от ГТ. Вывод. Я не нашел применения такой большой скорости. Возможно я что-то делаю не так. Возможно стоило добавить приличный warmup для планировщика, потому что сеть без него стартует с гигантской скорости. Возможно ситуацию мог спасти другой планировщик, какой-нибудь рабочий polynomial (но ни в коем случае не constant). Возможно нужно было тренировать на меньшем количестве шагов. Нужно экспериментировать а у меня слабое железо и это займет вечность в китайцоскрипте от него никакого толку, потому что этот планировщик в его имплементации не поддерживает важные дополнительные переменные и polynomial имеет ровно такой же график как linear
Что дальше? Пока думаю. Нужные значения имхо лежат где-то в районе первых двух результатов. Несмотря на не очень большую схожесть с ГТ, мне понравились результаты 1е-4 с уполовиненной скоростью ТЕ: отличная редактируемость, отсутствие bias в сторону датасета. Если я правильно понимаю, большее количество шагов должно спасти ситуацию. У сети будет больше времени обучиться концепту и она не "задавит" своими весами веса модели из-за маленькой скорости. Минус этого варианта очевидный: увеличенное время тренировки. Раньше я мог на своём корыте натренировать персонажа за 20-40 минут и получить нормальные результаты, но с обновлением 0.4.0 это больше не так. Видимо либо качество, либо скорость. Я всё же придержусь мнения что тренировать нужно только на 0.4.0, потому что в этой версии ввели то, что должно быть изначально, альфа - это переменная которая всегда была в оригинальном репо cloneofsimo, даже изменение переменной ранка (network_dim) появилось не сразу.
Вот бы нам анона с 4090, которому не лень было этим заняться. Уже бы давно всё порешали и тренили отличные сетки без нулевых тензоров на 0.4.0.
>>85259 Макаба сломала мне разметку, имелось в виду > рабочий polynomial(звездочка) > (звездочка)в китайцоскрипте от него никакого толку, потому что этот планировщик в его имплементации не поддерживает важные дополнительные переменные и polynomial имеет ровно такой же график как linear
>>84471 > > Хранить настройки в реестре очень хуёвая идея > Почему кста? Вроде дохуя 3рд пати хранят некоторые настройки в реестре Потому что 1) В linux ВНЕЗАПНО нет реестра, а твоей программой в теории могут пользоваться его пользователи. 2) Эта программа подразумевает некоторую портативность. При использовании файлов с настройками ты можешь создавать сколько угодно копий программы разных версий не боясь конфликтов между ними. Так же ты можешь переносить свои конфиги с одного компьютера на другой или делиться ими с другими пользователями. В случае с реестром это будет боль.
>>85418 Линукс-кун а треде все в айклоунд Два чаю. Привязывать к реестру - не лучший выход. JSON в пихоне должен писаться и читаться одной строчкой (т.е. одной - читаться и ещё одной - писаться). И можно иметь разные версии конфигов и переключаться между ними переименованием файлов.
>>85310 Я понимаю это так, что сеть "слишком сильно обучается" тому, чему ты её учишь и ничего кроме тренируемого концепта воспроизвести не может >>85358 Ну вот этой хренью что я занимаюсь. Берется один датасет, одни настройки, один сид и хуярится пять тыщ сеток с чутка разными настройками, потом гриды где всё это дело сравнивается. Мы находим нормальный диапазон значений для тренировки и всё счастливы. Все тренят на 0.4.0, кохъялахта остается без работы, мир погружается в утопию >>85372 Ок, остаемся здесь Бля пиздец чувствую себя как собака, мне говорят одно я делаю, мне говорят другое я делаю >>85441 Держи, анон. Если не лень и есть время, разъеби по фактам и насоветуй всего что в голову приходит, как сделать этот код нормальным. Из основного что меня тревожит, это то как реализованы вкладки и то, что каждая новая вкладка открывается дольше предыдущей до тех пор, что на плюсик приходится нажимать аж несколько раз https://github.com/anon-1337/LoRA-train-GUI
>>85484 >>84076 У тебя подход изначально неправильный. Не питонический и не ООПшный. Создай словарь, в котором будут описаны все поля и параметры вкладки по умолчанию. Создай список, в котором будут храниться все экземпляры вкладок. Создай класс, конструктор которого будет загружать поля из этого словаря или другого указанного: tab_settings_dict={"input_ckpt_path": "./", "checkbox_is_sd_768v_ckpt": False, "checkbox_is_sd_2x_ckpt": False, ... и т.д.} tabs = list() class lora_tab(): ....def __init__(self, input_dict, *kwargs): ........for dictionary in input_dict: ............for key in dictionary: ................setattr(self, key, dictionary[key]) ........for key in kwargs: ............setattr(self, key, kwargs[key])
При создании новой вкладки (в начале функции add_lora_tab) просто создавай новый экземпляр: tabs.append(lora_tab(tab_settings_dict)) Теперь ты сможешь обращаться к параметрам любой созданной вкладки через её номер(индекс в списке) и поле: tabs[0].checkbox_is_sd_768v_ckpt Индекс созданной новой вкладки будет последним: tab_num = len(tabs)-1
Так же ты можешь выгрузить все параметры любой вкладки в словарь и таким образом сохранить их в файл json: with open('tabsettings.json', 'w') as json_file: ....jsonDict = json.dumps(tabs[0].__dict__) ....json_file.write(jsonDict)
И соответственно можешь сделать наоборот — загрузить параметры из файла with open('tabsettings.json') as json_file: ....jsonDict = json.load(json_file) ....tabs[0].__dict__ = jsonDict.copy()
Так же можешь копировать значения из одной вкладки в другую: tabs[2].__dict___ = tabs[0].__dict___.copy()
Единственное что нужно будет написать два колбека. Один должен будет вызываться в каждом элементе gui и при изменении его состояния должен будет изменять соответствующее поле в своем экземпляре. Например dpg.add_checkbox(tag = f"checkbox_is_sd_2x_ckpt{tab_num}", label = "Stable Diffusion 2.x", before = f"checkbox_is_sd_768v_ckpt{tab_num}", default_value=tabs[tab_num].checkbox_is_sd_2x_ckpt, callback=elements_callback, user_data=(tab_num, "checkbox_is_sd_2x_ckpt")) А колбек должен будет выглядеть примерно так. def elements_callback(sender, app_data, user_data): ....tab_num=int(user_data[0]) ....tab_setting=user_data[1] ....setattr(tabs[tab_num], tab_setting, app_data) Теперь если тыкать на этот чекбокс значение tabs[tab_num].checkbox_is_sd_2x_ckpt будет принимать значение True или False
Второй колбек должен делать всё наоборот. При загрузке параметров из файла он должен изменять состояние каждого соответствующего элемента gui при помощи dpg.configure_item
Либо при загрузке параметров из файла создавать новую вкладку с параметрами из указанного словаря. Можно, например, у функции add_lora_tab добавить параметр input_file_dict, который по умолчанию имеет значение None def add_lora_tab(sender, app_data, input_file_dict= None) Параметры sender и app_data обязательны, потому что это колбек-функция. После чтения файла создавать новую вкладку: with open('tabsettings.json') as json_file: ....jsonDict = json.load(json_file) ....add_lora_tab(input_file_dict = jsonDict)
И дальше проверять — если параметруказан, то брать значения из него при создании экземпляра вкладки: if tab_dict != None: ....tabs.append(lora_tab(input_file_dict))
> и то, что каждая новая вкладка открывается дольше предыдущей до тех пор, что на плюсик приходится нажимать аж несколько раз Это из-за хинтов _help
Вообще советовать DPG была плохая идея, лол. Слишком он уж всрат. Лучше было бы использовать tkinter или PyQt. У них порог входа выше, но они гораздо лучше.
>>85827 Спасибо тебе огромное что не поленился и расписал! Буду курить твои советы, читать документацию и потиху править код. Не знаю только что такое __dict__ и *kwargs. >>85827 > Слишком он уж всрат Но кстати дизайн интерфейса у него приятный.
Еще замечание. Есть элементы gui у которых в качестве входных параметров указываются списки или кортежи: Как сделано у тебя: gui.add_combo(["linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup"], tag = append_instance_number("combo_scheduler"),default_value = "linear", width = -1, callback = scheduler) Так делать не надо. Создай кортеж с котором прописаны все эти элементы schedulers = ("linear", "cosine", "cosine_with_restarts", "polynomial", "constant", "constant_with_warmup") При создании элемента указывай этот кортеж gui.add_combo(items = schedulers, В default_value указывай индекс. default_value = schedulers[0] В колбеке так же работай со значениями app_data по индексу def schedulers_callback(sender, app_data): ....schedulers.index(app_data)
Теперь если тебе нужно будет добавить или убрать количество планировщиков, то достаточно будет изменить только кортеж schedulers.
>>85259 Сколько пикч было в дата-сете? Какого разрешения? Можно в крадце. Если ты говоришь про 2 способ, т.е. брать UNet LR 3e-4, а TE 1.5е-4, то какую основную LR ставить? А планировщик?
>>85966 Планировщик я брал linear. В датасете 11 пикч 12 повторений + 15 пикч 3 повторения, итого 26 уникальных пикч, одна эпоха равна 177 шагам. Основной LR можно никакой не ставить. Значения UNet LR и TE LR переопределяют основной LR. Ты либо тренишь на одинаковой скорости и UNet и LR, выставляя только основной LR (UNet LR = LR, TE LR = LR), либо ставишь свои значения в отдельные скорости и основной LR как параметр не используется.
>>84384 Оформил гит пул и тоже сгорел. Ватоматика надо пиздить палками.
Кароч, открываешь style.css в корневой папке. Ищешь там .extra-network-cards .card , после него меняешь width: 16em; height: 24em; ставишь 6em и 12em соответственно например. Это ширина и высота панели в размерах текущего шрифта.
Потом идешь .extra-network-cards .card .actions .name , под ним меняешь font-size: 1.7em; на 1.2em например, это размер шрифта названия.
Сохраняешь, рестартишь градио, получаешь такое.
Обновляться потом через гит ресет или подкидываешь забекапленный файл
>>86136 Спасибо. >Обновляться потом через гит ресет или подкидываешь забекапленный файл Можно подробнее? Писать не git pull а git reset и потом делать то же самое в .css?
>>86175 > Можно подробнее? Бля, сорян. Кароч если через гит пул не сможет, то пишешь git reset --hard HEAD все откатится до до последнего коммита, дальше git pull. Ну или просто возвращаешь обратно исходный файл что бы перестало ругаться и гитпулишь как обычно.
Делал все по гайду тренинга лоры, дошел до запуска скрипта пикрил. А как его запустить-то? Это же блокнот! На .\train_network.ps1 что в павершеле, что в командной строке выдает >не распознано как имя командлета, функции, файла сценария или выполняемой программы. Проверьте правильность написания имени, а также наличие и правильность пути, после чего повторите попытку >не является внутренней или внешней командой, исполняемой программой или пакетным файлом.
>>86879 Делал в самом начале, нагуглил когда начало выдавать ошибку.
>>86878 >Выйди из венв перезапусти Сделал. >открываешь павершелл через пуск и тупа кидаешь в него файл Без админа - просто открывает блокнот. С админом - пикрил.
Мимо тот, у кого 32мерные лоры получились лучше, чем 128, а первая, на дримбутовском дополнении, еще до всего этого хайпа, то есть размерности 4, еще и более редактируемая
>>87090 Кстати да, все эти лоры меньшей размерности лучше редактируются и меньше влияют на стиль модели. Мое предположение что это из-за того что тренируется меньше параметров unet и текстового энкодера, соответственно меньше влияние на модель >>87008 Выкладывай датасет и настройки. И показывай что есть и какой результат необходим. Тут нет телепатов >>87154 Я вообще этого не понимаю, лоры эти ебаные. Даже если есть нисходящий тренд, то он просто минимальный, на уровне погрешности. А всё потому что китаец - ебаный лентяй, написал код который работает на 6 гб врам и теперь думает что он ебать какой охуенный и ничего больше имплементировать не надо. А ведь там еще немало фич вроде как в офф. репо cloneofsimo. И он добавляет новые. У китайца блядь не работает polynomial (!), потому что он принимает важный параметр, отвечающий за скорость спада кривой (или за её кривизну, хуй знает как сказать), у китайца соответственно нет и график полиномиал выглядит как линеар. А ведь правильно настроенный полиномиал - это поле для экспериментов, потому что он позволяет выставлять экстремальные значения скорости обучения без ущерба для результата (в теории). И китаец игнорирует уже который ишью с этой просьбой, лучше замерджить очередной бесполезный пул реквест с парой новых строчек в метадате сети Ух, как печет у меня сука с него Было бы 12 гб врам, тренил бы на оффициальном репозитории, похуй на оптимизации. Надеюсь cloneofsimo оптимизирует свое детище, он про что-то такое недавно писал пригорел
Пик 1. Вот блять потратил еще 8 гпу часов на тестовые сетки, на этот раз с разным количеством эпох при абсолютно одинаковых настройках. И не дай бог конечные эпохи визуально отличаться не будут.
Пик 2. И почему график так колдоёбит на старте эпох? Такого раньше не было, появилось с нетворк альфой 1 (окей, тут я не разбираюсь, может это особенности алгоритмов обучения).
Пик 3. Окей, выкручивая смузинг на 1 нисходящий тренд очевидно есть, но он... маленький? Или я многого прошу? Сеть как будто мало чему обучается, как будто меня опять ждёт ебатория с лёрнинг рейтами
Да, в пизду Диму 128. Оттренил 7 сеток на 16, результаты поражают. Даже на "высоком" лр, где на 128 уже датасет выдавливал рисовку модели своей рисовкой, на 16 никаких следов от этого нет. Куда лучшая переносимость. Интересно потом будет потренить стиль на таком Диме.
>>87491 У меня 0.4.0 Я не тренировал на низком диме > Интересно потом будет потренить стиль на таком Диме Но я буду не против если потренишь и покажешь что получилось. Уже подзаебался если честно
Скорость обучения UNet 5е-4, ТЕ 2.5е-4, network_dim 16, alpha 1 Маленький дим позволил наконец-то сети понять что такое заколка, где она, какого она цвета и формы! (для тех кто читал вчерашний пост). Сетки весят по 18 мегабайт, волшебно. Да, длительность обучения однозначно влияет на результаты. Чтобы получить похожие результаты, нужно тюнить скорость обучения или еще чего. Тренировать на одном LR разное количество эпох – нет, это так не работает. Лучший результат для меня – 10 эпох (1770 шагов / 177 пикч с повторениями). На 20 эпохах сетка перетренировалась, на 30 перетренировалась жутко. Есть смысл понижать LR для большего количества эпох, но в пизду, меня мои 10 эпох устраивают. Итого что я имею на данный момент, это network_dim 16, network_alpha 1, UNet LR 5e-4, TE LR 2.5e-4, 17.7 повторений на 1 пикчу датасета (учитывая повторения) пока хуй знает насчет этого. Осталось выяснить планировщик. Буду пробовать cosine и cosine_with_restarts. Первый в китайцоскрипте внезапно рабочий, второй полурабочий, но все же не такая ситуация как с polynomial, можно еще найти применение. Потом попробую найти примерный оптимал для стилей, не удивлюсь что все настройки в итоге окажутся такими же.
Аноны, вдруг кто в курсе: есть 2060 super на 8 гигов, ее хватает на тренировку 1.5 модели файлами 512 пикселей и без текст энкодера, но хотелось бы тренировать модель 2.1 файлами 768 пикселей ну или хотя бы 1.5, но с текст энкодером. Если я поставлю вторую такую же карту, можно ли будет как-нибудь использовать суммарный VRAM этих карт для тренинга? Или лучше все же сразу мутить одну карту на 16+ гигов?
Вы тут только аниме трените? Кто-нибудь реальных людей тренил? 20 фоток достаточно? Я делал по 12 повторений на 10 эпох и как понимаю перетренировывал. Получалось 2400 шагов. То есть закидывал портреты и стабл 99% портретов выдавал, пусть и очень похожих. Вопрос соответственно, лучше больше фоток и меньше повторений тренить?
Ребзя, подскажите почему часто при включении или при смене модели перестает работать? последнее что пишет Loading weights название модели. Может озу не хватает?
>>88810 Упоролся и протестировал все методы на Top P 100 у плагина, для CFG 30.
По итогу могу сказать, что лучше всех работает в таких экстремальных условиях только cosine up + linear down. Возможно другие варианты смогут лучше себя раскрыть если понижать Top P, но мне пока лень этим заниматься.
-- - значительный баг или непопадание, возможности фиксирования не проверялись +- - выдает неплохой результат, но имеет значительный баг, который можно пофиксить через mimic и top p ++ - хороший результат
Общий результат:
-- cosine up + constant (distortion face) ++cosine up + linear down -- cosine up + cosine down +- cosine up + linear up --cosine up + cosine up
--constant + constant +-constant + linear down -- constant + cosine down +-constant + linear up +-constant + cosine up
--linear down + constant +-linear down + linear down +-linear down + cosine down (black n white bug) +-linear down + linear up (distortion face) --linear down + cosine up
--cosine down + constant -+cosine down + linear down +-cosine down + cosine down (black n white bug) -- cosine down + linear up (perfect prompt with distortions) --cosine down + cosine up
--linear up + constant +-linear up + linear down +-linear up + cosine down (black n white bug) +-linear up + linear up (perfect prompt with distortions) --linear up + cosine up
Куда лучше залить свои лоры? На civitai или huggingface? Или по старинке на мегу? Ничего особенного у меня нет, кроме как стилей авторов рисунков и персонажей из аниме. Хотелось бы знать за ту местную мочу. Можно ли указывать, что стиль определенного автора? И можно ли на civitai несколько версий залить на одну страницу?
А есть какой-нибудь гайд для тренировки ЛОР в облаке, на том же коллабе? Какие-то ссылки я видел, но пользоваться как - хз вообще. Только гайд чтоб для совсем хлебушков, которые с этой фигней никогда раньше не работали. А то моя 2070 и полноценно тренировку не тянет, долго сильно, да и, чую, помрет скоро такими темпами.
>>89675 Долго сильно. Так то по памяти оно тянет, впритык к моим 8гб. 512px, 2 batch. Но я в основном стили и концепты тренировать пытаюсь, а это очень долго выходит, исходя из необходимого количества материала и повторений. И не шибко стабильно. Поэтому и думаю, куда это можно перетащить, чтоб не так медленно было.
>>89620 Да, у меня до сих пор пару датасетов валяется неоттрененных. Меня заебала вонючая лора. Не могу найти хорошие настройки. Сейчас чувствую брошу нахуй всё. Немного спасает что теперь могу в облаке тренировать
>>89726>>89729 Гугл включил - и другими делами занимаешься. Пусть и дольше будет, зато комп свободен.
Вместо того, чтоб комментировать, плохо ли, хорошо ли, а зачем тебе - написали бы, где нормальное руководство искать. Можно и на английском, у меня с ним норм. Но чтоб подробно.
>>89483 Некоторые аноны не делятся нихуя. Другим проще повниманиеблядствовать на цивите или хагинфейсе. Я ебусь с настройками как долбаеб. Ничего не треню, ебу один и тот же датасет. Меня от её ебала уже тошнит. Блядский питухон изучаю и мне сложна, у меня задница с этого горит. В гайд есть что добавить, но мне лень и я боюсь вкинуть дезинформацию потому что сам до конца не понимаю как всё работает. Таблетки не помогают. С треда 80% людей съебало, интересные темы и вопросы не поднимаются. Настали темные времена...
>>89771 Это тоже твои ресерчи? >>87560 Такое чувство что ты тут один остался кто за идею хуярит. Скинь какой-нибудь датасет, скажи настройки, я попробую какое-то сравнение из нескольких лор, сделанных на разных настройках сделать чтобы помочь, заодно получше научусь
>>89781 Да, хуйней тут страдаю. Ценю помощь, спасибо. Но сейчас ничего не скину, с телефона капчую проснулся и не могу заснуть :( Это вполне нормально что всем похуй, я не обижаюсь. Часть анонов съебала, многие судя по всему остались на версии 0.3.2 где все относительно стабильно, но мне сука хочеца выжать максимум из этой сучки
>>89779 Ага, в основном доступно. Настройки кучкой, минимум всяких окон, которые непонятно чего делают. Третий шаг, как я понимаю, можно пропустить, если свою модель в гугл загрузить в соответствующую папку?
>>89769 То, что сейчас я залил, сделал еще дней 10 назад. Но ебался с настройками, думал вот сейчас точно лучше будет, а в итоге только первые две попытки и оказались успешнее всего. Примерно с гиперсетями у меня похожая история была. Искал 100% годные рецепты, находил не раз, а каждый раз все хуже и хуже. Остановился на том, что дефолтные лучше всего. Рано или поздно кто-то да поделится. Отток людей это нормально. Набегут еще. Скорее хаус упорядочился.
>>89803 Понять бы еще, какая там папка корневая. Вот, допустим, у меня лежит в корне гугл-диска папка "AI", и там уже всё остальное - сеты для тренировки, папка с моделью, папка для вывода, всё такое. Как будет путь выглядеть?
>>89808 Генерация контента уровня "аниме-тян на фоне какой-нибудь хуйни" или "реалистик-тян (с эффектом зловещей долины) на фоне какой-нибудь хуйни". Иногда не тян, а кун, неважно. И все имидж борды и дискорд серваки (российские, американские, японские, корейские) завалены на 99.9% именно таким контентом.
>>89815 О, вижу залил, красава! До слёз. Прикольный стиль, надо с утра попробовать > думал вот сейчас лучше будет Классика :( Хочется как лучше, а в итоге как обычно. К гиперсетям я вообще боюсь притрагиваться, у кого-то на 2000 шагах вырвиглаз, у других на 50к всё нормально. А для технотреда еще настанут золотые времена! Все еще только зарождается
>>89826 Я все еще работаю над meme-chan, coconut из некопары. В идеале хочу все же сделать всех кукл розен майден и нек из некопары одним файлом для каждых. Еще месяц-два назад видел, как кто-то с форчана запилил лору с несколькими тянками из Love Live, когда у нас про эту самую лору никто не знал. Если я чем-то загорелся, значит все, минимум на год, а скорее на года два. Так что я здесь еще на очень долго. В процессе еще что-то придумаю.
>>89792 Ну я попробовал 0.3.2, там точно работало, опыта у меня мало, сейчас вот уже перекатился тоже на 0.4.0 и хочу что-то потренить, видимо придётся самому собирать что-нибудь для датасета, раз уж и ты там в полудрёме, ничего плохого в 0.3.2 тоже ведь нету, лоры оттуда работают, да и твои на 0.4.0 уже выдают отличные результаты, так что тут можно только похвалить кохью и автоматика, что обратная совместимость есть
>>89828 Ага, оно живое. Каких-то варнингов накидало, но тренировку запустило. И вроде как побыстрее локали, видимо за счет batch 3 вместо моих 2. Число шагов все-таки пониже получается. Спасибо.
>>89839 Так ты пости результаты, будем обсуждать, корректировать что надо. Хочу коконат увидеть Бтв съебываю из репо китайца походу, сейчас листаю гитхаб оффициальной лоры, так там пиздец, столько крутых фич чтобы улучшить результаты! Еще и вчера новая версия вышла. Там конечно 6 гб памяти не вытянут скорее всего, буду в облаке тренить, что остается Жду ваниллу бтв
>>89848 В 0.3.2 есть большая проблема, это нулевые тензоры. Впустую потраченное время гпу, неполноценные недотренированные модели, которые в теории могли быть лучше > твои на 0.4.0 уже выдают отличные результаты Спасибо, но я так не считаю. Есть бесячие моменты которые пока не удается исправить
>>89854 Вот по этому совету сделал сегодня >>87560 И в правду редактируемость фона улучшилась. Тестировал тег squatting. Колготки в сетку само собой глючат.
>>89881 Слушай, а ведь хорошо получилось! Но на большем весе видно как рисовка датасета "выдавливает" рисовку модели. Я вот пытаюсь с этим бороться. Помогает уменьшение обоих lr до 3е-4/1.5е-4, но не панацея
>>89861 Не в пустую, прямо сейчас генерил Лейн лорой созданной еще на бородатой версии каким-то здешним аноном, за что ему кстати спасибо, объединённой с лорой на йошитоши абе. Впустую, ты наверное имеешь ввиду, когда только эту проблему решать взялись и у всех начались проблемы. Вообще если так рассуждать, всё это время эни3 могла бы быть с пофикшенными тензорами, и пару других чисел многие генерации изменили бы до неузнаваемости, в теории лучше, но кто его знает, может быть и наоборот, однако это не отменяет того, что до выхода апельсина многие ей пользовались как основой для очень многих миксов и делали вполне неплохие арты. Хорошо кстати, что ты эти знания выкладываешь по новой версии тренировки лор, я ими обязательно воспользуюсь в ближайшее время.
>>89910 А откуда лору брал? Я просто тоже Лейн делал лору Не впустую конечно, я просто шиз, помешанный на перфекционизме и неприятно что все что я делал до 0.4.0 как бы могло быть лучше Ух, сегодня великий день, попробую другой репозиторий. Ожидания высокие
>>90295 Ну я из треда скачивал, это она вроде лежит сейчас в коллекции лор? Твоя? Отлично сочетается со стилем художника из коллекци форчана. Будешь тестить какую-то репу с более обширным функционалом?
>>90375 Расскажешь потом что получится? Алсо это же не нормально когда вызываемая лора начинает работать правильно только с кучей сопутствующих тегов на заколку, цвет глаз, использованных при тренировке, а не просто ее вызов в промпте? Просто простой вызов на 1.0 проебал походу вообще все элементы персонажа, кроме цвета волос. Алсо, если не менять промпт генерит как будто "на одном и том же сиде", если прописать детально промпт. Совсем маленькие отличия, даже не поворачивается персонаж особо от генерации к генерации, но фоны удивительно поддаются.
А как пофиксить остаточный ген после прошлой версии промта? Ну то есть допустим был рендер 1, меняем его на 11 и первый новый рендер будет рендерить прошлый промт, а второй уже новый.
>>90600 > Расскажешь потом что получится? Конечно, если получится > Алсо это же не нормально когда вызываемая лора начинает работать правильно только с кучей сопутствующих тегов на заколку, цвет глаз, использованных при тренировке, а не просто ее вызов в промпте? Да, но при этом в датасете должны быть изображения где этой заколки нет, чтобы сеть поняла, как рисовать персонажа когда она есть в промте и как рисовать когда её нет > Просто простой вызов на 1.0 проебал походу вообще все элементы персонажа, кроме цвета волос. Немного не понял, что ты имеешь в виду > Алсо, если не менять промпт генерит как будто "на одном и том же сиде", если прописать детально промпт. Совсем маленькие отличия, даже не поворачивается персонаж особо от генерации к генерации, но фоны удивительно поддаются. Маленький и не разнообразный датасет + возможно выключенная настройка "--shuffle_caption" при обучении Я с таким сталкивался, брал промт из датасета и сетка старательно пыталась повторить пикчу с этим промтом Если в датасете все пикчи как персонаж стоит и только одна как он сидит, неудивительно что на тег "sitting" будет мало разнообразия >>90601 Чем? Генерациями? >>90625 В гайде по лоре написано, поиск по странице "keep_tokens" >>90682 Не понял
еще раз: 1. генерим на промте zhopa 2. добавляем zhopa anus 3. после нажатия генерации будет генерить все еще промт zhopa 4. вторая генерация после будет zhopa anus
>>91058 К какой именно? Я про аренду гпу в облаке, сначала не ставились, накатил 1.13.1 торч и последние иксформерсы и всё встало. Прирост почти 2 раза в скорости обучения
>>91087 https://console.vast.ai/ Нет, ты платишь за пользование гпу определенную цену в час + еще немного за хранилище. Чем больше выделил себе ссд, тем больше платишь, очевидно. 50 гб у меня 1 цент в час. Ты можешь вырубить в любой момент и тогда будешь платить только за хранилище. Если не хочешь платить вообще, то можно удалить инстанс, но придется потом заново всё настраивать
Правильно ли я понимаю, что если у меня есть пик1 (560x536px), то из него имеет смысл по-разному вырезать куски 512x512px (пик 2-4)? Я понимаю, что это не заменит датасет. Речь идёт скорее об обработке каждой фотки в датасете подобным образом.
>>91771 Ой бля даже хуй знает что сказать. Датасет вроде нормальный. Хуй поймешь эту лору. 10ая эпоха вообще пиздец странная, как будто из другой вселенной, втф? Возможно слишком долго обучал. Я сегодня сравнивал 10, 20, 30 эпох на одинаковых настройках, так вот чем дольше, тем нейронка "сильнее" запоминает датасет и теряется вариативность. Когда переобучаешь спасает только уменьшение веса лоры, но есть риск сделать персонажа менее узнаваемым Щас я грид сделаю, у меня +197 лора файлов, вроде как что-то нащупал, и выглядит опрятно, и стиль от модельки к модельке меняется. И заколка в паре сеток уверенно так рисуется, прямо как в датасете, перамога кек
>>91798 С десятой эпохой обосрамс с лишним нулём в гриде, она всё таки рабочая, но всё равно какая-то не оч, мне больше всего не нравится, что сид хоть и меняется с уточняющими тегами, смены положения персонажа в кадре нету, всегда слева направо смотрит, иногда в середине мелькает, наверное зеркалить всё таки нужно, но тогда беда с заколкой будет ещё больше по идее. Ну и восьмая эпоха похожа на самую стабильную.
я нихуя не понял как, но маняфункция ,,,,,blend(промт) миксит прям перфект без дропов, экспрессия на картинах прям дышит, можно поменьше запятых, допустим одну, с точкой вначале результаты дает хуже токен , = 267, токен . = 269
>>91554 Поздно, я уже написал скрипт, который это делает. https://pastebin.com/9anRu74x Так что теперь датасет должен быть не из картинок 512х512, а из таких картинок, что любой прямоугольник 512х512 содержит заданный концепт.
Что общего у всех: основа ACertainty, датасет 59 пикч суммарно вместе с повторениями (11х4+15х1), network_dim 16, network_alpha 1, train_batch_size 10 (<- это очень важно), clip_skip 2 очевидно, keep_tokens 1, shuffle_caption (триггер токен tk первым тегом везде), lr_scheduler constant_with_warmup, 20 эпох, разгон планировщика ровно половину всех шагов (но с этим в теории можно поиграться)
Разные скорости обучения: unet: 0.5e-3, 1.0e-3, 2.0e-3, 3.0e-3 text encoder: 0.1e-3, 0.2e-3, 0.4e-3, 0.6e-3 (т.е. в 5 раз меньше unet lr)
Что я получил: 1. Ебучую заколку на некоторых сетках, причем довольно уверенную 2. Переносимость между моделями: охуенскую переносимость между моделями. Как-то так вышло. Причем без особых тегов и кручения весов, всё в стоке, обычный промт и сразу выдает разную картинку на разных моделях. Далеко не всегда такое было, но тут прям зачёт 3. Отсутствие мыла или перешарпленности. Джизес крайст, и такое бывало Но мне чёт МАЛА. Нужно еще что-то придумать.
Насчёт train_batch_size. Если бы у меня был батч сайз 1 то скорость была б в 10 раз меньше, но она такая гигантская потому что у меня стояло 10! Нужно всегда пересчитывать скорость под свой батч сайз. Потому что умные дяди сказали что линейная зависимость: во сколько раз относительно единицы увеличил батч сайз, во столько же раз увеличиваешь скорость обучения (обе)! А я долго ебался и не мог понять почему у меня не получается воспроизводить старые сетки, они то недо-, то перетренированные
Насчёт разгона планировщика lr_warmup_steps: на всех пиках разгон первые 50% шагов. После 50% шагов скорость обучения выходит на ровную прямую до конца обучения. Как рассчитать? Хуй знает. Я возможно проебался в нескольких моментах в скрипте и в гуе, для батч сайз стопудово он точно считает сколько ставишь, но для батч сайза больше одного не уверен. Легко проверить: настроить запустить скрипт, посмотреть сколько шагов тебе насчитала обучалка, закрыть, поставить половину от этого в lr_warmup_steps и запустить снова
>>91870 > для батч сайз стопудово для батч сайз 1 бля*
И еще важное про эпохи не упомянул. Их тут ровно 20 на каждом пике. Будет меньше или больше эпох, будут другие результаты. Но на 20 эпохах именно такие
>>91864 >>91018 Да, бленд рабоатет в негативах и позитивах, проверяется через "blend(prompt)", где " токен 1 и получается бесконечное смешивание в одноцветный градиент. То есть от токена зависит смешивание.
У лоры на первых-серединных эпохах результаты могут быть лучше, чем на последней? А я удалял все, кроме последней. В гайде про это ни слова, а тут смотрю эпохи сравнивают в треде.
>>91918 Могут. На вкус и цвет. Если грамотно подобрать настройки то последняя эпоха выйдет самой лучшей. Мы этим в треде и занимаемся
>>91934 > Это локализовано как "Разогрев планировщика?" Да. Перевод фаргус > Такой опции же даже нету в гуе, или ты имеешь ввиду 25% сделать? Нет, 50% и ставишь, но я опять же говорю что за правильность расчета при батч сайзе больше одного не ручаюсь. Но это в любом случае не суперкритично, просто я оттренил на всех значениях от 0-100% и мне серединка показалась самой лучшей
Запихнул Кокос в двух одеждах и Ваниль в network_dim 32 Не знаю нафига, но тренил 10.5 часов на 10 эпох в 21k шагов. Хотя уже 3-я эпоха норм. Изменчивость фона хорошая, позы тоже. Его настройки >>87560 Только я ставил 12 повторений. >>91918 Ну да. Поэтому мы и прогоняем x\y тесты постоянно, беря шаги\эпохи с запасом. Я вот вечно наваливаю слишком много и из 8-10 эпох наиболее лучшими выходят где-то 4-6.
>>91945 21к - ебануться! Ебать я в голосину громко проиграл, без обид. Таких циферь на лоре еще не видел, даже от анонов с 4090. Выглядит няшно достойно имхо. А на какой модели пики делал? Интересна переносимость
Поясните, в чем смысл параноидальной педоборьбы в разработке SD и вокруг t2i в целом? Я по своему опыту знаю, лольки 7-14 лвл это те еще маленькие чертовки. Бывает что еще не появились там волосы, а уже пускается во все тяжкие! Раньше в 13 лет выходили замуж, а у муслей в Судане выдают замуж в 9 лет.
>>91956 Вполне. Результат зависит от контента датасета. Датасет разноообразный - чаще результаты хорошие
>>91955 Потому что педо это плоха! И это действительно плохо, но я не понимаю почему цифру, почему пиксели называют педофилией. Я думал что педофилия - это когда страдают дети. Я не знал что пиксели тоже должны быть под защитой. Педоистеричек трудно понять на самом деле
>>91956 Для персонажа или стиля? Для персонажа желательно чтобы с разных сторон он был, хотя бы одна пикча с full body, желательно еще со спины. То есть максимально кайфовый дата-сет - это концепт арты. Я вообще использую то модели из MMD, то фотографии аниме фигурок, если ничего другого нет, чтобы показать персонажа со всех сторон.
И кстати у тебя батч сайз потянет-то хоть, там нужно 24 гб, я в облаке делал. И еще. Постарайся избавиться от повторений в датасете если несколько папок. Т.е. если у тебя там папки 20_кек и 5_кек, то так не надо делать, приведи к НОД: сделай 4_кек и 1_кек
>>91974 Ну а что поделать. По хентаю арты как правила почти не рисуют. К счастью хоть аниме вышло, от туда взял скринов. Не думал, что кто-то будет использовать эту лору с реализмом, поэтому не тестировал на таких моделях.
>>91964 Чисто персонаж. Большая часть артов - фуллбоди. Специфическая одежда. На все буры 200 артов, где половина сразу отпадает, т.к. левая одежда, неотковыриваемые левые персонажи. Потом отваливаются просто кривые арты, всратый хентай, чибики, обнаженка. Вот и осталось 15 картинок.
>>92008 >>92004 Бля, батч сайз 5 видяха тянет, а вот системная память нет, падает после 4 эпохи стабильно, с батчем 4 на 16, придётся откатится до 3 с соответствующим ЛР, повторения для такого нужно изменять у пикч? Не совсем понял почему нужно так мало ставить, типо каждая эпоха будет совсем по чуть чуть тренироваться и можно будет выбрать из более обширного количества лор во время тренировки, так это уловил.
>>92030 Да просто дохуя повторений это дохуя степсов, я не знаю что произойдет если много степсов навалить. Если хочешь пробуй. У меня эпохи были на батч сайзе 10 по 9 шагов
ВТФ?! После ответов на вопросы по гайду для скрипта файл train_network.ps1 тупо не появляется. Ошибок никаких при этом после ответов на вопросы не вылетает.
>>92032 >>91972 Ну по всей видимости это не дотренилось? С тегами конечно получше, но всё равно херня получилась, без них почти ноль эффекта. Всё таки осилил в 5 батч запустить, я же верные параметры выставил с таким батчем? unet_lr: 5e-4 text_encoder_lr: 1e-4 lr_scheduler: constant_with_warmup lr_warmup_ratio: 50.0
У тебя вроде пикч в два раза больше? Из-за этого может?
>>91999 Возможно, это особенность конкретных регов? Если делаешь реги в наи только по классу 1girl + теги качества, херачится сеймфейс/невнятная одежда, которые и запоминаются?
У меня наоборот проблема с регами. Я заморочился, наделал вагон совершенно разных высококачественных необрезанных мужиков с разными лицами, в разных позах, в разной броне, на разных фонах с разным светом. Все это в надежде, что Лора выучит именно разницу, а все хорошее (качество) возьмёт от регов.
Ага, хуй там плавал. Лора как обычно выучила основной датасет, 350 самых разных регов псу под хвост. Но я делал и реги и теги. Может, теги помешали, и надо делать мини-дримбут только с классом.
>>92103 Ага. Оно тупо все в оперативу заливается. Чтобы заниматься слиянием моделей 4+ гигов имея на борту 16 оперативы - приходится все по максимум вырубать, чтобы хватило памяти. Надо 32, а лучше 64, чтобы наверняка.
>>92053 Эхх, херню значит посоветовал. Но мне мой резалт понравился, странно. Если недотренировано у тебя еще есть варианты потренить unet 1е-3 и 1.5е-3. Есть также вариант тренить без текст энкодера, кек. А сколько шагов в сумме получилось?
>>92186 >Кстати, если тренировать их вместе, кохия добавил наконец их разделение в своих additional networks, их теперь можно взвешивать раздельно. Лоол, спасибо за инфу
>>92053 Еще я кстати пробовал опускать все теги, описывающие внешность персонажа, такие как цвет глаз, волос, длина волос, всякие дополнительные вещи типа заколок и т.п. т.е. то, что присутствует на каждом изображении датасета. Тогда вся эта информация у сетки ассоциируется с твоим триггер токеном (в моем случае tk). Еще я пробовал опускать вообще все теги, у меня не было текстовых файлов, а папки назывались "n_tk 1girl" -- результаты меня поразили, я думал это невозможно. Я так понял если сетка обучается только через единственный инстанс токен, то ей ничего не остается кроме как найти общее на всех пиках, а на всех пиках общее это только лицо
>>92250 С батчем в 5 надо общее количество на 5 умножать? В проге при 1_fan_art 2_sprite всего навсего 192 пишет. Увеличивал постепенно 2 и 4, 3 и 6, 4 и 8. В итоге только 4 и 8 и 3 и 6 более менее норм оказались, примерно на уровне предыдущей тренировки, где почти весь персонаж без тегов выдавался, и тоже 7-9 эпохи лучше всего получились у 4 и 8 и 18-20 у 3 и 6.
>>92268 > Еще я пробовал опускать вообще все теги, у меня не было текстовых файлов, а папки назывались "n_tk 1girl" То есть папку назвать нужно так: "12_elie 1girl"? Зачем 1гёрл, типо как тег? А ничего что она через пробел?
Скинь свой датасет, хочу для сравнения глянуть. Как ты кстати графики такие >>85044 выводишь?
С большой скоростью тоже попробовал, по типу 1e-3, вообще не пошло, просто картинка в кашу на второй же эпохе, правда я там поставил cosine и без разогрева с батчем в 1. Просто решил попробовать так сделать.
>>92310 Нет, я написал скорости уже посчитанные для батча 5 1girl может и необязательно, просто в дримбузе указывается инстанс токен + класс токен Датасет есть в лора репо в шапке
>>92325 > Нет, я написал скорости уже посчитанные для батча 5 Я не про скорость, а про количество шагов отображаемое в проге говорю, при 1 и 2 повторений на папках получилось 192 при батче в 5, если поставить батч 1, то число умножается на 5, дальше просто по +192 на каждый вариант повторений который я тестил. Как ты кстати эту 1e-3 скорость посчитал? Ты же вроде тестил на такой же, но с батчем в 10, мне же надо как минимум в два раза ниже ставить для батча в 5, как ты и писал раньше? Что я собственно и делал. На 4 и 8 повторений с батчем 5 с 12-13 эпохи жуткий перетренинг пошёл, мутации, экстрашарп.
>>92402 Поясните, почему решили ставить батч 10? Я не критикую, может, это волшебная таблетка, но аноны с форчка с претензией на знание мл говорили, что слишком большой батч при тренировке сглаживает обучение, потому что модель меняется один раз за батч. То есть это аналог gradient accumulation
На что вообще влияет описание тегами в датасете лоры? Я натренил стиль сетом без тегов (только с тегом вызова) и он вышел весьма неплохо, но слабо следует промту. Есть ли здесь взаимосвязь?
Сколько нужно уникальных пикч для датасета? Чем больше, тем лучше, или больше ~50 например не особо имеет смысл?
>>92503 Я лично ничего не решил, просто ньюби, перебираю разные способы тренировки, чтобы посмотреть результаты и найти наиболее лучший. А вот у анона выше точно шило в заднице, он стремится к перфекционизму.
Что я не так делаю? Пользуюсь этим коллабом https://colab.research.google.com/github/Linaqruf/kohya-trainer/blob/main/kohya-trainer.ipynb И на выходе получаю 5 гиговый файл, который не работает как лора, а работает как обычная модель. И вроде бы и перса рисует, и всё остальное без потерь как та модель, на которой обучалось, но это же нихрена не так должно работать, верно?
Скрипт криво сохранился или я что сломал? Запускаю из среды редактирования скрипта. В принципе если просто "выполнить в павершелле", то тоже самое, но нормальной консоли вывода ошибки не посмотреть.
Я взял работавший у меня рецепт дримбуз-модели (датасет, параметры) и решил поэкспериментировать. Я отключил prior preservation и получил на выходе вот такое вот. Закономерно ли это? prior preservation и впрямь настолько важен или это я где-то прокосорезил?
Я взял заряженный калаш, из которого только что стрелял, навёл его себе на ногу и нажал курок. Теперь в ноге дырка и оттуда что-то течёт. Так и должно быть или я неправильно понимаю принцип действия калаша?
Как вообще определять количество регуляризационных изображений? Экспериментально или есть примерная формула?
На недавно прошедшей сходке аи-энтузиастов порешали Кароче, оказывается подмена CLIPа от SD таки влияет на графинум и интерпретацию чанков, невероятные просторы кастомайзинга моделей открылись, клип и юнет что очевидно файлы оказывается не одинаковые божечки мои. То есть если вам надо фиксануть только ids не меняя трейнинг дату клипа на дефолтную/от другой модели, то делайте просто фикс клип идов без импорта фулового .pt файла клипа.
Верно и обратное, если вы хотите скормить своей модели мутировавший клип от скажем оранжа или протогена - вот тогда можете импортировать. То же самое касается и UNET.
>>93709 Слушай, я думаю что лучше написать, что если хочешь сделать подмену клипа для аниме модели, у которой глубоко в корнях лежит NAI, то стоит из NAI клип и выдирать. Он ведь натренирован на данбуру тегах, мне кажется ставить сд клип в аниме модель не лучшая затея. Он чистый, я проверил. Ну там только какая-то трабла была с ключами, я с помощью тулкита пофиксил это, сдул до 2 гигов и выдрал клип. Протестил на капустомиксе, отличия минимальные, но есть. И естесна унет будет отличаться у каждой модели, это ведь её основа, именно она даёт пикчи. Но стоит ли унет трогать? Мне кажется если поставить унет от оранжмикса в какой-нибудь эни3, то эни3 станет оранжмиксом
>>93718 >Слушай, я думаю что лучше написать, что если хочешь сделать подмену клипа для аниме модели, у которой глубоко в корнях лежит NAI, то стоит из NAI клип и выдирать. Там прикол в том, что микширвоание моделей дает уникальные мутации в дате клипа, да и в целом текстовый енкодер можно отдельно смешивать между моделями. >мне кажется ставить сд клип в аниме модель не лучшая затея Yes >Протестил на капустомиксе, отличия минимальные, но есть. >то стоит из NAI клип и выдирать Так вот, если ты меняешь из условного капустомикса обратно на дефолтный NAI, то энкодер как бы "забывает" ассоциации, полученные при возможных предыдущих обучениях и мердже. Вот поэтому отличия и есть тип. >Но стоит ли унет трогать? Мне кажется если поставить унет от оранжмикса в какой-нибудь эни3, то эни3 станет оранжмиксом Чел один сует во все модели юнет и клип от протогена например и он тип доволен как слон. Так что пробовать менять можно.
>>92402 > Как ты кстати эту 1e-3 скорость посчитал? Ты же вроде тестил на такой же Я тестил на диапазоне скоростей от 5e-4 до 3e-3. И все в принципе нормальные, на вкус и цвет > жуткий перетренинг пошёл, мутации, экстрашарп Значит нужно меньше повторений/меньше эпох. Если не помогает - меньше скорость обучения. Немаловажную роль играет датасет, что изображено на пикчах и их количество. И тут я тебе не подскажу, тут какбе рулетка. Лишь могу подсказать относительно моего датасета сколько нужно и чего чтоб нормально получилось
>>92503 Ну типа быстрее так. > слишком большой батч при тренировке сглаживает обучение, потому что модель меняется один раз за батч Вообще этого не понял если честно
>>93738 > Чел один сует во все модели юнет и клип от протогена например и он тип доволен как слон. Интересно, это где он обитает? В моем понимании у каждой модели архитектуры SD есть VAE, UNet и CLIP, и если всё перечисленное переместить из модели А в модель Б, то модель Б станет копией модели А. Либо я чего-то не понимаю
>>93753 >Интересно, это где он обитает? В конфе унстейбл дифужена. >В моем понимании у каждой модели архитектуры SD есть VAE, UNet и CLIP, и если всё перечисленное переместить из модели А в модель Б, то модель Б станет копией модели А. Ну получается что нет, но я сам лично юнет и клип с одной модели на другую не переносил, вот хочу попробовать.
>>93792 В ленточке есть незначительные отличия. А вообще он в другие модели сует от протогена. Какой смысол сувать в 1.5, которая по дефолту в ядре любой модели сидит?
>>93798 Охуенные отличия. У меня иксформерс, он даёт недетерминированность. Окей, если тебе мало, могу компоненты любой модели в любую другую пихнуть, выбирай.
>>93814 Недопираю. Унет же у каждой модели свой, уникальный. Это фактически и есть 90% любой модели, это нейросеть, которая убирает шум с каждым шагом. Каким образом могут быть особенные и не особенные унеты не понимаю, ищи список, оч интересно что там мамкины технари напридумывали
>>93822 В списке моделей None стоит. Если положить модели в папку "\sd\extensions\sd-webui-additional-networks\models\lora", то их нельзя будет юзать через гуй от автоматика. Можно сделать чтобы оба варианта работали?
>>93856 Во-первых в автоматике есть параметр --lora-dir, во-вторых в расширении китайца можно прописывать дополнительные пути для поиска лор в настройках
>>93709 Это было довольно очевидно. В плане моделей тред толчет воду в ступе, обмазались своими оранджами хотя это могли быть и протогены, не суть, которые сами по себе лютые солянки из чего попало. Можно сколько угодно выдирать из них части и подменять одно на другое, никакого осмысления процесса не придет. Чтобы стабильно улучшать модели, нужны доноры из будки с определенным и внятным контентом. А у нас тут сплошной confirmation bias царит. Чего-то выдрал, намешал, сгенерилось вроде не очень криво, ну и доволен собой.
Да вот я тут уже сренькать в штаны начал. >>78566 →>>78580 → На шаге с bites and bytes всё перестало работать, я скопировал гитовскую папку в виртальную папку, но он не делает accelerate config, выдает еррор. А будка или не тянет из-за 6ГБ врам, или когда я заменяю ее новую версию на старую как в гайде перестает реагировать на кнопки в принципе. И выдает .py ошибки в консоли.
Я ещё ни разу не тренил сам, не выяснил какое нужно количество повторений на концепт, прости, анончик. Если есть какое-то базовое, которое приемлемое для персонажей, пусть будет оно. Модель AbyssOrange2, если можешь и на ней вообще тренят. Если не тренят, то эни3.
тут все по лоре или кто нибудь через дефолтный автоматик хайпернетворки тренит? если да поделитесь наблюдениями. так же вопросец Prompt template влияет на результат если да как его правильно составить?
>>93932 Например. Я особо не задумывался, сделал 3 повтора на оба. Пикч и так мало, уши все равно без вызова почти не рисует. Датасет бедноват на ковбой шоты с дефолтной одеждой, впрочем я хз что ты сам хотел получить. Клип скип 2 AbyssOrangeMix2_nsfw
Пиздец. 6 часов сижу и только пикчи режу в фотошопе. >>93939 > хайпернетворки Заебались, давно все чай уже выгорели с ним. Давно не пользовался, давно не обновлялся. Но где-то в версии, которая была в гайде, я ставил вот так и все было норм.
Я и сам хз что я хотел получить, представление нейросетки о персонаже какое-то, чтоб потом его можно было переодевать из каноничных шмоток в современные и обратно, типа того.
Мне кажется, 13 выглядит хорошо. Ну и 11 исключительно потому что там уши прилепились. На самом деле все круто выглядит, анончик.
>>93946 > Мне кажется, 13 выглядит хорошо. Ну и 11 исключительно потому что там уши прилепились. Все что выше 9 уже перетрен так сказать, т.к клоз апы рисует из которых в основном и состоит датасет. Но на меньших эпохах одежду очень плохо уловило и детали неправильные. Ща еще пощупаю че тут получилось
> На самом деле все круто выглядит, анончик. Ну мейби, но по мне резалт неудовлетворительный. Хз у меня лоры обычно с 3+ попытки получаются, после ебли с датасетом.
Ну сам видишь, какой у меня датасет. Что-то получилось, лицо/прическу улавливает и то замечательно. Я видимо совсем бака, если не вижу как "перетрен" выражается...
>>93959 Спасибо, спасибо, спасибо!!! Сейчас буду трогать и выставлю лучший результат!!! Нетворк дим...что это вообще такое, мне надо что-то где-то жать?
> Нетворк дим...что это вообще такое, мне надо что-то где-то жать? Это размерность модели, тебе ничего с ней делать не надо, указывается при тренировке. Но как 1060 анон выяснил, она чутка влияет на результаты на 0.4.0., а до этого выяснили что и дим 8 норм на старой версии.
Ну я вообще бы пересобрал датасет или добавил туда больше разных пикч, с дефолтной одеждой full body, cowboy shot, еще ракурсов где он standing. И протегал бы внимательнее, у тебя клоз апы не протеганы, facial mark видел в одном файле повторяется и cat ears где-то помню было пропущено.
Алсо, в начало каждого описания добавил токен xiao свободен кстати, но ориг тег не убрал, так что можешь вызывать по нему. Алсо, слеши перед скобками в описании типа \(asdasd\) не нужны, оно и так понимает
>>93964 > Это всё еще лора Это лора, .pt не видел, все сейфтензорами кидаются
>>93968 Странно, там нет альфы, т.к. тренилось на старой версии, но и без этого все должно работать.
>>93987 Не сказать что тут артефакты есть, мб просто сильно захватило датасет, при таком еще стиль основной модели идет по пизде, а мб что-то не протегали при тренировке, украшение в волосах например, хз
>>94002 Ты прям сильно рад, удивительно, впрочем я тоде был рад, когда увидел как первая натрененная лора у меня работает лучше эмбеддингов. Дополнительные гриды то не забываешь строить?
>>94003 15 эпох, батч сайз 2, вышло 517 шагов на его датасете. Lr общий 1е-4, планировщик констант с вармапом, вармап 20%, клип скип 2, перемешивание токенов включено, защита от перемешивания первого токена, нетворк дим 8.
Однако у меня старая версия скрипта так что альфы нет, что бы на новой сейм резалт получить надо альфу равную нетворк дим ставить емнип, могу ошибаться,но у анонов от этого наны идут и тензоры в киосках заряжаются. Для 0.4.0 надо читать исследования приключения вот этого господина >>85259
Я сейчас обо всем на свете забываю!!! Пока просто приноравливаюсь к использованию лоры, до этого особенно не пытался даже. Да и гриды долгое дело, а хочется не ждать, а вот прямщас потрогать. Но дело хорошее, надо поставить перед сном будет хоть одну на любимый аутфит и посмотреть которая лора вывозит лучше. У тебя видюха хорошая, наверное? Сколько такой грид по времени занимает?
Местами кекно, конечно, когда какие-то детали волос/лица меняются произвольно, похоже на китайский бутлег на китайскую же игру, лол.
Попробуй, хотя б с дефолтными значениями из гайдов. Сделал бы и сам, но lora почему-то не ставится на UI скрипт в облаке (а своей видяхи нет кроме встроенной)
>>94014 Я тренил по его советам, получилось неплохо вроде на 0.4.0 >>91761 Первая лора которую тренил, это нормально что без уточняющих тегов, маловато схватывает всего персонажа целиком, ну там с заколкой, цветом глаз? Так и не понял, хорошо это или плохо, когда на разных сидах, без смены тегов, маловато изменяется положение персонажа. Тегов то всех вроде слушается, да и на аниме моделях всех метовых работает. Можешь в мой датасет глянуть, чего там не хватает или наоборот что там лишнее подсказать?
>>94009 Забыл добавить, делал теги с deep danbooru, поэтому отсутствует важный тег "side ponytail" ("sidetail") и "asymmetrical hair", возможно они нужны для хороших результатов.
>>94016 > Да и гриды долгое дело, а хочется не ждать, а вот прямщас потрогать Понимаю
> У тебя видюха хорошая, наверное? У меня 3070, в которую дядя хуанг забыл доложить памяти, впрочем с медврам и фп16 моделями без ема двухгиговые могу генерить квадраты со стороной 1792.
> Сколько такой грид по времени занимает? Этот >>94008 две минуты, этот >>93944 минут 12 где-то, ddim 32 шага везде
> похоже на китайский бутлег на китайскую же игру Тренил кста под red sun in the sky
>>94017 Такой вопрос, почему у тебя много пикч с белыми полями? По опыту хуевой обрезки страниц мангача, могу сказать что белые поля могут сролять в конечном резалте не в лучшую сторону. Плюс еще надо проверять че там дипданбуру натегал, а то в описании к 4 пикче large breasts и medium breasts например ???, к 11 отсутствуют теги к позе, к 15 есть striped, vertical stripes хотя там этого нет например.
>>94019 > возможно они нужны для хороших результатов Нужны.
Ну могу прям так бахнуть. Или исправишь? Тег imari я могу сам скриптом добавить во все файлы.
> это нормально что без уточняющих тегов, маловато схватывает всего персонажа целиком, ну там с заколкой, цветом глаз? Скорее да чем нет, больше да, хотя может говорить о недотрене. Помогающие теги нужны, без них наверное главное что бы лора правильно уловила основные детали, типа формы глаз, лица, некоторых предметов присущих персонажу, конечно же если они есть в промте, и не заданы подробно. Не уверен что понятно и правильно выразился.
> хорошо это или плохо, когда на разных сидах, без смены тегов, маловато изменяется положение персонажа Если легко контролируется, то почему нет? Если можешь достичь с ней задуманного результата, то не вижу никаких проблем.
> Можешь в мой датасет глянуть, чего там не хватает или наоборот что там лишнее подсказать? Попозже гляну
>>94018 А, еще забыл добавить, что иногда есть смысл тренить до перетрена, что бы понять как он выглядит на этой лоре и примерно понять когда начинается. Строить гриды по другой позе, одежде, бекграунду например.
>>94048 А ты их прогонял через что-то? Все 512х512 как будто автообрезка + заполнение отработало, хз
> От белых полос можно избавиться растягиванием для квадрата Если их убрать то будет лучше, скрипт сам подгоняет под подходящие разрешения из набора и ресайзит, правда не уверен какая часть изображения при этом проебывается, но видимо небольшая.
>>93547 >Как вообще определять количество регуляризационных изображений? По одному на каждый шаг в эпохе. Но можно и с 2-4 повторениями. То есть если в эпохе 600 шагов, то 150-300 регов вполне катят.
>>94035 > Я не сказать что опытный лораеб Я просто сейчас любого, кто имеет хоть какой-то опыт спрашиваю насчёт этого, хочу научится и понять что где крутить, если встретится определённое поведение связанное с тренингом.
> конечно же если они есть в промте, и не заданы подробно. Не уверен что понятно и правильно выразился. На самом деле реально ЯННП, типо в промпте(тегах) при тренировке можно как-то подробнее описать какую то часть? Ну без уточняющих тегов вот пик1, говно выходит. С уточняющими другое дело на пик2.
> Если легко контролируется, то почему нет? Если можешь достичь с ней задуманного результата, то не вижу никаких проблем. Ну я уже даже сделал один красивый арт с результатом этой тренировки. Результатом то я доволен, просто хочу научиться больше.
> Попозже гляну Впринципе насчёт длительности тренировки я уже более менее начинаю догонять, как и насчёт проверки всего этого дела, ед