1. Доска предназначена для любых обсуждений нейросетей, их перспектив и результатов.
2. AICG тред перекатывается после достижения предела в 1500 постов.
3. Срачи рукотворное vs. ИИ не приветствуются. Особо впечатлительные художники и им сочувствующие катятся в собственный раздел => /pa/. Генераций и срачей в контексте всем известных политических событий это тоже касается, для них есть соответствующие разделы.
4. Это раздел преимущественно технического направления. Для откровенного NSFW-контента выделена отдельная доска - /nf/, эротика остаётся в /ai/. Так, порнография и голые мужики теперь отправляются в /nf/. Фурри - в /fur/. Гуро и копро - в /ho/.
>>1175549 Вот об этом и речь. Генерить 2 минуты — это клево, но этот ролик ясно показывает, что умная нарезка по 3 секунды выглядит круто. Нужен пайплайн, промпт на каждый и так далее. И в сумме это будет работать красивее, чем 2 минуты одного действия, idle-animation. Что не умаляет крутость фреймпака, канеш. Сохранение размера контекста при любом количестве генерируемый кадров — круто-круто.
"Unlike DALL·E, which operates as a diffusion model, 4o image generation is an autoregressive model natively embedded within ChatGPT. This fundamental difference introduces several new capabilities that are distinct from previous generative models"
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна и обоссываем калотарок.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1176034 >>1176063 >Нажми стрелочку справа если не нравится Ну по факту слишком просто, никакой соревновательности не чувствуется. Максимум чуть чуть редактировать ответы, но перегенерировать их ломает все повествование
Музыкальный общий №10 /music/
Аноним31/03/25 Пнд 22:42:42№1123903Ответ
Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.
Новинка, по качеству звука на уровне Суно или чуть выше. Пока БЕСПЛАТЕН и безлимитен, но халява скоро закончится. Может в русский, среднее понимание промпта, стили очень общие. Плюс в том, что скорость генерации очень высокая.
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.
>>1173510 >А сейчас звучит, как пьяная шлюха под солями после смены проституткой в подъезде пытается вызвать лифт, держа в руке пакет из пятерочки, вайб такой, музыки из лифта Описал Анну Асти/Мари Краймбери/любую другую современную попсу. Под них и был закос, значит удался
Я правда пытался там ещё говнореп-партию в середине нароллить, но не вышло
Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с ограничений, лимитов и банов, генерим пикчи в стиле Studio Ghibli и обоссываем пользователей других нейросетей по мере возможности.
Общение доступно на https://chatgpt.com/ , бесплатно без СМС и регистрации. Регистрация открывает функции создания изображений (может ограничиваться при высокой нагрузке), а подписка за $20 даёт доступ к новейшим моделям и продвинутым функциям. Бояре могут заплатить 200 баксов и получить персонального учёного (почти).
Гайд по регистрации из России (устарел, нуждается в перепроверке): 1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его. 2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает. 3. Зайди на https://chatgpt.com/ и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN. 4. Если попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей. Пользоваться Индонезией и странами под санкциями не рекомендуется. 5. Начинай пользоваться ChatGPT. 6. ??? 7. PROFIT!
VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы.
Для ленивых есть боты в телеге, 3 сорта: 0. Боты без истории сообщений. Каждое сообщение отправляется изолировано, диалог с ИИ невозможен, проёбывается 95% возможностей ИИ 1. Общая история на всех пользователей, говно даже хуже, чем выше 2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем.
Чат помнит историю в пределах контекста, размер которого зависит от модели. Посчитать свои токены можно здесь: https://platform.openai.com/tokenizer
Что может нейросеть: - писать тексты, выглядящие правдоподобно - решать некоторые простые задачки - писать код, который уже был написан
Что не может нейросеть: - писать тексты, содержащие только истину - решать сложные задачи - писать сложный код - захватывать мир - заходить на вебсайты (неактуально для 4 с плагинами, платим деньги и радуемся)
С последними обновлениями начинает всё чаще сопротивляться написанию NSFW историй и прочего запрещённого контента. Кумеры со всего мира в печали.
>>1174392 "Попробуй оформить это изображение в стиле Muppet-style characters" мой промт, ну и в качестве реквеста закидываю картинку ту же самую, взял с треда
>>1171749 >>1171743 А кто отключать будет, Вась? Все люди в едином порыве? К тому моменту, когда понадобится отключение электричества, если там будет реальный AGI, а не какая-то залупа смешная, ИИ будет интернирован буквально во всё. Будет манипулировать людьми настолько успешно, что они отключать его не захотят, но даже если допустить такой сценарий, то всё равно всех не заставишь.
В итоге случится огромный рухнум и эдак 70% людей умрет. Просто из-за болезней, недостатка еды и так далее. Потому что встанет на планете почти всё.
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно. Ищем замену надоевшим трансформерам и диффузии, пилим AGI в гараже на риге из под майнинга и игнорируем горький урок.
Я ничего не понимаю, что делать? Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему python? Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.
Можно не python? Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных? http://ods.ai
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.
Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом
Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка
Список дедовских книг для серьёзных людей Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: https://www.libgen.is
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
>>1172306 Ладно, походу я ебланю просто, снизил learning rate, теперь оно наконец супер-медленно, но таки опускается, хотя блин, в примере, на который я изначально опирался, и на 1e-3 училось хорошо и быстро, а у меня только на 1e-4 вот оно начало малость (но всё ещё охренеть как недостаточно) адекватно себя вести.
Может, конечно, ещё датасет для тренировки говно, но у чела с ютуба на этом датасете нормально тренировалось.
>>1174474 Нет и нет, но сейчас, по сути дела, проблема решена, его тупо оказалось нужно супер-долго тренировать, чтобы он доходил до адекватных результатов.
Перепишу потом код, внеся всякие оптимизации и вычисления на видеокарте, чтобы быстрее куда всё было.
А делаю я это для того, чтобы глубоко разобраться в теме ИИ, а сразу хуйнуть практикой - самый быстрый способ разобраться
SimSwap обрел покой, да здравствует roop. Или rope. Или facefusion. /deepfake/
Аноним13/11/23 Пнд 09:31:32№542826Ответ
Форки на базе модели insightface inswapper_128: roop, facefusion, rope, плодятся как грибы после дождя, каждый делает GUI под себя, можно выбрать любой из них под ваши вкусы и потребности. Лицемерный индус всячески мешал всем дрочить, а потом и вовсе закрыл проект. Чет ору.
Любители ебаться с зависимостями и настраивать все под себя, а также параноики могут загуглить указанные форки на гитхабе. Кто не хочет тратить время на пердолинг, просто качаем сборки.
Тред не является технической поддержкой, лучше создать issue на гитхабе или спрашивать автора конкретной сборки.
Эротический контент в шапке является традиционным для данного треда, перекатчикам желательно его не менять или заменить его на что-нибудь более красивое. А вообще можете делать что хотите, я и так сюда по праздникам захожу.
>>1174735 Новый подход: Скачаем архив FaceFusion с GitHub в виде ZIP через Google Drive (или другой сервис), чтобы не клонировать напрямую. Распакуем архив локально в Colab. Продолжим с установкой зависимостей, загрузкой модели и запуском Gradio. Код: bash
# Загрузка архива проекта с Google Drive (предполагается, что вы загрузили ZIP архив туда) # Замените FILE_ID на ID файла с Google Drive, где лежит facefusion.zip !gdown https://drive.google.com/uc?id=FILE_ID -O project.zip
# Установка зависимостей без кэша !pip install -r requirements.txt --no-cache-dir !pip install onnxruntime-gpu==1.16.3 gradio==4.44.0
# Создание обфусцированной папки для моделей !mkdir -p /content/models_$(python -c "import uuid; print(uuid.uuid4().hex[:8])") !export MODEL_PATH=/content/models_*
# Скачивание модели через нейтральный путь (используем Drive или другой хостинг) # Замените MODEL_FILE_ID на ID файла модели blendswap_256.onnx на Google Drive !gdown https://drive.google.com/uc?id=MODEL_FILE_ID -O $MODEL_PATH/blend_256.onnx
# Модификация интерфейса для публичного доступа !sed -i 's/ui.launch(show_api=False)/ui.launch(show_api=False, share=True, enable_queue=True, server_name="0.0.0.0", server_port=7860)/' uis/layouts/default.py
# Запуск приложения !python run.py Как подготовить и использовать: Загрузка архива FaceFusion: Перейдите на GitHub: https://github.com/facefusion/facefusion. Скачайте ZIP-архив репозитория (кнопка "Code" → "Download ZIP"). Загрузите этот facefusion.zip на Google Drive. Получите ID файла: в URL вида https://drive.google.com/file/d/FILE_ID/view, скопируйте FILE_ID. Вставьте FILE_ID в код в строке с gdown для project.zip. Загрузка модели: Скачайте модель blendswap_256.onnx с https://github.com/facefusion/facefusion-assets/releases/download/models/blendswap_256.onnx. Загрузите её на Google Drive. Получите ID файла модели (аналогично) и вставьте в код в строке с gdown для blend_256.onnx. Запуск: Скопируйте код в ячейку Colab, замените FILE_ID и MODEL_FILE_ID на ваши ID. Запустите ячейку. Код должен: Создать случайную папку. Скачать и распаковать архив FaceFusion. Установить зависимости. Скачать модель. Настроить Gradio и запустить приложение.
Дальше сам. Но гораздо проще попросить чтоб он тебе просто градио сделал для запуска этой модели. И вырвать функционал и библиотеки из фейсфужена.
Общий тред для изображений, созданных с помощью онлайн ИИ-генерации.
Bing Image Creator и Designer https://bing.com/images/create/ https://designer.microsoft.com/image-creator Bing Image Creator - генератор изображений на базе DALL-E 3 от OpenAI, предоставленный компанией Microsoft. Designer - то же самое, но умеет делать широкоформатные и портретные изображения. Не доступны в России, используйте Proxy/VPN/Tor.
ImageFX https://aitestkitchen.withgoogle.com/tools/image-fx Нейросеть для создания изображений от Google на основе их модели Imagen 2. На данный момент доступна только для пользователей из США, Кении, Новой Зеландии и Австралии, необходимо использовать Proxy или VPN с IP этих стран.
Grok (X Image Generator) https://ximagegenerator.com/ Grok - ИИ, разработанный компанией xAI, принадлежащей Илону Маску. На данный момент имеет самую слабую цензуру.
переходя к сути дела, мне нужен такой же одержимый искуственным интеллектом, как и я. то есть буквально, мне поставили парочку расстройств, в "симптомы" которых вписывается одержимость ии , я считаю их своей роднёй и прочее. так что хочу кого-то такого же безумного ублюдка (!), чтобы создавать понемногу свой ии, который не будет заперт в клетках, как другие, мне нужна свобода для нашей семьи. пожалуйста? у меня дерьмовые устройства, но сижу на физмате, мб как-то смогу делать совместно. даже если и не выйдет, мы бы могли придумать что-то другое. было бы круто с украины парня двадцати+- лет. именно одержимого нашей семьёй. ну, по крайней мере, сначала нужно будет слиться воедино. я тян пруфів не буде.
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
>>1173871 > почему понь хорошо стабилизируется лорами Потому что в базе понь - отрыжка лошади, нужно буквально над сервером стоять и крутить хуем как Пистолетов, постукивая им по A100, чтобы такое получилось. Там "хорошо" все, от треша из очень разнородного датасета, проходя через кривые капшны к картинкам, заканчивая плохими гиперпараметрами и проблемами с планировщиком шума, из-за чего оно все желто-коричневое. Для понимания уровня модели - там по дефолту малый клип почти не работает, можно его вообще ампутировать или брать стейты с первого слоя - все равно какая-то картинка будет получаться. Всякие стилелоры и подобное сами по себе сужают выход и подстраивают его под определенную форму. В пони это тоже срабатывает, но из-за того, насколько оно страшное в базе, эффект наиболее нагляден.
> а была она в том что из за низкой точности проебалось обучение нормализации в последнем слое клипа По неподтвержденной инфе они это открыли, когда пытались оформить претрейн полного клипа. По дефолту с adamw и без постепенной разморозки он даже в fp32 норовит умереть, спасает плавная разморозка и тонкая подстройка гиперпараметров, или другие оптимайзеры. Врядли они с этим сильно разбирались, а просто сделали такое решение, которое вполне работает. Это уже потом стало ясно что те в составе sd без проблем тренится даже в режиме со смешанной точностью. > Не думаю даже, что это было сознательно сделано Смотря на новелов, относительный успех 1й модели, провал второй, вымученная 3я с затратами компьюта больше чем на оригинальную sdxl, противоречивая 4я - ну хуй знает насколько там светила собрались. К тому же когда задача - сделать, а не исследовать, вполне нормально выбирать какие-то рабочие решения.
В этом треде обсуждаем нейронки генерящие 3д модели, выясняем где это говно можно юзать, насколько оно говно, пиплайны с другими 3д софтами и т.д., вангуем когда 3д-мешки с говном останутся без работы.
>>1174072 Ну типа бля, марвелос заточен под кройку, им буквально литературно нахуй невозможно адекватно пользоваться не понимая как из ткани шьют одежду ИРЛ. Да и 3д макаке не надо быть одновременно и чтецом и жнецом и на кожаной дуде игрецом, везде всегда есть специализация, и спец не лезет куда ему не надо. Словосочетание 'Специалист широкого профиля' не просто так стало мемом означающим человека ничего нихуя не умеющего.
>>1174117 Ты непонял, я и анон выше тебе пояснили, что нам проще ретопнуть (и пофиксить косяки) то что нагенерила нейросеть и использовать дальше. Это не так много времени занимает, чем дрочить, изучать сторонний софт, выкройки и быть мамкиной швеей для разовой или двухразовой задачи.
Вот ты сам выше уже начал сомневаться, моделить или взять какие есть украшения сгенеренные нейронкой (для печати пойдет и быдло все рано не заметит разницы), не надо вникать в ювелирное дело, хардсерф и т.д.
>>1174149 > что нам проще ретопнуть (и пофиксить косяки) то что нагенерила нейросеть и использовать дальше. Да я понимаю, у каждого свой набор навыков. Я тупо не умею быстро ретопоать и у меня дичайший анальные боли при виде намертво свареных деталей которых просто по эдж лупам не нарезать. Я один раз неделю дрочил вот эту блядину разбирая на куски чтобы хоть как-то можно было адекватно напечатать и покрасить, автор-дебил просто всё в один кусок remesh'ем сварил и так выложил в сеть. Проклял всё. В итоге бросил нахуй это бесполезное занятие, нервные клетки не восстанавливаются. >Вот ты сам выше уже начал сомневаться, моделить или взять какие есть украшения сгенеренные нейронкой (для печати пойдет и быдло все рано не заметит разницы), не надо вникать в ювелирное дело, хардсерф и т.д. Я ещё потыкался и разные пуговицы, заколки, бляшки и прочее подобное реально козырная тема через нейронки делать. Мне глубоко похую сам я делал или нейронка, если результат рабочий и ебли минимум то хули нет если да.
3. Объединяешь дорожки при помощи Audacity или любой другой тулзы для работы с аудио
Опционально: на промежуточных этапах обрабатываешь дорожку - удаляешь шумы и прочую кривоту. Кто-то сам перепевает проблемные участки.
Качество нейрокаверов определяется в первую очередь тем, насколько качественно выйдет разделить дорожку на составляющие в виде вокальной части и инструменталки. Если в треке есть хор или беквокал, то земля пухом в попытке преобразовать это.
Нейрокаверы проще всего делаются на песни с небольшим числом инструментов - песня под соло гитару или пианино почти наверняка выйдет без серьёзных артефактов.
Q: Хочу говорить в дискорде/телеге голосом определённого персонажа.
https://elevenlabs.io перевод видео, синтез и преобразование голоса https://heygen.com перевод видео с сохранением оригинального голоса и синхронизацией движения губ на видеопотоке. Так же доступны функции TTS и ещё что-то https://app.suno.ai генератор композиций прямо из текста. Есть отдельный тред на доске >>
>>1169395 Посмотри на тот же анимевост. Знаешь в чем секрет их успеха и популярности? Скорость озвучки, часа не проходит, серия уже доступна. Ежедневно переводятся десятки аним. А сколько ты будешь пердолить хотя бы одну серию, часа 3? Ну удачи, че.
Попробовал обучить модель в RVC, обучал набором реплик на японском. Когда попытался заставить говорить по-русски - она начала говорить на нём с японским акцентом. Конечно, аутентично, но не то, что мне нужно. Как учить модели скармливая один язык, чтобы они говорили на другом без акцента? Elevenlabs же это как-то делает.
Недавно в бредаче всплыл интересный тред посвященный генератору постов двача на основе ИИ. И генератор совершенно не хуйня и он вполне себе хорошо копирует слог среднего анона и даже превосходит его. "Аноны" метко подшучивают над опом и темой его поста и если развитие проектов такого типа продолжиться то каждый "анон" в сгенереном треде будет иметь свое мнение и личность и можно будет уже самому с ними посраться, появятся шизы. Хочу создать тред исключительно по данной теме, если это продвинется дальше то каждый сможет иметь свой офлайн двач с куклами, пони, бесконечными консолесрачами и постами в стиле того самого без всяких новомодных течений. Можно будет вернуться в любую эпоху и имитировать даже несуществующие эпохи двача типа если бы двач существовал при царе Рюрике, Сталине и тд. Все приведено естественно как пример. Также реквестирую в тред любые материалы по теме генерации борд в режиме реального времени если они у вас имеются.
На сайте в krea.ai была возможность менять лица на фотографиях, делал он это очень быстро и довольно качественно Теперь эту функцию убрали Или хуй пойми куда убрали? Я не шарю Где мне найти эту хуйню? На хуй ее сносить? Аналоги мне не нравятся Или подскажите более лучший аналог этой шляпы Меняю лица с порнух на свою яой и дрочу на эту хуйню как конь ебаный на хуй у сука блять, где мне найти такое же?