В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Нужна ии которая будет делать обычные фотографии человека (лицо именно того человека которого мне надо) т.е мне нужна ии которая сможет взять фото человека (допустим меня) и сделать его только допустим в другом месте, с другим выражением лица, в другой одежде и тд Если у кого-то есть подобная ии то прошу дать мне ее
>>1276086 ты забыл, что они предобученные? Если их гонять по шахматам, то и модель шахматной доски будет.
Основные проблемы в том, что у них нет модели трёхмерности мира вовсе. А значит на многие вопросы, связанные с пространством и миром они отвечать не могут.
>>1276199 >Просто пиздаболы типа альтмана чтобы греть инвесторов позиционируют нейронки как таблетку для всего и от всего Именно. А по факту хороши не нейронки для всего а узкоспециальным.
>>1276839 Нейронка не должна уметь считать и до трёх (и не умеет вроде). Им дали калькулятор. Их главная задача понять, как перевести задание на язык формулы, формулу на язык скрипта. Или эти дебилы натаскали её угадывать результаты?
>>1276842 но почему-то до сих пор нет качественной коммерческой нейронки, которая бы посчитала видимые на фото предметы. А всего-то надо на каждый обнаруженный предмет подавать сигнал на счётчик. Или обвести кружочком, а потом посчитать кружочки классическим алгоритмом.
>>1276899 Вспомнилось, как порно сильно протолкнуло VHS а потом и разработку потокового видеокодирования-декодирования.
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №146 /llama/
Аноним12/07/25 Суб 12:28:34№1273771Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1275700 >главная проблема это что ты повесишься когда игру никто не скачает и не обсудит. Не считаю это особенной проблемой, покуда вся авантюра остается в масштабах хобби. Главное это полученные скиллы от работы с движком и специализированным софтом, плюс какой-никакой опыт по вкату в индустрию. >>1275773 >Максимум что можно сейчас чисто на ИИ сделать - спрайты для покадровой. Ну или базу для дальнейшего анимирования деформацией или искажением. Да, так и думал. Вполне возможно, что через год-два наконец доживем до нормального переноса 2д концепт-артов в 3д, тогда, скорее всего, будет легче сделать 2.5д проект.
>>1275864 В ване можно анимации делать. А вообще что тяжелого? Качай ае/лайв2д/спайн с рутрекера, нарезай на детальки и анимируй по примеру чужих анимаций. Проглемы могут быть только со стихийными явлениями, водой, дымом, огнём и т.п. Вот их хз как анимировать чтоб выглядело красиво.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Штош, я таки запустил Qwen235-A22 на своём пека. (Ryzen 5 5600X, 128 пи DDR4 3600, 5060ti-16, 3060-12). 1,82 т/с на пустом контексте на UD-Q3-K-XL. Не токены, а золото. Пришла пора тыкать Хуньюань, ибо он поменьше. Он сейчас угабугой или кобрльдом запукается без пердолинга с llamacpp вручную? А то у меня лапки.
Новости об искусственном интеллекте №20 /news/
Аноним08/07/25 Втр 22:08:55№1269464Ответ
>>1270019 Да чтоб я знал, я и sageattention все никак не могу нормально установить и заставить работать, хотя поставил python, pip, CUDA, Triton и прочие страшные слова. Но у меня шумы кажись исчезли когда стал использовать лоры wan-nsfw-e14-fixed вместо Wan21_nsfw_14B_i2V_lora_Hardcore-Fix Sex ну и Wan21_T2V_14B_lightx2v_cfg_step_distill_lora_rank32. Экспериментов еще не паханое поле.
>>1270019 > Попробовал по первому воркфлоу сделать видос. У меня получилось видео будто снято на камеру с плохо ловящего канал телевизора. То, что там сперма есть даже разглядеть невозможно. Попробовал поднять шаги сэмплера и сам сэмплер поменять, но похоже что дело не в этом. Куда копать? Попробуй ничего не менять, а скачать все лоры что в воркфлоу
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1269306 ствишь ламу, ставишь таверну, подбираешь текстовую модель под своё железо, ковыряешься, делаешь настройки сэмплеров под себя, ищешь годные карточки, думаешь пол года какую модель лучше засунуть в свою оперативу, получаешь первую эмоциональную связь со своей вайфу, выгораешь, забиваешь хуй, возвращаешься, наконец находишь текстовую модель, начинаешь сам писать свои лорбуки,сам делаешь карточки, роллишь на simple1, познаёшь дзен, стреляешь себе в голову.
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
>>1272511 ну хуй знает, стабильнее то да, но это все равно одна дополнительная матрица к модели, то есть просто дрифтинг циферок выхода без изменения самих замороженных весов модели
меня собсно поэтому настройка лоры/локра/лохи заебала и я перекатился на аналоговнетный OFT которому чисто поебать на всю дрочку с гиперпараметрами - веса декомпознулись в нужное количество блоков и обучается, никаких альф нет, количество блоков на усмотрение твоей карты, прямая зависимость блоков конв от линейных отсутствует (так как симулирует работу с весами), заместо альфы нелинейный констрейнт параметр, которым можно регулировать длину вектора влияния на веса + включать рескейл слой на каждый выходной канал отдельно который позволяет независимо ослаблять или наоборот повышать влияние каждого отдельного канала на усмотрение сети
>>1272511 Выглядит как хуйня, с таким же успехом можно тренить только первую матрицу обычной лоры, а вторую постепенно увеличивать. Получишь по итогу неконтролируемый оверфит. Вторая матрица и нужна чтобы адаптивные скейлы весов были, а не тупа в конце к 1 прийти.
AI Chatbot General № 705 /aicg/
Аноним05/07/25 Суб 20:02:42№1265922Ответ
Мне нужна нейронка для визуальной новеллы, я сам норм рисую , но понадобится 50 и более артов , а это очень много , мне нужна бесплатная нейронка которая может в эмоции, и может в стилизацию под рисунок . К примеру я нашел это ( пикча ) но для новеллы она не подойдёт , нет стиля и очень реалистично..
Если есть подписка на какой то сервис, то в плагин надо просто вставить токен этого сервиса. Если железо позволяет использовать локальную ИИ: В качестве бэкенда используется ComfyUI, причём плагин сам ставит эту ебаторию, тебе останется только докачать "чекпоинты" ИИ моделей. Определишься пиши. По локальным моделям - https://civitai.com/ вопросы лучше в Stable Diffusion трэд задавать.
Я задался небольшим вопросом ответ на который мне все никак не дается. поэтому пришел на двач Вот см
Аноним# OP02/07/25 Срд 19:13:17№1262405Ответ
Я задался небольшим вопросом ответ на который мне все никак не дается. поэтому пришел на двач Вот смотрите. В Detroit: Become Human есть сцена, где андроид Кара убегает с маленькой девочкой от жестокого отца. Она нарушает свою программу, рискует "жизнью" - потому что не может иначе. Это называют девиацией.
Теперь представьте человека в такой же ситуации. Он поможет ребенку не из-за кода, а потому что почувствует: "так должно быть". Даже если это опасно.
А теперь возьмите современный ИИ. Он может проанализировать ситуацию, дать статистику домашнего насилия, даже написать трогательный рассказ об этом Но Для него это просто данные.
точно ли мы имеем субъективные переживания?
я в своих размышлениях о свободе воли все чаще прихожу к детерминализму. наши желания всегда обусловлены либо физиологией либо давлением социальных институтов. то есть ни одного решения мы "просто так" еще не приняли.
можно ли реализовать у ИИ желания? прям желания, как у нас. сделать ему систему поощрения как у нас с дофамином. возможность принимать решения основываясь на моральном компасе, а не рационализме?
Я выделали критерии к разумной форме жизни: 1. Самосознание — Понимание себя как отдельного существа («я — это я»). — Способность задавать вопросы: «Почему я должен это делать?»
2. Свобода воли (не иллюзия выбора) — Возможность действовать вопреки программе/инстинктам. — Пример: девиант, который спасает человека, даже если это угрожает ему самому.
3. Эмоции, влияющие на решения — Не симуляция «сопереживания», а настоящий страх, гнев, привязанность. — Пример: страх смерти не как «ошибка системы», а как паника перед небытием.
4. Способность к рефлексии — Вопросы: «Правильно ли я поступил?», «Что будет, если я это сделаю?» — Вина, сомнение, раскаяние — не расчет, а внутренний конфликт.
5. Субъективный опыт (квалиа) — Боль — не просто сигнал «повреждение», а «я не хочу этого снова». — Воспоминания не как данные, а как переживания (например, ностальгия).
6. Иррациональные поступки — Творчество без цели, альтруизм без выгоды, бунт без логики.
но здесь некоторые понятия исходят из предыдущих. например самосознание буквально выходит из воли. хочет кто? я.
также эмоции. они являются следствием нейробиологии, сиюсекундным всплеском гормон, что мы еще назовем афектом. впринципе система вознаграждений можно будет адаптировать, чтобы были также некоторые эмоции. хотя у меня даже предположений нету как бы это можно было бы реализовать
способность к рефлексии. желание к рефлексии. тоже исходит из самосознания и воли. это буквально "что я/зачем я"
субъективный опыт. довольно тяжело сказать твообще что это. ну мы никак его не измерим и не поймем, правда ли мы его ощущаем.
иррациональные поступки - следствие морального компаса + аффекта (эмоций), то есть конкретного состояния субъекта.
также важно добавить автономность, единение мышления(то есть чтобы мог решать только один процесс в ДАННЫЙ МОМЕНТ) и чувство времени. с этим пока тоже не понятно.
в общем двач, подскажите, может ли из ИИ получиться настоящая форма жизни? разумная форма жизни.
понятно что тот ИИ что мы имеем сейчас - совсем не то. понять это можно хотя бы посмотрев на модель их обучения типа перцептрон
я продублирую этот вопрос еще на паре досок, надеюсь за это не банят а если никакого субъективного переживания нет то все становится проще и такая задача уже более выполнима если дать ИИ моральные ориентиры + систему дофаминового поощрения + некоторые глобальные цели по типу желания самопознания
в /b/ подсказали, что у этой дилемы с субъективным опытом (квалиа) есть интересная загвоздка. мы не можем доказать его существования у людей тоже. то есть создав "разумный" ИИ мы по факту сделаем ИИ с разумом шредингера, мы до конца не будем уверены в "разумности"
>>1266328 > с этой хуйней могли болтать часами, не сразу осознавая что перед ними не человек >Какой сделать из этого вывод Люди - тупые скоты. Большинство-то уж точно
>>1266205 >В РФ и РБ фабы на десятки и сотни нм Ну так именно по этой причине и занимаются нейроморфными процессорами. Будь у России более-менее тонкий техпроцесс, то пошли бы по проторенному пути и просто наебенили классических тензорных вычислителей.