Абоба закинь еще писика а то трясусь что не хватит Ну и было бы приятно пощупать два точка пять если возможно правда в таверну еще не добавили так что не в приоритете
>>1118017 Мне штука приснилась там девочка была, но её всю жизнь по ошибке растили как мальчика, тип она прям целиком уверенна, она даже к девочке может попытаться подкатить и сеттинг такой чтоли средневековый или фентезийный Почему при этом отсутствие хуя её не волновало я без понятия, может та была фута
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №117 /llama/
Аноним25/03/25 Втр 19:26:01№1111645Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна и обоссываем калотарок.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
А нейросетка в памяти может держать, что не написано в чатике и в системном промте? Например определенную цифру, которую ты написал в промпте, но не хочешь чтобы чар говорил о ней до определенного триггера - если не спросят или если сама не захочет после?
На любой модели кроме AnythingXL_v50 в самом конце выдаёт какую-то поломанную херню с глитчами. Вот пример. Настраивал по этому гайду https://rentry.co/2ch_nai_guide . Сделал тестовую картинку из этого-же гайда. Штука появилась как только попробовал сделать картинку самостоятельно. Знаю что ClearVae сделан под аниме, но noob же генерит в том числе и аниме, значит конфликта быть не должно. А он есть.
>>1117757 Чел? Чтобы сделать вывод про оффлайн, не нужно организовывать конфу. Тем более, что все и так друг друга знают и узнают на других ресурсах по едва уловимым намёкам толщиной в сотни генераций.
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1109738 >"Абсолютно Непристойное Деяние" ака омни, в той же репе Это просто охуенно! Вот такую шлюху я и искал. Топ. Спасибо за рекомендацию, анончик.
AI Chatbot General № 640 /aicg/
Аноним24/03/25 Пнд 22:25:18№1110226Ответ
бля я конечно понимаю что вопрос очень тупой, но если важно описание юзера, то типо это описание нужно ставить на глубину а не просто оставлять в промпт менеджере? типо чтоб не забывали кто я такой и что шутки со мной плохи
>>1105360 (OP) Кибернетика наука о контроле систем, как абстрактный метод не сможет сжиться с техническими решениями идеи и какое вообще отношение они имеют к вопросу? Конкретнее?
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №115 /llama/
Аноним18/03/25 Втр 19:19:18№1103326Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна и обоссываем калотарок.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1106843 Определенно. Всякие серверные, майнерские и другие экзотические варианты - это уже для тертых калачиков, а судя по вопросу ты не из них. Да как и я в принципе))) Так что либо наращиваем компетенции, либо пользуемся бу нвидией.
Аноны, тут программистов нет что ли, тред по сабжу не нашел, пришлось самому запилить. Расскажите какие сейчас есть актуальные модели и инструменты чтобы писали за меня код. Только давайте без очевидной чат-жопы и прочих чатботов которые способны лишь на простенькие скрипты. Нет, нейросеть должна сама уметь работать с IDE, загружать в контекст все необходимые классы проекта и при необходимости искать документацию в интернете.
Если конкретно, то мне надо писать игру под Unity на C# в Visual Studio. Какие есть интересные варианты сейчас кроме Copilot?
>>1106267 (OP) Я пробовал Copilot, Continue (плагин для VS Code) и недавно Cursor поставил.
https://www.builder.io/blog/cursor-vs-github-copilot Если сравнивать конкретно курсор и копилот, то курсор сейчас выигрывает. Там хоть те же самые модели под капотом (gpt/claude), но у него более плотный уровень интеграции со средой разработки.
Копилот мне как-то не зашёл раньше - в нём надо было контекст каждый раз вручную задавать, что было крайне неудобно; а вот курсор сейчас может сам по всему проекту искать файлы и пачками их создавать/модифицировать в рамках одного запроса. Копилот тоже постепенно обрастает фичами, но пока находится в позиции догоняющих, хотя я сейчас не особо за ним слежу.
Continue может быть интересен только тем, что его можно к локальным LLM подключить, что может быть полезно, если у тебя хороший сетап по GPU. Но лично у меня не вышло из него что-то толковое получить, поскольку там совсем слабый уровень интеграции с IDE - от подписки в $20 на курсор толку будет на порядок больше, чем от конфига под запуск 100B-123B моделей локально. Как минимум, хотя бы из-за отсутствия толкового инструментария под локальные модели, поскольку все актуальные тулзы только в SaaS.