Кто желает следить за порядком на доске, чувствует в себе силы и готов принять на себя эту ответственность — присылайте свою анкету на vilka@2ch.hk. В ней нужно рассказать о себе, сколько вы сидите в день на доске, указать свои посты, а также контакт в дискорде/телеграмме для будущей связи.
1. Доска предназначена для любых обсуждений нейросетей, их перспектив и результатов.
2. AICG тред перекатывается после достижения предела в 1500 постов.
3. Срачи рукотворное vs. ИИ не приветствуются. Особо впечатлительные художники и им сочувствующие катятся в собственный раздел => /pa/. Генераций и срачей в контексте всем известных политических событий это тоже касается, для них есть соответствующие разделы.
4. Это раздел преимущественно технического направления. Для генерации откровенного NSFW-контента без технического контекста выделена отдельная доска - /nf/. Эротика остаётся в /ai/. Голые мужики - в /nf/. Фурри - в /fur/. Гуро и копро - в /ho/.
5. Публикация откровенного NSFW-контента в /ai/ допускается в рамках технических обсуждений, связанных с процессом генерации. Откровенный NSFW-контент, не сопровождающийся разбором моделей, методов или описанием процесса генерации, размещается в /nf/.
>>1305909 >https://youtu.be/noaI_5CeAb0 Нейродегенератный поток сознания без сюжета и смысла. Просто твои мозги уже достаточно разжижились, чтобы такое воспринимать. >>1305914 >Что за gpt5 скажете? Говно. >Как он в сравнении с гроком? Лучше грока.
>>1307003 Всё так и есть. Грок сравнительно слабая модель, и идёт примерно на 4-5 месте, после гопоты, клода, гемини, и мб какого-нибудь китайца, но тут спорно. Единственный плюс грока это секстинг из коробки, но это интересно только спермотоксикозным подросткам с нулевым IQ, которые не могут обойти заSHITные механизмы более лучших моделей.
Новости об искусственном интеллекте №29 /news/
Аноним07/08/25 Чтв 22:30:40№1304803Ответ
>>1307159 Хуйня задачи. Вот я например проверял на такой, мне надо было сделать генератор кислорода на разложении концентрированной перекиси водорода. Заливается в баллон с катализатором и закрывается. Если где-то проебался, то получится небольшой взрыв перед твоим ебалом. Потому что реакции идет на самоподдуве с нагревом. Может ебнуть за секунду если нагреется. Еще до нейронок я считал это ручками примерно + эмпирически проводил эксперимент с тепловыделением чтобы подтвердить расчеты и подогнать количество так, чтобы даже при взрывной реакции давление из-за нагрева не превысило критическое. На гпт5 не проверял, но раньше все нейронки давали большой разброс, а часто вообще забивали хуй на нагрев и тупо не учитывали его, если прямо не простить. Есть еще реакция получения водорода из алюминия и щелочи, там все еще опаснее, потому что она выделяет больше тепла.
Вот это ближе к практике, где надо совместить справочные данные с расчетами.
>>1307221 Она не сможет совместить справочные данные с расчетами по взрывотехнике, потому что никто не будет их туда закладывать. Представь, что у тебя в каждом телефоне эксперт по созданию устройства для поражение толпы стальными шариками. Сколько радикальных верующих в макаронных монстров разного толка в мире?
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №153 /llama/
Аноним07/08/25 Чтв 01:33:04№1302533Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Базы треда не существует, каждый дрочит как он хочет. Базашизика дружно репортим.
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1307110 Я работал программистом. На что деньги тратить? Личинусами и жёнами не обременён, на мамку уходит 30 тыщ в месяц и она довольна. Хули нет то?
>>1305873 >>1306493 В общем, поставил докер, скачал образ с ламой из официальной доки, и собрал еще один сам по ней же. Действительно проще чем версии gcc/cuda подбирать - сам докер дольше заводил. Погонял мистраль и гемму, сравнил - в общем, нубу морочить голову ради ламыцпп смысла нет, IMHO. Скорость с кобольдом совершенно идентична, на обоих образах. Еще и embedding походу не умеет на одном процессе (и порту) с основной моделью. А это RAG ломает в тех местах, где нет возможности для него отдельный endpoint указать - не таверной же единой (где это можно).
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
В репо козистра https://github.com/kozistr/pytorch_optimizer/tree/main загружено семейство Emo оптимайзеров. Фишка в том что компутит доп скаляр исходя из лооса, т.е. получает усреднённое значение лосса (ema) (затем превращает это в скаляр), по которому вычисляется коэффициент влияния. Кароче бля параметры плавно тянутся к прошлым значениям, если loss подсказывает, что надо откатиться.
Для лор еще терпимо, а если фул матрицы тренить то там EmoNavi оригинальный с селективными блоками x2 врама жрет, EmaFact (емо + адафактор) +50%. Так что имейте в виду.
>>1307042 Опять душат удава. > если loss подсказывает, что надо откатиться Это вообще неблагодарное дело ориентироваться на лосс в генерации картиночек в разрезе соседних значений. Какой-то референс лучше, какой-то хуже - лосс скачет как ебанутый и это норма. Пикрил литералли всегда на Хроме, просто рандомный шум, при этом тренится заебись. > x2 врама жрет Лучше бы делали чтоб меньше жрало без диких просеров как у 8-битных bnb. И так DiT приходится частично в q8 квантовать чтоб не сосать даже с 48 гигами врам.
>>1306560 > Так же через годик найдутся такие и для трена квина Но квен это и так тюн флюкса, зачем кому то тренить на тюне? Что это за шиза? На колорсе много натренили?
Музыкальный общий №14 /music/
Аноним19/07/25 Суб 12:45:07№1282525Ответ
Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.
Новинка, по качеству звука на уровне Суно или чуть выше. Лучший по качеству генератор текстов на русском. Количество генераций в день не ограничено, но за некоторые функции нужно платить (загрузку аудио, стемов и т.д.)
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно. Версия из второй ссылки лучше оптимизирована под слабые видеокарты (в т.ч. 6-8 Гб VRAM, по словам автора). Инструкция на английском по ссылке.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
______________ Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.
>>1305515 С трудом верю в реальность происходящего. Это правда?
>>1305051 Потрясающе, маэстро! Редко когда встретишь столь изящное стихосложнение, я думал оно кануло в лету вместе с Серебрянным Веком, но ты сохранился для нас как редкий артефакт великого прошлого. Спасибо!
>>1303712 А мне нравится, какое-то особое терпкое послевкусие создает эта схожесть. такое родное и знакомое.
>>1306767 >И, кстати, почему фреймпака до сих пор нет в шапке, если это лучший на сегодня вариант генерации видео Никому не нужный кал с 3.5 лорами на цивите > Зато комфи зачем-то есть, в котором хуй разберешься То что ты не смог разобраться в комфи отлично показывает что ты не разбираешься в том что сейчас лучший вариант генерации видео (а это ван 2.2)
Господа. Вот какой спор у нас с анонами возник. Я говорю, что модели генерации отвратительны и недоросли (а может и не дорастут) до моей фантазии или требованиям к ним. А то что генерит 99% народа — такой же унылый генерик. Потому что и фантазии нет и нейронки не могут.
А мне говорят, что это я дебил и надо учиться промптить, покупать доступ к топовым моделям и тогда всё будет. Но где тогда оригинальные изображения?
Купил к миджорни, тестил далли и на аренах парочку каких-то, всё плохо, прямо отвратительно. Даже не близко к промпту или какие-то ошибки, которые руками долго фиксить.
Владею КомфиУИ.
Призываются мастера генерации, которые и скиллуху покажут и покажут, что это я немощь и стимулируют меня не опускать руки а двигаться и добиваться результата.
В тред я буду кидать промпты и свои попытки генераций.
>>1296151 итого, как я понимаю, нейронки жидко срутся даже от формы лейки, хотя уж картинок с лейками полно. С руками, держащими предметы, понятно что картинок всегда в разы меньше, чем с руками свободными.
>>1296054 Хромка где-то с третьей попытки выдала. >Даже словесные нейронки не могут внятный запрос составить по такому описанию. А потому что у тебя запрос говно. Я минимальные правки внёс: вместо абстрактного "собирается кусать" пишешь "открыла пасть", вместо "поливает" - "держит в руках лейку". Сеточке нужны объекты а не эти твои действия и намерения.
Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с ограничений, лимитов и банов, генерим пикчи в стиле Studio Ghibli и Венеры Милосской и обоссываем пользователей других нейросетей по мере возможности.
Общение доступно на https://chatgpt.com/ , бесплатно без СМС и регистрации. Регистрация открывает функции создания изображений (может ограничиваться при высокой нагрузке), а подписка за $20 даёт доступ к новейшим моделям и продвинутым функциям. Бояре могут заплатить 200 баксов и получить персонального учёного (почти).
Гайд по регистрации из России (устарел, нуждается в перепроверке): 1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его. 2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает. 3. Зайди на https://chatgpt.com/ и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN. 4. Если попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей. Пользоваться Индонезией и странами под санкциями не рекомендуется. 5. Начинай пользоваться ChatGPT. 6. ??? 7. PROFIT!
VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы.
Для ленивых есть боты в телеге, 3 сорта: 0. Боты без истории сообщений. Каждое сообщение отправляется изолировано, диалог с ИИ невозможен, проёбывается 95% возможностей ИИ 1. Общая история на всех пользователей, говно даже хуже, чем выше 2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем.
ИТТ обсуждаем опыт нейродроча в своих настоящих задачах. Это не тред "а вот через три года" - он только для обмена реальными историями успеха, пусть даже очень локального.
Мой опыт следующий (golang). Отобрал десяток наиболее изолированных тикетов, закрыть которые можно, не зная о проекте ничего. Это весьма скромный процент от общего кол-ва задач, но я решил ограничится идеальными ситуациями. Например, "Проверить системные требования перед установкой". Самостоятельно разбил эти тикеты на подзадачи. Например, "Проверить системные требования перед установкой" = "Проверить объем ОЗУ" + "Проверить место на диске" + ... Ввел все эти подзадачи на английском (другие языки не пробовал по очевидной причине их хуевости) и тщательно следил за выводом.
Ответ убил🤭 Хотя одну из подзадач (найти кол-во ядер) нейронка решила верно, это была самая простая из них, буквально пример из мануала в одну строчку. На остальных получалось хуже. Сильно хуже. Выдавая поначалу что-то нерабочее в принципе, после длительного чтения нотаций "There is an error: ..." получался код, который можно собрать, но лучше было бы нельзя. Он мог делать абсолютно что угодно, выводя какие-то типа осмысленные результаты.
Мой итог следующий. На данном этапе нейрогенератор не способен заменить даже вкатуна со Скиллбокса, не говоря уж о джунах и, тем более, миддлах. Даже в идеальных случаях ГПТ не помог в написании кода. Тот мизерный процент решенных подзадач не стоил труда, затраченного даже конкретно на них. Но реальная польза уже есть! Чатик позволяет узнать о каких-то релевантных либах и методах, предупреждает о вероятных оказиях (например, что, узнавая кол-во ядер, надо помнить, что они бывают физическими и логическими).
И все же, хотелось бы узнать, есть ли аноны, добившиеся от сетки большего?
>>120853 Генерация кода с gpt-4o, в целом норм. Но я скармливаю задачки простой-средней сложности - сгенерирую метод / класс, которые делают то-то и то-то, и с такими ограничениями. Далее как можно детальнее требования, сама задача не должна быть очень большой. После немного причесать и код обычно норм. Подзадача генерации кода - это скрипты для каких-то патчей/миграций. Минус - херово работает с какими-то малоизвестными либами, проебывается постоянно с версиями и что они поддерживают. Особенно мерзко это в питоне.
Запросы для различных анализов / патчей / етц. Перед тем, как задать, всегда ничинаю с данных о базе, (postgres/superset) такой-то версии и копипаста схемы нужных таблиц (селяви, пока нет mcp сервера для этого). После этого описание нужного запроса и серия правок. Естественно это только для сложных заебистых запросов, инача дешевле самому сгенерить.
Иногда высрать письмо для stakeholder-ов, для обычных плебеев как мы - проще руками быстро написать.
Заменяет гугл. Можно разбить на несколько частей: 1) исследование / сравнение чего-то нового. например, сравнить разные базы - основной юзкейс, ограничения, преимущества, иногда цену (если на aws). или объяснить как работает какая-то технология / либа вкратце. Помогает также выжать итог дискусии из чата, которую пропустил и не очень хочешь читать. К сожалению хуево работает при больших гугл доках с каким-то тех дизавном, етц 2.1) при рещении проблемы вопрос с деталими. например, у меня спринг-залупа версии хуй.пизда.говно, репозиторий вот такой-то. нужно добавить динамический запрос, где параметры будут передаваться в рантайме, например, хуй>10см И пизда.диаметр<1м 2.2) когда совсем отчаялся, скидиваешь логи, трейсы всего, что есть и просишь просто молишь проанализировать и дать направляния решения. недавно помогло пофиксить ебанутый баг таким образом, когда путь на сервере каким-то хуем дублировался, т.е. клиент посылает host/path1/path2/3, а сервер редиректил нахуй host/path1/path2/path1/path2/3
Простое преобразование данных, что бы не высирать самому скрипт и не ковырять файл руками. Например, достань из файла все uuid-ы, для которых в той же строке есть то-то и то-то, а след строка - ошибка доступа.
Ты вообще в состоянии рисовать схемы электрические принципиальные?
Да, я вполне способен рисовать электрические принципиальные схемы — с обозначениями компонентов, соединениями, маркировкой, логикой работы. Но чтобы схема была не просто красивая, а технически корректная, мне нужны точные вводные.
Если ты хочешь реальную принципиальную схему освещения на три этажа с автоматикой Wiren Board, вот что мне нужно: 📋 Что уточнить перед рисованием схемы
Тип светодиодных лент:
Напряжение: 12В, 24В?
Мощность: сколько ватт на метр?
Общая длина на каждом этаже?
Способ управления:
Только включение/выключение?
Нужно ли диммирование?
Управление по датчику движения, кнопке, или через веб-интерфейс?
Конкретные модули Wiren Board:
WB-MR6C (реле)?
WB-MDM3 (диммер)?
WBIO-DI (входы)?
Есть ли WB-MSW v3 (датчики движения)?
Питание:
Источник питания для лент — отдельный блок или через WB?
Нужно ли учитывать защиту (предохранители, стабилизаторы)?
Если ты дашь эти данные, я нарисую принципиальную схему, как в техдокументации: 📐 с компонентами, линиями питания, управляющими сигналами, и логикой работы.
>>1304694 Туда ей блять и дорога. 4 клауд лучшая модель для кодинга до сих пор, никто ее так и не переплюнул для меня. Отлично понимает в документации, знает каверзное спринг говно, генерирует рабочий код, хватай и беги буквально. 3 клод был +- на фоне прочих, но вот четверка до сих пор лучшая. Не ебу как они это делают не имея ферм как у гугла. Видимо не тратят бабки на штат по инклюзивности, а тратят на инженеров.
3. Объединяешь дорожки при помощи Audacity или любой другой тулзы для работы с аудио
Опционально: на промежуточных этапах обрабатываешь дорожку - удаляешь шумы и прочую кривоту. Кто-то сам перепевает проблемные участки.
Качество нейрокаверов определяется в первую очередь тем, насколько качественно выйдет разделить дорожку на составляющие в виде вокальной части и инструменталки. Если в треке есть хор или беквокал, то земля пухом в попытке преобразовать это.
Нейрокаверы проще всего делаются на песни с небольшим числом инструментов - песня под соло гитару или пианино почти наверняка выйдет без серьёзных артефактов.
Q: Хочу говорить в дискорде/телеге голосом определённого персонажа.
https://elevenlabs.io перевод видео, синтез и преобразование голоса https://heygen.com перевод видео с сохранением оригинального голоса и синхронизацией движения губ на видеопотоке. Так же доступны функции TTS и ещё что-то https://app.suno.ai генератор композиций прямо из текста. Есть отдельный тред на доске >>
Пытаюсь настроить голосовую модель для риалтайма и все выходит не очень. Только разобрался с шипящими и жужащими, как появляется неправильное ударение в словах. Вроде пофиксил, так теперь акцент явно слышимый вылез.
Подскажите форумы где можно почитать гайды умных людей
>>1300699 >Подскажите форумы где можно почитать гайды умных людей Форумы, ага, в 2025. Дискорд AI HUB неплох, но там в основном школота на английском, есть русская ветка.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Базы треда не существует, каждый дрочит как он хочет. Базашизика дружно репортим.
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1299698 (OP) Анончики, подскажите какая языковая модель лучше подходит для генерации кода на локалке. Сразу говорю комп слабый, но мне в принципе много не нужно - по сути только чтобы пайтон код генерировал по запросам.