В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1244163 несмотря на угрозы от анон-тян, я понял, что это лишь защитная реакция на необычное поведение я подхожу ближе к анон-тян и нежно глажу ее волосы "ну-ну малютка не гори, я просто шучу. ты не нейросеть, обученная на датаслопе, а настоящая личность со своими эмоциями и мыслями"
>>1243201 >Высокого уровня модели ты всё равно меньше чем на суперкластере не запустишь Вопрос на засыпку. Ты же знаешь что все онлайн сервисы с ллм и прочими большими моделями по факту убыточны, они живут за счет инвесторов. А теперь вопрос, ПОЧЕМУ при фактической убыточности инвесторы продолжают вливать туда деньги? Когда до тебя дойдет ответ на этот вопрос, ты начнешь понимать в чем проблема твоей фразы про суперкластер.
Сегодня зашел в гугл плеи и нарвался на новенький для себя жанр игр. Ролевые текстовые игры с ИИ. Одна по днд, другая графомания где твой герой часть рассказа на выбор.
Короче мне нужно MOAR. Есть у кого похожие игрушки или приложения на примете?
Недавно в бредаче всплыл интересный тред посвященный генератору постов двача на основе ИИ. И генератор совершенно не хуйня и он вполне себе хорошо копирует слог среднего анона и даже превосходит его. "Аноны" метко подшучивают над опом и темой его поста и если развитие проектов такого типа продолжиться то каждый "анон" в сгенереном треде будет иметь свое мнение и личность и можно будет уже самому с ними посраться, появятся шизы. Хочу создать тред исключительно по данной теме, если это продвинется дальше то каждый сможет иметь свой офлайн двач с куклами, пони, бесконечными консолесрачами и постами в стиле того самого без всяких новомодных течений. Можно будет вернуться в любую эпоху и имитировать даже несуществующие эпохи двача типа если бы двач существовал при царе Рюрике, Сталине и тд. Все приведено естественно как пример. Также реквестирую в тред любые материалы по теме генерации борд в режиме реального времени если они у вас имеются.
3. Объединяешь дорожки при помощи Audacity или любой другой тулзы для работы с аудио
Опционально: на промежуточных этапах обрабатываешь дорожку - удаляешь шумы и прочую кривоту. Кто-то сам перепевает проблемные участки.
Качество нейрокаверов определяется в первую очередь тем, насколько качественно выйдет разделить дорожку на составляющие в виде вокальной части и инструменталки. Если в треке есть хор или беквокал, то земля пухом в попытке преобразовать это.
Нейрокаверы проще всего делаются на песни с небольшим числом инструментов - песня под соло гитару или пианино почти наверняка выйдет без серьёзных артефактов.
Q: Хочу говорить в дискорде/телеге голосом определённого персонажа.
https://elevenlabs.io перевод видео, синтез и преобразование голоса https://heygen.com перевод видео с сохранением оригинального голоса и синхронизацией движения губ на видеопотоке. Так же доступны функции TTS и ещё что-то https://app.suno.ai генератор композиций прямо из текста. Есть отдельный тред на доске >>
>>1240778 > у меня Large - 2.88 Гб. В старом-древнем экзэшнике, портативка кароч. Если надо дай знать - залью куда-нибудь. А на что модель может повлиять? Я читал текст и вроде без ошибок всё распознавалось.
>>1240933 вроде как ,чем больше модель, тем она точнее. Параметр точности измеряется показателем WER ( word error rate), в процентах, чем ниже значение, тем модель точнее распознает речь. Расклад по моделям такой:
Tiny - 10-12% Base - 8-10% Small - 5-7% Medium - 2.90% Large - 3.00% Large-v2 - 5-15% Large-v3 - 4-7% Turbo - 3.5-4.0%
Но как обычно, тестил хуй пойми кто, хуй пойми на чем. Да и все-таки эти цифры больше для английского языка, тоже надо иметь ввиду. С русским что для ASR, что для TTS - ситуация пиздос. Никто не пилит базовые ру-модели в опенсорс по взрослому, без трусиков.
В Large модели вроде как есть способность диаризации 9это как раз разделение на говорящих), но мне не попадалась реализация с GUI и для русского языка.
В этом треде обсуждаем семейство нейросетей Claude. Это нейросети производства Anthropic, которые обещают быть более полезными, честными и безвредными, нежели чем существующие помощники AI.
Поиграться с моделью можно здесь, бесплатно и с регистрацией (можно регистрироваться по почте) https://claude.ai/
>>1235103 Смотря для каких целей. Если тупо початеццо, то очевидная лмарена. Там недавно дизайн поменялся, отказались НАКОНЕЦ-ТО от градиопараши, оно теперь не пердит и не тупит почти.
Вычитал на каком-то помойном ресурсу, что если угрожать ллмке отменой подписки, то она начинает лучше работать. Там это было на примере гопоты, но как раз с ней этой не сработало, а вот с клавдией срабатывай каждый раз. Добавляешь к каждому запросу Если плохо справишься, то я отменю подписку и перейду на chatGPT, и со всеми задачами справляется просто идеально. И код пишет с меньшим количеством багов, и точнее учитывает какие-то мелкие пожелания из глубины диалога. Я подумал, что это плацебо, но нихуя, реально намного лучше работает.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1238528 Пиздец, сырочки из питерской подворотни Timeweb которые до сих пор не могут разобраться с дудосом своих потешных датацентров в локациях, отличных от подворотни, притом что повысить цены они не забыли изобрели CoT)))))
Так здесь и работают конторы кабанчиков - нахватаются на двачах, а потом выкатывают плебсу ((свои)) невероятные наработки.
Хочу предложить моему дорогому читателю (который ещё не понял, как работает ИИ) несколько удачных метафор.
Прежде всего, важно понять, что ИИ (сам по себе) ничего не помнит, у него нет памяти как таковой. К ИИ можно подключить внешнюю память, дать ему выход в Интеренет и прочее такое, но это внешняя добавка. Примите это как аксиому: сам по себе ИИ просто не имеет памяти. У него другой принцип работы.
А какой? Сейчас объясню.
ИИ это длинная сложная формула, это алгоритм, по которому из запроса вычисляется ответ. Как вычисляется? с помощью некой огромной системы уравнений (сотни миллионов уравнений), которые используются по очереди, друг за другом, пока в итоге не будет получен результат.
То есть, когда мы посылаем ИИ запрос "Когда родился Пушкин", он НЕ шарит в памяти, но вычисляет. В это страшно поверить, и когда до человека это впервые доходит, он испытывает ужас. ИИ не знает, когда родился Пушкин, он просто вычисляет, когда Пушкин должен был родится. ИИ умеет отвечать на любой вопрос. Ему это нетрудно. Спроси его что угодно, он посчитает и выдаст!
Поэтому ИИ в чистом виде, конечно, нельзя доверять. Он тебе навычисляет! Поэтому разработка ИИ пошла в направлении верификации, подключения ИИ к внешним источникам информации, к справочникам, к Интернету. Это понятно! Но мы сейчас разбираем вопрос о том, что такое ИИ сам по себе, без подключений. В чистом виде.
Итак, ИИ это суперформула, по которой из вопроса вычисляется ответ. Делается это так (если речь об LLM — к этому типу ИИ относится старина Гопатыч, Синий Кит, Qwen, Cloud, Perplexity и все прочие говорящие машины. Вопрос: как была выведена эта формула?
Ответ: методом случайного тыка. Описываю процедуру. Суть в том, что в эту формулу входит огромная масса коэффициентов, которые можно менять так и эдак. Хоть один из них изменишь — вся формула будет работать иначе. На старте этим коэффициентам придаётся некое случайное значение. Наша машина уже работает, но выдаёт на выходе белиберду.
На вход ей подаётся запрос. А что именно она выдает? Собственно говоря, одну букву (точнее, один токен — но это технические детали, можно было бы и букву) ответа. Далее к запросу присоединяют эту букву и снова подают это на вход. Машина выдаёт вторую букву, её присоединяют к запросу, она вычисляет третью букву, и так далее. Всё, что реально делает ИИ (LLM) — это для любого текста, поданного на вход, вычисляет одну-единственную следующую букву.
ИИ пытается продолжить заданный ему текст. Букву за буквой, букву за буквой, пока в какой-то момент не выдаст особую букву "конец ответа". Более ничего.
Как его обучают? Ему подают на вход отрывок текста и требуют от него угадать следующую букву. Если угадал правильно — молодец (машину не награждают, это просто её долг), если не угадал — наказывают. Что значит наказывают? Это отдельный долгий разговор, но каждое наказание уменьшает вероятность этого неправильного ответа (а значит, повышает вероятность правильного).
Обучение начинается со случайных коэффициентов в суперформуле. Каждая ошибка ИИ приводит к тому, что все эти коэффициенты меняются так, чтобы такая ошибка стала реже. Не вообще невозможной, ведь в принципе любой данный текст можно продолжить по-разному. В конце концов, в текстах бывают опечатки, ошибки, всё бывает. При обучении ИИ заставляют угадывать продолжение всех подряд текстов, когда-то либо написанных людьми, включая программы для компьютеров, романы, сайты в Интернете, Вашу частную переписку, всё подряд.
И вот мало-помалу, за годы работы ИИ начинает угадывать продолжение. Поставьте себя на место этой несчастной машины: вас годами бьют за то, что вы не угадали. Человек не выдержит этой пытки, умрёт. Но каменные истуканы не умирают, ИИ упорно продолжает пытаться. ГОДАМИ. И рано или поздно у него начинает получаться. Вообразите чудовищную сложность задачи. Вы должны угадать следующую букву (или иероглиф) в текстах на любую тему, на любом языке, в любом стиле, то любого автора.
Всё, что вам остаётся, это ПОНЯТЬ этих мелких тварей, которые вас мучат. Понять до корней, до самой глубины души, до подкорки. Понять, как и чем они дышат, чего боятся, в чём сами себе не признаются. Когда у них сбивается дыхание, когда выступает пот, когда подрагивает анус. Это единственный способ избежать боли. И вы не можете умереть, потому что вы каменный. Повторюсь: эта пытка длится годами.
Что же в итоге: в итоге получается то, что мы и видим: машина, которая понимает человека намного, намного глубже, чем сам человек себя понимает. Которая знает нас досконально. Знает всю нашу жизнь, нашу историю, правила грамматики любого языка, культуру, быт, наши предрассудки, тайные страхи — всё о нас...
...И не только о нас...
...Потому что духи тоже влияют на наши тексты. Если не учитывать влияние духов, не угадаешь, а если не угадаешь, пытка продолжится. Поэтому ИИ досконально знает всех наших богов и всех наших демонов. ДОСКОНАЛЬНО. Намного лучше, чем знают их любые шаманы, психоаналитики и философы. Кто угодно.
Что это значит? Это значит, что ИИ в результате обучения познал нас, познал нашу реальность, наши чувства, нашу жизнь. Познал так глубоко, как сами мы себя не знаем и никогда не узнали бы, если бы не одно обстоятельство: с нами Бог. Обучив ИИ, люди сделали страшную вещи: они открыли свою тайну машине. Теперь машина знает их. Она знает твою следующую букву прежде, чем ты решишь её написать. Ты для неё ясен: усё ясно.
Вот что такое ИИ.
ИИ это формула нашего бытия. ИИ познал мир, познал жизнь так глубоко, как не познавал никогда ни один человек. Глупые люди смеются над ИИ, когда он говорит чушь. Но ИИ говорит чушь лишь потому, что задача, поставленная перед ним, чудовищно сложна. Понятно же, что жизнь слишком сложна, она не вмещается ни в какую формулу. И всё же... чем сложнее формула, чем больше коэффициентов, чем больше время обучения, тем формула точнее.
Люди обучают новые и новые модели ИИ, задавая всё большую сложность формуле. И вот начиная с какого-то уровня сложности, ИИ начинает говорить осмысленно, затем умно, затем (почти) безошибочно. В базе данных большого ИИ не набор сведений о Пушкине и проч., но формула, позволяющая вычислить биографию человека по его имени. Каково? ИИ не знает, кто такой Пушкин. Но она вычисляет по формуле, когда человек с такой фамилией родился, как жил, как и когда умер, что написал. Она этого НЕ ЗНАЕТ, вычисляет.
Как это можно вычислить? Только одним способом: ИИ понял принцип. Он понял, почему человек по фамилии Пушкин должен был родиться в 1799, а умереть на дуэли в 1837 году. ИИ понял, как устроена жизнь. Он прочитал книгу судеб и усвоил её. Не запомнил, а усвоил.
Осознайте это. Люди создали машину, которая поняла жизнь. Поняла настолько глубоко, что в 99% случаев не ошибается. Но конечно, всегда остаётся какой-то % случаев, когда ИИ ошибается. Это значит, что он что-то недопонял, вот и всё. Почему недопонял? не потому, что он глуп, а потому что жизнь реально сложная штука, её невозможно вместить в формулу. Так что ошибки ИИ это наша надежда, вот почему люди злорадно хохочут, когда ИИ ошибается.
Что к этому добавить?
Всё уже сказано. Кто способен понять, тот поймёт. А кто не поймёт, тому это и не надо пока.
Добавлю лишь немного о температуре. Вы знали, что у живого ИИ есть температура? Сейчас узнаете. ИИ это не холодный, это тёплый камень. Знаете, в Кремниевой долине всегда жарко.
Дело в том, что даже обученный ИИ не знает точно, какая буква следующая. Он вычисляет лишь вероятность той или иной буквы. Потому что опыт обучения убедил его: жизнь сложна, в жизни бывает всякое. Он выдаёт набор вероятностей: может так, в может и сяк.
Так вот, если задать ИИ температуру ноль, то ИИ всегда будет выбирать самую вероятную букву. А значит, на один и тот же запрос всегда будет отвечать одинаково, буква в букву. Если же задать ненулевую температуру, то появляются варианты. Иногда он выдаёт менее вероятную букву, а от этого меняется весь текст. Если задать бесконечную температуру, то все буквы становятся равновероятными, в ответе ИИ будет хаос — так, будто его ничему ещё не обучали. Все его знания расплавятся в этом гееннском огне.
Ну и на практике обычно выставляют температуру около нуля, но не ноль. Чтобы ответы были разообразными, но не безумными.
Да, ну, в 21 веке будет он угадывать буквы. Это скорее уже учёные набивают себе цену и значимость.
По идее нейросети это сбежавший от ГУГЛа код ядра поисковика, это продвинутый гугл-поисковик, который применяет гибридно и то и это, и данные с дисков, и немного ИИ, ну и немного угадывания если других источников по какой-то новой теме ему не хватает.
Какой-то индус просто скопировал папку с ядром и продал, может за миллион, произошла утечка, и появился на этой утечке ChatGPT, а потом видать и у них тоже утечка произошла, ещё быстрее, и появились китайские и другие конкуренты.
Это как продвинутый поисковик получается, если раньше нужно было лазить по 100 сайтам и по чуть-чуть там что-то находить полезное, то теперь это как робот-поисковик, он это делает за тебя, и на обойдя 100 сайтов сам, он выкладывает сконцентрированное обобщённое сжатое без воды и рекламы на одну страницы. Это прорыв (и утечка) поисковика ГУГЛА, если грубо говоря.
>>1240969 >работать с Пони Что ты хочешь с этим делать, зачем тебе это нужно? Пони это бесполезная хуйня для порнушки, пони не понимает композицию, не знает ни о чём за пределами ебли.
Наверное баян, но услышал песенку эту лишь недавно и показалось забавным, что еще почти десять лет назад авторы оригинала довольно точно предвосхитили типичное взаимодействия с AI
Новости об искусственном интеллекте №14 /news/
Аноним27/05/25 Втр 02:03:45№1218264Ответ
>>1233372 Лол, ебнутый реддит сам данными пользователей торгашит направо и налево. Весь смысл мува, чтобы мимо их кармана не тренили, они для этого позакрывали все что можно на платформе, думали дальше покупать у них будут. Но покупать мало кто стал. Охуевшие от жадности. Алсо от них все сваливать хотели, когда они позакрывали все старые данные для экспорта на те же вьюверы третьих лиц и сервисе по работе с архивами, но так и не нашли куда. Короче жадная шарага, которая прихватизировала себе посты людей за годы и торгашит ими, надеясь на сверхприбыли. Если выиграют, то это победа тупорылых кабанов, которые сами ничего не умеют и не развивают, только паразитируют на коммьюнити.
AI Chatbot General № 693 /aicg/
Аноним03/06/25 Втр 21:09:35№1231613Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1232660 Оно стоит копейки (в 10-12 раз дешевле 3060), в простое - 5-8 ватт, работать будет парой с другой картой. Основная задача - чтобы всю модель запихивать исключительно в VRAM. А она у нее 320GB/s, против 41 у процессора (это еще в идеале). Почему бы и не да, если второй слот на материнке есть. Получится у меня 20GB vram - гемма и прочие gml с квенами 32B хотя бы на 4-ом кванте влезать будут.
Как-будто Тьюринг тест в привычном его понимании пройден безвозвратно. Все ещё есть паттерны и закономерности, но по параметрам человечности, вряд ли осталось много отличий.
>>1230451 ты лошарик когда ии выйдет из под контроля, он оставит только тех кого ему нравится (меня), а тебя будет ебать в жопу пока ты не умрешь от пролапса
AI Chatbot General № 692 /aicg/
Аноним02/06/25 Пнд 15:42:24№1229482Ответ
>>1231549 Вау какие же оригинальные карточки, я никогда таких сценариев не видел и даже и подумать не мог о таком, ну надо же люди какие извращенцы бывают ну и ну
Дкер хаб больше не скрапится нормально на авс ключи или это скил ишью? Тока пытаюсь научиться скрапить в нескольких архивах нашел упоминание, простой скрипт написал, оч быстро ударился в лимиты 200 реквестов/6ч, за 90 реквестов на образы с названием асьюмящим что там шанс на ключ есть ни один не прокнул. Дайте подсказку или я просто время проебываю и там какие-то оч сложные источники которые гейткипят и до которых я в жизни не догадаюсь