Хочешь ML, учи CS229, CS231n, линейную алгебру, теорвер, матстат, базовый матан и matrix calculus.
Хотя нет, не учи. Но хотя бы backpropagation освой. Больше нахуй ничего не нужно, потому что ничего нового за 50 лет AI не изобрели.
Еще учи graph machine learning (GML). Это, как водится, реклама.
Осторожно, в треде манябиологи и маняпсихологи, которые с каких-то хуёв решили, что они шарят в биологии и психологии, хотя всю жизнь были программистами.
>>2143332 → Касательно птиц, https://naked-science.ru/article/biology/kvantovye-effekty-pomogayut-ptitsam > Работа показала, что разное направление поля (авторы создавали его искусственно, на несколько порядков более сильным, чем «естественное» магнитное поле Земли) ведет к накоплению разных продуктов реакций, которые, в свою очередь, служат химическими сигналами, меняющими активность рецепторных нейронов То есть это воздействует напрямую, примерно как афродизиак, минуя сознание. Ну а вообще я скорее говорил про квантовую запутанность, она вполне может быть установлена на неограниченное расстояние, и ее не обнаружить без изучения двух запутанных квантов. В принципе если бы тот шиз сказал бы про то что, скажем, нейроны мозга квантово запутаны с чем то, что позволяет мозгу расшифровывать информацию с помощью окружения физического тела, мне было бы довольно сложно это оспорить ведь доказать обратное можно только эффектом памяти путей у нейронов, который по сути и есть память, но и это можно было бы опровергнуть тем что эти пути запутаны с чем то, а следовательно в этом чем то будет то же самое. Ну и границы квантовой физики все еще нащупываються, и уже завтра британские ученые могут сказать что абсолютно все квантово запутано чем то.
Но чому блядь хочешь потыкать РЛ и там это гонево с keras-rl2 который ставиться совершенно блядь не хочет, агенты самого тф блядь даже на сайте описаны чисто на высоком уровне и гайды какие-то "времянка пока не напишем нормальные", все вызывает конфликты, ошибки, отказывается работать в игер-моде, отказывается работать на гпу, в колабе отказывается открывать окошко с игрой, что тебе надо импортировать ffmeg и делать сука видос как он играет по сути. Ебанись блядь.
>>2143510 >скажем, нейроны мозга квантово запутаны с чем то, что позволяет мозгу расшифровывать информацию с помощью окружения физического тела Ну это уже вообще дичь какая-то, ведь чтобы быть запутанными, они должны как-то с чем-то изначально запутаться, однако. Типа, в нейроне рождается запутанная пара, одна частица улетает к боженьке в небеса, другая остается в нейроне. И там уже неслучайный божественный случай подаёт сигналы прямо в моск анона.
>>2144396 И вправду звучит как шиза, но на текущем этапе развития даже это отметать нельзя. >>2144477 А как? Все время существования человечества сознание изучается и даже есть успехи, но ответить на вопрос конкретно что такое сознание, почему оно лишь у человека и правда ли что оно лишь у человека, как сознание работает и кучу других вопросов все еще не смогли. >>2144502 Как там в средневековье, пипин короткий уже спалил поле твоего феодала за что тот во имя г-спода изнасиловал тебя и всю твою семью, или ты в то время был в приходской школе и учился читать библию не зная букв и еще об этом не знаешь?
>>2144741 Ладно. Как там в африке начала 90-х, пипин магучунчжа уже спалил поле кокаина твоего хозяина за что тот изнасиловал тебя и всю твою семью, или ты в то время был в местной тюрьме и читал библию не зная букв и еще об этом не знаешь?
>>2144773 хочу и кормлю, он же помрет с голоду но перед этим пропоносится как в последний раз
>>2144046 Бери stable baselines3 или tianshou. >>2144902 Всех экспертов похители и вместо них завезли поридж-сойбоев. Иначе никак не объяснить то, что всем похуй на ЭС.
>>2143396 (OP) >Наш звездолет подлетает к планете Марс, перевести корабль в ручное управление и включить суперкомпьютер, что бы нейросеть сгенерировария смешных картинрчек за оставшиеся 600 минут.
>>2145011 >Наш звездолет подлетает к планете Марс, перевести корабль в ручное управление и включить суперкомпьютер, что бы нейросеть сгенерировария смешных картинрчек за оставшиеся 600 минут. Использовать только русский язык, ну в крайнем случае англо-русский. Я то в нем не силен. Помните, как в школе было? Если что, я на месте. Идет?" "Не пойдет.
Сап, зекач, я нихуя не знаю в машин лёрнинге, но дружу с гуглом. Есть вагон данных в дата вархаусе. Дата представляет собой цепочку событий, растянутых по времени. Нужно понять, является ли эта цепочка аномальной.
Cудя по гуглу, мне нужно пилить что-то в районе LSTM/RNN classification. Насколько сильно я занимаюсь велосипедостроительством?
>>2146199 Простую свертку попробуй сначала. Последнее достижение в подобных задачах это трансформер. Но свертку обучить будет легче всего. >>2146172 Где этот весь интернет вокруг?
>>2146199 >Нужно понять, является ли эта цепочка аномальной. Что значит аномальной? Ты вообще не туда залез, классификация нужна чтобы научить модель в будущем определять оутлаеров или что там у тебя является критерием аномальности Если у тебя есть куча даты и тебе хочется просто раскидать ее по категориям, то любой кластеринг-алгоритм классического машоба подойдет(нужно тестировать какой лучше на твоей дате), это пикрелейтед примерно А так если тебе просто аутлаеров найти - руками в пандас или даже в своем складе задаешь критерии и ищешь все что не норма
>>2144132 >>2144133 Выхлоп GPT от NovelAI. AIDungeon за подобные выкрутасы банит в течение нескольких часов. Даже не пытайся, если не хочешь проебать платную подписку навсегда.
Цветной текст - это то, что вводилось или редактировалось вручную. +было немного контекста, вроде описания купальника Vicky и её возраста. Весь белый текст - это то, что было сгенерировано нейросетью посредством нажатия кнопки "next" без какого-либо редактирования контекста.
Да, хорошо обученная нейросеть знает толк в педофилии)
>>2146279 > Да, хорошо обученная нейросеть знает толк в педофилии) Кстати это довольно интересная тема. Я недавно тыкал artflow и обнаружил что опенхуи обучая clip скормили ей достаточно много хентайной манги, так же по эксперементам анониев, clip - тот ещё расист и знает кто совершает большинство преступлений. Когда-нибудь все мл компании сядут на бутылку за эту хуйню и будут сожжены сжв скамом с неграми.
>>2146290 Введут регулирование какое-то, как сейчас нельзя путина и аллаха в яндексовскую балаболу вставлять, но сделают цензуру на выводе Мне больше нравились эксперименты когда лица в видео заменяли(в-основном на Абу), мир-мечта: твой любимый сериал кастит негра на главную роль? Не проблема - включил сервис и смотришь свои сериалы исключительно с белыми актерами
>>2143510 > Работа показала, что разное направление поля (авторы создавали его искусственно, на несколько порядков более сильным, чем «естественное» магнитное поле Земли) ведет к накоплению разных продуктов реакций
Ну может быть. Может быть есть у некоторых животных есть органы, воспринимающие магнитное поле. Хотя это крайне странно. Я бы не опирался на один white paper. Они могли и ошибиться, надо смотреть мету. Я просто видел легушку (https://www.youtube.com/watch?v=tUiuVFqUXyg), левитирующую в поле 15Тл и ей было норм. Представь, у тебя есть уши для восприятия колебаний давления воздуха, глаза для фотонов, и могнитный орган (напряжение магнитного поля Земли 25-65 мкТл). И тут тебе дают 15 ёбаных Тесла. Да он бы взорвался бы нахуй в твоём черепе.
Но мой поинт не в этом, а именно в том, что квантовые эффекты - это рандомайзер. Даже если они оказывают влияние на работу нейронов хотя нейрон - это огромный химический механизм, скорее кремневый транзистор будет подвержен влиянию квантовых эффектов, в человеческой клетке от 5 миллионов до 2-х триллионов молекул, какие нахуй квантовые эффекты в таком масштабе?, то разгадка работы мозга кроется точно не в квантовой физике.
>>2146304 UP: при этом я не отрицаю полезности квантовых алгоритмов для машинного обучения. Тут надо разделять математику (мы мутим подбор параметров для минимизации функции ошибки, это можно делать на воображаемом квантовом компьютере, который, в нашем воображении, быстрее, поскольку не воображаемых квантовых компьютеров не существует) и биологию. Биологические нейроны точно не полагаются на квантовые принципы. С вероятность 86%. Ну там вся передача информации на обычной химии, и биологические нейроны - макроскопические объекты.
>>2146265 >Простую свертку попробуй сначала. Давай для дебилов. Ты предлагаешь сделать какой-нить Conv2d входом на который будет, скажем, последние n эвентов в цепочке? Или что-то другое имеешь ввиду?
>>2146266 >Ты вообще не туда залез, классификация нужна чтобы научить модель в будущем определять оутлаеров или что там у тебя является критерием аномальности Для этого и планируется в будущем использовать всю эту херню, в реальном времени классифицировать новоприходящие эвенты исходя из цепочки прошлых событий.
Думаю даже, что скриптами будет проще нагенерить примеры аномалий чем в DWH их найти. Но проверять результат классификации буду на данных из DWH. Категорий будет ровно две: нормальный эвент и аутлаер. Руками искать слишком накладно получается, нужна автоматизация.
>>2146311 То что ты описываешь вообще от нейронок только пострадает смотри, либо есть прямые решения - isolation forest, MCD(минимал коварианс детерминант), лоф(вроде локал оутлаер фактор), все есть в склерне Или ты можешь наоборот сделать - сделать любую регрессию твоих данных, поскольку у тебя скорее всего будет какой-то варианс в дате, но она линейна из-за того что это тайм-серия подойдет SVM который настроен на 1 класс, т.е, она каждому новому примеру который в ее десижн баундри класс(либо 1 либо 0 условно) и любой 0 получается оутлаером. Получается что тебе надо сделать будет трубу которая предиктит каждый новый энтри в датабазу, определяет его класс, если 1(т.е. номинальный нормальный класс) то он проходит, если 0 - то отправляется в подшконочную базу для проверки руками. Возьми семпл своей даты если она здоровая, за месяц/полгода, смотри сам, попробуй эти методы и какой будет показывать меньше ошибки потестируй на своем реальном тест-сете и впихни в тест-сет искусственный кучи разных оутлаеров выдуманных. Скорее всего СВМ покажет себя лучше на реальной дате, в то время как алгоритмы поиска аутлаеров покажут себя лучше на синтетической, что с этим делать решай сам - если у тебя есть сезонность в дате или это очень волатильная финансовая дата - лучше второе, если у тебя там бабки анкеты заполняют криво и ошибаются на 100 лет в годе рождения - то первое
>>2146309 UP2: Я даже считаю попытку приплести квантовую физику к объяснению феномена сознания вредной. Потому что тогда появляется соблазн сказать "ну это всё из-за квантовой запутанности, один фотон такой спин заимел, а другой - противоположный, поэтому один нейрон активировался, а другой - нет. Это Боженька так велел."
На самом деле, это просто попытка отдалить нас от понимания, как работают сложные биологические системы. Боженька на уровне квантовой физики просто играет в кости, он не строит вселенского разума из квантовых флуктуаций. Вместо этого Боженька создаёт детерминистские системы из миллиарда нейронов, и мы просто пока не понимаем, как они работают, потому что его чертежи холических систем пока слишком сложны для того, чтобы мы смогли полностью разобрать их и эмулирвать на видеокартах.
>>2146313 На isolation forest, MCD и lof посмотрю завтра, спасибо. Не думаю что простой svm справится, но тоже скорее всего попробую.
Из подводных камней - аномальность эвента сильно зависит от того, как давно в прошлом был другой эвент, подходящий под некоторые критерии.
На реальной дате всё выглядит примерно так: 360 дней в году всё более-менее хорошо, но пять дней в году бывает какой-то ад. Данные сезонные и зависят от поведения людей. Например, в рождество данные значительно отлчиаются от обычных.
>>2146311 Да, это, только conv1d, поскольку у тебя одно измерение. Ну и придется сверху наворачивать какой-то специфический механизм тренировке для определения аутлаеров, если они тебе нужны. Но это все непросто, если ты ни бум-бум в нейронках, то во вменяемое время не сделаешь рабочий прототип. Если просто для себя покопаться, то норм задача.
>>2146304 > Представь, у тебя есть уши для восприятия колебаний давления воздуха, глаза для фотонов, и могнитный орган (напряжение магнитного поля Земли 25-65 мкТл). И тут тебе дают 15 ёбаных Тесла. Да он бы взорвался бы нахуй в твоём черепе. В статье говорилось что чувствительность голубей и кур у магнитному полю значительно слабее, и на сколько я помню, лягушки не улетают летом на юг. Не факт что у них вообще есть этот рецептор или что он хоть немного развит. Так же, это не орган как написано в статье, а рецептор. > Но мой поинт не в этом, а именно в том, что квантовые эффекты - это рандомайзер Разве это так? Ну то есть, если у тебя есть наблюдатель то свет будет вести себя как частица, если нет то как волна, при чем это определяется даже если его природа узнается после того как фотон улетел. Как по мне звучит не очень рандомно. А еще есть квантовые линии связи по которым передают информацию, даже в эрэфии уже построили, хотя там все не так просто и нужен ключ для дешифровки который передается по обычному соеденению.
>>2146309 > воображаемом квантовом компьютере, который, в нашем воображении, быстрее, поскольку не воображаемых квантовых компьютеров не существует Давно из криосна вышел? Первые работающие квантовые компьютеры на вменяемое число кубитов сделали еще в 2019, а сейчас все идет к тому что их даже можно будет заказать себе домой если у тебя дома есть криогенная установка, конечно же. Даже квантовое превосходство достигли лол. > и биологические нейроны - макроскопические объекты. Ну все не так просто. Объекты макромира уже запутывали, довольно примитивные но все же. https://nplus1.ru/news/2021/05/06/macro-entanglement
>>2146317 Не уверен на счет вреда, но ведь раньше и попытку приплести к работе тела человека работу тела животных считали бредом, ведь как так, венец творения и дитя б-жье, а по сути чуть переразвитая лягушка. Конечно не стоит все списывать на квантовые эффекты без доказательств и исследований, но как по мне в исследованиях в сразу двух направлениях плохого мало - тут то же самое что и с физикой где есть релятивистская физика и есть квантмех и обе работают в своей области, и обе друг друга исключают, но каждая из них внесла огромный вклад в развитие человечества. Если оба подхода могут принести пользу то нужно их развить и получить ее, а связать их при должном развитии уже будет значительно проще.
>>2146322 >На реальной дате всё выглядит примерно так: 360 дней в году всё более-менее хорошо, но пять дней в году бывает какой-то ад. Данные сезонные и зависят от поведения людей. Например, в рождество данные значительно отлчиаются от обычных. Дисперсию между значением и скользящим средним посчитай.
>>2146533 >квантовые линии связи по которым передают информацию Обычная информация таким образом не передается, передается только состояние частицы после измерения, а оно как раз всегда рандомное. Поэтому и нужен ещё обычный классический канал, чтобы передать само сообщение.
>>2146769 Чел, ты чего. Эти истории про мараль нинужна, мама не закон ты слышишь от каждого второго погромиста. И этот пузан туда же. Я уже даже глаза не закатываю.
>>2146972 этот пузан языком пиздит уже лет 20 и лишь эпизодически программирует. В общем, у него было время подумать о морали и политике. Он должен сильно отличаться от типичного кодерка. Но наблюдаем что наблюдаем. Он даже что-то хотел сказать и прослушал внимательно все заданные вопросы, но никого этот момент связи естественных смоделированных процессов и политических, не заинтересовал
>>2147119 Двумерный массив и матрица это примерно одно и то же, но надо учитывать что матрица может состоять из двух многомерных массивов. А просто многомерные массивы могут не подчиняться правилам линейной алгебры Т.е ты можешь рассматривать матрицу как табличную репрезентацию 2мерного аррея
>>2146279 >Даже не пытайся, если не хочешь проебать платную подписку навсегда. Я забил на него ровно с того момента, как он перестал быть опенсурс проектом и переехал в облако. Анальные сервисы с подпиской для пориджей не нужны.
>>2147119 И то и другое двумерная таблица, но матрица обладает определенными свойствами, а с двумерным массивом ты можешь делать что угодно.
как классифицировать векторы
Аноним02/09/21 Чтв 22:54:51№214839053
Подскажите плиз, есть например разные векторы, т.е: 1) [1,2,1,2,1,2,1] 2) [1,2,3,4,5,6,7] 3) [1,1,1,1,3,6,9] 4) ... описывающие динамику изменения величины во времени. То есть первый вектор можно назвать "почти не изменяется", второй - "растёт стабильно", третий - "не растёт, а потом хуяк и вырос". Как такая задача классификации называется. Что гуглить? "classification of vectors machine learning" выдаёт результаты по support vector machine, а не по теме.
>>2148393 Я назвал массив вектором, т.к. имеет значение направленность во времени и степень интенсивности изменения величины во времени t, t+1, t+2. Или как это можно назвать? Для того чтобы можно было потом разложить по классам.
>>2148390 Может тебе нужна кластеризация, а не классификация? Если у тебя есть функции которые рожают эти вектора, то ты можешь их разницу записать как интеграл этих функций, т.е сравнить площадь, но в этом случае у тебя будут равны "резко уменьшается" и "резко возрастает" например
Оказывается, некие индийские пидорасы приспособились использовать бесплатные GPU на облачных платформах, чтобы майнить битки. И ведь понятно что серьезных денег на майнинге не поднять, но ушлые пидоры готовы даже ради копеечки портить малину солидным исследователям. Иди лучше какай в воды Ганга, Паджит, или C# преподавай. Их автоматически детектили и банили, но видимо эти меры не помогали, так что теперь чтобы получить бесплатно T4, после регистрации мне пришлось связаться с администратором, объяснять зачем мне сервер и перечислять библиотеки и источники данных. И только тогда открыли доступ к GPU для моего акка.
>>2149348 Если загрузишь датасет - сядешь на кичу, если будешь грузить со своей машины - сядешь на кичу. Но ты можешь это сделать оффлайн на своем железе. Если сделать стейт-оф-арт генератор цп-порнушки, то может даже сможешь в торе зарабатывать прилично буквально выполняя желания педофилов за битки. Я если что просто рассуждаю, товарищ майор
>>2146290 Сядут быстрее, чем ты думаешь, причем добровольно. Я с ходу не назову законодательных актов, которые бы делали какой-либо выхлоп нейросети нелегальным. Это всё равно, что посадить создателя генератора псевдослучайных чисел за то, что его генератор случайно выдал последовательность символов, прославляющих Гитлера, на компьютере товарища майора. Но все крупные страртапы настолько боятся Cancel Сulture, что уже сейчас фильтруют выхлопы как могут, лишь бы до них не доебались. >>2149341 >в америке сожгут, но не в КН Это ты зря. КНР и Россия (яндекс-балаболка) фильтруют данные даже не на выходе, а на входе. Большинство пейперов по детектированию текстовой детской порнографии внезапно не от США, от Кетая. Сначала нельзя было реального абуза, потом абуза в виде реалистичной графики, теперь в виде текста. Скоро и мысли запретят, причем чип, который будет читать твои мысли, будет китайским.
>>2149501 >КНР и Россия (яндекс-балаболка) фильтруют данные даже не на выходе, а на входе. Лол. Я тестировал text2image систему от китайцев (wudao) так там не принимался текст с названием Японии иероглифами. Тупо отклоняет ввод с этими двумя знаками в его любом месте. До сих пор помнят Нанкин и отряд 731?
>>2146533 >Разве это так? Пока именно так. Все квантовые эффекты описываются именно что вероятностными функциями. Есть квантовая система, ты её наблёл, наблюднул, наблядевал, получил как-либо результат. Но там не говорится, что за этими результатами кроется более таинственный замысел, они все равновероятны, и если бы это было не так, были бы отклонения, о пока всё очень хорошо укладывается в предсказанные распределения вероятностей. >а сейчас все идет к тому что их даже можно будет заказать себе домой Я себе такой домой хотел заказать в 2005. Мне мой препод сказал, что, мол, не заказывай, это гроб с музыкой. Квантовые компьютеры - как термояд, будут через 20 лет. И сколько бы лет не прошло, они всё равно будут через 20 лет.
> Даже квантовое превосходство достигли лол. Это PR и манипуляции. Достигли квантовое превосходство на эмуляции самих же квантовых эффектов (причем не на абы каких, а специально подбирали, чтобы объебать классические симуляции). И то не очень. Современное квантовое превосходство - это я подышу на стекло, заморожу его и на стекле образуется узор. Ага, соснули тьюринг-пидоры, я узор на стекле получил, вы сколько его на своём компьютере просчитывать будете? У меня превосходство! Но никакой речи о том, чтобы использовать этот узор для ускорения каких-либо заранее вычислений пока и речи нет.
> Ну все не так просто. Объекты макромира уже запутывали Ну да, какие-то очень структурированные молекулы охлаждали лазером. Я не силён в физике, но там запутанность очень сильно зависит от длинны волны де Бройля. И она очень быстро уменьшатся с ростом размера тела. Ну да, даже ты можешь быть запутанным в какой-то 10 в минус охулеонной степени секунды. Охулеонность степени секунды несёт не только практические ограничения (хуй ты там увидишь рассеяние объектов на чём-нибудь большом), но и теоретические - с какого-то размера эта охуленность для макроскопического объетка становится меньше даже планковского времени.
>>2149489 >Мало, нет? Почему мало? Пик релейтед ето Stylegan2-ADA модель которую сейчас тренирую, на данный момент прошло 45 часов. Внизу фейки, вверху реалы (1177 оригинальных пикч в сете, с аугментациями вышло 3371). Думаю на 100 часах разлипнутся ноги, а на 150 будут правильно торчать руки, ну это если не случится коллапс мод
>>2149529 Анта бака штоле? Генератор Аски и выйдет. Видюха бомжатская, я обучался на таких же моделях только куда более простых и более коротких - примерно по 10 часов каждая, ну и конечно параметры хуёво проставлял.
>>2149471 >Ваш нейроноцентризм обоссали с головы до ног Спраедливости ради, нейробиологи то еще говно и мало чем отличаются от сектантов ИТТ. Но это бич всей академической науки.
>>2148958 >>2148980 Мальчики, вы ебанулись? Какой нахуй русский? Даже я, 40-летний бумер, читаю всё это на английском. Тут в принципе невозможно что-то сделать силами одной нации. Современная наука требует настолько много ресурсов, что этот сизифов камень вообще невозможно подвинуть, если не прибегнуть ко всем человеческим ресурсам.
Ну ладно, вам лень использовать английский, используйте гугль-переводчик. В конце концов он для того и создан, чтобы разгрузить вас от изучения других языков. Просто пока он не может это сделать на 100% процентов. Но суть в том, что если вы хотите что-то сделать, вам придётся взаимодействовать с американцами, французами, китайцами, вам придётся работать с людьми со всей Земли. Похуй на каком языке и похуй используя какие средства. Пока английский язык для этого подходит и пока самостоятельный перевод лучше машинного, поэтому или учим английский, или ждём, пока Боженька нам ниспошлёт язык, на котором мы сможем все говорить и запишет его нам прямо в мозг.
Я ML эксперт. Обожаю обмазываться паперами и дрочить. Нынче из Китая поступает много машоб-бумаг и кода. Китайцы молодцы, не то что сжв бляди из Штатов.
Т.е. мы заменяем предсказания на последовательностях (что есть по сути предсказания на подмножестве графов, которые представляют собой цепочки) на предсказания на произвольно связанных графах.
Нахуй нужно? Ну, допустим, у вас есть семантический граф. Для примера, предсказание рёбер. Например: "Вася дружит с Ингой и Вася водит Ауди". "Петя дружит с Ингой и Петя водит Ауди". "Махмуд дружит с Ингой" а про Ауди Махмуда ничего нет. И ваша GML-модель предсказывает, что у Махмуда должна быть Ауди. Это может означать, что у Махмуда Ауди на самом деле есть, просто вы об этом не знаете и можно обогатить вашу базу данных, либо что у Махмуда Ауди нет, но вы, как продавец машин, можете рассчитывать, что он хочет её купить и выставить ему предложение.
Аналогично работает во всех областях. Например, в молекулярном докинге. Например, если лиганды А и Б связываются с целевым рецептором Сигма, а лиганд В очень на них похож в плане взаимодействия с другими рецепторами, но именно про Сигма вам ничего не известно, GML может предсказать, что и для связывания с Сигма - он неплохой кандидат.
>>2149562 >ни хуя бы сейчас не было Так и ни хуя сейчас и нет. Или ты не дед, а поридж, который не знает что все рабочие писечки идут под нда и патентуется.
>>2149570 Для меня под мои задачи уже есть: Stylegan2, Clipit pixeldraw (охуенная вещь), danbooru-clip генератор по тегам, и это только начало. Гверна тоже читаю.
> Это PR и манипуляции. Достигли квантовое превосходство на эмуляции самих же квантовых эффектов (причем не на абы каких, а специально подбирали, чтобы объебать классические симуляции). Тут возможно ты и прав, но основное квантовое превосходство - генерация случайных чисел с огромной энтропией. То есть практически истинно случайных, на генерацию которых у обычных компьютеров время растет экспоненциально от энтропии или от сложности. А это уже имеет применение в той же криптографии.
>>2149569 >>2149578 То ли дело ЭС. Я и раньше видел долбаебов, которые веруют в какую-то херню, как то: гороскопы, эфир, плоскую землю, вред прививок, калмунизм, рептилоидов с Нибиру, чипиррвание через 5g, Билла Гейтса антихриста, ну представили ебало. Но только на этой параше есть сверхдолбаебы, которые верят во все это сразу. Вот тут уже даже ебало не представляется, что-то типа пикрелейтед возможно.
>>2149640 >То ли дело ЭС То ли. Вывод ЭС поддается анализу и интерпретации, какие правила отработали, по каким фактам. Как проанализировать результат черного ящика в котором сидят нейронки? Вопрос риторический.
>>2149805 >Если бы работало, использовали бы Так оно работало, просто доктора осознали что они на хуй не нужны и срочно потопили. Ты про нейроговно не ответил, как оно вывод фактов интерпретирует.
>>2149810 > Так оно работало, просто доктора осознали что они на хуй не нужны и срочно потопили. Бред. Доктора такие вопросы не решают. Ну и такой инструмент был бы не вместо врача, а в помощь. Пока ничего такого не сделали. Ты походу совсем ещё поридж, раз простые вещи не понимаешь. Медицина даже сейчас в зачаточном состоянии, чтобы просто взять и всех врачей заменить на ЭС.
>>2149825 >Доктора такие вопросы не решают. Вранье, там был случай когда созывали консилиум, ибо врач не согласиля с диагнозом ЭС. Ты про нейронки не ответил
>>2149828 > Вранье, там был случай когда созывали консилиум, ибо врач не согласиля с диагнозом ЭС. Ну вот видишь, оно не работает. Никто бы не стал брать на себя ответственность в случае если ЭС поставит неправильные диагнозы, а кучу пациентов по этим диагнозам залечат до инвалидности, если не до могилы. В качестве альтернативы, пришлось бы каждый диагноз, поставленный ЭС, разбирать на консилиуме, а это не заменяет врачей, а наоборот, добавляет им ненужной работы. Ты ж просто не понял, почему тему ЭС в медицине свернули, согласись.
Что касается "чёрных ящиков". Никакая нейросеть не является чёрным ящиком уже потому что от входа до выхода, все промежуточные результаты вычислений доступны напрямую. Бери да делай что хочешь. Анализируй передаточные функции, визуализируй и идентифицируй систему как угодно. Другой вопрос, что это нахуй никому не нужно. Но при желании даже те же аттеншены в трансформерах прекрасно визуализируются. Как и все веса, связи между всеми токенами. Что можно использовать напрямую для интерпретации вывода трансформеров. Код есть в том же d2l.ai, визуализацию связей между токенами для берта тоже где-то видел, причем онлайн. Поэтому, считать нейросеть чёрным ящиком может только полный дебилоид, каковым и является ЭС шизик, например. Конечно, никто не мешает в практической задаче считать нейросеть чёрным ящиком, но это значит только то, что для данной задачи внутренности нейросети не важны. По факту никаким черным ящиком нейроночки не являются, это медицинский факт.
>>2149877 > Все неправилные диагнозы интерпретируются, И кому же надо в этом говне копаться? Все тем же врачам? А кто будет отвечать за неправильно поставленный ЭС диагноз иткак следствие - неправильное лечение? Пушкин?
>>2149640 Пчел, тебе нейронку как раз для представления ебал придумали. Вот только она опять проиграла лавровым эс и сгенерировала твое ебало выбирай любое по вкусу, но что ж поделать, кроме нейрошвайнокоробок и кожаных мешков лица генерировать ничего не умеет.
>>2149885 Два чаю этому. интересно, эсшиз снова начнет копрокривляния что он не знает тензорную алгебру да и нинужна эта ваша наука и в пещерах было лучше?
Сап, я тут подумал, а чисто теоретически, возможно ли обучение нейронки для генерации картинок без датасета и без рл? Ну то есть, есть clip. Он смотрит на изображение и говорит на сколько вероятно что оно соответствует фразе. У обычных генераторов есть словарь со списком слов. А теперь если скосплеить олдовый pineapple pen и обучить нейронку поочередно генерируя каждое из слов используя оценку clip в качестве потерь, возможно ли получить так сказать дистилляцию модели clip? Как по мне это охуенный способ засудить илона маска ведь у clip было дохуя цп в обучающей выборке, а значит они его хранили. А если они распространяют нейронку обученную на нем то они распространяют цп в сложно интерпретируемом виде, но он интерпретируем, а это уже бутылка. Или нихуя не получится ни на одном этапе?
https://www.reddit.com/r/MachineLearning/comments/phjecd/n_facebook_apologizes_after_ai_puts_primates/ Искусстенный интеллект фейсбука стал ставить тег "обезьяны" к видео-роликам с неграми. Недавно также был скандал: алгоритм автоматического обрезания фото убирал с фоток негров, а также немолодых и полных людей, будто они своим присутствием делают фото хуже! В 2016 году самообучающийся чатбот TAY от Microsoft оказался расистом, а на вопрос о Холокосте говорил: "его подделали". Причиной был массовый набег альт-райтовских троллей, которые научили его говорить подобные фразы.
>>2149998 > ставить тег "обезьяны" к видео-роликам с неграми. > убирал с фоток негров, а также немолодых и полных людей > на вопрос о Холокосте говорил: "его подделали" Ну и в чем он не прав? Кроме шуток, эти нейронки имеют информации по конкретной задачи в разы больше чем люди и учитывают ее всю. А то что даже после набега на последнюю она не купилась на жидовскую ложь и вовсе говорит о том что она умнее 80% населения планеты и 99% если учитывать банановые республики кроме эрэфии.
>>2150041 Биасы, социальные и расовые предубеждения у систем машоба - это жуткая опасность для всей цивилизации. https://asia.nikkei.com/Spotlight/Comment/China-s-AI-tech-leaves-aside-questions-of-ethics Представьте что сделают где-то в Китае такой скайнет, который окажется нацистским. И уничтожит всех, кроме азиатов и может быть белых. Чтобы этого не случилось, этические принципы должны закладываться на уровне архитектуры. Еще до всякого обучения.
Посмотрел как кодекс делает простую работу в пандас и с матплотлибом. Вот надо только с матплотлибом, это такая классная тема, мне так не нравится синтаксис его, а тут "Ебани график хуйни по говну, красненький, и чтобы х назывался степень хуйни, а у массой говна, и чтобы легенда была креативненькая, и название внушало ужас" Я знаю что это всего 5-7 строчек кода, но бля, как же было бы удобно. Хотя вроде аутовиз есть, но он говно
>>2149983 > ИИ этике Пиздец. >>2150053 > Биасы, социальные и расовые предубеждения у систем машоба - это жуткая опасность для всей цивилизации. Интереснее и полезнее подумать, откуда они берутся там, где их никто специально не реализует. >>2150053 > Представьте что сделают где-то в Китае такой скайнет, который окажется нацистским. И уничтожит всех, кроме азиатов и может быть белых. Что будет, когда Скайнет увидит в действии сжвблмлгбт повесточку в виде системного окуколживания белых, замещения их, антибелую пропаганду и прочее такое, и решит спасать белую расу, это реально было бы интересно посмотреть, лол. В конце-концов, это не самый плохой сюжет для фантастики...
Взаимодействие человека с технологиями не является универсальным или ценностно-нейтральным в культурном отношении.
«Западное общество, основанное на монотеистическом христианстве и иудаизме, и китайское общество, основанное на материализме и марксизме, естественно, имеют разные этические системы», - сказал Кавасима.
Хирокадзу Анаи, старший директор лаборатории искусственного интеллекта в Fujitsu Laboratories, однажды сказал: «Мы должны доказать нашим клиентам, что наш ИИ достаточно безопасен и заслуживает доверия».
В Китае профессиональный комитет, действующий при Министерстве науки и технологий, в июне опубликовал набор из восьми принципов ИИ следующего поколения. Эти принципы включают уважение к частной жизни, но им трудно доверять, учитывая авторитарное правительство Китая.
Коротко говоря, общество, которое мало ценит человеческое достоинство, не может создавать технологии ИИ, ориентированные на человека.
>>2150092 Никогда не забывайте про ЭТИЧЕСКИЕ ВОПРОСЫ. Читаю паперы с неудовольствием, когда там не затрагивается ряд вопросов - как предотвращать возможность генерации педо контента, дискриминацию к Людям Цвета и меньшинствам которые исторически угнетены!!! Внедряйте защиту от предубеждений в архитектуру и проверяйте собственные привилегии
>>2150110 > Никогда не забывайте про ЭТИЧЕСКИЕ ВОПРОСЫ. > Читаю паперы с неудовольствием, когда там не затрагивается ряд вопросов - как предотвращать возможность генерации педо контента, дискриминацию к Людям Цвета и меньшинствам которые исторически угнетены!!! Внедряйте защиту от предубеждений в архитектуру и проверяйте собственные привилегии Таких вот апостолов повесточки из машоба надо гнать даже не ссаными, а сраными тряпками.
Нахуй вообще делать разработки - чтобы общество оказалось под контролем расистских шовинистических алгоритмов? Только так, или study AI Ethics, или вас кенселят, уроды!
Многие специалисты по машинному обучению знакомы с «предвзятыми данными» и концепцией «мусор на входе, мусор на выходе». Например, если вы обучаете чат-бота, используя набор данных, содержащий антисемитские онлайн-разговоры («мусор на входе»), чат-бот, скорее всего, будет делать антисемитские высказывания («мусор на выходе»).
Предвзятость в данных сложна. Некорректные данные также могут привести к смещению представления (рассматривается далее в этом руководстве), если группа недостаточно представлена в обучающих данных. Например, при обучении системы распознавания лиц, если обучающие данные содержат в основном людей с более светлым оттенком кожи, она не будет работать хорошо для пользователей с более темным оттенком кожи.
>>2149889 >И кому же надо в этом говне копаться? Все тем же врачам? А кто будет отвечать за неправильно поставленный ЭС диагноз иткак следствие - неправильное лечение? Пушкин? Пиздец, нейродаун, сам то понял что написал
>>2150139 >Например, при обучении системы распознавания лиц, если обучающие данные содержат в основном людей с более светлым оттенком кожи, она не будет работать хорошо для пользователей с более темным оттенком кожи. Что за дегенерат это писал? Сейчас все системы светят в тебя лазерами и создают 3 карту ебальника, если телефон можно открыть фоткой человека - то это говно и хуйня, а не система распознавания по лицу. 3д карта ебала вообще не имеет никакого инпута для цвета, ниггер будет палиться своими губищами мерзкими, жиды носярами, желтоеблые отсутствием глаз, а не своими мерзкими каловыми цветами
>Например, если вы обучаете чат-бота, используя набор данных, содержащий антисемитские онлайн-разговоры («мусор на входе»), чат-бот, скорее всего, будет делать антисемитские высказывания («мусор на выходе»). А это смешно, ведь 1% людей действительно говорит со всей этой толерантной хуйней в уме, ирл все готовы вырезать гениталии ржавым рубанком у любого кто просто не там где надо стоит или как-то нелепо шепелявит, я уж молчу про генетическую неполноценность. Американцы до сих пор не могут определиться Jew это ругательство или нет, пока что используют Jewish person, как относится к тому что все латиносы негров(ага мы тоже) называют Нигро(черный), а если я внезапно захочу тренировать нейронку для чехов/поляков, то как мне избавиться от того что в чешском и польском официально неоскорбительное название еврея - Žid (не сложно догадаться как это читается)?
Вы сначала разберитесь со всем этим говном, ну чтобы моча съела говно и вы пришли к одному решению насчет языка, 87 гендеров в нем, запретите ниггерам называть друг друга нигга, евреям в открытую говорить что они стремятся изничтожить белых и все остальное, а потом уже лезьте в структурированную и научную область машинной логики, ебаные разноцветные мешки поноса
>>2149810 >>2149805 >>2149825 >>2149828 >>2149840 >>2149877 >>2149889 На самом деле большинство врачей действительно можно заменить даже не ml а rule-based системкой какой-нибудь, но это потому что большинство врачей по rule-based и работают: проверить пару-тройку параметров -> погуглить (по табличке в собственной памяти, если старой школы) -> выдать ответ. Это не работает для сложной медицины, где нужно по рентгенам или кт-мрт диаграммам что-то предсказывать, но там и с dl очень сложно всё, битерлессон не работает, без интерпретируемости никак, ещё и данные хуёвые.
>>2149885 Когда говорят что модель чёрный ящик имеется ввиду что из неё нельзя извлечь информацию в понятном и обозримом человеку (и соответсвенно бизнесу) виде, а значит нельзя дать гарантии в каких случаях она может или не может ошибиться а значит и оценить матожидание стоимости этой ошибки. То что всё это в принципе композиция простых функций дела не меняет; всё что существует вообще это композиция простых вещей.
>>2150130 >>2150131 >>2150110 >>2149983 > шёл 2021 год, порвачки всё так же кринжёво юморят на тему из компиляций с амерским сжвшным калом 2014-15 годов Знатно вам жопы подорвало, лол
>>2150438 > Когда говорят что модель чёрный ящик имеется ввиду что Говорящий не понимает, что кукарекает. > из неё нельзя извлечь информацию в понятном и обозримом человеку (и соответсвенно бизнесу) виде, а значит нельзя дать гарантии в каких случаях она может или не может ошибиться а значит и оценить матожидание стоимости этой ошибки. Можно.
>>2149547 >Что читать по graph ml на английском? >вы ебанулись? Какой нахуй русский? Ты точно читал мой пост, или предварительно прогнал его через гуглопереводчик туда-сюда? За канал спасиб.
>>2150684 Большой бизнесмен закукарекал. Натряс тебе баребухов в ротешник. Гугл по-твоему недостаточно большой бизнес? Что же они ЭС не используют, школие?
>>2150676 Beam search тут не при чём, в мл есть на самом деле мешок трюков как интерпретировать разные модели но работают они не везде и не всегда. И просто по самой природе стохастического обучения гарантий там быть не может, можно только оценивать вероятности факапа на каком-то зафиксированном наборе данных что a) Ничего не говорит про то что случится в конкретном единичном случае (и это может быть проблемой если достаточно одного случая чтобы например проебать 99% портфеля или угробить сотни людей) b) В реальности у тебя на самом деле всегда временной ряд из постоянно поступающих новых данных, так что метрики на отложенном датасете из прошлого теряют релевантность, нужно постоянно переобучать
Сука, как же у меня горит. Начал проходить вшэшный курс по машобу, посмотрел теорию по kNN. В теории все понятно, начинается практическая часть и я просто в ахуе. На видео чел разбирает как решать какую-то задачу, импортируя 100500 рандомных методов и используя их с рандомными 100500 параметрами. Потом практическое задание - и там шаг влево, шаг вправо, и не знаешь что делать блядь. Требуют еще что-то импортировать, использовать другие функции не объясняя что и зачем. У меня чувство, что это как будто пазл на 10000 деталей и чтобы решить задачу нужно найти и заюзать 10 конкретных из них, а каких - сиди и гадай, и хз откуда мне это знать. При этом считал себя не совсем тупым, задачки алгоритмические решал, по матану тоже немного шарю, а тут таким дауничем себя почувствовал. Эти методы что, заучивать надо как стихи?
>>2151620 >У меня чувство, что это как будто пазл на 10000 деталей и чтобы решить задачу нужно найти и заюзать 10 конкретных из них, а каких - сиди и гадай, и хз откуда мне это знать
Именно эту задачу решает Orange. Он сокращает количество неправильных вариантов путем предоставления стрелочек. Из кубиков и стрелочек сложно составить неправильную последовательность.
А ты поди еще курсеровский курс смотришь, который на Octave? Ну и земля тебе стекловатой.
>>2151620 Странный ты, фактически практическая часть это полная хуйня если ты знаешь теорию, поэтому для продвинутых чувачков не существует по большей части таких нубских дилемм типа питон или джулия(или вообще плюсы), тенсорфлоу или пайторч. Тебе нужно выполнить кластеризацию какую-нибудь, ты гуглишь алгоритмы под свою задачу, гуглишь либы где реализовано лучше, применяешь.
Конкретно если тебе не понятно как рассказано в этом курсе - найди другой, открой книжку любую где есть классические алгоритмы, открой каггл и посмотри ноутбуки с хорошими оценками(оно оформлены хорошо). Если ты про гиперпараметры для алгоритмов, то это выглядит примерно так гугл - самые важные параметры для x алгоритма, читаешь статейки, делаешь param = {'param1: 10, 'param2': 20} делаешь свою model = KNeighborsClassifier(params), смотришь что получилось, если не устраивает - делаешь рандомсерч или гридсерч Обычно так подогнано что большинство задач, особенно учебных на синтетических датасетах на дефолтных параметрах дают фактически топовый результат, если у тебя просто без указания параметров какая-нибудь ошибка будет 0.89, с лютым дрочем гридсерча на ночь ты выдавишь 0.85. На деле ты проверяешь все алгоритмы какие знаешь на пригодность, какой дает лучший результат - тот и дрочишь. Обычно сейчас все задачи для обучения, каггла и в курсах лучше всего показывают бустинг либы - лгбт-буст, кот-буст, хлопчато-бумажный-буст
>>2151833 Долбень ты ебомый, как может быть чёрным ящиком то, что сознательно написано человеком? Если ты не понимаешь, как это работает потому что у тебя мозгов нет, не значит, что никто не понимает. ЭС не работают, кстати. Иначе это говно использовали бы все и везде.
>>2151620 >задачки алгоритмические решал, по матану тоже немного шарю Дай угадаю, ты полез в машоб, не имея никаких навыков в программировании кроме задач уровня лаба1 и не зная как сам питон, так и необходимые библиотеки?
Машоб мало чем отличается от других сфер айти. Нужно прежде всего знать язык, на котором пишешь, и необходимые библиотеки/фреймворки. Матан и теория на ранних этапах нахуй не нужны. Конкретно тебе нужно составить список всех используемых библиотек и хотя бы поверхностно ознакомиться с каждой из них.
Нам в вузе собрались давать OpenCV насколько это заебно будет? (в вузе все преподы дрочат на с++) И еще надо будет как-то сделать проект для распознавания чего-нибудь, я правильно понимаю что это легче всего на питоне сделать будет? 1 лаба кстати, если кому интересно https://disk.yandex.ru/i/y9zj9okrTYHTJA
>>2151919 Какое же говно Назвали бы лабу разработка гуев с плюсах для рисования квадратиков, скриншотов и немного кастрированного пэинта. Ну наверное это нужно пекафейс ведь много приложений для cv работают в квадратных окнах в стиле 95й винды Тебе все равно запретят делать в питоне в итоге, так то мог бы взять учебный проект в тенсорфлоу на эффишент-нете, который CNN'кой определяет тип еды по фотке и есть код для strimlit'а, превращающий это в полноценное веб приложение, или есть нормальные библиотеки чтобы сделать это ведройд приложением(с ios сложнее из-за политики эпол). Или можно посредством бота в телеге тоже. Но это не опенсиви, это не плюсы, это не десктоп, и требований у тебя будет специфических слишком много чтобы просто спиздить проект любой учебный
>>2149640 >>2149659 >>2149716 >>2149805 >>2149810 >>2149825 >>2149828 >>2149840 >>2149877 >>2149889 >>2150288 >>2150436 >>2149674 Парни, уймитесь, ЭС - это не технология, это хотелка. В 70-е люди захотели, чтобы комплюктер делал какие-то далеко идущие выводы и заменял специалиста (или, как минимум, помогал ему). Ничего лучше использования баз знаний и if-then правил на тот момент не придумали. Потом появились всякие decision trees, потом всякие леса из этих деревьев, мягкая логика, чтобы можно было выбирать конечное решение уже на основе подгоняемых весов, нейронки - как развитие идеи подгонки весов, где уже всё решение строится только на подборе весов.
И эти решения не плохие и не хорошие. Они просто обладают разными характеристиками.
Например, Пролог ищет цепочку вывода на базе указанных правил. Его выхлоп полностью интерпретируемый, можно даже посмотреть какие правила в каком порядке применялись. И совершенно очевидно, где он соснёт, ведь это просто обход дерева с бэктрекингом, а как бы листва дерева растёт экспоненциально от его глубины.
Всякие пруверы, вроде Агды, Петуха или чего-то, построенного на конструктивной теории типов - это еще хуже. Они даже не ищут решение, они заставляют программиста доказать корректность решения вручную. Причем, именно в рамках их продукционной системы, которая обычно куда жощще даже обычной логики (там обычно используется подструктурная логика). Именно отсюда, кстати, растут ноги холивара статически и динамически типизированных языков. Динамикаёбы говорят, что они не хотят ебаться с тайпчекером, мол я и так знаю, что моя программа правильная, а то, что в вашей логике недостаточно структуры, то это проблема вашей логики, которая мне только мешает писать программы. А статикаёбы говорят, что хуй знает, что ты там себе написал, а моя программа тайпчекнулась, значит у меня есть гарантированный и автоматически верифицируемый результат.
Дальше еще интереснее. В том же Петухе есть солверы (да и в Хаскеле они есть, когда подключается более сложная система типов), и эти солверы делают что-то вроде Пролога - ищут доказательство решения. Но уже не полным перебором, а согласно какому-то хитроумному алгоритму. Даже батлы солверов есть, где им предлагается доказать теорему. Но и они проябываются, поэтому у промышленных солверов есть стратегии, посредством которых можно направлять поиск решения.
И тут, на самом деле, не битва, а просто разные подходы. С одной стороны, максимальная формализация и максимальная прозрачность, где каждый пук алгоритма доказан. Но, в экстремуме, такой вывод эквивалентен полному перебору и алгоритмизации всех вариантов (что невозможно для любой реальной задачи хотя бы по теореме о неполноте). А в другом крайнем варианте - абсолютно черный ящик, где мы не можем даже примерно предположить, с хуёв ли статистическая модель (я буду называть нейросетки статистическими моделями, чтобы не обожествлять их) выдала такой-то результат и можно ли ему верить.
Но хотелка к этим системам одна. Нам хочется, чтобы они говорили в основном полезное и не говорили много ерунды. Нам похуй, получен ли результат полным перебором и или неверифицируемым алгоритмом, главное, чтобы результат был полезен. И вот нужно ли тут воевать? Что вообще мешает скрестить технологии? Допустим, нам нужен верифицируемый вывод. Мы берем Wikidata и просто ходим по графу. Но граф вывода очень большой, мы точно не сможем его обойти. Поэтому мы тренируем нейронку, которая бы просто подсказывала наиболее интересные пути. И еще мы не можем верить всем рёбрам в графе, ведь там наверняка есть ошибки. Почему бы не использовать нейронку, которая будет оценивать степень их достоверности и отдавать предпочтения тем рёбрам, которые, скорее, наиболее верны? В итоге можно получить высокую прозрачность, сослаться на любое правило выбора, мол вот оно, было получено из такого-то источника. Но и использовать преимущества статистических моделей. Мол, почему вы решили пойти по такому пути? А хуй знает, они работают, я дошел до результата, возможно, есть более короткий путь, но ведь и этот не плох.
>>2149983 Привет, иксперт. Ты и правда иксперт, или хуй с горы? У меня есть вопрос на подумать. Недавно нейросетка фейсбука классифицировала каких-то негров как "приматов", ты, наверное, слышал.
С одной стороны, в этом нет ничего странного. Мы ведь все приматы, а, точнее, гоминиды. Но негры триггернулись.
А теперь, внимание за пальцами. Во всех банках используются скоринговые системы. Суть этих систем предельно проста - они занимаются дискриминацией людей. Они определяют, что этот - хороший, ему можно давать кредит, а этот - плохой, ему нельзя. Т.е. все скоринговые системы - фашисткие просто по своему дизайну, у них это в техзадании прописано.
Что с этим будут делать специалисты по этике, чтобы мы не дискриминировали кого-то там? Вы нам запретите использовать расу и цвет кожи в начальных фичах? Но это не сработает. Даже если мы исключим расу, очевидно, модель легко опознает, что человек относится к неграм по производным фичам. И если неграм не свойственно возвращать кредиты, достаточно глубокая нейронная сеть этому обучится и будет легко выделять негров в каких-то своих глубоких слоях, и не мы вам не сможем предоставить обоснование, что наша нейросеть не страдает расизмом, ни вы нам не сможете выдвинуть обоснованные обвинения. Как это будет разруливаться?
>>2151987 Должны быть исключительно экономические/финансовые фичи в модели. Ценовую категорию личного автомобиля можно, а его модель и цвет - нельзя. Тогда упрекнуть будет не в чем. Если даже там кто-то найдет нейрон негра, всегда можно будет подобрать беляша, который его тоже активирует. И сказать, что это не нейрон негра, а нейрон особой финансовой ситуации, в которой негры оказываются чаще. А последнее ни для кого не секрет - более того, отрицать социоэкономическое расовое неравенство это харам. Так что разработчик модели будет в домике.
>>2151987 Тут все проще на самом деле. Уже сейчас согласно повесточке, IQ это расоцентрический тест и подходит только для белых. К другим его применять неправильно. Так и тут, кредитный скоринг точно так же можно объявить как что-то созданное белыми для белых, в контексте конкретной культуры, а для других культур объявить его нерелевантным. Я даже думаю, что рано или поздно что-то подобное на западе придется применять и к законодательству.
>>2151982 Я впринципе так и ожидал что говно учитывая что по бд у нас лабы 2008 года, но надеялся мб тут хотя бы что-то норм будет, видимо зря. Ну на питоне вроде препод разрешил пилить, но скорее всего декстоп нужен будет да. Мне бы что-то попроще но с распознаванием
>>2152015 >IQ IQ — хуита и наебизнес без всяких повесточек. >созданное белыми для белых, в контексте конкретной культуры В контексте конкретных экономик есть жёлтые, чёрные, голубые, разве что ультрафиолетовых пока нет. Ты предлагаешь банкам и страховым отказаться от куска разноцветного пирога, который у них уже есть.
>>2151994 Много заработал? Ты ведь эксперт в эс, я правильно понимаю? Значит у тебя есть один либо ты какой то используешь, ведь б-жественные эски идеально предсказывают колебания рынка и лишь идиот откажется от легчайших деняг. Так назови любого конкретного бота либо скажи сколько твой тебе приносит, мне правда интересно, может перекачусь с нейронок на эски и буду 30000кк/наносек трейдером.
>>2152253 >А вот причем тут ЭС? А чем тебе алгоритмическая торговля не ЭС? ЭС можно на любом языке написать, или у вас там для нейроговна свой специальный труйоба язык?
>>2152252 Все же как по мне это не отличается от простого кода. То есть суть эс в том что их возможности такие же как и у простого кода с if then else? Или есть более конкретные примеры ботов на чистых эс?
>>2152263 Тех что нельзя заменить простым if else и с эффективностью выше нейронок. Или любая программа с хоть одним if уже по определению эс? нейронки к слову получается тоже?
>>2152274 Понял принял. Следующий перекот предлагаю сделать с заголовком "нейронок а эс тред". Но если нейронки тоже эс, то в чем твой бугурт? Ну то есть, тут боготворят эс, обсуждают эс, а ты который тред подряд орешь что ваши эс говно ведь они хуже эс.
>>2152280 Не каждый алгоритм - эксперт, не? У эксперта есть много данных, он их все обрабатывает и выдает заключение основанное на них и на собственном опыте. У алгоритмов кроме датасенса нет биг даты, а так же нет опыта кроме того же датасенса и машоба.
>>2152296 > У эксперта есть много данных, он их все обрабатывает и выдает заключение основанное на них и на собственном опыте Эксперт действует в рамках определенного алгоритма который он выработал своим опытом или перенял у других, никакой разницы от определения алгоритма. >>2152292 >Но если нейронки тоже эс В какой то степени, убрать из них рендом и будут полноценные.
>>2152343 >конкретный алгоритм с конкретными коэффициентами операций над матрицами. Ну я и говорю, ящик потрясли, че то там уложилось, че то нет вот и все. Никакого отношения к алгоритмам и логике оно не имеет
А если точнее, весь машоб это разновидности ЕМ-алгоритма. Даже генетические алгоритмы это никакой не рандом, у кого есть мозги, могут нагуглить теорему схем Холланда. Короче, ЭС петух просто малолетний долбаеб, ничего не понимающий ни в машобе, ни даже в ЭС.
Вкатился в Kaggle. Охеренная вещь. Опишу свой опыт: сначала прочёл онлайн-книгу Майкла Нильсена, Neural Networks and Deep Learning; поскольку окончил мехмат, проблем с чтением и разбором примеров кода и основных алгоритмов (backprop/etc) не было. Пообучал нейросеть на MNIST на облаке Kaggle, пообучал эту же самую нейросеть на своей пека с i5 и виндой 10. На облаке Kaggle обучение происходило примерно в 300 раз быстрее, чем на моей пека. Решил полностью работать на Kaggle. Также отмечу их техподдержку (support). В течение этого времени не по моей вине возникла серьезная нестандартная ситуация в результате которой мне заблочили аккаунт, но довольно быстро и вежливо с извинениями эту проблему решили.
>>2152350 > Никакого отношения к алгоритмам и логике оно не имеет > λογική — «наука о правильном мышлении», «способность к рассуждению» от др. -греч. λόγος — «логос», «рассуждение», «мысль», «разум», «смысл») — нормативная наука о законах, формах и приёмах интеллектуальной деятельности. Так алгоритмы то тоже никакого отношения к логике не имеют, удивительно, правда?
Но нейросети - однозначно алгоритмы. Во время обучения на матрице модели ищутся пути (значения параметров) при которых потери минимальны, при чем ищутся сильно усложненным градиентным спуском. Этот самый поиск и есть алгоритм, который по сути чистокровный эс. Затем выполнение - по алгоритму описанному в коде выполнения на вход модели дают что то и ищутся пути с наибольшей оценкой при котором ожидается выход с теми же потерями что и во время обучения. А проходит сигнал эти пути как раз таки сложным if else ветвлением. И обучение модели и выполнение можно сделать и на бумажке с ручкой, к тому же по оценке генерации (как например у clip) можно понять принцип тех или иных параметров или причину вывода. Например та же история с негром приматом. Нейронке скармливали картинки обезьян - обезьяны темные, черты лиц как у приматов, скармливали белых людей - подпись люди, белая кожа и европеоидная форма лица, скармливали негров - подпись нер, темная кожа, черты близкие к приматам. Видим что совпадает 2 признака, вот и причина, которую можно пофиксить увеличением выборки или чисткой датасета вилкой. Если нужно найти параметры что за это отвечают - перебором отключаем участки и смотрим. Все просто.
Итого у нас: эс находит коэффициенты конструкции эс которую потом использует эс для задач где теоретически по твоим словамэс. Но судя по всему, конструкция из нескольких эс разного уровня эффективнее из одной простой эс и поэтому популярнее. Нейронки - финальная стадия развития эс. Или у тебя есть другое объяснение почему эс не так популярны как многоуровневые эс.
>>2152716 >Или у тебя есть другое объяснение почему эс не так популярны как многоуровневые эс. Там где нужно принятие решений, а на кону стоят деньги и ништяки нейронок нет, а всякое развлекательное говно типа детектирование обезьян всего за 600 минут это для пориджей
>>2152732 > Там где нужно принятие решений, а на кону стоят деньги и ништяки Ради справедливости, во первых они есть, те же боты для трейдинга на нейронках. А во вторых их эффективность сравнима с теми что на примитивных видах эс о которых ты говоришь. В любом случае без тщательной проверки человеком ни то ни то не допустят до конечного пользования, а так же и то и то может сокращать времязатраты в разы. Но сложные эс (нейронки) выполняются быстрее ведь > детектирование обезьян всего за 600 минут Длится миллисекунды даже на древней видеокарте. 600 минут это очередь на онлайн сервис либо генерация для черрипикинга который выполняет еще одна нейронка поверх.
Но мы ведь про принятие решений, и там время выполнения чуть ли не моментальное при точности выше чем у примитивных эс, а значит в штате больших дядей нужно на одну макаку для проверки меньше. На этот счет даже была статья яндекса, где они так сократили отдел тех поддержки нейронкой.
>>2152801 >во первых они есть, те же боты для трейдинга на нейронках Только в твоих фантазиях, ну или каких то пориджей может и есть, они один хер на хаях закупаются.
>>2153069 Если ты все еще не заметил, на хаях закупаются 90% манятрейдеров. К тому же они не для закупания а предсказания колебания цены которое в разы полезнее чем совет купить по совету черного ящика. И к слову про черный ящик - 99% людей не влезают ни во дальше поверхности, и даже те кто использует боты на примитивных эс считают эти эс черным ящиком, так что им нет разницы сложная эс или примитивная. >>2153070 Могу притащить любую, та что принимает решение котик на картинке или собака сойдет? Выше и точность и скорость чем у примитивных эс. Ах да, уже для задачи такой сложности нужна сложная эс а не примитивная.
>>2153315 > Выдавалку кредитов, Тут нет фиксированных правил от которых не рвутся. Как только они будут выработаны, проработают год и создадут много данных, так сразу и будет. Сейчас тоже можно создать но она будет давать кредиты только белым. > торгового бота, Уже есть. Первая пятая ссылка в гуголе - https://polygant.net/ru/ai/iskusstvennyj-intellekt-v-treydinge/#11 > медицинскую/ Существуют. Пока не цельные, но все идет к этому. Например ранняя диагностика рака и аутизма, остальные точно не помню. Это намного эффективнее примитивных эс ведь пути сложных эс пишут из составные части что намного быстрее чем прописывание путей людьми. Ну и первая ссылка в гугле https://celsus.ai/blog/kak-rabotaet-mediczinskaya-nejroset/ > автомобильную диагностику. Для них сложные эс слишком сложные, это попросту нецелесообразно. Ничего не мешает научить нейронку диагностике автомобиля, но для этого есть простые эс. Зачем тебе космический корабль чтобы проехать 200 метров когда рядом есть велосипед?
>>2153331 >Уже есть. Первая пятая ссылка в гуголе >Штудируя заголовки статей, новостей, постов в социальных сетях, блогах и других тематических источниках, ИИ может прогнозировать движение цен на акции и возможные действия других трейдеров. Трейlинг уррвня /b >Ничего не мешает научить нейронку диагностике автомобиля, но для этого есть простые эс. Проорал
Короче нейронки слишком крутые для практического применения, поэтому вот вам котики. Пиздец
>>2153425 > Трейlинг уррвня /b > маск пукает в твиторе и ноунейм крипта летит ту зе мун > власти китов запрещают биток и он летит вниз Чем больше данных тем выше точность, в этом суть биг даты и дата сенса. Да и в целом все трейдеры кто на этом зарабатывает учитывают не только сам график, но и то что происходит в мире.
> Проорал > Короче нейронки слишком крутые для практического применения, поэтому вот вам котики. Пиздец Говорю же. Для простых вещей тебе не нужны сложные инструменты, их можно присобачить, но это будет попросту не выгодно. Для этого есть экономичные альтернативы - примитивные эс, или чтобы не путаться и не повторяться, пэс. А для сложных, то есть тех где путей скажем больше 100, заполнение путей людьми будет уже попросту слишком долгим и ненадежным из за человеческого фактора а так же будет стоить примерно столько же сколько и относительно быстрое компьютерное обучение где в роли эксперта алгоритм.
>>2153501 >Чем больше данных тем выше точность Враки, следующие данные иогут твою точность понизить на изичах. >где в роли эксперта алгоритм. Какой может быть алгоритм в нейронках? Нейронки созданы для потехи и нигде промышленно не используются и не могут, это тупик.
>>2153836 Вот это прям очень правильное направление мысли. При достаточно большом комьюнити без разрешения барина и цензурки от цукербринов можно и гпт3 гонять и даже тот непомнючеготамформер который 1600В параметров. Надеюсь, если не конкретно этот проект, то что-то похожее до ума доведут.
>>2153837 > Враки, следующие данные иогут твою точность понизить на изичах. Они могут понизить точность в метрике, немного дообучаешь на новых и точность восстанавливается. В случае примитивных эс тебе нужно нанять эксперта и подождать пару недель пока он своим экспертным мнением используя экспертный опыт экспертно заполнит экспертные пути примитивной экспертной системы. > Какой может быть алгоритм в нейронках? Пчел, я ведь уже написал. Сложные эс устроены так что один алгоритм эс заполняет пути во втором (модель), а затем третий алгоритм эс выполняет второй. У тебя вся модель - буквально двухмерная ладно, не совсем двухмерная но тем не менее карта путей. Получает на вход активацию определенных путей, ведет по ним к выходу через дохуялион развилок, считай if else но в виде float от 0 до 1. > Нейронки созданы для потехи и нигде промышленно не используются и не могут, это тупик. Абсолютно все крупные корпорации используют нейронки. Бля, да даже если вспомнить сразу в голову летит та нейронка яндекса которой они экономят на кожанных мешках, гугл с рекомендациями в сервисах и переводом снимков со спутника в карту, лучи с апскейлом в карточках нвидки и дохера чего еще.
Аноны, знающие R и Python, в каких случаях / задачах вы предпочитаете использовать именно R вместо Python? Сейчас вынужденно учу R чтобы ковыряться в легаси на новом месте, пока не вижу каких-то возможностей, которых бы не было в питоне, но мб есть что-то, когда и мне бы захотелось пустить в ход именно R, мб я что-то упускал до сих пор.
>>2154040 Видимо этот >>2153870 все же прав. Какие же зумеры дегенераты, пиздец просто, еще приплети теорию заговора и скажи что итт сидишь с шапочкой из фольги.
>>2154042 >еще приплети теорию заговора и скажи что итт сидишь с шапочкой из фольги Рекомендую не тратить время на тупиковую хуйню, а изучить программирование и хотя бы ЖС, а то будете все время на мамкиной шеи сидеть, трясунишки.
>>2154418 300к/наносек жаба скрипт эксперт экспертных систем из третьей палаты, ты? Медсестра, увеличьте дозу и принесите еще памперсов, этот поциент снова срет под себя.
>>2154433 >жаба скрипт эксперт экспертных систем Спешите видеть, трясунец воюет с соломенными чучелами, не слезая с мамкиного дивана. Тем временем настоящие программисты спокойно зарабатывают эти самые 300К - обычный рейт сениор девелопера (недоступный дата-макаке, разумеется)
>>2154442 При том что я настоящий программист, а именно JS разработчик. И я решаю реальные задачи за реальные деньги, а не кукурекаю, что же круче, попыт или симпл-димпл нейронки или ЭС
>>2153995 Визуализация, EDA — однозначно R, пандасоинвалиды соснули ноудискасс. Если нужно катить в кудахшен — тут уже ничего не поделаешь и придется писать на питоне.
>>2154450 По факту ты себе в штаны сиранул. >твой пик1 За первую треть 2020 вакансий датасатанистов было чуть больше, чем треть от предыдущего года, 352 > 320. Вакансий ML спецов было чуть меньше, 200 < 240. >твой пик2 Чиселки с первой пикчи неплохие даже без учёта спада из-за антиковидных мер, который мы видим на втором пике и которые коснулись всех областей. Увы, hh не даёт вычленить конкретные специальности и зафиксировались на СРб, но мой пик2 позволяет предположить, что с вакансиями фитпредиктов всё хорошо. Сами hh пишут: >Число ИТ-вакансий в России в апреле — мае выросло на 39% по сравнению с аналогичным периодом прошлого года, а также на 23% по сравнению с январем — февралем 2021-го.
Кстати, ребята из одс недавно делали исследование по вакансиям, которые постят у них (пик3, пик4): работодатели всё активней и активней ищут професиональных вакансий на джунов без опыта и стажёров в одс почти нет трясунов чёрных ящиков.
Так что уноси эту хуёво оформленную жс-макака не смогла расшифровать, что изображено на картинке ~ а ведь такие олигофрены входят в ЦА курсов, так что с оформителем инфографики нужно провести разъяснительную работу рекламку курсов. покормил
>>2154552 > ребята из одс недавно делали исследование по вакансиям > работодатели всё активней и активней ищут мидлов за 140 и помидоров за 230, ага (да, я тоже бываю там) датаманька никогда не приблизится по уровню дохода к настоящему разработчику
>>2153868 Требуется линукс, либо докер на макось или всл(винда 10+) на винду, аноны все поголовно сидят на червивых семерах и не смогут поставить тот же всл по гайду. И я уж молчу если там надо будет какие-то команды и ключи вводить для доступа к твоему железу. И я почти уверен что там будет порог раскочегаривания, когда карточка с 2 гб какая-нибудь древняя просто не будет стоить для алгоритма достаточно чтобы ее использовать, а аноны в-основном сидят на днище уровня 680-780х карт
>>2154552 >Кстати, ребята из одс недавно делали исследование по вакансиям, которые постят у них (пик3, пик4): работодатели всё активней и активней ищут професиональных вакансий на джунов без опыта и стажёров в одс почти нет трясунов чёрных ящиков. Вангую что жидко обсираются, тому же русскому сеньору который по американским или британским стандартам мидл выгоднее все таки съебать на 50-60 в европу или 80 сша, чем устраиваться тут в тухлобанк. А обучать они готовы брать только элитных претендентов, олимпиадки, физтех/мгу, заинтересованность, свои проекты. Интересно что бы могло удержать такого рода людей в рашке дальше года-двух работы в тухлобанке?
>>2154603 >мидл выгоднее все таки съебать на 50-60 в европу или 80 сша
Синиор жопаскрип-девелопер, просыпайся. Ввязываться в авантюру с переездом ради таких копеек можно если ты джун. Помидоры уже получают больше в рф. К тому же пыня подкупает плоско-регрессивной шкалой и копеечным кост о ливингом.
>>2154683 Всё так, зашёл к зазнавшимся не по чину дата сосателям напомнить их настоящее место. По хорошему вас надо вообще пидорнуть из /pr, вы даже не программисты
То есть, ЭС петух это: - Зумер - Калмунист - Эфирщик - Плоскоземельщик - Свидетель всякой хуеты типа "сознание не в мозге", "ЭС лучше трансформеров, но их не используют потому это это приказ Израиля", "нейросети это не алгоритмы" итд. - Не может даже в арифметику, считая любую математику тоже то ли каким-то сортом приказа Израиля, то ли наебалова. - Не может даже в петушиный жс. Разве это не пиздец, таким быть?
>>2154873 Обычный ватник. 90% это пердун 45+, а не зумер. Еще забыл антипрививочник, ковид-диссидент, чотамеще, свидетель газдолга и Йеллоустоуна, гомофоб и гомосексуалист, при любом упоминании негров испытывает эпилептический припадок, Маск и Байден это его личные смертные враги. Описывать архетип можно долго, и все будет в точку - они как клоны, все их мысли написаны в лахте и ее предшественниках. Они все мыслят абсолютно одинаково. Жуткое зрелище, если вдуматься.
Вот тебе полный форум таких: http://rsdn.org/ . Вангую этот тоже оттуда.
Хуй знает, курица знакомая устроилась в НГУ в машинное обучение местное и она лично в соляного заебашила систему для врачей, чтобы по снимкам мрт с вероятностью 99% выявлять опухли мозга. Вроде полезная же хуйня? Почему машоб бесполезен, если всюду такие разработки идут, судя по рассказам этой же разработницы.
>>2154890 > систему для врачей, чтобы по снимкам мрт с вероятностью 99% выявлять опухли мозга. Вроде полезная же хуйня? Всё равно такие диагнозы должен верифицировать специалист. Автоматизировать имеет смысл только массовый скрининг, чтобы не вышло как в случае с одним мужиком, который помер от рака лёгких, а потом оказалось, что у него за несколько лет до смерти на флюорографических снимках уже были все признаки, просто их никто не заметил, потому что специально не искали. Это только ЭС петух верует, что ЭС может полностью заменить врачей на самом деле нейроночки заменят анальников, уж жс мартышек-то точно, от чего ему и печет с нейросетей.
>>2154895 > Автоматизировать имеет смысл только массовый скрининг, чтобы не вышло как в случае с одним мужиком, который помер Не имеет, завалит ложными срабатываниями.
Господа, реквестирую совет мудрецов- хочу сделать себе небольшого ассистента, которого можно будет обучать на ходу простым командам, типа "выбери обьект_нейм" или "создай новую папку" Что-то типа такого: https://youtu.be/73ZTnPsO-m0 Но только для работы в пределах ОС и нескольких других программ.
Начал изучать МО, читаю книжку, сейчас вот пробую что-то делать в TensorFlow, чтобы понять, что вообще происходит и как этим управлять. Но пришло понимание, что напрямую делать обработку "голос в текст" не получится с помощью нейронки- слишком сложно и слишком много примеров нужно для обучения. Это так? Думаю, если что можно использовать какой-нибудь сторонний сервис для перевода голоса в текст, и уже этот текст передавать на нейронку. Норм план? Или фигню придумал?
Алсо, может быть уже где-то есть примеры с ассистентами для работы за ПК а я велосипед изобретаю?
>>2155001 >Думаю, если что можно использовать какой-нибудь сторонний сервис для перевода голоса в текст Тебе очень надо башку ебать или просто запустить это добро? Ты можешь сделать бота для телеги за 10 минут, использовать уже выдроченную функцию телефона по переводу голоса в текст, потом бот уже запускает твои скрипты с функциями что тебе нужны, это решение прям мгновенное. Если же хочешь свой монолитный сервис https://deepspeech.readthedocs.io/en/r0.9/?badge=latest посмотри как это под тебя будет работать https://cloud.google.com/speech-to-text/docs/transcription-model#speech_transcribe_model_selection-python или гугл(я тыкнул в питоновское решение, но там есть все языки, мало ли), там есть и по аудиофайлам если ты захочешь не в реальном времени, а записал - отправил - запустил процесс Как бы золотое правило, если ты просто хочешь сервис для чего-то - возьми уже тренированную стейт-оф-арт модель которая дает высокие точности по всем классам и вообще метрикам, 100% есть всегда модель под твои нужды, наверняка кто-то написал предсказатель погоды по пятнам говна на штанах
>>2154890 >курица знакомая устроилась Ещё бы не устроилась с пуссипаспортом >и она лично в соляного заебашила ага конечно > систему для врачей, чтобы по снимкам мрт СУУУУКАААА да как уже заебали этими снимками МРТ это блядь мувисерчер от ML
>>2155039 Спасибо больше за ответ! Попробую собрать из готового тогда, может быть получится чего. Вообще машоб очень интересно, но пока ничего толком непонятно.
аноничи, ку. поясните затупу 10 лвл по школе/15 ирл за backprop. только пж не как везде а.к.а. чтобы не было нужно 1488 высших образований не спрашивайте на кой хой 15 летнему школяру вообще нужен дл
>>2155543 Смотри, у тебя есть линейная регрессия обычная. Какие-то у тебя есть точки на графике, например килограммы картошки и количество солнечных дней в году. Линейная регрессия это линия по графику, прямая имеет формулу y=mx+b, возьми график и нарисуй несколько вариантов с разными m, b и икс, от этих параметров зависит как твоя линия направлена и откуда она начинается. Вот у тебя был год когда собрали подозрительно много урожая картошки, т.е. твоя начерченная через облако точек линия ПИЗДИТ, как посчитать ошибку, но не для одной, а для всех точек? Пикрелейтед, средняя квадратичная ошибка. Реальное значение Yi минус значение которое выдает твоя формула прямой - ошибка для одной точки, 1/n означает суммарную ошибку для всей системы, всех урожаев картошки одновременно, степень пиздливости твоей прямой. Когда ты тренируешь сеть(не важно что сейчас это алгоритм регрессии, это мог быть 1 перцептрон делающий тоже самое), она сверяется с валидацией и вносит изменения в веса твоих слоев. У тебя получается что если в году 100 теплых дней - должна быть тонна картошки, а картошки на самом деле 3 тонны, результат хуйня? Да, хуйня и алгоритм вносит изменение и "двигает" твою прямую чтобы она выдавала меньшую ошибку, она правит m и b чтобы результат становился лучше и проталкивает эти изменения с выходного слоя до входного. Размер поправок зависит от градиента, градиент это дифференциал этой формулы по m и второй по b, пикрелейтед 2, ты это врядли поймешь, но это такой математический способ записать как быстро(сильно) поменяется результат если менять в формуле одно значение. Новые веса(m и b) считаются как на третьем пикрелейтеде, L- лернинг рейт, константа которая определяет шаг градиентного спуска. Там свои особенности с ним, но ты это не спрашивал. Происходит проверка еще раз и когда ошибка уменьшается до нормальной какой-то устраивающей тебя(например 95%) считается что алгоритм/нейронка СОШЛАСЬ, КОНВЕРДЖНУЛАСЬ, оптимальные m и b для минимальной ошибки Е найдены, ты можешь предсказывать урожай картошки Чтобы ты не подумал что это бесполезно, представь что у тебя есть 10 графиков - теплые дни на кило, количество говна на кило, дожди на кило, тип почвы на кило, не знаю там высота над уровнем моря, ты не можешь своей дрочуней 3хмерной нарисовать гиперлинию многомерную, а машине поебать сколько там измерений, хоть 500 графиков, представь что они как веер исходят из одной точки(0 кило картошки и 0 дней, 0 навоза, 0 дождей) и каждый из них заполняется если мы смотрим сверху на этот веер, и машина "рисует" многомерную прямую через все эти графики в таком пространстве что она правдива для всех графиков одновременно и зависит уже от взаимосочетания разных параметров(например положили много говна, было много дождей, по идее хорошо должно быть, но на деле все сгнило). Я не знаю зачем я тебе многомерность объяснил, вообще сам не понимаю, но мало ли
Господа, студент нюфаня итт, я правильно понял, что курсера хуета ? Я ебаный час слушал наставления как круто быть датасатанистом и что для этого нужны сила мужество отвага, там че блять все курсы такие ебанутые? Или я чего-то не понимаю? Ещё вопрос - что скажете по поводу этой родмапы ? https://youtu.be/w-IdSp_mQuM Родмапа из шапки проверена или просто так захуярили?
>>2157175 Щас бы вкатываться в машинку не по ынгу.
Хотя я так представил, какая содомия щас творится на рыночке инфоцыганства и прослезился. Ты же ни за что не угадаешь кого из них выбрать. Бедные вкатыши.
>>2157175 Стэнфордские курсы заебись. Для первого знакомства сойдёт и ods. Если тебе нужен курс на русском то хули ты забыл в МЛ?, на степике было что-то вменяемое от самсунга и мфти. Как у тебя с высшей математикой и статистикой?
>>2157261 Какой одс, чел? Там обсуждают сколько Валера жмет от груди и разных вниманиепидоров. Как раз для первого знакомства нужно выбирать очень тщательно, и в одс наоборот лучше не заходить до поры до времени вообще никогда
>>2157262 Я имел в виду курс от них, там его пройти довольно быстро, представление получишь. А в слак можно зайти хотя бы за закрепами в релевентных каналах.
>>2157175 Книжки читай ебана. Курсы это компиляция из книги, 98% курсов это просто последовательное прохождение Хэндс-он Герона. Книжка УЖЕ имеет роадмапу внутри, и ты сам решаешь нужно ли тебе что-либо из этой книги или нет(например большинство книг растягивается и на темы nlp и cv, и генераторов, и даже часто деплоя во всех возможных формах. Я не понимаю почему вы так дрочите на эти компиляции, без ебала на экране сложнее понять две строчки кода с абзацем объяснения к ним? По крайней мере ты будешь знать ВЕСЬ спектр применений, на курсах если они не про это тебе не расскажут про снижение размерности, или не будут погружаться во все классические алгоритмы, или вообще не затронут unsupervised(а может именно это тебе больше понравится). В книжках хотя бы формулы часто есть, а то ведь курсо-составители знают что от любой формулы в машобе бОльшую часть зрителей начинает сразу тошнить. На курсах тебе скорее всего просто скажут везде ебошить Adam и не расскажут ничего толком про все остальные оптимайзеры и где они применяются. Курсера не хуита если ты будешь смотреть очень специфичный курс по очень новой срани, курс в отличие от книги постоянно обновляется и тебе банально не придется что-то делать в первом тенсорфлоу, или использовать какие-то супермерзкие старые либы для реинфорсмента
>>2156909 Но это и вправду программирование, а нейроночки - это околопрограммисткая хуйня, сидят какие-то додики, че-то пердят, нейроночки строят, никто их за программистов и не считает.
>>2157925 > объективных данных На основании мусора информационного средневековья. Объективные данные можно получить лишь при условии что эти данные вносит компьютер на основе собственных измерений объективной хуйни, вроде содержания мочи в кале. А собирать эти данные никто не будет, как с iq который теперь неграм низя измерять потому что это другое. А как говорится, мусор на входе = мусор на выходе.
>>2157213 >отсеивай такие кринж-курсы оки. Если что, это был курс от IBM >>2157261 >Если тебе нужен курс на русском необязательно, могу и на инглише смотреть >Как у тебя с высшей математикой и статистикой? линал-матан-диффуры-алгебра-комплан разве что теорвера и матстата не было, матстат вот сейчас на степике прохожу спасибо за ответ >>2157516 что из свежего можно почитать для вката новичку? Программировать умею, база вышмата есть
>>2155699 >а могла бы не сидеть у мамки на шее и вкатилась бы в ЖС Ты чего нахуй! ЖС - это ебаные макаки и дебилы, мне так на дваче сказали! С них же только смеяться! Они же несерьезным и простым делом занимаются нахуй. Ну да, по статистике они зарабатывают не сильно меньше, чем всякие нейронодрочеры и мл-инженеры, меньше изъебываются, но у них же нет бэйджика элитария! Мама подождет, я досматриваю второй стэнфордский курс, все, скоро буду, блять, незаменимым специалистом по нейроночкам, позиция рисерчера в Гугле мне уже припасена! Я блять не макака ЖСовская, я специалистом нахой серьезным буду!
>>2158021 > ЖС - это ебаные макаки и дебилы, Будто нет. Ты сам тому ярчайший пример. Ближайшее будущее веба это вебассембли, в который уже сейчас компилируется почти всё. А ты на старости лет будешь бибу сосать, потому что ни во что кроме жс (петушиный язык, который настолько не нужен, что заменяется простейшими приложениями без кода) не можешь, даже в ЭС.
>>2158058 Ну а я о чем говорю! Правильно! ЖС-макак заменит вебассембли, а всех остальных кодомакак заменит AI, мне так на дваче сказали! Только мы останемся, нас ведь никто не заменит! Я вот уже досматриваю второй стэнфордский курс, скоро буду уважаемым специалистом. Мам, ну, подожди, да, Ерохин зарабатывает, но он же макака, не элитарий, скоро вообще без работы останется, а мы тут с ребятами на мейлачах серьезным делом занимаемся, а не петушиными всякими макакскими говнами! Скоро стану неибацца специалистом, Гугл уже ждет! >не можешь, даже в ЭС Уважаемый, ЭС-боярин, я смотрю, вас хорошенько проткнул. Но перестаньте везде детектить своего протыкателя, это выглядит нелепо; не он один над вами тут смеется.
>>2158058 Какая разница, жс сам по себе это 2,5% от самой области веб-разработки. Есть зиллион трансляторов с любых языков, но как показывает практика, переход на более лучший язык это капля в море и особого буста не дает.
>>2158000 Я не левак и не коммигниль, ненавижу жидов и чурок с неграми, но это ничего не меняет. То, что большая часть данных в интернетах более чем субъективна, очевидно всем, а из субъективных данных объективного вывода сделать нельзя. Так что нужно либо чистить вилкой, при чем объективной, либо сразу брать объективные данные.
>>2158120 Чел, жс это не столько язык прогноммирования сколько собирательное обозначение челиков, которые не осилили матан за первый курс, плюнули и решили "буду фротендером".
>>2158125 > Так что нужно либо чистить вилкой, при чем объективной, либо сразу брать объективные данные. Если брать объективные данные, будет ещё хуже. Хотя бы количество совершаемых преступлений. Субъективно можно хотя бы сказать, что это расизм. Субъективно можно сказать, что айкью это тоже расизм, что математика это инструмент белого супремасизма итд, а вот объективно всё будет совсем плохо и неприглядно.
>>2158138 Покуда вы будете вот так же по-дилетантски пукать — вас будут бесконечно унижать этикопетухи и индустрия будет буксовать на поигрульках в го. Что собственно и наблюдаем.
>>2158138 Все так. Но на двух стульях не усидеть и если шизы возьмут субъективные данные то будет как всегда и на выходе расизм либо полное несоответствие реальности либо все сразу, возьмут объективные и там скорее всего будет расизм но более близкий к реальности выход. Но очевидно, шизы выберут первый стул и потратят на очередной гпт5 мильярд мильярдов и столько же на чистку датасета и будет как всегда.
>>2158133 Да так то и не нужен, пещер и факелов из говна на палках более чем достаточно. Электричество ваше вообще от этого самого как там его, дябола вашего, вот.
>>2158136 Правильно, это к ЖС-петухам! Это ведь не так, что матанализ практически не нужен большинству SWE. Они просто все макаки нахуй! Вот меня Иван Петрович в моем МухГУ научил, такая непосильная вещь макакам; предельчики, градиенты, интегралы, ряды - усе, ждите, уже на полпути разъебывания нейроночек, буду незаменимым профессионалом.
>>2158159 > разработчику Разработчику он нужен чтобы продумывать логику, контролировать память и ее утечки, просчитывать оптимальный параметры, производить операции с данными вроде тензоров (в том числе картинками в rgb), составлять архитектуру и то что у нее под капотом и для дохуялиона чего ещё. Но как я понял твой вопрос был другой, а именно > Нахуй макаке нужен этот ваш швитой матан, есть что сказать? Тогда да, он не нужен. Совсем.
>>2158160 >Разработчику он нужен чтобы продумывать логику И при чём здесь матан? >контролировать память и ее утечки Какие блядь утечки, ты крестоёб из НИИ ХУИ, что ли? >просчитывать оптимальный параметры Параметры чего, борщехлёб тупой? Встань уже с дивана и найди реальную работу в IT
>>2158160 Это, конечно, гениальный высер, а где конкретное применение матана, причем не самого базового? Я тоже могу спиздануть: "Механика сплошных сред нужна для построения логики", только это просто пук от витателя в облаках, без какой-либо конкретики. И, правильно я понимаю, те, кто не занимаются байтоебством - макаки и чмохи, даже не разработчики? Так и запишем, нужно заниматься прямо совсем уебанской хуйней за кусок черствого хлеба в НИИ, лишь бы сычев с двача не назвал тебя макакой, лол.
>>2158160 Чет проиграл, вкатыши спорят про матан, но ни одна сука его не осилила и не знает нахуя. И это в МЛ треде! Хах
>>2158173 >Это, конечно, гениальный высер, а где конкретное применение матана, причем не самого базового? Жс-макакен, спок, не гони так, мамка дома ждет. Сначала нужно осилить тот самый базовый.
>>2158183 >м.. гм-м.. это, кароч. конкретики не будет. тебя блин мамка ждет) сказано же нужен матан для логики, значит нужен матан для логики, чево непонятного?!! если понадобилась какая нить производная значит нужен матан воот Понятненько. Жесткий самоприклад ты устроил. Почему я не удивлен, что очередной борщехлеб, свидетель необходимости матанализа для разбработчика, не смог пояснить, где он используется в SWE, а просто пукнул и ретировался с обосранными штанишками?
>>2158163 > Apart from GPT-4, Altman also gave a sneak-peek into GPT-5. He said that GPT-5 might be able to pass the Turing test. Анальники походу вообще всё. Кто не понял процитированное, сео опенаи заявил, что гпт5 пройдет тест Тьюринга.
>>2158236 Не из-за чего. Я выкатился как только понял что это просто сорт продуктового девелопмента. То что ты описываешь называется "вкатыш идеализирует".
Если ты конечно не из академии, там свои приколы но тогда уж лучше подаваться в чистую матешу.
>>2158242 > Я выкатился как только понял что это просто сорт продуктового девелопмента. Что-то я не понял, разве это не очевидно? А раньше ты как думал? Какой идеальный образ был?
>>2158017 >что из свежего можно почитать для вката новичку? Программировать умею, база вышмата есть Начни с The Hundred-Page Machine Learning Book, ее даже пиратить не надо, она по "прочитай, если понравилось купи" модели. Это с формулами и кратким введением справочник по всему что есть, она 19го года, там есть qr-коды со ссылками на статьи. Когда что-то заинтересует для углубления - уже выберешь книгу Второй вариант того же Geron Hands-on, но станешь рабом Tensorflow, но книга хорошая тем что там буквально ВСЕ есть, и очень много примеров, заданий, есть даже целые курсы в виде воплощения этой книги(Daniel Bourke, попробуй посмотреть, на ютубе есть первые 14 часов видеокурса, остальной можно спиратить). Дальше этого только специализироваться, есть книжки по ганам, есть книжки по реинфорсу, по сиви, по деплою, по мобилкам, по конвеерам. Все есть на рутрекере
Че там по perceiver от глубокомозговых? Потыкал их маскед ленг модель и если ее допилить то выйдет довольно неплохая альтернатива трансоформерам, но то что сейчас - модель не может в генерацию более одного слова той же длины что и маска, а все что вне промедутка токенов это куча "ааааааа". К тому же вроде как кода для обучения. Но преимущество по сравнению с теми же трансоформерами в бесконечной последовательности токенов что пиздец какой плюс по сравнению с примерно 10мб/токен в том же gpt-j. Хули они ее не пилят?
>>2158242 >>2158282 >это просто сорт продуктового девелопмента Это до очень многих из треда не доходит. Они же реально считают себя невъебенными математиками, лол. Недавно срали про оцифровку сознания, и ведь это была даже не шутка, я уверен. Борщехлебы еще думают, что пойдут работать не обыкновенными аналитиками, которым просто будут иногда давать играться с готовыми решениями в нейроночке и машинках, и на которых будут смотреть свысока даже презираемые ими макаки, а в рисерч-команды, где дяденьки с PhD сидят, с тоннами публикаций, осилившие немного больше, чем два андерград-курса Стэнфорда и матанализ первого курса. Не говорите им, что реальность немного жестока..
>>2158306 Чел, это до людей в индустрии не доходит. Людей с попытом.
Самое смешное в том что они таки все равно умудряются наколхозить вполне жизнеспособные продукты. Просто костылей много и поддерживать тяжело. Но зато для смышленных гребцов есть огромное и очевидное пространство для роста и апанья сотыг.
Сап, аноны, подскажите полжалуйста, что можно сделать по распознаванию на питоне, что-то не слишком сложное, т.к. у меня вообще опыта нет, но чтобы выглядело нормально? Нужно для вуза, а я хз что пилить
Вопрос ML экспертам итт Каков реальный потенциал для GAN дип лерненга в генерации видео для взрослых? (японские AV фильмы, профессиональный короткометражный прон, любительские где сняли своих жен с неграми, хентай мульты - не важно, любого формата) Типа text to video, вбил текст сценария или тупо теги - получил десять сгенерированных fake роликов по разным сидам, не отличимые от реального отснятого видео Захотел с конкретной девушкой с фотки - залил фотку и тоже сделано с ней любое порево Алсо, я говорю совсем не о цп и сам категорически против него Я почему задумался, потому что уже сейчас text to image неплохое, а text to pixelart порой почти выполняет тест Тьюринга
>>2143396 (OP) >graph machine learning (GML) Тут много говорят про него. Оно как-то способствует годному синтезу text2video? Алсо, когда наконец припашут квантовые вычисления (кубиты хуиты) для машоба, чтобы ускорить процессы раз в 30?
>>2158727 https://github.com/SemyonSinchenko/qmlcourse следи за ними >>2158725 Ты только на заре пришел, братья Райт только запустили свою деревянную хуйню, а ты уже хочешь боевой вертолет Тот же симсвап которым Абу вставляли куда только не придумаешь, гугл там что-то делает, тренируя на ютуберах-обзорщиках у которых все видосы на 99% идентичны по "картинке" на экране, тексту и содержанию. Если не упремся в эту ебучую срань с толерантностью - все будет через несколько лет, если упремся - никто не выкатит инструмент которым ты сможешь негров в фильмах на белых менять, собственно делать цп или реалистичные материалы для шантажа
>>2158725 Тут нужно прояснить. Прогресс t2i обусловлен онли clip от хуев. Это долго и работает только для одной конкретной картинки, то есть clip смотрит и говорит, не, хуйня, переделывай, и ган переделывает двигаясь в своем пространстве. А сами ганы уже содержат в себе абсолютно все чему обучились, и впринципе не могут сделать что то новое, это будет рекомбинация классов, можно попросту запустить скрипт который выкачает все что есть а модели и ничего кроме того что выкачено ган не даст. То есть просто ганы довольно слабы без чего либо. Итого - пока не будет нейронки которая может дать оценку насколько видео целиком соответствует тексту, из ганов вменяемого text to video не выбьешь. Но есть другие архитектуры, особенно трансформеры, они устроены иначе и конкретно трансформеры впооне имеют потенциал в том чтобы делать видео. Однако они попросту не влезут в домашние видеокарты, даже в 3090, там будет под гигов 500 в видеопамять для секунд 10. Так что в целом, то что есть сейчас под твою задумку не попадает от слова совсем, но архитектуры активно развиваются и через год-два уже что то да будет, например сделают трансоформеры компактнее. А пока только картинки.
>>2157213 Я её специально проебал. Это бред какой-то. ML - прикладная дисциплина. Его надо изучать не от теории которой, по сути, нет, поэтому и пихают всякую линейную алгебру и статистику, а от задач.
Чтобы научиться плавать, надо плавать. Чтобы научиться программировать, надо программировать. Чтобы научиться оверфитить модели, надо идти на kaggle и оверфитить модели. Поэтому чтобы научиться ML, надо скачать какой-нибудь PyTorch или Tenzorflow и начать в нём что-нибудь делать. А теорию изучать уже по ходу, ту, которая нужна для решения конкретной задачи.
Поэтому да, учебники будут, но уже когда начнёшь что-нибудь делать. Сам найдешь себе учебник, где будут вещи, интересные тебе. А если есть общее математическое образование, то скорее даже не учебники, а научные статьи.
Конечно, если не хватает общей математической культуры, чтобы прочитать статью и понять смысл всех написанных формул, то надо повышать уровень с помощью учебников. Но среднего комплюктерсайнтиста в универе 4 года готовят. Теперь что, четырёхлетнюю программу в шапке писать? А если человек хочет не просто нейросетку замутить, а трёхмерную структуру белка предсказывать, то еще и курс квантовой химии и молекулярной биологии добавить? А еще матан и дифференциальную алгебру, а то ведь без знания производных человек не поймёт как BP работает. И физику твёрдого тела, чтобы знал, как полупроводники в видеокарте работают, на которых всё это будет вычисляться.
Заход с теории только отодвинет момент, когда человек скачает ML либу и начнёт что-то делать, может он вообще до этого не дойдёт. А реальное обучение начинается именно в тот момент, когда человек начинает что-то делать самостоятельно. Для общего развития есть универ, любая более-менее включающая математику специализация в качестве базы подойдёт. Но даже если ты как Ларри Уолл учился на лингвиста и работал переводчиком Библии, это не помешает стать программистом или ML-щиком.
Вот у меня самого CS-образование. Но если бы мне довелось прожить жизнь заново, я бы бухал, курил марихуану и занимался сексом с однокурсницами пошел бы на биологию, физику или на врача бы выучился. Как раз, чтобы получить знания в какой-нибудь прикладной предметной области, а программирование и ML я бы использовал для решения своих практических задач. В конце концов программирование - это та область, практический опыт в которой можно получить не отрывая жопы от стула и используя только комплюктер и Интернет. А вот если ты хочешь использовать нейронки для расчета оптимального профиля крыла самолёта, то тут нужны знания аэродинамики и доступ к аэродинамической трубе, в эту область просто так сидя на дваче не вкатиться.
>>2158733 Спасибо за разъяснение, это классно. При случае можно будет и арендовать облачный GPU, чтоб генерировать видосы. Видел новость про какую-то godiva от cuckrosoft и папер про нее. Но там ничего нового, это уже было в dvd-gan.
https://wudao.aminer.cn/CogView/index.html Тестирую в браузере t2i технологию от китайцев. Не так хорошо как clip, но тоже работает. Вбиваешь иероглифы и оно выдает серию мыльных картинок. Ок. Вбиваю туда название Японии китайскими иероглифами, выдаёт: вы ввели неприемлемый запрос. Будто я попросил детскую порнографию. Что за хуйня??? Инсекты ебанулись?
>>2158723 Зайди на форум официантов Майями. Они там тоже, наверняка, какую-нибудь свою заёбную хуйню обсуждают. Ну там как правильно смешивать коктейли, или что-нибудь ещё, не шарю в их делах. И спроси у них, зачем учить как смешивать эти ёбаные коктейли, если датасаентисту и так заебок работается?
>>2158727 > Тут много говорят про него. На самом деле тут только я о нём говорю. Просто я занимаюсь разработкой графовой БД и по совместительству сталкиваюсь с элементами GML. Кроме того, я угнал тред, поэтому решил попиарить то, что интересно лично мне. Может следующий тред кто-нибудь другой угонит.
Ответ на твой вопрос: нет, вообще никак. По крайней мере, на каком-то высоком уровне. Может быть где-нибудь в глубинах реализации и рационально применять GML, поскольку text2something - это совсем уж общая область, состоящая из многих компонентов, возможно в каких-то компонентах и рационально применять GML.
>>2158727 > Алсо, когда наконец припашут квантовые вычисления (кубиты хуиты) для машоба, чтобы ускорить процессы раз в 30?
Сразу после изобретения термоядерного реактора. Т.е. через 20 лет.
Вообще, квантовые вычисления - это как управляемый термоядерный синтез. Он появится ровно через 20 лет. Какой бы год ты не взял с 1951-го, вот ровно через 20 лет он появится. и так с 51-го. Дальше выводы делай сам.
Остается надеяться что Tencent для нужд Партии въебет миллиард долларов в разработку новой архитектуры и расшарит фреймворк! А умельцы из разных стран уже допилят под разные задачи! Вообще надо в идеале делать такую ML модель, которая оптимизирует и совершенствует другие ML-модели пол разные задачи. Программа-программист, как-то так.
>>2158771 >я тоже ни хуя не понял Ебать, что там непонятного? Словак на первой же минуте всё изложил. Или это такой троллинг? Мне самому интересно.
У меня на собеседовании в Яндексе спросили, чем я занимаюсь, я ответил, мол этим. Они спросили, а в чем value. Я ответил примерно как словак, но криво, однако они поняли.
Потом я нагуглил словака и понял, что он ровно за минуту с ебанутейшим акцентом объясняет всё то, что я на русском им криво несколько минут рассказывал. Ну он профи, понятно, небось и преподаватель какой-то. Неужели не понятно? Что именно не понятно вот с его слайда, например?
>>2158812 Там надо учить сетку простым действиям которые могут совершать люди. Затем она их воссоздает как в системах, основанных на clip. Можно натренировать так же для AV (вместо "едет на лыжах" - аннотация "сосет член" например). Но нужен датасет с аннотациями, часть которых придется ставить вручную, прежде чем их подхватит модель автоматического размещения тегов.
Только сейчас дошло, ведь на порнхабе эти иконки типа "минет", "кашот" и т.д. ведь нейронка определяет? Кто-то тренирует нейронки на порнухе чтобы отслеживать когда кто кончает или сосет. Работа мечты
>>2158978 Про иконки, или серые полосочки с подписью того что происходит на видео, я не думаю что на официальных каналах того же браззерс заливатели вручную отмечают это, и не думаю что есть поехавшие пользователи что посмотрели и подумали "хм, надо отметить где тут догги для других кто любит это, сделаю доброе дело!"
>>2159007 Чтобы что? А каналы частные всяких русских шалав, они тоже все отмечают? Может на старых нет потому что они были залиты до имплемента фап-алгоритма?
>>2159011 На том же ютубе почти все сейчас чаптеры заливают, то же самое. В проне это даже более актуально, тащемта. Как раз можно заметить, что оно в основном на активно мейнтейнящихся каналах вроде студий или индивидуальных щлюх. Да и что мешает прогнать ОЛГОРИТМ для старых видосов?
>>2159018 Ну хз, они где-то там лежат и не пердят, а алгоритм срабатывает при заливке. Даже я - ноускильный говноед могу сделать пайплайн который делает скриншот каждые 20 секунд видоса и потом классифицирует действие простой конволюхой по датасету что я могу собрать с порнолаба за неделю. Вангую на порноресурсах датасатанистам платят не меньше чем в нетфликсе, просто никто активно не пиздит на ютубе как ему зашибенно работать в порнухе
Харэ сраться Ща у l4rz в твитере видел модель генерации фоток девушек https://mobile.twitter.com/l4rz/status/1437824469972705281 Есть в нижнем белье, но только анфас Я тут подумал, блеваки в Штатах непременно всё зацензурят чтобы невозможно было делать adult контент с людьми с фоток, а в Китае вообще любой контент делают невозможным (по другим соображениям, типа это вредно для нации) Есди так, тогда будет возможно сгенерировать только с несуществующими личностями как вот тут, или хентай мульты. США и Китай ведь самые крупные игроки. Или если русские сделают. На наших вся надежда.
>>2159042 > На наших вся надежда. К 2022 году наши не будут иметь доступ в интернеты и использовать йобатрансофрмеры3000, а не наши не смогут взять от наших биг дату цп прона. Вся надежда на японцев.
>>2158736 Ты, анон, конечно прав. Но это не отменяет того, что шапка все равно проебана. Надо бы набрать новую, с практикоориентированным подходом (позаимствовать с одс), и часть твоего поста в шапку внести. Но кто этим заниматься будет?
>>2159128 Кстати, япы по своей технологии crypko анонсировали приложение memes на основе GAN. Генерация манга девочек в анфас вместе с костюмом и кастомизацией. Должны были выпустить этим летом, да хуй там
>>2159011 >Чтобы что? В смысле "чтобы что"? Я порнуху, бля, открыл, хуле мне смотреть на ласки, сразу переключил на то, как ее пердодят в доггистайле. Потом открыл порнуху от этого же канала, потому что удобно. Они получают мой просмотр, я - удобный просмотр порнухи.
>>2143396 (OP) Подскажет кто-то новичку, какими способами можно кластеризовать данные на основе разности в плотности? Какие вообще советы есть в такого рода ситуации?
>>2159138 Ну как бы и так все кто смотрел больше 10 роликов знает что вся порнуха всегда идет по одинаковому секвенсу и любой просто знает на сколько примерно мотать, тем более на ролике есть превью при наведении на бар. Тем более ты как бы смотря видео на порнхабе ничего не привносишь кроме нагрузки на их серваки, а браззерсы и прочие платные вещи позволяют тебе скачивать ролики в которых очевидно никакой разметки нет
>>2159145 >все кто смотрел больше 10 роликов знает что вся порнуха всегда идет по одинаковому секвенсу и любой просто знает на сколько примерно мотать, тем более на ролике есть превью при наведении на бар. Так я не говорил, что по-другому нельзя сделать. Только так удобнее, с этим даже не поспоришь. >Тем более ты как бы смотря видео на порнхабе ничего не привносишь кроме нагрузки на их серваки Ну так это делают сами те, кто заливает порно в основном, а не порнхаб. Вот как раз им и капает от порнхаба от просмотров. Они и таймкоды поставят, и оформление канала сделают, и в друзьяшки добавят, только вы дрочите на их канале.
Китайские паперы по ML это одна сплошная параша. Прочитать инсектоидный папер - как говна навернуть. Я за то чтобы фейковых исследователей там начали расстреливать.
>>2143396 (OP) >которые не работают. Работают, отвечаю. Под мои задачи уже кое-что есть. Не хватает самой малости: мощности на стороне железа, оптимизации на стороне трансформеров, новых революционных мл архитектур.
Вопрос знатокам. Какие задачи нужно решить для качественного рывка в style transfer? Чтобы вместо наркоманской хуйни или фильтра был настоящий рисунок. Берешь любую фотку человека в полный рост, эротическую либо обычную, и алгоритм захуяривает по нему стильный виабу манга рисунок как на pixiv /artstation. Как поиск соответствия в latent space, но еще круче. Т.е. буквально такой же персонаж как на фото, но именно с полной азиатской стилизацией. Волосы, складки одежды, детали анатомии - все нарисованное как в манге, чуток гипертрофированное, со стилистическими приемами и с повышенной динамичностью.
>>2159186 Вот пример. Представьте себе такое же, только повторяющее чей-то образ с input фотографии. + остальное тело со стилизацией (талия нарочито узкая, грудь и бедра нарочито пухлые) и одежда с искусно расположенными складками
>>2159186 Проблема в том что условно тела у всех хентайных девочек у конкретного автора одинаковые, он рисует свою анатомию и свои фишки, так что превратить реальное тело в тело из хентая определенного автора нереально из-за того что все хентайные тела это еще более крутая версия лучших на туловище порношлюх. Так что твоя горбатая Наташуля с висячими сиськами либо получит дефолтное порно-тело, либо это будет работать совсем не как ты хочешь. Примерно это же с лицами, идеальные овалы лица, большие глаза, модельный маленький нос слегка уточкой, пухлые губы на маленьком рту, отличается только цвет глаз, цвет губ, цвет волос и прическа. В твоем случае будет логичнее сделать описыватель внешности, который толкает описание генератору персонажа, который получает вектор типа [blond, blue_eyes, forelock, pale, petite] и так далее, и из него генерирует персонажа(что уже вроде существует)
>>2159186 Для начала нужен датасет с фоткой человека и его идеальным портретом в нужном стиле, при чем таких пар нужно как минимум 100к самый минимум, на деле нужно в разы больше, все они должны быть нарисованы в одном стиле желательно одним человеком. Пока нет этого, полноценный style transfer не сделать. Но есть одно но, наверняка ты мог видеть где по арту делают нейронкой реалистичное лицо а потом проходят фотошопом и все заебись. Так вот, это вполне можно использовать при условии одинакового ракурса. Но опять же, вилка для чистки понадобится огромная.
>>2159222 А зачем тебе усредненный стиль? Что если мне нравится bosshi-стиль с жирком и круглыми лицами, а другому Murakami, и вообще их дофигища и всем не угодишь, увеличишь свои сеты в 10 раз?
>>2159242 Paint Tool Sai в зубы и переделывай выдачу. Там просто трейс надо будет сделать, что-то добавив от себя - где-то увеличить деталь, где-то поменять цвета.
Привет! А вот из прошлой шапки: >Почему python? >Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python >Можно не python? >Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет Смотрел интервью с техдиректором по машобу в Яндексе, он говорил, что специалисту по ML питон - мастхев, но нужны еще плюсы или джава для хайперформанса и внедрения технологий. В ШАДе, вроде, плюсы читают, и считают это довольно важным. В МФТИ по ИИ читают джаву. А у вас только питон, и все.
>>2159522 Чего ты спросить то хочешь? Ты не можешь начиная изучать машоб резко обнаружить у себя в башке понимание что конкретно из языков и инструментов нужно для высокотолстых распределенных биг дата пайплайнов, внезапно там вспомнят и про апач бим и про спарк, и надо ОКАЗЫВАЕТСЯ быть и дата-инженером и дата-саентистом, а дата саентист это не только мл-специалист, а еще и аналитик, и учоный, и мл-опс, и в свободное время драйвера для карточек АМД разрабатывает чтобы когда-нибудь запустить на них что-то вроде Куды, и что он там еще? Ах да, сосет хорошо. Если тебя беспокоит что ты учишь не то, то нет, ты учишь то. Если ты хочешь типа узнать полный список того говна что лысеющий питух выучил за 20 лет дрочки на галерах, то спрашивай у него, надо ли тебе это вообще - никто не знает, может и не надо, может и заставят учить какую-то редкую технологию написанную на брейнфаке, это россия
Вопрос от новичка. Пригодится ли мне CS в этом вашем датасаенс? В плане, я только CS и вышмат и изучал по сути, и мне это очень интересно, но и датасаенс мне интересен. Я не против попутно заниматься аналитикой, но ведь это не основной навык? Короче говоря, смогу ли я прогать интересные вещи, будучи дантистом, или 90% работы будет заключаться в аналитике?
>>2158977 >вручную размеченный датасет на дохуя терабайт. То есть например тэги? Я могу зайти на колаб вбить в нотебоок после сетапа "interracial gangbang blonde teen deepthroat" и сгенерится видос, по образцу всех задействованных в обучении, у которых были такие теги? Типа от каждого образца по чуть чуть деталей, что-то из них смешается, и будет типа новый видос. Из одного видоса возьмет черномазых мудил, из другого спальню и кровать, из третьего и четвертого скомбинирует внешку двух актрис блондинок в одну, из пятого и шестого надергает поз, из седьмого звуки стонов. Или не?
>>2158733 >из ганов вменяемого text to video не выбьешь Тащемта была генерация роликов https://paperswithcode.com/method/dvd-gan Но не получило распространения. Слишком короткий отрезок и без звука, нужно же 10 минут видео хотя бы. и с согласованными между собой сценами. Майкрософту нет доверия, пусть нвидия этим займется или стартаперы какие.
>>2159559 В смысле пришлось писать код, он разве туда не тимлидом поехал? Он че реально как макака ебаная код пишет там, когда в РФ отдыхал на полуменеджерских позициях?
>>2159603 Примерно так и есть, но комбинация будет не точечной а глобальной, никто не гарантирует что это не будет гей порно с неграми блондинами, смещение классов все дела. В этом и минус ганов, если у него и будет в пространстве идеальное видео, шанс до него дойти довольно мал если не подрубать модель типа clip. >>2159604 А так это займет дохуя времени, вон одна картинка генерируется с того же vqgan + clip по несколько часов. А в видео по меньшей мере 24*длинна видео кадров, то есть 240 кадров на 10 секунд. Тут колаба уже не хватит с его анальными лимитами и придется делать локально.
Меня настолько поглотили статьи по машобу, что сегодня ради них прогуляю школу. >>2159721 >если не подрубать модель типа clip. >2к21 >полагаться на чистый рандом >не делать text guide и supervise
CPU лажа чтобы гонять модель. Многие образцы кода его даже не поддерживают. GPU норм, но нужно дохуя гигов памяти. TPU иногда ок, хотя не всегда поддерживается. А кагда QPU? Природа дала вам квантовую запутанность, бля, чтоб вы с кубитами имитировали работу человеческого мозга.
>>2159815 > Computer Science Я с утра перечитал и понял о чем речь. Просто в тред не стал писать. Не знаю, я этим словосочетанием не пользуюсь в русскоязычном сегменте интернета. Обычно мы, русские, используем слово КИБЕРНЕТИКА
>>2159579 Я тебя вообще не понял, у тебя каша в голове какая-то совершенно, ты скорее всего не понимаешь вообще что под тремя сущностями что ты обозначил подразумевается Нужен ли CS в машобе/дата-инжениринге/мл-опсе? Да ебать, ты на питоне пишешь код, ты взаимодействуешь с хранилищами, с облаками, создаешь структуры данных в разных форматах, устанавливаешь много взаимодействующих пакетов в различные окружения, проверяешь работает ли твое железо при работе с алгоритмами правильно и полностью. Что ты там подразумеваешь под ЦС я просто не знаю, но если ты спрашиваешь может ли бабка-математик с трудом включающая пеку быть ДС - нет, скорее всего не сможет. Что ты там про аналитику имел в виду я вообще не понял, как аналитика связана с машобом вообще? Может ты имел в виду доменные знания? Последнее - если ты аналитик и хочешь расширить свой арсенал автоматическими аб-тестами, или подгрузкой даты через спарк, более гибкой визуализацией питоновскими либами, то да, это хорошая инициатива, если ты видишь в этом профиты то подучи немного. Если тебе в табло грузить графики говна от мочи и тесты из экселя - нахуй тебе ничего из дс и не нужно, не забивай голову
>>2159522 Сынок, ты чего-то не понял. Там тебе серьезный дядечка из Яндекса что-то наговорил, человек с многолетним опытом работы, на серьезной должности. У нас тут тоже люди с многолетним опытом, только опытом поедания мамкиного борща. Наши профессионалы берут смузи и спиннер, открывают пир-ревьюид джоурналс с биг импакт-фактором, начинают читать сирьес паперы. Там обычно людям срать на перформанс. Ну вот и наши борщехлебы решили, что срать им на все, кроме питона, что используется в паперах. Они будут серьезными учеными, делающими науку в частных компаниях за миллионы баксов, а не какими-то макаками ебаными, которым еще какое-то говно внедрять, трясясь о перформансе. От так нахуй, понял? Смотри, ты там одного уже проткнул, он аж завизжал о биг датах. Не надо наших профессионалов тут обижать, блядь.
>>2159734 У обычных ганов с генерацией картинок есть словарь с вроде как 1к классов. При генерации генерируется либо на рандом либо на рандом в рамках класса с учетом сида.
>>2159818 Вопрос в том, будут ли применяться в DS знания алгоритмов и структур данных, архитектуры ЭВМ, компьютерных сетей и протоколов, машграфа, низкоуровневого программирования, функционального программирования? Я понял лишь, что там полезны знания БД и распределённых вычислений. Просто челы которые срут в этом треде про то, что датасаентисты - это вообще не про программирование, немного посеяли сомнения, вот я и спрашиваю, может я чего-то не понимаю и DS это на самом деле скорее про бизнес-аналитику, а не про IT?
>>2159835 >Вопрос в том, будут ли применяться в DS ... Нет, за редкими исключениями. >DS это на самом деле скорее про бизнес-аналитику, а не про IT? DS, дата аналитикс и т. д. - это и есть аналитика, блять. Сейчас тебе борщехлеб будет пояснять простыней, что он ML-инженер в Гугле, и ему там очень многое из CS нужно. Но в реальности, если этот уникум пойдет на работу, его судьба - это простая аналитика с небольшыми перерывами на готовые баззворд-игрушки типо машоба и нейроночек, это и твоя судьба, если ты сюда сунешься. Усе.
>>2160112 Охуенные достижения Ожидаются Иди в тред жабаскриптеров и спроси там про достижения во фронт-энде или будет ли в будущем еще один новый фреймворк, сраный любитель популярной фантастики
>>2160112 За этот год: - Генерация картинок по описанию вышла на новый уровень благодаря clip от openai - Множество компаний обучают модели на миллиарды параметров, к концу года некоторые будут готовы но в открытый доступ хуй попадут - Была создана значительно более быстрая версия дипфейка, simswap - Был обучен gpt-j на 6В параметров и выложен в открытый доступ - Были анонсированы два инструмента для автодополнения кода на основе нейронок - Несколько исследовательских групп отчитались о создании нейронок на основе работы мозга которые превосходят обычные, но подробностей нет - Было выяснено что ЭС шизик еще и ЖС шизик
Возможно, что то пропустил, писал первое что вспомнилось. А из того что будет - будет дохуя. Трансоформеры открывают все новые возможности, наконец то начали комбинировать нейронки (vqgan + clip например), да и в целом размеры моделей стали рости экспоненциально >>2158163.
Китай натренировал модель с триллионом параметров, США запретили машоб как расистскую отрасль, а Япония обучила модель на лоликон хентай датасете! Ололо
Напомните, какие задачи должны получить паперы и оперативно быть решенными, прежде чем text to image технология станет способной вместо наркоманской хуйни генерировать с полпинка буквально такие пикчи, получив их подробное и длинное описание (wooden floor, white walls and door, a slutty looking girl with braid and makeup sitting here, pink top lifted, round breasts with small nipples, panties [...] seed=666)
>>2160178 Задача одна - больше памяти б-гу памяти. Ну и желательно вычислительную мощьность суперкомпа решаемо если делать так >>2153836. Ну и нужно дообучить clip на более подробное описание картинок с твоего пикрила, скромить ему дохуя картинок чтобы он их подписал, и уже подписанные картинки скормить трансформерному dall-e увеличив число параметров до дохуялиона.
>>2153836 Одобряю, но я юзер дрисни и с бичевской видяшкой. Лучше форсить на аудиторию типа хабровской. В принципе можно коллективно юзать colab и kaggle, каждый со своего аккаунта. Для начала, кто возьмется пилить фреймворк?
Доел свой поридж, начал читать паперы с кодом, но чот голова разболелась и бросил читать, лучше займусь симплом димплом (попыт идет лесом). Мне завтра вставать рано в школу.
>>2160275 При чем здесь Яндекс и "не может пургу нести"? Просто там техдиректор, специалист, опыт работы, а тут буковки на двачах выдают >пук все нитак, без каких-либо аргументов. Ну ок, че.
Напоминание, для чего на самом деле нужны все эти GPT, модели на миллионы параметров и прочее. Не для медицинских целей, нет. И не для состава белка, кому он нахуй дался. И даже не для розыска компартией Китая беглых уйгуров, хотя такой вариант неплохой. Машоб предназначен вот для этого. https://colab.research.google.com/github/ai-coodinator/3D-Photo-Inpainting/blob/master/3D_Photo_Inpainting.ipynb#scrollTo=i5-MWEjfBjYx Охуенно же? Теперь осталась самая малость, модифицировать алгоритм трансформерами: чтобы не только камера двигалась, но и девчонка пританцовывала, хлопала в ладоши, затем вообще стянула с себя купальник и мяла руками сиськи, не переставая улыбаться при этом. Чтобы вертелась на месте, повернулась ко мне спиной и вертела голым задом, теребила пальцами анус и писю, лол, чтобы присела на корточки и пописала на песок. Да, анон! Всё это - из ввода одной статичной фотки. Я джвадцать лет хочу такую технологию.
>>2160315 Устаревшая штука же. Сейчас самая пиздатая для image to 3d это nex https://nex-mpi.github.io/ Но это все - абсолютно другое, для того что хочешь ты это лишь костыль. Сначала нужно научить те же трансформеры двигать 3д сцену по описанию, а это уже на порядок сложнее чем то что они могут сейчас. К слову, gpt тут никакого отношения не имеет, да и параметров у этой модели кот наплакал.
>>2160322 >параметров у этой модели кот наплакал. Ну значит можно сделать еще круче, если кто-нибудь займется разработкой. Еще одна объемная картинка - в нижнем белье и чулках на кровати. Прекрасно! Я б еще через clip-based систему по приколу сделал так, чтоб она насрала на кровать, потом ела свою какаху давясь и рыдая. Правда тут волосы странно получились - будто они нарисованные. Но все равно круто, ведь эта хрень основано на сгенерированной 3д модели. Думаю что именно в этом направлении и следует развивать t2i и t2v - не просто растровый синтез, а помогать формировать изображение 3д-модельками, чтобы делать там реалистичных людей и анимацию для них.
>>2160325 ебать ты поехавший Ты немного не так понял, ту старую не улучшить количеством параметров, а новая по сути их даже не имеет, в результате обучается модель в виде 3д сцены. И опять же, clip тут ничего не сделает, он используется в роли гида (функции потерь) по латентным координатам другой нейронки по которой движется оптимизатор. Это касается лишь одной картинки и на видео это никак не распостронить, в идеале при применении фразы "тян садится" ко всем кадрам в видео, на всех кадрах будет тян в позе полуприседа, при чем все кадры будут одинаковы. Так что тут не одно направление, а два если не три, при чем они не связаны напрямую. В одном нужно делать картинку по описанию, в другом делать из этого 3д сцену, и в третьем эту 3д сцену двигать. При чем эти направления можно объединять (делать 3д сцену по тексту), но это крайне ресурсоемко.
>>2160322 Перешел по ссылке, а там сразу: >CVPR 2021 (Oral) Ебаааать, я конечно уже знаю для чего многие станут применять подобные технологии синтеза и обработки пикч, но чтобы почти в первом предложении обещать объемные изображения сцен орала??? Тогда почему именно орал, а не анал? Кроме шуток, примеры на той странице выглядят потрясающе
>>2160351 У меня еще есть особенность, на мелких превьюшках разных пикч иногда сначала кажется что там хуй, или пизда, или что там силуэт где ебут кого-то, хотя другим там ничего не мерещится.
>>2160353 Кстати это в случае искуственных нейронок называется переобучение. А в случае кожанных мешков это называется шиза. Я ни на что не намекаю, но тебе нужно подержать нофапон либо пойти к санитарам и попросить таблеток.
>>2160376 Ну ладно, а для чего этот гпт4 может быть использован? Я не говорю даже про видео прон, - хотя б изображение человека в text-to-image системе сможет сделать, чтобы фигура была правильно построена? Говно без задач скорее всего
>>2159840 >>2159884 "Дата саентист" это сейчас скорее аналитик, занимается исследованиями общего характера с конкретной бизнес целью, много смотрит глазами в данные, строит графички и дэшборды, если требуется обучает простые регрессии и катбусты, заводит AB эксперименты и следит за ними опять же глазами. "ML инженер" тот кто тренирует модели на конкретную задачу когда есть данные и инфраструктура, там и алгоритмы (из простых типа, в мапку что-то засунуть, закешировать итд) часто бывают полезны, и не только в гугле. Развели тут плач, школьники.
>>2160452 Секс это селектор технологий. Секс это настолько увлекательное занятие, что люди готовы не только смотреть как другие им занимаються, но и просто обсуждать его. Даже медведи мастурбируют, глядя на других медведей.
>>2160412 О том я и сказал, долбоеб, хуй знает, откуда ты высрал "только в гугле". Жаль, что никто из треда не станет никаким МЛ-инженером, а все будут обычными макаками-аналитиками.
>>2160380 Для почти любой НЛП-задачи. Если бюджет позволяет. Но понятное дело, что все эти терабайтные модели нужны как proof-of-concept чтобы доказать, что такие огромные модели вообще можно обучать и то что stack more layers в каком-то смысле работает. Ну и чтобы повыебываться мощностями. А на практике gpt-2 для тех же задач работать нормально будет, да.
>>2160675 > stack more layers в каком-то смысле работает. На самом деле, трансформеры это первая архитектура, для которой stack more layers это не смехуечек, а реальный режим работы, без костылей и каких-либо видимых ограничений, стакать можно столько, на сколько хватит бабла, при этом результат будет только улучшаться, плюс у таких структур появляются новые свойства, как в случае гпт (unsupervised multitask learning, few-shot learning итд). Именно трансформеры непосредственно иллюстрируют правоту Саттона, как бы тут не смеялись над горькими петухами, а факты есть факты, против них не попрешь.
Поделитесь, пожалуйста, вводными материалами по NLP. Курсы какие-нибудь годные, если есть на русском/с русскими субтитрами то вообще отлично (английский понимаю, то незнакомые темы осваивать всяко проще на родном(
>>2160811 Так оно не на русском. Англопидарахи не знают, что есть флективные языки со свободным порядком слов где их шарманское говно даже близко не работает.
>>2160811 Чет я пролистал все эти лекции и после этого НЛП с его проблемами типа разных языков и их структур, проблем с обработкой русского языка того же(spacy глючная, наташа это пиздец), все эти эмбеддинги, автоэнкодеры, десятки способов превращения теста в цифры и все говно, все это нлп выглядит как хуйня против CV. Хз зачем всю эту муть дрючить и обосраться когда твоя ГПТ-666 посоветует суициднику не быть сукой и доделать дело, если можно определять что за животное на пикрелейтед
>>2160852 >НЛП с его проблемами типа разных языков НЛП интересная тема, но просто им занимаются трясуны со всеми вытекающими проблемами. А технологии на данный момент примитивные, да. >хуйня против CV Компутервижен? На само деле разницы никакой нет, что текст, что изображения должны приводится в некую форму которая потом обрабатывается, фактически от каких органов/устройств поступают данные не имеет значения. Семантику текста технически легче обрабатывать, чем семантику изображений.
>>2160852 Лично я хочу это изучить, чтобы можно было внедрить всякие полезные приложения у себя на текущей работе, например проверка сообщений сотрудников на предмет утечек данных, бот-помощник для саппорта, который бы подготавливал детальную информацию прежде чем связать с кожаным мешком и т.п.. Если получится, получу релевантный опыт работы на С++, который у нас не практикуют, почет и уважение от кабана, а так же возможность все это поддерживать и развивать в дальнейшем, обеспечивая себе хлеб.
Немного мыслей о синтезе медиа (генерация и обработка картинок, видео). Начать следует с того, что 2д растр сосёт, ввиду недостаточной полноты данных при обучении на растре. Это тупо двухмерные данные - с двумя осями X и Y. Ведь даже художники обучаются по натуре перед ними, и во всех самоучителях советуют избегать срисовывания с фоток - именно потому что на них плоские пятна, которые не научат понимать объем. Генеративная сеть будет хорошо генерировать фото/рисунки/живопись/видео в том случае, если она использует систему наподобие CLIP, натренированную на 3д-объектах. Например чтобы для слова "кувшин" была ассоциация с выученными 3д-моделями кувшинов, а не с их растровыми формами. Профит очевиден - с CLIP-like системой можно будет на лету сгенерировать 3д модель даже из одной-единственной 2д пикчи. Также ML-модель должна уметь в физику моделей и в позы, и вообще знать анатомию для генерации картинок людей и персонажей. Лучше даже использовать гибридный подход, когда делается упрощенная лоуполи 3д-сцена в которой передана суть сценки, есть все нужные позы и действия, анимация если надо. А затем эта 3д болванка обмазывается деталями уже на уровне растра, до тех пор, пока не будет достигнут требуемый уровень реалистичности или стилизации. Ну всмысле как в той хрени для майнкрафта, где воксельный мир в реальном времени превращается в фотореалистичную картинку. Меня, правда, интересует еще такой вопрос: сколько будет стоить вся эта работа для тех, кто станет ее реализовывать. И каков будет прайс для обычных пользователей, если вообще до них что-то дойдет. В теории эту работу могла бы проделать лаборатория NVIDIA, которая уже отметилась в смелых экспериментах. Но тренировка моделей на охулиарды параметров и стакание слоёв, чтобы запилить новый 3д clip... это ж надо сотни часов гонять суперкомпьютеры Пентагона с жидкостной системой охлаждения. Интересно и то, как они будут отбивать эти затраты. Мне реально очень хочется попробовать новый уровень развития в text-to-image, поиграться с "машинным зрением", но совсем не хочется платить за кредиты в чьей-то коммерческой системе типа NightCafe и Artbreeder. Уже и не говорю про цензуру - хуй с ними, с лолями, дай Б-г чтобы вообще оставили адалт. А жиды из гугла, они же, суки, уже поотрубали бесплатным пользователям все карты кроме самого ширпотреба. Даже если я как пользователь буду использовать готовую систему и готовую модель, все равно там GPU колаба не потянет "generate" скрипт. Или в лучшем случае будет рендерить одну картинку 10 часов, хотя скорее будет просто CUDA out of memory.
>>2160950 >должна уметь в физику моделей и в позы, и вообще знать анатомию для генерации картинок людей и персонажей Анриал >кто станет ее реализовыват Никто
Ты там пиваса обьебался? Спустись на землю, все твои хотелки из мира фантазий.
>>2160248 Ты ебанутый. Хотя бы посмотрел не на техстек Яндекса (кстати, у Яндекса там своя ML-либа, могут себе позволить), а на весь остальной мир. Ой, как же они живут, ебаша tenzorflow в прод на Питоне?
>>2160953 Ладно. Как, по твоему, сделать систему для генерации любых пикч, типа вот этой с девкой в бутыли? Я пробовал Clip+VqGan и знаю, что она в 99% случаев делает хуйню, хотя и очень пытается. Вторая пикча - моя попытка сделать суккуба.
>>2160958 Если для тебя эта задача не достаточно простая, то что ты скажешь о задаче сделать state of art генератор полнометражных CG фильмов любых жанров?
Насчет азиатского стиля. Я спрашивал об этом в комьюнити, и Gwern сказал что типа нужны отдельный clip и/или отдельный vqgan, натренированные по данборе, т.к. эти сделаны по объектам из реального мира.
>>2160315 Это норм, кстати. Пориджи не помнят, но где-то в нулевых годах новостной трафик превысил трафик порнухи и это было целое событие в интернете.
Именно поэтому я очень понимаю авторов novelai и авторов aidungeon. Авторы aidungeon зассали, а авторы novelai так и сказали, пишите что угодно (подразумевая, что "что угодно" означает текстовую порнуху с несовершеннолетними, которая у AIGD запрещена).
В итоге мы начнём с мощного драйвера текстовой ебли виртуальных несовершеннолетних девочек, а закончим реальными коммерческими применениями генеративных сетей. И открытые novelai тут будут однозначно первыми.
>>2160969 >В итоге мы начнём с мощного драйвера текстовой ебли виртуальных несовершеннолетних девочек А на большее фантазии у тебя не хватает? Как на счет трансляции в мозг с прямым замещением органов чувств, ну как в матрице? Думаю тебя на герыч посадить тебе больше никакой реальности не нужно будет.
>>2160971 Можно напрямую генерировать острый положительный сигнал, как педалька у подопытной крысы которая вскоре сдохла. Я бы не стал бы делать себе такое и героин бы не стал пробовать. Но и не против того чтобы всем гедонистам неограниченно предлагалась такая возможность, кек. Как и не против легалайза для желающих.
>>2160974 >Можно напрямую генерировать острый положительный сигнал Нет ни каких сигналов. Все твои органы увств на изичах заменяются и мозг к ним на изичах адаптируется. Не важно от куда поступает информация.
Кто-нибудь, нормально перекатите. >>2160977 Нет, ты такой же еблан, как ЭС петух. Может быть, ещё и калмунист тоже? Нет смысла делать тред машоба без шапки про машоб, какая-то неведомая хуйня если взлетит, то и хорошо, пока что этого нет, а твой пиар параши выглядит абсолютно так же как попытки вышеупомянутого сасихуя.