Программирование

Ответить в тред Ответить в тред
Check this out!
НЕЙРОНОЧКИ И МАШОБ ТРЕД №39 /ai/ Аноним 23/06/21 Срд 23:42:46 20785731
gpt1.png 438Кб, 3569x1402
3569x1402
gpt2.png 140Кб, 817x1076
817x1076
Очередной тред про хипстерские технологии, которые не работают

Я ничего не понимаю, что делать?
Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.

Почему такой фокус на нейронки?
Потому что остальные чистят вилкой данные в банках с помощью LGBTboost и им некогда предлагать обновления в шапку

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/

Почему python?
Исторически сложилось

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет

Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала
Франсуа Шолле - Глубокое обучение на Python
https://d2l.ai/index.html

В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где посмотреть must read статьи?
https://github.com/ChristosChristofidis/awesome-deep-learning#papers
https://huggingface.co/transformers/index.html
То, что обозревает Килхер тоже зачастую must read

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом

Кто нибудь использовал машоб для трейдинга?
Никто не использовал, ты первый такое придумал. Готовь камаз для бабла.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Предыдущий:
https://2ch.hk/pr/res/2042522.html

Disclaimer: Шапка сгенерирована нейросетью и нуждается в чистке.
Аноним 23/06/21 Срд 23:55:09 20785852
>>2078573 (OP)
Что на втором пике, дали по рукам за фантазии о чистой любви?
Аноним 24/06/21 Чтв 00:08:25 20785953
>>2078573 (OP)
>смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229
>линейная алгебра, теорвер, матстат, базовый матан и matrix calculus
Хватит пиздеть уже.
Вы просто дрочите параметры в готовых сеточках и нихуя больше не делаете.
Аноним 24/06/21 Чтв 00:11:22 20785984
>>2078595
Не пали нас чел. Тебя уебать с левой нейронки или с правой, если ты не умеешь в ати
у меня в голове было видео с двумя дедушками, один из них меня бил, второй заступался. Я бы мог за них вступится, но...
И я бы не смог. Ни при каком раскладе.
Аноним 24/06/21 Чтв 00:32:41 20786095
>>2078585
ai-dungeon. Порнуха там особо не запрещена, но есть ML-фильтр, который блокирует ответы нейросетки, если их можно расценить как explicit content с участием несовершеннолетних. Т.е. если ты в затравке напишешь, что твоя 16-летняя подружка-котодевочка сегодня надела полупрозрачные трусики, то просто не получишь ответа. Однако настоящий датасантист всегда найдёт способ довести нейросетку до оргазма правда за этим всё равно последют пиздюли уже от модераторов-людей
Аноним 24/06/21 Чтв 00:35:39 20786136
>>2078595
Лень чистить шапку. Да и пофиг.
Аноним 24/06/21 Чтв 00:36:24 20786147
>>2078598
>Не пали нас чел
У меня просто подгорело с вашей шапки.
Я сначала как дебил пошел читать по ссылочкам типа www.deeplearningbook.org и только потом понял, что это все наглый пиздеж и в реале никто сейчас не пишет сам эти сетки.
Аноним 24/06/21 Чтв 00:46:20 20786218
Есть люди, знакомые с JAX? На нём можно писать модели для прода или он только для ресерча?
Если можно, то как там ускоряют инференс, а то никаких простых способов перегона в onnx там не обнаружено.
Аноним 24/06/21 Чтв 00:55:57 20786289
>>2078621
Не знаю ничего про JAX, но если бы ты видел, на чем написаны модели в Сбере, то понял, что писать их можно хоть на сперме дракона. Потому что если модель начинает приносить реальные деньги, уже никого не ебёт, на чём написана, будут хоть вручную из ноутбука запускать.
Аноним 24/06/21 Чтв 02:03:55 207866110
>>2078595
Даже этого не делаем, берём готовое с гитхаба или каггла и прикручиваем себе
Аноним 24/06/21 Чтв 07:07:42 207870111
>>2078621
Про прод хуй его знает, я не юрист, но вот те же елузеры ускорили инференс через сжатие вершин в bf16, это + отбрасывание оптимизатора их модели дало сокращение веса почти в 8 раз, и как пишут в статейках ускорило выполнение на tpu. Но если это меньше весит и работает быстрее там, то думаю и на обычном gpu это будет быстрее.
Аноним 24/06/21 Чтв 08:50:12 207872312
Аноним 24/06/21 Чтв 11:32:01 207883513
>>2078609
Понятно. Я в ai dungeon тыкал палочкой, но до такого не доходил
Аноним 24/06/21 Чтв 11:40:10 207884714
Котаны, какие есть еще методы обучения ИНС кроме backpropagation?
Аноним 24/06/21 Чтв 12:10:16 207888315
>>2078609
Такой же фильтр будет в будущем в сетках типа далле, чтобы ЦП не рисовали.
Аноним 24/06/21 Чтв 12:11:50 207888416
>>2078847
Случайный поиск. Где-то даже использовался, но модифицированный и для неглубоких перцептронов.
Аноним 24/06/21 Чтв 12:48:04 207892017
>>2078883
Он же уже есть даже в cogview, в веб демке он просто не начинает рисовать, а в колабе он рисует крайне плохо так как сразу видно что либо датасет чистили вилкой, либо хотсинг картинок откуда собирали датасет изначально цп не пропускал. Алсо если выполнять локально то никаких проблем нет, стер строчку кода отвечающую за фильтр, зафайнтюнил на твоей коллекции у меня ее нет, т-щ, майор и все. Ну и опять же, если гугл колаб не закроется к тому времени когда полностью смогут использовать тпу и допилят светящийся путорч то у каждого будет возможность тренировать на 64 видеогигах.
Аноним 24/06/21 Чтв 12:55:10 207893218
>>2078884
Кинь ссылку на статейку.
>>2078847
Котаны, сразу пишите английское название, по которому можно нагуглить, или ссылку на статью.
Аноним 24/06/21 Чтв 13:07:08 207893819
>>2078920
>cogview
>man on bicycle
>Модель, созданная CogView, поддерживает только упрощенный ввод на китайском языке.
>google translate -> 人的自行车
>Человеческий велосипед

Сука, мне теперь даже страшно страницу открывать, чтобы посмотреть, что она там сгенерировала...
Аноним 24/06/21 Чтв 13:09:34 207894220
>>2078932
>Кинь ссылку на статейку.
Сорян, наебал. Открыл статью, а там линейная модель. Получается, китаец с медиума меня обманул.
Аноним 24/06/21 Чтв 13:26:24 207895721
>>2078938
Все не настолько плохо же, нужно просто вбить правильный перевод.
Аноним 24/06/21 Чтв 14:05:42 207899922
GPT-3 уже прошла тютюринг тест?
Аноним 24/06/21 Чтв 15:07:09 207905823
image.png 269Кб, 2501x1245
2501x1245
image.png 52Кб, 1383x340
1383x340
>>2078999
Ну как сказать. GPT-3 - это бредогенератор. Там в принципе нет такой опции, как "поговорить" с нейросетью. Она берёт последовательность токенов и пытается её продолжить. Я взял затравку отсюда https://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing-test.html и вот что получилось.

Цимес в том, что из-за большой длинны ответа, она иногда сама начинает задавать себе вопросы и отвечать на них. Я пометил желтым как она сама с собой "разговаривает".

Думаю, если прикрутить к ней её что-нибудь, что позволило бы ей понимать, сколько токенов возвращать в зависимости от контекста, она вполне бы смогла наебать неподготовленного человека.

Тесты, которые она генерирует, почти неотличимы от сгенерированных человеком. Их можно определить только по потере контекста и логическим ошибкам. Например, когда я ебу одновременно двух котодевочек, она "забывает", в которой из них мой член в данный момент.

Ну и обучения там в нормальном смысле тоже нет. Есть текстовый контекст, когда он становится слишком большим, сеть не может делать из него сложных выводов. Например, она не может понять, что эту котодевочку я уже ебал, котодевочка может внезапно стать моей сестрой, одна котодевочка может вдруг назвать другую котодевочку шлюхой, хотя минуту назад по контексту они были подружками.

Поэтому если человек знает, что спрашивать, он очень быстро поймёт, что общается с цепью Маркова на стеройдах. Или, по крайней мере, с человеком, прикивающимся цепью Маркова.
Аноним 24/06/21 Чтв 15:39:40 207909024
>>2079058
>общается с цепью Маркова на стеройдах
Человек такая же цепь маркова на стероидах.
Аноним 24/06/21 Чтв 16:45:49 207915725
>>2079058
Есть же такая штука как стоп токены, и думаю очевидно что если там указать что "Q:" это стоп токен а потом показать все кроме двух последних символов, то все будет заебись.
Ну и забывчивость в первую очередь потому что каждая модель трансформеров имеет свою заданную при создании длину в токенах, и когда текст меньше этой длины остаток заполняется нулями. Ну и очевидно что когда текст превышает длину модели то контекст старается. Есть костыль, например в gpt-j, что при превышении длины начало выводится, но не передается нейронке, а если ей сказали генерировать больше ее длины то она сама каждый раз в цикле генерирует обрезая контекст и вставляя сгенерированный текст в контекст. Но это лишь костыль, контекст улетит еще дальше.
Есть еще костыль с тренировкой на сжатом вокабе, то есть вместо какого то слова там китайский символ который в единственном экземпляре весит меньше последовательности обычных. Но там все так же теряется контекст.

В общем нужны либо нейронки с большим контекстом (а больший контекст увеличивает количество параметров 1 к 1 или примерно так, а так же требует больше памяти, то есть две модели с разными конфигами и одним числом параметров если у одной число параметров больше из за длины, то она будет жрать в раза 2 больше памяти).
Либо новая архитектура или хотя бы костыль. В принципе подошло бы и усреднение контекста при превышении но это ещё никто не запилил.
Аноним 24/06/21 Чтв 16:58:50 207917326
>>2079090
> горькие петухи такие же цепи маркова на стероидах
Не благодари
Аноним 24/06/21 Чтв 17:07:55 207918527
1624543672827.jpg 18Кб, 220x352
220x352
>>2079173
Петух тут только ты.
мимо-Горький
Аноним 24/06/21 Чтв 17:56:38 207924328
31592135.png 27Кб, 360x256
360x256
>>2079185
>Петух тут только ты.
Аноним 24/06/21 Чтв 19:53:31 207934229
>>2079058
>эту котодевочку я уже ебал, котодевочка может внезапно стать моей сестрой
Не увидел противоречий
>одна котодевочка может вдруг назвать другую котодевочку шлюхой, хотя минуту назад по контексту они были подружками.
Аналогично.
Аноним 24/06/21 Чтв 22:53:37 207945630
>>2078609
ну они и мудаки. я про модеров
Аноним 24/06/21 Чтв 23:01:52 207946131
>>2079456
ПовестОчка же. Либо авторы идут на бутылку за распространение оригинального запрещенного контента, авторство которого скорее всего закрепят за авторами, либо заклеивают очко и избегают всех рисков.
Кстати поэтому деловому пепе привет, остальным соболезную нейросети и должны быть открытыми и заточенными под локальное выполнение ведь распространение через интернет цп это статья, а хранение для личного пользования уже совсем другая но все же статья.
Аноним 24/06/21 Чтв 23:10:00 207946932
>>2079157
>В общем нужны либо нейронки с большим контекстом (а больший контекст увеличивает количество параметров 1 к 1 или примерно так, а так же требует больше памяти, то есть две модели с разными конфигами и одним числом параметров если у одной число параметров больше из за длины, то она будет жрать в раза 2 больше памяти).
Это что бы даже у гигантов типа гугла с мелкомягкими вычислительных мощностей перестало хватать?
Аноним 24/06/21 Чтв 23:14:03 207947033
>>2079469
>>2079157
> Либо новая архитектура или хотя бы костыль. В принципе подошло бы и усреднение контекста при превышении но это ещё никто не запилил.

да
Аноним 24/06/21 Чтв 23:43:44 207948434
Анастасия Никулина: Кластеризация в маркетинговом анализе на примере cookies
https://www.youtube.com/watch?v=J-dlntUtlbQ

1) Какая связь между примерами в начале (вроде - давайте разделим пользователей на богатых и бедных и богатым будем показывать рекламу люксовых тачек а нищукам показывать тачки попроще) со всей последующей ебаниной про кластеры?

2) Так что получается любой сайт может прошерстить все мои куки и узнать все-все про меня? Не ну нахуй такого не может быть, должны же быть какие то ограничения по любому.
Аноним 25/06/21 Птн 00:13:35 207949835
>>2079484
А ты что, не отключил куки через umatrix?
Аноним 25/06/21 Птн 02:03:49 207956336
>>2079157
>Есть же такая штука как стоп токены
Алгоритм. Человек легко наебёт любой алгоритм, если поймёт его принцип действия. Попросит нейросеть выдавать ответы без Q: и A: и алгоритм сломается.

В том то вся и фишка, что один человек изобретает алгоритм, а другой человек его разгадывает. Но сам по себе алгоритм ничего не может создать. А человек, пусть хуёво, но создаёт. Даже пчела может создавать и адаптироваться.

Мне кажется, что основная проблема в том, что алгоритмы не живут в нашем мире. А пчелы и C.Elegans и прочие живут. Многим вообще не нужны нейроны, чтобы действовать разумно. Ну разве не разумно действут какие-нибудь вирусы, разве не разумен C.Elegans с его 300-ми нейронами?

Чтобы разгадать загадку разума, надо сначала разгадать загадку жизни. Разум следует из жизни, разум лишь производная нашего существования.
Аноним 25/06/21 Птн 02:14:17 207956437
>>2079456
Они следуют повесточке Маска "too dangerous to release". И я с ними согласен. Есть novelai. Там нет модерации, я купил их премиум-аккаунт и погонял их сеть. Но блядь, это небо и земля. GPT-3 - реально как живая. Я иногда её пугаюсь, мне кажется, что я не цифровых котодевочек ебу, а разговариваю с реальным человеком. Ну совсем иногда, но бывает. Они - лидеры, они могут диктовать свои условия. Если не нравится, сделай свой трансформер. Пока у остальных не получилось.
Аноним 25/06/21 Птн 02:16:25 207956738
16235344398000.jpg 185Кб, 447x599
447x599
>>2079563
Раз зумера библиотеку изобрели, может быть и до бихевиоризма додумаются. До RFT точно не додумаются
Аноним 25/06/21 Птн 03:28:15 207958439
>>2079564
> кудахтахтах как жевая но мы вам не покажем
Да-да ага-ага
Пока вижу только улучшенные вариации марковских цепей, но у ЛИДЕРОВ разумеется есть ИНОПЛАНЕТНЫЕ ТЕХНОЛОГИИ
Аноним 25/06/21 Птн 07:36:54 207960440
>>2079564
> Пока у остальных не получилось.
У чингчонгов получилось. Wudao2 1775В в 10+ раз больше гпт3. Но те точно никому не дадут, даже за деньги, им ГУЛАГ важнее бабла.
Аноним 25/06/21 Птн 07:52:47 207960941
>>2079563
Уносите этого античного философа. Ты хоть в открытую про Космос говори что ли.
Хотя проблема нейросетей в размере мира действительно есть, что их взаимодействие в нем, что сам мир, сильно ограничены. Есть rl который довольно неплохо решает эту проблему но взаимодействие все еще ограничено, даже если подрубить его к физическому робопсу, все что он сможет сделать это научиться ходить и паре других трюков. Он не сможет научиться говорить или читать в рамках этого алгоритма. Можно подрубить другой алгоритм, обычно так и делают к слову, но как по мне это самый что ни на есть костыль от которого стоит избавиться как можно скорее вель он стопорит прогресс создания полноценного алгоритма с несколькими нейросетями с сильной взаимосвязью и непрерывной обучаемостью.
Ну и да, rl крайне медленный и требовательный и думаю очевидно что на примере робопса его агент будет управляться через сервер.

Аноним 25/06/21 Птн 08:42:43 207961942
>>2079609
> Он не сможет научиться говорить или читать в рамках этого алгоритма.
Животные тоже не умеют читать и говорить, причем, без всяких алгоритмов. Гпт это более продвинутый ии, чем животные, потому что даже с обезьяной ты хуй поговоришь, а уж читать она никогда не сможет, а гпт в человеческий язык таки может, хоть и хреновато, но то такое. Даже самая продвинутая обезьяна не может в Winograd schema challenge, а трансформеры могут, хотя по параметрам (нейроны, связи, веса) несравнимы даже с тараканом, про обезьяну и говорить нечего, у них мозги на многие порядки сложнее гпт. Это я к тому, что сравнивать количество нейронов в мозгу с количеством параметров трансформера для оценки того, сможет ли он эмулировать мозг, изначально неправильно. Я бы предложил сравнивать именно поведенческие возможности алгоритмов (может ли алгоритм в эмуляцию оперантов, особенно обобщенных - arbitrary applicable relational response). Животные совсем не могут, это медицинский факт, человек может, трансформеры внезапно тоже могут, но очень плохо, даже у gpt-j-6B эта возможность в зачаточном состоянии. Гпт3 скорее всего может намного лучше, может быть даже на уровне калмуниста, wudao2 скорее всего уже где-то близко к нормальной личинке человека, хотя это только моё предположение, конечно.
Аноним 25/06/21 Птн 09:05:33 207962543
>>2079619
Тут же все просто, сейчас абсолютно все нейронки моделируют одну конкретную задачу - гпт писать текст, всякие ганы - генерировать всратые пикчи, классификаторы рил тайма - классификация, в рил-тайме. Если взять у той же обезьяны участок мозга и развить его полностью загубив остальные, она сможет и в генерацию текста на уровне нейронок, но там много сложностей и общество по защите животных посадит тебя на бутылку.
Сейчас проблема в том, что тот же gpt, алгоритм движения робопса и компьютерное зрения находятся в разных состояниях и основаны иерархично. Компьютерное зрение не будет дообучено без вмешательства людей, и по сути каждая составляющая почти не связана с другой. В мозгу любых мало мальски развитых существ есть несколько отделов которые связаны куда сильнее и которые по сути непрерывно взаимообучаются и на задачу "опиши то что ты видишь на тарелке" нейронка сначала посмотрит классификатором, найдет там яблоко а потом отправит "яблоко" в гпт и выйдет что то вроде "яблоко. как много смысла в этом слове, оно может быть съедено, может лежать в анусе, может ходить и говорить" или что то в этом роде. Мозг человека же сначала отправляет сигнал с глаз на классификатор, потом классификатор возбуждает некоторые нейроны и по сути создает интерпретацию яблока в виде матрицы, и уже она отправляется в речевой центр чтобы сказать "на столе лежит яблоко".
Аноним 25/06/21 Птн 13:13:57 207981344
>>2078932
>>2078942
Ан нет, не наебал.
https://arxiv.org/pdf/1703.03864.pdf
Там буквально тот же алгоритм, что и здесь https://arxiv.org/pdf/1803.07055.pdf , но в последнем обучают линейную модель, а в первом даже сверточные сети. Но только учти, что там специфические задачи, не очень большие сети (по меркам supervised ml) и 1440 процессоров.
Аноним 25/06/21 Птн 15:07:03 208000145
>>2079625
>Если взять у той же обезьяны участок мозга и развить его полностью загубив остальные, она сможет и в генерацию текста на уровне нейронок
Охуительные откровения диполухов продолжаются
Аноним 25/06/21 Птн 15:16:29 208002746
16230875571941.mp4 1195Кб, 1280x720, 00:00:08
1280x720
Анон, подскажи, пожалуйста.
Допустим есть берт и пайплайн для получения ответов на вопросы.
Можно ли вместо ответов получить эмбеддинги ответов?
Если можно, то надо модифицировать пайплайн или саму модель?
Пайплайн в таком случае вообще нужен?
Аноним 25/06/21 Птн 15:29:01 208004747
>>2080001
Что не так? Если ты про то что этого не сделали, то уже написал же. Например недавно в китае заставили самцов мышей забеременеть через пришитие их тел к телам самок и пары других модификаций на уровне гуро. Так теперь с ними судятся и им грозит как минимум штраф.
А тут нужно во первых провести ряд эксперементов а это минимум -10 обезьян, а потом превратить жизнь еше одной в ад без гарантий на то что эксперемент будет сам по себе сразу удачен. За это в лучшем случае на твою лабораторию сбросят пару атомных боеголовок.
Аноним 25/06/21 Птн 16:27:15 208012048
>>2079564
> GPT-3 - реально как живая
Какая из них GPT? У novelai или ai-dungeon?
Аноним 25/06/21 Птн 17:29:00 208022049
>>2080120
> Какая из них GPT? У novelai или
> ai-dungeon?
У этих гпт3, но только в версии dragon. У novelai gpt-j-6B.
Аноним 25/06/21 Птн 18:49:30 208032550
>>2080220
То есть с одной стороны в платном ai dungeon есть нормальный генератор текста, который не отличить от человека, но если заставить генерить детское порно, то отлетишь в бан. окей
Аноним 26/06/21 Суб 06:25:07 208069451
>>2080325
Там все тексты логируются, даже пользователю можно просмотреть и сохранить всю историю своей переписки с гпт. Видимо, на их стороне дополнительно прикручен детектор всякого атятяй-контента, а самых умных а-ля "ебырей кошкодевочек", банят.
Аноним 27/06/21 Вск 01:00:06 208135352
не знаю насколько вопрос в тему, но есть ли у кого-нибудь материалы курсов статистики ФИВТ'а? простым смертным вроде не доступны. есть только вот такой куцый огрызок
https://mipt-stats.gitlab.io/courses/stat19.html
тут только лекции, и то лишь по первой половине курса.
а хотелось бы ещё и семинары, конечно
Аноним 27/06/21 Вск 19:51:46 208222253
Аноним 28/06/21 Пнд 00:54:31 208244554
Можете дать идею для пет проджекта чтобы можно было показывать на собесе на стажировку/на джуна? Мб датасет какой нибудь...
Нужно что-нибудь поинтереснее трёх с половиной решенных домашек на гитхаб залить.
Аноним 28/06/21 Пнд 04:48:51 208248655
>>2082445
object detection|object segmentation + автопилот например для ГТА
Аноним 28/06/21 Пнд 06:14:03 208249456
>>2082445
Sentiment analysis на русском и чтобы на каком-нибудь хероку крутился и можно было потыкать.
Аноним 28/06/21 Пнд 10:08:48 208255257
>>2082445
Зафайнтюнь гпт на пастах про говно.
Аноним 28/06/21 Пнд 10:13:59 208255458
Что такое 768 в выходном слое у BERT?
Аноним 28/06/21 Пнд 17:57:11 208293859
>>2082486
>>2082494
>>2082552
уфф это всё конечно круто, а можно что-нибудь не дип лёрнинговое, есть идеи? я для начала отобраться хочу хотя бы sql запросики выгружать и лгбтбустинг тыркать по возможности...
Аноним 28/06/21 Пнд 18:06:01 208295160
>>2082938
Тогда напиши генератор паст про говно без нейронок с помощью простого рандома и его манипулции. Разумеется с датасетом в sql.
Аноним 28/06/21 Пнд 19:22:17 208303861
Аноним 28/06/21 Пнд 19:25:28 208304562
>>2083038
классические нлп методы предлагаешь потыкать? ну, наверное, можно, просто я думаю от стажеров чутка другого ждут.
Если ничего более интересного не нарою - займусь этим, спасибо.
Аноним 28/06/21 Пнд 19:28:13 208305463
1488464929442.png 243Кб, 550x302
550x302
Аноним 28/06/21 Пнд 19:57:22 208309064
>>2083045
есть мнение что неплохо было бы сделать проект по рекомендательным системам/ранжированию.

есть идеи где найти датасет под такие задачи?
Аноним 28/06/21 Пнд 21:30:31 208319465
>>2083090
Задача #1: занырнуть в датамайнинг. То есть научиться гуглить
Аноним 29/06/21 Втр 00:24:39 208333666
>>2079563
Загадка жизни разгадана, маняромантик. Теория Дарвина. Только вот денег на такие разработки в эволюции электронных мозгов ни у кого нету.
Аноним 29/06/21 Втр 01:15:01 208334667
А есть ченить на русском?
Ну после часа чтения или слушания на ангельской меня заебывает.
Аноним 29/06/21 Втр 01:30:37 208335268
>>2083346
A что есть что-то послушать на ангельском кроме презентаций новых процессоров или одного-двух разборов статей?
Аноним 29/06/21 Втр 02:57:12 208337669
>>2083346
Лучше считать что нет, я даже больше скажу, например вся математика ЕСТЕСТВЕННО есть на русском, оригинально на нем же написанные учебники, это очевидно, но поскольку все края знаний по МЛ в которых для понимания требуется знать хотя бы термины из математики будут на английском и у тебя будет эффект хуйни от несоответствия в голове понятий, банальное дот-продукт и скалярное произведение, и в нумпай ты будешь писать np.dot а не np.skalarnoe_proizvedenie как бы. Ты рядом с дот-продуктом выучишь иннер продукт, который часть иннер продукт спейса. Что ты услышишь на русском? Правильно - очевиднейшее ПРЕДГИЛЬБЕРТОВО пространство и так далее, просто все библы адаптированы и логически подстроены под английские названия
Если ты хоть чего-то уже понимаешь - открой любой вебинар со скиллбокса, где кабанчик-препод из-за специфики скиллбокса(потенциальный клиент не знает математики и английского) выкручивается как шашлык ебаный при попытке просто как-то описать one-hot-encoding, каждый раз уточняет что такое mean и что такое median, постоянно путается сам называя то векторами, то арреями, причем сами арреи иногда нумпаевские вектора, иногда просто общее название структуры данных, я ебал
Весь этот КУКОЖ должен намекнуть что миксовать не стоит, а поскольку возможности с нуля и до упора выучить на русском хоть одну библиотеку нет никакой, то вывод - изначально все учить на английском
Я тебя понимаю частично, только я раньше когда художественную литературу начал читать на инглише, сессия чтения на русском у меня была страниц под 300, на английском на старте 75 и все - голова чугунная. В итоге раздрочилось и разницы почти не стало, просто перетерпи
Аноним 29/06/21 Втр 03:25:44 208338070
/test
Аноним 29/06/21 Втр 09:30:56 208346171
>>2080047
Мимо
Мы не знаем как напрямую обучать ЦНС животных, как вообще работают нейроны, откуда у них случается случайная синхронизация и т.д.
Аноним 29/06/21 Втр 10:16:46 208348572
>>2083461
Частично знаем же, да и обучить цнс смог еще Павлов собаке, да и учёные в хую моченные уже смогли управлять поведением мышей через имплант стимулирующий участки коры мозга. А работу нейронов в частном случае открыли еще в 1837 году и давным давно смоделировали.
Ну и дело за кучей крайне жестоких опытов и сотнями убийств мартышек и дело в шляпе.
Аноним 29/06/21 Втр 10:40:11 208350473
162393529011414[...].jpg 136Кб, 824x1280
824x1280
>>2083485
>Павлов собаке
Разницу между рефлексами и разумом нейродебилы еще не понимают?
Аноним 29/06/21 Втр 11:38:46 208353974
16246163301630.jpg 104Кб, 592x532
592x532
>>2083461
> Мы не знаем как напрямую обучать ЦНС животных,
> мы
Кто вы-то? Зумера? Давно все известно.
>>2083504
> Разницу между рефлексами и разумом нейродебилы еще не понимают?
Ты много понимаешь, поридж?
Аноним 29/06/21 Втр 11:39:00 208354075
>>2083504
Напомни пожалуйста, на чем основаны рефлексы? Ах да, на возбуждении определенных нейронов из за определенных стимулов (собака получает стимул выделять желудочный сок от еды которую в ее сознании совместили с музыкой). А теперь напомни, на чем основан разум? Ах да, на возбуждении определенных нейронов из за определенных стимулов (человек пишет слово хуй на заборе из за стимула показать что он долбаеб и этот стимул в его сознании связан с рисованием на стенах). Конечно, разум куда сложнее, стимулов как скрытых так и явных куда больше а связи сложнее и участвуют более разрозненные и многочисленные группы нейронов, но это уже давно не черный ящик.
Даже сейчас разработана хуйня которая может определить понравился ли человеку другой человек или нет по активности мозга. Ей же, даже без дырки в черепе, уже даже можно управлять мышкой.
И отгадай, что это значит? Правильно, разум это сложный набор тех же примитивов что и лежат в основе рефлексов и самой цнс. Думаю что из этого следует догадаешься сам.
Аноним 29/06/21 Втр 11:52:55 208354576
>>2083540
>на чем основаны рефлексы?
На том, что тело и разум это разные вещи. Как нейродебилы обьясняют безусловные рефлексы или инстинкты?

Процесс развития рабочей пчелы от яйца до выхода взрослой особи продолжается 21 день; из них 9 дней пчела находится в открытой ячейке и 12 дней — в запечатанной. Трутень же развивается дольше, чем рабочая пчела. Стадия яйца у него длится 3 дня (как и у рабочих пчел), стадия личинки — 6,5 дней. В запечатанной ячейке трутень находится 14,5 дней. Всего со дня откладывания яйца до выхода взрослого трутня проходит 24 дня.

Сформировавшаяся рабочая пчела или трутень прогрызают крышечку ячейки и выходят на поверхность сота.


Через 21 день пчела выходит из соты со всеми навыками взрослой пчелы. Кто обучал ее нейроны? Мммм?
Аноним 29/06/21 Втр 12:49:12 208360977
>>2083545
Ты немного тупенький раз для аргументации тебе понадобились еще и инстинкты, верно? Ты еще написал бы а хули у пчел есть глаза или крылья, откуда? Тоже нейронами додумались отрастить?
И нет, не нейроны. Если ты правда считаешь что нейроны сами по себе могут с нихуя взять и обучиться то я жалею о тех минутах пока писал посты для срача с озлобленной мартышкой из которой сделали реальную нейронную сеть и запустили срать на двощах.

Инстинкты как известно всем кто учился в школе хотя бы 7 классов, передаются на генетическом уровне в хромасомах. То есть по сути новая особь живого организма это развертка генетического кода. А именно все строение организма, путь его развития, базовое состояние клеток которое вроде химического состава клеток и так далее. Надеюсь ты все это время толстил и на самом деле проучился 8 классов после чего пошел на завод, ведь то что ты мартышка все же мало вероятно. Так вот, тебе должно быть известно что обмен информацией и ее хранения в нейронах и между ними осуществляется на химическом уровне. Возвращаясь к тому что было двумя предложениями раннее, воспроизводится и химический состав а так же строение цнс которое подобранно в ходе эволюции. То есть у практически всех живых существ уже есть изначальные состояния нейронов и тела которые зависят от родителей.

И снова вернемся к рефлексам. Да. Часть из них вроде дыхания, сердцебиения и так далее тоже с самого начала так сказать компилируется из генетического кода уже в таком состоянии что средце бьётся а дыхание работает.
Ну и как известно, людям либо не переходит состояние разума совсем, либо переходит самый минимум, и тут я говорю не о памяти бати или деда а о общих начальных состояниях нейронов которые вывелись еще когда человек по пещерам лазил, например боязнь младенцами пауков и змей без которых в те времена бы большая часть человечества вымерла бы.
Аноним 29/06/21 Втр 15:23:16 208374778
30067889-1.jpg 170Кб, 900x1200
900x1200
>>2083609
>генетическом уровне в хромасомах
>начальных состояниях нейронов
Ваше статистическое говно в ящике к биологическим нейронам не имеет никакого отношения. Обтекай.
Аноним 29/06/21 Втр 15:40:59 208377979
>>2083747
При чем тут компьютерные нейронки?
> Молекула ДНК хранит биологическую информацию в виде генетического кода, состоящего из последовательности нуклеотидов
> Каждая хромосома состоит из хроматина - сложного комплекса из ДНК , белков и некоторых других компонентов (в частности, РНК ). Хроматин неоднороден, и некоторые типы такой неоднородности видны под микроскопом.

Или тебе нужно заглянуть в твой учебник за 6 класс по биологии чтобы не срать под себя?

Даже если это хранится не в нейронах, абсолютно точно то что это воспроизводится в той части где это хранится.

Ну и первая статья в гуголе.
https://ria.ru/20120917/752767252.html
Аноним 29/06/21 Втр 15:46:55 208378780
161844274614257[...].png 641Кб, 795x597
795x597
>>2083779
Нейродебил сорт ов сектантов.
Аноним 29/06/21 Втр 15:56:39 208380381
1624971398419.jpg 2Кб, 170x113
170x113
>>2083787
> Нейродебил
Сказали нейроны мартышки подключенной напрямую к мочачу
Аноним 29/06/21 Втр 21:37:39 208423382
>>2082938
просто как идея - захуярь скоринговую карту на логреге, да, это с трудом можно назвать датасаенсом, но можно потом пытаться вкатиться в банки
Аноним 30/06/21 Срд 01:08:08 208438583
n9ioRuKYU30.jpg 318Кб, 929x960
929x960
всем привет
итак, есть две задачи: 1.классифицировать изображения людей как настоящие или как сгенерированные(точность модели должна быть не менее 0.9)
2.есть два фрагмента текста, и нужно определить, есть ли между 2 фрагментами текста причинно-следственная связь(не менее 0.2)

до конца июля мне нужно решить хотя бы одну задачу, также, на практике, я полный ноль в машинном обучении, знаю самые основы питона, с математикой проблем нет. я прошу вас, аноны, направить меня в нужное русло, скинув литературу/курсы/другие ресурсы и желательно конкретные темы, необходимые именно для этих задач. вообще, возможно ли их решить за такой короткий срок изучив все необходимое?

заранее всем спасибо за любые советы и рекомендации
Аноним 30/06/21 Срд 08:05:29 208445384
>>2084385
> 1.классифицировать изображения людей как настоящие или как сгенерированные(точность модели должна быть не менее 0.9)
Это крайне легко же.
Берешь самый простой из готовых новых классификаторов, берешь самый пиздатый генератор ебальников, берешь датасет с реальными лицами и учишь нейронку, указав что в папке real реальные, в папке gen сгенерированные.
Как два пальца об асфальт.

> 2.есть два фрагмента текста, и нужно определить, есть ли между 2 фрагментами текста причинно-следственная связь(не менее 0.2)
А тут можно натренировать гпт или берт на разделенном датасете где каждый текст в виде "первый фрагмент второй фрагмент вывод". А потом при генерации дать ввести первый фрагмент, дать ввести второй фрагмент и вставить в затравку как строку.

Хотя если делать свою архитектуру с околонуля то до конца июля ты явно не успеешь, хотя точность в первом случае так можно повысить. Главное чтобы было на чем тренировать.
Аноним 30/06/21 Срд 08:52:17 208445885
>>2084385
> есть ли между 2 фрагментами текста причинно-следственная связь(не менее 0.2
Это как вообще? Если просто подкидывать монетку, разве точность будет не 0.5?
Аноним 30/06/21 Срд 08:53:31 208445986
>>2082938
Может быть что-то с географическими картами?
Аноним 30/06/21 Срд 09:20:16 208447287
>>2084453
>берешь самый пиздатый генератор ебальников
Так смысл ему брать самый пиздатый, если у него в датасете скорее всего будут другие ебальники, построенные другой моделькой. Первым делом надо требовать датасет, на котором в итоге будет замеряться точность.
Аноним 30/06/21 Срд 09:22:44 208447488
>>2084472
Так каждый генератор лиц обучается на датасете, и чаще всего это face что то там, уже точно не помню название. Он есть в открытом доступе же.
Аноним 30/06/21 Срд 14:01:34 208466689
Сап, нейрач. Я пытаюсь обучить сеть с GRU для расчета регрессии и ловлю такую проблему: в наборе исходящих переменных первая в наборе предсказывается хорошо, а остальные - плохо. Причем если я на первое место поставлю другую, то уже она будет хорошо предсказываться.

Я нуб, и пробовал делать сеть на основе двух разных примеров, но в обоих случаях получается вот так. Что это такое? Мой косяк?
Аноним 30/06/21 Срд 14:19:33 208467890
Аноним 30/06/21 Срд 16:43:29 208482191
Я тут подумал, а что если в трансформеры типа гпт с помощью датасета запихать фичу типа берта на анализ всей последовательности токенов а не только прошлых? Типо в начале в датасете указывается позиция и сам токен, затем сам текст с этим токеном на позиции и токен конца текста а затем по новой.
Уже так делали? Есть ли смысл делать такой костыль?
Аноним 01/07/21 Чтв 08:34:04 208524692
А я подумал, что если у нас есть готовый эмбеддинг, то разве нельзя с ним дальше работать как с векторным пространством, только вместо векторов - тензоры? Где-то попадался алгоритм классификации тензоров. Или как лингвистические регулярности, только с тензорами, там вообще ничего кроме арифметики с тензорами не нужно. Даже сам претрейн не нужно в оперативу пихать, обращаться к нему как к базе данных, запросами а-ля SQL. Почему так нельзя?
Аноним 01/07/21 Чтв 09:07:07 208525393
image.png 517Кб, 2450x1742
2450x1742
Там это. Кодерки на помоечку идут. Гитхаб сам себя заполняет.
https://copilot.github.com/
Аноним 01/07/21 Чтв 09:21:17 208525594
>>2085246
Почему эмбеддинг - тензор? Обычно же именно векторы испрользуют.
С какими-то эмбеддингами можешь работать как с векторным пространстовм (w2v), с какими-то это будет очень неестественно или бессмысленно (facenet).
Можешь делать что хочешь, лишь бы работало не хуже стандартных методов.
Аноним 01/07/21 Чтв 09:24:40 208525895
>>2085253
Имплаинг лично теб это не каснется, лол
Аноним 01/07/21 Чтв 09:27:21 208526096
>>2085255
> Почему эмбеддинг - тензор? Обычно же именно векторы испрользуют.
Может быть, я ошибаюсь, но фичи слов, фраз итд, которые выдают трансформеры, это именно тензоры. Где-то даже видел тему, как эти тензоры пытались складывать и вычитать, ну типа как тот пример word2vec - "king - man + woman = queen", правда ничего не вышло.
Аноним 01/07/21 Чтв 21:54:09 208567997
>>2085260
King - man + woman это именно векторы складывают, не случайно там word2VEC.
А конкретно в примере выше на самом деле должно получаться king. Queen это ближайший вектор к результату, если не учитывать слагаемые слева.
А трансформеры выдают тензоры потому что так удобней понять, что с какого слоя пришло и что к чему относится. На практике всё равно это каким-либо образом вытягивается в вектор.
Аноним 02/07/21 Птн 01:28:13 208579698
>>2083609
Так и чего тогда условная гроза, вызывающая сильные ЭМ помехи не крашит всем сознание? Или это другое и на "начальное состояние нейронов" не работает? А куча сраных мутаций, сотресение мозга?

Слишком много редукционизма
Аноним 02/07/21 Птн 01:31:10 208579899
Аноним 02/07/21 Птн 01:45:06 2085801100
Посоветуйте учебник
1) тервер и матстат в одной книжке
2) в меру строгое повествование, с доказательствами, теоремами и тд
3) легко и понятно написано
4) желательно на русском
Аноним 02/07/21 Птн 01:55:52 2085802101
>>2085801
>2) в меру строгое повествование, с доказательствами, теоремами и тд
>3) легко и понятно написано
Как понты математиков могут быть легко и понятно написаны?
Аноним 02/07/21 Птн 05:30:33 2085821102
>>2085801
Вентцель, "теория вероятностей". Кок-пок нимодна
Аноним 02/07/21 Птн 11:54:15 2085995103
>>2085796
Про магнитные бури слышал? У многих от них болит голова и отгадай почему.
А если молния ударит в голову то может спокойно сжечь некоторые участки вместе с волосами и кожей.
А сотрясение мозга по своей природе это механическое повреждение, небольшая часть нейронов повредится и даже может мешать передаче между другими.
Однако мозг - избыточен, а избыточность ведет к стабильности. И в итоге те нейроны что были повреждены уничтожаются и поглощаются другими а существующие которые были в избыточном участке и почти не играли роли идут на их место.
Ну и мутации само собой есть и охуеть как могут влиять, это в конце концов механизм эволюции и это самое начальное состояние у макак сильно отличается у состояния у человека. Неблагоприятные мутации обычно называют болезнями, тот же аутизм и куча других врождённых траблов.

>>2085798
> Свою теорию Аксель Клиреманс впервые опубликовал в 2011 году. Он называет её «положением о радикальной пластичности» мозга. Этот тезис вполне соотносится с последними научными исследованиями, которые показывают необычную пластичность взрослого мозга, способного восстанавливаться после травм, «перепрограммировать» отдельные участки на новые задачи, восстанавливать сознание и полную работоспособность.
> Теория Клиреманса может объяснить случай с французским мужчиной, который сохраняет сознание в отсутствие 90% нейронов. По мнению учёного, даже в этом крохотном мозге оставшиеся нейроны продолжают описывать собственную активность, так что человек отдаёт отчёт своим действиям и сохраняет сознание.
Же. Архитектура мозга может постоянно меняться и вполне возможно что инструкция к изменению тоже заложена на генетическом уровне. То есть базовая архитектура есть, но она сложна, модульна, избыточна и может меняться.
Аноним 02/07/21 Птн 13:28:47 2086080104
>>2085679
Всё-таки интересно, можно ли так же с трансформерами делать. По идее, точность должна быть намного выше чем у word2vec, у трансформеров же эмбеддинг учитывает контекст, и для одного и того же слова в разных значениях, тензоры тоже разные. Просто вычитать и складывать тензоры точно нельзя, надо как-то иначе.
Аноним 02/07/21 Птн 14:14:24 2086132105
>>2085995
Нет-нет. От манитных бурь у тебя не голова дожна болеть, а глюки начинаться. Я вот ничего подобного, что происходит в сильном МП с ПК у человека не видел.
Аноним 02/07/21 Птн 14:15:07 2086134106
>>2085995
>Однако мозг - избыточен,
Это еще доказать ндао
Аноним 02/07/21 Птн 14:16:14 2086135107
>>2085995
>Же. Архитектура мозга может постоянно меняться и вполне возможно что инструкция к изменению тоже заложена на генетическом уровн

Сразу сознание в гены запихай, а хули нам.
Аноним 02/07/21 Птн 14:30:28 2086148108
Чего этот сим свап такой качественный?
Аноним 02/07/21 Птн 14:36:48 2086153109
>>2086134
> человек спокойно хоть и с 75iq живет без 90% мозга
> доказать надо
Уже.
Аноним 02/07/21 Птн 14:39:20 2086158110
>>2086135
Оно изначально почти пустое и почти наверняка в генах же. А потом само собой развивается. Хули нет то? Твои предположения?
Аноним 02/07/21 Птн 14:41:02 2086160111
>>2086132
Компы - полностью эм структура где основную роль что в памяти что в самом процессоре выполняют электромагниты. В голове основа - химические реакции. То есть влияние магнитов куда слабее, к тому же кожа и кости это довольно неплохая изоляция.
Аноним 02/07/21 Птн 16:10:20 2086210112
>>2086080
Ты для начала посмотри, что означает каждая размерность в тензоре.
Аноним 02/07/21 Птн 17:41:57 2086264113
>>2085798
>habr.com
Говноед, уходи
Аноним 02/07/21 Птн 18:19:36 2086294114
>>2082486
ну вы блин посоветуете. Еще пусть создаст робота который делает автомобили как завод у Маска...
Аноним 02/07/21 Птн 20:18:27 2086352115
>>2086294
Это же так просто же. На самом деле.
мимо
Аноним 02/07/21 Птн 21:34:49 2086427116
>>2079619
>потому что даже с обезьяной ты хуй поговоришь
С ГПТ-3 ты тоже хуй поговоришь. ГПТ не говорит с тобой, она просто продолжает цепь токенов наиболее вероятным образом исходя из заданного контекста. Она обучен на огромном литературном корпусе, где люди описывали реальные ситуации, либо моделировали их, ГПТ-3 по сути, продвинутая поисковая система. Ты вгоняешь в неё последовальность токенов, она ищет подобную последовательность и продолжает её. Так как в памяти ГПТ-3 просто дохуя заранее созданных людьми литературных текстов, она может продолжить практически любую цепочку более-менее адекватно.

Но ГПТ принципиально отличается от любого животного. Кошка, собака, слон, сорока пусть не говорят, но у них есть личность, память и собственные интересы (пусть даже это банальный интерес - получить от тебя банан). Сорока охуенно осознаёт себя как личность. Сорока прекрасно понимает, что вот есть она, сорока, и есть ты, субъект, с которым она взаимодействует с какой-то целью. И её действия куда более целенаправлены и интеллектуальны.

Сорока может сделать какие-нибудь выводы. Она может решить, что ты для неё опасен, или наоборот, безопасен, она может понять, что ты являешься источником корма, она может просто играть с тобой даже без корма, потому что ей это по кайфу. Потому что у неё есть личность. Потому что изначально в природе была сорока - организм, который должен питаться, размножаться и т.д. А уже потом эволюция присобачила сороке интеллект, чтобы сорока могла лучше решать свои задачи.

Поэтому в природном интеллекте первично самоосознание, у любого природного интеллекта есть "Я". И есть возможность с ним "поговорить". Тебе же не обязательно говорить с сорокой именно словами. По сути "разговор" - это просто обмен информацией между твоим "Я" и "Я" сороки, где каждый осознаёт себя отдельно и делает из этого обмена информацией какие-то выводы для себя.

В ГПТ-3 такого близко нет. У ГПТ-3 нет "Я". Это просто генератор текста. За любым природным интеллектом стоит некое живое существо, а интеллект - лишь надстройка над жизнью. За ГПТ-3 ничего не стоит. У нейросетки нет целей, нет задач, нет тушки, нет своих интересов. С ней нельзя разговарить, максимум, её можно использовать как крутой поисковик по корпусу сгенерированных людьми текстам.
02/07/21 Птн 21:43:32 2086430117
>>2086153
Ты понимаешь, что в природе избыточность, особенно такая - бессмысленна и невозможна. Мозг сжирает огромную кучу энергии => у всех должен быть такой же мозг, как у него +/-
Аноним 02/07/21 Птн 21:43:38 2086431118
>>2086427
В каком-то смысле ты прав, но это все не имеет значения. Ты зациклен на животной схеме, когда интеллект это лишь инструмент размножения. Отсюда вытекают все описанные тобой ограничения. Но это не обязательно должно быть так. ГПТ это чистый интеллект, не обремененный собственным я, инстинктами, мотивацией, самосознанием. Это квинтессенция того, что есть интеллект. Поэтому он потенциально гораздо сильнее человека, хотя и "поговорить" с ним как с человеком не получится. Вернее, получится, но он лишь симулирует личность. Личность эта создается под ситуацию, и исчезает после генерации ответа. Твой мозг имеет только одну личность, и постоянно держит ее активной. И это ограничение мозга, а не преимущество.
02/07/21 Птн 21:44:48 2086432119
>>2086158
ЧТо само-собой? Ты понимаешь, что такое сознание вообще? Я понимаю, вы тут не на филфаке учились. Алсо, где у детей маугли сознание? Почему они из себя предстапвляют не более, чем животных.
02/07/21 Птн 21:45:45 2086433120
>>2086160
А хим реакции - это типо не ЭМ взаимодействия, ога. Марш читать учебник физики.
Аноним 02/07/21 Птн 21:46:13 2086434121
>>2086264
>2ch.hk/pr
Говноед, уходи
Аноним 02/07/21 Птн 21:47:56 2086435122
>>2086160
>в самом процессоре выполняют электромагниты
Пиздец. Тебе там норм до изобретения ламповых компов?
Аноним 02/07/21 Птн 21:48:40 2086436123
>>2086427
Это основная проблема трансофрмеров же, это скорее оракул чем разумное существо. Где то видел как пытались сделать ии новой архитектуры, ему дали тесты на интеллект и он по словам разрабов прошел их на 100%. Код о.ещали заопенсорсить когда их юрист все наладит.
Еще слышал что нихонцы решили сделать аналог мозга на каких то трубках с эффектом памяти путей как в мозге.
Ну и само собой гпт крайне полезен для определенных задач где нужен не кожаный мешок а ии который анализирует данные и выдает нужный результат, тот же копилот от хуев с майками для помощи макакам.
Аноним 02/07/21 Птн 21:48:46 2086437124
>>2086160
>же кожа и кости это довольно неплохая изоляция.
Не лучше, чем теплораспределительная крышка и теплотрубки
Аноним 02/07/21 Птн 21:50:22 2086438125
>>2086430
С чего невозможна? Что мешало в процессе эволюции увеличивать избыточность чтобы даже такие как он с 10% и другими повреждениями мозга разной степени не умирали от каждого пука?
Аноним 02/07/21 Птн 21:51:52 2086439126
>>2086432
Я написал что то про то что сознание изначально взрослого человека? Вполне логично что если они представляют собой скорее животных то и сознание у них развилось как у животного.
Аноним 02/07/21 Птн 21:53:25 2086440127
>>2086433
Есть разница между прямым влиянием на физическое состояние железок и зашумлением поведения электронов в хим реакции. Большая разница.
Аноним 02/07/21 Птн 21:54:18 2086441128
>>2086435
Независимая память и поведение транзисторов все еще эм.
Аноним 02/07/21 Птн 21:56:15 2086442129
>>2086437
Хуже же. Кожа сама по себе не пропускает электричество во внутрь пока не догорит, так еще и охват тела практически полный.
Аноним 02/07/21 Птн 21:58:11 2086445130
Аноним 02/07/21 Птн 22:00:43 2086447131
>>2086438
C того, что это тонны энергии вникуда. Генетические алгоритмы забыли, да?
Аноним 02/07/21 Птн 22:02:31 2086450132
>>2086439
Сознание, блять, у животного.

Аноним 02/07/21 Птн 22:04:29 2086451133
>>2086447
Они находят свое применение - у того чела iq 75. Наверняка есть и деградация мелкой моторики и другие мелкие траблы. Если бы эволюционно у всех был бы мелкий мозг, до компов мы бы точно не дошли. К тому же логично что во времена бега с палками шанс огрести по голове был 99,9% и выживал тот у которого после этого оставались работающие нейроны, он и давал потомство.
Аноним 02/07/21 Птн 22:05:13 2086454134
Аноним 02/07/21 Птн 22:05:31 2086455135
Аноним 02/07/21 Птн 22:05:54 2086457136
>>2086450
Прикинь да. Не человеческое а животное. Википедию открой что ли.
> Сознание животных, как и человеческое сознание, является состоянием: ощущаемым состоянием — состоянием, в котором есть чувство нахождения в нём. Оно включает в себя качество или состояние самосознания у животного: осознание внешнего объекта или чего-то внутри себя.[2][3] Это является ключевым вопросом при обсуждении прав животных. У людей сознание определяется через чувствительность (англ. Sentience), осознанность, субъективность, квалиа, способность испытывать или чувствовать, бодрствование, чувство собственного достоинства и систему исполнительного контроля разума.[4] Несмотря на трудности в определении, многие философы полагают, что существует широко распространенное общее понимание о том, что такое сознание.[5]
Аноним 02/07/21 Птн 22:06:22 2086458137
>>2086442
Мы про магн. поле говорим, нет?
Аноним 02/07/21 Птн 22:07:48 2086459138
>>2086457
Охуеть. Учебник философии открой. Не мне тебе рассказывать, про хуевость терминологии и раздробленность современной науки.
Аноним 02/07/21 Птн 22:08:32 2086460139
>>2086455
> Накопитель на жёстких магнитных дисках, или НЖМД (англ. hard (magnetic) disk drive, HDD, HMDD), жёсткий диск, разг. винчестер — запоминающее устройство (устройство хранения информации, накопитель) произвольного доступа, основанное на принципе магнитной записи. Является основным накопителем данных в большинстве компьютеров.
Аноним 02/07/21 Птн 22:09:35 2086461140
>>2086460
И где там транзисторы? Ах да, в чипе-контроллере, который отдельная железка, ну да.
Аноним 02/07/21 Птн 22:17:52 2086466141
>>2086458
Про магнитное поле сказал же, у многих от него головная боль а нет крайне сильных глюков от того что воздействие на хим реакции у магнитного поля значительно меньше чем воздействие на железки. Дальше вроде начали про молнии. Не?
Аноним 02/07/21 Птн 22:20:27 2086467142
1625253626397.jpg 0Кб, 24x18
24x18
>>2086459
> философии
> философии
> философии
Предлагаю открыть календарь и увидеть что на дворе не шестой век до нашей эры, и открыть окно чтобы увидеть что там не античный рим.
Чего сразу про Космос не начал, я бы сразу заигнорил.
Аноним 02/07/21 Птн 22:22:10 2086469143
>>2086461
И снова википедия.
> Большая часть современных процессоров реализована в виде одного полупроводникового кристалла, содержащего миллионы, а с недавнего времени даже миллиарды транзисторов.
Аноним 02/07/21 Птн 22:27:19 2086471144
>>2086447
Есть нейропластичность. Мозг пропадал медленно и поэтому успевал восстановить/копировать важнешие из пропавших участков. Это всё вилами по воде и спекуляции, но у тебя не лучше.
И надо учесть, что он из франции, где он даже без работы мог бы неплохо жить на пособия по безработице. В более суровой среде непонятно, как нехватка мозга сказалась бы.
Аноним 02/07/21 Птн 23:29:21 2086499145
>>2079584
>мы вам не покажем
Ты можешь через aidungeon теребить GPT-3 сколько хочешь, пока не начнёшь писать рассказы про еблю несовершеннолетних (за это банят). Заодно можешь сравнить её с novelai. Но novelai - только за деньги (хотя там какое-то копьё, вроде 10 долларов в месяц, не помню уже).

Я бы тебе советовал купить доступ к обеим нейросетям и поиграть с ними, чтобы сравнить.

Самое удивительное в том, что технически они эквивалентны. Разница только в количестве свободных параметров и размерах обучающих выборок. И это удивительная штука. Создаётся впечатление, что мы можем получить AI просто "ниоткуда", просто въябывая вычислительные ресурсы в их обучение. Это очень необычно, как по мне.
Аноним 02/07/21 Птн 23:39:12 2086504146
>>2080120
Я на оба сервиса подписан. Novelai - классный инструмент. Они там дают удобный доступ почти ко всем настройкам. Но GPT-3 генерит текст на голову выще gpt-neo. Короче, если ты предоставляешь Novelai самой себе, текст быстро вырождается, она ближе к цепи Маркова. А GPT-3 как-бы самостоятельно может генерить текст. А разница между ними только в объёме. Вот в этом и вопрос, может ли количество перейти в качество?
Аноним 02/07/21 Птн 23:54:31 2086513147
>>2086467
Ну тебе в отрицалово проще уйти. Похуй на этих дебсов, гегели, трудовые теории происхождения разума. Гавна какаята
Аноним 02/07/21 Птн 23:56:48 2086514148
>>2086467
В вузах философию по приколу преподают на почти всех факультетах наверное.
один ты умный, да-да
Аноним 03/07/21 Суб 00:02:27 2086515149
wildlife-321174[...].jpg 49Кб, 638x480
638x480
>>2083346
Нет. А вообще, если тебя заёбывает читать/слушать на английском - это плохой знак. Вот меня сейчас английский заёбывает. Но мне сорок. Мозги уже не те. Раньше не заёбывал. Если тебя сейчас английский заёбывает, просто тренируйся прямо сейчас as hard as you can. Потому что дальше будет только хуже. А хуле ты хотел?
Аноним 03/07/21 Суб 00:41:44 2086535150
>>2086499
>Самое удивительное в том, что технически они эквивалентны. Разница только в количестве свободных параметров и размерах обучающих выборок.
Или может ещё в чём-то, от кучи эвристик поверх до китайцев in the loop. Пока closedai не дадут модель в открытый доступ весь этот пиздёж можно мимо ушей пропускать.
Аноним 03/07/21 Суб 02:56:28 2086580151
>>2078573 (OP)
Ну что, где там ваши автономус вехиклы?
Аноним 03/07/21 Суб 03:40:00 2086583152
А кто-нибудь уже догадался натаскать нейронку на каком-нибудь Quora, The Question или подобных сервисах, чтобы отвечала на вопросы? Получилось что-то хорошее?
Аноним 03/07/21 Суб 08:05:24 2086601153
>>2086513
>>2086514
Я знаю и сам учусь в вузе на прохраммиста и знаю на сколько она бесполезна. Философия была нужна в те времена чтобы вытеснить мифологию и частично религию и заставить людей думать, пытаться объяснять, находить причинно-следственные связи и так далее, а не говорить что бох дал птице право летать и что то вроде того.
Ну и в 18 или около того веке, точно уже не помню, чуть подсобили науке одной из основ детерминизма что все взаимосвязанно и нет, как по мне предопределено не все но после этого роль философии в науке стала равна нулю.
Сейчас все движется к чему то вроде философии тоже термин не помню а гугл не находит где разные направления науки будут объединены, например это уже происходит с нейронками которые все ближе к стыку биологии инб4: нейронки имеют некоторые схожести и задумывались как модель мозга, высшей математики и программирования. Совмещение других направлений сначала в группы, а потом и в одну общую - лишь вопрос времени.
Однако это будет точно не философия ведь как правило философы ближе к гуманитарным наукам а то что ближе к точным (теорема Пифагора, еботня Лапласа и так далее) выносится в математику, физику и другие точные науки. То что выходит будет как раз таки точной наукой.
Аноним 03/07/21 Суб 08:27:05 2086610154
>>2086601
>высшей математики
Вот это говно еще большее мракобесие чем философия
Аноним 03/07/21 Суб 08:40:33 2086616155
>>2086610
Однако оно дает как минимум нейронки, без нее они были бы невозможны.
ну и мне зашла, интересная хуйня и дохуя практических применений, так еще и информации в интернетах по ней много
Аноним 03/07/21 Суб 08:40:59 2086617156
Аноним 03/07/21 Суб 08:50:36 2086620157
>>2086616
>нейронки
Нерабочее говно для пориджей. Тупик ИИ.
Аноним 03/07/21 Суб 09:29:51 2086624158
>>2086620
Для специализированных задач регрессий и даже нлп хватает, в принципе то что есть сейчас даже не интеллект искусственный да, а просто сложный вероятностный алгоритм.
А полноценный ии уже можно делать на его базе, в конце концов одна из основных функций мозга которая делает человека разумным существом это способность предсказывания основыванного на опыте. К тому же в эту сторону активно ведутся исследования и есть различные успехи как напрямую, так и в смежных областях которые позволят увеличить вычислительные мощьности.
Аноним 03/07/21 Суб 09:44:06 2086628159
>>2086624
>А полноценный ии уже можно делать на его базе
Только всем лень, ага.
Аноним 03/07/21 Суб 10:28:21 2086650160
>>2086601
>философия была нужна в те времена чтобы вытеснить мифологию и частично религию и заставить людей думать, пытаться объяснять находить причинно-следственные связи и так далее, а не говорить что бох дал птице право летать и что то вроде того.
Нет, такой позиции в академической истории религии/философии не существует, ты просто несёшь спекулятивную хуйню без доказательств (а доказательств этой хуйни быть не может).
>но после этого роль философии в науке стала равна нулю
Поэтому физики весь прошлый век спорили про философию. И математики. И биологи.
Ну и да, "что такое наука" - философский вопрос.

Дальше твой высер даже не читаю.

>>2086620
Предложи что-нибудь рабочее, чтобы побило бенчмарки в cv/nlp.
Аноним 03/07/21 Суб 12:48:29 2086719161
>>2086628
Так делают же. Или по твоему все передовые научные группы в области ии тыкают 24/7 трансформеры?
Аноним 03/07/21 Суб 12:59:54 2086727162
1625306393466.jpg 211Кб, 1080x1662
1080x1662
>>2086650
> Нет, такой позиции в академической истории религии/философии не существует, ты просто несёшь спекулятивную хуйню без доказательств (а доказательств этой хуйни быть не может).
Первое доказательство - философию в большинстве считают юзелесс хуйней и не воспринимают всерьез нигде дальше гуманитарной околонауки. Второе - философия всю свою историю подстраивалась под другие точные науки, то же изменение термина детерминизма (единственной вещи которая оказала хоть какое то влияние на науку) с прямой взаимосвязи на косвенную. Да и в принципе постоянное изменение фундаментальных понятий вслед за техническими науками с опозданием на года если не десятки или сотни.

> Поэтому физики весь прошлый век спорили про философию. И математики. И биологи.
И сейчас все спорят, даже здесь и сейчас. А конкретно все кроме философов доказывают что философия рудимент, в то время как философы виляют задом для сохранения легитимности философии как науки.

> Ну и да, "что такое наука" - философский вопрос.
Обоссан пикрилом.

> Дальше твой высер даже не читаю.
Естественный метод защиты от всего что может заставить думать. Можно написать на любое мнение "дальше не читал" и игнорировать продолжение, дать абсолютно любые свои аргументы по теме и нет, и плевать если они были озвучены и обоссаны, и после этого считать себя правым.
В принципе типичный маняфилософ, чего еще ждать.
Аноним 03/07/21 Суб 17:01:25 2086908163
>>2086727
>оксфорд лангауге
Ловите говноеда

ФИЛОСО'ФИЯ [гр. philosophia \\ phileo люблю + sophia мудрость] -- 1) система идей, взглядов на мир и на место в нем человека; наука о наиболее общих законах развития природы, общества и мышления; 2) методологические принципы, лежащие в основе какой-л. науки (напр., ф. математики, ф. истории); 3) * отвлеченные рассуждения о чем-л.
Аноним 03/07/21 Суб 17:03:30 2086910164
>>2086727
Кста, что скажешь по поволу маняматики, она наукой фактичекски не является, это признают даже именитые матанопетухи.
03/07/21 Суб 17:27:49 2086933165
>>2086601
>Я знаю и сам учусь в вузе на прохраммиста и знаю на сколько она бесполезна
Проиграл.
>>2086727
>единственной вещи которая оказала хоть какое то влияние на науку
>в то время как философы виляют задом для сохранения легитимности философии как науки.
Здесь проиграл вдвойне. Программистики к науке отношения не имеют, и им не рассказывают потому, наверное, так много айтишников fucking love science))) про философию науки и ограничения научного метода. А то не писал бы такую хуйню.
Алсо, задачка на подумоть: труды Поппера которых ты не читал относятся к науке или философии?
Аноним 03/07/21 Суб 17:58:52 2086967166
>>2086933
>Поппер
Мммм, в поппер нужно вначале пальчик засунуть
Аноним 03/07/21 Суб 17:59:26 2086968167
1625324365433.jpg 216Кб, 1080x1071
1080x1071
>>2086908
И что не так?

>>2086910
Пикрил же. Хули я все должен гуглить?

>>2086933
> Проиграл.
Объективно, единственные для кого полезна философия это гуманитарии в юриспруденции, в художественных вузах, исторических и так далее. Там это может пригодится так как философия сама по себе как разминка для мозга и частично история. Но не более. На технических специальностях эту роль более чем полностью выполняет матан.

> потому, наверное, так много айтишников fucking love science))
Увлекаюсь физикой и квантовой хуйней, обтекай.

> про философию науки и ограничения научного метода.
Да, правильно мыслишь, про бесполезное говно там не рассказывают. То что наука определяет подлинность исходя из полноты описания и качества предсказывания и так ясно, как и то что мир может быть абсолютно другим. Про невозможность измерения того что невозможно измерить напрямую или косвенно тоже ясно. Однако во первых большая часть ограничений обходится продвинутыми машинами, те же квантовые компы, а во вторых даже если реальность абсолютно другая, это не мешает ее использовать и воздействовать на нее методами науки, те же обычные компы работают как и ожидается, более того даже крайне странные вещи вроде квантовой телепортации вполне работают и используются, а значит научного метода более чем достаточно.
Тем более что философия уже тут никаким боком не стоит. Или я проспал момент когда философы взяли и измерили вес темной материи?

> труды Поппера которых ты не читал относятся к науке или философии?
К философии науки, очевидно же. Однако философия есть философия вне зависимости от объектов или субъектов. По сути это просто систематизированные выводы на +-мета уровне.
И да, не читал. Если там что то действительно важное то я бы знал это имя как и каждый на планете, но судя по всему это далеко не так.
Аноним 03/07/21 Суб 18:07:05 2086979168
>>2086968
>Пикрил же. Хули я все должен гуглить?
Ну перестань

Герман Вейль пессимистически оценил возможность дать общепринятое определение предмета математики:
Вопрос об основаниях математики и о том, что представляет собой в конечном счёте математика, остаётся открытым. Мы не знаем какого-то направления, которое позволит, в конце концов, найти окончательный ответ на этот вопрос, и можно ли вообще ожидать, что подобный «окончательный» ответ будет когда-нибудь получен и признан всеми математиками.

«Математизирование» может остаться одним из проявлений творческой деятельности человека, подобно музицированию или литературному творчеству, ярким и самобытным, но прогнозирование его исторических судеб не поддаётся рационализации и не может быть объективным
[14].

Аноним 03/07/21 Суб 18:09:54 2086985169
>>2086968
>Увлекаюсь физикой
Чет кекнул. Это как?
Аноним 03/07/21 Суб 18:14:31 2086992170
>>2086979
В том то и дело что это не совсем так, но это наиболее признанная трактовка которая висит на сайте откуда большая часть людей берет информацию. Иди и предлагай изменить первый абзац на эту цитату если считаешь что это не так. Собери множество жалоб на этот абзац за недостоверность. Почему нет? Если там будет написано другое то лишь соглашусь с этим.
Аноним 03/07/21 Суб 18:17:39 2086997171
>>2086985
Читаю учебники по физике на пару курсов вперед и новые статьи которые подбирает рекомендации гугл хрома каждый день про новые открытия. и нет, научпоп не смотрю и не читаю, разве что когда сам по учебнику не допираю иду искать статьи по этой теме
Аноним 03/07/21 Суб 19:14:24 2087031172
изображение.png 22Кб, 723x335
723x335
>>2086968
Блииин, а английский гугл отвечает, что математика — не наука((( Англоязычным гуглом больше людей пользуется, значит, правда написана(((
Аноним 03/07/21 Суб 19:38:19 2087050173
>>2086997
Кек, ну вот я по химии читаю, но сказать, что увлекаюсь химей не могу. Хотя буду эксперименты пилить.
Аноним 03/07/21 Суб 19:44:45 2087054174
>>2087031
> Гугол
> вместо википедии как на скрине
> с левым сайтом
Ммм, мне было лень открывать википедию конда делал скрин но вот тебе цитата из английской вики:

> Three leading types
> Three leading types of definition of mathematics today are called logicist, intuitionist, and formalist, each reflecting a different philosophical school of thought.[44] All have severe flaws, none has widespread acceptance, and no reconciliation seems possible.[44]

> Logicist definitions
> An early definition of mathematics in terms of logic was that of Benjamin Peirce (1870): "the science that draws necessary conclusions."[45] In the Principia Mathematica, Bertrand Russell and Alfred North Whitehead advanced the philosophical program known as logicism, and attempted to prove that all mathematical concepts, statements, and principles can be defined and proved entirely in terms of symbolic logic. A logicist definition of mathematics is Russell's (1903) "All Mathematics is Symbolic Logic."[46]

> Intuitionist definitions
> Intuitionist definitions, developing from the philosophy of mathematician L. E. J. Brouwer, identify mathematics with certain mental phenomena. An example of an intuitionist definition is "Mathematics is the mental activity which consists in carrying out constructs one after the other."[44] A peculiarity of intuitionism is that it rejects some mathematical ideas considered valid according to other definitions. In particular, while other philosophies of mathematics allow objects that can be proved to exist even though they cannot be constructed, intuitionism allows only mathematical objects that one can actually construct. Intuitionists also reject the law of excluded middle (i.e., {\displaystyle P\vee \neg P}{\displaystyle P\vee \neg P}). While this stance does force them to reject one common version of proof by contradiction as a viable proof method, namely the inference of {\displaystyle P}P from {\displaystyle \neg P\to \bot }{\displaystyle \neg P\to \bot }, they are still able to infer {\displaystyle \neg P}\neg P from {\displaystyle P\to \bot }P\to \bot . For them, {\displaystyle \neg (\neg P)}{\displaystyle \neg (\neg P)} is a strictly weaker statement than {\displaystyle P}P.[47]

> Formalist definitions
> Formalist definitions identify mathematics with its symbols and the rules for operating on them. Haskell Curry defined mathematics simply as "the science of formal systems".[48] A formal system is a set of symbols, or tokens, and some rules on how the tokens are to be combined into formulas. In formal systems, the word axiom has a special meaning different from the ordinary meaning of "a self-evident truth", and is used to refer to a combination of tokens that is included in a given formal system without needing to be derived using the rules of the system.


На интуиционистские определения всем насрать а логистические устарели давным давно, методом исключения получаем
> the science of formal systems


Аноним 03/07/21 Суб 19:47:30 2087060175
>>2087050
Увлечение это то чем занимаются на досуге ради себя же. Оно не обязательно имеет практическую цель.
А в твоем случае судя по всему есть лишь практическая цель.
Аноним 03/07/21 Суб 20:26:13 2087090176
>>2086968
>На технических специальностях эту роль более чем полностью выполняет матан.
Разве от него наоборот не тупеют?
Аноним 03/07/21 Суб 20:29:38 2087095177
>>2087090
В социальном плане, разве что. От дроча на формулы.
Аноним 03/07/21 Суб 20:37:32 2087100178
>>2087054
Что же ты не прикрепил следующий подраздел?
>Several authors consider that mathematics is not a science because it does not rely on empirical evidence.
>The opinions of mathematicians on this matter are varied.
>In practice, mathematicians are typically grouped with scientists at the gross level but separated at finer levels. This is one of many issues considered in the philosophy of mathematics.
хотя от неироничных ссылок на википедию уже не смешно
Аноним 03/07/21 Суб 20:47:54 2087108179
>>2087100
это постирония чел
Аноним 03/07/21 Суб 20:52:32 2087115180
>>2087108
уже не модно, только новая искренность, только хардкор
Аноним 03/07/21 Суб 21:21:45 2087126181
>>2087115
тогда это уже постискренность и постхардкор так как искренность и хардкор уже были
Аноним 04/07/21 Вск 01:56:03 2087241182
>>2087054
> На интуиционистские определения всем насрать
Всем пориджам? Чего вы тут устроили, дегенераты? Мочухан, чисти вилкой эту срань.
Аноним 04/07/21 Вск 06:35:46 2087270183
>>2087241
Всем кто умеет считать до 2.
А так да, тред засрали. Где моча с вилкой?
Аноним 04/07/21 Вск 06:53:51 2087272184
>>2087270
> Всем кто умеет считать до 2.
Причем тут это к интуиционизму?
Аноним 04/07/21 Вск 07:11:36 2087277185
Здарова ai, какая вилка на джуна deep learning в Украине? Всем добра
Аноним 04/07/21 Вск 10:56:20 2087346186
>>2086432
Дети маугли - по большей части фейки, придуманные ради донатов и классов.
Аноним 04/07/21 Вск 11:01:22 2087350187
Чет горит с гугловского плюсового кода, все таки чувствуется туда понабирали олимпиадников с задачами про люки, такой оверинжиниринг везде, ну и конечно зоопарк систем сборок, базель это нечто, он конечно работает, но каждый день собирать с нуля, потому что кэширование работает только до выключения компа, это конечно пушка. Не, я понимаю что у них билдсерверы и все дела, но все же.
Аноним 04/07/21 Вск 11:09:26 2087355188
Кто нибудь уже натренировал решение абукапчи?
Аноним 04/07/21 Вск 11:35:34 2087365189
Н петух и этот тред решил в засранный интуиционизмом толчок превратить
Аноним 04/07/21 Вск 11:49:30 2087370190
14385226190460.jpg 60Кб, 1024x768
1024x768
У меня есть последовательность токенов предложения и есть одно слово из этого предложения.
Как мне получить позицию токена, соотвествующего этому слову в предложении?
Аноним 04/07/21 Вск 11:51:01 2087371191
>>2087370
А исходное предложение у тебя есть?
Аноним 04/07/21 Вск 11:53:25 2087373192
>>2087371
Да, есть.
Используется bert модель.
Аноним 04/07/21 Вск 13:41:26 2087426193
>>2086431
>ГПТ это чистый интеллект, не обремененный собственным я, инстинктами, мотивацией, самосознанием
>чистый интеллект
>не может решать вышмат
Фи, какой же это интеллект тогда, просто генератор наиболее вероятных фраз.
Аноним 04/07/21 Вск 13:56:55 2087432194
1575271892399.png 139Кб, 250x250
250x250
>>2087426
>не может решать вышмат
Аноним 04/07/21 Вск 14:01:38 2087433195
>>2087432
Да даже студентик прогерского вуза сможет ломать матан так, как это ни одна нейросетка не сделает. Тексты генерировать и тупая пизда может, начитавшись любовных романов.
Аноним 04/07/21 Вск 14:04:06 2087435196
>>2086352
ну, чтобы он ехал в гта по видеоинпуту это нихуя не просто. А вот машинку как в гта 1 с видом сверху - можно запилить.
Аноним 04/07/21 Вск 14:11:11 2087438197
>>2087433
>Да даже студентик прогерского вуза
Это где-то 10-15 лет обучения, верно? 95% людей в матан не могут.
> Тексты генерировать и тупая пизда может, начитавшись любовных романов.
При этом у тех же технарей с этим обычно огромные проблемы.
Аноним 04/07/21 Вск 15:14:17 2087482198
>>2087438
> Это где-то 10-15 лет обучения, верно?
Ну я например уже на первом курсе знаю саму базу вышмата - комплексные числа, ряды, интегралы, дифференция, матрицы и операции с ними. И все это за две сессии по 3 недели так как я на заочке и между ними пинаю хуи.
> 95% людей в матан не могут.
Слишком мало взял, на самом деле среди всех людей в матан не могут куда больше. Даже в пределах моей группы и групп друзей со школы в матан могут около половины, остальные либо с долгами и уходят после нескольких курсов, либо покупают решение. Так что там минимум 98% не могут по крайней мере в вышмат, а в обычный матан возможно даже больше половины.

> При этом у тех же технарей с этим обычно огромные проблемы.
Гуманитариев и технарей нет, ты хоть бумаги в пдфах у исследователей того же ии читал? Гуманитариев придумали чтобы не обзывать людей тупыми открыто, и текст написанный тп после пары тройки романов будет как говно. И чем дольше тем хуже, ведь логика и композиция текста будет постоянно нарушаться. Для любого текста на 20+ страниц нужно быть чистым технарем и помнить все что ты писал, помнить и добавлять мелкие детали, соблюдать структуру и так далее.
А грамматика это технарское говно более чем полностью, возьми текст любой тп или двощера или меня и там будет ошибка на ошибке, то запятые не там, то форма не та, то склонение и так двлее.

мимо
Аноним 04/07/21 Вск 15:23:24 2087491199
>>2087482
>Ну я например уже на первом курсе знаю саму базу вышмата
Молодец, но можешь ли ты переводить с китайского?
>И все это за две сессии по 3 недели
Ну ты забыл посчитать школьное обучение математики, без которого ты бы это не осилил.
>Так что там минимум 98% не могут по крайней мере в вышмат
Тем более.
Просто возникает смешная ситуация, когда людей меряют по представителями с лучшими навыками, и обощают это как будто человек в целом умнее специализированного ИИ.
>Гуманитариев и технарей нет
Похуй, прогрммисты редко могут сочинить нормальный текст.
> Для любого текста на 20+ страниц нужно быть чистым технарем и помнить все что ты писал, помнить и добавлять мелкие детали, соблюдать структуру и так далее.
Вообще на это всем насрать, любой крупный писатель путает цвет глаз и имена ГГ.
Аноним 04/07/21 Вск 15:40:16 2087508200
>>2087491
> Молодец, но можешь ли ты переводить с китайского?
с японского но на слух или с романдзи

> Ну ты забыл посчитать школьное обучение математики, без которого ты бы это не осилил.
Там хватило бы и 9 классов, в 10 и 11 как помню в основном повторение и объяснение что эта хуйня была упрощением этой. А 9 классов есть почти у всех. Хотя в целом 9 лет тоже не мало.

> Просто возникает смешная ситуация, когда людей меряют по представителями с лучшими навыками, и обощают это как будто человек в целом умнее специализированного ИИ.
> человек в целом
В принципе это так и есть если брать человечество в целом как коллективный разум. Тот что был в эксперементе где фермерам предложили угадать вес быка и средняя оценка оказалась ближе любой частной. А если брать выборку из лучших представителей и их среднюю оценку по регрессиям то там превосходство по качеству над любым одиночным ии даже не оспаривается, хотя по скорости просадка, это да.

> Похуй, прогрммисты редко могут сочинить нормальный текст.
Как и не программисты в целом то. Доля исключений примерно одинакова так что разделять не стоит.

> Вообще на это всем насрать, любой крупный писатель путает цвет глаз и имена ГГ.
Мелкие ошибки возникают из за человеческого фактора же. Не писатели путают куда более крупные вещи вроде фактов и причинно-следственных связей.
Аноним 04/07/21 Вск 19:39:41 2087708201
>>2086910
>Кста, что скажешь по поволу маняматики, она наукой фактичекски не является, это признают даже именитые матанопетухи.
Она не является наукой по Попперу, а в остальном это вопрос бессмысленный.

>>2086933
>Программистики к науке отношения не имеют
Этот шарит.

>>2087031
>Блииин, а английский гугл отвечает, что математика — не наука((( Англоязычным гуглом больше людей пользуется, значит, правда написана(((
Под science пиндосы обычно понимают только естественные науки. Да, это даже на пикриле написано.

>>2087054
>На интуиционистские определения всем насрать а логистические устарели давным давно, методом исключения получаем
>> the science of formal systems
Математика всегда шире любых формальных систем. Формалистский подход тоже себя не оправдал.

А вообще, математика -- это теория чисел.
Аноним 04/07/21 Вск 19:42:11 2087710202
>>2087708
>А вообще, математика -- это теория чисел.
Бесполезное говно в общем.
Аноним 04/07/21 Вск 19:47:01 2087714203
>>2087708
Два чаю, наконец то адекват итт.
Аноним 04/07/21 Вск 20:50:29 2087740204
Аноним 04/07/21 Вск 21:57:16 2087795205
>>2087708
>а в остальном это вопрос бессмысленный
Как государство должно финансировать науку, если непонятно, что является наукой, а что нет?
Аноним 04/07/21 Вск 22:05:13 2087803206
16249795833540.jpg 192Кб, 1920x1080
1920x1080
Мне кажется или до AGI остался год или два? Нейронки уже решают гигантский объём задач, вытесняют человека везде, мышиное зрение ебашит. Надо буквально решить простенькую задачу по объединению всех этих нейронок и готов профессиональный специалист по всем вопросам.
Но почему многие ретарды из отрасли говорят, что до AGI ковылять ещё минимум десять лет?
Аноним 04/07/21 Вск 23:05:41 2087833207
2021-06-15 2104[...].png 66Кб, 968x911
968x911
Аноним 04/07/21 Вск 23:09:17 2087838208
>>2087833
Ну, не хуже чем двачеры решающие задачку для 5-классников порвавшую интернет.
Аноним 04/07/21 Вск 23:36:21 2087858209
>>2087838
>3 + 3 + 3 = 6
Хуже, мань, хуже
>>2087803
Программное обеспечение решающее гораздо больший объём задач уже какой десяток лет существует, а бредогенераторы те же с девяностых пилят, причём тут AGI вообще. Для AGI ковылять не десять лет, а намного больше и вообще в другом направлении похоже.
Аноним 05/07/21 Пнд 00:06:13 2087871210
>>2087858
>Хуже, мань, хуже
Так и двачеры в 66% решают неправильно.
Аноним 05/07/21 Пнд 00:24:10 2087876211
>>2087803
Как же задолбали шизы итт, которые считают нейронки интеллектом.
Нейронка - это просто алгоритм по выполнению определенной задачи, который умеет повышать свою точность на большом объеме входных данных. Все. Больше там нет никаких скиллов абсолютно. Отнимите у нейронки пентабайты вливаемой инфы, примите пару законов о защите интеллектульной собственности от нейронок и они сдуются в ноль т.к. ничего из себя не представляют. Если взять какой-то простой алгоритм и оттачивать его за счет миллиардных вложений и украденной интеллектуальной собственности, то получится ничуть не хуже нейронки.
Аноним 05/07/21 Пнд 00:28:01 2087879212
Наука — деятельность, направленная на получение нового знания. ИТТ занимаются хуюкой.
Аноним 05/07/21 Пнд 04:55:04 2087929213
>>2087508
>В принципе это так и есть если брать человечество в целом как коллективный разум
Ну клево, один умеет считать матан, другая писать тексты и вроде как человечество умеет все. Но когда разные нейронки умеют разное, это им почему-то не засчитывают, а требуют чтобы одна непременно умела все.
Аноним 05/07/21 Пнд 05:19:13 2087931214
16253194493853.png 233Кб, 640x845
640x845
Напомните, почему вообще какие-то пориджни определяют, что есть наука, а что нет? Куда вы лезете, школуйня? И идите уже срать в другое место.
Аноним 05/07/21 Пнд 09:41:37 2087975215
>>2087931
Потому что им на курсах Гикбрейнс сказали, что они -- великие дотасаентисты -- интеллектуальная элита человечества, создающая дивный новый мир!
Аноним 05/07/21 Пнд 09:54:05 2087989216
Аноним 05/07/21 Пнд 10:12:23 2088009217
>>2087989
Однотипные художники для себя открыли, что их ИСКУССТВО просто ремесло с задрачиванием паттернов?
Аноним 05/07/21 Пнд 10:53:58 2088042218
>>2078723
есть ебля с дурой этой?
Аноним 05/07/21 Пнд 10:56:04 2088047219
Дорогие, пилите успешные истории переката и бэкграунд перекатившихся
Аноним 05/07/21 Пнд 11:25:17 2088071220
>>2087710
>Бесполезное говно в общем.
Бесполезное говно это ты.

>>2087714
>Два чаю, наконец то адекват итт.
Спасибо.

>>2087795
>Как государство должно финансировать науку, если непонятно, что является наукой, а что нет?
А я вот не знаю. Это ужасно сложный многоаспектный вопрос, на который, видимо, никакого конкретного правильного ответа вообще быть не может.

Потому что наука это не сбор урожая в поле и не точение напильником гаек в цеху. В ней очень сложно, если вообще возможно, выделить адекватные метрики, по которым можно было бы оценивать целесообразность и продуктивность конкретных исследований.
Вот придумали индекс Хирша -- получили проблему "Publish or Perish", т.е. кучу бессмысленных статей с кучей ошибок и невоспроизводимых результатов, а также картельные сговоры внутри научных групп.
А начнёшь реальными исследованиями заниматься -- сразу начнёшь отставать по публикациям, придёт чиновник и скажет, чтоб ты валил из академии, так как "неэффективен".
Оно не всегда так происходит, конечно, но гораздо чаще, чем хотелось бы.
Ну а уж если тема исследований касается социально и политически значимых областей, особенно в эпоху ублюдочной левацкой повесточки на Западе, то об объективности вообще говорить не стоит -- результат "исследований" всегда будет такой, какой нужен власти и корпорациям.

В любом случае, вопрос о финансировании науки должен решаться внутри научного же сообщества, а не в высоких кабинетах власти. И решать его должны признанные специалисты в своих областях, а не чиновники.

Если же мы про математику говорим, то она, к счастью, к политоте не относится (хотя ублюдки-леваки и тут смогут что-нибудь "угнетающее" придумать), а также она ужасно дешёвая.
Ну а если у государства не хватает денег на мел и бумагу, то тут уж нужно вопросы предъявлять к этому государству, а не к математике.
Аноним 05/07/21 Пнд 12:07:25 2088094221
>>2088071
Этот маняматик подгорел. Когда вас уже на самообеспечение выгонят?
Аноним 05/07/21 Пнд 12:59:30 2088105222
>>2088071
>Потому что наука это не сбор урожая в поле и не точение напильником гаек в цеху
Наука без производства превращается в иллюзии.
Аноним 05/07/21 Пнд 13:25:56 2088120223
>>2088042
Сгенерируй дипфейком.
Аноним 05/07/21 Пнд 13:42:07 2088132224
>>2088071
>Это ужасно сложный многоаспектный вопрос
"Ужасно сложным многоаспектным" он стал только после рейгана и войны республиканцев с наукой, до этого учёным просто давали денег сколько попросят и всё норм работало. Им много и не надо обычно если речь не идёт о крупных разовых проектах которые можно обсуждать отдельно, просто давать денег без всяких отчётностей и есть по видимому самый лучший способ, ибо любая бюрократия и прочие метрики превращаются в профанацию.
Аноним 05/07/21 Пнд 13:49:13 2088139225
Почему у ебучих сис аналеров и дата аналеров в банке зп выше, чем у нас? Это же долбоебы, долбящие пандас просто
Аноним 05/07/21 Пнд 13:56:10 2088150226
>>2088139
Они выдают понятные бизнесу метрики, которые приносят деньги
Аноним 05/07/21 Пнд 14:05:01 2088155227
>>2088139
>чем у нас?
Потому, что мы бесполезное говно не имеющее ни к науке ни к бизнессу никакого отношения.
Аноним 05/07/21 Пнд 14:19:15 2088160228
>>2088139
> в банке зп выше, чем у нас?
а когда твой мл принес бизнесу денег больше чем бизнес в него убухал?
Аноним 05/07/21 Пнд 14:54:29 2088177229
>>2088150
Какие там нахуй метрики? Churn rate/arpu? Пузырь раздули из долбоебов
Аноним 05/07/21 Пнд 16:16:09 2088227230
>>2088139
ну не хуй и больше, если ты ебашишь в том же банке
вилки обычно (2-4 года опыта) - 150-250 gross

втб со сбером продолжают набирать дебилов после скиллбокса на 120 чистыми
Аноним 05/07/21 Пнд 18:23:27 2088298231
>>2088150
+
Умный человек на аналитике куда полезнее для бизнеса, чем узконаправленный додик который только сетки дрочить и может
Аноним 05/07/21 Пнд 18:55:47 2088337232
Я тут задумался, а почему нет мидендов?
Сейчас большинство исследователей нейронок которые делают свои и публикуют обученные модели практически никогда не оптимизируют их с помощью сторонних исследователей, как правило там как в том же недавнем simswap те же методы в коде что и десять лет назад были в обиходе. Тот же madgrad от фейсбука охуенен и ускоряет обучение в разы, ncnn позволяет взять обученную торчевую модель и конвертировать ее в модель которая запускается на всем что поддерживает vulkan, и дохуя подобных примеров которые как будто в вакууме с некоторыми исключениями.
Или фортенды, которые прячут под копот большую часть фич потому что не хотят с ними заморачиваться или хотят упростить конечный вид. К тому же даже так постоянно всплывают ошибки, и они всегда критичнее так как повлиять или хотя бы узнать о них подробнее нельзя.

Разве не очевидна необходимость в мидендах, которые будут брать код от бекенд гениев, подчищать их ошибки и вводить новые фичи основанные на актуалочке, и которые бы сделали минимальный гуи для фортендов чтобы у них было полное понимание возможностей советы.
Сейчас по сути эту роль за исключением передачи фортендам исполняет кучка левых людей от народа, взять тот же тред про simswap с колабами, кагглом и гуи от анониев, но среди них как правило мало профессионалов и конечный продукт от народа редко доходит до авторов (по крайней мере в хорошем смысле).

Так почему сейчас только бэкенды и фортенды без связующего звена?
Аноним 05/07/21 Пнд 20:28:28 2088413233
>>2088337
Мне вообще кажется что все портянки питоноговна сильно переусложнены по сравнению с реальными процессами которые там происходят на самом деле.
Аноним 05/07/21 Пнд 20:31:26 2088414234
>>2088139
Аналитики анализируют существующие, актуальные данные и получают релевантные результаты, МЛеры тренируют сетки на синтетике и выдают нерабочий продукт.
Аноним 06/07/21 Втр 08:32:48 2088620235
>>2088094
>Этот маняматик подгорел.
А по сути есть что сказать? Или тебе лишь бы хоть что-нибудь высрать?
>Когда вас уже на самообеспечение выгонят?
Прямо перед тем, как вас выгонят на улицу. Хотя, конечно, макаки всегда нужны.

>>2088105
>>Потому что наука это не сбор урожая в поле и не точение напильником гаек в цеху
>Наука без производства превращается в иллюзии.
Как вообще связаны эти два утверждения?
Моё утверждение было в том, что в науке, просто в силу её природы, практически нереально придумать адекватные метрики эффективности и целесообразности, а не в том, что практические приложения не нужны.

>>2088132
>"Ужасно сложным многоаспектным" он стал только после рейгана и войны республиканцев с наукой
Я не знаю, что с наукой сделали Рейган и республиканцы, но в данный момент её уничтожают леваки, которые себя почему-то называют "демократами". Леваки вообще уничтожают всю цивилизацию.
>просто давать денег без всяких отчётностей и есть по видимому самый лучший способ, ибо любая бюрократия и прочие метрики превращаются в профанацию.
Возможно, вполне. Но в таком случае нужно в среднем повышать требования к научным сотрудникам в смысле сложности защиты диссертаций, как минимум. В хороших местах они и так высокие, а вот в говновузах защититься может любой идиот, а просто так раздавать деньги таким персонажам -- хреновая идея.
Аноним 06/07/21 Втр 11:13:58 2088711236
>>2088139
Потому что аналитик с экселем может быть полезнее бизнесу, чем твой чёрный ящик.
Аноним 06/07/21 Втр 11:48:29 2088755237
>>2078573 (OP)
Я заранее извиняюсь за очень неофитский вопрос, возможно я даже не по адресу.
Есть один mcl (markov clustering) алгоритм https://github.com/guyallard/markov_clustering который группирует точки на графах. В примере указано что точки на графах генерируются по координатам. Вопрос: как можно сгруппировать строки / получить точку координат со строки? Я подумал вначале считать сумму char символов, но сразу же понял что это бред получается.
Стек у меня совсем другой (не питон и нейронки) если что.
Аноним 06/07/21 Втр 12:51:20 2088819238
This work trains a machine learning model to solve machine learning problems from a University undergraduate level course. We generate a new training set of questions and answers consisting of course exercises, homework,and quiz questions from MIT’s 6.036 Introduction to Machine Learning course and train a machine learning model to answer these questions. Our system demonstrates an overall accuracy of 96% for open-response questions and 97% for multiple-choice questions, compared with MIT students’ average of 93%, achieving grade A performance in the course, all in real-time.
https://arxiv.org/pdf/2107.01238.pdf

Если студенты MIT отвечают хуже нейронки, то почему вкатыши со скиллбокса или этого треда до сих пор котируются?
Аноним 06/07/21 Втр 13:10:30 2088837239
>>2088819
>студенты MIT
Орнул, еще бы с детсадом сравнил.
Аноним 06/07/21 Втр 13:15:06 2088841240
>>2088819
Не всё сразу. Инертность мышления, вот это всё. Алсо, прогресс слишком быстрый в этой теме. Внедрение гораздо больше времени занимает. Ну и другие, менее очевидные факторы. Но уже сейчас можно с уверенностью сказать, что пориджи очень эпично соснули, в обозримом будущем они как минимум в айти нахуй не нужны будут.
Аноним 06/07/21 Втр 13:16:40 2088843241
>>2088841
>в обозримом будущем
Вот трясунишку ящиков понесло. Смешные котики всех заменят?
Аноним 06/07/21 Втр 13:36:38 2088855242
>>2088819
>почему вкатыши со скиллбокса или этого треда до сих пор котируются?
Они не котируются
Аноним 06/07/21 Втр 13:58:54 2088881243
Привет, жопеншмульцеры.
Подскажите, пожалуйста, как BERT'ы и прочие трансформеры поступают с длинными текстами?
Тупо обрезают по количесиву токенов или дробят на части? Если дробят, как получить дотсуп к частям?
Аноним 06/07/21 Втр 14:16:27 2088891244
>>2088881
Первое, все что выше длины их модели они либо игнорируют, либо выдают ошибку.
Аноним 06/07/21 Втр 15:04:38 2088910245
>>2088177
>Churn rate/arpu
Это уже больше чем средний МЛщик может единственная полезная штука, которую я видел это банковские чат-боты, которые на техподдержке экономить позволяют.
Аноним 06/07/21 Втр 16:24:49 2088974246
>>208888
1) уже ответили
2) фор лупом
Аноним 07/07/21 Срд 19:04:18 2089924247
Если сеточка хорошо сходится на тренировочном сете и плохо на тестовом -- это мне нужно увеличивать сет? Или еще что-нибудь может быть?
Аноним 07/07/21 Срд 20:49:23 2090000248
>>2089924
Или уменьшать экспрессивность модели. Или искать лик в данных. Или смотреть, из одного ли распределения тест и трейн. Или добавлять аугментаций.
Но добавить данных всегда полезно.
Аноним 08/07/21 Чтв 00:46:59 2090143249
Аноним 09/07/21 Птн 12:26:58 2091191250
Аноним 09/07/21 Птн 17:48:00 2091488251
>>2091191
Ну хоть эта ебулда в OCR AMS-TeX может? Я вообще не очень понимаю, в чем проблема. Это же не рукописный текст, любой символ абсолютно однозначно соответствует своему ТеХ коду и визуализируется всегда одинаково. Правила построения любой формулы так же однозначно заданы. На сверточных сетях нихуя не сделали, может быть хоть с трансформерами это можно?
Аноним 09/07/21 Птн 18:41:55 2091524252
Аноним 09/07/21 Птн 19:35:22 2091571253
Сегодня шел мимо книжного рынка и прикупил книгу Вапника "Восстановление зависимостей по эмпирическим данным" (1979), чисто чтобы читать в транспорте. Не думаю, что она особо устарела для своих задач, но может кто читал и сравнивал с чем-то современным?
Аноним 10/07/21 Суб 00:51:39 2091790254
>>2091571
Вапник - старый поехавший дед с синдромом утёнка.
Аноним 10/07/21 Суб 01:06:34 2091808255
>>2091790
Дык мне как-то похуй на его личность, я-то книжку буду читать, а не с ним брататься.
Аноним 10/07/21 Суб 04:41:22 2091841256
>>2091790
> Вапник - старый поехавший дед с синдромом утёнка.
Зато рандомный поридж без мозгов с мейлру - гений, я тебя услышал.
>>2091571
Там нечему устаревать, просто это ранняя стадия развития теории статистического обучения.
Аноним 10/07/21 Суб 09:56:07 2091931257
>>2091790
>Вапник - старый поехавший дед с синдромом утёнка.
Пук среньк неосилятора.
Аноним 10/07/21 Суб 21:23:10 2092545258
Какой критерион и оптимизатор надо использовать, чтобы обучить чисто свёрточную нейросеть?
Генерирую датасет в блендере, хочу, чтобы создавало маску некоторых простых предметов на фотографии. Например, крестиков, квадратиков, сеточек.
Аноним 11/07/21 Вск 21:08:42 2093318259
Сук, mediapipe 0.8.4 работал а 0.8.6 уже нет.
Аноним 11/07/21 Вск 21:42:06 2093335260
Аноним 11/07/21 Вск 21:52:55 2093344261
>>2093335
Да откатился за полдня, так вкусных плюшек то не получу, а бисектить тааак лень
Аноним 11/07/21 Вск 22:19:07 2093369262
>>2093335
Ах да и откатиться уже не получилось в чистую, так как bazel успели поменять :3
Аноним 12/07/21 Пнд 12:47:50 2093772263
Захожу короче в ODS, читаю крайнюю объяву и вижу охуенный панчлайн:
Важно!
Мы не берем сейчас в команду джунов (пока растим текущих)


НУ, КАК ВКАТИЛИСЬ?!
Аноним 12/07/21 Пнд 14:39:20 2093871264
>>2093772
усё, лавочка прикрылась
Аноним 12/07/21 Пнд 17:50:52 2094073265
>>2093772
Сейчас поток упругих пориджей хлынул из вузов на рынок труда. Сезонность.
Аноним 12/07/21 Пнд 18:33:02 2094123266
Аноним 12/07/21 Пнд 18:34:44 2094128267
Аноним 12/07/21 Пнд 19:58:30 2094244268
Я прошел курс "Введение в Data Science и машинное обучение", теперь знаю, что такое решающие деревья и Random Forest. Чем дальше посоветуете заняться?
Аноним 12/07/21 Пнд 20:05:27 2094246269
>>2093772
Не может быть... компания из двух с половиной землекопов ищет мидла/сеньера и не ищет джуна.
Всё, джуны больше не нужны.
Аноним 12/07/21 Пнд 20:18:44 2094253270
>>2094073
Чем они в вузе вообще занимаются? Смотрю авторов самых популярных учебников по имплементации МО в Пайтон (Рашка и соавтор, А. Герон) - они вообще по образованию биологи или инженеры. Тем не менее, смогли выйти на уровень. Почему же тогда чуваки с профильным образованием не могут сразу же после выпуска соответствовать большинству требований?
Аноним 12/07/21 Пнд 20:44:56 2094269271
>>2094244
Tensorflow вдоль и поперёк
Аноним 12/07/21 Пнд 20:47:03 2094271272
>>2094246
А на хуй вообще нужен джун ML'щик. ML это такой чувак, который на себе должен в одиночку целый огромный раздел тянуть. Зачем нужен джун на этой должности? А на самом деле всё просто: набираешься ML-опыта не на ML-областях. Устроился работать программистом, предложил свои скиллы, чтобы укрепить ML-позиции компании и норм
Аноним 12/07/21 Пнд 20:53:54 2094275273
GPU при прогоне датасета почему-то используется не полностью и простаивает местами.
С чем это может быть связано?
Аноним 12/07/21 Пнд 21:02:50 2094279274
>>2094271
>А на хуй вообще нужен джун ML'щик.
Чтобы делали всё то, что обычно делают джуны. Рутинную работу вроде подъема старых проектов, экспериментов, реализации статей, сбора данных. В крайнем случае можно посадить рисовать дашборды.
>ML это такой чувак, который на себе должен в одиночку целый огромный раздел тянуть.
Это сработает только в узкоспециализированных стартапах, делающих один продукт, в который нормально мл не внедрить. И даже там найдётся какой-нибудь антифрод, который в одного поддерживать нереально.


>>2094275
Попробуй больше процессов выделить на чтение данных. Наверняка гпу простаивает в ожидании следующего батча из датасета.
Аноним 12/07/21 Пнд 21:06:20 2094282275
Стикер 127Кб, 500x500
500x500
>>2094279
> в ожидании следующего батча из датасета
А батч повис на i/o на 5200 rpm HDD
Аноним 13/07/21 Втр 04:16:04 2094471276
>>2094282
Еще десять процессов выделить, и тогда ух как пойдет!
Аноним 13/07/21 Втр 04:26:50 2094472277
Сап, двач. Мимо бэкендер на ява. Можно ли выучить машоб и применять его как дополнение к основной работе без свича из отрасли бэка?
Аноним 13/07/21 Втр 04:51:53 2094474278
>>2094472
как и зачем? мл это не золотой молоток
Аноним 13/07/21 Втр 05:30:47 2094477279
>>2094474

Не знаю, ищу себя. Впадаю в депрессию, ощущая что пишу клей
Аноним 13/07/21 Втр 08:36:51 2094502280
>>2094472
Питоний любом случае изучить придется.
Аноним 13/07/21 Втр 12:15:16 2094619281
image.png 1263Кб, 951x1167
951x1167
>>2094244
Устраивайся в пятерочку
Аноним 13/07/21 Втр 12:28:38 2094632282
>>2094477
Тебе надо вне работы заниматься чем-то что не связано с сидением за компом.
Аноним 13/07/21 Втр 14:41:38 2094737283
Покидайте задачки по аналитике, в яндекс собеседуюсь.
Аноним 13/07/21 Втр 18:18:40 2094924284
>>2094474

Двачую этого. Мимо синьор помидор бэкенд пхп. Сказали что на работе нужно МЛ прикрутить, мне и еще двум челам кабанчик оплатил курсы, ща учимся потом ебашить будем.
Аноним 13/07/21 Втр 19:06:16 2094976285
В следующем году мне предстоит защищать диплом. Не так давно начал интересоваться нейросетями, пока что опыта в этом никакого нет. Может, кто-нибудь здесь подкинет идей для темы диплома, связанной с нейросетями? Что-нибудь такое, что можно будет реализовать в одиночку за несколько месяцев.
Аноним 13/07/21 Втр 19:20:11 2094992286
>>2094976
Как на счет темы иользования нейронок для написания диплома? Как минимум тот кто будет проверять прихуеет.
Аноним 13/07/21 Втр 21:25:45 2095113287
>>2094253
>Почему же тогда чуваки с профильным образованием не могут сразу же после выпуска соответствовать большинству требований?
Потому что зачастую это неспособные ни на что дебилы, попёршие в айтишечку просто потому, что там хорошие денежки платят.
Аноним 13/07/21 Втр 21:27:16 2095115288
>>2094244
Теорией статистического обучения Вапника-Червоненкиса.
Аноним 13/07/21 Втр 21:33:24 2095123289
>>2094253
>Почему же тогда чуваки с профильным образованием не могут сразу же после выпуска соответствовать большинству требований?
Потому что в вузике не учат разрабатывать реальные приложения, а дрочат теорию без объяснения зачем все это нужно и как правильно применять отмахиваясь требованиями написания говнокурсовых и говнолаб, где ты отчеты пишешь больше чем сам код.
Аноним 13/07/21 Втр 21:43:21 2095130290
Поясните, loss.backward раньше выполнялся 2 раза в секунду, теперь раз в 45 секунд. На cpu и gpu время стало почти одинаково, код тот же что и был, загрузку gpu, если на нем, показывает вместе с загрузкой видеопамяти как и должно (100% и 8.6гб). Еще если на gpu то загрузка у cpu тоже полная.
Это в торч завезли новую фичу что когда указываешь device = 'cuda:0' он так же использует cpu, или что то менее очевидное и проеб мой?
Аноним 14/07/21 Срд 01:54:54 2095270291
16253194493853.png 233Кб, 640x845
640x845
>>2095123
> Потому что в вузике не учат разрабатывать реальные приложения, а дрочат теорию без объяснения зачем все это нужно
А что, поридж не может понять, как использовать теоретические знания на практике?
Аноним 14/07/21 Срд 08:57:31 2095336292
>>2095270
Никто не может, порриджи - такие же люди, как и ты.
Аноним 14/07/21 Срд 09:02:38 2095339293
>>2094924
Придется пыхомонолит на микросервисы пилить, чтобы мл встроить.
Аноним 14/07/21 Срд 11:32:35 2095432294
>>2095270
>А что, поридж не может понять, как использовать теоретические знания на практике?
Это ты сейчас так говоришь, когда тебе говорят про очередную абстракцию и ты сразу прикидываешь где ее можно вставить в проекте, а в вузе тебе рассказывают про очередной паттерн "боевой вертолет" вперемешку с UML схемами, а применишь ты это через через пару лет и вся мотивация проебывается.
Аноним 15/07/21 Чтв 11:07:05 2096243295
Как правильно брать срезы тензора?
Например, есть a = tensor[3, 15,30]
Мне надо взять срез по 0 измерению в зависимости от индекса.
Делаю a[1,:,:], а он мне tensor[15,30].
Куда нулевое измерение делось?
Аноним 15/07/21 Чтв 11:33:45 2096260296
>>2096243
Это размерность. Взяв нулевое измерение по сути ты получил одномерный тензор и количество измерений (равное единице но в питоне нулю) в начале не пишется. То есть у тебя матрица размерности [15,30].
писал же в соседнем треде неделю назад
Аноним 15/07/21 Чтв 11:54:55 2096273297
>>2096260
>Взяв нулевое измерение
По индексу, правильно?
>ты получил одномерный
Может двумерный?
>То есть у тебя матрица размерности [15,30].
Единицу туда можно вернуть через torch.unsqueeze? Чтобы стало [1,15,30]? И вообще, стоит ли это делать?
Результат для torch.mean([1,15,30], dim=1) и torch.mean([15,30], dim=0) одинаковый будет?
>писал же в соседнем треде неделю назад
Возможно.
Извиняюсь, тут хлопот много, всё не запомнишь.
Аноним 15/07/21 Чтв 12:26:07 2096295298
>>2096273
> По индексу, правильно?
> Может двумерный?
Чуть проебался, да. Тензор единичной размерности с двумя измерениями.
> Единицу туда можно вернуть через torch.unsqueeze? Чтобы стало [1,15,30]?
Он и есть [1,15,30]. torch.unsqueeze вставляет единицу в размерность в определенное место сколько угодно раз и меняет вид тензора.
> И вообще, стоит ли это делать?
В некоторых случаях.
> Результат для torch.mean([1,15,30], dim=1) и torch.mean([15,30], dim=0) одинаковый будет?
[1,15,30] и [15,30] одно и тоже, но вот dim = 0 даст среднее по измерениям, dim = 1 у одноразмерного тензора даст тот же тензор а dim=2 даст среднее по столбцам.

Так то все можно делать просто введя в консоли python потом import torch и x = torch.rand([1,15,30]) и уже с ним играться.
Аноним 15/07/21 Чтв 13:36:22 2096346299
Поясните за торч-лайтенинг и автоподбор гиперпараметров, брат жив?
Аноним 15/07/21 Чтв 16:08:26 2096495300
Здоров пацаны. Заскочил к вам на чаек. Сам веб макака. Но подумываю вкатиться в нейроночки эти ибо заебал веб. Как думаете игра стоит свеч? Зарплаты как в индустрии?
Аноним 15/07/21 Чтв 16:39:46 2096520301
Аноним 15/07/21 Чтв 23:20:42 2096981302
Аноним 16/07/21 Птн 00:05:04 2097021303
Аноним 16/07/21 Птн 04:27:58 2097092304
>>2096981
Матанопетух пытается в филосрфию
Аноним 16/07/21 Птн 11:16:46 2097223305
>>2096495
Хайп падает, котики и бредогенераторы уже не удивляют
Аноним 16/07/21 Птн 16:23:37 2097598306
16264271465100.jpg 181Кб, 1521x1237
1521x1237
>>2097223
> пок пок
Мань, в ближайшие лет 5 запилят автоматический рилтайм переводчик на Ютубе, любой контент, хоть старый, хоть только что выложенный, будет автоматом сразу же доступен на любом языке. Трансформеры уже прямо сейчас, когда ты кукарекаешь тут, на мейлру, стирают языковые границы.
Аноним 16/07/21 Птн 16:42:47 2097630307
Untitled.png 33Кб, 2038x888
2038x888
>>2097598
>Трансформеры уже прямо сейчас, когда ты кукарекаешь тут, на мейлру, стирают языковые границы.
Только инвесторов это не впечатляет.
Аноним 16/07/21 Птн 16:43:49 2097634308
Аноним 16/07/21 Птн 23:21:04 2098027309
>>2097598
>Яндекс
Я пробовал их speech-to-text юзать. Лютая хуйня, которая даже русский язык распарить не может, когда пытался текст из заседаний суда вытащить.
Аноним 16/07/21 Птн 23:35:28 2098041310
>>2098027
Дело не в Яндексе, а в том, что уже сейчас ставятся такие задачи. Разумеется, рабочее решение будет от Гугла, Амазона или ещё какой нормальной конторы.
Аноним 16/07/21 Птн 23:51:09 2098051311
>>2098041
И что что ставятся? Гугл вот уже сколько лет заставляет пару миллиардов макак светофоры на капче различать, а сами не могут нейросетку точную написать под это.
Аноним 17/07/21 Суб 00:09:14 2098060312
>>2098051
В огороде бузина, а в Киеве дядька... Причем тут светофоры к машинному переводу, только одному тебе аутисту понятно.
Аноним 17/07/21 Суб 07:41:11 2098136313
>>2098060
Это я к тому, что постановка задачи вовсе не гарантирует результат
Аноним 17/07/21 Суб 11:30:25 2098257314
>>2098136
Результат уже есть, алло. Ты поридж что ли?
Аноним 17/07/21 Суб 13:54:16 2098380315
>>2098041
>Разумеется, рабочее решение будет от Гугла, Амазона или ещё какой нормальной конторы.
Хули ж тогда Гугол сосёт у Яндекса в поиске по картинкам?
Аноним 17/07/21 Суб 20:59:46 2098912316
568484.png 11Кб, 413x379
413x379
Джуны тут?
Аноним 17/07/21 Суб 21:08:05 2098921317
>>2098912
> джун
> 3-6 лет
Вашему джуну за 30, он нам не подходит, несите следующего.
йоба.жопеге
Аноним 18/07/21 Вск 01:47:39 2099078318
Крайне желторотый вопрос: есть идеи что делать если у меня табличка миллион строк на 20 фичей, а мне нужно натренировать на всех данных бустинг (я использую катбуст)? У меня просто ядро моментально крашится при попытке, потому что оперативу всю сжирает модель. Можно ли как-то обучаться последовательно?
Извините что такую глупость спрашиваю, надеюсь кто-то поможет инвалиду.
Спасибо.
Аноним 18/07/21 Вск 05:00:27 2099106319
>>2098912
А сколько бы такому джуну платили? Почему они зп не указывают?
Аноним 18/07/21 Вск 08:05:46 2099129320
>>2099078
Обычно обучение и так последовательно идет ведь никто в здравом уме не будет обучать в один момент на всем. Есть batch size который определяет сколько потоков обучения и куча других гиперпараметров, скорее всего тебе нужно их понизить.
Аноним 18/07/21 Вск 08:49:03 2099168321
>>2099106
Всмысле сколько бы джун доплачивал если бы они его подобрали с переполненного рынка июней? 20-30к в ДС в среднем.
Аноним 18/07/21 Вск 09:01:38 2099178322
>>2099168
Такая толстота унылая.
Аноним 18/07/21 Вск 11:24:48 2099249323
>>2098380
ограничения по поиску из-за авторских прав.
Аноним 18/07/21 Вск 11:27:00 2099251324
>>2099168
>>2099178
Я был готов отдать 100-150к чтобы меня взяли на стажировку.
Ординатуры и практики у врачей ведь тоже платные, где студент вынужден давать деньги за то, чтобы его научили.
Так и в мире ИТ должно быть. Какой смысл конторе брать джуна, который полгода будет только в убыток работать?
Аноним 18/07/21 Вск 11:37:46 2099260325
>>2099251
Никто не виноват что ты в пидорахии живёшь. Тем более врачём. На них спрос повыше чем на итишников. И да в нормальных странах врачам оплачивают интернатуру а не наоборот
Аноним 18/07/21 Вск 11:45:28 2099267326
16237470182160.mp4 162Кб, 256x256, 00:00:05
256x256
>>2099251
>>2099260
В Блинолопатии за работу платит работник, а не наоборот? Да вы ж ёбнутые, лол. Такого даже при рабовладельческом строе не было
Аноним 18/07/21 Вск 12:00:17 2099277327
>>2099267
Ну то что интернатуру оплачивают вполне да. Если повезёт то она бесплатной будет
Аноним 18/07/21 Вск 12:03:10 2099279328
>>2099267
А вот в беларуси айтишнегов линчуют вообще сажают!
Аноним 18/07/21 Вск 12:43:48 2099308329
>>2099267
>>2099260
Срыночек не тот? А по мне так норм, срыночек порешал, спыночкобляди соснули.
Аноним 18/07/21 Вск 12:45:05 2099309330
>>2099279
>вообще сажают
А они точно госпереворот не хотели устроить, а мирно сидели шлепали круды?
Аноним 18/07/21 Вск 12:48:46 2099312331
>>2099308
Причем тут срыночек если основная мысль что ты пидораха?
Аноним 18/07/21 Вск 13:55:33 2099399332
>>2099312
>основная мысль что ты пидораха
Что в этом плохого? Лучше чем еврочмоха или пиндоха какая нибудь.
Аноним 18/07/21 Вск 14:00:25 2099401333
>>2099399
Не лучше. Еврочмоха хоть уровень жизни имеет
Аноним 18/07/21 Вск 14:12:46 2099412334
>>2099401
>уровень жизни имеет
Домики из говна и палок смытые первым же дождем, ох лол
Аноним 18/07/21 Вск 14:24:46 2099419335
>>2099412
>Сталагмит из говна вошёл в чат
Аноним 18/07/21 Вск 14:28:08 2099420336
>>2099419
>Трясунишка ящика осознал свою никчемность
Аноним 18/07/21 Вск 14:35:10 2099427337
2197632original.jpg 101Кб, 480x360
480x360
Аноним 18/07/21 Вск 16:41:55 2099550338
>>2099427
Хаха, твоя сычевальня, нищий трясунишка?
Аноним 19/07/21 Пнд 00:13:41 2100043339
Почему среди вакансий одни казино (в том числе и скрыто через компании посредники) и банки?
Аноним 19/07/21 Пнд 09:52:43 2100148340
16244335457640.webm 407Кб, 640x360, 00:00:14
640x360
>>2098912
Джун - это 1-3 года опыта.
Аноним 19/07/21 Пнд 11:06:05 2100203341
Хеллоу, есть ли для машоба роадмап для россии, как есть у жопошников из js-треда? (https://github.com/acilsd/wrk-fet)

Или подразумеваются что тут все достаточно умные, чтобы понять, что и куда и кому, в отличие от унтерменшей, у которых typeof(NaN) === "number"?
Аноним 19/07/21 Пнд 11:25:15 2100217342
>>2100203
Здесь все достаточно умные, чтобы понять: хайп машинлернинга ВСЁ, денег больше нет и вакансий тоже практически нет (кто не верит - прогуляйтесь в ODS, чекните вилки).
Аноним 19/07/21 Пнд 11:26:06 2100219343
>>2100043
Потому что только у них есть достаточно денег на такое. Какие-нибудь биологи тоже например хотели бы, но у них денег нет.
Аноним 19/07/21 Пнд 11:53:59 2100238344
>>2078573 (OP)
Нейроно-аноны, не могу сам догадаться. Какая есть сфера применения нейросетей или просто классического ИИ в которой можно теоретически получить очень много денег если сделать значительный прорыв в качестве? Оптимизировать электростанции это конечно круто но это уже научная фантастика на самом деле.
Аноним 19/07/21 Пнд 11:58:39 2100244345
>>2100238
У тебя ресурсов не хватит
Аноним 19/07/21 Пнд 12:07:30 2100249346
>>2100244
Может быть хватит если вложить капитал и создать такое решение которое выгодно. А можно вообще продавать какой-нибудь софт.
Аноним 19/07/21 Пнд 12:29:30 2100264347
>>2100238
Ну нейронки обычно используют для оптимизации человеколюдей путем их исключения либо для того чтобы они выполняли роль людей но в незначительных делах. Например использование нейронок для системы рекомендаций, классификации и так далее - все это позволяет крупным дядям платить куда меньше. А для небольших дядь есть вариант сервисов как тот что удаляет фон или нейросетевой переводчик с премиум функциями или прикручивание фич к гпт-3 и создание платного сервиса.
Так что скорее всего у тебя два пути - поискать интересные но загнувшиеся стартапы и оживить из под другим именем, либо придумать сервис/тулзу с премиум фичами. На счет сервиса могу порекомендовать сделать платный сервис по озвучиванию текста, если создашь тот в котором будут как минимум несколько известных голосов на русском и ангельском и сделаешь 2 бесплатных попытки то как минимум потенциал будет. Сейчас с такими сервисами, особенно те где есть русский язык, совсем пизда хотя казалось бы. А если сможешь сделать фичу озвучки из голоса который загрузит пользователь то сможешь даже продавать услуги каким нибудь дядям.
Аноним 19/07/21 Пнд 13:21:51 2100307348
>>2100217
Чем тебе вилки не нравятся? Ну поменьше жсомакак, чего такого...
Аноним 19/07/21 Пнд 13:24:54 2100310349
>>2100249
Капитал прожиточного минимума? Ну давай, вложи капитал сопоставимый с разработкой GPT-3
Аноним 19/07/21 Пнд 13:26:46 2100311350
>>2100217
>Здесь все достаточно умные, чтобы понять: хайп машинлернинга ВСЁ
Вашу ж мать. А я только собрался в ШАД поступать.
Уже не надо, или как?
Аноним 19/07/21 Пнд 13:28:32 2100313351
>>2100310
>капитал сопоставимый с разработкой GPT-3
Сколько это?
Аноним 19/07/21 Пнд 13:38:55 2100331352
>>2100311
Ты каждого малолетнего калмуниста с ЭС но без мозгов слушаешь и внимаешь?
Аноним 19/07/21 Пнд 13:55:10 2100353353
image.png 361Кб, 1200x800
1200x800
image.png 532Кб, 1200x800
1200x800
image.png 352Кб, 1200x800
1200x800
>>2100331
>камунисты мам
А теперь идешь чекаешь число вакансий дата сосанистов и их зарплатные вилки, сравниваешь с нормальными разработчиками, плачешь

>>2100311
Разумеется поздно, в 2021-то. Хайп был в 2012-18, тогда нормально было вкатываться. А в 2020 ковид порешал бесполезных фитпредиктов, причем куда жестче чем нормальных разработчиков
Аноним 19/07/21 Пнд 14:04:25 2100371354
>>2100249
>нейронки
>софт продавать
Аноним 19/07/21 Пнд 14:07:12 2100374355
Аноним 19/07/21 Пнд 14:27:30 2100405356
>>2100353
> А в 2020 ковид порешал бесполезных фитпредиктов
Каким образом? И почему именно их? Если они были бесполезные, то какого хрена они вообще работали до ковида?
Аноним 19/07/21 Пнд 15:19:13 2100436357
>>2100405
Таким образом, что чудодейственное "предсказание поведения потребителя" и прочий йоба-маркетинг, которое типа продавали бизнесу дата сосатели, оказалось полной хуйней и в 2020 это оказалось совсем наглядно.
Аноним 19/07/21 Пнд 16:07:12 2100487358
>>2100436
А кроме йоба-маркетинга вакансий вообще нет?
Аноним 19/07/21 Пнд 16:25:02 2100503359
Аноним 19/07/21 Пнд 23:34:42 2100829360
Что думаете про MLOps?
Аноним 20/07/21 Втр 01:46:30 2100904361
16258757203051.png 652Кб, 680x506
680x506
>>2100436
Только что-то начинает нравится из айти - оно гибнет нахуй
Пойду джангу дрочить тогда или это тоже мертво?
Мне уже похуй, лишь бы вакансии на джунов были, в одс сидеть просто больно - 500 вакансий на ГИГА-СЕНЬОРА, они типа серьезно надеются найти гига-сеньоров в таком количестве? Я думаю что то что там в требованиях не наберется и у 500 человек на планете, и все они вестимо сидят в сбере, который делает все хуево, у меня от этих несостыковок ДАТАСАЕНЗ начинается
Аноним 20/07/21 Втр 02:39:13 2100906362
>>2095339

> пыхомонолит

Найс ассумпции. На пыхе щас такие же микропомойки пишут
Аноним 20/07/21 Втр 03:14:12 2100910363
>>2100904
Спасибо за кота. Джанга НЕМНОЖКО оверхайпнутая, но помирать пока не собирается - погрузчики джейсонов всегда нужны.

мимо погрузчик
Аноним 20/07/21 Втр 09:35:55 2100968364
>>2100904
Чел, у одса все-таки требования к оформлению жесткие. Какой кабан готов указывать вилку наперед? Это если все так делать будут, что же с нами будет кабаны нахуй так жить???

Поэтому джунских вакансий там нет: найти джуна проще, для этого не приходится идти на сделку с собственной кабаньей совестью. Ищи на хехантере.

Петухов на харкаче не слушай: нихуя не умирает, просто это ммммаксимум тупая работа, макакинг фичей и кривые эксперименты, все выкатываются через год и уходят и разработку/мле/де.
Аноним 20/07/21 Втр 09:40:21 2100974365
>>2100904
В питон дохуя вкатышей. Фласк уже стал асинхронным в отличие от джанги, которую надо переписыватьс 0 чтобы она стала полностью ассинхронной. Вкатывайся сразу в 1с-Битрикс. Потом можно будет на какой-нибудь ларавель перескочить и работать на западного барина.
Аноним 20/07/21 Втр 10:00:11 2101005366
>>2100148
То есть у тебя кастовое общество получается?
Что другие спецы не могут перейти в то же Ойти, потому что требуется опыт, который приобретаетя яерез стажировку, на которую дедов не возьмут.
Аноним 20/07/21 Втр 10:10:00 2101012367
Короче, выдумал. Есть идея такая - создавать модели, которые людям понравятся. Ну то есть то, в чём считалось ИИ не сможет вообще разобраться. Можно начать в ютубе, включить музыку, продемонстрировать результат какой-нибудь визуализацией и объяснять потом полчаса как работает, что вообще сделал чтобы прийти к этим моделям. Добавить патреон, в котором есть код и процесс работы описывается. Все, конечно, на английском. Это привлекает и ресерчеров, и начинающих и обычный народ. Можно выйти на какую-то популярность. Есть ведь каналы где исследуют алгоритмы или другие науки в общем. ИИ - тема на слуху у всех. У меня есть несколько идей как это сделать но получается нужно подтянуть говорение на ангельском чтобы без ошибок и с минимальным акцентом, купить пеку для обработки и, собственно, выучить обработку. Стали бы такое смотреть? Есть идеи на то как хранить память для сетки, хочу научить её сохранять ассоциации, интерпретировать картины например может, датасет не нужен, ведь есть Викидата.
Аноним 20/07/21 Втр 10:25:58 2101017368
>>2100904
Джанга давно уже мертва и состоит в основном из поддержки говнолегаси, вакансий джунов почти нихуя
Аноним 20/07/21 Втр 13:35:18 2101233369
>>2101005
Это не у меня, это объективная реальность.
Аноним 20/07/21 Втр 14:51:41 2101370370
>>2101012
Какие например модели? В чем по мнению большинства нейронки нихуя не могут?
2021 год на дворе, ау, сейчас большинство видит в нейронках не красноглазую хуиту построенную из костылей и сжирающую электричество с видеокартами даже больше чем майнинг, а всемогущую палочку выручалочку в которую закинь что то и она все сама сделает. И портрет по фотке нарисует и ебальник сгернерирует и музыку напишет и голосом умершего неотличимо поговорит, и вообще все сделает.
Сейчас обычные люди которые связаны с нейронками чуть меньше чем никак ничему не удивятся даже если ты сделаешь нейронку которая побьет лучшую в задаче на 20% и будет более эффективна, никто не удивится если ты сделаешь нейронку которая будет делать что то что умели только люди как та нейронка с удалением фона. А те кто связаны - четверть живет на том что стагнирует развитие нихуя не делая и получая за это деньги и будет на тебя зла ведь есть риск что кабанчики скажут им работать и им придется работать, другая четверть и так загружена по горло и им будет похуй, и половина вкатывается либо это их хобби и от них отметай как минимум половину ведь далеко не каждый готов платить за хобби тем более когда почти наверняка аналог того что будешь предлагать ты уже давно сделали и заопенсорсили.

Как итог твой план это пахать до разрыва жопы каждый день и получать копейки с четверти от и без того небольшого количества людей. Это конечно мое личное мнение и мб я проебался чуть более чем во всем давайте, обосрите гринтекстом, но твой план говно.
Аноним 20/07/21 Втр 15:17:22 2101397371
>>2101370
Ты новенький? ГАНы это не вершина технологического развития.
Аноним 20/07/21 Втр 15:34:43 2101433372
>>2101397
Они наиболее известны и популярны в массах. Настолько что спроси любого про нейронки которые он знает и он назовет от силы парочку ганов даже не зная что это ганы. А все что дальше не считая трансформеров которые совсем немого известны благодаря хайпу у гпт-3 и йоба обещанием клоседХУИ на счет гпт-2 который они выкладывали по частям скорее в бэкендах у дядек либо попросту не идет в массы.
Аноним 20/07/21 Втр 16:26:59 2101505373
>>2101433
Нейроговно не работает, это очевидно, поэтому не нужно
Аноним 20/07/21 Втр 16:31:15 2101517374
Аноним 20/07/21 Втр 16:37:20 2101528375
>>2101505
Это нейроговно уже может предсказывать структуру белков с идеальной точностью чего не смогли добиться люди за всю историю. Это нейроговно уже может составить карту темной материи во вселенной, генерировать реалистичные лица хотя это скорее для темносерых делишек, менять лица на видео без мильонов денях в хохловуде, делать неотличимый от оригинала голос по тексту, делать кучи вещей за секунды которые люди делали бы несколько дней и так далее.
Это говно имеет огромный потенциал и уже даже реализовало его часть и уже лет 10 работает в проде. Но в массу оно просачивается редко ведь требует огромной доработки напильником даже сейчас.
Аноним 20/07/21 Втр 16:55:52 2101566376
>>2101528
Я же говорю, что бесполезное. Все что ты перечислил, на хуй не нужно.
Аноним 20/07/21 Втр 17:07:19 2101583377
>Борис Янгель работает в команде беспилотных автомобилей «Яндекса». Мы поговорили с ним о том, нужна ли полноценная интеллектуальность для создания беспилотника, в чем проблема обучения с учителем и почему сырая мощь вычислений постоянно оказывается «серебряной пулей», которая в конечном счете побеждает любые эвристики и специализированные модели.
https://music.yandex.ru/album/12967722/track/85248474
Аноним 20/07/21 Втр 17:14:41 2101593378
>>2101583
2021 год, комровиден петухи не могут решить элементарную задачу автономиквехикуласа, лол. Пттолок нейродебилов это как вон тот анон выше написал, генерить смешных котиков и изменять голос.
Аноним 20/07/21 Втр 17:20:11 2101599379
>>2101566
Тогда что нужно? Или ты из тех кто любит купаться в говне и не верит что завершив рассчет протеинов люди обретут бессмертие?
Давай более прикладные - робопсы, автоматизация контроля производства где нейронки оценивают брак, рассчет теми же нейронками оптимальной архитектуры вычислительных устройств, масштабирование видео в рилтайме, помощь квантовым компьютерам для отбрасывания ненужных вычислений и дохуя другого.
Аноним 20/07/21 Втр 17:42:56 2101613380
>>2101593
Это определитель вероятности на датасете и не более.
Аноним 20/07/21 Втр 17:47:00 2101622381
Аноним 20/07/21 Втр 17:52:01 2101625382
>>2101599
>Тогда что нужно
Ммм, семантический поиск например, диагностические системы (медициеские технические), автономное управление транспортом. Вот минимум.
Аноним 20/07/21 Втр 18:01:54 2101632383
>>2101625
Но ведь все это уже давно есть на нейросетях. Даже яндекс использует семантический поиск, нейронки уже года два могут в диагностику хотя и слабо, однако они все еще развиваются, а о автопилоте и говорить нечего - теслы существуют тоже не первый год.
Аноним 20/07/21 Втр 18:05:18 2101636384
>>2101632
>все это уже давно есть на нейросетях
Нет, нету.
>Даже яндекс использует семантический поиск
Нет, топорные статистические петолы, в семантику никто не может.
>автопилоте и говорить нечего
Хуйня, которая едет по прямой.

Вса эти проблемы не решены, это подтвердит любой человек в теме.
Аноним 20/07/21 Втр 18:09:51 2101640385
>>2101636
> Нет, топорные статистические петолы, в семантику никто не может.
Не хочу приносить статьи с хабра, но придется
https://m.habr.com/ru/company/yandex/blog/529658/
> Хуйня, которая едет по прямой.
Ну раз ты сказал..

> Вса эти проблемы не решены, это подтвердит любой человек в теме.
Они не решены до конца но пока все эти проблемы исключительно на нейронках, и значительный прогресс происходит каждые пару лет.
Аноним 20/07/21 Втр 18:19:00 2101649386
>>2101640
>Не хочу приносить статьи с хабра
И не ниси, бложик компании Яндекса ничего другого бы не написал. Яндекс даже в нормальный поиск с трудом может.
>Ну раз ты сказал..
Поинтересуйся DARPA Grand Challenge

Здается мне что ты поридж и тебя ждет еще много разочарований.
Аноним 20/07/21 Втр 18:23:55 2101653387
>>2101649
>>2101636
>>2101625
Ты опять выходишь на связь, мудило? Твои ЭС ещё в 70х обоссали, как и все остальное, с чем ты носишься только потому, что ничего новее не осилил.
Аноним 20/07/21 Втр 18:26:05 2101658388
>>2101649
> Яндекс даже в нормальный поиск с трудом может.
В некоторых аспектах он даже лучше гугла. Тот же поиск по картинкам.
> Поинтересуйся DARPA Grand Challenge
Это тот который последний раз проводили в 2007? Актуальненько
Аноним 20/07/21 Втр 18:30:21 2101663389
161475920711556[...].jpg 38Кб, 500x375
500x375
>>2101653
>Твои ЭС ещё в 70х обоссали
Но в 70х уже были диагностические медицинские системы, где сейчас хотя бы их подобие?
>ничего новее не осилил
Говно для пориджей не работает.

Я сейчас занимаюсь семантическим поиском и пишу морфологический анализатор, без него никак. Так вот, покажи анализатор для русского языка, который не хуяндовский майстем и не васянский пиморфи? Оба говно кстати.
Аноним 20/07/21 Втр 18:34:45 2101666390
fcy5hdXRvLmRyb2[...].jpeg 277Кб, 1280x960
1280x960
>>2101658
>Тот же поиск по картинкам
Это не семантический поиск.
>Актуальненько
Проблемы остались те же.

Я кстати пробовал в автономное вождение и ты можешь попробовать, это очень легко и тебе не нужно всавать с дивана. Можешь на любом симуляторе пробовать, я на Американ Трак Симулятор делал. Очень интересно, но работа с текстом мне нравится больше. Возможно потом обратно пепрключусь. А есть еще симулятор фермеров, на нем можно автономную сельхозтехнику разрабатывать, мммм, это проще и более переспективно.
Аноним 20/07/21 Втр 18:49:43 2101682391
>>2101666
> Это не семантический поиск.
Речь была про то что яндекс нихуя не могут. Семантический поиск и так уже у них есть и он на нейронках а не нейросетевые реализации пока на уровне не говна а окаменелого говна.
> Проблемы остались те же.
Ты правда считаешь что с теми же проблемами теслы бы пустили на фулл автопилоте разъезжать по улицам? Согласись, огромное количество этих проблем уже решено а остальные решаются в довольно быстром темпе.

Аноним 20/07/21 Втр 18:59:08 2101685392
>>2101682
>на фулл автопилоте разъезжать по улицам
Это где он мимокрока сбил?
>так уже у них есть
Нет.

Набери

Когда родился Есенин
Когда появился на свет Есенин

Почему во втором случае не идет полнотекстовый поиск фразы?
Есенин появился на свет
Аноним 20/07/21 Втр 19:00:06 2101686393
Аноним 20/07/21 Втр 19:10:50 2101694394
1626797449251.jpg 400Кб, 1080x1925
1080x1925
>>2101685
> Это где он мимокрока сбил?
Напомни, сколько в год мимокроков сбивают люди?
> Почему во втором случае не идет полнотекстовый поиск фразы?
Пчел.. ты..
Аноним 20/07/21 Втр 19:12:07 2101695395
>>2101663
>анализатор для русского языка,
Кому он нужен? Тебе, потому что ты кроме русского ничего не знаешь? Что на русском анализировать? Толстоевского, рашн репчик или что?
Аноним 20/07/21 Втр 19:12:59 2101696396
>>2101694
>Напомни, сколько в год мимокроков сбивают люди?
Это другое.
Аноним 20/07/21 Втр 19:16:51 2101700397
1626797810370.jpg 2Кб, 170x113
170x113
Аноним 20/07/21 Втр 19:20:17 2101702398
>>2101694
>не идет
Идет, я поправил. В твоем случае должна быть плашка как и при первом запросе с датрй рождения, а не поиск словосочетанмя.
Аноним 20/07/21 Втр 19:26:50 2101714399
>>2101695
>Кому он нужен?
Мне, аналитическое говно типа английского уж точно не нужно, а я хочу общаться с виртуальной няшкой на нормальном русском языке. Хотя говноедам вроде тебя достаточно волапюка.
Кстати, меня всегда забавляли нлп пидарахи которые кроме примитивного английского нихуя не знают, в основном это нетиви из юэсэй, типа мы сделали мегайобу которая дает всем пососать в тексте, потом им подсовывают более менее нормальный язык хотя бы из романских типа тот же испанский и они получают защеку, а о флективных языках даже говорить не стоит.
Аноним 20/07/21 Втр 19:28:22 2101717400
>>2101702
Не заметил, но тем не менее поисковик функцию выполнил. Очевидно что у них спрятаны триггеры на говнокоде которые при одних запросах делают обычный поиск текста, при других выдают результаты в особой форме зуб даю что там обычная регулярочка, а при третьих врубают нейронки. Еще судя по тому что даже гугол на вторую фразу выдает полностью мимо, в яндексах сделали проверку результатов нейронкой и прозвали это семантический поиском ведь по сути выполняется поиск по смыслу а не только по словам. Хотя с тем что используют они это херово никто и не спорит, но сделать это на нейронках значительно проще и эффективнее чем на чем либо другом.
Аноним 20/07/21 Втр 19:33:18 2101732401
>>2101717
>поисковик функцию выполнил
Все верно, он искал все три слова в определенном радиусе, но семантику моего запроса он не понял.
Аноним 20/07/21 Втр 19:35:29 2101735402
>>2101717
>на чем либо другом
На чем? Неронки это тупо статистика никаких семантических связей там и в помине нет.
Аноним 20/07/21 Втр 20:00:08 2101772403
>>2101732
Это как сказать тете сраке подать тебе тарелку с оливье за столом но тебе подаст эту тарелку дядя вова. Как бы то ни было, оливье ты получил с харчком но все же.
Аноним 20/07/21 Втр 20:02:32 2101776404
>>2101772
Ты глупенький? Отличие семантического поиска от полнотекстового осознаешь?
Аноним 20/07/21 Втр 20:03:02 2101777405
>>2101735
Это так, но то же можно сказать про все - код это просто набор байтов и никаких операций там и в помине нет, текст это просто набор букв и никаких слов там и в помине нет, на картинке просто набор пикселей и никаких котиков в пикселях и в помине нет.
Хотя даже не так, семантические связи уже идут в датасет и подразумевается архитектурой. При архитектуре хотя бы уровня гпт в этой самой статистике уже есть семантика и она может обрабатываться. Наиболее яркий пример - qa в pipeline, не будь там этих связей он бы как минимум говорил верно меньше чем в половине случаев, а ведь это наиболее примитивная форма для демонстрации. Если допилить архитектуру гпт и натренировать на нужном датасете, семантический поиск будет готов куда быстрее, чем если делать это любым другим методом особенно эс.
Аноним 20/07/21 Втр 20:05:07 2101779406
>>2101776
Очевидно же что на скрине он не полнотекстовый ведь тогда бы он выдал первым результатом не "Сергей Есенин появился на свет" а " Когда Есенин появился на свет", не?
Аноним 20/07/21 Втр 20:09:30 2101782407
>>2101777
>не будь там этих связей
Ммм, а как эти связи там образовывались? Ну просто мне вот забавно смотреть, берется слово, к какой части речи и в каком падеже/склонении оно стоит не учитывается, хотя в морфологии уже куча семантической информации заложена, потом это слово стемерами обрезается и скармливается нейронке. Вопрос, как словосочетание когда появился на свет и слово родился отожествляется?
Аноним 20/07/21 Втр 20:11:40 2101785408
>>2101779
Не, он нашел слова стоящие рядом, вот и все. Поиграйся с Solr на пример, на нем Дакдакгоу реализован.
Аноним 20/07/21 Втр 20:20:01 2101796409
>>2101782
Разве они обрезаются и падежи не учитываются? Насколько знаю, есть вокаб, он же словарь, там разные части слов разбиты на токены в форме чисел для того чтобы значительно сэкономить но количестве генерируемого текста. По сути применяется компрессия как в архивах. И потом слово например "летящий" разбивается на "лет" "ящ" "ий" с токенами скажем 394 37911 296. У них есть вектора которые определяют насколько вероятно что они стоят близко и в итоге у токена 394 и предыдущего токена или группы токенов уже есть близость в этих векторах и наибольшую вероятность получает сначало ящ, а потом ий. А остальное уже идет само собой, при обработке фразы нейронка видит группу токенов "летящий" вместе, и оценивает его близость к прошлым и видит эту связь, значит летящий связан с "самолет" а не с "в небе". Ну или как то так.
Аноним 20/07/21 Втр 20:23:17 2101801410
1626801796421.jpg 397Кб, 1080x1823
1080x1823
>>2101785
Тогда одно из двух. У яндексов лучше этот полнотекстовый поиск чем у гуглов потому что лучше сам алгоритм полнотекстового поиска, либо поиск не до конца полнотекстовый и в статье не напиздели.
Аноним 20/07/21 Втр 20:31:46 2101816411
>>2101796
> падежи не учитываются
Нет конечно, в лучшем лучае стеммером Портера разбивается
>"летящий" разбивается на "лет" "ящ" "ий"
На каком основании? Морфы не учитываются и никогда не учитывались, нет таких технологий а у меня есть.
Аноним 20/07/21 Втр 20:33:54 2101818412
>>2101801
>У яндексов лучше этот полнотекстовый поиск
Ну гугля кроме англоговна не умеет, в том же испанском он сосет, наверное там привязка и оптимизация к языкам.
Аноним 20/07/21 Втр 20:46:09 2101836413
>>2101816
Это база работы трансоформеров, не позорься. Есть вокаб который разбивает весь текст на токены и суть в том что разбивает весь. И обрабатывается тоже весь текст правда на сколько хорошо зависит от модели и гиперпараметров. В принципе можно использовать вокаб из единиц и нулей а перед обработкой текста его переводить в бинарный вид, качество вырастет, но затраты на обучение и время нужное для него вырастут в разы если не в десятки раз.
Иначе как по твоему даже самая малая модель гпт-2 делает текст таким, чтобы все слова были этими самыми падежами связаны, если по твоему они не обрабатываются? Если начнешь про ангельский нинужон, то есть куча рускоязычных моделей, они так же обрабатывают падежи, склонения и все остальное.
Аноним 20/07/21 Втр 20:54:23 2101849414
1626803662389.jpg 405Кб, 1080x1815
1080x1815
1626803662439.jpg 566Кб, 1080x1976
1080x1976
>>2101818
На английском они эквивалентны а на испанском оба сосут с заглотом. Так все же яндекс лучше гугла?
Аноним 20/07/21 Втр 21:00:16 2101860415
>>2101836
>Есть вокаб который разбивает весь текст на токены
Что такое вокабы и что такое токены? Инструментов разбиение на морфы я не видел, даже если они будут, то они будут основанны на словаре. Такие словари это на пример морфологические словари Тихонова или Ефремовой. Нейроговно к этому не имеет никакого отношения.
Аноним 20/07/21 Втр 21:01:47 2101862416
>>2101849
>Так все же яндекс лучше гугла?
Вероятно да, я как бы не спорю.
Аноним 20/07/21 Втр 21:04:14 2101863417
>>2101860
Вокаб - словарь где написано 1 это "а" 2 это "хуй" 3 это "ъыъ". Токены это те цифры, 1, 2, 3. Это действительно не полноценный морфологический разбор, однако к "хуй" ближе "ня" чем пробел если перед ним токен "ваша" и "нейронка" - ничего не напоминает?
Аноним 20/07/21 Втр 21:11:11 2101871418
>>2101863
>ничего не напоминает
А хуй и однохуйственный как они раскладывают? Это рпзличные части речи.
Аноним 20/07/21 Втр 21:11:41 2101873419
>>2101863
>словарь
Кто его создает?
Аноним 20/07/21 Втр 21:14:37 2101876420
Почему лопнул пузырь дата-саенса?
Аноним 20/07/21 Втр 21:18:15 2101882421
>>2101862
Тогда в чем секрет, в том что у яндексов лучше полнотекстовый поиск, или в том что яндексы прикрутили к поиску нейронку которая выдает максимально близкий результат к семантическому поиску но работает лишь с русским языком? Как по мне очевидно что второе, и если это грамотно допилить то от полноценного семантического поиска на который уйдет дохуя человекочасов и от правильного использования нейронки эффект будет один и тот же. Только второе имеет огромный потенциал и пока развивается само может двигать всю отрасль как гпт породил трансоформеры которые сейчас даже картинки генерируют и развил множество других направлений. Что даст твой судя по всему еще не готовый алгоритм кроме того что он какое то время будет лежать под копотом какого нибудь проекта и о котором не узнают из за политики кабанчиков держать все в тайне до последнего?
Аноним 20/07/21 Втр 21:25:09 2101894422
>>2101882
Высрал херню, семантический поиск Яндекса не реализован, а полнотекстовый уровня Солр или Эластика.
Аноним 20/07/21 Втр 21:28:56 2101897423
>>2101871
> хуй
"хуй"
> однохуйственный
"одно" "хуй" "ств" "енн" "ый" или как то так. Точно сказать не могу а сейчас проверять мне лень.

Но на хуй и на однохуйственный, очевидно, у нейронки разные векторы к каждому слову в словаре, и в итоге токены однохуйственного имеют большую вероятность идти вместе при токенах и их последовательностях которые лежат близко к этим токенам. То самое пространство векторов, оно же ембеддинг. И в итоге не зная явно морфологию при грамотном датасете нейронка по одним лишь частям речи будет грамотнее среднестатистического двощера.
Эти токены будут близки к другим токенам, например "выглядит" накинет токену "енн" пару очков, "как" накинет очки "ый" а "одинокий человек" накинет "однохуй" мильен очков. Затем "однохуй" даст очки "ств" и уже "одинокий человек выглядит так однохуй" докинут дохуя очков на "енн" а затем и "ый". Все просто и работает.
Аноним 20/07/21 Втр 21:31:08 2101901424
>>2101894
О том же и говорю, у их поиска есть потенциал но они называются яндекс. Но тем не менее они прикрутили нейронку к русскому языку и их поиск даже учитывая что они яндекс обошел с головой поиск гугла выдав результат по смыслу а не по совпадению текста.
Аноним 20/07/21 Втр 21:31:55 2101902425
>>2101897
>"одно" "хуй" "ств" "енн" "ый" или как то так.
Бояяя, поридж ты заебал, КЕМ будет разбитие на морфы? Покажи эту тулзу или алгоритм?
Аноним 20/07/21 Втр 21:33:47 2101906426
>>2101901
>прикрутили нейронку
Прикрутили бы обычную статистику запросов, было бы то же самое, никакой магии.
Аноним 20/07/21 Втр 21:37:16 2101911427
Аноним 20/07/21 Втр 21:39:15 2101912428
>>2101911
И как уже сказал это скорее сжатие чем разбитие на морфы но именно морфы никто не мешает добавить в словарь отдельно, тем более что они и так при создании туда попадают. Но суть не в них.
Аноним 20/07/21 Втр 21:39:40 2101913429
>>2101906
И как бы это работало?
Аноним 20/07/21 Втр 21:49:50 2101926430
>>2101911
Разбей пожалуйста сказку про Курочку Рябу?
Аноним 20/07/21 Втр 21:51:52 2101932431
Аноним 20/07/21 Втр 22:11:41 2101960432
>>2101906
В яндексе большие языковые модели (вернее дистилляции) успешно работают на низкочастотных запросах, на голове и так приемлимо работают вполне и обычные факторы и какие-то адхоки. Как собственно и везде, а почему никто не перепишет всё на одну большую нейронку ответ простой: легаси, для того чтобы полностью выкинуть все накопленные за года эвристики и традиционный мл нужно разгрести авгиевы конюшни, переписать поиск и инфраструктуру и показать результат в десятках абтестов по нескольку месяцев каждый, попутно оставив ещё несколько отделов без работы. В больших компаниях такого не бывает, мл ли это или обычная разработка.
Аноним 20/07/21 Втр 22:11:49 2101961433
>>2101932
Сейчас не у компа, завтра разобью.
Но зачем, там будет набор цифр которые тебе мало то скажут. Как уже говорил там упор не на формальные морфемы а на связь одних токенов с другими на основании которых нейронка присваивает им вероятность, и по сути там частями являются не морфемы а сами токены.
Аноним 20/07/21 Втр 22:20:47 2101964434
Поясните за каггл
Я могу открыть любой челлендж типа того же титоса, открыть самый апвоутнутый чужой ноутбук и хуярить с него или как? Или это вопрос "Оно тебе самому же нужно"?
Аноним 21/07/21 Срд 02:59:19 2102094435
>>2101961
>на связь одних токенов с другими
Ммм, как эти связи определяются?
Аноним 21/07/21 Срд 03:00:27 2102095436
>>2101960
Сказка про колено, в которое попала стрела, так бы всем дал пососать.
Аноним 21/07/21 Срд 03:07:53 2102097437
>>2101960
Сказка про колено, в которое попала стрела, так бы всем дал пососать
Аноним 21/07/21 Срд 05:06:43 2102109438
>>2101964
Можешь. Но на нормальных соревнованиях никто тебе высокорейтинговый нотебук не выложит.
Аноним 21/07/21 Срд 05:59:45 2102111439
16264279466851.gif 1355Кб, 379x400
379x400
>>2102094
Зум зумыч, иди читай что такое multihead attention и как и по какому принципу оно строит связи между токенами, потом уже манякритику наводи. Ах да, там же на английском, а не на вяликом и могучем староколпакском, а ты в англюсик не можешь из-за iq на уровне комнатной температуры. Уж тем более тебе никогда не понять, что все возможные алгоритмы машобчика и вообще какого-либо анализа данных это просто восстановление распределения вероятностей, и в ЭС твоих никакой магии нет, оно делает то же самое, что и трансформеры, только по-другому и на порядки хуже.
Аноним 21/07/21 Срд 09:42:55 2102164440
>>2102094
Ембеддингом же во время обучения. От каждого токена к другим идут вектора и получается такое пространство в котором хуй и член лежат близко, а марс и кровать далеко, а так же получается что морфемы в том или ином виде лежат близко к тем токенам с которыми они используются.
Аноним 21/07/21 Срд 09:59:20 2102180441
30067889-1.jpg 170Кб, 900x1200
900x1200
>>2102111
>иди читай
Сам читай очередное никому не неужное говно
Аноним 21/07/21 Срд 10:01:57 2102183442
>>2102164
> хуй и член лежат близко, а марс и кровать далеко
Короче херня, ну я так приблизительно и представлял.
Аноним 21/07/21 Срд 10:03:38 2102186443
>>2102111
>алгоритмы машобчика
Мммм, трясунишка ящика с зарплатой меньше чем продаван в пятерочке, это ты?
Аноним 21/07/21 Срд 10:30:45 2102209444
>>2102183
Ты удивишься, но эта херня вполне работает как и полноценная система с морфемным анализом. А полноценные системы с морфемным анализом я даже не могу вспомнить где используются. Напомнишь?
Аноним 21/07/21 Срд 10:34:28 2102213445
>>2102209
>но эта херня вполне работает
Только в маеяфантащиях пориджей
>Напомнишь
Весь нормальный НЛП
Аноним 21/07/21 Срд 10:43:40 2102220446
>>2102213
> Только в маеяфантащиях пориджей
Я уже правда сомневаюсь кто из нас поридж. Даже говно мочи (rugpt от сберов) может в падежи, склонения, запятые и попросту в грамматику русского языка. Даже моча мочи (зелибоба от яндекса) может во все это кстати на порядок лучше ведь в датасете был дводщь. Более того, сгенерированный бред во первых уже на порядок лучше того бреда что был года два назад в темные времена lstm, а во вторых он даже несет смысловую нагрузку.
> Весь нормальный НЛП
Дай примеров чтоль, или они используются
> Только в маеяфантащиях пориджей
Аноним 21/07/21 Срд 10:52:00 2102229447
162393529011414[...].jpg 136Кб, 824x1280
824x1280
>>2102220
>Даже говно мочи (rugpt от сберов) может в падежи, склонения, запятые и попросту в грамматику русского языка
rugpt? Лоооол, серьезно? Мальчик, ты школу то закончил? Откуда вы лезите бля
Аноним 21/07/21 Срд 11:19:48 2102259448
1626855587575.jpg 199Кб, 1080x1500
1080x1500
>>2102229
Он конечно полное говно как я блять и написал но с морфемами у него все в норме.
И сейчас разобью ту сказку токенизереом.
Аноним 21/07/21 Срд 11:23:53 2102263449
1626855832415.png 58Кб, 1615x395
1615x395
>>2101932
Разделил символом "|" декодированные токены. Токенизатор использовал от сбера так как лень делать свой.
Ж |или |- |были | дед | да | баба |. | И | была | у | них | Ку |рочка | Ря |ба |. |С |нес |ла | ку |рочка | яич |ко |, | да | не | простое | - | золо |тое |. |Д |ед | бил | - | не | разбил |. |Ба |ба | била | - | не | раз |била |. |А | мы |шка | бежала |, | хво |стиком | махнула |, | яич |ко | упало | и | разб |илось |. |Пла |чет | дед |, | плачет | баба | и | говорит | им | Ку |рочка | Ря |ба |:- | Не | пла |чь |, | дед |, | не | пла |чь |, | баба |: | снес |у | вам | новое | яич |ко | не | золо |тое |, | а | простое |! |
Аноним 21/07/21 Срд 11:35:27 2102283450
>>2102180
>>2102186
Лол, пробрало неграмотного калмуниста. Напоминаю, что в 21 веке человек, не знающий английского, по факту неграмотный, 99.9% актуального контента в любой предметной области кроме русскаго репчика и программы "вечер с Владимиром Соловьёвым", для него априори недоступно.
Аноним 21/07/21 Срд 13:43:45 2102414451
Аноны, которые шарят в нейросятях и анализах данных. Нужна ваша помощь. Не бесплатно. Суть проблемы. Я занимаюсь продвижением мобильных приложений. За некоторое время набрал некоторое количество данных вида: частота запроса, установок в конкретный день, изменение позиций(в зависимости от количества установок). Я более менее нашел взаимосвязь между этими 3мя значениями тыкая наугад. Мне нужна помощь в поиске этой взаимосвязи не на основе тыка, как я делаю это сейчас. Кому интересно, вот мой tg: @kir2915
Аноним 21/07/21 Срд 14:20:55 2102457452
А есть вообще разница, как umap и tsne используется - сразу на всех данных или на на частях этих данных?
Аноним 21/07/21 Срд 15:38:20 2102559453
>>2102283
>не знающий английского, по факту неграмотный
>Инглес лангуага, зе грейт лангуаг оф зе ворлд
Знание англоговна нужно только безполезным макакам в роде тебя, белым господам при необходимости выделят надмозга. Я даже не представляю на хуй этот говноязык учить. Хотя для пориджей смотреть в Твиторе как негры едят арбуз наверное нужно.
Аноним 21/07/21 Срд 15:40:03 2102564454
>>2102263
>Ж |или
>Ку |рочка
Чет пиздец
Аноним 21/07/21 Срд 15:47:31 2102573455
>>2102559
> в роде тебя
> на хуй
Ты бы хоть русский сначала выучил, как же проигрываю с тебя. И ты еще что то кукарекал про морфемы итт, блять, какие же пориджы дегенераты.

И нет, английский объективно не лучший язык в мире, но он во первых наиболее универсален, во вторых наиболее прост. Идеальный язык чтобы связать всех людей и позволить им обмениваться информацией, и поэтому мейн лангуаге в эпоху глобализма. Если ты не знаешь ангельский, ты самоизолирован в рамках пахомии с системами которые изжили себя лет 50 назад. Даже не так, эти системы давно заменены на инглишовскте, вспомни хоть один яп на русском, или португальском, или японском, да хоть на каком кроме ангельского, который сейчас используется хоть где то кроме школ.
Аноним 21/07/21 Срд 15:48:58 2102576456
>>2102564
Об этом и говорил но повторять как то заебался. Этого вполне хватает для генерации текста с правильными морфемами даже говном на палке.
Аноним 21/07/21 Срд 16:00:55 2102589457
>>2102573
>чтобы связать всех людей
Тебя с твоим барином наверное связал. Мне твое англоговно на хуй не нужно, от слова совсем, хотя техдоки и книги читаю свободно.
Аноним 21/07/21 Срд 16:03:40 2102594458
>>2102573
>Идеальный язык чтобы связать всех людей и позволить им обмениваться информацией, и поэтому мейн лангуаге в эпоху глобализма.
На самом деле это эсперанто и всякие ложбаны, англюсик более распространен из-за экономической экспансии
Аноним 21/07/21 Срд 16:15:23 2102607459
>>2102589
Пока с барином в первую очередь русским языком связан только ты и если выбирать межу российским барином и англогосподином то выбор очевиден. Но мимо, пока связан только со статейками и технодоками.
Аноним 21/07/21 Срд 16:38:41 2102634460
Есть тупой вопрос: как может случиться так что лгбтбустинг стал выдавать результаты хуже после добавления фичей?
Аноним 21/07/21 Срд 19:38:54 2102899461
ш.png 15Кб, 569x348
569x348
Шутники имеются?
Аноним 21/07/21 Срд 19:44:33 2102906462
>>2101397
> ГАНы это не вершина технологического развития
Расскажи что выше. На данный момент
Аноним 21/07/21 Срд 19:47:30 2102916463
>>2102906
>На данный момент
На данный момент бодественные ЭС рулят как обычно, а нейронки сосут
Аноним 21/07/21 Срд 21:31:06 2103006464
>>2102916
Снова выходишь на связь мудило?
Аноним 21/07/21 Срд 22:15:21 2103046465
>>2103006
Азаза, трясунишке неприятно, что нейронки не могут в то, во что ЭС в 70х на изичах
Аноним 21/07/21 Срд 22:25:17 2103050466
>>2103046
Дай эс которая определит что на картинке котик или собака. Из 70-х ясен хуй. Я подожду.
Аноним 21/07/21 Срд 22:36:38 2103061467
>>2102899
Ну это экспертная система нужна
Аноним 21/07/21 Срд 22:37:16 2103062468
>>2103050
>на картинке котик или собака
Не нужное говно.
Аноним 21/07/21 Срд 23:31:55 2103084469
>>2103062
Это примитивная форма компьютерного зрения и если твое говно не может даже в это то оно не сможет ни в одну задачу где компьютер должен взаимодействовать с реальными объектами используя лишь камеру а не оверпрайснутые датчики. Или автопилоты, моделирование по лишь одной фотографии вместо 1000 ракурсов в 4ккк и роботы которые могут поймать предмет уже внезапно стали ненужным говном?
Аноним 22/07/21 Чтв 00:06:37 2103106470
image.png 273Кб, 850x761
850x761
>>2103050
Распознать и искусственный дурачок может, а позаботить о кошаках твои нейросети могут? Вот экспертные системы могут

Expert system for determining the type of cats and how to care them
Cats are one of the many animals kept by animal lovers in Indonesia because the cat is a very friendly animal with humans and has a funny character. Nevertheless, not all cat lovers understand exactly the type of cat that is owned even how to care especially for ras or domestic cats (kucing ras - in Bahasa), because each type of ras cat has different character and way of care. This causes the pet cat affected by various diseases to cause death. One way to overcome the incomprehension of cat lovers in taking care of it is with the help of expert systems that have proven reliability in helping solve problems that require solutions as an expert in his field. This expert system was developed using forward chaining method. By answering any questions asked by the system about the characteristics of the cat owned, users will get answers about the type of cat they have and the way of good and right care.
https://www.researchgate.net/publication/329401998_Expert_system_for_determining_the_type_of_cats_and_how_to_care_them
Аноним 22/07/21 Чтв 00:14:23 2103108471
>>2103084
>если твое говно не может даже
А кто самолеты и прочие танчики в наведениях ракет распозновал?
Аноним 22/07/21 Чтв 00:16:37 2103110472
image.png 831Кб, 976x1815
976x1815
>>2103108
Следствие ведет нечеткое множество колобков
Аноним 22/07/21 Чтв 00:19:59 2103111473
>>2103110
Так оно только в 1965 начало появляться.
Аноним 22/07/21 Чтв 01:07:23 2103121474
cover.jpg 15Кб, 220x327
220x327
Аноним 22/07/21 Чтв 01:47:21 2103140475
>>2102906
> Расскажи что выше. На данный момент
Трансформеры.
Аноним 22/07/21 Чтв 06:27:16 2103182476
>>2103106
> пик
Это ещё и вручную надо прописывать? Ебать, прогрессивно.
Аноним 22/07/21 Чтв 07:10:59 2103184477
>>2103106
Искусственный дурачек стоит денег и пишет вывод не моментально, а твоя эс во первых не из 70-х, а во вторых
> This expert system was developed using forward chaining method. By answering any questions asked by the system about the characteristics of the cat owned, users will get answers about the type of cat they have and the way of good and right care.

Не работает без этого самого дурачка который сам и посмотрит и сам ответит на вопросы. То есть абсолютно не автономна и ограничена скоростью ввода этого самого дурачка.

Нахуя ты вообще это сюда принес если уже есть нейронка которая сделает то же самое но сама на ресурсах телефона?
да опять хабр и тут собаки, но мне крайне в лом искать дольше 2 минут
habr.com/ru/post/448316/
Аноним 22/07/21 Чтв 07:19:10 2103186478
>>2103108
Напомни, почему от них массово перешли на нейронки еще лет пять назад? Ах да, от высокой точности же, точно. Ведь если приделать к той же ракете рисунок с танком внутри которого нарисован хуй, а на самой ракете чуть чуть изменить контур чтобы ракета была с двумя яйцами у основания, то твоя эс выстрелит противоракетным в себя от безисходности и от того что не может найти схожий шаблон контура. Или я что то путаю и к контурам уже тогда подрубали нейронку?
Аноним 22/07/21 Чтв 12:39:54 2103450479
>>2103186
>>2103184
>Товарищмайор, мы натренировали нейронку на нашу ракету Либирашка2000 , готовы к запуску11
>Запуск разрешаю, огонь111
>Ракета залетает прям в дупу товарищмайору
>Ряяя, защо1111
Аноним 22/07/21 Чтв 12:41:09 2103451480
>>2103184
>habr.com
Прчему говноед всегда нейродебил?
Аноним 22/07/21 Чтв 12:42:10 2103453481
>>2103186
>Или я что то путаю
Ты просто поридж, который живет в маенфантазиях нейропетухов
Аноним 22/07/21 Чтв 12:55:45 2103460482
>>2103184
>habr.com/ru/post/448316/
Попробовал. Уровень угадывания совершенно неприличный — для одной и той же собаки породы гуляют так, что я могу это написать в две строки с random.choice(). Можно даже без фотографии

Даже опущенные говноеды из швабропараши обосрали этого нерошизика, лол.
Аноним 22/07/21 Чтв 13:55:26 2103500483
>>2103450
>>2103451
>>2103453
>>2103460
> 4 поста
Семен Семеныч, а ты неплох. Вот только ракеты полностью на нейронках не делают хотя многие функции уже реализованы на них, хабр певая ссылка в гугле, маняфантазии эс дебичейнастолько смешны что они высирают 4 поста на один, а статья - начало 2019 года, хочешь новее - https://siwalusoftware.com/ru/cat-scanner/

Еще пукать в лужу будешь или все же смоешься из треда и интернетов?
Аноним 22/07/21 Чтв 13:59:08 2103507484
1626951547159.jpg 305Кб, 1080x1882
1080x1882
>>2103500
Кстати только что его проверил и оно отгадало мою кошку. Напомни, сколько вопросов нужно ответить эске и насколько это медленнее чем скормить одну фотку?
Аноним 22/07/21 Чтв 14:02:18 2103512485
>>2103500
> певая
*первая
слоуфикс
Аноним 22/07/21 Чтв 14:15:51 2103524486
>>2103507
>>2103500
Потешное нейроговно крутит рендом, а они и рады
Аноним 22/07/21 Чтв 14:18:44 2103528487
>>2103507
Видишь кошку, но не знаешь ее породы?
Просто сделайте быструю фотографию или видеозапись кошки — с помощью приложения Cat Scanner вы сможете надежно идентифицировать породу кошек всего за несколько секунд! Наша встроенная камера с функцией масштабирования Pinch To Zoom и Tap to Focus позволяет легко идентифицировать кошку той или иной породы!


Как перестать лолировать от этих невероятеых прорывов?
Аноним 22/07/21 Чтв 14:19:31 2103531488
>>2103524
> с первого раза определила кошку из 60
> рандом
А ты смешной. Квадратики в рил тайм распознавателе объектов тоже нейронка на рандом рисует? Не позорься и иди поридж с клубникой поешь, или что вы там зумеры обычно делаете 99% времени.
Аноним 22/07/21 Чтв 14:20:40 2103533489
>>2103528
Давай аналог на эс шоб за секунду и с камеры в рил тайме, я могу подождать лет 5 пока эс окончательно не забудутся.
Аноним 22/07/21 Чтв 14:27:49 2103536490
>>2103533
>>2103531
>1970, ЭС занимаются медицинской диагностикой, управляют космолетами
>2021, нейронки определяют котиков
В голос. Хотя всеобщая деградация человечества на лицо.
Аноним 22/07/21 Чтв 14:28:35 2103537491
>>2103531
>Квадратики в рил тайм распознавателе объектов тоже нейронка на рандом рисует?
Конечно
Аноним 22/07/21 Чтв 14:42:11 2103541492
>>2103536
> 1970, ЭС занимаются медицинской диагностикой, управляют космолетами
Манямир. Ничем они не управляли, ничего не диагностировали. Было полтора условно работающих прототипа, за последствия работы которых никто не захотел отвечать, на этом всё и закончилось. Кроме акинатора ничего из ЭС не получилось.
Аноним 22/07/21 Чтв 14:49:31 2103542493
20210722144803.png 302Кб, 1351x1332
1351x1332
>>2103541
Манямир это у нейросектантов, которые ничего подобного даже в обозримом будущем не сделают
Аноним 22/07/21 Чтв 14:58:31 2103546494
>>2103542
Ну и что ты принес? Список неработающих прожектов. Если бы хоть что-то из этого минимально работало, это использовалось бы давно. И не пизди про плахой капетализм, у калмунистов бы работало. Но и этого нет, потому что нерабочая хуета.
Аноним 22/07/21 Чтв 15:02:06 2103551495
>>2103546
В тебя в глазках котики? Про Матлаб то хоть слышал? Теперь покажи список чего нибудь равносильного на нейроговне, а не безполезное определение котиков.
Аноним 22/07/21 Чтв 15:06:09 2103553496
>>2103551
> Про Матлаб то хоть слышал?
Матлаб это по-твоему ЭС?
Аноним 22/07/21 Чтв 15:11:49 2103556497
>>2103553
Нет, но она там есть как и во многих CAD системах.
Аноним 22/07/21 Чтв 15:40:35 2103583498
>>2103556
> Нет, но она там есть как и во многих CAD системах.
Лол. И что? Погугли, сколько разновидностей этой шляпы в R. В отличие от матлаба, все бесплатно, казалось бы, бери и используй. Только никому нахуй это не надо.
Аноним 22/07/21 Чтв 15:46:01 2103591499
>>2103583
>Лол. И что
То, что это приносит пользу, а нейронки кроме потехи ничего не приносят, этакие попыты
Аноним 22/07/21 Чтв 15:48:26 2103592500
>>2103591
> То, что это приносит пользу,
Пример пользы будет? Так-то в матлабе и нейронок полно.
Аноним 22/07/21 Чтв 17:43:12 2103703501
>>2103536
Ты забыл ещё один аспект:
>1970, ЭС занимаются медицинской диагностикой, управляют космолетами
>2021, нейронки запиливают кибергулаг
Аноним 22/07/21 Чтв 17:43:59 2103705502
>>2103536
Ты забыл ещё один аспект:
>1970, ЭС занимаются медицинской диагностикой, управляют космолетами
>2021, нейронки запиливают кибергулаг
Аноним 22/07/21 Чтв 17:44:55 2103706503
Нейросектантов в будущем ждёт Второй Нюрнбергский трибунал
Аноним 22/07/21 Чтв 18:10:26 2103721504
>>2103592
>Так-то в матлабе и нейронок полно
Они там потехи ради, они не являются частью движка, а нужны для симуляции нейронок.
Аноним 22/07/21 Чтв 18:31:04 2103732505
>>2103703
Во первых сейчас не 1970 и эс ничем из этого не занимаются а если и занимаются то это уже давно не чистые эс. Во вторых кибергулаг устраивают не нейронки, его устраивают люди с помощью нейронок, все равно что говорить что нож и вилки это плохо потому что ими можно убить человека. Его вполне могли бы устроить и с эс, даже устраивали, но если нейронки лучше эс то ясен хуй все перейдут на них с этого говна.
К слову, если верить тебе то это даже хорошо, ведь нейронки настолько говно что их используют все и они не будут работать, а значит кибергулагв не будет. Радуйся что ли а не пукай гринтекстом.

>>2103721
> они не являются частью движка,
> а нужны для симуляции нейронок.
Ты явно путаешься в очевидных моментах, если они там есть значит они по определению часть движа.

Аноним 22/07/21 Чтв 19:10:35 2103763506
>>2103732
>если они там есть значит они по определению часть
Матлаб не рисует котиков, так что в движке нейронки не нужны
Аноним 22/07/21 Чтв 19:17:33 2103772507
>>2103763
Суть нейронок не только в рисовании котиков, котики скорее демонстрация того что уже могут нейронки.
Аноним 22/07/21 Чтв 20:33:30 2103861508
>>2103772
А более полезные вещи она может?
Аноним 22/07/21 Чтв 21:13:35 2103917509
>>2103861
А ты довольно тупенький, правда? Хотя чего еще ждать от эс даунича.
>>2103084
> автопилоты, моделирование по лишь одной фотографии вместо 1000 ракурсов в 4ккк и роботы которые могут поймать предмет
Аноним 23/07/21 Птн 01:51:19 2104098510
Анон, я тут немного заинтересовался вопросом переката из веб разработки в сторону дата саенса. Случайно наткнулся на вопросы с собеседований. Теория. Если с вопросами по моделям (когда использовать? что за гиперпараметры? итд) менее-более понятно, то со статистикой и особенно теорией вероятностей как-то туговато идёт. Не дай бог задачку бы попросили какую решить на подкидываение монетки или доставание шаров. Есть какая рекомендованная литература по этим топикам? Нормальное распределение я на глаз узнаю или смогу посчитать какие-нибудь простые статистики, но этого явно маловато.
Аноним 23/07/21 Птн 01:58:44 2104101511
>>2104098
>аинтересовался вопросом переката из веб разработки в сторону дата саенса.
>>2100217
Аноним 23/07/21 Птн 05:14:57 2104121512
>>2104098
> Есть какая рекомендованная литература по этим топикам?
d2l.ai там всё нужное.
Аноним 23/07/21 Птн 15:38:49 2104546513
Зацените этих якодзун мошонлёрнинга

https://m.youtube.com/watch?v=F5-TDP7DYUE

Чё такое пресижн рекол написать не могут, какие то охуительные истории про плохой высокий рокаук, пиздец вообще
Аноним 23/07/21 Птн 18:09:59 2104737514
Рейт описание вакансии
hh.ru/vacancy/46408491
Аноним 23/07/21 Птн 18:25:03 2104744515
>>2104737
Очередной человек-оркестр за лоупрайс.
Аноним 24/07/21 Суб 06:05:51 2105011516
Тут поридж с ЭС кукарекал, что нейроночки могут только во всратых котов. На самом же деле тут на повестке дня вопрос о самом серьезном прорыве в молекулярной биологии за всю историю существования науки вообще. Нейроночки прямо сейчас меняют мир, предоставляя науке возможности, которых без машобчика она бы не получила никогда.
https://3dnews.ru/1045020/ii-google-gotov-reshit-velichayshuyu-problemu-v-biologii-za-poslednie-50-let-predstavit-formu-vseh-izvestnih-nauke-belkov
> Произойдёт это в течение нескольких месяцев и обещает стать самым грандиозным в истории биологии событием. Программы по предсказанию формы белка разрабатываются многими компаниями и научными коллективами, но пакет AlphaFold DeepMind показал самую высокую точность прогнозирования формы. Эти инструменты находятся в открытом доступе, а готовая база данных по белкам значительно облегчит работу биологов во всём мире — бери и пользуйся.

> Пакет AlphaFold может предсказывать форму белков с точностью до атома. Но даже меньшая точность позволяет разрабатывать новые лекарства, предоставляя информацию о приблизительной пространственной конфигурации ранее структурно не изученных белков. Так, если за последние 10 лет биологи смогли изучить строение только 17 % белков человека, то AlphaFold за считанные недели удвоил базу белковых форм человека до 36 %. Эту информацию ещё предстоит проверить, но раньше алгоритм AlphaFold уже доказывал свою способность почти не ошибаться.

> Кроме белков человека DeepMind обещает представить белковые формы 20 наиболее изученных организмов от дрожжей до мух дрозофил, мышей и других — до сотен миллионов белковых форм. Сегодня база DeepMind содержит информацию о 350 тыс. предсказанных формах белка, но через несколько месяцев будет расширена до более чем 100 млн форм, где будут почти все более или менее известные науке белки.
Что с ебалом, свидетель акинатора а на большее ЭС по факту не способны, иначе это давно бы реализовали?
Аноним 24/07/21 Суб 10:20:16 2105040517
>>2105011
Это те самые вычислители протеинов?
Аноним 24/07/21 Суб 10:31:34 2105045518
>>2105040
> Это те самые вычислители протеинов?
Нет, вычислители протеинов за 10+ лет 17% навычисляли, а альфафолд столько же - за несколько недель. Уже только это позволяет говорить о неоценимом вкладе нейросетей в науку. И о сбыче мечт протеиношизика, ему вообще нужно Гуглу поклоняться за такое
Аноним 24/07/21 Суб 16:20:14 2105369519
1507492429760.png 1712Кб, 762x1080
762x1080
Аноним 24/07/21 Суб 16:43:29 2105402520
>>2105011
>прямо сейчас
Это же было полгода назад.
Как там, сильно брутфорс структур помог?
Аноним 24/07/21 Суб 16:50:09 2105414521
ПЕРЕКАТ?
Аноним 24/07/21 Суб 17:04:11 2105437522
Аноним 24/07/21 Суб 17:08:44 2105447523
>>2105402
> Это же было полгода назад.
> Как там, сильно брутфорс структур помог?
Полгода назад ее только зарелизили. Сейчас вовсю идёт использование, и это только начало и только первый настолько удачный проект. Сравни для начала когда придумали ЭС и вспомни единственный удачный проект на них - акинатор. Полгода для науки это нихуя.
Аноним 24/07/21 Суб 17:12:33 2105452524
К слову о битерлесоне. Альфафолд это как раз тому пример. Считали десятилетиями протеины на распределенных системах, а потом вжух и нейросеть за несколько недель сделала больше.
Аноним 24/07/21 Суб 17:16:14 2105455525
>>2105402
> брутфорс
Алсо, ты настолько дэбилен, что даже значение этого слова не понимаешь, раз используешь его совершенно не в тему. В данном случае брутфорс не при чём.
Аноним 24/07/21 Суб 17:38:26 2105476526
>>2105455
Мошонлёрнинг это глорифайд брутфорс и есть, мань
Аноним 24/07/21 Суб 18:06:44 2105493527
>>2105476
Нет, мань, это не брутфорс. Ты б сьебал отсюда учебники почитать, почему вы зумера такие - нихуя не знаете, даже из самых азов, а везде лезете со своим очень ценным манямнением? Это же 100% детектор школуйни.
Аноним 24/07/21 Суб 18:09:05 2105494528
>>2105493
Возбуждённая школота с популярными статейками тут ты, перечитай свой битерлессон любимый а потом загугли что значит брутфорс
Аноним 24/07/21 Суб 19:05:10 2105539529
>>2105494
>>2105493
Чет орнул с гениев нейросеточек.
всем давно известно что нейронки это брутфорс со смешением вероятностей которое направленно подбирается во время обучения алгоритмами начиная с градиентного спуска и заканчивая йобаадамом2000
Аноним 24/07/21 Суб 19:26:49 2105560530
16264583018240.png 764Кб, 1280x1092
1280x1092
Посоны, дрочнул титаник
Использовал катбуст классифаер, сделал возраст от пола, класса с std, получил топ 31%(~0.78)
Это конечно не охуенно, но я не знаю что стоит оставить как мой финальный на текущий уровень знаний результат, ведь топы все просто запихнули csv с правильным ответом с гитхаба, у меня был соблазн взять его, поменять каждую десятое значение на противоположное и получить свои ~0.95, но это говно какое-то
Короче хз поддержите меня или обосрите, что-нибудь
Аноним 25/07/21 Вск 14:28:17 2106244531
Положим, необходимо реализовать прямой перевод из языка в язык. Условно, в гугле хотят реализацию новой фичи в ютубе, открываешь иностранное видео, подкаст, а в нем голосовая дорожка автоматически заменяется на сгенерированную и перееденную на родной язык. Опустим звуковые эффекты, множество голосов и музыку. Как такое будут реализовывать дата-инженегры? Они запилят всякие преоброзавания Фурье и модель голос-голос или возьмут нейросеть1, которая переведет голос в текст, запихнут это в гугл переводчик и запихнут в нейросеть2, которая преобразует текст в звковой файл? Положим это чисто эксперементальная фича, напоминающая альфа версию MVP. В конце концов до 2016 года тот же гугл переводчик был куда менее адекватен. Есть два стула путя, какой наиболее эффективен по соотношению "качество" на рубль даллар?
Аноним 25/07/21 Вск 14:46:58 2106269532
>>2106244
Ансамбль что ты описал априори говно
Сетки не упираются в 100% никогда, это как КПД, даже у спроектированных "вечных двигателей" он все равно не 1
При ансамбле ошибки/шумы каждой сети будут накапливаться
Скорее всего будет 2 сетки, нлп-шная которая занимается всем текстом и звуковая для всего понимания и генерации с жестким форматом данных между ними
Но проблема такого перевода не в сложности технического процесса, а в особенностях языка, когда слова, фразы и контексты не переводятся на другой язык, это очень будет касаться таких языков как китайский где стандартным приветствием является "Ты вкусно сегодня кушал?" и в русско-английской паре есть непереводимые старые латинские слова типа Магнаномус или русские фразы в духе косил косой косу косой или Хуй будешь?
Аноним 25/07/21 Вск 15:24:10 2106298533
>>2106244
Помню натыкался на новость о том что гуглы трудились над прямым переводом звуковых файлов в звуковые файлы без использования текста. Уже точно не помню когда и где, но как по мне это будет значительно эффективнее другого пути как уже написали, ведь так будет сохранение интонации и длины фразы по времени произношения. Ну и разумеется это попросту быстрее ведь нейронка одна.
Аноним 25/07/21 Вск 16:11:06 2106346534
>>2106269
> фразы в духе косил косой косу косой или Хуй будешь?
Трансформеры изначально могут в разные значения одного слова, конкретные примеры вроде в хаггингфейсовских колабах видел. Тот же word2vec так не может, там одному слову соответствует один вектор, а в трансформерах это разные тензоры.
Аноним 25/07/21 Вск 16:12:50 2106350535
>>2106346
Да это все охуенно, только вот если человек не может в принципе что-то перевести с сохранением смысла и коннотации, то машина уж точно не сможет как бы она внутри не работала
Аноним 25/07/21 Вск 16:24:48 2106370536
>>2105560
> дрочнул титаник
Там 2000 строк. Там не на чем учить, бро. Сириусли
Аноним 25/07/21 Вск 16:30:27 2106374537
>>2106370
Там 900 пассажиров и 400 в тестовом, я думаю это чисто проект-тест на пидора, потому что у 177 отсутствует возраст и у 650 примерно не прописаны каюты, инфа по билету и имени почти бесполезная(пендосы пытаются по Mr. Mrs. Dr. припискам выдумывать возраста, но у тех у кого есть приписки всего 15 пропущенных возрастов, вангую потому что чернь не наименовалась мистерами и среди них больше всего проебанной каютной и возрастной инфы). При этом топ 200 результатов - 1.000 что возможно если засабмитить просто правильный сsv, уже посмотрел все ноуты с хорошими результатами, там обычный рандом форест который у меня выдал 72% у них якобы выдает 98%, где есть комментарии просто пишут что они удаляют значения какого-то процента цсвшки и получают 90-99 результаты, ютуберы что проходят вживую это обычно набирают те же 75-80% что и у меня
Аноним 25/07/21 Вск 18:14:11 2106485538
Ну как вы там, потомки?
Всё ещё кормите эс-шизика?
Аноним 25/07/21 Вск 21:59:43 2106761539
>>2106485
> Ну как вы там, потомки?
> Всё ещё кормите эс-шизика?
Нет, он официально обоссан. AlphaFold полностью противоречит его манямиру (нейросеть, уже сделавшая прорыв в науке, алсо праклятые капетолизты все выложили в открытый доступ). Как и тот медицинский факт, что единственный рабочий пример ЭС это акинатор.
Аноним 26/07/21 Пнд 01:48:35 2106884540
>>2106485
ЭС-шизик прошлое
Теперь горького петушка кормим
Аноним 26/07/21 Пнд 02:46:03 2106894541
Аноним 26/07/21 Пнд 02:49:56 2106896542
>>2105011
>Эту информацию ещё предстоит проверить
Лолблять, вот это надо было жирным выделять. Нейронки нагенерили опять какого то бреда, типа Порфирьича или той китайской с 6 биллионами параметров которая просто стоковые фотки блюрила. А людям теперь копаться в этом говне.
Аноним 26/07/21 Пнд 02:56:49 2106897543
>>2106244
>до 2016 года тот же гугл переводчик был куда менее адекватен.
Серьезно? Чем больше нейронок в гугле насували, тем менее юзабельным он становится. Мое мнение как пользователя.
Аноним 26/07/21 Пнд 05:21:00 2106907544
>>2106896
Ой, что тут у нас, неужели врети. Это последнее, во что тебе остаётся веровать, что там разница будет больше чем на пару атомов, что кстати, не мешает использовать результат для создания лекарств итд.
Аноним 26/07/21 Пнд 13:54:10 2107274545
>>2106907
Арбидольчика что ли? Ну да человеческий организм может много чего жрать без вреда.
>веровать
Это к трясунам черного ящика, который всегда лажает, а тут вдруг с чего то угадает правильные ответы.
Аноним 26/07/21 Пнд 17:56:30 2107546546
regular expressions - база? юзают их?
Аноним 26/07/21 Пнд 18:36:33 2107603547
>>2106894
Не понятно, при чем тут здравый смысл. Звучит как что-то, что можно вписать в RL. Какой-нибудь inverse RL uncertainty estimation.
На сам датасет ещё не смотрел, но 8400 ВИДЕО - звучит как-то сомнительно.

>>2107546
Юзают. Но если не будешь знать, то всем за пределами нлп будет похуй.
Аноним 26/07/21 Пнд 18:53:21 2107635548
Собираюсь вкатываться в дата сайенс/мл. План вката такой :Python data science handbook+hands-on machine learning + какой-то курс/книжка по статистике + решать упражнения в туториалах на kaggle learn + участвовать в соревнованиях на kaggle. Как вам план вката, что можете еще порекомендовать?
Аноним 26/07/21 Пнд 19:16:22 2107672549
>>2107274
> Арбидольчика что ли? Ну да человеческий организм может много чего жрать без вреда.
Пчел, расскажи какого там в средневековье жить до 20 лет и умереть от пореза/простуды. Пиздец, ты не просто эс шизик а анприм шизик. С кем я блять в одном треде сижу.
> Это к трясунам черного ящика, который всегда лажает, а тут вдруг с чего то угадает правильные ответы.
Во первых угадывает лучше людей которые 50 лет не могли этого сделать, и угадывает настолько хорошо что это имеет прямое практическое применение. А во вторых нейронки уже давно не черный ящик для всех у кого больше 2 iq. Ты в любой момент можешь посмотреть код что выполнения что тренировки, посмотреть структуру модели, слои, вектора, да и в принципе абсолютно все. Если взять пару листков бумаги и ручку то любой человек знающий тензорную алгебру вполне может просчитать вывод нейронки за пару дней и даже натренировать свою ручками за пару десятилетий.
Аноним 26/07/21 Пнд 23:00:02 2107929550
>>2107672
>Ты в любой момент можешь посмотреть код что выполнения что тренировки, посмотреть структуру модели, слои, вектора, да и в принципе абсолютно все. Если взять пару листков бумаги и ручку то любой человек знающий тензорную алгебру вполне может просчитать вывод нейронки за пару дней и даже натренировать свою ручками за пару десятилетий.
Ахуеть, ты хоть знаешь что вообще значит "чёрный ящик"?
Аноним 26/07/21 Пнд 23:10:19 2107949551
>>2107929
> Чёрный ящик — термин, используемый для обозначения системы, внутреннее устройство и механизм работы которой очень сложны, неизвестны или неважны в рамках данной задачи. «Метод чёрного ящика» — метод исследования таких систем, когда вместо свойств и взаимосвязей составных частей системы, изучается реакция системы, как целого, на изменяющиеся условия.

Да. И все мимо, ведь как и сказал уже давно делают акцент на исследование
> свойств и взаимосвязей составных частей системы
и конечно же
> внутреннее устройство и механизм работы
Сложны на уровне вышмата давай назови вышмат черным ящиком, абсолютно известны и крайне важны в рамках задачи.
Аноним 27/07/21 Втр 00:23:51 2107998552
в этой тематике какой бамп-лимит? 1к?
Аноним 27/07/21 Втр 00:43:04 2108005553
>>2107949
Ты долбоёб чтоли совсем? Из того что что-то композиция простых вещей не следует что эта вещь не сложная, что угодно можно представить как композицию простых вещей; человека, небо, аллаха. Пиши в треде после того как базовый курс философии сдашь, короче говоря и перестанешь трактовать слова в свою собственном значении.
Аноним 27/07/21 Втр 05:12:17 2108051554
16272703460480.jpg 40Кб, 511x407
511x407
>>2108005
> Из того что что-то композиция простых вещей не следует что эта вещь не сложная
Из этого зато прямо следует, что эта вещь не черный ящик.
> Пиши в треде после того как базовый курс философии сдашь,
Мдауш, тупую пизду с филфака за километр видно.
Аноним 27/07/21 Втр 07:25:20 2108068555
1627359919328.png 12Кб, 1280x223
1280x223
>>2108005
Пчел, таким образом у тебя и телефон с вентилятором это черные ящики ведь ты даже близко не понимаешь как они работают и получается эта схема пикрил. Нажал кнопки в случайном порядке - ввел капчу - пост высрался. Чем не магия или как минимум слишком сложная система которая в данном случае не важна?
Аноним 27/07/21 Втр 09:59:57 2108134556
У меня к вам 5 вопросов.
1. Ваш персонаж существует на самом деле?
2. Ваш персонаж женщина?
3. Ваш персонаж говорит по-русски?
4. Ваш персонаж актер?
5. Ваш персонаж англичанин?
ЭС-боги отвечают на эти вопросы за 3 секунды, нейротрясуны не ответят никогда.
Аноним 27/07/21 Втр 10:05:02 2108135557
>>2108134
Хуета, ногами деланная, кстати. Может один и тот же вопрос несколько раз задавать, это не нормально.
Аноним 27/07/21 Втр 10:29:05 2108148558
>>2108135
Это проверка на ложь/уверенность в ответе.
Аноним 27/07/21 Втр 15:18:40 2108412559
>>2108134
Неплохое маняврирование, но нет. Пока тебе нужно ответить на дохуялион вопросов, нейроб-гам нужно только дать картинку, либо ввести все на естественном языке вроде "это зумер с двумя ногами, двумя руками и эс вместо головного моска".
Аноним 27/07/21 Втр 15:27:31 2108424560
>>2108412
> Пока тебе нужно ответить на дохуялион вопросов,
Ну, если вопросы правильные, то их число не сильно больше логарифма от общего числа ответов. Не как в случае шахматной доски, для которой достаточно 6 вопросов, чтобы угадать загаданный квадрат - 1 из 64 вариантов, но все же.
Аноним 27/07/21 Втр 15:57:20 2108449561
>>2108424
Ты... Ты же понимаешь что при идеальных условиях шахматной доски это уже не эс а градиентный спуск, он же основа всех нейронок?
Аноним 27/07/21 Втр 17:01:59 2108527562
>>2108449
Ну никто кроме ЭС-шизика и не спорит, что ЭС и нейроночки делают в общем одно и то же, но по-разному и с разной эффективностью. Весь возможный машобчик это реализации expectation maximization (EM) алгоритма, разной степени кринжовости.
Аноним 27/07/21 Втр 22:48:55 2109028563
>>2108068
>ты даже близко не понимаешь как они работают
Это вас теперь в школе не учат как электромотор работает? Пизда
>>2108051
>Из этого зато прямо следует, что эта вещь не черный ящик
Не следует. Начинай лучше с основ матлогики.
Аноним 27/07/21 Втр 23:04:34 2109067564
>>2109028
> Это вас теперь в школе не учат как электромотор работает? Пизда
Тебя же. Хотя хуй знает чему сейчас во 2 классе кроме матлогики и философии учат. Или ты все же пошел в школу анпримов?
Аноним 27/07/21 Втр 23:30:57 2109094565
>>2109067
Кого? Опять ты со своими протыклассниками
Аноним 27/07/21 Втр 23:45:18 2109100566
16271531490160.jpg 69Кб, 853x1280
853x1280
>>2109028
> Не следует. Начинай лучше с основ матлогики.
Причем тут матлогика вообще, ты хоть знаешь, что это такое? Судя по твоим зумерским постам, не знаешь.
Аноним 28/07/21 Срд 02:19:32 2109142567
>>2107635
>участвовать в соревнованиях на kaggle
Достаточно бессмысленно в 2021. Вот годика 4 назад, когда там были одни таблички, по 100 участников на сореву, и можно было затащить иксджибустом, вот тогда была жизнь.
Аноним 28/07/21 Срд 07:54:39 2109206568
>>2109094
Понял, все же школа анпримов. Скажи что нибудь по анпримски.
Аноним 28/07/21 Срд 11:02:48 2109285569
https://2ch.hk/news/res/10416265.html
>Миллион человек — такая нехватка кадров наблюдается сегодня в российской IT-индустрии. В Минцифры предупреждают, что в ближайшее время ситуация станет только хуже. Через шесть лет дефицит специалистов увеличится как минимум вдвое: к 2027 году Россия недосчитается двух миллионов айтишников.
А GPT-4-5-10 их не порешает?
Аноним 28/07/21 Срд 11:17:30 2109298570
Аноним 28/07/21 Срд 11:54:08 2109333571
>>2109285
> А GPT-4-5-10 их не порешает?
В Блинолопатии не будет никакой GPT-4-5-10. Максимум сбербанк доест какой-нибудь открытый проект, зафайнтюнив на русскоязычном датасете. Но они походу и в это уже не могут, казалось бы, GPT-J-6B давно выложена в виде варианта для дальнейшего файнтюнинга, бери и делай, но они и это не осилили.
Аноним 28/07/21 Срд 12:08:28 2109358572
>>2107635
Я примерно сделал все что ты описал, уперся в то что теперь надо учить какую-то очень целенаправленную муть, т.е выбирать направление(наверное) типа нлп, зрения или ряды, или еще что, тренироваться туда скорее всего, но что выбрать невозможно сказать, ощущения что я подхожу даже на джуна никакого, вакансии все выглядят как средство устрашения. И я так подозреваю, я точно не знаю, что в ДС есть залупа как в некоторых науках, когда в учебниках пишут одно, а на деле люди занимаются совершенно другим, т.е. этот же каггл это как задачи по физике с пузырьком ртути в стеклянной пробирке, интересно, муторно, нахуй ирл не нужно практически нигде. Как выбираться из этой ямы не знаю совершенно, хоть временно перекатываться во что-то более прикладное, не абстрактное и направленное прямым потоком(всмысле кабаны в рашке сами знают чего хотят)
Аноним 28/07/21 Срд 15:40:36 2109656573
16264294676300.png 224Кб, 666x540
666x540
>>2107635
>>2109358
Зумера не могут в программирование. Вон же, >>2109285 уже сейчас миллион мартышек недобор. Но вы зумера в открывашку-то не можете, не то чтобы в кодинг. На работу берут только пиздаболов, т.е то что сейчас называется софт скиллс. Как итог, АйТи Блинолопатии где-то на уровне центральной Африки.
Аноним 28/07/21 Срд 17:32:09 2109888574
>>2109285
>А GPT-4-5-10 их не порешает?
А следующие GPT будут? Для обеспечения работы очередного миллиарда параметров не нужно будет все суперкомьютеры в один объединять?
Аноним 28/07/21 Срд 18:55:12 2110007575
>>2109358
Главное - понимание бизнес-процессов. Потом идет навык кодинга. К тому же сейчас набирает обороты MLOps, т.е. ковыряние кубера тоже нужно.
https://www.youtube.com/watch?v=8rMYC5ix7d4
Аноним 28/07/21 Срд 21:23:10 2110189576
>>2109206
Науки нинужны, слава битерлессону!
Аноним 28/07/21 Срд 21:34:00 2110201577
>>2109888
Параметры нинужны, без шуток. Если взять и заставить gpt-3 обучать нейронку чтобы получить дистиллированную gpt-3 примерно как тут https://transformer.huggingface.co/model/distil-gpt2, а потом прунингом отрубить процентов 10-20 параметров, она потеряет в точности в любой метрике не больше процента, зато будет в несколько раз меньше. Нужна новая архитектура вроде перцивера от глубокомозгов и лучшие алгоритмы обучения чем есть сейчас, а они уже по определению будут работать на текущем оборудовании. Просто сейчас модно наращивать параметры до мильярдов трильенов тыщ чтобы выебнуться.
Аноним 29/07/21 Чтв 01:21:21 2110332578
>>2109285
>А GPT-4-5-10 их не порешает?
И каким образом?
Аноним 29/07/21 Чтв 10:51:23 2110457579
>>2110332
Стране не хватает копирайтеров, блогеров, мемных телеграм каналов - так вот их гпт-456 и заменит
Аноним 29/07/21 Чтв 10:55:20 2110461580
>>2110201
> Просто сейчас модно наращивать параметры до мильярдов трильенов тыщ чтобы выебнуться.
Эта мода никуда не денется. Просто будут пытаться всунуть в один размер больше параметров, не просто настакать побольше слоёв, а с умом, как в gpt-j-6B. Ну и сами трансформеры будут дальше развивать, attention is all you need это не венец развития машобчика.
Аноним 29/07/21 Чтв 13:06:24 2110550581
>>2110461
Так то все так но размер =/= параметры. В gpt-j используют bf16, который занимает значительно меньше места в памяти чем fp32 или fp16. То есть значения одни хоть и с меньшей точностью а размер в памяти разный, и по сути разницы нет. Это как хранить картинку на ntfs диске и на exfat, структура данных разная но они идентичны ладно, не совсем но это не столь важно.
Как по мне все идет или должно идти в сторону увеличения ценности каждого параметра чтобы в итоге скажем 300 миллионов параметров текущей нейронки были равны по метрикам 100 миллионам новой или что то вроде того, а их уже можно сжать в тот же bf16.
Анализ данных Алол 29/07/21 Чтв 21:44:49 2111246582
Салют, аноны.
Учусь в унике прикладная информатика профиль управление данными, однако в мае начал задрачивать js/react фронтенд то бишь, думал на изичах стать веб макакой с 300кк/нс. Крч не зашло мне, ебал эту верстку, знаю что фронтенд не только верстка, однако в большинстве компаний все равно придется верстать+с дизайнерами базарить + ебучие кабанчики никогда не знают че им надо(постоянные переделки функционала). Ну я решил таки взять на учебу, раз уже все равно учусь на аналитики почему бы не начать задрачивать дата сайнс, мб зайдет?выш.мат на среднем уровне мб ниже, большие проблемы с дифференциальными уравнениями, даже не начинал их учить
У меня вопрос: сильно сложно найти работу аналитиком в ДС? Видел тред где анон бомбил, что аналитиков типа не хватает, статьи читал, что аналитик данных одна из приоритетных на данный момент ниш. На сколько это правда?
Аноним 29/07/21 Чтв 23:45:45 2111345583
>>2110007
Чтобы научиться вертеть деревьями докер-контейнерами и кубером нужно идти девопсом поработать, или само придет как на работе появится необходимость? Никогда не работал с ними, хоть суть примерно представляю зачем это может быть нужно
Аноним 30/07/21 Птн 00:38:01 2111385584
Аноним 30/07/21 Птн 07:53:47 2111555585
>>2111246
Аналитик - предприимчивый кабанчик с чуйкой потребностей рынка и бизнеса, который знает питон.
Аноним 30/07/21 Птн 10:59:03 2111725586
>>2110550
>В gpt-j используют bf16, который занимает значительно меньше места в памяти чем fp16
Чего? Они меньше места на кремнии занимают, а битов там столько же. Или я чего-то не знаю?
Аноним 30/07/21 Птн 14:16:48 2111984587
>>2111725
Чуть обосрался, bf16 быстрее выполняется на tpu чем fp16.
Аноним 30/07/21 Птн 14:19:09 2111987588
>>2078573 (OP)
Кароче меня наконец взяли как CV джуна в стартап. Наконец-то уволился с завода (это не шутка). Но по факту я делаю около айтишную работу, не ДС. Датасета нет (собираем). Нейронки пока не шатаем. По сути делаю все задачи за 2 рабочих дня параллельно смотря ютубчик. Остальное время ебланю. Вопрос к анонам. Хочу какой то пет проект для того, чтобы натренироваться лучше (потому что реальный опыт работы в DS пока чето не предвидится), чтоб на всякий случай начать искать новую работу. Предложите что-нибудь более-менее реальное, чтоб новый работодатель понял что я умею, да и самому поднять навык, но не супер сложное. Хотелось бы сферу компьютер вижон. Кэглопарашу не предлагать. У меня нет рабочей машины, только ноут. Вообще я так понимаю что сидеть на кэгле через коллаб это только для каких-то учебных дел, выйграть соревы нереал. Разбираться в открытом коде на кэгле уже не интересно, да и как это применить в своем проекте я хз.
Аноним 30/07/21 Птн 14:27:07 2111998589
>>2111987
Суть каггла в том что если у тебя нету рабочей машины он ее тебе дает на 30-50 часов в неделю. А так очевидно пиши свой блокнот и уже на нем тренируй как придумаешь что тренировать, в джупитерских блокнотах это в любом случае удобнее чем через запись в файл и дебаггинг сокращается в разы.
А так попробуй какую нибудь шаблонную задачу но с усложнением, например ту же сегментацию, скажем определение номеров автомобилей а потом их обрезание, апскейл и перевод в текст.
Аноним 30/07/21 Птн 14:54:02 2112035590
>>2111998
понятно что в блокноте удобнее, это очевидно
>определение номеров автомобилей а потом их обрезание, апскейл и перевод в текст
Вот это интересная идея. Спасибо.
Чтоб ты понимал о каком проекте я говорю: Для поиска работе я сделал вебморду на AWS. Там было несколько моделей простецких, типо кидай картинку и тебе в ответ придет переработаная GANом. Сообщение с AWS кидалось на другую машину, где вертелась модель. Вот с таким проектом я искал работу. Хочу примерно так-же, только лучше.
Аноним 31/07/21 Суб 01:19:44 2112590591
>>2111987
Так собирание и чистка данных и есть дс. Фитпредикт для нейронной сети написать это 0.1% работы датасаентиста.
Аноним 31/07/21 Суб 01:36:21 2112593592
>>2112590
Ну не 0.1%, а побольше. Но как я понимаю, у него даже не очистка данных, а просто сбор, потому что контора только начала их собирать.
Аноним 31/07/21 Суб 18:49:39 2113228593
Учу склерн по Герону, я должен охуевать от всех видов проблем и кернелов SVM, поскольку я учил ТФ до этой книги мне теперь кажется что нейронки проще чем алгоритмы как будто бы. Я конечно продолжу, но может это просто Герон хуйней занимается и лезет в залупу там где надо просто перечислить и накидать примеров?
Аноним 31/07/21 Суб 23:48:30 2113442594
>>2112593
да, все так. Пока только сбор
Аноним 01/08/21 Вск 00:25:29 2113462595
Посоны, собираюсь пекарню новую брать и вкатываться.

Че там по амуде и радеонам в нейроночках? Или все еще кал и света не видно хоть они последнее время успешно душат рынок.
Аноним 01/08/21 Вск 00:30:03 2113463596
>>2113462
Только зеленые офк, если берешь 30ххti с налетом брать вторую когда-нибудь и собираешься ее вгонять в 100% - купи блок на 1200 сразу
Аноним 02/08/21 Пнд 00:39:31 2114394597
Аноним 02/08/21 Пнд 03:39:23 2114481598
16278242207830.png 156Кб, 360x450
360x450
>>2114394
Мне понравилось, я сам обосрался на опизденевших cv вопросах как и очкарик, все остальное вроде норм, я даже рок-аук понимаю
Но когда в конце началась секция про софт скиллы и речь обоих сократилась до:
>Вооооот, ну это, типа, мотивирует, вооот, сложнаа, на самом деле, ахахаха писюны маленькие
Я конечно знатно проиграл, и с отсылок к психологии. Софт скиллы у них. Если представить реверсную ситуацию, где два пиздабола наебатора обсуждают техники общения, обмана, бредогенерации, а в конце
>Мы подошли к математике
>Я знаю математику
>Сколько будет 3+6
>Наверное 9, я конечно давно не считал такие суммы
>Ладно, в этом вопросе все равно нет правильного ответа
Аноним 03/08/21 Втр 00:51:44 2115361599
Объясните ньюфагу, пожалуйста, как на практике работают рекомендательные системы, захотел я написать программу и предположим есть у меня датасет и я уже че-то там с помощью svd наделал, что мы имеем по итогу? Какую-то магическую функцию, которая говорит что то то и то подходит пользователю или какую-то математическую хуевину которая что-то считает? Вот приходит ко мне юзер, что я по идее должен сделать, чтобы мне предсказало что ему понравится что-то?
Аноним 03/08/21 Втр 01:57:51 2115373600
16271531490160.jpg 69Кб, 853x1280
853x1280
>>2115361
Классификация. К чему ближе фичи пользовательского запроса, то и выдаётся в качестве рекомендации. Зумера, ну зачем вы такие инвалиды, это же самое простое, что вообще есть в машобе...
Аноним 03/08/21 Втр 12:47:27 2115630601
>>2115373
Спасибо, очень ценное объяснение, я спросил не принцип работы, а результат построения рекомендательной системы, что по итогу получается, функция или какая-то матрица, как с этим потом работать, потому что блакноты юпитера мне не интересны, мне интересно как это в проект условный встроить
Аноним 03/08/21 Втр 12:56:00 2115633602
16253194493853.png 233Кб, 640x845
640x845
>>2115630
> что по итогу получается, функция или какая-то матрица, как с этим потом работать,
Зависит от конкретного алгоритма, датасета, формата ввода. Чаще всего это просто список объектов, удовлетворяющих условиям запроса.
> потому что блакноты юпитера мне не интересны, мне интересно как это в проект условный встроить
Для начала загуглить, разобраться в вопросе, попробовать примеры. Как ты будешь куда-то встраивать то, о чем не имеешь ни малейшего представления?
Аноним 03/08/21 Втр 13:55:22 2115709603
>>2115633
Я даже написал про svd, ты бы вместо поиска боевых картинок перечитал вопрос. Проблема в том что мне не интересен мл и прочее, а во всех статьях начинают объяснять как именно эти матрицы раскладываются, либо просто дают полотно текста с кодом из библиотек, которые я не знаю, а мне интересно как встроить этот инструмент в мой проект и чтобы разобраться я и задал вопрос, а смотреть видосы индусов как они обрабатывают в юпитере датасеты совсем мне не поможет. Заодно можешь подсказать правильно ли я понимаю, что с увеличением датасета придется заново прогонять нейронку по всей бд, чтобы эта модная нех(до сих пор не понял будет ли у меня по итогу просто функция куда я могу закинуть айди юзера и получить айди рекумендованых итемов) начала более качественный результат давать?
Аноним 03/08/21 Втр 14:06:43 2115716604
>>2115709
> Я даже написал про svd,
Ну тем более. Загугли реализацию на чем там тебе надо, почитай документацию, попробуй примеры. Никто ж за тебя это делать не будет. Не обязательно даже понимать, как сам алгоритм работает, достаточно разобраться в формате входа и выхода итд.
Аноним 03/08/21 Втр 14:18:24 2115725605
>>2115709
Ты спрашиваешь за реализацию работы нейронки/флайвил, это немного другое
Обычно когда тренируешь сам нейронки в итоге ты получаешь условно возможность засунуть какую-то дату и получить один ответ для проверки, но чтобы это работало как сервис ее надо размещать как-то куда-то, обеспечивать работу, банально платить скорее всего, это тебе надо может быть почитать про streamlit и google cloud ai, может тенсорфлоу лайт/жс, настраивать эту хуйню буквально так же сложно как и разобраться в самих фит+предиктах
https://youtu.be/fw6NMQrYc6w
можешь посмотреть гайд как разместить определялку 10 видов еды с фотки на гугле, это тебе надо вообще?
Аноним 03/08/21 Втр 14:39:46 2115740606
Слушайте, я вот посмотрел на математику работы conv. Я ведь правильно понимаю, что conv, снятый с трёхслойного изображения (RGB) нигде не пересекает нейроны со слоёв до какого-нибудь первого dense-слоя?
Другими словами, мы буквально отдаём на convolutional слои НЕСКОЛЬКО РАЗНЫХ КАРТИНОК? А не одну, разложенную на куски. Но это же... бред
Аноним 03/08/21 Втр 14:42:46 2115743607
>>2115740
Мы передаем не несколько разных картинок, обезьяна ты трехмерная, а многомерный тензор где ширина и высота это пиксели и глубина РГБ, это один блок информации. Было бы иначе - у тебя бы имейдж дата генератор/аугментатор бы сам резал пикчи на слои и запихивал бы их по одной, так бы получили в 3 раза больше даты чем есть, но это очевидно не так работает
Аноним 03/08/21 Втр 14:59:18 2115755608
>>2115743
Conv2D, который используется для картинок, принимает не тензор XxYx3, а на самом-то деле три тензора XxY.
Аноним 03/08/21 Втр 17:36:43 2115924609
>>2115740
>нигде не пересекает нейроны со слоёв
Что такое "пересекает"?
Одну картинку отдаём.
>>2115755
Принимает один тензор (Bx)HxWxC, откуда три тензора взял?.
Аноним 03/08/21 Втр 17:45:00 2115925610
>>2115924
Судя по настройкам, которые передаются на конв2д, он обрабатывает три слоя по-отдельности, не пересекая их между собой. Это тоже самое как отдать три HxWx1
Аноним 03/08/21 Втр 18:50:29 2115970611
>>2115725
Ух ты, нашел вот такой пример
https://stackoverflow.com/questions/60207592/how-to-make-svd-recommendations
Выглядит как то что я могу вставить просто в свой код и уже работать с этим, осталось узнать как сохранять тренированность, чтобы каждый раз не перезапускать. Подскажи, если разбираешься, этого ведь достаточно для демо проекта, чтобы не искать разбирающегося человека?
Аноним 03/08/21 Втр 18:53:09 2115973612
>>2115716
Именно поэтому я и спросил здесь, в ответе выше прикрепил какой-то супер простой пример где есть функция в которую подается юзерайди и получается итемайди, осталось только данные подготовить и попробовать, потому что до этого находил только индусов, статьи с юпитером, объяснения алгоритма и прочее, что меня вообще не интересует
Аноним 03/08/21 Втр 19:01:12 2115981613
>>2115925
Они связаны тем что функция потерь применяется не к каждому слою по отдельности, а к изображению в целом не считая специфических задач и пока что экспериментальных методов. Это времянеэффективно ведь самый последний и самый значимый узел имеет роль черного ящика и нейронку нужно учить связывать слои самой что уже само по себе отдает часть параметров на связь этих самых слоев. Но это уже потихоньку замечают и думаю уже скоро уйдут от этого.
Как по мне тут нужно просто а) добавить размерность к значениям матрицы изображения чтобы давать не 3 матрицы в тензоре , а одину где их сразу три б) преобразовать изображение так чтобы у него был один канал из которого можно восстановить все три. Либо выебаться еше хитрее.
мимо
Аноним 03/08/21 Втр 19:16:06 2116005614
>>2115970
Нельзя SVD использовать для рекомендашек. Нетфликс обосрался со своим турниром в 2009м
Аноним 03/08/21 Втр 19:56:30 2116033615
>>2115925
По каким именно настройкам?
Аноним 03/08/21 Втр 20:24:15 2116050616
>>2116033
сколько фич получать из каждого слоя. Я не помню как, но я пришёл к выводу, что один слой не влияет на фичи, полученные из остальных слоёв, а значит, мы подаём не цельное изображение, но тупо три изображения, отдельно друг от другп
Аноним 03/08/21 Втр 22:19:17 2116164617
>>2116005
А есть какой-то достаточно простой в реализации, популярный и при этом хоть немного эффективный алгоритм, который смотрит на оценки похожих пользователей? И почему обосрались и не подходит, есть какие-то статьи, которые объясняют?
Аноним 03/08/21 Втр 22:27:38 2116186618
>>2116164
> который смотрит на оценки похожих пользователей?
U-collaboration
> не подходит
SVD над всем полем уменьшает ошибку надо всем поле вкупе, а надо для каждого пользака отдельно, а потом над совокупностью пользоаков.
Объясняю причину: у тебя 10 оценок, у меня 100 оценок. Если алгоритм обучится над полем из 110 оценок, то он будет обучаться давать МНЕ правильное предсказание, а тебе нет, потому что я в 10 раз важнее. Давай разберём два случая:
1. у тебя и меня 50% правильности
2. у тебя 20%, у меня 75%

В первом случае общая правильность оценок будет 55, во втором 77. То есть выгоднее правильно оценивать меня, но не тебя. Это говно
Аноним 04/08/21 Срд 01:33:15 2116388619
Поясните, какая книжка лучше для интро в мл: hands-on machine learning или же introduction to statistical learning? Обе хвалят, при этом homl некоторые называют вообще лучшей книжкой по теме и на амазоне она в разделе первое место занимает. Да еще и говорят что она практическая и основна на лабах что мне очень нравится. С другой стороны ISL от авторов маст хев рефернгса ESL и по сравнению с homl пишут что более глубокая теоретическая часть которая позволяет лучше понять алгоритмы. Вообщем кто обе читал какие у вас впечатления?
Аноним 04/08/21 Срд 01:54:52 2116391620
>>2116388
> Поясните, какая книжка лучше для интро в мл
d2l.ai
Аноним 04/08/21 Срд 02:57:33 2116405621
странный леопа[...].jpg 81Кб, 438x686
438x686
>>2116388
Если ты готов выбрать тензорфлоу а не торч который примерно судя по ОДС чуть популярнее, то она в принципе лучшая, тем более до второй части книги там идет чистый склерн. Проекты там в ней учебные и гипотетические, код на гитхабе только полный, Герон хреново компанует книгу, например начинаются метрики и тебе все пресижены, реколы, ф1, рок-аук идут в ряд одна за другой без примеров, чисто на похуях, конечно ты потом будешь их применять и поймешь, но в процессе это уныло. Дальше пойдут алгоритмы и тебе затолкают в очко линейную регрессию. ну ок, потом SVM, ок, ладно, деревья, кнн, бля что это, бэггинг и паcтинг, ебать, ахахаха, случайный лес не хочешь, погоди еще бустинг, два вида его покажем, погоди ты не охуел братишка, не упусти стакинг
И после этого 10 вопросов к этой главе кекус. Так что рекомендую например эту книгу и прогонять ей второй раз и делать между алгоритмами паузу, смотреть примеры, ютуб проектики на них, но не всаживать за один раз
После герона ты уже берешь книги по практической части
Building Machine Learning Pipelines
Automating Model Life Cycles with TensorFlow

Practical Deep Learning for Cloud, Mobile, and Edge / Mobile Tensorflow для мобилок, или

Generative Deep Learning
Teaching Machines to Paint, Write, Compose, and Play для ГАНов

Или вообще смотришь в реинфорс или конкретно по своим целям. Альтернатива герону(точнее второй части) - Бхарат Рамсундар, когда дойдешь в героне до второй части - можешь сравнить что больше пойдет

Для торчей другие книги, о них я не знаю
Возможно есть вариант докинуть и другой "вид" книжек типа hundred page Machine learning book Burkov(это примерно что и приложенный пик - справочник)
Или Дейтел Пол, Дейтел Харви - Python: Искусственный интеллект, большие данные и облачные вычисления. Очень много питона, работы с листами, выебонов с матплотлибом, юз дейтайма для ДС, очень дохуя ООП, классные части про функции типа слушать с микрофона, захватывать видео с камеры, русский перевод написан сухо и очень по-университетски, если такое заходит то норм книжка
Аноним 04/08/21 Срд 19:18:31 2117089622
Да, может быть стоило уточнить что мне ДЛ не особо нужен тк я мечу джуны Дата сайенс / Дата Аналисты. Так что лучше именно фокус на обычное МЛ.
>>2116391
См мое примечание. Плюс подозрительно что это бесплатная книжка в которой все авторы == сотрудники амазона, форсят продвигаемый амазоном мхнет
>>2116405
Вот спасибо что расписал так подробно. Раз в homl так бегло разбирают классический мл то лучше идти в isl, которая полностью ему посвещена ? Так же я считаю читаю practical statistics for data scientists, хотел как только глава регрессии начнется перескочить на isl или homl, получается лучше на ней задержаться? Насчет буркова и харрисона, они ведь еще короче чем две книжки между которыми я выбираю, а мне нужны именно хорошие объяснения алгоритмов. С книжки дейтелов я кстати начал и включительно до 11 главы все там прочитал, ну еще 17 немного. А остальное мне было либо не интересно как аналитика твитов, либо я понимал что нужна специализированная книжка как в главе по мл.
Аноним 04/08/21 Срд 19:24:09 2117094623
>>2116405
Да, забыл спросить, что рекомендуешь из курсов на курсере и им подобные. Многие рекомендуют machine learning by Andrew ng, или курсы от авторов isl, но я не знаю есть ли в них какой-то смысл если я все равно книжки читать буду.
Аноним 04/08/21 Срд 20:11:06 2117120624
>>2117089
> подозрительно что это бесплатная книжка в которой все авторы == сотрудники амазона, форсят продвигаемый амазоном мхнет
Да-да, это все заговор лысого космонавта.
Аноним 04/08/21 Срд 20:20:09 2117127625
>>2117089
>что мне ДЛ не особо нужен тк я мечу джуны Дата сайенс / Дата Аналисты.
Похрену куда ты метишь, на работе ты будешь вилкой датасеты ковырять как джун и фит предикт что в алгоритмическом мл, что в нейронках, что хоть на сраных квантовых кубитах запускать начнешь только через несколько лет(а спрашивать все равно будут). В хомле не бегло алгоритмы, 2/5 книги под это, если найдешь другие книги - как бы учи по ним, просто так то действительно сами алгоритмы ничего не представляют из себя кроме формулы и вложенных в склерн настроек к ним, обычно если ты будешь проводить тесты для каггла - ты все равно будешь пробовать все по порядку что хоть как-то подходят, а потом еще гридсерчем их пидорить, так что нормально там. Как Валера Бабушкин говорил про нейронки(типа нужны или не нужны) - нужен ли строителю перфоратор? Может и не нужен, а может и нужен, ты пойдешь на стройку и знать не будешь заранее
>>2117094
Я прошел курс по тф от daniel bourke, но это фактически для тех кому впадлу читать хомл, он сам дрочит на эту книгу и все там делает из нее по порядку, разве что проектики у него чуть свои, и это я делал не для ТФ скорее, а чтобы зарекламировать себе самому ДЛ, по книгам+их гитхабу гораздо быстрее и логичнее учиться, особенно если ты читаешь быстрее чем пиздит усредненный лысеющий петух читающий курсы. Но если тебе для подкрепления, то не вижу ничего плохого просто скачивать все подряд с рутрекера по теме, выкидывать все что читает гнусавый индус и просто как повторение просматривать и прорешивать
Если хочешь ультимативную страничку для курсо-дроча, то смотри https://github.com/ForrestKnight/open-source-cs-python (рекомендую сначала посмотреть видос на ютубе по этой странице)
Аноним 05/08/21 Чтв 10:55:08 2117568626
>>2117094
>machine learning by Andrew ng
Хуита для долбоебов.
Аноним 05/08/21 Чтв 19:12:51 2118131627
>>2078573 (OP)
П...ц подкрался незаметно: В 2021 году Forrester прогнозирует, что 75% всех разработок приложений будут использовать платформы без кода или с низким кодом, что на 44% больше, чем в 2020 году.
https://www.facebook.com/alex.v.krol/posts/10222103110639366

Выводы: Плохие новости для программистов.
1. Для низко квалифицированных кодеров это приговор, потому что число людей, которые могут сами лепить прилы, не будучи кодерами, растет геометрически.
2. Спрос будет только на высоко квалифицированных разрабов, что означает - цена входа в профессию в потребном времени и деньгах будет расти.
3. Корпорации начнут вкладывать в обучение сотрудников low/no code, чтобы те сами лепили зоопарк прилов вместо того, чтобы сорсить дорогие команды. Рынок сорсинга будет сжиматься. Причина - работники внутри лучше знают процессы и это Win-win для корпов и рабов. Скрипач не нужен.
4. Небольшим сорсинговым командам - п...ц - у них и так невысокая маржа. Индусы и филиппинцы привычно опустят цены на 40%, после чего 90% небольших сорсинговых команд из СНГ придет карачун. Останется рынок мобильных апов.
5. Программирование 90% бизнес приложений - становится коммодитиз. Как 10 лет назад минимальное владение Word/Excel стало второй грамотностью, в горизонте 3-4 лет - вторая грамотность владение навыком создания прилов без кода или с низким кодом. Правда через 4-5 лет вместо платформы без кода или с низким кодом появится все больше решений, использующих AI.
6. Нет, учить программированию ребенка все еще стоит, но вот будет ли программирование его работой - вопрос. Т.е. стоит учить базовой грамотности, а не настраивать на то, чтобы искал работу программистом.
7. Кадровый рынок всегда запаздывает. Пройдет 1-2 года, прежде, чем менеджеры корпов и эйчары начнут вкуривать тему и корректировать вакансии.
Аноним 05/08/21 Чтв 19:16:31 2118139628
Аноним 05/08/21 Чтв 19:24:29 2118152629
Глава Xsolla объяснил, как выбрали 147 неактивных сотрудников

Основатель и руководитель компании Xsolla Александр Агапитов рассказал «Форбсу» детали о массовом увольнении сотрудников в пермском офисе компании. Агапитов также ответил на вопросы всех желающих во время пресс-конференции в Google Meet.

Увольнения коснулись в большей степени линейных сотрудников, а не топ-менеджеров.

Глава Xsolla объяснил, что методом оценки стала база знаний Confluence компании:

«В Confluence мы делимся нашими знаниями, планами и идеями. И есть люди, которые не интересуются нашими планами и идеями, и в принципе с ними невозможно коммуницировать, так как мы все работаем удаленно и используем эти сервисы для общения, а они нет».

Также трудолюбие оценивали по показателям в таск-менеджерах. А вот активность в IDE и в Git в поле зрения KPI не попала.

https://habr.com/ru/news/t/571328/

Какая прелесть, кабанчики-Ерохи с софт скиллами унижают конпуктерных задротов!
Вот так и надо с вами, программистишками, анальниками.
Аноним 05/08/21 Чтв 19:41:47 2118175630
>>2118152
Когда же рыночек уже порешает этих кабанчиков на софт-скиллах...
Аноним 05/08/21 Чтв 19:55:49 2118198631
>>2118152
Там больше 60 человек это уборщицы, повара их кухни и работники, грузчики и прочие работяги, которые ни в каком ЖИРЕ ничего не отмечали ни разу
Аноним 05/08/21 Чтв 23:57:21 2118458632
тест не обосрался ли я
Аноним 05/08/21 Чтв 23:58:27 2118459633
Аноним 06/08/21 Птн 09:42:05 2118619634
maxresdefault[1].jpg 91Кб, 1280x720
1280x720
>>2118131
Есть орандж. И уже 24 года кстати.
06/08/21 Птн 10:36:36 2118706635
>>2118131
Тащи такие бэйты куда-то ещё, здесь про no code, а не про ИИ, работу отбирающий.
Аноним 11/08/21 Срд 17:14:34 2124614636
Сделал свою первую NLP-сеть. Зацените...

'Мой батя ебашит вообще адовые вещи, но я не могу понять, почему он не может быть таким же крутым как он? А может он просто не хочет быть крутым? Ну такой вот примерно рецепт усредненный, потому что вариаций много. Берется суп, он не греется, греть - это не про моего кота. Он любит, когда его греют. А если не греют. Он берет этот суп, вываливает его на сковороду и начинает жрать. Добавляет в него огромное количество лука, чеснока, перца черного и красного, лавровый лист, перец горошком, соль, перец черный молотый, лавровый лист, чеснок, перец черный молотый. МУКИ для вязкости, томатная паста, соль. Все это жарится до состояния "как в духовке". А потом в духовку. А потом в микроволновку. Потом снимается с огня и остужается на батарее. А потом в микроволновку. Потом батя заносит и щедро полив майонезом начинает есть. При этом ест со сковороды шкрябая по ней ложкой. А потом батя достает из холодильника бутылку водки и начинает пить. Ест и приговаривает полушепотом ух бля, бля, бля, бля, бля, бля, бля, бля, бля, бля, бля. При этом у него на лбу аж пот выступает. Любезно мне иногда предлагает, но я не соглашаюсь. А я не соглашаюсь, потому что я не соглашаюсь. Надо ли говорить о том какой дичайший пердеж я слышу в ответ? А я не соглашаюсь. Вонища такая, что обои от стен отклеиваются. А я не соглашаюсь.'

GPT-2. Пока только разбираюсь
Аноним 16/08/21 Пнд 20:19:36 2129876637
>>2078573 (OP)
>Николенко "Глубокое обучение"
Купил я его и охуел от матана. Посоветуйте теперь курс по матану чтобы понять эту книгу, анонята.
Аноним 17/08/21 Втр 12:04:11 2130317638
>>2078573 (OP)
Аноны, я нихуя не шарю в ML, но шарю в питоне.
Хочу натренить модельку на порнушных текстах.
Прочитал, что хорошая модель GPT-2. Надыбал тексты, пытаюсь файнтюнить и жопа. Я уже столько всего перепробовал.
У меня в наличии ноут с 1660 Ti на Убунте, а ещё ПК с виндой и WDL, там 1080Ti.
Наибольшего успеха я достиг с либой gpt-2-simple
Я почистил тексты от всякой хуйни, оставил тхт файлы по 6000 символов (в нижнем регистре, каждое предложение с новой строки и заканчивается точкой). Вот так прогресс идет:
dataset has 1556 tokens
Training...
[1 | 27.57] loss=3.03 avg=3.03
[2 | 50.59] loss=2.64 avg=2.83
[3 | 74.66] loss=2.28 avg=2.65
[4 | 98.33] loss=1.92 avg=2.46
[5 | 121.92] loss=1.71 avg=2.31
[6 | 145.60] loss=1.45 avg=2.16
[7 | 169.41] loss=1.19 avg=2.02
Около 25 секунд на степ, всего 1000 степов в настройках, это 7 часов на один прогон (эпоху? Вроде так это называется) на один текст, а текстов у меня таких есть 32 тысячи. Чет долго.
Этот gpt-2-simple работает с tensorflow 1.15 и cuda-10.0, возможно проблема в этом.
Это я на ноуте под линухом делал.

Подскажите, как лучше поступить, стоит ли ебаться под виндой/wsl ради использования 1080Ti? Какую либу использовать, какую модельку файнтюнить?

Нашел ещё вот это https://github.com/plaidml/plaidml типа для небольших видеокарт идеальная либа, но хз вообще как её использовать и можно ли там файнтюнить GPT-2, а если не GPT-2, то что и как?
Аноним 17/08/21 Втр 17:31:22 2130789639
>>2130317
Во первых это протухший тред, все давно перекотились, а во вторых для файнтюнинга gpt-2 как по мне лучше всего подходит aitextgen, первая ссылка на гитхаб в гугле. тензорплов хуйня без задач, путорч наше все
А, и да, в третьих. Не нужно разбивать текст так, если ты не хочешь строить йоба метрики то просто сделай весь текст в один файл. Слишком долго объяснять но так не только быстрее но и эффективнее так как подбор весов будет не под каждый текст последовательно а под все сразу.
Ну и главное не забудь проверить чтобы точно сохранялась, обучение в любом случае долгое.

И последнее, гпт-2 сейчас не самая пиздатая модель а малая версия бесполезна, если уж файнтюнишь ее то лучше файнтюнь самую большую. Либо подожди пол года пока perceiver допилят.
Аноним 17/08/21 Втр 17:52:51 2130821640
>>2130789
Ах да, если тексты разные и не зависят друг от друга то разделяй их токеном конца строки. Чуть не забыл.
Аноним 17/08/21 Втр 18:40:20 2130887641
>>2130789
Благодарю, анончик, буду продолжать разбираться. Это всё вообще очень интересно и очень увлекает, я аж забил на всё остальное
Аноним 17/08/21 Втр 22:57:03 2131170642
Народ, привет
Я сам не дата саентист, поэтому спрошу у вас
Есть ли где-нибудь готовые либы по извлечению эмендингов из ебальцев? Я нашел face_recognition, которая работает ок, но мне еще бы пару-тройку
Просто чтобы git clone / pip install и погнал
или я что-то невозможное хочу?
Если что, то все это для задачи поиска еблетов по небольшой базе (делаю студентоте небольшую лабу)
спасибо
Аноним 20/08/21 Птн 04:08:58 2133659643
изображение.png 683Кб, 1736x914
1736x914
изображение.png 215Кб, 1808x542
1808x542
изображение.png 32Кб, 578x205
578x205
Есть, предположим, звуковая волна из 128 чисел.
Разложение по степеням в ряд тейлора позволяет описать её меньшим числом.
Разложение в виде ряда фурье описать совсем низким числом данных.
Но ряд тейлора и ряд фурье придумал человек, и нет никакой причины почему это является лучшим представлением.
Я подумал, что будет круто, если запрячь нейронку найти набор ортогональных функций, разложение по которым будет удачнее, чем в ряды фурье. Может быть там будет гибрид в виде вейвлетов - по типу что первая гармоника синус на всё окно, а вторая и третья синусы с большей частотой, но в правой/левой половине окна, так что сохраняется какая-то часть пространственного представления, а не только частотная.
Сразу предупрежу, что tensorflow я только сегодня поставил и достаточно отвратительно всё понимаю.

Я собрал автоэнкодер, и кормил ему эти отрезки по 128 чисел, и во внутренним слое поставил регуляризатор.
Сначала я использовал L2, но он хреново работал - при низком значении он не старался получить более полезные внутренние представления, а при слишком высоких переставал передавать изначальную функцию, так как отдавал приоритет минимизации. На картинке он снизу. Последняя гармоника с подписью "0" - это 100-ая гармоника.

Потому я попробовал написать свой регуляризатор (сначала сверху, но он не сработал - потом тот что на второй картинке), который считает количество активных гармоник и старается уменьшить их количество (первые гармоники должны быть наиболее полезными, потому там ещё на linspace умножается).
И у меня даже получилось что-то похожее на синусы из разложения фурье, чем я доволен - потому что я нигде никоим образом не форсил получения синусов.

Посоветуйте как правильно решать такую задачу. Я вижу миллион разных слоёв, идей для регуляризатора и всего остального - и у меня нет идей как сделать правильно, потому что последний вариант хоть и выдаёт синусы - но передаёт начальную функцию весьма плохо, теряет высокие частоты.
Аноним 02/09/21 Чтв 14:02:41 2147936644
Сап ребята
Поделитесь, может кто знает, предобученные модели на сортировку фотографий, находил на гите просто классификатор типа люди или пейзажи на фото, ну и т.д. А сейчас меня интересует классификатор человека цвет кожи пол и прочие. хочу найти негритяночку в своем мухосранске
Не встречали такое?
Аноним 06/09/21 Пнд 21:54:55 2151897645
Нам в вузе собрались давать OpenCV насколько это заебно будет? (в вузе все преподы дрочат на с++) И еще надо будет как-то сделать проект для распознавания чего-нибудь, я правильно понимаю что это легче всего на питоне сделать будет?
Аноним 06/09/21 Пнд 22:06:32 2151909646
Аноним 17/09/21 Птн 19:01:07 2160074647
>>2078573 (OP)
>Кто нибудь использовал машоб для трейдинга?
с какими проблемами столкнулись те, кто пытался таким образом исопользовать машоб?
Аноним 22/09/21 Срд 19:07:29 2164219648
Сколько сейчас средняя зп в ДС-1 хорошего миддла?
Настройки X
Ответить в тред X
15000
Макс объем: 40Mб, макс кол-во файлов: 4
Кликни/брось файл/ctrl-v
Стикеры X
Избранное / Топ тредов