Программирование

Ответить в тред Ответить в тред
НЕЙРОНОЧКИ И МАШОБ ТРЕД №33 /ai/ Аноним 16/12/20 Срд 02:39:25 18816071
Очередной тред про хипстерские технологии, которые заменили нам Иисуса

Я ничего не понимаю, что делать?
Вкатывальщики импортят slesarplow as sp по туториалам (хотя сейчас актуальнее pytorch)
Толковые качают из репозитория awesome-XXXX на гитхабе проект какого-то китайца, меняют фамилию и получают $10M инвестиций как стартап.
Умные смотрят prerequisites на https://see.stanford.edu/Course/CS229 и http://cs231n.stanford.edu/
Остальные сидят ИТТ

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/

Почему python?
Исторически сложилось

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет

Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала
Франсуа Шолле - Глубокое обучение на Python

В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров: https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом

Кто нибудь использовал машоб для трейдинга?
Никто не использовал, ты первый такое придумал. Готовь камаз для бабла.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Предыдущие:
https://2ch.hk/pr/res/1868191.html
https://2ch.hk/pr/res/1847673.html
https://2ch.hk/pr/res/1832580.html
https://2ch.hk/pr/res/1817320.html
https://2ch.hk/pr/res/1785952.html
https://2ch.hk/pr/res/1758961.html
https://2ch.hk/pr/res/1734710.html
https://2ch.hk/pr/res/1704037.html
https://2ch.hk/pr/res/1665515.html
Аноним 16/12/20 Срд 02:47:30 18816092
>>1881436 →
>За 100к картинок заплатишь тысяч пять
Описание содержимого картинки, правильное и достаточно полное?
Получишь качество на уровне марковской цепи с ключевыми словами из распознанных объектов
Аноним 16/12/20 Срд 02:54:10 18816103
image.png 284Кб, 892x452
892x452
Аноним 16/12/20 Срд 03:08:10 18816134
>>1881609
>Описание содержимого картинки, правильное и достаточно полное?
Оно, как я понял, должно быть сжатым, в виде одного небольшого предложения.
>Получишь качество на уровне марковской цепи с ключевыми словами из распознанных объектов
На каждую картинку надо секунд 15 - получается 12 долларов в час за 240 размеченных картинок. Это даже много, можно и дешевле.
Аноним 16/12/20 Срд 03:08:22 18816145
Аноним 16/12/20 Срд 03:09:22 18816156
https://deepsukebe.io/
Оголяющий бот. Стоит денег, $5 за 100 картинок после 3 бесплатных фото.

Желательно чтобы жертва была одета в купальник/лиф+трусы, стояла прямо и смотрела в камеру
Аноним 16/12/20 Срд 03:19:04 18816167
>>1881613
>На каждую картинку надо секунд 15
Ага, так и будут тебе описания херачить по 15 секунд за копейки.
Будут в одно слово обозначающее самый очевидный класс просто писать и всё, из этого достаточно мощный генератор не сделаешь. Нужна более качественная разметка - плати и всё равно чистить придётся.
Аноним 16/12/20 Срд 03:19:43 18816178
>>1881615
>Оголяющий бот. Стоит денег, $5 за 100 картинок после 3 бесплатных фото.
Наверное наш нечеткий организовал, хули, нейронки же для зумерков тупых, любой справится
Аноним 16/12/20 Срд 03:33:30 18816209
>>1881616
>12 долларов в час
>за копейки
Сколько по-твоему должны платить обезьяне без навыков, которая размечает картинки? Зарплату сеньора в Долине?
>Будут в одно слово обозначающее самый очевидный класс
Это все контролируется, по крайней мере на амазоновском турке. 12 в час это вообще очень много. За такую плату ты можешь найти людей с высшим образованием для которых это основная работа.
Аноним 16/12/20 Срд 03:39:52 188162110
>>1881620
>Это все контролируется, по крайней мере на амазоновском турке.
Ну два слова будут писать. Универсального контроля работающего для таких специфических задач нет, только для типовых разметок.
Аноним 16/12/20 Срд 03:47:38 188162211
>>1881621
>Ну два слова будут писать. Универсального контроля работающего для таких специфических задач нет, только для типовых разметок.
Индус размечает 1000 картинок, а ты детально просматриваешь штук 10-20, выбранных случайно. Вероятность не заметить халтурщика околонулевая.
Аноним 16/12/20 Срд 03:51:37 188162312
>>1881622
Не, ну ты наверное заметишь, но когда всё кончится уже.
Аноним 16/12/20 Срд 04:07:26 188162613
Какие индусы, каргокультисты ебаные, вы в рашке живете, здесь зарплата в 200 баксов - хорошая. За 20к в месяц вы можете провинциальную студентку нанять, три таких студентки за месяц вам все разметят и будут счастливы от такой непильной работы. Индусы, 12 долларов в час, вообще охуеть.

Другой вопрос, что сейчас нужно не нейронку искать под задачу, а задачу под нейронку. Вот на это петушки не способны. Свои гениальные идеи нужно создавать после чтения архива, а не до.
Аноним 16/12/20 Срд 06:03:48 188163314
Картинки по описанию как научная работа имеют нулевую ценность, если там не мега-прорыв какой-то. Потому что такие работы уже есть, и даже норм генерируют в пределах домена.
Как коммерческий сервис не взлетит. На этом можно сделать, ну одну игру, и то придется рекламировать как ИИ-сгенерированную, иначе игроки не поймут грязный графон. Это не окупится.
Как петпроект сойдет.
Аноним 16/12/20 Срд 07:33:24 188164215
8454BBF5-BDAC-4[...].jpeg 130Кб, 399x512
399x512
Маскулинизированный Саттон желает всем ИТТ насладиться биттерлессоном.
Аноним 16/12/20 Срд 07:54:34 188164816
>>1881626
>здесь зарплата в 200 баксов
Хохол, кто тебя из хлева выпустил?
Аноним 16/12/20 Срд 08:25:19 188165517
16043774727390.jpg 45Кб, 600x752
600x752
Аноним 16/12/20 Срд 08:36:38 188165718
>>1881633
> грязный графон
Графон не будет грязным, если палитра маленькая.
Аноним 16/12/20 Срд 08:51:11 188166519
>>1881626
>нужно не нейронку искать под задачу, а задачу под нейронку.
Главное - это решение задач бизнеса ну или своих собственных, а как именно решать абсолютно похуй. Хоть нейронками, хоть ad-hoc скриптами - главное, что работает.
Аноним 16/12/20 Срд 08:57:18 188167120
>>1881633
> Как коммерческий сервис не взлетит
Похуй. Главное чтобы это был инструмент заменяющий тебе дизайнера. Одиноким геймдевелоперам огромная помощь.
Аноним 16/12/20 Срд 09:40:40 188169421
>>1881665
>Главное - это решение задач бизнеса ну или своих собственных, а как именно решать абсолютно похуй.
В рашке может и похуй, когда у бизнеса горизонт планирования месяц, а работнику вообще важно дожить до получки и хуй забить на перспективы.
А если у тебя горизонт планирования хотя бы пару лет, далеко не похуй.
Главное - прибыль. Прибыль - это разница между затраченным и полученным. Одни решения дают прибыль сразу, одни не сразу. Они требуют постоянных усилий на поддержку и модификацию скриптов, другие просто работают. И так далее.
И вот дальше ты как ml-слесарь пиздуешь на arxiv-sanity и просматриваешь заголовки, пытаясь понять, а какую хуитку можно встроить в текущий пайплайн твоего места работы. Если находишь - заебись, пиздуешь к чуваку повыше тебя в иерархии и толкаешь идею, финансирование. Не находишь - плохо, ищи дальше, или жди, пока твой начальник найдет и положит тебе в рот проект.

А вот пытаться с нуля разводить ресерч, если ты в бизнесе работаешь, типа как с этими "8bit captioning нейронка" это хуевая и рискованная идея. Такие идеи можно пробовать, но только если вложенные ресурсы копеечные - понял, что датасет ты напарсишь тут, модель тут, хуяк-хуяк. А если просто чтобы проверить твою гениальную идею нужно месяц координировать разметчиц, ну вы явно какой-то хуйней страдаете, на дворе 2020, гитхаб ломится от импелеменированных и гарантированно работающих решений, а вы свою родненькую гениальненькую (хххртьфу) идею отпустить не можете.
Аноним 16/12/20 Срд 13:13:22 188180622
>>1881694
>на дворе 2020, гитхаб ломится от импелеменированных и гарантированно работающих решений
Ещё думать как это полунеработающее говно присобачить к своей специфике, легче набрать данных и обучить, читай битерлесон
Аноним 16/12/20 Срд 13:45:28 188184623
В чем проблема разработать универсальный алгоритм кластеризации? Или это в принципе невозможно?
Аноним 16/12/20 Срд 14:35:53 188189124
Аноним 16/12/20 Срд 15:21:10 188193125
>>1881891
> петух врубил несознанку
Аноним 16/12/20 Срд 15:35:31 188194326
>>1881931
>школьник ушел от ответа, поняв, что спизданул хуйню
Аноним 16/12/20 Срд 15:52:52 188195427
>>1881642
>биттерлессон
впопентрахен
Аноним 16/12/20 Срд 16:23:40 188198228
>>1881846
Кластеризуй мне шум.
Аноним 16/12/20 Срд 16:57:00 188200829
>>1881846
Возможно. Берешь хэш от входных данных и делишь его по модулю на число требуемых кластеров. Универсально я ебал.
Аноним 16/12/20 Срд 17:02:20 188201030
>>1881671
Если бесплатно выложить, то может быть зайдет в среде начинающих инди.
Аноним 16/12/20 Срд 17:56:10 188203631
16070861791410.gif 209Кб, 326x281
326x281
>>1881982
> Кластеризуй мне шум.
Зумера, зачем вы такие? Шум никаких кластеров не содержит, как ты его кластеризуешь? Зачем ты вообще это написал? У тебя мозгов нет?
Аноним 16/12/20 Срд 18:18:33 188205132
>>1882036
Нечектух не понял отсылку к известной теореме
мимо
Аноним 16/12/20 Срд 18:22:59 188205533
>>1882051
К какой ещё теореме, маня?
Аноним 16/12/20 Срд 18:32:18 188206134
>>1882055
Жопеншмульцера, про шум
Аноним 16/12/20 Срд 19:29:28 188208135
>>1882055
Твоей любимой. Начинается на N.
Аноним 16/12/20 Срд 20:33:15 188211936
Аноним 16/12/20 Срд 20:56:30 188213837
Аноним 16/12/20 Срд 22:18:53 188220038
Аноним 16/12/20 Срд 22:26:54 188221139
Аноним 16/12/20 Срд 22:41:39 188222040
>>1882211
>theorem
Ненужно, читай эссе саттона
Аноним 16/12/20 Срд 23:22:16 188225341
>>1882211
Ты мне давай не теорему, а программу как доказательство
Аноним 16/12/20 Срд 23:33:49 188225542
>>1881378 →
А насколько выглядит рабочим вариант предсказывать параметры бета распределения, из которого берется матожидание (или семплируется) угла?
Мне как раз неплохо было бы иметь вероятности углов.
Аноним 17/12/20 Чтв 00:06:24 188226843
>>1882255
> распределения
> вероятности
Да хватит пыжиться, собирай данных больше, учи, не трать время, не еби мозги
Аноним 17/12/20 Чтв 02:54:05 188234444
Аноним 17/12/20 Чтв 03:21:39 188236645
>>1882344
> хэш
> по модулю
Кому-то не мешает прочитать горький урок?
Аноним 17/12/20 Чтв 03:28:03 188236746
bitterrrrrr.jpg 91Кб, 1280x720
1280x720
Аноним 17/12/20 Чтв 03:56:01 188237247
16074695954650.jpg 261Кб, 1080x963
1080x963
>>1882367
Надо же, сойбои открыли для себя тезис Чёрча-Тьюринга, гласящий что все достаточно сложные вычислители в конечном счёте вычисляют одно и то же, независимо от их хитровыебнутости. Я прямо даже удивлен такой оперативности
Аноним 17/12/20 Чтв 03:59:11 188237348
Screenshot2020-[...].png 140Кб, 976x389
976x389
Лол. Нечеткий петух не может в английский. С пруфами.
Аноним 17/12/20 Чтв 04:01:13 188237449
>>1882373
Я и по ссылке прочитал пару предложений. Напиши заодно, что в русский не могу. Алсо
>>1882367
> на свинособачьем:
Ты чурка?
Аноним 17/12/20 Чтв 04:03:51 188237650
>>1882374
В глаза не ебись, на этом скриншоте нет моих постов
Аноним 17/12/20 Чтв 04:11:24 188238051
>>1882376
А чем один одинаковый как под копирку еблан лучше другого такого же?
Аноним 17/12/20 Чтв 04:38:03 188238552
>>1882367
Знатно там точке зрения горького петуха напихали
Аноним 17/12/20 Чтв 04:42:45 188238753
>>1882385
Ещё один зумер, читать не умеешь? >>1882372 впрочем, ничего нового.
Аноним 17/12/20 Чтв 07:30:53 188241254
>>1882372
>Чёрча-Тьюринга, гласящий
>Хорошо смазанная жопа с засунутым членом лучше нейроговна
Думаю Тьюринг это имел в виду, или какие у этого педика еще заслуги кроме жопоебли?
Аноним 17/12/20 Чтв 07:36:01 188241455
>>1882367
Хохол выбежал из Швабропараши и обмазал здесь все говном, уходи обратно к своим хабрахрюковцам
Аноним 17/12/20 Чтв 07:36:48 188241656
>>1882373
>английский
Не нужен
Аноним 17/12/20 Чтв 07:39:32 188241757
>>1882412
Если ты не знаешь заслуг Тьюринга, что ты забыл в этом треде?
Аноним 17/12/20 Чтв 07:39:56 188241858
>>1882416
Действительно, зачем он Русскому ученому
Аноним 17/12/20 Чтв 07:49:08 188241959
160615746516011[...].jpg 102Кб, 1000x1000
1000x1000
>>1882417
>знаешь заслуг Тьюринга
Знаю что он ебался в жопу и называл себя Белоснежкой, остальное пеар западной лживой пропаганды.
>>1882418
Хохлу англодрочеру пикрил
Аноним 17/12/20 Чтв 08:04:53 188242460
>>1882419
Ты хотя бы неразрешимость проблемы остановки доказать можешь без гугла?
Аноним 17/12/20 Чтв 11:03:06 188248861
>>1882372
>гласящий что все достаточно сложные вычислители в конечном счёте вычисляют одно и то же

Он не это гласит, а то что всё что в принципе можно вычислить на физическом устройстве, можно вычислить на МТ.
Аноним 17/12/20 Чтв 11:07:06 188248962
>>1882488
Одна из формулировок, к слову, из книжки Вапника из опхуй поста. Почитали бы умных людей вместо пидерлессона, как это сойбои для себя назвали.
Аноним 17/12/20 Чтв 11:08:27 188249063
>>1882412
Нихуя толстота пошла. Сделал он максимальный вклад в теорию вычислимости, больший чем кто либо. Ну и вся теория алгоритмов до сих пор крутиться вокруг машины Тьюринга, есличо.

То что он был няшным андрогинным трапиком это только ему в плюс офк
Аноним 17/12/20 Чтв 11:19:07 188250264
>>1882489
Так мы читали, это ты нихуя не читал, кроме инфы на русском из времен СССР, потому что все давно перестали переводить
Аноним 17/12/20 Чтв 11:25:37 188250865
В чем вообще смысл биттерлесона?
Аноним 17/12/20 Чтв 11:29:27 188251666
Аноним 17/12/20 Чтв 11:33:23 188252167
>>1882508
> В чем вообще смысл биттерлесона?
В том, что сойбои открыли для себя то, что тезис Чёрча-Тьюринга, оказывается, и к машобчику применим. Ну кот бы мог подумать! Вапник об этом ещё в 90е писал, но это ДРУГОЕ конечно же...
Аноним 17/12/20 Чтв 11:48:05 188253268
>>1882521
> тезис Чёрча-Тьюринга
Причем тут вообще он?
Аноним 17/12/20 Чтв 11:56:10 188253869
16067479990680.png 83Кб, 511x407
511x407
>>1882532
Я же объяснил, при чем. И даже сослался на соответствующую его формульровку.
Аноним 17/12/20 Чтв 11:58:10 188254170
Лол, зумерошизик не понял, в чем суть биттерлессона. Даже перевод на хабре не помог.
Аноним 17/12/20 Чтв 12:08:26 188254971
>>1882541
Это ты не понял. Как и автор этой писульки.
Аноним 17/12/20 Чтв 12:16:59 188255572
image.png 298Кб, 600x556
600x556
>Это ты не понял.
Аноним 17/12/20 Чтв 12:20:16 188255973
image.png 205Кб, 435x295
435x295
>>1882541
За эти несколько лет тредов еще ни разу не было такого, чтобы он что-то понял. У него просто такая штука в мозге отсутствует, только комбинирование случайных баззвордов в случайном порядке.
Аноним 17/12/20 Чтв 12:48:55 188257774
16038800412550.png 163Кб, 785x629
785x629
Аноним 17/12/20 Чтв 14:52:31 188273575
нашёл нечёткий петух на горького петуха, треду конец
Аноним 17/12/20 Чтв 17:02:36 188282576
>>1882490
>Сделал он максимальный вклад в теорию
>вся теория
Так я и говорю что петух-пиздабол, он даже Энигму не вскрыл с кучей таких же петухов пока ему разведка все ключи на блюдечке не принесла. Типичное оверхуйпнутое говно.
Аноним 17/12/20 Чтв 17:04:57 188282777
>>1882825
Не тебе судить, обезьяна
Аноним 17/12/20 Чтв 17:31:59 188285478
>>1882825
Зумер, ну куда ты лезешь, твоих петушиных мозгов не хватит, чтобы оценить вклад Тьюринга в математику.
Аноним 17/12/20 Чтв 17:57:46 188289379
bitterrrrrrrrrrr.jpg 59Кб, 464x599
464x599
Лольнул с нечеткого петуха.
Аноним 17/12/20 Чтв 18:06:14 188290480
zzzzzzz.jpg 357Кб, 512x512
512x512
Аноним 17/12/20 Чтв 18:21:52 188291881
>>1882854
>оценить вклад Тьюринга в математику
Я и говорю, бесполезный петух как и все математики, собственно они его и форсят.
Аноним 17/12/20 Чтв 18:51:11 188294282
Untitled.png 248Кб, 898x1110
898x1110
Для того, кто кричит что математика не нужна.
Аноним 17/12/20 Чтв 18:58:23 188295183
>>1882942
Пусть Интел вначале убогое говно перестанет делать.
Аноним 17/12/20 Чтв 19:05:23 188295984
>>1882951
А кто делает лучше?
Аноним 17/12/20 Чтв 19:06:59 188296285
Аноним 17/12/20 Чтв 19:09:31 188296586
>>1882959
Я про архитектуру, мне больше RISC нравится. Но это всеравно кал, нужно принципиально новое направление.
Аноним 17/12/20 Чтв 20:02:58 188299387
Аноним 17/12/20 Чтв 20:12:00 188299888
>>1882993
Не так просто этих макак встроить в систему. На той же толоке там и мониторинг скилов, и умная выдача заданий, и вариация цены. На типовых задачах это более-менее работает, но если тебе надо что-то более креативное, вроде словесных описаний, это гораздо сложнее.
Аноним 18/12/20 Птн 05:49:23 188326289
16057057607920.jpg 13Кб, 170x347
170x347
>>1882962
> Саттон
Сойбой. В случае с reinforcement learning он (это же он был?) даже не понял, чем занимается, не уловил, что по-сути пытался смоделировать скиннеровский three-term contingency. Так же и со своим "битерлесоном", написал то, о чем умные люди ещё лет 30 назад писали. А потом появляются свидетели этой хуйни, как ты, горький петух, которые по своему зумерству тоже не могут понять написанное.
Аноним 18/12/20 Птн 07:33:02 188327290
>>1883262
>не уловил, что по-сути пытался смоделировать скиннеровский three-term contingency
У скиннера была что-то кроме "хорошее поведения поощряем, плохое наказываем"? Если нет, то нахуя он нужен. Ну и результатов у него тоже нет.
С тем же успехом можно сказать, что всё в мире сводится к категориям аристотеля.
Аноним 18/12/20 Птн 07:37:42 188327391
>>1883262
Все поняли? Биттерлесон - это про тезис Черча-Тьюринга. RL - это про three-term contingency.
Не поняли, нет?
Короче, как этот конструшок - нечеткий петушок функционирует. Он берет какой-то рандомный термин из прошлого, пишет "X - это Y", и молится, чтобы никто в треде не знал, что такое Y. Если знает и говорит банальную вещь, что петушок опять соснул, - он начинает злиться и постить картинки с зумерками, но больше хуйни не пишет. Если же молитвы услышены и никто его не обоссал, он убедится, что все обошлось, и у него начнется очереднеая стадия шизы.
Аноним 18/12/20 Птн 07:47:32 188327592
image.png 111Кб, 846x442
846x442
>>1883272
>У скиннера была что-то кроме "хорошее поведения поощряем, плохое наказываем"? Если нет, то нахуя он нужен. Ну и результатов у него тоже нет.
Не будь петушком, уважай ученых. Петух специально выбивает тебя в эту плоскость, где он может нести свою шизу. Это хуйло даже статью в оригинале прочитать не может и ждет перевод на хабре, и пишет просто рандомный набор слов каждый раз по одному и тому же паттерну.
Его утверждения, что "XXX не понял YYY" не основаны ни на чем, кроме желания высрать хоть что-то, будучи интеллектуальным ничтожеством.
Аноним 18/12/20 Птн 12:14:47 188335293
16067487341190.jpg 110Кб, 1280x720
1280x720
>>1883272
> У скиннера была что-то кроме "хорошее поведения поощряем, плохое наказываем"?
Было. Только сойбои его не читали, а я читал, в оригинале, вопреки кукареканьям горького петуха о том что я якобы не знаю англюсика поэтому знаю, о чем говорю. Сойбои а ты тем более с RL не ушли дальше понятия топографии поведения, в отличие от Скиннера.
> Ну и результатов у него тоже нет.
У него их полно, просто ты о них не слышал.
>>1883273
> Все поняли? Биттерлесон - это про тезис Черча-Тьюринга. RL - это про three-term contingency.
Да. Только чтобы понять, почему, мозги нужны.
Аноним 18/12/20 Птн 12:37:50 188337894
>>1883352
Так у тебя их нет, лол. Сначала клоуном /math был, теперь здесь.
Додвачевался до того, что сойбоями называешь людей, которые защитили диссертацию до того, как ты родился.
Аноним 18/12/20 Птн 13:01:48 188339595
>>1883378
> Сначала клоуном /math был
Ага, дебилы не понимают разницы между потенциальной и актуальной бесконечностью, а клоун я? Нет, зум, это так не работает. RL у долбаебов не работает потому что они долбаебы. Про Скиннера вроде слышали, но ведь с долбаебами всегда так - слышали, но не читали, читали, но не поняли, поняли, но не так. Поэтому RL не использует результатов, полученных Скиннером, а он ведь ещё лет 80 назад пояснял, в каких случаях и почему его подход может не работать. А теперь смотрим RL и видим, что эти ебланы собрали все грабли, о которых Скиннер рассказывал. Так что сойбой твой Саттон, можешь даже не спорить.
Аноним 18/12/20 Птн 13:31:03 188341496
>>1883395
>потенциальной и актуальной бесконечностью
Проорал
Аноним 18/12/20 Птн 13:37:37 188341897
Аноним 18/12/20 Птн 15:06:41 188349598
>>1883418
Горький петух такскозал?
Аноним 18/12/20 Птн 15:07:49 188349699
>>1883495
Нет, жопеншмульц доказал в 1927 году теорему. Иди учи матчасть.
Аноним 18/12/20 Птн 16:45:41 1883680100
>>1883496
Если нечеткий петух такое пишет, значит это пиздеж, и не жопеншмульц доказал в 1927 году, а херожольц в 1925, на что у жопеншмульца была ссылка, но петух читал советский перевод его работы, где ссылки нет, и без перевода статьи на хабре он беспомощен, при этом сама теорема на самом вообще не о том и не применима.
Аноним 18/12/20 Птн 19:25:22 1883873101
пенсионеры.jpg 83Кб, 766x767
766x767
>>1883680
С тобой все в порядке?
Аноним 18/12/20 Птн 20:20:23 1883949102
>>1883395
Что у них не работает, и что работает у тебя? Если ты такой умный, то почему тогда бедный не зафигачил новые эффективные методы RL?
Аноним 18/12/20 Птн 21:01:22 1884001103
>>1883949
Зумерок, иди почитай классику [Zhopenshmultser et al. 1946], там уже давно всё придумали. У сойбоев не модно изучать классику, а модно трясти нейронки, поэтому результатов не видно.
Аноним 18/12/20 Птн 22:48:46 1884135104
516.jpg 13Кб, 200x279
200x279
>>1883949
>Если ты такой умный, то почему тогда бедный
Действительно
Аноним 18/12/20 Птн 23:21:13 1884192105
>>1884135
Ну он то бедный потому что аскет. А ты бедный потому что тупой.
Аноним 18/12/20 Птн 23:22:39 1884194106
>>1884135
У Перельмана родственники - банкиры в Швеции, хуёвый пример.
Аноним 19/12/20 Суб 00:01:18 1884214107
>>1884001
>поэтому результатов не видно.
>ГПТ-3 скоро порешает кодомакак
А что есть у вапникодрочеров?
Аноним 19/12/20 Суб 00:45:57 1884234108
>>1884214
>ГПТ-3 скоро порешает кодомакак
Не порешает. Как минимум из-за ограниченной длины последовательности, которую она умеет генерировать.
Аноним 19/12/20 Суб 08:38:24 1884356109
>>1884194
>банкиры в Швеции
Накопили на золотых зубах холокоста? При чем там ум?
>>1884192
Это другое? Ясно.

Реквестирую маняматика который разбогател не впаривая маняматическое говно, ну кроме Березовского.
Аноним 19/12/20 Суб 11:26:56 1884404110
>>1884001
>>1884135
Нет ну серъезно, объясните кодомакаке, если все вот так замечательно в теории, почему не применяют? О массовом применении речь не идет, большинство трясунов - криворучки, однако почему ВЕЗДЕ stackMoreLayers?
Аноним 19/12/20 Суб 12:13:01 1884413111
>>1884404
Всё применяют. Например, в статье Performer используют наработки из кернел-методов.
Просто шизиков меньше слушай, которые притворяются людьми.
Аноним 19/12/20 Суб 12:35:27 1884423112
>>1883273
Самая глубокая аналитическая модель в этом итт треде.

А в /po/ можешь так?
Аноним 19/12/20 Суб 13:05:48 1884432113
>>1884404
> , однако почему ВЕЗДЕ stackMoreLayers?
Горький петух говорит, что дело в битерлесоне. На самом же деле проблема в том, что сойбои ни во что кроме стекморлейерс не могут, а закон Мура приводит к тому, что и так получается неблохо, сравнить-то не с чем.
Аноним 19/12/20 Суб 13:27:25 1884446114
>>1884432
Кек, этот жалкий перефорс
Аноним 19/12/20 Суб 13:49:55 1884466115
petuh2.png 1379Кб, 1150x872
1150x872
>>1884446
> перефорс
Перефорс чего? Это не перефорс, "горький петух" - это теперь твое официальное звание. Лови мэдскилл.
Аноним 19/12/20 Суб 19:43:12 1884831116
Ладно, я был неправ, нечёткопетух не необучаемый. Смотрите, как он быстро учится новому.
https://youtu.be/6gDxvk6n-qM
Аноним 19/12/20 Суб 20:12:18 1884852117
Аноним 19/12/20 Суб 20:16:37 1884856118
>>1884432
Но в индустрии должны быть не только сойбои?
Аноним 19/12/20 Суб 21:26:41 1884913119
1608402388025.png 20Кб, 498x395
498x395
1608402388093.png 30Кб, 540x440
540x440
1608402388142.png 20Кб, 585x524
585x524
1608402388162.png 56Кб, 538x518
538x518
Есть одна таблица (пик 1). Я хочу сделать для нее heatmap, но такую, чтобы считала каждый столбец отдельно, как я намутил в экеле(пик2). Пик3 в matplotlib, a пик4 в seaborn и они учитывают сразу все значения и рисуют по нормировке всех значений, что мешает мне понять отдельные характеристики признаков.
Вот теперь и возлюбишь винду.
Аноним 19/12/20 Суб 21:32:30 1884916120
>>1884913
Гугли что-нибудь типа "heatmap by column", если в документации на то, чем ты пользуешься, этого нет.
Аноним 19/12/20 Суб 22:03:13 1884941121
1608404580394.png 68Кб, 562x526
562x526
>>1884916
>>1884913
Если сделать нормализацию, то нужное представление я получу. Но тут уже встает вопрос о том, не потеряю ли я какую-то критическую информацию, когда буду рассматривать нормализованные признаки? Не исчезнут ли выбросы, если такие есть, или еще что-то?
Аноним 20/12/20 Вск 00:21:59 1885036122
>>1881607 (OP)
Няшки, какие сейчас есть технологии распознавания и поиска лиц по базе? Хочу сделать детектор либирашек для своей Родины.
Аноним 20/12/20 Вск 01:07:52 1885056123
>>1883272
>хорошее поведения поощряем, плохое наказываем
Ух, вот это гениальная идея, вот это ноука!
Аноним 20/12/20 Вск 06:24:56 1885171124
>>1885056
Ну в его время это был нехилый прорыв. Когда остальная психология измеряла черепа, толковала сны, и гадала на кофейной гуще.
Аноним 20/12/20 Вск 06:48:02 1885177125
16045064436330.png 148Кб, 592x592
592x592
>>1885056
>>1885171
Ещё один дебилок. Прорыв Скиннера был в переходе от топографии поведения к понятию операнта, что дало возможность изучать поведение как явление, а не запутаться в бесконечных многообразий топографий поведения, на чем закончились исследования всех до Скиннера. Но откуда такие вещи знать одинаковым как под копирку зумерам без мозгов.
Аноним 20/12/20 Вск 10:57:50 1885276126
>>1885036
Все те же ,базовые, как и позавчера.
На всякий случай обоссым тебя и твое государственное объединение.
Аноним 20/12/20 Вск 10:59:29 1885279127
Насколько трудновыполнимой и ресурсозатратной станет задача оптического определения шрифта и, если такого шрифта нет в общем пользовании, хотя бы приближённая его отрисовка?
Аноним 20/12/20 Вск 11:30:56 1885307128
>>1885279
Вполне реалистичная задача, сопоставимая с распознаванием лиц по пайплайну. Собири датасет со шрифтами, напиши скрипт по агументации, который меняет у букв размер и цвет, и тренируй нейронку по букве выдавать эмбединг, соответствующий шрифту.
Дальше все сводится в kNN в пространстве эмбедингов.
Аноним 20/12/20 Вск 13:17:40 1885356129
>>1885279
Эмм, сервисов по определению шрифтов было миллион еще до всяких нейронок.
Аноним 20/12/20 Вск 13:22:37 1885360130
>>1883273
Лол, так а в чем он не прав, если действительно хипстеры просто вытаскивают то что ученые лет 50 назад изобрели?
Аноним 20/12/20 Вск 13:24:40 1885361131
Аноним 20/12/20 Вск 13:26:09 1885362132
>>1885361
Читай старые книги там все есть. По крайней мере я про нейронные сети читал еще в дремучем детстве в обычной библиотеке обычного санатория-курорта.
Аноним 20/12/20 Вск 13:31:38 1885366133
>>1885362
Это первая часть пруфа. Вторая часть пруфа - покажи, где хипстеры вытаскивают.
Аноним 20/12/20 Вск 13:34:08 1885367134
>>1885366
Ну, что то же у хипстеров работает, кек. Просто они называют это всякими модными баззвордами.
Аноним 20/12/20 Вск 13:36:18 1885370135
>>1885367
Ты так примерно почуствовал, да?
Аноним 20/12/20 Вск 13:49:40 1885380136
>>1885307
Буду разбираться, спс.
>>1885356
Ну сервис сервисом, но меня интересует ещё возможность хотя бы приближённо воссоздавать оригинальный.
Аноним 20/12/20 Вск 14:05:44 1885390137
>>1885380
>но меня интересует ещё возможность хотя бы приближённо воссоздавать оригинальный.
Это тебе conditional gan нужен тогда
В целом идея и бог весть какая свежая, нагуглишь дохуя чего
Аноним 20/12/20 Вск 14:06:59 1885392138
>>1885360
> хипстеры просто вытаскивают то что ученые лет 50 назад изобрели
> По крайней мере я про нейронные сети читал
А ещё хипстеры матрицы перемножают, а это вообще 150 лет назад начали делать. Сойбои не могут ничего нового придумать.
Аноним 20/12/20 Вск 14:07:19 1885393139
16070861791410.gif 209Кб, 326x281
326x281
>>1885370
> Ты так примерно почуствовал, да?
Я не он, но причем тут "почувствовал"? Я тебе даже точно назвал книгу Вапника с нужной интерпретацией тезиса Тьюринга-Черча и примерами использования его в машобчике. Видимо, не в зумера тайд коня корм. Что тут можно добавить, остаётся тебе только посочувствовать.
Аноним 20/12/20 Вск 14:31:43 1885411140
Screenshot2020-[...].png 390Кб, 620x1003
620x1003
>>1885393
>Я тебе даже точно назвал книгу Вапника с нужной интерпретацией тезиса Тьюринга-Черча
Я уже написал об этом все вот тут - >>1883273
'Он берет какой-то рандомный термин из прошлого, пишет "X - это Y", и молится, чтобы никто в треде не знал, что такое Y'
При этом каждый раз (я не знаю какой по счету уже) нужно лезть руками и убеждаться, что там тупо какая-то нерелевантная хуйня. Один в один было так с no free lunch theorem, которую он упоминал в треде всякий раз, кроме тех случаев, когда она действительно нужна.

Если кому нужно - https://statisticalsupportandresearch.files.wordpress.com/2017/05/vladimir-vapnik-the-nature-of-statistical-learning-springer-2010.pdf
Аноним 20/12/20 Вск 14:33:47 1885413141
>>1885411
>Он берет какой-то рандомный термин из прошлого, пишет "X - это Y
Так в чем он неправ? Если хипстеры просто называют баззвордом Y то что было в книгах под названием X?
Аноним 20/12/20 Вск 14:44:15 1885421142
>>1885413
В том, что X - это не Y, а просто не связанные между собой вещи.
Что эти хипстеры защитили свои тезисы еще до того, как ты родился.
Что споры о терминологии, а не научном приоритете, совершенно несущественны, да и научный приоритет - это больше про этику.
Аноним 20/12/20 Вск 14:46:24 1885423143
>>1885421
>В том, что X - это не Y, а просто не связанные между собой вещи.
Потому что ты не видишь связи? Ну ок.
Аноним 20/12/20 Вск 14:51:27 1885428144
>>1885413
Хотя бы три примера в студию.
Аноним 20/12/20 Вск 14:51:51 1885429145
>>1885423
Ну так распиши ее. В отличие от этого пидораса, я принес конкретную ссылку и даже скриншотик.
Понятно, что лично для тебя это вообще темный лес и какие-то случайные буквы, а ты просто поспорить зашел.
Аноним 20/12/20 Вск 18:16:36 1885577146
16068047931930.jpg 139Кб, 832x747
832x747
>>1885411
> там тупо какая-то нерелевантная хуйня
У тебя просто мозгов нет. Я могу пояснить подробнее, но толку все равно ведь 0, ты и дальше будешь кукарекать, просто потому что такова твоя суть - петух. Вот смотри:
- как тезис Чёрча-Тьюринга у Вапника определен, видно на скрине. А именно "все достаточно сложные вычислители вычисляют одно и то же семейство функций".
- отсюда уже понятно, что из таковых вычислителей лучше тот, который проще устроен, т.е лучше такой алгоритм, в котором меньше изьебств.
- именно по этой причине стекморлейерс + закон Мура в целом работает лучше, чем более умные и сложные алгоритмы.
- в этом и есть суть соевого битерлесона, Саттон там же прямо приводит пример, как комплюхтер брутфорсом обыграл Каспарова:
> В компьютерных шахматах система, которая победила чемпиона мира Каспарова в 1997 году, была основана на глубоком поиске вариантов. Тогда большинство исследователей компьютерных шахмат с тревогой смотрели на эти методы, потому что они применяли человеческое понимание предметной области — особой структуры шахматной игры. Когда более простой, основанный на поиске, подход со специальным оборудованием и программным обеспечением оказался значительно более эффективным, эти исследователи отказались признавать поражение. Они сказали, что метод «грубой силы», возможно, сработал один раз, но не является общей стратегией. В любом случае, люди не так играют в шахматы. Эти исследователи хотели победы методов, основанных на человеческом понимании игры, но их ждало разочарование
И так далее. Вот такие очевидности объяснять, это пиздец же. Каким надо быть дебилом, чтобы не видеть настолько простых вещей...
Аноним 20/12/20 Вск 18:25:57 1885582147
>>1885577
>отсюда уже понятно, что из таковых вычислителей лучше тот, который проще устроен
Нет, это ты выдумал.
>т.е лучше такой алгоритм, в котором меньше изьебств.
Так речь про алгоритмы или вычислители? Ты как-то перескакиваешь с предмета на предмет.
>именно по этой причине стекморлейерс + закон Мура в целом работает лучше, чем более умные и сложные алгоритмы.
Большинство нейросетей не являются полными по тьюрингу, так что они просто в разных классах находятся. Закон Мура ты прицепил просто так. Предпосылки про "лучше" неверны, да и ты не понимаешь разницы между вычислителем и алгоритмом.
>в этом и есть суть битерлесона
"general methods that leverage computation are ultimately the most effective" - суть биттерлессона
>перевод с хабра
проиграл
Аноним 20/12/20 Вск 18:35:33 1885586148
>>1885582
> Нет, это ты выдумал.
Ты дебил. Там прямым текстом написано, что брутфорс лучше работает.
> Большинство нейросетей не являются полными по тьюрингу,
Ты дебил ещё раз. Причем тут вообще полнота по Тьюрингу?!
> Так речь про алгоритмы или вычислители? Ты как-то перескакиваешь с предмета на предмет.
Я про алгоритмы, вычисляющие функции зависимостей выходов от входов, т.е про весь машобчик.
> Закон Мура ты прицепил просто так. Предпосылки про "лучше" неверны, да и ты не понимаешь разницы между вычислителем и алгоритмом.
Ты дебил ещё раз. Короче, все ровно так, как я написал выше. Ты реально деревянный, ещё и полноту по Тьюрингу приплел...
Аноним 20/12/20 Вск 18:40:51 1885596149
>>1885577
>структуры шахматной игры
Откуда у маняматиков и прочих задротов такой надроч на шахматы? Это же тупейшая позиционная игра, скучная и унылая.
Аноним 20/12/20 Вск 18:42:21 1885600150
>>1885586
>Там прямым текстом написано, что брутфорс лучше работает.
Ты про тезис тьюринга-чёрча говорил. Где в тезисе написано, что лучше брутфорс работает? Где сравнения различных абстрактных вычислителей?
>Причем тут вообще полнота по Тьюрингу?!
Тезис тьюринга-черча про полные по тьюрингу вычислители. Нейросети в большинстве своём таковыми не являются.
>отсюда уже понятно, что из таковых вычислителей лучше тот, который проще устроен
>Я про алгоритмы, вычисляющие функции зависимостей выходов от входов
Ты таблетки выпить забыл.
Аноним 20/12/20 Вск 19:29:36 1885628151
>>1885586
>Ты дебил ещё раз. Причем тут вообще полнота по Тьюрингу?!
Кек. Sufficiently complex computers - это про Тьюринг-полноту. Привет.
А дальше ты пишешь "отсюда уже понятно", но отсюда на самом деле ничего не понятно. В следующем абзаце Вапник пишет про spirit of the Church's claim. Спирит. Он не использует тезис Черча для дальнейших выводов. Он просто говорит, что дальшейшее смахивает на него.

То есть в этих двух абзацах, переводя на наш язык
1. Доказно, что тьюринг-полные вычислители эквивалентны
2. А я после экспериментов с данными как-то примерно почуствовал, что разные типы SVM эквивалентны. Прикольно пацаны?

Все это, конечно, интересно, но совершенно нерелевантно обсуждению, особенно с тем количеством пафоса и ЧСВ, которое ты сюда запихиваешь. Как обычно, в общем.
Аноним 20/12/20 Вск 20:08:46 1885648152
Сейчас один из вас такой: а ведь ты прав! Как я мог этого не видеть? Спасибо, что все мне объяснил.

На самом деле нет. Будете продолжать называть друг друга дебилами и поливать говном, пока не иссякнет запал (он уже иссякает). В результате оба сидите оплеваные, никто ничему не научился.
Аноним 20/12/20 Вск 20:36:12 1885654153
image.png 191Кб, 574x616
574x616
>>1885648
У тебя две ошибки
1. Зумерошиз - шиз, у него батарейка в жопе, а механизм понимания чего-либо у него отсутствует,
2. Не скажу, лол.

Вообще же вапник пишет про этот подход в совсем другом месте, он называет его подход AI hardliners. Только пишет он про это с некрываемым помпажом и время показало, кто прав в конечном счете. Вапник биттерлессон не усвоил, ему ЧСВ помешало. А условил бы - глядишь и 30 лет не проебали бы.
Аноним 21/12/20 Пнд 00:53:23 1885784154
>>1885596
У математиков больше го в почёте, шахматы не оч любят.
Аноним 21/12/20 Пнд 02:05:54 1885798155
>>1885784
>го
Го, преф/бридж на много интересней и интеллектуальней. Но шахматы это пиздец уныло, почему раньше их так форсили?
Аноним 21/12/20 Пнд 07:46:22 1885867156
>>1885654
> Вапник биттерлессон не усвоил, ему ЧСВ помешало. А условил бы - глядишь и 30 лет не проебали бы.
Ну конечно, Вапник в машобе не понимает, а горький петух понимает.
Аноним 21/12/20 Пнд 08:22:34 1885876157
>>1885798
То что это анонимный чатик не означает что тебе следует писать глупости. Держи себя в руках.
Аноним 21/12/20 Пнд 08:36:17 1885885158
>>1885876
Может ты сам вместо пуков будешь хотя бы имитировать беседу по существу?
Аноним 21/12/20 Пнд 08:43:46 1885890159
>>1885885
Не бухти. Я решу сам когда нужно начать беседу по существу.
К тому же если таковая начнется, сомневаюсь что ты сможешь многое из неё понять.
Аноним 21/12/20 Пнд 09:01:03 1885909160
>>1885890
>Я сам решу, когда перестать срать в середине этой комнаты
Ну ок
Аноним 21/12/20 Пнд 09:10:08 1885916161
Тьюринги, что можно почитать про machine learning для тупых, прям для далбоебов где все разжёвано, чтобы можно было понят эти ваши БАКПРОПАГАЙШЕНЫ и прочие GAN'ы c нейронками
Аноним 21/12/20 Пнд 09:26:30 1885943162
>>1885867
>Вапник в машобе не понимает
Видимо действительноне понимает - гордыня мешает. "Я же такой охуенный, меня не заменят трясуном коробки со stackmorelayers"
Аноним 21/12/20 Пнд 10:23:34 1885978163
>>1885943
> Видимо действительноне понимает - гордыня мешает. "
Ну главное, что ты понимаешь. Прочитал одну соевую мантру, и сразу просветление нашло, как на Будду.
> Я же такой охуенный, меня не заменят трясуном коробки со stackmorelayers"
Почему-то до сих пор не заменили. На табличных данных всякие lightgbm и прочий бустинг (то есть, алгоритмы из области статистической теории обучения) превосходят трясунов со стекморлейерс. Наверное, потому что авторы не читали соевый битерлесон и не прислушиваются к горьким петухам?
Аноним 21/12/20 Пнд 10:54:51 1885999164
image.png 389Кб, 583x538
583x538
>>1885978
>Почему-то до сих пор не заменили.
Вы находитесь здесь
Аноним 21/12/20 Пнд 11:01:55 1886004165
>>1885999
Ты лучше без соевого мемасика "битерлесон" расскажи, как так получилось. Выходит, не правы сойбои. А раз так, то и ты не прав, горький петух. Оправданий хотелось бы.
Аноним 21/12/20 Пнд 11:47:10 1886028166
image.png 113Кб, 474x377
474x377
>>1886004
>Мы против биттерлессона, поэтому стекаем деревья
Аноним 21/12/20 Пнд 15:21:07 1886192167
image.png 2934Кб, 1920x1080
1920x1080
Привет, няши! Поясните за алгоритмы, применяемые в современном ИИ. Правильно ли я понимаю, что нейронная сеть - самый передовой алгоритм для любого направления в ИИ? Какие есть годные альтернативы?
Аноним 21/12/20 Пнд 15:39:01 1886212168
>>1886192
>Какие есть годные альтернативы?
Все остальное
Аноним 21/12/20 Пнд 17:51:38 1886333169
Untitled-design[...].jpg 29Кб, 658x470
658x470
>>1885999
Вы всегда там и находились, шизик
Аноним 21/12/20 Пнд 18:02:04 1886342170
yoba sutton.png 309Кб, 583x538
583x538
Аноним 21/12/20 Пнд 18:06:50 1886348171
Анончики, есть какие-то рекомендации по вкату в анализ данных? Не именно машинное обучение, как у больших мальчиков, а всякие вещи попроще, типа, сбора, обработки, визуализации и репортинга по данным. Статистика и пайтоновский стек научных библиотек и я могу аплаится на вакансии по 200к в секунду? Или все чутка сложнее?
Аноним 21/12/20 Пнд 18:57:05 1886387172
Спят усталые металлы
Шизы спят
Аноним 21/12/20 Пнд 19:14:16 1886412173
mentifex.gif 35Кб, 320x200
320x200
Раз уж тред после альфафолда накрыло батхертной шизой, покажу вам героев прошлого. А то вы и не знаете истории тут.

Вот вам один из самых колоритных ИИ-шизиков нулевых: https://www.nothingisreal.com/mentifex_faq.html
Это титан шизы. Он постит про свой ИИ без перерыва более 30 лет. До интернета писал бумажные письма исследователям. Продолжает и по сей день, например на реддите: https://www.reddit.com/user/AiHasBeenSolved/
Пишет что он создал ИИ, и спамит ссылками на него. Суть теории на пике. Его ИИ это скрипт на перле, пытающийся парсить текст: https://ai.neocities.org/NLU.html Что характерно, поддерживается русский язык!
Аноним 21/12/20 Пнд 19:28:56 1886437174
>>1886412
Эх, если бы в треде завелся хоть один шиз, который показал хоть какой-то высер типа этого
Аноним 21/12/20 Пнд 20:00:33 1886462175
image.png 186Кб, 1280x960
1280x960
>>1886437
Сейчас уже по-моему нет тех былых шизов. Рыночек порешал. Вон еще в МВП треде вспомнили (не ИИ, просто эпичный кодер-шиз): https://en.wikipedia.org/wiki/Terry_A._Davis
Так и дошел до бомжевания, тюрьмы и в конечном счете прогулки по рельсам. Не выживают они теперь. И это в Америке, где можно просто жить на улице и еду раздают нищим бесплатно. Что уж про рашу - тут мигом дурь выбьют. Остается только, как нечеткий петух, кукарекнуть пару постов в день и возвращаться в стойло.
Аноним 21/12/20 Пнд 20:02:39 1886463176
>>1886387
Это гдеж они спят, весь тред в этом воркуте горького с нечётким блядь
Аноним 21/12/20 Пнд 20:04:02 1886465177
>>1886462
Ну а как же золотце, жил в серпухове с мамой, и на кодаче постил свою шизоверсию лиспа, потом писал в пораше на английском, велит называть себя nash gold, и перекатился на украину, срал на нее там, а сейчас вроде в голландии
Аноним 21/12/20 Пнд 21:40:23 1886552178
>>1886465
Он на этом лиспе ещё игру выпустил и в /gd/ запостил
Аноним 21/12/20 Пнд 22:06:23 1886573179
>>1886348
Без вышки не вкатишься, но какая именно вышка - не особо важно. В идеале, конечно, какая-нибудь техническая или экономическая. MS Excel должен знать хорошо (в т.ч. VBA), SQL. С этим уже можно найти какую-нибудь работу. В идеале еще статистика, Python, что нибудь из BI - Power BI \ Tableau - и будешь норм претендентом, но в целом порог входа низкий, но и зп соотвествующие.
Часто еще хотят понимания основ веб-аналитики если идешь в продуктовое ИТ.
Аноним 22/12/20 Втр 00:29:55 1886651180
>>1886465
Да, тоже из старой гвардии. Но судя по всему, его жизненный путь тоже прочно встал на колею Бороды.
Аноним 22/12/20 Втр 00:42:59 1886656181
>>1886412
Причём, если прибавить пару миллионов на мощности и зарплату опытным ресёрчерам, это возможно бы и заработало (ну так, более менее, на уровне трансформеров). Как и тысячи разных альтернативных подходов в машинлернинге.
Аноним 22/12/20 Втр 04:34:01 1886719182
unnamed.jpg 96Кб, 512x473
512x473
Аноним 22/12/20 Втр 04:47:32 1886733183
>>1886719
Да нет нихуя для долбоебов. Можешь книги из шапки почитать, те 2, которые не дипленингбук
Можешь cs231n
Аноним 22/12/20 Втр 08:24:31 1886813184
>>1886719
Ничего. Эта область не для тупых.
Аноним 22/12/20 Втр 08:34:00 1886816185
>>1886412
А по фактам он сколько-нибудь вменяемое что-то сделал или парсилка тупо не работает?
>>1886719
В меме перепутали дата аутистов и ИИ ресерч.
Можешь попробовать d2l.ai
Аноним 22/12/20 Втр 17:08:17 1887248186
Посоветуйте ресурс/книжонку/курс для вкатывания в OpenCV? вроде уже 4 версия вышла, а много старых ресурсов - насколько они актуальны?
Аноним 22/12/20 Втр 17:37:19 1887297187
>>1887248
Нормально актуальны. Посмотри несколько роликов на ютубе, затем сделай что-нибудь.
Аноним 22/12/20 Втр 18:38:28 1887375188
>>1887297
>несколько роликов
А они смешные? Там есть кревляющиеся смузихлебы с подворотами? Они точне не короче 40мин?
Аноним 22/12/20 Втр 20:54:01 1887486189
Аноним 22/12/20 Втр 20:58:00 1887491190
image.png 542Кб, 519x686
519x686
image.png 479Кб, 519x686
519x686
image.png 485Кб, 519x686
519x686
Аноним 22/12/20 Втр 22:55:47 1887548191
>>1882419
Это ты тот шиз, который по маня-проектам совка плакал?
Аноним 22/12/20 Втр 23:05:17 1887555192
>>1881607 (OP)
Как сделать свою первую нейронку?
Аноним 23/12/20 Срд 01:19:29 1887650193
>>1887548
Хохол, кто тебя выпустил?
Аноним 23/12/20 Срд 02:39:53 1887702194
Чувак с биттерлессоном, а TDA и manifold learning тоже отменяются получается?
Аноним 23/12/20 Срд 03:17:28 1887712195
>>1887555
Займись сексом, если повезет, через 9 месяцев у тебя будет своя первая нейронка, еще через некоторое время появится полноценная возможность обучать ее.
Аноним 23/12/20 Срд 05:16:24 1887730196
>>1887702
> Чувак с биттерлессоном
Горький петух.
> TDA и manifold learning тоже отменяются получается?
Все отменяется.
Аноним 23/12/20 Срд 05:24:03 1887731197
>>1887702
>тоже отменяются получается?
Как будто они имели перспективы
Аноним 23/12/20 Срд 05:55:52 1887738198
>>1887491
>Вот нормич литература
Сам это пиздаглазое говно читай, там на один абзац два листа этих мерзких ебл.
Аноним 23/12/20 Срд 05:57:57 1887741199
>>1887702
Всегда есть вероятность прорыва, когда исследуются самые основы. Отменяются попытки накостылить какую-то особую модель под конкретную задачу.
Аноним 23/12/20 Срд 06:05:13 1887742200
Аноним 23/12/20 Срд 10:12:36 1887826201
>>1887650
Ещё и хохлы мерещатся. Таблетки хоть пить не забывай, краснопёрый.
Аноним 23/12/20 Срд 11:27:51 1887864202
>>1887712
Двачеру легче написать нейронку на няшной чем найти и оплодотворить няшку.
Аноним 23/12/20 Срд 13:21:01 1888042203
Привет. Хочу задать вопрос нейросеточникам.
Требуется перегнать замусоренные хмл документы
в маркдаун с вкраплениями аштиэмель таблиц.
Какая нейросеточка мне нужна? Спасибо

Мимовебдевелопер
Аноним 23/12/20 Срд 13:45:00 1888081204
Аноним 23/12/20 Срд 13:49:30 1888088205
>>1887742
Самое дегенеративное противостояние из возможных - матанищенки против кодомакак. Из треда в тред, из треда в тред.
Аноним 23/12/20 Срд 13:55:39 1888099206
Аноним 23/12/20 Срд 13:59:53 1888105207
>>1888088
>Самое дегенеративное противостояние из возможных - двачерв против двачеров. Из треда в тред, из треда в тред.
Пофиксил.
Аноним 23/12/20 Срд 15:33:23 1888237208
>>1888088
>Самое дегенеративное противостояние
Если горький с нечётким петушки куда-то пропадут - возможно.
Аноним 23/12/20 Срд 17:06:30 1888313209
А если без мемчиков и по науке: почему огромная/бесконечная VC размерность сеток не мешает им обобщать всё лучше других?
Аноним 23/12/20 Срд 17:22:55 1888323210
>>1888313
Потому что ВЦ-размерность это неверный подход к описанию обучающихся систем.
Аноним 23/12/20 Срд 17:54:33 1888383211
Аноним 23/12/20 Срд 18:39:51 1888434212
>>1888383
Потому что горький петух такскозал. Похуй на доказанные теоремы о VC размерности, ваши пруфы не пруфы, то ли дело соевый битерлесон
Аноним 23/12/20 Срд 19:30:42 1888490213
>>1888383
Потому что он, очевидно, не работает.
Аноним 23/12/20 Срд 19:48:25 1888516214
image.png 82Кб, 226x226
226x226
image.png 366Кб, 1658x1474
1658x1474
В рамках проекта по знакомству с шизами, еще один колоритный персонаж. Борис Казаченко (почему они все русские?), живет не где-нибудь, а аж в Бостоне. Безработный, занимается созданием ИИ. Его манускрипт: http://www.cognitivealgorithm.info/
Я в принципе люблю альтернативщину. Но огромное количество бессвязного, часто бессмысленного, текста, перепрыгивание между совершенно разными темами в соседних абзацах и предложениях, посещение всех "больных мест" для типикал шизов, обилие каких-то одному автору понятных формул, позволяет твердо поместить поциента в палату душевнобольных. Очевидная сверхценная идея, при отсутствии какой-либо конкретики (что неумело пытается скрыть стена текста).
Интересен тем, что (якобы) платит своим последователям за вклад в код реализации своих идей. Если это правда, то деньжата у челика водятся, хотя линкедин девственно чист. Видимо, не так прост Казаченко.
Аноним 23/12/20 Срд 20:23:40 1888561215
>>1888490
Что значит не работает? Утверждения теории Вапника-Червоненкиса доказаны строго, если что-то не работает значит либо можно их опровергнуть либо они на самом деле верны и разлад происходит по какой-то другой причине.
Аноним 23/12/20 Срд 21:18:31 1888662216
>>1888561
> либо они на самом деле верны и разлад происходит по какой-то другой причине.
Я тебе скажу по какой причине. SVM никто не стыковал сотнями слоев, базовая модель меньше любого перцептрона. Как только попробовали бустинг из той же теории статистического обучения, что-то он везде кроме распознавания негров и ещё пары узких задач, нейроночки уделывает.
Аноним 23/12/20 Срд 21:30:39 1888671217
>>1888561
Не работает - значит, эта теория развалилась при встрече с реальностью.
Аноним 23/12/20 Срд 23:02:44 1888811218
С понедельника две недели каникул. Анон, реквестирую гайд с нуля по джуна по машобу за две недели. Так чтобы даже вебмакака осисил. Только, чтобы без участия машины времени.
Аноним 23/12/20 Срд 23:34:24 1888821219
Аноним 23/12/20 Срд 23:36:51 1888822220
>>1888671
Ты говоришь про факт, который я и так знаю. Я же спрашивал объяснение почему это так.
Аноним 24/12/20 Чтв 00:07:51 1888836221
>>1888821
Забавно вообще получилось. А я ещё когда-то думал (лет 10 назад), что я горячее дерьмо в математике, а в итоге почти всю свою вышку вывозил исключительно за счёт практических работ и надеялся на автоматы. Как только уровень абстракции полез уверенно вверх в сравнении со школьной математикой, то сразу становится ясно кто брейнлет, а кто нет.

>должен был получать 4 автоматом за линейную алгебру
>лектор отказался ставить автомат кому-либо
>пришлось платить за экзамен так, как кроме векторов и матриц я чутка отстреливал разве что за кольца и поля, а это было даже не половина материалов курса

Зато шутейка "утонуть можно не только в море, но и в поле" запомнится мне, скорее всего, на всю жизнь.
Аноним 24/12/20 Чтв 00:15:29 1888839222
>>1888822
Они исходили из предпосылок, которые были слишком просты и сильны. Они не выполняются для современных моделей. По ходу дела выяснилось, что вся теория применима исключительно к линейной регрессии, то есть абсолютно бесполезна, потому что линейная регрессия проста как табуретка. Чтобы ее использовать, не нужны эти нагромождения.
Аноним 24/12/20 Чтв 01:05:44 1888862223
>>1888561
>Вапника-Червоненкиса
Жопника-Чухониса
Аноним 24/12/20 Чтв 13:01:55 1889124224
Господа data sience что вы делаете на работе?
Обрабатываете таблички бабы сраки из бухгалтерии и на основании их делать ml модель, презентацию, power bi графику?
Аноним 24/12/20 Чтв 20:14:10 1889703225
Slowpoke.png 19Кб, 200x218
200x218
Блин, как добавить пару слоёв перед готовой моделью вроде resnet'а?
Аноним 24/12/20 Чтв 22:08:27 1889859226
image.png 129Кб, 1000x453
1000x453
Аноним 24/12/20 Чтв 22:25:04 1889883227
Аноним 24/12/20 Чтв 22:58:11 1889920228
>>1886412
Помню, был такой чувак, Роберт Деш. Придумал Деш-компьютер. Я про него треды ещё в 2009 создавал в /b/, у него стримы были на смотри.ком. Тоже шиз был, с него дико рофлили
Дед скончался где-то в 2012-2015
Аноним 24/12/20 Чтв 23:05:49 1889923229
photo2020-12-24[...].jpg 96Кб, 1280x622
1280x622
photo2020-12-24[...].jpg 92Кб, 1280x622
1280x622
>>1887491
Двачую, бро. Статистику не могу найти, но я её тоже читал
Аноним 24/12/20 Чтв 23:21:36 1889932230
>>1889923
Зачем это нужно если есть нормальные учебники? Там даже нарисовано не красиво. Пустая трата времени.
Аноним 24/12/20 Чтв 23:33:20 1889947231
>>1889932
если ты инфантильный кидалт аутист, то норм
Аноним 24/12/20 Чтв 23:55:42 1889980232
>>1889703
Без ёбли никак но к счастью для тебя в этом нет никакого смысла.
Аноним 25/12/20 Птн 00:21:51 1889994233
image.png 136Кб, 1652x781
1652x781
Не разбираюсь в мл, прошу отнестись с пониманием.
Есть желание сделать бота-советчика для трейдинга криптой с использованием ТА. Отторговав вручную с большим процентом успешных сделок и проебав всё на фьючерзах, возникло сильное ощущение, что мл может помочь в этом деле.
Разумеется, он никогда не предскажет очередной дамп медведей или памп быков, но если он хотя бы в 60% случаев УГАДАЕТ куда пойдет цена, то это уже будет прекрасно. Предположим, что наиболее предсказуемый таймфрейм - 1 или 5-15 минут.

Что есть: данные о ценах open/high/low/close/volume, за всё время, поминутно. Из одной только цены вряд ли выйдет что-то стоящее, поэтому из этих данных можно получить значения для самых разных индикаторов вроде RSI, MACD и прочих, и тоже скормить сети.

Итак у меня 2 предположения как это может сработать:
- датасет цен с размеченными точками входа и выхода, на основе этого оно будет предполагать насколько безопасно покупать или продавать сейчас (возможно тут же как-то стоит определить аномальные ситуации, когда киты вливают большие суммы и непредсказуемо шатают рынок)
- датасет с ценами + индикаторами (опытным путем подобрать какие даст лучший результат, не создавая шум)

Направьте в 3 направления:
1) Как написать банальный предсказатель цифр? Как я понял не понял нужен - sequential lstm.
1.1) Как сделать предсказатель на основе нескольких параметров? Не только на основе цены, но и на основе оборота за текущую минуту (мне кажется, уже только это существенно прибавит точности предсказаниям) и различных индикаторов технического анализа.
2) Как написать reinforcement learning модель для разметки огромного датасета? Как я представляю это: есть прога где рисуется график, я тыкаю вот тут купить, вот тут продать, и спустя n тыков оно будет само достаточно точно подбирать зоны покупки и продажи. И как потом уже на основе этого датасета построить нейросеть?
Подозреваю, что эту задачу можно решить сугубо математическим путём, если знаете как подскажите, формулы из инета не справляются с таким огромным количеством данных, считало бы вечность. Да и просто интересно вникнуть как делать rl-проги.
3) А может reinforcement сразу в дело пустить? Есть датасет цен из прошлого, новые можно грузить риалтайм и пускай на этих данных и учится. На этот метод сильно не рассчитываю, но тоже хотелось бы узнать как такое реализовать.

Не ебите за тупость. Прогать немного умею, в мл не умею, синтаксис питона иногда ставит в ступор, например, с его объявлением странных листов в подобной форме - [:, :-1], хуй поймешь что это значит.
Аноним 25/12/20 Птн 01:00:39 1890015234
>>1889994
>Есть желание сделать бота-советчика для трейдинга криптой
Ботов обкатывают на рынках уже 50лет как минимум, с нейроговном ты соснешь, поскольку после тряски ящика ты не поймешь почему он тебе так хорошо/плохо насоветовал.
Аноним 25/12/20 Птн 01:01:38 1890017235
>>1889980
Что там такого? То же самое, что голову сменить, только с обратной стороны.
Смысла нет, конечно. Разве что, может, научиться переводить картинки из другого цветового пространства, или что-то такое.
Аноним 25/12/20 Птн 01:09:15 1890021236
>>1889994
Почитай и разберись нормально с индексацией и слайсами листов в питоне. Там нет ничего сложного, ты просто не пытался разобраться. Нотация сама по себе довольно понятная [откуда:до куда:с каким шагом], но отрицательные значения могут действительно казаться странными в первое время. [::-1] вроде обычно юзают, чтобы сделать реверс копию листа. Разберись. Это просто полезно знать, мало ли когда тебе нужно будет какой скрипт на питоне бахнуть. И, если мне память не изменяет, то пандас использует похожий синтаксис со срезами при работе с датафреймами.
Аноним 25/12/20 Птн 01:11:20 1890022237
>>1890015
Как раз таки если мл разметит за меня точки закупа-продажи, то я могу записать их и увидеть в каких обычно точках стоит закупать. Имею в виду в точках с каким rsi, с каким объемом, при пересечении каких линий обычно сделка выходит удачной.
Аноним 25/12/20 Птн 01:21:22 1890026238
>>1890017
>научиться переводить картинки из другого цветового пространства
Не научится, только более глубокие фичи по менее глубоким можно файнтюнить, в другую сторону хуйня выходит.
Аноним 25/12/20 Птн 09:28:48 1890304239
18212202001tran[...].png 1Кб, 380x768
380x768
18212202001tran[...].png 6Кб, 640x480
640x480
18212202001tran[...].png 1Кб, 370x720
370x720
18212202001tran[...].png 4Кб, 383x480
383x480
Есть датасет с изображениями, которые имеют 1)артефакты сжатия после конверсии из jpg или дефекты и 2) чистые png без артефактов.
А есть ли уже готовый сортировщик изображений, который можно обучить на своём датасете из двух (ну или скольки-то там) классов и чтобы подаваемые изображения сам сортировал о папкам? Я вижу, что это детская задачка для ML, что есть TF имплементация без сортировки https://www.tensorflow.org/tutorials/images/classification?hl=ru. Больше на гитхабе решения не вижу, есть только простые классификаторы без практической пользы типа сортировки по папкам. Запускаешь тренинг, запускаешь тестовый сет, получаешь вероятность.
Мне самому изобрести велосипед-сортировку проще чем искать решение готовое?
извините за тупой вопрос, я всё еще не прогер, но я запилю эту сортировку, если нужно. Просто еще не работал сильно с листами юпитера. Тогда еще тупой вопрос- как листы юпитера работаеют с импортируемыми зависимостями? Юпитер ноут может выбирать из установлленных у меня сред нужную (т.е. мне нужно таки ставить в конде сначал все зависимости?) Или он работает как-то по особому и ему не нужна среда вообще и ничего в конде ставить не нужно и он сам все зависимости собирает и устанавливает где-то у себя в памяти динамически при запуске листа? По моему малому опыту вроде вариант второй, но вот вчера заметил, что в юпитере можно выбирать среду из тех что есть в конде. И меня мучает впорос, а зачем юпитер нужен вообще? Это просто удобное представление с поэтапным запуском кода с переносом переменных из этапа в этап? Или там всё же удобство на уровне вирутальной среды разработки, типа написал все зависимости в листе и уже только его можно распространять, не нужно ставить среду в конде вообще? Я просто не помню, чтобы в листах юпитера что-то мне приходилось устанавливать при запуске. Или я просто сталкивался только с примерами где зависимостей не так много было или у меня уже всё было установленно в основной среде?
Аноним 25/12/20 Птн 11:25:39 1890368240
Стоит заменять юпитер на что то другое? Он несколько неудобен местами.
Аноним 25/12/20 Птн 14:06:54 1890566241
>>1890368
На колаб иногда стоит
Аноним 25/12/20 Птн 15:22:57 1890636242
>>1890368
Нет продолжай пользоваться неудобным для себя софтом.
Аноним 25/12/20 Птн 16:34:34 1890694243
>>1888516
> огромное количество бессвязного, часто бессмысленного, текста, перепрыгивание между совершенно разными темами в соседних абзацах и предложениях, посещение всех "больных мест" для типикал шизов, обилие каких-то одному автору понятных формул, позволяет твердо поместить поциента в палату душевнобольных. Очевидная сверхценная идея, при отсутствии какой-либо конкретики
Я когда пыхну плюху таким же становлюсь. Когда отпускает со снисхождением смотрю на свои высеры, которые недавно казались истиной.
Аноним 25/12/20 Птн 22:00:20 1890931244
>>1890694
>пыхну плюху
Наркоман?
Аноним 25/12/20 Птн 22:02:23 1890933245
>>1890694
У меня тоже был такой период. Я пытался создать явный алгоритм обобщения из данных, и был уверен, что я знаю, как это сделать. При этом ни одна моя попытка не работала, но это меня нисколько не смущало. С годами я понял, что эта уверенность проистекает из простейшей мысли "я самый умный", а раз я самый умный то если кто-то и может создать ИИ, то это я. И никаких настоящих идей поверх этого не было, просто мозг брал любую рандомную мысль и превращал ее в ТО САМОЕ, ВОТ ОНО. Потому что должна же быть идея, раз я самый умный, верно?
Вот так я и излечился. Сейчас копаю нейроночки спокойно уже, пытаюсь что-то сделать, понимая низкую вероятность успеха.
Успех нейроночек я не предсказал: до ДЛ революции они мне казались какой-то глупостью. Настолько я мало понимал тогда на самом деле. Зато самомнение было ого-го.
Аноним 25/12/20 Птн 22:15:25 1890948246
>>1890368
>Стоит заменять юпитер на что то другое?
Меняй на пайчарм.
Аноним 25/12/20 Птн 22:39:51 1890961247
Ребятушки, какой фреймворк за основу взять? Tensorflow(Включая Keras), pytorch?
Аноним 25/12/20 Птн 22:50:50 1890967248
>>1890304
> артефакты сжатия после конверсии из jpg или дефекты
Чувак, бери высококачественные png и сжимай их в jpeg с качеством 7 и ниже. У тебя будет одна и та же картинка с артефактами и без. Сохранение это крайне дешёвая операция. Ты картинки дольше искать качать с данбуру будешь
Аноним 25/12/20 Птн 22:51:58 1890968249
Аноним 25/12/20 Птн 23:34:43 1890976250
Поясните про АльфаZero. Хайп или многообещающая штука?
Аноним 25/12/20 Птн 23:42:42 1890977251
>>1890976
ему уже 5 лет, какой хайп?
Аноним 25/12/20 Птн 23:53:03 1890980252
>>1890977
>5 лет
Какой ужас. А ощущение, как будто только на прошлой неделе смотрел матч против корейца.
Аноним 26/12/20 Суб 00:09:30 1890988253
>>1890980
>матч против корейца
Бейсбол?
Аноним 26/12/20 Суб 00:47:59 1891002254
>>1890980
Не моргай. Один так моргнул - и вся жизнь прошла.
Аноним 26/12/20 Суб 01:14:56 1891023255
>>1889980
>но к счастью для тебя в этом нет никакого смысла
Смысл-то есть, получить из GAN'a Conditional Gan, вот только дискриминатор готовый, и к нему надо как-то прикрутить передачу меток.
>>1890017
>То же самое, что голову сменить, только с обратной стороны.
Нужен пример.
Спасибо.
Аноним 26/12/20 Суб 03:33:09 1891116256
>>1890017
>То же самое, что голову сменить, только с обратной стороны
Ну это и есть ёбля хотя хер знает что там сейчас молодёжь использует.
Аноним 26/12/20 Суб 03:34:42 1891117257
>>1891023
>из GAN'a Conditional Gan, вот только дискриминатор готовый
Cудя по всему хуйня выйдет но ты попробуй конечно.
Аноним 26/12/20 Суб 11:15:34 1891297258
>>1891117
Это всё равно не отвечает на вопрос, как модифицировать входящие слои предобученной модели.
Аноним 26/12/20 Суб 23:18:48 1891887259
Существует ли методика обучения, когда обучающий массив формируется из более-менее натурально выглядящих рендеров 3д модели объекта, а уже работа сети происходит на реальных фотографиях? Ведь гораздо производительнее будет смоделировать или взять готовые 3д модели например автомобилей, сделать скрипт который будет делать рендеры с разных ракурсов и с разными освещениями, разными бликами и разными цветами автомобилей, менять их форму. А потом автоматом все скормить сетке. Ведь по сути на картинках мы видим проекцию 3д объектов реального мира.
Аноним 26/12/20 Суб 23:38:41 1891901260
Аноним 27/12/20 Вск 12:38:13 1892200261
Допустим я решаю задачу классификации. Испробовал несколько разных методов, выбрал лучший. Пусть он показывает 95% точности на тесте. А как мне быть уверенным, что это потолок, и лучше точность я получить не смогу?
Аноним 27/12/20 Вск 13:23:33 1892217262
>>1892200
> А как мне быть уверенным, что это потолок, и лучше точность я получить не смогу?
Не можешь быть уверенным. Проблема "P=NP?".
Аноним 27/12/20 Вск 15:13:01 1892285263
>>1892200
Читать биттерлессон. Не бывает потолка, бывает мало данных.
Аноним 27/12/20 Вск 15:35:05 1892305264
>>1892285
Даааа? Даже для орлянки? Ты совсем что-ли отлетел со своим битерлессоном, дипшкольник?
Аноним 27/12/20 Вск 15:57:46 1892332265
>>1892305
> 2021
> спорить с горьким петухом
Аноним 27/12/20 Вск 20:14:32 1892691266
>>1891297>>1891117
Так, анон, выручай.
Есть имплементация реснета:
https://niko-gamulin.medium.com/resnet-implementation-with-pytorch-from-scratch-23cf3047cb93
И есть имплементация кондишнл гана:
https://medium.com/analytics-vidhya/step-by-step-implementation-of-conditional-generative-adversarial-networks-54e4b47497d6
Вот эти две строчки оттуда
input_dim = 784 + 10
self.label_embedding = nn.Embedding(10, 10)

В какое место гана надо добавить?
Инб4 себе в жопу
Аноним 28/12/20 Пнд 01:36:21 1892947267
изображение.png 276Кб, 904x735
904x735
Привет анонче. Взял с работы отладку FPGA с поддержкой CNN и камерами.
Что интересного можно сделать на сверточных сетях? Типичное распознавание образов, мне кажется, все давно уже видели.
Аноним 28/12/20 Пнд 01:40:08 1892951268
>>1892947
Сделай демо анонимизации человека, как в черном зеркале. Распознавание лица + сегментация, и если оно узнало тебя в кадре, то ты весь заливаешься шумом.
Аноним 28/12/20 Пнд 01:43:38 1892954269
>>1892951
Мне почему-то кажется, что оно не вывезет и я тоже вряд ли вывезу, но посмотреть можно
Аноним 28/12/20 Пнд 09:29:37 1893236270
Аноним 28/12/20 Пнд 09:53:22 1893251271
Аноним 28/12/20 Пнд 20:04:11 1893835272
>>1893236
>2021г нейронки шевелят волосню
Ору
Аноним 29/12/20 Втр 11:30:29 1894410273
Аноним 29/12/20 Втр 12:11:10 1894426274
Аноны, такой вопрос.
Имею профильную вышку (прикладная математика и информатика), работаю в науке - занимаюсь статистическим анализом данных (всякие стандартные тесты и методы, плюс к тому, немного кластерного анализа и методы выявления нелинейных зависимостей) и обработкой электроэнцефалографических данных (обработка сигналов и теория графов), использую R и Matlab. Хочу вкатиться в машоб и сменить работу. Разумно ли будет для подготовки проходить какой-нибудь серьезный курс по ML и решать параллельно задачи с kaggle? Ценится ли вообще у работодателей научный бэкграунд (навыки постановки гипотез и подбор инструментов для их проверки)? Что посоветуешь, анон?
Аноним 29/12/20 Втр 13:14:43 1894460275
>>1894426
>Разумно ли будет для подготовки проходить какой-нибудь серьезный курс по ML и решать параллельно задачи с kaggle?
да
>Ценится ли вообще у работодателей научный бэкграунд (навыки постановки гипотез и подбор инструментов для их проверки)?
да

Аноним 29/12/20 Втр 13:28:38 1894472276
>>1894426
>прикладная математика
Ебать, братиш, как ты дожил до такого?
Аноним 29/12/20 Втр 14:04:59 1894511277
>>1894472
Пошёл на мехмат и не вернулся
Аноним 29/12/20 Втр 15:36:57 1894553278
Slowpoke.png 19Кб, 200x218
200x218
>>1892691
Ну же, анончик, помоги.

Вот модификация реснета18 в качестве дискриминатора.
https://ideone.com/SwhKUj
согласно
https://medium.com/analytics-vidhya/step-by-step-implementation-of-conditional-generative-adversarial-networks-54e4b47497d6
Вопрос:
- надо ли запихивать в него input_dim = 784 (размер входящих картинок, но по сути там должно быть 224^2) + 42 (количество классов)?
- если надо, то куда именно вставлять, чтобы передать значения классов, если в self.conv1 по сути указаны все параметры?
Аноним 29/12/20 Втр 16:12:24 1894594279
CV-господа, поясните, что сейчас является сотой в OCR? Есть ли что-то более умное, чем модель для детекции + crnn? И если нет, то есть что-нибудь для детекции лучше, чем юнет?
Аноним 29/12/20 Втр 20:27:38 1894823280
Screenshot from[...].png 155Кб, 720x494
720x494
Сап. Делаю нейронку для поиска паттерна в одномерных бинарных данных. Хочу как на скрине сделать разбив бинарник произвольной длины на кучу пересекающихся ползущих окон каждое из которых проверить недольшой нейронкой натренированой искать конкретный паттерн и в поллинг слое сделать шириной окна весь конволющен слой. Но я что-то не понимаю как ораганизовать разбиение одного большого файла на много маленьких векторов и как потом тренировать сеть если я даже не знаю в каком окне нужный патерн попался. Где про такое почитать?
Аноним 29/12/20 Втр 21:07:16 1894847281
>>1894553
model = Resnet18()
train = Variable(images.view(100,3,28,28))
labels = Variable(labels)

или

input_dim = 28*28
output_dim = 10
model = Resnet18(input_dim, output_dim) # не знаю если там нужно укаывать еще hidden dim, погугли
Аноним 29/12/20 Втр 21:44:49 1894874282
Аноним 29/12/20 Втр 22:17:40 1894909283
Нужен быстрый алгоритм для сравнения двух 8битных матриц(Opencv) на схожесть, возвращающий коэффициент. Можете что-нибудь подсказать?
Аноним 29/12/20 Втр 22:18:49 1894911284
>>1894874
Но лучше матрас Шпункеля
Аноним 29/12/20 Втр 22:33:37 1894929285
>>1894909
Использовать что ли xor, инвертировать и поделить сумму на количество пикселей.
Аноним 29/12/20 Втр 23:06:45 1894965286
image.png 1341Кб, 1514x641
1514x641
image.png 2282Кб, 1280x720
1280x720
image.png 364Кб, 676x586
676x586
Аноним 29/12/20 Втр 23:09:28 1894968287
>>1894965
Ну и сюда же кубик рубика от openai.
Аноним 29/12/20 Втр 23:31:40 1894984288
Аноним 30/12/20 Срд 00:36:04 1895021289
>>1894909
Битерлессон кто-то не прочитал ещё итт? Нет смысла изобретать какие-то свои алгоритмы под задачу, набери данных, возьми достаточно глубокую архитектуру и вперёд.
Аноним 30/12/20 Срд 00:58:28 1895033290
>>1895021
а если данных мало, а добор или невозможен или чрезвычайно дорогой, что там тогда в твоей библии написано?
Аноним 30/12/20 Срд 02:04:20 1895049291
>>1894472
Да вроде в местечковые мехматы не сложно поступать
Аноним 30/12/20 Срд 02:05:44 1895051292
>>1895033
Увольняйся, твое начальство страдает хуйней
Аноним 30/12/20 Срд 02:50:41 1895066293
>>1894426
да, братиш, самое основное - это научный бэкграунд. Чем конкретно занимаешься, лингвистикой? Степень есть?

могу посоветовать - applied ML course на курсере от University of Michigan как старт для того чтобы понять основные модельки (линейные, kNN, основанные на деревьях, и чуть-чуть сеток)
Там типа лайт-теории про основные модели на сайкитлерн (параллельно разберешь матплотлиб и сиборн; панда, нампай, реджекс, сайпи сами придут).

Потом сразу вкатывайся на Kaggle и разбирай типовые задачи и сам решай. Сабмить, сабмить, и еще раз сабмить свои ноутбуки, Можешь еще вышевский курс глянуть (тоже курсера), как выиграть на кегле. Там есть дельные советы.

Потом тензорфлоу, керас и пайторч (ну и всякие диплернинг модели подучить - тут Эндрэ Инговский deeplearning.ai в помощь)

Клаудкомпутинг будет нужен на этой стадии - google cloud computer engine, aws

ВI визуализация - Tableau и Microsoft Power Bi для презентации

AutoML - h2o и google cloud automl тоже тема


Аноним 30/12/20 Срд 03:52:07 1895086294
>>1894472
Ты так говоришь, будто это что-то плохое.
Аноним 30/12/20 Срд 05:44:19 1895153295
>>1895033
Ничего там про такое не написано, горькие сойбои не знают про bootstrap.
Аноним 30/12/20 Срд 06:43:00 1895219296
Аноним 30/12/20 Срд 10:36:56 1895469297
Аноним 30/12/20 Срд 12:46:01 1895563298
Аноним 30/12/20 Срд 13:10:09 1895600299
>>1895563
Горький петух, ты сам-то эту хуйню читал? Там разве написано, что новые алгоритмы сами за баней растут или что нынешние нейроночки - лучшее и самое эффективное, что может быть сделано человечеством? Или может быть, там написано, что закон Мура это закон природы, а не следствие непрерывного прогресса? Ты же реально еблан, каких мало.
Аноним 30/12/20 Срд 13:49:18 1895624300
>>1895600
> что закон Мура это закон природы, а не следствие непрерывного прогресса?
Это, кстати, и так очевидно всем было. Прогресс (и закон Мура) это естественное следствие энтропии. Зная, как ведет себя энтропия, мы можем приблизительно сказать, что ждет человечество в будущем.
Аноним 30/12/20 Срд 15:23:14 1895701301
>>1895624
>мы можем приблизительно сказать, что ждет человечество в будущем.
Не сможешь, 50 лет назад думали что освоят космос и будут умные роботы, а оказалось дибиляторы с челочкой и ТикТок.
Аноним 30/12/20 Срд 15:33:41 1895721302
>>1895066
Спасибо, анон.
Степени нет, работаю в психологии. Писал диссер по методам кластерного анализа, но аспирантуру дропнул.
Аноним 30/12/20 Срд 16:25:29 1895778303
>>1895600
>Там разве написано, что новые алгоритмы сами за баней растут
Основной алгоритм - градиентный спуск - уже придуман. Ты кажется не понял о чём битерлессон, он о том что эра ПРИДУМЫВАНИЯ закончилась.
Аноним 30/12/20 Срд 19:34:42 1895986304
>>1895701
> 50 лет назад думали что освоят космос и будут умные роботы, а оказалось дибиляторы с челочкой и ТикТок.
Да. А 100 лет назад так же думали, что построют калмунизм, и будет всем счастье. И что ничего лучше и прогрессивнее писулек карламарлы и ленинда человечество уже никогда не придумает. То же самое сейчас кукарекают всякие горькие сойбои >>1895778 что мол, лучше градиентного спуска ничего в принципе быть не может. Но все это пример сектантов, которым ничего объяснить невозможно.
Аноним 30/12/20 Срд 20:11:49 1896039305
>>1895701
> Не сможешь
Под "примерно" подразумевался общий верктор развития. К примеру, гарантированно известно, что рождаемость по всей планете снизится до минимума. А известно, потому что график роста популяции любого вида - сигмоида.
По сигмоиде, кстати, развивается не только жизнь, но и технологии.
То есть когда-нибудь настанет тот момент, когда в прогрессе не будет никакого смысла, ибо уже всё есть, и все потребности удвлетворены.
Аноним 30/12/20 Срд 20:53:12 1896076306
Аноны, может есть ахуенный сайт, где можно скачать картинки нужных utf-8 символов раздельно?
Хочу сам выбирать символы для обучения, упакованные байты не особо катят.
Аноним 30/12/20 Срд 20:53:30 1896077307
>>1896076
Либо онлайн упаковать, да.
Аноним 30/12/20 Срд 21:21:11 1896122308
>>1896076
В чем будет красота от распознавания случайных символов
Скачивай хоть какой-то алфавит малоизвестный
Аноним 30/12/20 Срд 23:02:07 1896214309
>>1895986
>что построют калмунизм, и будет всем счастье
Все великие достижения России были при СССР и плановой эеономики, при копетоглизме страна преворащается в говно, в прочем как и любая копетоглистическая страна.
>>1896039
>когда в прогрессе не будет никакого смысла, ибо уже всё есть, и все потребности удвлетворены.
Так либирашки и копетоблядки и сейчас не видят в прогрессе смысла, им бы соевой колбаски да ипхон в жопу.
>>1896039
>снизится до минимума
Да, золотой миллиард называется.
Аноним 31/12/20 Чтв 00:15:47 1896300310
>>1896214
>золотой миллиард называется
хуета полная, население растёт по экспоненте
капиталюгам надо чтобы рабы конкурировали между собой за тарелку гм риса и помидоры четвёртого сорта
Аноним 31/12/20 Чтв 00:20:15 1896303311
Прогресс, закон Мура, коммунизм, капитализм..какие-то философствования васянов под водочку
Всё лишь бы битерлесон не читать
Аноним 31/12/20 Чтв 00:36:09 1896336312
>>1896303
>>1896300
Работающее ИИ как в фантастических рассказах не выгодно в первыую очередь капиталлистам, так что никакого прорыва в ближайшее время не ожидается.
Аноним 31/12/20 Чтв 00:44:34 1896342313
16037289569140e[...].webm 233Кб, 572x322, 00:00:03
572x322
1608980339891.gif 475Кб, 336x220
336x220
Как учить сетку передавать линии, а не искать максимальное совпадение пикселей?
Данных для обучения то нет.
Аноним 31/12/20 Чтв 01:33:45 1896399314
>>1896342
без задней мысли берешь и используешь векторную графику
вычисляешь сто тысяч кривых
Аноним 31/12/20 Чтв 02:02:00 1896419315
>>1896399
Я что-то про нее совсем забыл, спасибо.
Аноним 31/12/20 Чтв 04:32:56 1896498316
image.png 1708Кб, 990x1080
990x1080
image.png 36Кб, 640x480
640x480
https://pastebin.com/KLJ2kQGW

Накопипастил с инета лстм модель. Почему она не предсказывает будущее, а просто выдаёт то, что уже есть (-1 день), но с искажением. Что делаю не так? Как заставить её давать предсказание на 1 день вперёд и потом циклично вперёд?
Аноним 31/12/20 Чтв 04:38:18 1896500317
Аноним 31/12/20 Чтв 05:16:17 1896503318
Аноним 31/12/20 Чтв 08:32:30 1896562319
>>1895986
>А 100 лет назад так же думали, что построют калмунизм, и будет всем счастье. И что ничего лучше и прогрессивнее писулек карламарлы и ленинда человечество уже никогда не придумает.

Карламарла - это и есть попытка ПРИДУМАТЬ новый super yoba ultimate edition алгоритм, который сделает всё порешает и сделает заебись. Но оказалось, что капитализм работает лучше, а если добавить вычислительных мощностей - то вообще заебумба.
Аноним 31/12/20 Чтв 08:38:33 1896564320
>>1896214
define прогресс
так-то злые копетоглисты не только заливали коммунистам говна в штаны, но и слетали на Луну, в отличие от
Аноним 31/12/20 Чтв 11:57:02 1896665321
Аноним 31/12/20 Чтв 11:59:58 1896669322
>>1896665
Для быстрой работы, очевидно.
Аноним 31/12/20 Чтв 12:14:52 1896680323
16063307013160e[...].webm 117Кб, 572x322, 00:00:02
572x322
>>1896665
Я, кстати, ее еще не начал делать, тестирую на алгоритме.
Аноним 31/12/20 Чтв 13:24:28 1896721324
>>1896500
Ну, серьезно. Не могу понять принцип работы. Я думал, в конце будет выдавать 1 цифру, а оно выдает кучу старых искаженных.
Аноним 31/12/20 Чтв 14:02:51 1896745325
Что если сравнивать хэши вместо прямого сравнения данных? Например, хэш идентичен на 50%, данные идентичны на 50+-20%. Вместо сравнения данных, мы переводим байты в хэш и все.
Только чтобы 100000000 и 0111111111 было одним и тем же, но мы не ебались с представлением этих данных и их сравнением.
Такое вообще реально? Какой хэш можно использовать?
Аноним 31/12/20 Чтв 14:17:59 1896756326
>>1895701
> и будут умные роботы
Какие же фантасты/футуристы дауны, пиздец. Уже есть разумные саморемонтирующиеся биороботы - нет, надо дрочить на железки с алгоритмом черепашки
Аноним 31/12/20 Чтв 14:28:55 1896765327
>>1896745
Эмбеддинги с хэшами делают же. Вряд ли получается кардинально лучше, иначе уже из всех утюгов бы пиарили.
Аноним 31/12/20 Чтв 14:33:08 1896770328
>>1896498
>Почему она не предсказывает будущее, а просто выдаёт то, что уже есть (-1 день), но с искажением.
Потому что, внезапно, цена прошлого дня это довольно хороший бейзлайн который сетка сразу выучивает и на нём и останавливается.
К теме битерлессона кстати, чёрные ящики хватают low hanging fruits, поэтому там где человек может что-то проанализировать и улучшить (например, для финансовых временных рядов) сетки сосут, и в лучшем случае используются как вспомогательный алгоритм.
Аноним 31/12/20 Чтв 14:48:58 1896778329
>>1896770
Да какой еще беслан. Чего оно на основе 200 цифр выдает 199? Как сделать, чтобы выдавало одну цифру - двухсот первую?
Аноним 31/12/20 Чтв 14:59:45 1896789330
>>1896300
> хуета полная, население растёт по экспоненте
Как раз нет, биолог хуев.
Аноним 31/12/20 Чтв 15:26:33 1896816331
>>1896564
>но и слетали на Луну
Ага, не покидая Голливуд
Аноним 31/12/20 Чтв 15:38:28 1896832332
>>1896778
Забесплатно (взял лстмчик или трансформер и хуяк хуяк ничего делать не надо) никак.
Аноним 31/12/20 Чтв 15:52:11 1896856333
>>1896816
Сделайте так же на Мосфильме я?!
Аноним 31/12/20 Чтв 15:59:38 1896869334
>>1896832
А какой тогда смысл в результатах того лстм? Он просто показывает насколько сильно текущие цифры отличаются от старых?
Лстм может продолжать ряд цифр?
Аноним 31/12/20 Чтв 16:07:13 1896875335
>>1896869
Ну если хочешь продолжать с сетками то >>1896500
Но точного рецепта не существует, пробуй разное: подкручивай параметры, регуляризацию, лосс итп может случайно что и выйдет
Аноним 31/12/20 Чтв 16:36:18 1896897336
>>1896875
Ты троллишь? Меня не точность волнует, оно мне выдаёт ДОХУЯ цифр вместо одной. Я не разбираюсь в мл и не могу понять почему так.
Аноним 31/12/20 Чтв 17:01:57 1896924337
>>1896897
А, ну так лстм устроен, сетка состоит из последовательно соединённых клеток каждая из которых имеет свой выход. Если тебе нужна цена в последний момент бери последний выход только.
Аноним 31/12/20 Чтв 17:51:29 1896982338
>>1896336
> Работающее ИИ как в фантастических рассказах не выгодно в первыую очередь капиталлистам,
1. Автоматизируешь производство от и до
2. Себестоимость товара падает до нуля
3. ??????????
4. PROFIT!!!!!!!!!!
Аноним 31/12/20 Чтв 17:58:43 1896986339
>>1896336
> Работающее ИИ как в фантастических рассказах не выгодно в первыую очередь капиталлистам
Ебанат?
Аноним 31/12/20 Чтв 19:34:41 1897093340
Почему биттер лессон всё ещё не порешал задачу машинного перевода? И как планируется его решать для low-resource языков? До сих пор нормально не можем переводить с английского на немецкий, а для них тонны параллельных текстов есть, да и языки родственные. А как будем переводить с кечуа на ирландский?
Почему биттер лессон не решил superresolution? Данных для обучения в интернете - петабайты, если не больше. Неужели просто stack more layers не работает?
Аноним 31/12/20 Чтв 20:13:14 1897143341
>>1897093
>всё ещё не порешал задачу машинного перевода?
ГПТ-3, не ждём а готовимся.
>И как планируется его решать для low-resource языков?
Нахуй нинужны, сейчас бы всерьез задрачивать нахрюк полутора землекопов.
Аноним 31/12/20 Чтв 20:27:03 1897162342
>>1896342
Хорошая задача, кстати. Так четко показывает именно человеческий тип восприятия.
Могу посоветовать только ГАН лосс, нужно набрать вручную сделанных ASCII артов и дискриминировать между ними и сгенерированными.
Аноним 31/12/20 Чтв 20:48:54 1897196343
>>1897143
>Нахуй нинужны
Ну раз ты скозал, то ладно...
Аноним 31/12/20 Чтв 20:58:06 1897208344
>>1897093
БЛ ничего не решает. Он говорит, что нет смысла городить какую-то мего архитектуру для перевода, мучиться собирая правильные чистые данные. ГПТ-Х просто будет переводить с любого языка на любой, включая некорректные, неполные предложения, игру слов, обрывки текста, разговорную речь и все что хочешь. И никогда ты вручную лучше не сделаешь.
Для общего суперрезолюшна (который вообще-то уже вполне решен для конретных приложений) нужна будет такая же сеть как ГПТ, но для визуальных данных. Над чем сейчас работают множество людей, между прочим - визуальные трансформеры это самая горячая тема конца 2020. И они, по-видимому, скоро съедят сверточные сети.
Аноним 31/12/20 Чтв 21:03:07 1897213345
>>1897196
Ну давай расскажи, зачем они нужны. Чтобы престарелый шизик высрал очередную статью об особенностях флексативов в умляутах абырвалгского нахрюка?
Аноним 31/12/20 Чтв 21:15:31 1897227346
>>1897213
Чтобы переводить с одного языка на другой.
Аноним 31/12/20 Чтв 21:15:46 1897228347
>>1897162
>Так четко показывает именно человеческий тип восприятия.
>Могу посоветовать только
Охуенно, горький петух.
Аноним 31/12/20 Чтв 21:20:03 1897231348
>>1897227
Перевод с английского на другой будет, что не так?
Аноним 31/12/20 Чтв 22:16:44 1897291349
Аноним 31/12/20 Чтв 22:33:44 1897314350
>>1897231
Мало текста слишком на этих языках, чтобы всякие берты-гпт обучать.
Аноним 31/12/20 Чтв 22:52:40 1897330351
>>1897314
Джвачую, языки не нужны, все обмазываемся англоговном.
Лангуаге инглиш из тхе бест лангуага ин тхе ворлд!
Аноним 31/12/20 Чтв 22:53:49 1897332352
>>1897291
Как правильно горькие адепты не знают, но кукарекать что что-то работает идеологически неправильно это не мешает.
01/01/21 Птн 00:02:35 1897386353
С новым годом всех.
Желаю всем автомля, открытых библиотек с поиском объектов и нормальных ботов для раздевания нарисованных и реальных тянок
Аноним 01/01/21 Птн 00:10:59 1897390354
В новом году от души желаю всем понять и принять биттерлессон, пройдя стадии отрицания и депрессии как можно быстрее.
Аноним 01/01/21 Птн 00:21:50 1897395355
01/01/21 Птн 00:56:02 1897418356
>>1897390
горький петух, уходи
Аноним 01/01/21 Птн 01:49:54 1897439357
В новом году желаю построить искусственный интеллект, чтобы вычислить все протеины и оцифровать всех.
Аноним 01/01/21 Птн 02:37:45 1897483358
>>1897330
Но ведь ты неиронично прав
Аноним 01/01/21 Птн 02:38:37 1897484359
>>1897418
Вапникодрочер, ты всё продолжаешь куколдить вычислительной машине?
Аноним 01/01/21 Птн 02:53:24 1897503360
145890878313521[...].jpg 49Кб, 351x592
351x592
>>1897439
вычисли меня, вычисли меня, птица счастья завтрашнего дня!
Аноним 01/01/21 Птн 03:41:05 1897533361
77958433p1.jpg 1537Кб, 1584x2112
1584x2112
Сейчас наступает 2021 год, я решил начать свой вкат в питон (преимущественно в нейросети, может ещё потом веб) начиная с первого дня нового года упорно заниматся изучением темы.

Подумалось мне, было бы неплохо осуществлять с кем-то совместно вкат, можно вопросы друг-другу задавать, объяснять темы, пилить совместные проекты.

Всё что имею при себе - базовые знания питона и программирования (переменные, циклы, ветвления, списки, словари, исключения вот это всё).

Если кому интересно пишите на фейкомыло
johntitor47@yandex.ru
Аноним 01/01/21 Птн 07:16:26 1897576362
>>1897533
Вкатуны друг другу никак не помогут. Тебе нужен ментор, который уже много знает и поможет сориентироваться. Поступай в вуз и ищи там хорошего научрука.
Аноним 01/01/21 Птн 12:04:35 1897619363
>>1897533
>Всё что имею при себе - базовые знания питона и программирования (переменные, циклы, ветвления, списки, словари, исключения вот это всё
Начни этот год с изучения матана. Вот эту >>1888821 книжку скачай и посмотри на материал.
Аноним 01/01/21 Птн 14:42:15 1897712364
9b82ebbfbc141e8[...].png 647Кб, 2014x1214
2014x1214
Аноним 01/01/21 Птн 14:43:46 1897717365
>>1897503
каким ебанатом надо быть, чтобы не знать что буквы на цветастом фоне надо обрамлять окантовкой для читабельности?
Аноним 01/01/21 Птн 14:46:58 1897722366
>>1897712
>habr.com
Сюда ли ты зашел, петушок?
Аноним 01/01/21 Птн 19:25:22 1897991367
15664205356560.jpg 237Кб, 1000x1000
1000x1000
>>1897619
Собираюсь изучать,
Линейную алгебру (уже немного знаю),
Теорию вероятностей
и Мат. Анализ (с этим больше всего проблем, но тема интересная)
Аноним 01/01/21 Птн 20:02:39 1898008368
Есть картинки, а к ним метки.
Стоит ли их соединять и сохранять в один файл? Или разносить по разным файлам?
Аноним 01/01/21 Птн 20:09:57 1898014369
Хочу сделать игру по типу Zork, естественно с машинным обучением.
Мне нужно что-то очень быстрое и эффективное. Задача не простая - нужно целый виртуальный мир симулировать.
Есть идеи?
Аноним 01/01/21 Птн 20:14:26 1898021370
>>1897143
> ГПТ-3, не ждём а готовимся.
Не запустится на моем железе и даже гуглу придетмя нормально так вложиться, чтобы эту бандурину запустить. Не нужно.
Аноним 01/01/21 Птн 20:37:57 1898040371
>>1897533
Найди себе наставника.
Обучение с учитаелем > обучение без учителя.
Аноним 02/01/21 Суб 00:31:37 1898231372
>>1898040
Так кто-ж согласиться учить?
Аноним 02/01/21 Суб 07:58:42 1898407373
>>1898231
Старый гей-математик может тебя няшить и обучать
Аноним 02/01/21 Суб 10:44:01 1898435374
Аноним 02/01/21 Суб 11:04:28 1898438375
Аноним 02/01/21 Суб 12:01:55 1898486376
>>1898014
Dwarf fortress эмулирует целый виртуальный мир на сях без машоба.
Аноним 02/01/21 Суб 12:02:25 1898487377
Аноним 02/01/21 Суб 12:37:47 1898498378
Аноним 02/01/21 Суб 12:56:35 1898511379
>>1898021
Гугл вложится, а ты в сделку не входил
Аноним 02/01/21 Суб 14:03:02 1898575380
>>1898486
> Dwarf fortress
Вот только в Dwarf Fortress не приходилось обрабатывать команды по типу "взять попугая, засунуть его в рот, а пережевать, а потом выплюнуть"
Аноним 02/01/21 Суб 18:30:56 1898810381
Аноним 02/01/21 Суб 19:31:56 1898873382
>>1898810
что у ЛеКуна (MNIST dataset),что на ImageNet они разделены

в моем проекте я также разделил - аннотации в одном .csv, а картинки отдельно, но по имени картинки я всегда могу найти аннотацию
Аноним 02/01/21 Суб 20:48:04 1899004383
>>1898810
Всегда разделяй и властвуй.
Аноним 02/01/21 Суб 21:28:14 1899057384
image.png 140Кб, 1121x927
1121x927
Бляха, страх упустить возможность на максимуме. Помогите дать прогноз точки падения на основе прошлых цен и объемов. Есть вероятность удачно зайти в шорт и хорошо заработать на падении.
Аноним 02/01/21 Суб 21:41:32 1899070385
>>1899057
>Есть вероятность
А можешь и проебаться, лол
Аноним 02/01/21 Суб 22:17:53 1899092386
>>1899070
Да блядь, как вы заебали, скептики. Естественно есть риск, чтобы его снизить я и хочу понять когда большая вероятность коррекции цены. Про трейдер это и сам из графика поймёт, для остальных есть - мл. Но у меня руки из жопы, неделю ебался, не смог разобраться с вашими лстм.
Аноним 02/01/21 Суб 22:20:21 1899094387
>>1899092
Когда даже в треде про нейроночки обсуждают биткоины - скоро обвал, инфа 100%
Аноним 02/01/21 Суб 22:39:51 1899111388
>>1899094
Обвал, разумеется, неизбежен. Вопроса только два: до какой цены дойдет на пике, и какая установится в новом эквилибриуме. Неправильно расчитав, ты проиграешь, если будешь пытаться шортить. Безопасная стратегия, как обычно, держать и докупать между туземунами.
Аноним 02/01/21 Суб 23:08:51 1899142389
>>1899094
За меня уже ответили >>1899111
Хотется получить приблизительную цифру, но не от балды, а на основе старых данных
Аноним 02/01/21 Суб 23:16:15 1899149390
>>1899094
У меня куча знакомых пытается как-то играть на биржах того или иного вида. Биткоин-не биткоин, не важно. У всех при этом уверенность, что можно играть правильно, грамотно, и если действовать так, то чего-то будешь зарабатывать.

На деле это рандом, предугадать который нельзя, и даже были исследования про трейдеров, которые показывали, что выигрывают в среднем не больше, чем когда делают рандом ставки.

Кто-то может быть может предсказать хайп и на этой основе сделать выгодное приобретение, но это не по графикам делается.

На деле зарабатывают за счёт того, что биржа растёт. А растёт сильно потому, что приходят новые буратины, которые вкладывают свои деньги, желая заработать. Хотя активы, которые продаются, в основном сами прибыли почти не приносят и нужны только ради спекуляций.

Никакой математики за этим нет, чтобы нейросеть могла чего-то предсказать. Просто ловушка для тех, кто считает себя особо умным, типа я такой продвинутый, нейросеть натравлю и разбогатею.

При этом те или иные расчёты с помощью компов трейдеры делали ещё с прошлого века, но там роботы скорее помогают на коротких технических колебаниях по копеечке что-то приличное зарабатывать, и то сложно, поскольку все этим пользуются.

Нейросеть нельзя научить, не имея большой учебной выборки. А учебной выборки здесь нет и быть не может.
Аноним 02/01/21 Суб 23:19:45 1899151391
Посоветуйте вводный курс по МЛу, желательно на русском. Знаю немного основы программирования, Python, матан/линал/тервер. Специализация от Яндекса и МФТИ на курсере норм? Еще на степике есть какие-то. Хотелось бы совет от анона.
Аноним 02/01/21 Суб 23:31:24 1899164392
>>1899149
Я лично торговал успешно, за месяц только пара дней в минус. Естественно не от балды, а по графикам. Рандом случается крайне редко и он значит только одно - крупный инвестор что-то чудит. И к счастью чаще инвесторы повышают цену неизвестных валют (и продают на пике), после чего она постепенно падает, не наоборот.

Да, нельзя высчитать на 100%, но можно на 70%. Против теханализа невозможно переть, оно работает по факту, отрицать это могут только максималисты, подразумевая, что оно не работает во ВСЕХ случаях.
Аноним 03/01/21 Вск 00:07:45 1899184393
Screenshot from[...].png 24Кб, 833x508
833x508
Screenshot from[...].png 49Кб, 664x474
664x474
Screenshot from[...].png 48Кб, 663x477
663x477
>>1899164
Логика такова, что в среднем выигрыш такой, насколько биржа в целом растёт.

Например если биржа выросла на 10%, ты торговал на миллион и заработал 100 тысяч, то ты просто заработал за счёт роста биржи.

Если больше, то тут только один вариант, ты должен был выиграть у кого-то, то есть кто-то должен быть проиграть тебе свои деньги, на неудачных ставка. Здесь классическая игра с нулевой суммой против других торговцев, ну с поправкой на рост биржи.

Причём играют ведь не только продавцы из пятёрочки, там очень даже квалифицированные трейдеры, которые все эти теории знают, очевидно.

Вот nasdaq хорошо рос, и в среднем там заработали. Причём как исследования показывают, что если ты будешь случайно делать ставки, то твой выигрыш будет примерно таким же, как и в "осмысленных" стратегиях.

Выигрывают за счёт роботов, которые на доли секунд раньше конкурентов хватают удачные лоты. И за счёт предугадывания хайпа, что делается не по графикам, а по анализу настроений. Или во время пертурбаций мощный вроде ковида, но это всё такие вещи, которые нестандартные и там нейронки не помогут.
Аноним 03/01/21 Вск 00:39:33 1899206394
Аноним 03/01/21 Вск 00:41:10 1899209395
блядь откуда эти брейнлеты понабежали, пошли нахуй отсюда назад в форекс тред или где вы там сидите
Аноним 03/01/21 Вск 02:15:33 1899298396
>>1899184
Ты путаешь с бинарными опционами
Естественно кто-то теряет на бирже, не всем суждено оставаться в плюсе
Сказки про закуп и продажу от балды придуманы какими-то клоунами для клоунов. Это сразу же понятно через пару дней трейдов. Да просто взгляни на минутный график любой криптопары, увидешь, что у него всегда есть пики и падения, которые зачастую можно предсказать. Нет вообще принципа "хватают первей", ордеры ставятся заранее. Для масштабных прогнозов и учета внешних факторов используют нейронки для анализа статей, но это всё речь о каком-то идеальном боте.
Я просто говорил о банальном анализаторе, который будет ПОМОГАТЬ понять выгодная сейчас точка для закупа или нет. Это можно и самому понять, но нужен большой опыт и плотный анализ графика за прошлые дни. Часто после пары суток торговли на одной паре начинаешь чувствовать себя как рыба в воде, хорошо подбирая точки входа и выхода. Но люди неидеальны, особенно когда шалят эмоции.

Как при помощи lstm (или что лучше с этим справится?) продолжить ряд цифр? Упростил максимально, все равно не могу разобраться как продолжить этот график.
https://colab.research.google.com/drive/1OqBGmMcEGRgr7WU_30LT5vLfCTeprLHg?usp=sharing
Аноним 03/01/21 Вск 02:20:15 1899300397
image.png 794Кб, 1140x641
1140x641
Суцкевер намекает на ГПТ-4 в этом году: https://blog.deeplearning.ai/blog/the-batch-new-year-wishes-from-fei-fei-li-harry-shum-ayanna-howard-ilya-sutskever-matthew-mattina
Из интересного: визуальные данные, встраивание людей в тренировочный цикл.
Вот куда пойдут безработные ученые: оценивать выхлоп ГПТ за деньги, делая его еще умнее.

Всем пацанам битерлессон, петухов на помоечку!
Аноним 03/01/21 Вск 03:08:50 1899312398
>>1899300
>Из интересного: визуальные данные, встраивание людей в тренировочный цикл.
Очень интересно, а не забывать контекст спустя одно предложение научится наконец? Или для этого ещё триллион-другой баксов понадобится?
Аноним 03/01/21 Вск 05:16:35 1899336399
>>1899298

pred = model.predict(np.concatenate((train_x, test_x), axis=0)) # old was just "train_x"
pred = scaler.inverse_transform(pred)
dataset = scaler.inverse_transform(dataset)
Аноним 03/01/21 Вск 06:22:09 1899348400
>>1899312
Трансформеры ващет могут смотреть сразу на весь поданный котекст, в отличие от РНН, которые как раз забывают. В этом основная сила их. Генерировать складно люди будут доучивать вручную.
Триллионы баксов - кто их считает там? Они разрабатывают общий ИИ, это технология вне обычных экономических понятий вроде прибыли. Это перевернет все.
Аноним 03/01/21 Вск 09:14:42 1899376401
>>1899348
>Трансформеры ващет могут смотреть сразу на весь поданный котекст
Только размер контекста крайне ограничен.
Аноним 03/01/21 Вск 10:54:29 1899416402
>>1898873
>>1899004
Мне не понятен порядок действий.
Есть тензоры картинок, и есть тензоры меток.
Тензоры картинок с целью экономии оперативки сохранены в файлы на диск, и уже оттуда подгружаются.
Вопрос - что делать с тензорами меток? Сохранять в отдельные файлы? Присоединять к тензорам картинок (через cat или list) и сохранять в один файл с тензорами картинок? Или грузить из памяти?
Аноним 03/01/21 Вск 13:01:46 1899453403
Питон или яваскрипт? Что лучше и почему?
Аноним 03/01/21 Вск 13:22:12 1899462404
>>1899453
c++. Быстрее их месте взятых.
Аноним 03/01/21 Вск 13:34:31 1899471405
>>1899462
Да это понятно, на них я уже учусь. Я для тестовых моделей, а потом только переносить буду.
Аноним 03/01/21 Вск 14:44:02 1899501406
>>1899300
>эта лысеющая версия Джастина Тимберлейка
Аноним 03/01/21 Вск 14:45:40 1899503407
image.png 547Кб, 849x564
849x564
Аноним 03/01/21 Вск 15:04:09 1899513408
В Новосибирске вообще есть мл работа?
Аноним 03/01/21 Вск 15:21:33 1899523409
>>1899513
В 2019 помогал знакомой аутсорсить для НИИ чего-то там.
Аноним 03/01/21 Вск 15:46:01 1899553410
Аноним 03/01/21 Вск 16:25:43 1899569411
>>1899312
гпт-3 не забывает контекст, у тебя методичка старая.
>>1899376
Для этого есть квазилинейные реформеры и линейные лонгформеры/перформеры.
Аноним 03/01/21 Вск 17:04:47 1899597412
>>1899569
>гпт-3 не забывает контекст, у тебя методичка старая.
Проиграл с маняотрицания
Аноним 03/01/21 Вск 17:11:10 1899608413
image.png 13Кб, 502x241
502x241
>>1899336
И как это что-то меняет? Рисует ещё одну неясную линию поверх имеющейся.
Ещё сильней упростил, выводит полную дичь. Не могу сообразить как понять.
Аноним 03/01/21 Вск 18:37:38 1899665414
>>1899597
>пук
Окей, ну хоть зумеров не упомянул.
Аноним 03/01/21 Вск 18:38:39 1899667415
pred-n.png 99Кб, 736x500
736x500
error.png 119Кб, 754x496
754x496
>>1899608
что конкретно непонятно?

изначально ты делал предсказания только для train, что соответствует первым 66% твоих данных, поэтому твой график обрубался. если ты делаешь предсказания на соединенных np.concatenate((train_x, test_x) train и test, то твой график продолжится дальше, потому что ты делаешь предсказания для 100% данных

по той причине, что у тебя мало данных, твоя моделька плохо обучилась, и выдает @неясную линию поверх имеющейся@

Картинка - работа твой модельки на курсе валют - prediction vs dataset и ошибка. Плюс я разделил изначальный сет на три - train, val, test:

train, test = split(dataset, 0.8)
train, val = split(train, 0.6)

Train и Val я использовал для тренировки модели:

train_x, train_y, validation_data=(val_x, val_y)

Результат, как ты видишь выглядит ничем не лучше какого-нибудь movingaverage.

есть вопросы, напиши свою фейкпочту
Аноним 03/01/21 Вск 19:41:02 1899737416
>>1899667
касательно графика ошибки:

1. на основе предыдущих 10 дней (window = 10) модель выдала предсказание на след. день - какое-то число

2. Oшибка - разница между выданным числом и реальным значением

3. график показывает ошибку если мы фидим в модель train , то есть данные совершенно новые для модели (валидация была сделана на другом сете)
Аноним 03/01/21 Вск 19:47:10 1899744417
>>1899665
> ряяя
Горький петух = нечёткий петух
Аноним 03/01/21 Вск 20:57:54 1899810418
>>1899501
Когда он станет богом и насильно тебя оцифрует, ты проведешь вечность извиняясь за свои слова, варясь при этом в котле и созерцая его лысину, которая будет вместо неба.
Аноним 03/01/21 Вск 23:41:43 1900008419
15960264102200.jpg 67Кб, 592x532
592x532
>>1899569
>гпт-3 не забывает контекст, у тебя методичка старая.
>Context window size was increased from 1024 for GPT-2 to 2048 tokens for GPT-3.
Аноним 04/01/21 Пнд 00:41:32 1900041420
>>1899608
Проиграл с твоего говнокода.
Аноним 04/01/21 Пнд 04:27:56 1900126421
image.png 11Кб, 372x248
372x248
>>1899667
Когда я пытаюсь таким образом продолжить с какой-либо точки, получается просто прямая, без понятия что не так делаю

https://t.me/aaaaaqqqqaaa
Аноним 04/01/21 Пнд 06:45:50 1900165422
>>1900008
Ты когда последний раз писал текст длиннее чем 2048 токенов? Или хотя бы читал.
Аноним 04/01/21 Пнд 07:01:10 1900168423
>>1900165
>Ты когда последний раз писал текст длиннее чем 2048 токенов? Или хотя бы читал.
Зумер, не проецируй. 2048 токенов - это 20-25 предложений. Я иногда пишу похожие по длинне эмейлы. Для текстовых квестов, для которых в том числе используется GPT, это вообще ничто. Так что никакого бесконечного контекста нет.
Аноним 04/01/21 Пнд 08:32:30 1900186424
>>1900168
>Так что никакого бесконечного контекста нет.
Шизик выдумал бесконечные контексты и с ними спорит.
>2048 токенов - это 20-25 предложений.
Ты сейчас 5 предложений уместил в 250 символов (токенов было бы ещё меньше). В школе расскажешь про 20-25 предложений и похожие по длиннне эмейлы.
>Для текстовых квестов, для которых в том числе используется GPT
Внезапно, текст не генерируется на всю игру сразу, а зависит от текущего контекста. А конкретные куски намного меньше 2к токенов.
Аноним 04/01/21 Пнд 08:43:17 1900190425
>>1900186
А в чем смысл надрачивать на количество запоминаемых одной моделью токенов? Из теоремы Колмогорова-Арнольда известно, что любая функция многих аргументов представима через композицию функций от двух аргументов. То есть, если у нас есть хоть что-то, могущее в работу с парой токенов, то стыканув эту хуйню в лучших традициях стекморбиттерлессонс получим возможности той же GPT и даже больше из кучи каких-нибудь скипграмов Миколова.
Аноним 04/01/21 Пнд 09:14:53 1900205426
>>1900186
>Шизик выдумал бесконечные контексты и с ними спорит.
>>1899569
>гпт-3 не забывает контекст
Здесь столько шизиков, что я уже запутался. Конечная длина контекста? Значит забывает.
>>1900186
>Ты сейчас 5 предложений уместил в 250 символов (токенов было бы ещё меньше)
Ну не 20, а 40. Этого все равно крайне недостаточно.
>Внезапно, текст не генерируется на всю игру сразу, а зависит от текущего контекста. А конкретные куски намного меньше 2к токенов.
Информация вне контекста будет навсегда пропадать. Например, персонажи или события.
Аноним 04/01/21 Пнд 09:43:54 1900214427
В ГПТ-3 контекс это аналог кратковременной памяти у человека. И у ГПТ-3 она гораздо больше человеческой. Человек вообще мало может в рабочей памяти держать. Попробуй текст из 2048 слов, информационно плотный, один раз прочитать, а потом ответить на вопросы по деталям, и увидишь что ничего ты не помнишь. Только если будешь зубрить, загоняя его в долговременную память (= дотренировка в терминах ГПТ-3). А ГПТ-3 ответит.
Разница в том, что у человека рекуррентно апдейтится контекст. Поэтому он самое важное может дольше держать в рабочей памяти. И вариаций трансформеров с рекуррентным контекстом полно, но их тренировать сложнее.
Аноним 04/01/21 Пнд 13:20:15 1900404428
>>1900190
Ты получишь унылую RNN с затухшими градиентами. Лет через 20 ты придумаешь lstm, а еще через 30 - трансформеры.
Шучу. Ты нихуя не придумаешь.
Аноним 04/01/21 Пнд 13:47:11 1900430429
>>1900214
>рекуррентно апдейтится контекст
Ебать тебя промыли, моднявых психолухов в паблике начитался?
Аноним 04/01/21 Пнд 14:00:04 1900447430
>>1900126
sry, u menya net telegrama...
pls, napischi svou fake-pochtu
Аноним 04/01/21 Пнд 14:33:45 1900488431
16090397528000.jpg 25Кб, 400x400
400x400
>>1900404
Горький зумер, ты даже не понял что я написал...
Аноним 04/01/21 Пнд 14:36:44 1900491432
>>1900214
Вот как удивительно, и контекст больше и внимание мощнее чем у тупых человеков, а выходит нелепая хуйня чуть лучше марковских цепей. Без ПОНИМАНИЯ похоже не разобраться, любители чёрных коробок орут.
Аноним 04/01/21 Пнд 16:27:21 1900651433
1 (1).png 1Кб, 800x600
800x600
1 (2).png 187Кб, 800x600
800x600
Котаны, это снова я. Как добавить к PNG без альфа канала еще один канал? Нужно как-то использовать альфу? Мне тут советовали склеить картинку пару лет назад, я только сейчас дошел до потребности в это операции.
И еще , в pix2pixHD есть еще один дополнительный параметр, который можно скормить сетке- instance_map. Это- 65536 канальный файл, который я не знаю как генерировать, и не факт, что он поможет, если я в него вместо границ объекта залью мои фичи, но всё же спрошу- может не заморачиваться с 4 каналом, а попробовать скормить в эту instance map серую 16 битную картинку с нужными фичами? Или- как делать разметку для 65536 каналов попроще чем в openCV?
Аноним 04/01/21 Пнд 16:27:37 1900652434
146926282901387.mp4 4817Кб, 1280x720, 00:00:30
1280x720
> когда кожаные мешки не читали битерлесон и ещё не знают что будут уничтожены очередным чатботом
Аноним 04/01/21 Пнд 16:40:34 1900667435
>>1900488
g(a,b,c)=f(f(a,b),c) это RNN.
Это мой последний пост тебе.
Аноним 04/01/21 Пнд 16:42:56 1900670436
>>1881607 (OP)
Я правильно понимаю, что в России нет нормального ресерча?