[Ответить в тред] Ответить в тред

Check this out!


<<
Назад | Вниз | Каталог | Обновить тред | Автообновление
514 | 42 | 91

НЕЙРОНОЧКИ И МАШОБ ТРЕД №10 /ai/ Аноним 18/10/18 Чтв 16:37:00  1281076  
1.jpg (303Кб, 1600x1200)
2.jpg (111Кб, 1200x981)
3.jpg (578Кб, 1108x2160)
4.jpg (410Кб, 976x1815)
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем спрашивать очевидные вещи, о которых знает любой индус, прочитавший хоть одну книгу по машобу.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/ | Николенко и др. "Глубокое обучение" На русском, есть примеры, но уже охват материала
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Архивач:
http://arhivach.cf/thread/396055/
Остальные в предыдущих тредах

Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1267390 (OP)
Аноним 18/10/18 Чтв 17:23:56  1281102
>>1281008
А как же нейроны перцептроны, все вот это. Как вы статистикой угадываете?

>>1280988
Не понял как твой ответ отвечает на мой вопрос? Поясни.
Аноним 18/10/18 Чтв 17:34:40  1281109
>>1281102
>А как же нейроны перцептроны, все вот это.
ты по верхам нахватался какой-то хуйни. ну нельзя сделать стол, если не понимаешь и не умеешь работать с деревом, инструментами и тд. так и тут.
Аноним 18/10/18 Чтв 19:23:08  1281163
>>1281102
У тебя какие-то абсурдные вопросы. Вот есть калькулятор, он тоже складывает, вычитает. Зачем вам компьютеры?
Аноним 18/10/18 Чтв 19:30:28  1281168
>>1281102
Перцептрон это последовательность многомерных линейных регрессий, связанных между собой через нелинейное преобразование
Аноним 18/10/18 Чтв 19:38:56  1281173
>>1281163
>Зачем вам компьютеры?
А зачем? С приходом компьютеров никакой промышленной революции не было, а вот деградация началась.
Аноним 18/10/18 Чтв 20:00:39  1281182
Level 1 - Not knowing about train/test split, evaluating on train set.

Level 2 - Always evaluating on test set.

Level 3 - Only using a test set when you're uncertain.

Level 4 - Knowing that you're good enough to not need a test set.
Аноним 18/10/18 Чтв 20:25:44  1281193
>Trevor Hastie et al. "The Elements of Statistical Learning"
Читал кто-нибудь? Мне кажется, он издевается над теми, кто пытается прочитать эту книжку самостоятельно. Почти за каждым знаком равно в любой формуле у него скрывается около страницы преобразований через свойства матожиданий и интегралов, а он даже никакими пояснениями не сопроваждает. Просто
>исходная формула
>= уже близкая к конечной промежуточная формула
>= конечная формула
Я должен ему верить на слово и пропускать или просто туповат и нормальным пацанам все очевидно, они раскрывают и преобразовавают за секунды в уме?
Аноним 18/10/18 Чтв 20:39:41  1281199
>>1281193
Общепринятая практика. Если это не какое-то новое исследование, то обходятся без выкладок, иначе книги были бы раза в полтора толще.
>Я должен ему верить на слово и пропускать
Хочешь - верь, не хочешь - проверяй.
>нормальным пацанам все очевидно
Смотря что. Большая часть хуйни про преобразования выветривается напрочь уже через год, после того как ты её в вузике надрочил.
Аноним 18/10/18 Чтв 20:41:03  1281200
>>1281193
Цитирую первую главу (Introduction):
>Who Should Read this Book
>We expect that the reader will have had at least one elementary course in statistics, covering basic topics including linear regression.
>As statisticians, our exposition will naturally reflect our backgrounds and areas of expertise.
Аноним 18/10/18 Чтв 20:48:40  1281202
>>1281200
>We expect that the reader will have had at least one elementary course in statistics
У нас в униче была статистика. И регрессия, и оценки параметров, и проверки гипотез. Проблем особо не было. Но если я взгляну на какую-нибудь из простых формул, то уже не вспомню, как мы ее выводили на семинаре. А тут еще сложнее, потому что не какие-то популярные свойства выводятся, а специальные формулы для определенных задач.
Аноним 18/10/18 Чтв 21:17:55  1281214
>>1281193
Ты туповат, потому что не умеешь абстрагироваться.
Представь себе обезьяну, которая видит в тексте что-то типа 31334*43434=1360960956 и начинает это всерьез проверять, и не может читать текст, не поняв, а почему 4х4 это 6 и 1 в уме.
Вывод формул это вообще последнее, что нужно в книжках.
Аноним 18/10/18 Чтв 21:31:41  1281217
>>1281214
Ну да, чтобы закончить мысль: важнее понимать, что значат цифры 31334 и 43434 в моем примере, а дальше поверить на слово про вывод и понять уже, что следует из 1360960956. Промежуточные этапы уже не нужны.
Аноним 18/10/18 Чтв 22:34:32  1281231
>>1281109
тебя тролят ну
нахуя вы этих пихвоидов кормите
Аноним 18/10/18 Чтв 22:37:16  1281232
>>1281202
ну почти всегда от того что ты увидишь КАК произвели длинную цепочку преобразований с матрицами тебе легче не станет
очень хочется -- сядь сам их произведи, там ничего сложного не бывает, когда идею показали
Аноним 18/10/18 Чтв 23:17:40  1281245
1539893853693.png (535Кб, 700x560)
Анон, помоги советом, не совсем по теме, но очень близко.
Попытался читать MIT'шную книгу Deep Learning на ангельском. Мой уровень B1-B2, но это ужасно долго выходит. На 5 страниц введения ушло 35 минут, так как раньше никакой литературы на английском не читал (пробовал Гарри Поттера от скуки, после страниц 10 забросил из-за недостатка прилагательных, коих в русском хоть голыми руками ешь).
Так вот вопрос. Вкатываться в дипльонинх особо не собираюсь, просто попробовать, лежит к этому душа или нет, так что во времени я не ограничен, но стоит ли начинать читать книги на чужом языке, прыгая прямо в машоб с головой? Может мне все же улучшить язык сперва, а потом уже переходить к таким вещам?
Пока читал, много раз ловил себя на мысли, что я перевожу целое предложение, и на это тратилось больше времени, чем когда я просто читал и думал на английском. Рефлекторно как-то оно выходило, когда встречал незнакомое слово и начинал его гуглтранслейтить. Может это через страниц 100 пропадет и я зря переживаю?
В общем дайте совет, чтобы я лишнее дело не делал, практика в английском посредством изучения машоба адекватное решение или я обосрусь и ничего не пойму?
Аноним 18/10/18 Чтв 23:47:38  1281252
>>1281245
>Мой уровень B1-B2
>никакой литературы на английском не читал
Не верю.
Читай через силу, постепенно снизойдёт. Я так учил в десятом классе
Аноним 19/10/18 Птн 00:09:00  1281258
>>1281252
Ну я в далеком 2007 был слабым киберкотлетом и общался с англоязычным комьюнити на форумах и в тимспике. Потом на собеседованиях проходил тесты, которые давали, там и показало Upper-Intermediate. Так вот и получилось.
А по поводу художественной литературы ну очень не понравилось читать без родной описательной воды. Также часто читаешь, переводишь то, что непонятно, в словаре и думаешь: "Они сложили два слова и получилось новое, при том с другой, хоть и близкой, смысловой нагрузкой. И как мне это теперь понять, это далеко от привычного мне английский-хуиский, тут в разы сложнее конструкции."
Также этот геморрой с временами. Видел классный сайт (metod12.com), там алгоритмически расписано построение предложений англичанами, но на автомате я так делать никогда не умел, всю жизнь строил простые предложения и не мучал свои мозги, хотя это уже немного вдаль от моего вопроса.
И все же спасибо за ответ, постараюсь пересилить себя. Боюсь, что в начальных главах с математикой буду беспомощно болтыхаться, так как я её уже давно забыл, а каким образом её понимать на чужом языке я вообще понятия не имею.
Аноним 19/10/18 Птн 00:49:44  1281261
>>1281245
ИМХО вкатываться через эту книжку не очень
Начни проходить лучше cs231n пободрее будет
Аноним 19/10/18 Птн 01:05:20  1281262
>>1281261
Я только первую часть хотел прочесть, чтобы необходимые штуки из математики вспомнить/выучить. Дальше думал выбрать что-то другое. После того, как впитаю вышеуказанное, попробую следовать твоему совету, спасибо! Или лучше сразу пробовать cs231n?
Аноним 19/10/18 Птн 01:42:17  1281274
>>1281262
>сразу пробовать cs231n
Вкатывайся в пихвовекторизацию
Аноним 19/10/18 Птн 08:24:13  1281303
Ну вот китайцы впихнули Instance Normalization в ResNet и улучшили на процент. https://github.com/XingangPan/IBN-Net
Это что, наука? Нет, это пляски с бубном.
Аноним 19/10/18 Птн 08:42:21  1281304
>>1281076 (OP)
Что делать, если мне не нравится машинное обучение, а "классическое" программирование?
За машобом будущее, все остальные программисты очень скоро станут не нужны. И что же мне делать, если я не хочу заниматься машинным обучением?
Аноним 19/10/18 Птн 09:07:05  1281310
>>1281304
> За машобом будущее, все остальные программисты очень скоро станут не нужны.
Бред же.
> И что же мне делать, если я не хочу заниматься машинным обучением?
Страдай.
Аноним 19/10/18 Птн 09:10:10  1281312
>>1281310
>Бред же.
Почему?
Аноним 19/10/18 Птн 09:58:18  1281321
>>1281303
>Это что, наука? Нет, это пляски с бубном.
Ой блядь, еще один верующий в науку, в непогрешимость и святых ученых, а сейчас людишки-то не те пошли. А потом появляются посты про "настоящие исследования", в которые ты не попадешь.

Наука так и устроена, прикинь. Вот блядь ровно так. Ты просто первый раз в жизни с ней столкнулся.
Аноним 19/10/18 Птн 10:16:12  1281325
>>1281168
>Перцептрон это последовательность многомерных линейных регрессий, связанных между собой через нелинейное преобразование
Получается, сеть из перцептронов, это что то вроде полиномиальной регрессии?
Можешь привести пример там где используется линейная регрессия и полиноминальная и где нужны нейронки уже с их бэкпропом, а то я чет не понимаю.
Аноним 19/10/18 Птн 10:37:53  1281329
>>1281304
>Что делать, если мне не нравится машинное обучение, а "классическое" программирование?
Рузге 100 балаф.
Аноним 19/10/18 Птн 10:49:03  1281332
>>1281329
>Рузге 100 балаф.
Для грузана в пятерке достаточно.
Аноним 19/10/18 Птн 11:35:29  1281345
>>1281321
>Наука так и устроена, прикинь
Сейчас больше уклон в теоретику, профиты от этого матанопетушня давно пользует, а вот всякие физики относительно недавно.
Аноним 19/10/18 Птн 12:35:40  1281370
>>1281325
> Получается, сеть из перцептронов, это что то вроде полиномиальной регрессии?
А каждый нейрон с двумя входами представляет частную функцию от полного полинома. Потому что полином любой степени можно представить через суперпозицию частных функций от двух переменных. Это ещё в 50е годы доказали Арнольд и Колмогоров. А теперь мне тут рассказывают про то, что современный машобчик это дохуя новые технологии. Да все это статистика максимум середины прошлого века.
Аноним 19/10/18 Птн 15:05:10  1281400
Не понял с чего вкатываться лучше: с http://www.deeplearningbook.org или с Pattern Recognition and Machine Learning. Вроде как в шапке написано что с первой, но ведь deep learning это подмножество ML, не логичнее начать с более широкой книги, а потом углубляться? Или я что-то не так понимаю?
Аноним 19/10/18 Птн 15:38:22  1281410
>>1281370
Как это частная функция от полинома? Ведь как правило у нейрона просто функция активации, которая на выходе дает 0/1. Или ты про какие то другие функции нейрона без активации?
Я не понимаю как из нескольких нейронов можно сделать полиноминальную функцию.
Аноним 19/10/18 Птн 16:09:14  1281425
>>1281400
Прочти обе, какие проблемы?
Аноним 19/10/18 Птн 16:12:03  1281428
>>1281214
Жиза пздц. И что делать?
Аноним 19/10/18 Птн 16:17:01  1281431
>>1281325
>Получается, сеть из перцептронов, это что то вроде полиномиальной регрессии?
Нет.
Линейная регрессия - это
y=A x
У тебя есть набор входов x, набор выходов y и матрица (линейное преобразование), которая связывает вход с выходом. Задача по x и y найти A.

Полиномиальная регрессия это
y=A f(x), где f - функция вектор->вектор (возможно большей размерности), которая, что важно, не имеет внутренних параметров, которые мы настраиваем. Поэтому посчитав z=f(x), мы сводим нашу линейной регрессию к y=A z и считаем в два этапа, сначала, зная x, находим z, потом умножаем на матрицу и находим y. Если не понятно в обобщенном формате, вот на практике:
У тебя есть координаты точек x и y, ты можешь вычислить z1=x^0, z2=x^2, z3=x^3 и решать уже эту регрессию, как будто z1,z2,z3 и т. д. это точки в более многомерном пространстве.

Перцептрон - это
y=h(W1 h(W2 x) ), где h - это функция активации, W1, W2 - параметры, которые нам нужно найти.
1. Зачем нужна функция активации? Потому что без нее было бы y=W1 W2 x, а произведение матриц является матрицей, то есть y = A x, где A = W1 W2. Иными словами, персептрон без нелинейной функции между слоями не имеет смысла, это все та же линейная регрессия.
2. Как это говно обучать? Находить производную и спускаться градиентным спуском. Способ поиска производной называется бэкпропом и недалеко ушел от школьной формулы f(g(x))=f'(g(x))*g'(x)

То есть, отвечая на твой вопрос, если моделируемая тобой функция линейная, то ты используешь линейную регрессию, если сводима к линейной через вручную заданное преобразование входных координат - полиномиальную, а если ты не хочешь и самое преобразование задавать, то нужна нейронка, каждый слой которой как-то преобразовывает пространство, облегчая задачу для следующего слоя.

Аноним 19/10/18 Птн 16:18:01  1281432
>>1281428
Вчитывайся в главное, пропускай несущественное.
Аноним 19/10/18 Птн 16:18:36  1281433
>>1281410
Это местный шизик, не образай внимания.
Аноним 19/10/18 Птн 16:35:30  1281441
Чо сколько тут физтехов шадовцев эм ай тишников?
или только перекатывальщики из разнорабочих?
Аноним 19/10/18 Птн 17:14:48  1281474
>>1281441
Все с пхд, кроме тебя.
Аноним 19/10/18 Птн 19:04:50  1281525
153572328416165[...].jpg (126Кб, 1521x959)
>>1281274
> пихвовекторизацию
что это?
Аноним 19/10/18 Птн 19:18:19  1281532
>>1281425
Так в каком порядке читать эффективнее?
Аноним 19/10/18 Птн 19:27:39  1281536
>>1281532
С Бишопа, конечно. Но там процентов 80 уже устарело и не нужно, ты вряд ли сумеешь понять что актуально, а что нет. Да и фиг с ним - читай все, знания лишними не будут.
Аноним 19/10/18 Птн 19:59:48  1281550
>>1281536
Да говори уж правду, что там устарело все да и машоб ваш нихуя не работает кроме негров и котиков.
Аноним 19/10/18 Птн 21:22:07  1281581
>>1281550
У тебя бомбит - значит работает
Аноним 19/10/18 Птн 21:43:07  1281591
>>1281581
>У тебя бомбит
А чо бонбит? Давай машинку которая едет в городском трафике.
Аноним 19/10/18 Птн 22:01:27  1281599
>>1281591
Трафик - он же в оптоволокне. Как машина может ехать в оптоволокне, она же слишком большая, а волокно жесткое? Не говоря уже о том, что трафик это световые импульсы в волокне, в которых вообще непонятно как можно ехать.
Аноним 19/10/18 Птн 22:41:36  1281613
>>1281599
>ехать в оптоволокне
ты знаешь о чем я, но вот опять несешь хуйню. Давай тогда о НЛП поговорим?
Аноним 20/10/18 Суб 00:25:57  1281641
>>1281321
>Наука так и устроена
Поправочка: так устроены хуёвые науки, служащие просто для отращивания хирша ораве дармоедов на деньги налогоплательщиков. Если их убрать, человечество не проиграет.
Аноним 20/10/18 Суб 00:29:04  1281642
>>1281214
Ты зашел в противоположную крайность. Тяжело следовать твоему совету, когда в уме связь между двумя выражениями, записанными через равно, не прослеживается.
Аноним 20/10/18 Суб 00:38:26  1281645
>>1281642
Впрочем, я не хочу продолжать этот дискурс. Я искал в интернете вывод некоторых формул. Они нетривиальные и часто помимо применения свойств матожидания/матриц/интегралов содержат банальные, но хитрые арифметические фокусы, сводящие их к виду, в котором эти свойства можно применить. То есть если читать их в раскрытом виде, все просто и понятно, но они изначально не были рассчитаны на анализ читателем и понимание.
Аноним 20/10/18 Суб 02:20:50  1281653
>>1281645
Вполне возможно, что тебе просто не хватает опыта, и очевидное для всех преобразование уровня sinx^2 + cosx^2 = 1 тебя ставит в тупик, потому что тебе надо его выводить из определения синуса и косинуса, потому что ты ничего не знаешь.
Аноним 20/10/18 Суб 04:34:24  1281673
>>1281536
> С Бишопа, конечно. Но там процентов 80 уже устарело и не нужно,
Что там может устареть, свидетель сойбоев?
Аноним 20/10/18 Суб 11:50:45  1281736
Можно ли с помощью машинного обучения создать в интернете работу типа грузчика в обыденной жизни? Есть же всякие human-based computation
Аноним 20/10/18 Суб 11:50:59  1281737
>>1281641
Ага, ненастоящий шотландец. Нет, все науки так устроены.
Там, где наука устроена не так, например, изобретен какой-то нетривиальный метод, типа открытия таблицы Менделеева, случается быстрая революция, но после этого все опять возвращается к случайному поиску, на которых кладут жизнь phd.
Аноним 20/10/18 Суб 12:39:38  1281753
>>1281645
Просто и понятно что? Ты, кажется, не понимаешь смысл формул. Формулы нужны тебе, не чтобы понимать их вывод. Более того, иногда даже саму формулу помнить не нужно. Достаточно помнить, что есть способ, что она есть, ее вход и ее выход. Точно так же, как в программировании - если бы я читал исходники всех библиотек, которым я пользовался, я бы охуел с сомнительным итогом.
Я полистал эту книжку, мне не понравилась, потому что мало того, что помогает интуиции. Слишком сжато. Лучше взять книжку по каждой теме и почитать отдельно.
Аноним 20/10/18 Суб 12:46:16  1281755
револьвер.png (519Кб, 959x384)
Даже Стетхем уважает нейронки
Аноним 20/10/18 Суб 13:38:15  1281778
>>1281737
>кладут жизнь phd.
пихди это куски бесполезного говна, науку двигают изобретатели
Аноним 20/10/18 Суб 13:45:34  1281782
>>1281778
По каким голливудским фильмам ты судишь о науке?
Аноним 20/10/18 Суб 14:22:00  1281800
Revolver - Pris[...].webm (28193Кб, 1280x544, 00:03:25)
>>1281755
Аноним 20/10/18 Суб 15:02:42  1281812
>>1281782
>ты судишь о науке?
По фильмам о Тесле, братьях Райт, Дизеле ну и Добле.
Аноним 20/10/18 Суб 15:08:46  1281815
>>1281812
>братьях Райт
Можайский же
Аноним 20/10/18 Суб 15:16:39  1281818
>>1281812
Ну это примерно как судить о музыке по битлз, что вот есть звезды, они двигают науку, про них фильмы снимают. А остальные не нужны, их же никто не слушает.
Не от большого ума.
Аноним 20/10/18 Суб 15:20:33  1281823
>>1281818
Ну ок, что там толпы ученых-говноедов революционного понаоткрывали то за последнее время?
Аноним 20/10/18 Суб 15:35:33  1281826
>>1281823
Как поджечь тебе пукан
Аноним 20/10/18 Суб 16:13:12  1281832
>>1281826
Как?
Аноним 20/10/18 Суб 16:19:31  1281833
Аноны, нужна помощь. Есть задача. Есть пары файлов с данными в виде массивов с числами. В 1 файле- массив размером 1000 на 10, во втором файле такие же числа+ в некоторых местах внесен паттерн путем сложения. С помощью какого алгоритма можно научиться определять в каких местах этого массива был введен этот паттерн и соответственно как его применить на неизвестные файлы?С помощью каких библиотек и функций сделать это в пайтоне?
Аноним 20/10/18 Суб 16:20:22  1281834
>>1281737
>Ага, ненастоящий шотландец. Нет, все науки так устроены.
Скорее угандиец, который претендует на то чтобы называться шотландцем.
"Так" это с одним и тем же процентом карьеристов марающих бумагу бесполезной ерундой, которую никто никогда не прочитает кроме рецензентов? Это неправда, процент везде разный: например, в гендер стадис и в машобе таких людей в разы больше чем в топологической k-теории или физике лазеров.
Аноним 20/10/18 Суб 17:26:14  1281863
>>1281834
>"Так" это
Нет. Так - это когда множество ученых работает над тем, чтобы улучшить результат на процент, в том числе (и в основном) нелюбимым тобой методом проб и ошибок. Потому что если бы у них в руках был другой метод, они бы его использовали и случилась революция. Но для революции нужен набор накопленных фактов, революции на пустом месте не появляются.
>например, в гендер стадис и в машобе таких людей в разы больше чем в топологической k-теории или физике лазеров.
Ты просто веруешь в это.
Аноним 20/10/18 Суб 18:50:24  1281878
>>1281863
>множество ученых работает
Эти хуеплеты природу магнетизма и заряда уже выяснили, или продолжают нести дичь?
Аноним 21/10/18 Вск 01:02:21  1281978
>>1281863
Ты как-то слишком серъёзно всю эту куновскую историю воспринял, на деле же успех этого твоего "метода проб" зависит от изначальной разумности всей этой деятельности.
>Ты просто веруешь в это.
Проверяется наблюдением за носителями.
Аноним 21/10/18 Вск 06:37:28  1282024
Здравствуйте, мне нужно для МухГу научную статейку накатать. Уровень сложности, наверное, наилегчайший для знатока машинного обучения. Для МухГУ там накодить околонаучные результаты уровня Мухосранской науки.

Так вот подскажите, пожалуйста, если обратиться к какому-нибудь наемному программисту по машинному обучению для создания научной статьи, то сколько будет, примерно, стоить час работы такого умельца?
Аноним 21/10/18 Вск 06:38:55  1282025
>>1282024
P.S. Сам я хуй знает, но думаю за 10 часов такой умелец должен управиться. Ибо результаты он может даже из головы взять, главное чтобы они были хоть немного похожи на правду для старых МухГУшников.
Аноним 21/10/18 Вск 08:58:24  1282041
Ну что, кто-нибудь уже вкатился без топового математического образования?
Логично, что нет, чо за хуета вообще, в датасаенс нельзя вкатиться, не проучившись 4 года в мгу/мфти/вше/спбгу

Поэтому срочно бросайте ваши шараги и всеми силами стремитесь поступить в топы
Аноним 21/10/18 Вск 09:20:08  1282048
>>1282041
Можно с диссертацией МухГУ вкатиться
Аноним 21/10/18 Вск 09:29:41  1282052
>>1282048
Фууу, шаражник.
У нас на работе таких очень сильно не любят. Практически весь коллектив закончил МГУ/МФТИ/ВШЭ, а к таким как ты очень презрительно относятся.
Аноним 21/10/18 Вск 09:36:36  1282054
>>1282052
Главное, что вкатиться можно, а остальное ерунда, тьфу, было бы кого бояться.
Аноним 21/10/18 Вск 09:40:30  1282056
>>1282054
>а остальное ерунда, тьфу, было бы кого бояться
Ну уж нет, лол. Когда в коллективе к тебе относятся как говну, не очень приятно, согласись.
А тут ребятки все в основном учились в топовых физматшколах, а потом в топвузах, поэтому у них и чсв не хилое. Я сам шаражник, попал в такую контору дс, так меня травили в коллективе просто не из-за чего, называли тупым и всячески оскорбляли.
Аноним 21/10/18 Вск 10:56:01  1282080
>>1282056
>травили
>называли тупым
>всячески оскорбляли
>все в основном учились в топовых физматшколах, а потом в топвузах
Святая толстота.
Аноним 21/10/18 Вск 11:30:57  1282091
>>1282080
Да ладно, это ты просто успешных альфачей математиков не видел.
У нас трое таких было. Один вообще при этом был спортсменом и спокойно мог прописать в ебыч кому угодно, тянки к нему липли как мухи. И при этом еще успешно выступал на олимпиадах по математике, которые ему потом дали льготу на поступление в вуз без экзаменов.

Но большая часть (половина класса) была аутистами-хикканами вроде меня и моих знакомых.

мимо проучился в физмате 4 года
Аноним 21/10/18 Вск 12:33:51  1282116
Господа, помогите, пожалуйста, оценить, сколько часов займет серьезный вкат в машоб? Бекграунд: помидор-разработчик, а знаний математики хватит на поступление в шад.

Поступать в шад не хочу, потому что обучение будет длиться долго и не все курсы мне нужны. К тому же не хочу работать 70 часов в неделю.(40 часов на работе и 30 - в шад)

Суть плана в том, чтобы дропнуть работу и фуллтайм учиться. Но пока непонятно, сколько это может занять. Нужны ваши оценки. Я прикинул, что уйдет на это около 1000 часов. Оценка основана на загруженности шадовцев.

Что скажете?
Аноним 21/10/18 Вск 13:08:42  1282129
>>1282116
>дропнуть работу
>потратить год на машоб
>Что скажете?
Ебать дебил.
Аноним 21/10/18 Вск 13:12:04  1282134
Всё верно, курсы нахуй. Зачем вообще курсы нужны? Это чистый развод на бабки маминых бизнесменов. Если появилась такая мысль, то я бы не задумывался дропнул ворку и вкатывался.
Аноним 21/10/18 Вск 13:12:25  1282135
>>1281978
>зависит от изначальной разумности всей этой деятельности.
Кто определяет разумность?
Аноним 21/10/18 Вск 13:16:57  1282137
>>1282129
В чем проблема? Если я могу не работать, то почему нет?
Аноним 21/10/18 Вск 13:34:38  1282144
По каналу 2х2 сказали ,что наши отечественные прогроммисты с помощью нейросетей обновили разрешение (качество) старых советских мультов.
Насколько это сложно и примерно как это делается?
Аноним 21/10/18 Вск 13:35:10  1282145
>>1281755
теория графоф
Аноним 21/10/18 Вск 13:41:35  1282149
>>1282144
Распознаётся бибизьянка, тречется, накладывается ярый аджастмент. И т д
Аноним 21/10/18 Вск 13:41:38  1282150
>>1282144
https://arxiv.org/abs/1511.04491
Аноним 21/10/18 Вск 13:43:44  1282152
>>1282150
>Сornell University
Вроде же наши придумали это ,сказали же
Аноним 21/10/18 Вск 13:48:27  1282156
Насколько реально с помощью этих ваших нейроночек захуярить прибыльного бота на бирже или на ставках?
Аноним 21/10/18 Вск 13:49:42  1282157
>>1282091
Ну-у-у, ты что, когда он выебывался на тебя, то тебе надо было схватить его за грудки и сказать так: "Ты кто такой? Встреваешь тут? Или бабки мне хочешь поставить!? Кто ты такой чтобы запрещать мне нервничать!? Кто ты такой? Пришел тут, базаришь. Ты не авторитет для меня, понял? Я знаю где ты живешь, сколько ты зарабатываешь, где живет твоя жена. Я завалю тебя, понял. Душонка ты коммерсантская! Все базар окончен. Тьфу".
Аноним 21/10/18 Вск 13:50:55  1282158
>>1282091
>>1282157
Ну или не жена, а тян. Он, наверное, молод был для женитьбы. Хотя альфачи рано женятся.
Аноним 21/10/18 Вск 13:51:02  1282159
>>1282152
https://habr.com/company/yandex/blog/422561/
Аноним 21/10/18 Вск 13:51:30  1282160
>>1282156
Уёбывай отседова
Аноним 21/10/18 Вск 13:53:21  1282161
Бля как же хочется эту технологию изучить. Но с моим английским и учитывая всю запутанность этого всего. Хуй знает как
Аноним 21/10/18 Вск 13:57:24  1282162
Я не понимаю, вы траллите или где? В нейроночках чуть ли не школьный матан? (Возможно уже школьный, сейчас вроде в старшей школе добавили некоторые разделы, которые раньше только в вузах шли).
Аноним 21/10/18 Вск 14:05:13  1282166
>>1282156
Нейронка ищет закономерность. А в биржах и ставках там все слишком случайно, там все меняется все время.
Аноним 21/10/18 Вск 14:05:18  1282167
Давайте запилим тред "Машоб: практика"? Надоело эту вашу поеботу читать.
Аноним 21/10/18 Вск 14:07:40  1282169
>>1282167
Всё сведётся к тому что кормовой анон будет опять просить софт для определения количества жуков в банке
Аноним 21/10/18 Вск 14:15:15  1282171
>>1282169
Так ему же не запилили софт, вы тут теоретики.
Аноним 21/10/18 Вск 14:19:19  1282172
>>1282171
Теоретики
Аноним 21/10/18 Вск 14:20:34  1282173
>>1282137
Тебя настолько не устраивает текущая работа, что ты готов потратить год на машоб? Ты ведь осознаёшь, что твой восторг довольно быстро пройдёт, и ты поймёшь, что это такая же рутинная область, как и другие?
Так-то за год вполне реально, я так с основ вроде линейной агрессии до ганов и прочей хуитки дошёл. Но у меня бакалаврская в ПМИ
>>1282144
>Насколько это сложно
Не очень. Я в универе подобную фигню для курсача делал.
>>1282171
Хуеретики. Во-первых, нашёл дурачков работать за идею, во-вторых, особо интереса для более-менее нормального спеца делать очередную распознавалку-детехтор нет, а направление куда копать ему указали.
Аноним 21/10/18 Вск 14:21:45  1282174
Анон, выручай! Хочу вкатиться в диплернинг, писать код умею, базы данных знаю, но вот теоретических знаний 0. Где можно подтянуть матан? Какие книги читать?
Аноним 21/10/18 Вск 14:24:16  1282176
Живя мы где нибудь в Финке на такую идею государство гранд бы отслюнявило, но увы. Кормовой анон сидит с листочком и тщетно пытается посчитать жуков.
Аноним 21/10/18 Вск 14:25:40  1282177
Сколько стоит час работы джуниора по машинному обучению?
Аноним 21/10/18 Вск 14:31:18  1282180
>>1282177
Сейчас идет прямая трансляция от Яндекса, там сказали, что зарплата у джуна в ml до 120к. 80-120. Средняя зп в ml 200-250к. У всяких тех. лидов могут быть свыше 600-800к.
Аноним 21/10/18 Вск 14:34:58  1282182
>>1282180
Если они работают 4 недели в месяц, 5 дней в неделю по 8 часов, то выйдет 160 часов. Возьму между 80-120 тыс. у джуна, то есть 100 тыс. Делю 100 тыс. на 160 часов, выходит 625 рублей в час.
Аноним 21/10/18 Вск 14:38:22  1282184
>>1282180
>80-120
Какой-то гнилой пиздёж. Это у низ там внутри компании такие зп? Обычно такие вакансии максимум до 40, притом ты будешь ручным газонюхом, размечающим данные вручную и пишущим вспомогательные скриптики для взрослых дядь.
Аноним 21/10/18 Вск 14:42:20  1282186
>>1282182
Молодец. Садись, пять.

>>1282184
Он ответил что в целом везде так. Потом его спросили что должен уметь джун, он ответил, что джун должен знать теорию, писать код на питоне, чтобы он хотя бы работал и знать sql.
Аноним 21/10/18 Вск 14:42:33  1282187
>>1282184
>ручным газонюхом, размечающим данные вручную
При чем тут джун по машобу?
Аноним 21/10/18 Вск 14:43:53  1282188
>>1282186
>Молодец. Садись, пять.
Ну я этим спросить хотел, на реальность походит 625 руб. в час?
Аноним 21/10/18 Вск 14:45:43  1282190
>>1282188
Фуллтайм не конвертируется в почасовую работу. Как минимум прибавь 40% налогов, которые ты будешь платить (или не платить) сам. Затем учти отсутствие отпуска и больничных. Короче, 1200 проси но тебе не дадут
Аноним 21/10/18 Вск 14:46:28  1282192
>>1282174
cs231n
Аноним 21/10/18 Вск 14:47:21  1282193
>>1282188
Я если честно, не знаю. Ну, а что плохо что-ли? Веб-макакам вон по 150-200 платят за хуй пойми что. Неплохая вроде зп для джуна.
Аноним 21/10/18 Вск 14:49:32  1282194
>>1282187
А на кого ещё это спихнуть? Я видел несколько таких вакансий
Аноним 21/10/18 Вск 14:55:20  1282195
>>1282194
На специальных людей, возможно на удаленке. Я студентов в воркаче находил, а в идеале я бы нанял РСП, которая с такой непыльной работы хуй уйдет куда. 40к вполне норм.
В любом случае наличие говновакансий в стиле "повар-унитазочист" не опровергает того, что человек с обязанностями повара должен получать больше, и что бежать от таких говновакансий нужно сразу, как только ты такую увидел.
Аноним 21/10/18 Вск 14:57:56  1282198
>>1282173
>Ты ведь осознаёшь, что твой восторг довольно быстро пройдёт, и ты поймёшь, что это такая же рутинная область, как и другие?
Осознаю. Но я нахожу эту сферу в целом более полезной обществу, чем, например, очередное бизнес деливери говно, которое декомиснется внутри компании через 2 года.
Аноним 21/10/18 Вск 14:58:51  1282200
>>1282173
>во-вторых, особо интереса для более-менее нормального спеца делать очередную распознавалку-детехтор нет
Нихуя у тебя ЧСВ, математик чтоли? Я не видел ни одной приемлемой распознавалки-детектора, помню распознавание деталюшек на транспортерной ленте была практически нерешаемой задачей. Хуйня этот ваш дипленинх.
Аноним 21/10/18 Вск 14:59:41  1282202
>>1282200
Шизик, съеби уже
Аноним 21/10/18 Вск 15:00:46  1282204
>>1282195
>я бы нанял РСП
Еще и ее пихвоид можно полизать.
Аноним 21/10/18 Вск 15:00:58  1282205
>>1282173
>особо интереса для более-менее нормального спеца делать очередную распознавалку-детехтор нет, а направление куда копать ему указали
Научились писать скрипты в десять строчек на питоне, и кичитесь своими знаниями, хуже байтоебов
Аноним 21/10/18 Вск 15:01:37  1282206
>>1282205
ТЫЖПРОГРАММИСТ
Аноним 21/10/18 Вск 15:01:58  1282207
>>1282202
Мне кажется ты только по книгам о машобе знаешь, правда?
Аноним 21/10/18 Вск 15:02:41  1282208
>>1282207
Шизик, перестань разговаривать с глюками в своей голове
Аноним 21/10/18 Вск 15:03:28  1282209
153979603927609[...].jpg (264Кб, 700x863)
>>1282208
Матиматику ниприятно
Аноним 21/10/18 Вск 15:06:04  1282211
>>1282200
Что тебе нужно-то? Распознавать объекты? Кури компьютерное зрение, real-time object detection. Tenserflow/opencv/yolo/keras в помощь. Не забудь прихватить нормальную видеокарту. Инфы на англ. источниках более чем достаточно.
Аноним 21/10/18 Вск 15:06:54  1282212
>>1282190
>>1282193
Не, я не просить. Я наоборот хочу наблатыканного вкатывальщика нанять часов на 10 для простой псевдонаучной псевдозадачи. Я знаю таких парней в ВУЗике, парни шарят, но не работают в машинном обучении, просто учатся. Хочу примерно представить сколько это может стоить. До тогда как обсужу с кем-нибудь из них цену, если они согласятся.
Аноним 21/10/18 Вск 15:06:59  1282213
>>1282198
>>Ты ведь осознаёшь, что твой восторг довольно быстро пройдёт, и ты поймёшь, что это такая же рутинная область, как и другие?
>Осознаю.
Зря ты ему поверил. Машоб намного менее рутинный, чем простой кодинг. Просто потому что тебе всегда есть, что автоматизировать, а полную рутину можно спихнуть кому-то неквалифицированному.
Фактически, как только твоя работа превращается в рутину, она начинает делаться автоматически - типа подбора гиперпараметров, который ты сначала пилишь руками, а потом открываешь для себя байесовскую оптимизацию.
С кодингом так не получится. Еще хуже с этим делом в инженернии, где тебе чертить нужно.
Аноним 21/10/18 Вск 15:07:28  1282214
>>1282205
Так все тру-прогеры - байтоебы. Веб-макака, ты?
Аноним 21/10/18 Вск 15:08:57  1282215
>>1282212
Лол, так бы сразу и сказал. Студентов можно наебывать как хочешь, особенно когда ты их нашел, а не они тебя. 500 в час это даже многовато, можно на 300 остановиться.
Аноним 21/10/18 Вск 15:09:46  1282217
>>1282213
>менее рутинный
Сколько статей в неделю читаешь?
Аноним 21/10/18 Вск 15:10:06  1282218
>>1282212
Другое дело, студент может и за еду работать на энтузиазме, ну это уж как повезет.
Аноним 21/10/18 Вск 15:11:21  1282219
153978788711127[...].jpg (64Кб, 511x409)
>>1282211
>Tenserflow/opencv/yolo/keras в помощь
А ты смешной, это говно не работает, совсем-совсем. Хотя круг от треугольника через неделю обучения отличить сможет, да.
Аноним 21/10/18 Вск 15:12:25  1282220
>>1282219
Шизик, мы поняли твою позицию, можешь съебать, тебе здесь не рады
Аноним 21/10/18 Вск 15:12:55  1282221
>>1282213
> Еще хуже с этим делом в инженернии, где тебе чертить нужно.
Я мимопроходил. Я в ранней молодости, пока учился в ВУЗике работал на заводе и чертил чертежи. Все время туда сюда ногами ходишь, спрашиваешь, а как тут начертить, а как тут? Потому что это как понятия. Неписанный закон как чертить. А понятия - неписанные законы знают только те, кто понятия имеет. Идешь к авторитету, который знает понятия. И он говорит вот здесь так черти, вот тут так.
Все время надо было куда-то ходить к разным авторитетам, которые знают как разрулить твою задачу и попутно навешивают еще задачи.

Я в той юности был молодой и красивый. На Джастина Бибера был похож. Я когда увольнялся, то там одна тяночка, которая была несколько старше чем я, сильно расстроилась, она, наверное, думала, что я там надолго и найду ключ к лизанию ее пипирки. А я - дурак, думал, что я молодой и перспективный, найду работу лучше, чем на этом умирающем заводе.
Аноним 21/10/18 Вск 15:13:38  1282222
>>1282212
>из них цену, если они согласятся
Просто если они смогут использовать эту работу как диплом или еще как, то можно и бесплатно. Детей обманывать не тяжело.
Аноним 21/10/18 Вск 15:14:40  1282223
>>1282215
>>1282218
Ну они работающие студенты. Реакт, пхп, все дела. Наверное, нормально заплатить надо. Просто я тут узнать хотел, сколько денег заготовить надо. Перед тем как их спросить, чтобы опорное число в голове было.
Аноним 21/10/18 Вск 15:15:09  1282224
>>1282220
>мы
Ты и твоя мамка?
Аноним 21/10/18 Вск 15:15:18  1282225
>>1282223
1.5-2х их текущей часовой ставки.
Аноним 21/10/18 Вск 15:15:54  1282226
>>1282222
Я омеган, я не умею обманывать. Нет, вся псевдонаучная теория уходит мне, к ним в дипломы не пойдет.
Аноним 21/10/18 Вск 15:16:24  1282227
>>1282223
10к за проект, доя студента очень норм.
Аноним 21/10/18 Вск 15:17:20  1282228
>>1282226
>псевдонаучная теория уходит мне, к ним в дипломы не пойдет.
А вот здесь тебя можно и наебать. Как ты предотвратишь утечку?
Аноним 21/10/18 Вск 15:19:40  1282229
>>1282217
Какой-то ебанутый пассивно-агрессивный вопрос. Ты сказать-то что хотел?
Аноним 21/10/18 Вск 15:20:39  1282230
>>1282228
> Как ты предотвратишь утечку?
Никак. Имел ввиду, что просто деньги заплачу. А отдавать результаты в дипломы не планирую. Типа так договорюсь на словах.
Аноним 21/10/18 Вск 15:21:51  1282232
image.png (417Кб, 394x394)
>>1282229
Я заебался
Аноним 21/10/18 Вск 15:23:18  1282233
vreti.jpg (213Кб, 960x760)
>>1282200
>Я не видел
>помню была
>Хуйня этот ваш дипленинх
Аноним 21/10/18 Вск 15:24:14  1282235
>>1282230
А почему дадничаешь? Заплати пол суммы и разреши использовать в дипломе. Всем будет хорошо.
Аноним 21/10/18 Вск 15:24:59  1282237
>>1282205
>писать скрипты в десять строчек на питоне
Деньги мне плати сначала, пидор.
Аноним 21/10/18 Вск 15:26:22  1282239
>>1282235
Потому что эта псевдонаучная фигня пойдет в сорт оф диплом мне. Как-то не айс будет, что все будут использовать в диплом одно и тоже. К тому же там ебаный стыд, они себе получше найду задачу.
Аноним 21/10/18 Вск 15:27:46  1282240
153841226813143[...].jpg (141Кб, 700x463)
>>1282233
https://youtu.be/_1MHGUC_BzQ

Вот это максимальный максимум.
Аноним 21/10/18 Вск 15:35:21  1282244
>>1282240
Не фейк? Фреймрейт низкий же, очень. Я думаю у теслы повкуснее начинка должна быть.
Аноним 21/10/18 Вск 15:38:06  1282245
>>1282244
Причем теслы хуеслы, если сам кампутервижен на дне?
Аноним 21/10/18 Вск 15:40:33  1282247
>>1282245
Ну у нас же в оборонке нормально делают
Аноним 21/10/18 Вск 15:42:49  1282248
>>1282245
Это дно по-твоему? Очень даже ничего, главное что работает.

>>1282247
У нас в оборонке вообще ничего не делают. Кукареки про камеры в ДС/ДС2 - пиздеж.
Аноним 21/10/18 Вск 15:43:35  1282249
>>1282248
Это местный шизик, у него все дно, что не терминатор из голливудских фильмов, а машоб свернул не в ту сторону в 1957 году
Аноним 21/10/18 Вск 15:45:59  1282250
При этом о дипленинге у него представления на уровне мемасиков из ленты вконтактика
Аноним 21/10/18 Вск 15:48:13  1282251
>>1282232
Мало читаю. Смысл? По моей теме выходит не так много статей, а пытаться объять всё не вижу смысла. Ближайший год я точно не буду заниматься каким-нибудь машинным переводом, ну и нахуя мне все эти RNN.
Только когда у меня есть конкретная тема, я читаю по ней все доступные статьи, и их, как правило, около пары десятков. Читаю абстракт-результаты (секунд за 30), узнаю, что на 0.1% улучшен state of art двухлетней давности, который делается в 10 строчек на керасе, забиваю.
Гораздо важнее гитхабы чекать с опенсорсными реализациями. Вот это заебывает, да, знать 100500 фреймворков и их особенности, чтобы прочекать, как оно будет работать на моем датасете.
Самая подстава, когда в результатах статьи утверждаются какие-то чудеса, а на гитхабе нет реализации, и ты вынужден пилить ее сам. И шансов на успех мало, и гемора куча. Вот это заебывает - когда потратил неделю на статью, которая делает совсем не то, что заявляется, и ты не знаешь, то ли статья говно, то ли ты что-то не учел. Поэтому я стараюсь без опенсорсной имплементации вообще статьи не читать - здоровье дороже.
Аноним 21/10/18 Вск 15:48:25  1282252
Кстати, а почему автопилоты пытаются запилить на чистом компутер вижине? Почему бы не чипировать машины для лучшего детектирования софтом? Например тогда можно будет сосредоточится на распознавании живых существ и местности в целом.
Аноним 21/10/18 Вск 15:48:43  1282253
>>1282248
Медленно и неточно. Говно короче.
Аноним 21/10/18 Вск 15:49:45  1282255
>>1282248
>У нас в оборонке вообще ничего не делают
Тебе-то откуда знать, петух?
Аноним 21/10/18 Вск 15:50:59  1282256
>>1282252
Там не чистый, там куча датчиков и еще карта есть. Типа робопидарантелей из бостонсдинамикс.
Аноним 21/10/18 Вск 15:54:08  1282261
>>1282256
Это понятно, я имею ввиду, ввести зондирование вообще всех машин. Чтобы датчики сигнализировали друг-другу. Это же вообще йоба будет.

Аноним 21/10/18 Вск 15:58:22  1282263
>>1282261
А потом на дороге появляется дядя Вася из колхоза и всем пизда. При том, что машину детектировать не очень сложно. То есть ты потратишь кучу денег на одну из самых легких задач.
Аноним 21/10/18 Вск 16:00:20  1282265
>>1282252
>Кстати, а почему автопилоты пытаются запилить на чистом компутер вижине?
Потому что это очень дешево. Так-то лучшее, что нужно для автопилота - лидар и немного вижна для знаков, поворотников, и прочей поеботы, но лидары очень дорого стоят (хотя наверное могут и дешевле при растущем спросе - хули там, лазер и детектор).
Аноним 21/10/18 Вск 16:00:37  1282266
А какие вообще сейчас возможности у нейроночек и компьютерного зрения? Легко ли забабахать детект каких-нибудь помидоров на кластере?
Аноним 21/10/18 Вск 16:02:22  1282269
Здравствуйте, подскажите, пожалуйста, фреймворки для нейронных сетей, которые поддерживают ускорение на GPU. Чтобы можно было на Google Colaboratory узреть ускорение.

Я тупой и так и не понял Keras поддерживает или нет ускорение на GPU? Или Keras без тензорфлоу бэкенда так не может?
Аноним 21/10/18 Вск 16:03:42  1282270
>>1282266
При наличии достаточно большого датасета можно добиться точности, выше человеческой. Соответственно делаешь примерно 10000 фоточек помидоров, нанимаешь в воркаче в толока-треде раба, который тебе это разметит, далее берешь сетку, могующую в object detection с гитхаба, обучаешь. В общем-то и все.
Аноним 21/10/18 Вск 16:05:16  1282272
>>1282270
Круто, спасибо. А сколько займет обучение на размеченном датасете? Возможно ли горизонтальное масштабирование?
Аноним 21/10/18 Вск 16:07:24  1282274
>>1282263
Так причем тут дядя Вася? Я имею ввиду, как дополнительную меру въебать в машину френдли чип, который будет сигнализировать софту на другой машине данные: координаты, точную скорость и прочее. Компутер вижн же не может точно определить расстояние, скорость и прочие хр-ки. Например чип в машинах полиции/скорой помощи будет сигнализировать об их важности и давать какой-то приоритет на дороге итп. Конечно для такого еще рано, но думаю, что будущие автопилоты должны обязательно иметь средства для взаимодействия друг с другом.
Аноним 21/10/18 Вск 16:09:11  1282276
>>1282274
Ты чего сказать-то хотел?
Аноним 21/10/18 Вск 16:09:46  1282278
>>1282269
>Keras без тензорфлоу бэкенда так не может
This. Накатывай тенсерфлоу.
Аноним 21/10/18 Вск 16:10:17  1282280
Как правильно скомбинировать классический машинлёрнинг с задизайненными фичами, которые вроде как можно выделить но которых явно недостаточно, и RE чтобы из них новые фичи вывести?
Аноним 21/10/18 Вск 16:10:41  1282281
>>1282280
>RL
Аноним 21/10/18 Вск 16:12:56  1282283
>>1282274
При том, что рассчитывать автопилот нужно на то, что на дороге будет дядя Вася. Даже если со временем будет стандарт на взаимодействие между компьютерными ИИ, дяди Васи никуда не денутся.
Аноним 21/10/18 Вск 16:13:14  1282284
>>1282276
Возмущаюсь почему нет обсуждения этой проблемы. Например: 2 машины на автопилотах встретились лоб в лоб и остановились, обе не едут, потому что видят перед собой другую машину. Без взаимодействия проблема не решается.
Аноним 21/10/18 Вск 16:14:21  1282285
>>1282272
От нескольких часов до недели. Не принципиально на самом деле, больше времени потеряешь на настройку гиперпараметров
Аноним 21/10/18 Вск 16:17:17  1282289
>>1282283
Дядя Вася человек или что ты имеешь ввиду? Так он будет компутер вижином обрабатываться и как раз зондирование поможет сделать основной акцент на детектировании живых существ. Я же писал выше. Я не предлагаю полностью отказаться от компутер вижина, а предлагаю использовать гибридные технологии, которые будут взаимодействовать друг с другом.
Аноним 21/10/18 Вск 16:21:30  1282296
>>1282289
Дядя Вася - владелец машины без твоего чипа
Аноним 21/10/18 Вск 16:26:28  1282299
>>1282278
Спасибо большое.
Аноним 21/10/18 Вск 16:28:07  1282300
>>1282289
Блокчайн трафик, гыгы
Аноним 21/10/18 Вск 16:33:28  1282305
>>1282296
В моем представлении зондирование обязательная мера. Если уж такой индивид появился, то опять же, компутер вижин его обрабатывает, но без учета точных хр-к. + вызывает полицию и сообщает о нарушение, ведь зондирование, обязательно!.
Аноним 21/10/18 Вск 16:34:09  1282307
>>1282305
Подскажи ротенбергу такое. Без шуток.
Аноним 21/10/18 Вск 16:35:20  1282308
>>1282305
>ведь зондирование, обязательно!
Лейтенант Пучков, сегодня вечером заходите за повышением.
Аноним 21/10/18 Вск 16:37:58  1282310
>>1282307
вротанберу
Аноним 21/10/18 Вск 16:44:23  1282311
>>1282308
Они не будут подключены к какой-то глобальной сети тогда мамины хакеры и фбр начнут ахуевать, а будут сканировать пространство вокруг себя на наличие данных.
Аноним 21/10/18 Вск 17:01:58  1282321
Предлагаю вставлять зонды в жопы математикам, чтобы можно было их детектировать на улице.
Аноним 21/10/18 Вск 17:09:00  1282325
>>1282321
Все кто может посчитать 1+1 это математики?
Аноним 21/10/18 Вск 17:22:34  1282330
Пиздец, поступил на пми, думал, что тут будет машоб, а на деле какая-то хуита: матан, дискран, алгебра и тч, геометрия и топология. Ботаю до усрачки, еле успеваю. Статистика будет аж на 3 курсе, да и то, про датасаенс там нихуя не будет скорее всего.
И что теперь с этим всем делать? Пытаться начать делать что-то самому?
Аноним 21/10/18 Вск 17:24:05  1282331
>>1282330
Да
Аноним 21/10/18 Вск 17:25:10  1282332
>>1282325
Да
Аноним 21/10/18 Вск 17:28:40  1282334
>>1282330
Бля то что ты перечислил это капец. Успеешь наверно только содержание за три когда по каждому направлению прочитать.
Аноним 21/10/18 Вск 17:31:28  1282336
>>1282334
>Успеешь наверно только содержание за три когда по каждому направлению прочитать.
Ну конкретно в моем месте ебут довольно сильно, поэтому приходится подробно изучать все это. Но там потом статистика пойдет, я вот думаю, можно ли как-то ее применить в машобе?
Аноним 21/10/18 Вск 17:35:45  1282341
>>1282330
А ты думал тебя на 1 курсе научат нейроночки деплоить? Пиздец необучаемые, зачем вы лезите в эту универопарашу в 2018 году? Даже курсы на всяких гикбрейнс информативней.
Аноним 21/10/18 Вск 17:38:42  1282342
>>1282330
Терпеть. Не служил не мужик и все такое.
Аноним 21/10/18 Вск 17:40:21  1282343
>>1282330
Куда поступил?
Аноним 21/10/18 Вск 17:44:15  1282344
>>1282341
>зачем вы лезите в эту универопарашу в 2018 году?
хуй знает, отсрочка от армии и способ съебаться из мухосрани и от мамки
ну и математика всегда немного интересовала
не скажу, что мне сейчас хуево и неитересно, просто тяжело немножко
>>1282343
мм спбгу
Аноним 21/10/18 Вск 17:45:40  1282347
>>1282344
>мм
О, в пунке сейчас? Го читать статьи и в попчанский няшиться.
Аноним 21/10/18 Вск 19:10:23  1282395
>>1282336
> Но там потом статистика пойдет, я вот думаю, можно ли как-то ее применить в машобе?
Машоб и есть статистика, считай.
Аноним 21/10/18 Вск 19:16:59  1282398
>>1282395
Это так статистики думают.
Аноним 21/10/18 Вск 19:27:49  1282401
>>1282398
А что тогда машоб на самом деле?
Аноним 21/10/18 Вск 19:34:39  1282405
нейрночки на жс кто-нибудь пробовал?
Аноним 21/10/18 Вск 19:41:40  1282410
>>1282401
На самом деле химера, слепленная из статистики, комбинаторики и методов оптимизации.
Аноним 21/10/18 Вск 23:04:47  1282497
>>1282410
А в чем тайна, почему эта химера не хочет работать?
Аноним 22/10/18 Пнд 06:19:32  1282553
>>1282395
>статистика
Надоело слышать статистику смертей. Во всем виноваты вы, злые языки. Злые языки, сука.
Аноним 22/10/18 Пнд 07:47:32  1282564
>>1282497
Работает, но хреново
Аноним 22/10/18 Пнд 09:51:01  1282581
>>1282213
в обычном софтевейа инжиниринг никогда не работал, но мне лично больше нравится просто аутировать и писать скрипты, чем решать машобские задачи
Аноним 22/10/18 Пнд 16:39:29  1282735
153847834212001[...].jpg (50Кб, 807x420)
>>1282564
>Работает, но хреново
Есть предположения, почему это так?
Аноним 22/10/18 Пнд 17:19:48  1282763
>>1282497
Почему не работает-то? Работает.
Аноним 22/10/18 Пнд 17:24:49  1282766
ML.jpg (82Кб, 700x697)
Аноним 22/10/18 Пнд 17:28:39  1282771
>>1282763
Где оно работает?
Аноним 22/10/18 Пнд 18:05:41  1282800
>>1282766
в машобе такие же зарплаты, что и у обычных разработчиков. Что в рашке, что в Microsoft. И машоб в любой компании идет бонусом к знаниям-cs. Так что стив мейн - просто обиженка.

Поговорил со скриншотом твиттера
Аноним 22/10/18 Пнд 18:15:54  1282809
>>1282735
>Есть предположения, почему это так?
Есть. Алгоритмы обучения хреновые.
Аноним 22/10/18 Пнд 18:18:50  1282815
>>1282809
>Алгоритмы обучения хреновые.
Почему их не пидорнули и не запилили новые? Слишком много PhD в этом замешано?
Аноним 22/10/18 Пнд 18:28:26  1282818
>>1282735
Потому что https://en.wikipedia.org/wiki/AI_effect
ML работает неебически охуенно, просто всегда будут пидорахи с когнитивными искажениями, которые будут ныть о том, что это все не то
Аноним 22/10/18 Пнд 18:33:36  1282819
>>1282818
>работает неебически охуенно
https://primer.ai/blog/Russian-Natural-Language-Processing
Аноним 22/10/18 Пнд 18:35:10  1282822
>>1282818
Простая флексия незнакомая англопидарахам подила на ноль весь их йобааи
Аноним 22/10/18 Пнд 18:35:51  1282823
15399311211460.jpg (60Кб, 700x734)
>>1282766
> фотка
Сойбой!
Аноним 22/10/18 Пнд 18:36:53  1282824
>>1282819>>1282822
Вот собственно пример таких пидорах
Аноним 22/10/18 Пнд 18:39:10  1282827
>>1282824
Тебе по ссылке скинули реальную проблему, а ты продолжаешь вертеть попкой.
Аноним 22/10/18 Пнд 18:42:05  1282828
>>1282827
Как твоя ссылка опровергает мои слова?
Аноним 22/10/18 Пнд 18:42:45  1282829
>>1282823
>Бородатый мужик в очках
>РЯЯЯЯ СОЙБОЙ МАААМ СМОТРИИ КАКОЙ МЕМАСИК КЛЕВЫЙ
Аноним 22/10/18 Пнд 18:43:25  1282830
>>1281304
>> все остальные программисты очень скоро станут не нужны

Что натолкнуло тебя на эту мысль?
Ты же понимаешь, что если "нейроночки" разовьют до того, что они смогут писать бизнес код, то они смогут делать и многое другое, и тогда все по сути станут не нужны (кроме гей-пидаров, конечно)
Аноним 22/10/18 Пнд 18:48:55  1282834
>>1282815
>Почему их не пидорнули и не запилили новые?
Не могут. Естественного интеллекта не хватает.
Аноним 22/10/18 Пнд 18:49:55  1282835
>>1282198

Никого не слушай, братан, вкатывайся. Сам сейчас стараюсь вырвать момент на заебавшей бизнес-параше с перекладыванием одних скриптов на другие чтобы посмотреть кусочек курса по диплёрнинху
Аноним 22/10/18 Пнд 18:52:26  1282836
>>1282834
>Естественного интеллекта не хватает.
Ну они же могут сказать "стоп, мы обосрались, возвращаемся"? Или это как в физике, релятивисты начинают городить ебаную поебень, лишь бы не признать наличие эфира?
Аноним 22/10/18 Пнд 18:54:09  1282838
>>1282828
А как ML работает неебически охуенно относится к теме по ссылке?
Аноним 22/10/18 Пнд 18:55:01  1282839
>>1282836
> Или это как в физике, релятивисты начинают городить ебаную поебень, лишь бы не признать наличие эфира?
Воу. Так антиэмельщик еще и кефирщик. Впрочем, неудивительно.
Аноним 22/10/18 Пнд 18:55:20  1282840
>>1282497
Шизик, как же ты заебал
Аноним 22/10/18 Пнд 18:57:45  1282844
>>1282838
То, что всегда найдутся шизики, у которых "так, эту проблему решили, но это НЕНАСТОЯЩАЯ ПРОБЛЕМА. Ой, и эту проблему решили? Ща... А, это тоже ненастоящая проблема. Ой, и эту проблему решили? Ща... А, это тоже ненастоящая проблема. Ой, и эту проблему решили? Ща... А, это тоже ненастоящая проблема. Ой, и эту проблему решили? Ща... А, это тоже ненастоящая проблема"
И так далее. Типичный AI effect.
Аноним 22/10/18 Пнд 19:05:37  1282847
>>1282839
>Впрочем, неудивительно.
За эл. заряд пояснишь, ну или за скорость распросстранения гравитации?
>>1282844
>проблему решили
Ты до сих пор не показываешь, какую такую проблему вы уже ришили?
Аноним 22/10/18 Пнд 19:06:41  1282848
>>1282847
>уже ришили
З.ы. окучивание лохов курсами несчитово, ага
Аноним 22/10/18 Пнд 19:06:41  1282849
>>1282847
>Ты до сих пор не показываешь, какую такую проблему вы уже ришили?
Потому что шизика можно только обоссать, очевидно же. Чем скорее ты съебешь из этого треда, чем лучше.
Аноним 22/10/18 Пнд 19:08:14  1282851
>>1282849
Тагда я буду здесь срать и угорать над окукленными лошками, сколько посчитаю нужным.
Аноним 22/10/18 Пнд 19:10:57  1282856
>>1282851
Ой блядь испугал. Сколько вас таких шизиков было, от золотца с его "покажи мне бесконечность", до кефирщиков в /sci/. Борды таких привлекают - ведь сообщения анонимные и можно прикинуться человеком ради небольшого внимания. До очередного детектирования.
Это просто момент гигиены, видишь шизика - обоссы его, чтобы нормальные люди отошли подальше от носителя вони.
Аноним 22/10/18 Пнд 19:14:25  1282859
>>1282856
Эко тебя бонбонуло, вот такие как ты и не могут признать свой обсер с подливой
Аноним 22/10/18 Пнд 19:16:26  1282862
>>1282859
>тебя бонбонуло
Ньюфажек
Аноним 22/10/18 Пнд 19:19:26  1282864
153538475015669[...].jpg (183Кб, 700x933)
>>1282862
Ребенок-теоретик
Аноним 22/10/18 Пнд 19:20:11  1282865
>>1282836
>"стоп, мы обосрались, возвращаемся"
Куда возвращаться? Машоб не в тупике, прогресс есть небольшой, нет понимания, куда двигать дальше.
>релятивисты начинают городить ебаную поебень
Ну в общем да, я тоже не считаю их теорию самой удачной.
Аноним 22/10/18 Пнд 19:25:52  1282870
>>1282865
>Куда возвращаться?
Разве альтернатив не было? Я вот за ЭС топлю, даже думаю, что факты можно автоматически генерировань на основе статистики.
Аноним 22/10/18 Пнд 19:31:47  1282873
>>1282870
>за ЭС
Так это частный случай нейроночки
Аноним 22/10/18 Пнд 19:35:53  1282874
>>1282865
>Машоб не в тупике, прогресс есть небольшой, нет понимания, куда двигать дальше.
Нихуя себе нет понимания. В других бы науках не было такого понимания.
Как ты вообще себе представляешь это понимание? Типа, сидят 20000 ученых, и у них есть понимание. Ну окей. Они, правда, нихуя не делают (если сделают, то понимания уже не будет), но хули, вот и сидят. Наука по определению работает с чем-то непонятным, иначе это не наука.

Что касается того, куда двигаться дальше - в one shot learning прежде всего. Потому что задачи, требующие больших датасетов - уже инженерия. И модные нынче ГАНы это как раз шаг в сторону one shot learning.
Аноним 22/10/18 Пнд 19:52:43  1282886
>>1282874
Ну понятно , что есть два пути - менять архитектуру, менять алгоритм обучения.
Менять архитектуру - как? Пробуют слои какие-то вставлять, и так и эдак, у кого-то получается иногда. Каждый китаец по разу ткнет, глядишь и получится что-то. Гугл перебором генерировал. Тоже сомнительный метод.
Алгоритм обучения - что с ним делать? backpropagation мусолят уже столько лет. То регуляризаторы покрутят, то лосс, то оптимизатор. Результат не сказать, чтобы радикально отличался. Как оно в мозгу обучается, кто знает?
one shot learning - это просто более высокий уровень. Прогнали через энкодер, запомнили фичи, проиндексировали - вот и все. Но перед этим нормальный энкодер нужно сделать, и тут возвращаемся к исходной проблеме.
Аноним 22/10/18 Пнд 19:59:54  1282892
154020744915968[...].jpg (44Кб, 700x533)
>>1282873
Почему? Ведь тем нет рендома, статистики, черного ящика, сплошная логика понятная даже ребенку.
Аноним 22/10/18 Пнд 20:12:44  1282909
>>1282892
Потому что ЭС это нейронка на ручном обучении. Рэндома, статистики, черного ящика нет, потому что ты её готовыми фичами кормишь.
А логика внутри всех нейронок есть.
Аноним 22/10/18 Пнд 20:18:06  1282917
>>1282909
> ЭС это нейронка на ручном обучении.
нет, там правила логического вывода, называемые продукцией, нейронками там и не пахнет.
Аноним 22/10/18 Пнд 20:24:04  1282925
>>1282917
значит ты не понял нейронки
Аноним 22/10/18 Пнд 20:28:08  1282928
trnacc.png (66Кб, 619x387)
adamwcharts.png (142Кб, 772x278)
>>1282886
>Менять архитектуру - как? Пробуют слои какие-то вставлять, и так и эдак, у кого-то получается иногда. Каждый китаец по разу ткнет, глядишь и получится что-то. Гугл перебором генерировал.
Ну, допустим, завтра изобретут какой-то революционный метод. Перформанс улучшится. Уже послезавтра ты начнешь ныть, что нихуя нового не изобретают. И так по кругу.
Тут претензии к китайцам, потому что вы долбоебы натуральные. Прикол IBN-Net же не в "0.2%" перформанса, а в том, что "When applying the trained networks to new domains, e.g. from GTA5 to Cityscapes, IBN-Net achieves comparable improvements as domain adaptation methods, even without using data from the target domain."
То есть чуваки решают ровно ту задачу, о которой тут принято плакаться, а именно, как обучать сетки без гигантских датасетов. А маньки видят 0.2% и все, маньякам ничего не интересно. Ведь они у мамы самые умные, а китайцы, хули, обезьяны, которые слепо тычутся и не видят, что МАЩИНЛЕНИНГ В ОПАСНОСТИ. ИДЕТ НЕ ТУДА. ЗАСТОЙ.

>Тоже сомнительный метод.
Сомнительный для кого? Практически вся наука, будь то разработки новых материалов, технологий и т. д. - это ровно такой метод. Был какой-нибудь кевлар, какой-нибудь китаец нашел способ получить кевлар немного прочнее и сэкономить, например, миллион долларов. За десятилетия копится прогресс - вроде бы айрбас похож на ил-86, однако на илах уже не летают - невыгодно.
Потому что время революций в большинстве наук прошло еще лет 100 назад. Нам повезло жить во время революции в ML (а до этого - железа, интернета и сотовой связи). Но рано или поздно она остановится. Но пока - нет. Пока лично я не успеваю имплементировать все то охуенное, что делается в сообществе. По сути моя сетка это год 2016 примерно.

>То регуляризаторы покрутят, то лосс, то оптимизатор.
>Результат не сказать, чтобы радикально отличался.
Ну нихуя себе. С дивана да, не отличается. А на практике ты обучешь сетку не 24 часа, а час, перейдя с SGD на какой-нибудь AdamW. Прогресс "всего лишь" в 24 раза. Но маньки скорее повесятся, чем признают, что где-то есть прогресс без их любимых.
Та же хуйня со способами инициализации. Грамотная инициализация из свежего пейпера может сократить мне время обучения на пару порядков. Но тебе, как маньке с дивана, этого видно не будет, потому что ты дрочишь только на циферки перформанса на попсовом датасете, шовинистически относишься к китайцам и являешься долбоебом и с других сторон.

>one shot learning - это просто
Ну раз просто, то вперед, пиши пейперы. Мне вот не просто.
Аноним 22/10/18 Пнд 20:59:54  1282947
>>1282925
>значит ты не понял нейронки
Я их и не понимал и не собираюсь, предпочитаю заниматься тем, что работает. Но полагаю, ты хочешь сказать, что нейронки это статистические выведенные правила? Если так, то опять к ЭС это не относится.
Аноним 22/10/18 Пнд 21:01:14  1282948
>>1282947
>предпочитаю заниматься тем, что работает
Чем?
Аноним 22/10/18 Пнд 21:07:01  1282955
>>1282948
ЭС
Аноним 22/10/18 Пнд 21:16:49  1282964
>>1281076 (OP)
нейронки знатный тригер для швабропидарах
Аноним 22/10/18 Пнд 21:18:15  1282966
Можно нейрончиками обмазаться, если я знаю лишь язык C ?
Аноним 22/10/18 Пнд 21:35:22  1282974
>>1282955
Ну и как успехи?
Аноним 22/10/18 Пнд 21:35:47  1282976
>>1282928
Очевидно, у нас разные взгляды на научные открытия. Для меня это - физические законы, подтвержденные теории, закономерности, какие-то новые факты об устройстве мира. То, что дает понимание и новые знания. А не "мы сделали чо-то и улучшили на процент". Почему так, а не иначе? А как оно работает? Это оптимальный метод, или можно еще улучшить? А не повлияет ли этот метод негативно в других условиях? Может он имеет какие-то ограничения и недостатки? Нужно как макака, просто повторять, и не задавать вопросов?
Я согласен, что делать что-то надо, хотя бы рашить, и нужно делиться опытом. Дрочить на этот процент, выдавать его за его изобретение - твое право, но я не буду, я перфекционист с дивана, да.
Про китайцев и шовинизм вообще мимо, шутка была что их много, а так-то в каждом первом пейпере китайские фамилии. Они еще раньше людей ИИ сделают.
Аноним 22/10/18 Пнд 21:49:07  1282980
>>1282974
Очень хорошие, но я в области НЛП, там такой пиздец, что приходится велосипедить простейшие вещи, поскольку ученые-в говне моченые не хотят делится своими наработкамипидоры
Аноним 22/10/18 Пнд 21:49:36  1282981
>>1282980
Какую проблему решил?
Аноним 22/10/18 Пнд 21:55:57  1282984
>>1282981
Построение дерева зависимостей Теньера на основе ЭС показало свою состоятельность и простоту реализации.
Аноним 22/10/18 Пнд 21:56:55  1282985
>>1282984
Понятно, нихуя ты не решил.
Аноним 22/10/18 Пнд 21:58:13  1282988
>>1282985
Ну ОК, считай так.
Аноним 22/10/18 Пнд 22:22:52  1282998
>>1282976
>Очевидно, у нас разные взгляды на научные открытия.
Потому что ты потребитель, и взгляд у тебя сытого бюргера. Дайте мне все и сразу, как в седьмом классе было. И взгляды у тебя человека, который никогда банальной историей науки не интересовался.
Физические законы? Ок. Возьмем тяготение. Сначала Тихо Браге годами наблюдал за звездами, потом Кеплер вывел эмперические законы (вот оно так, а почему - хуй знает), потом Ньютон обобщил их до чего-то более-менее приемлемого.
И все это время существовал ты - сначала, пиздел, что Тихо Браге тупо проедает государственные харчи и вообще тупой лжеученый (много ли надо ума цифры записывать?), потом что Кеплер на самом деле нихуя не понимает и записал какую-то хуйню про площади секторов у эллипсов, а потом, что Ньютон, который свел все в элегантную формулу, виноват в том, что так и не объяснил, откуда берется гравитация, а значит вся его работа бесполезная хуйня, не то, что Библия, где все в первых нескольких абзацах написано (в атестическом настоящем вместо Библии - религия под названием "наука", со святыми учеными в прошлом и меркантильными пидарасами в настоящем, которые тупо проедают харчи, нихуя не понимают и вообще ни одной проблемы не решили).
И это еще более-менее хорошая история.
Вот есть наука химия, она в теории сводится к квантовой механике. Но
1. Химия была и до квантовой механики. То есть глубинных процессов не понимали, а химия была. И ты ныл о том, что химики сами не знают, что делают.
2. Решать химические задачи через квантовую механику - оверкилл, так никто не делает. То есть все знают, что оно должно получаться, но на самом деле никто не проверял, точное решение есть только для водорода, численные решения непомерно сложны. И ты до сих пор ноешь, что новые модели аккумуляторов медленно появляются. Хотя казалось бы - в отличие от ML, все нужные теории есть, бери и предсказывай без опытов, но оказывается, что теории настолько сложны, что натурные эксперименты проще.

>То, что дает понимание и новые знания. А не "мы сделали чо-то и улучшили на процент".
Так в пейпере написано очень много по этому поводу. Если ты этого не видишь, кто в этом виноват?
Вся мякотка в том, что люди думали, анализировали статистики разных слоев, и придумали, и ход их мыслей интереснее результата. А ты думаешь, что "Пробуют слои какие-то вставлять, и так и эдак, у кого-то получается иногда". Ну типа, не могут же люди быть не то, что умными, а умнее тебя. Точно рандомом тыкают, макаки эдакие, и вообще у них там заговор тупых.

>Дрочить на этот процент, выдавать его за его изобретение - твое право, но я не буду, я перфекционист с дивана, да.
Что значит - дрочить? У меня есть нейронка, которая делает свою работу лучше всех в мире и решает проблему, которая несколько лет назад считалась нерешаемой. Это несложно, благо революция случилась пару лет назад и сейчас ты просто берешь и адаптируешь подход к чему угодно, и он выстреливает. Если я попробую добавить их подход, возможно она станет еще лучше.
Аноним 22/10/18 Пнд 22:37:38  1283002
>>1282998
Бро, где работаешь, чьо пилишь?
Аноним 22/10/18 Пнд 22:41:09  1283005
>>1282998
> которая делает свою работу лучше всех в мире
кокую работу?
Аноним 23/10/18 Втр 05:12:37  1283123
15398824515452.jpg (223Кб, 1280x720)
>>1282829
>Бородатый мужик в очках
>РЯЯЯЯ СОЙБОЙ
Заебала эта мода среди ебланов. Каждый первый обмудок с пидарской бородкой и в очках. Я ни одного нормального человека не знаю с такой внешностью, пикрелейтед лук - 100% детектор долбаеба. Естественно, ни один учёный так выглядеть не может, я к этому веду.
Аноним 23/10/18 Втр 05:17:50  1283124
>>1283123
> с пидарской бородкой
Так это просто у него нормальная мужская борода еще не растет
Аноним 23/10/18 Втр 09:38:24  1283176
>>1283123
Все ученые бреются налысо и также напрочь сбривают усы и бороду.
Аноним 23/10/18 Втр 10:21:32  1283207
>>1283176
Может ещё тело бреют? Как порноактёры. Гей-порноактёры
Аноним 23/10/18 Втр 10:52:39  1283229
>>1282998
Так значит, я многого хочу? Возможно, что и так. Но сейчас такие благоприятные условия для науки - глобализация, информационная сеть. Это же не средние века, когда веками смотрели в трубу на звезды.
Я рад, что ты из этих пейперов видишь ход мыслей их авторов. Я вижу только введение, одну-две формулы с пространными объяснениями, сравнение метода с конкурентами, пару графиков и картинок, конклюжн, и всё. Одно из двух - либо я тупой, либо там никакой теории и анализа нет.
Часто бывает, что появляется новый метод, и старые тут же становятся неактуальными, про них все забывают. А ведь это тоже был чей-то труд, и когда-то считался открытием.
Я не умаляю заслуг ученых. Накопление информации для анализа - тоже наука, даже такая, как запись движения звезд, или смешивание говна с мочой в пробирке.
Но если машоб сейчас на уровне Тихо Браге в астрономии - это очень печально, так как это самое начало пути.
Аноним 23/10/18 Втр 10:58:57  1283233
>>1282836
>> эфир

Я надеюсь это такая толстота, пихводоёб?
Аноним 23/10/18 Втр 11:25:18  1283246
>>1282928

Невозможно что-то доказать шизику. Это из той же обоймы, которые в медицине будут доебывать: "А чёй-то вы рак ещё не вылечили? Ну подумаешь выживаемость повысили на 1% и риск заболевания на 5%, но не победили значит БЕСПОЛЕЗНЫМ говном занимаетесь, нет бы сразу всё ррррряяяя!"
Аноним 23/10/18 Втр 11:53:15  1283259
>>1283246
Вот не надо примазываться к медицине. У них там исследования стоимостью в миллиарды, и огромный накопленный опыт. А нейронки задрачивать может каждый китаец. Я год назад пробовал делать InstanceNormalization, вставлял куда придется, и даже что-то начало получаться, но я забил. Мне не хватило ума/настойчивости/везения, а кому-то хватило. Никакого бугурта по этому поводу не испытываю, но и наукой не считаю.
Аноним 23/10/18 Втр 11:58:08  1283263
>>1283259
>Мне не хватило ума/настойчивости/везения
> наукой не считаю

Теперь понятны корни обиды
Аноним 23/10/18 Втр 12:59:09  1283294
>>1282819
ты даже статью не смог прочитать, которую прикрепил.
> Some language models should not be blindly trained on input data without first taking all the nuances of the language into account.
Сначала лемматизируешь все с rnnmorph, затем на этом обучаешь fasttext, и будут нужные результаты, где леммы алкогольных напитков будут близки. Просто нельзя забивать гвозди одним и тем же микроскопом, не подкручивая параметров.
Аноним 23/10/18 Втр 13:03:22  1283298
>>1282984
abbyy уже сделали компрено, теперь везде применяется
Аноним 23/10/18 Втр 13:47:51  1283313
>>1283229
>Но сейчас такие благоприятные условия для науки - глобализация, информационная сеть
Это благоприятные условия для науки, а не для ученых. Все происходит очень быстро, быстрее, чем может переварить человек. Вообще ML это прежде всего отказ от долгой публикации к пользу препринтов на архиве. Например, пока эта статья https://ieeexplore.ieee.org/document/7444187 публиковались (где-то год), вышло несколько препринтов, которые сделали ее не очень полезной, например, они проспали ResNet.
Это немного демотивирует, как и то, что любая твоя идея скорее всего имплементирована и проверена кем-то. Просто по закону больших чисел. Но науке - заебись.
А ученому выгодно противоположное. Ему выгодно быть председателем какого-нибудь королевского общества, чтобы вокруг не было конкурентов, а он один сидел такой умный и красивый и работал годами над идеей не спеша.
Отсюда растет феномен лженауки - в науке большая конкуренция, значит я создам свою, настоящую науку со шлюхами и блекджеком.

>Одно из двух - либо я тупой, либо там никакой теории и анализа нет.
И из двух теорий
1. Ты - тупой, как минимум - недостаточно опытный
2. В мире имеется заговор, а именно сотни ученых пользуются незаслуженной славой, деньгами и т. д., а призаваемые ими результаты - не результаты.
Ты выбираешь второе. В ней ты умнее 99.9998% людей. Или честнее 99.9998% людей. Мм, и какова вероятность этого?

>Я вижу только введение, одну-две формулы с пространными объяснениями, сравнение метода с конкурентами, пару графиков и картинок, конклюжн, и всё.
Так любой пейпер устроен. Пейперы устроены одинаково, чтобы ты мог легко парсить их мозгом, так как их много, а тебя мало. Если точнее, мудаки, которым важно опубликоваться, а не создать знание, вместо пространных объяснений пишут просто пару формул и все, ебитесь как хотите. (и это не значит, что у мудаков нет результата). Но этот пейпер хороший, там разжевано все для самых тупых типа меня.
Главное там:
>IN provides visual and appearance invariance, while BN accelerates training and preserves discriminative features.
>IN is preferred in shallow layers to remove appearance variations, whereas its strength in deep layers should be reduced in order to maintain discrimination
>component of IBN-Net can be used to re-develop many recent deep architectures
То есть, как видно, за главное - это мысль, что IN нужно располагть повыше, а BN поглубже, потому что IN лучше регуляризует абстрактные фичи, а BN лучше maintain discrimination, ну а еще то, что это универсальный метод, а не просто подгон под конкретный датасет. Хорошая статья, хороший результат.
Аноним 23/10/18 Втр 13:54:11  1283315
>>1283229
>Но если машоб сейчас на уровне Тихо Браге в астрономии
ML сейчас на уровне Кеплера - есть эмпирические законы без хорошей подлежащей фундаментальной теории. Но законы при этом рабочие.
Но, в общем-то, когда ее найдут, будет как с химией, в которой открытие квантовой механики надобность в химии не отменила. Я уверен, что будут копать в сторону manifold hypothesis, изучат свойства этого самого многообразия, докажут, ну и заебись. Легче от этого не станет. Мы так и останемся химиками.
>это очень печально, так как это самое начало пути.
Это охуенно и мечта ученого. Печально - это поиски "теории всего" в физике.
Аноним 23/10/18 Втр 13:58:56  1283317
>>1283315
> ML сейчас на уровне Кеплера - есть эмпирические законы без хорошей подлежащей фундаментальной теории.
Есть теория, только сойбои в неё не могут, потому что сложно. Проще наебенить слоёв без понимания, нахуя все это.
Аноним 23/10/18 Втр 14:33:57  1283337
729486560d8e7b4[...].jpg (180Кб, 729x486)
>>1283123
>Каждый первый обмудок с пидарской бородкой и в очках.
Нет, чувак, пидорство - это бриться каждый день, еще большее пидорство - это ходить в барбершопы. А это самый непидорский лук, который можно придумать.
Нормальный человек по своей воле часто бриться не будет - от этого нихуя, кроме раздражения кожи, не получишь. Раньше общество было более тоталитарным, были корпоративные правила и требовалось соблюдать дресскод - костюм, галстук, выбритое лицо. Барбершопы еще более ебанутая вещь, для господ из 19 века, которым совершенно нехуй делать было.
Сейчас такого нет, люди одеваются в удобный и универсальный casual и имеют удобную растительность на лице. А очки - ну блядь, охуенная предъява вообще, ты чо, очкарик)))

Все нормальные белые мужчины так и выглядят. Не выглядят так азиаты или индусы, у которых борода просто не растет. Прикол в том, что это тестостерон как раз - ты мужик и у тебя растет борода, но нет, жирные школьники с форчана с гинекомастией выдумали каких-то сойбоев.

То, что они при этом выглядят как говно, а не как Клинт Иствуд, и нарушают твои эстетические чувства - ну так может ты и есть пидор, что тебя ебет, как выглядят мужики? Или ты любитель тоталитарного сапога в жопе, ходить строем и быть гладко выбритым? Короче, это с тобой что-то не так, если ты в принципе видишь в этом какую-то моду.
Аноним 23/10/18 Втр 15:06:44  1283355
0gL4oxd.jpg (148Кб, 994x745)
>>1283337
Сойбойство не во внешности, а в головах. Просто так завелось, что сойбои выбирают именно такую внешность - короткая стрижка/лысина, борода, очки.

Основная суть сойбойства - почитание навязанных обществом трендов. Что угодно, лишь бы не казаться аутсайдером. Нинтендо свитч, современные сериалы с нетфликса, использование ультрамодных джаваскрипт-фреймворков - настоящее сойбойство. Внешние признаки - большая вероятность того, что человек сойбой (потому что нормальные люди никогда не захотят быть спутанными с одним из них).
Аноним 23/10/18 Втр 15:12:37  1283359
изображение.png (1233Кб, 646x850)
изображение.png (2235Кб, 968x1200)
изображение.png (123Кб, 204x247)
изображение.png (1371Кб, 739x890)
>>1283355
>почитание навязанных обществом трендов

Имплаинг это не всегда было так .

По мне так уж лучше хипстеры,чем как чулочные трапы в 18 веке.
Аноним 23/10/18 Втр 15:16:10  1283363
изображение.png (1891Кб, 800x990)
изображение.png (2906Кб, 1000x1561)
>>1283355
>почитание навязанных обществом трендов

Имплаинг это не всегда было так .

В 18 веке было модным и обязательным у знати ходить как чулочный трап, с отпудернным лицом и в парике нопремер.
Аноним 23/10/18 Втр 15:17:49  1283364
image.png (214Кб, 350x350)
>>1283123
вербит? тысячи их
Аноним 23/10/18 Втр 15:19:02  1283365
>>1283363
>>1283359
И это тоже по меркам 18 века было плохо. Не нужно искать меньшее среди двух зол.
Аноним 23/10/18 Втр 15:21:02  1283366
>>1283259
читал несколько статей по медицине
Выглядят они еще хуже чем по машобу
описывают больного не слишком подробно говорят лечили вот этой хуйней и помогло
Ну это та парочка статей что я по своей болезни читал ясное дело что есть и лучше.
Аноним 23/10/18 Втр 15:49:18  1283378
Как с зп в отрасли?
Аноним 23/10/18 Втр 15:49:59  1283381
>>1283355
>Сойбойство не во внешности, а в головах
Ну кому ты пиздишь.
Вот поциент: https://twitter.com/smaine
Нинтендо свитч? Мимо. Современные сериалы с нетфликса? Мимо. Жаваскрипт фреймворки? Мимо.
Что остается. Борода блядь и очки. И уверенность, что у этого мужика борода и очки не потому что бриться лень, а в линзах за монитором сохнут глаза, а потому что "лишь бы не казаться аутсайдером".
>почитание навязанных обществом трендов
>нормальные люди никогда не захотят быть спутанными с одним из них
Вот это божественная ирония.
Общество: форчан, knowyourmeme и прочие места тусовок нитакихкакфсе школьников
навязывает тренд: не любить людей с бородой и очками, а за кривляние на камеру просто убивать
И ты ему следуешь. Но при этом ты считаешь, что это ты нормальный человек. Лалка, воистину кого Юпитер хочет погубить, того лишает разума.

Нормальные люди подобным не заморачиваются, нормальные люди не бреются, не стесняются очков, если у них плохое зрение, и, о ужас, могут купить себе свитч, ведь у каждого первого миллениала в детстве была NES или ее клон.
Аноним 23/10/18 Втр 15:53:36  1283385
Вы какого хрена тут развели, еблозавры? Обсуждение бород и прочей хуйни два блока вниз.
Аноним 23/10/18 Втр 16:06:53  1283395
>>1283366
В медицине все очень хуево с повторяемостью. Люди и их болезни более уникальны, чем один и тот же датасет.
Аноним 23/10/18 Втр 16:08:32  1283396
>>1283381
>И ты ему следуешь
Ай-яй-яй. Вот тут ты промахнулся. Не нужно вешать на меня ярлыки за то, что я описал, как выглядят и чем увлекается типичный сойбой. Я не принадлежу ни к одной социальной группе, но очень люблю их критиковать.

>нормальные люди не бреются
Нормальные люди что хотят, то и делают, а не слушаются анонов на дваче, дабы соответствовать определённому образу.

>не стесняются очков, если у них плохое зрение
Носить очки из-за плохого зрения - нормально. Носить очки без диоптрий, чтобы казаться умным, потому что это модно - долбоебизм.

>могут купить себе свитч
Не вижу вообще никакого смысла в покупке устройства, предназначенного только и исключительно для игр (если ты под эту платформу не собираешься ничего разра). Вернуть этим NES-детство всё равно не получится.
Аноним 23/10/18 Втр 16:44:40  1283410
Screenshot2018-[...].png (38Кб, 1213x587)
>>1283396
>Ай-яй-яй. Вот тут ты промахнулся
Нет. Если бы ты написал как выглядит сойбой, это одно (хотя сама по себе замороченность по их поиску уже о многом говорит). Но ты еще добавил: "потому что нормальные люди никогда не захотят быть спутанными с одним из них". А это уже диагноз.

>Я не принадлежу ни к одной социальной группе
Ха-ха-ха-ха.
Ты принадлежишь к социальной группе "озлобленный на весь мир анонимус" как минимум. И у этой группы тоже есть тренды. Пик релейтед.
А вообще ты пересечение разных социальных групп - от своей семьи и группы русскоязычных до научных фриков.

Все это вместе составляет некий многомерный вектор и это собственно позволяет не очень умным людям, подверженным когнитивным искажениям, доебываться, как они хотят. Можно найти тысячи параметров, по которым ты будешь совершенно средним представителем своей группы. А можно найти что-то уникальное у каждого. Как, собственно, озлобленные анонимусы и поступают, они берут один критерий, в котором они считают, что лучше других людей, и дальше ранжируют этих самых людей по этому критерию. Типа, мужик из Сиэтла с хорошим образованием и работой, неплохо устроившийся в жизни и живущий как хочет. Чем он хуже меня, живущего с мамкой в проперженном совковом интерьере нищука? А, у него пидорская бородка. И все - жизнь прекрасна, гиперплоскость проведена, ты на стороне классных пацанов, остальные - сойбои.

>Носить очки из-за плохого зрения - нормально. Носить очки без диоптрий, чтобы казаться умным, потому что это модно - долбоебизм.
На твоем пике у всех очки с диоптриями.

>Не вижу вообще никакого смысла в покупке устройства, предназначенного только и исключительно для игр
Это типичная позиция для людей из твоей социальной группы.
Аноним 23/10/18 Втр 16:49:45  1283415
Адепты нейроноговна скатились в защиту бородок, лол. >>1283229
Паперы пишут для того, чтобы со степухой и грантами не пидорнули, только долбоеб будет это бесполезное говно читать.
>>1283315
>в которой открытие квантовой механики надобность в химии не отменила
Химики шлют нахуй квантовую механику и топят за эфир
Аноним 23/10/18 Втр 16:59:02  1283417
>>1283415
Типичный представитель социальной группы "научные фрики".
Аноним 23/10/18 Втр 17:02:40  1283420
>>1283410

Приятно читать умного анона. Двачую.
Аноним 23/10/18 Втр 17:04:29  1283421
>>1283410
>Но ты еще добавил: "потому что нормальные люди никогда не захотят быть спутанными с одним из них". А это уже диагноз
А ты знаешь, почему они никогда не захотят? Или ты мыслишь лишь домыслами?

Я отвечу тебе, друг мой. Потому что судят по одёжке. Потому что в сознании людей бородка и очки == сойбой (и пост >>1282823 это подтверждает как нельзя кстати). Точно так же, как в сознании людей кепка и треники == гопник. Если ты своей внешностью похож хоть на какой-то стереотипный образ, то это нехорошо. Нужно любой ценой избегать собственного стереотипирования. Поэтому нормальные люди никогда не захотят быть спутанными с сойбоями. Если тебя спутали - значит, ты выглядишь стереотипно.

>Ты принадлежишь к социальной группе "озлобленный на весь мир анонимус" как минимум
Ммм, угу, угу, а с чего ты сделал такие выводы? Или же ты проецируешь? У меня есть работа и я люблю гулять - это отличает меня от группы "озлобленный анонимус". Всё, стрелочка больше не поворачивается, она сломалась.

>ты на стороне классных пацанов, остальные - сойбои
И опять ты оказался в ловушке проекций своего ограниченного мышления. Для тебя существует только две половинки мира, не так ли? Свои и чужие, классные пацаны и сойбои, на кого ещё у вас там модно делить мир? Всё так в твоём представлении, верно? И ты не можешь даже представить, что что-то может быть по-другому?

Видишь ли, быть на любой стороне - что "классных пацанов", что сойбоев, противно самой моей природе. Любая принятая сторона, на которой есть хоть ещё 1 человек, по определению вредна. Не так это работает. У меня всегда найдётся запас отличительных признаков от любой социальной группы, к какой бы ты ни пытался меня причислить.

>На твоем пике у всех очки с диоптриями
Что не значит, что люди так не делают из-за моды.

>Это типичная позиция для людей из твоей социальной группы
Ещё раз прочитай это - я не принадлежу ни к какой социальной группе. Нет такой вещи, как "моя социальная группа". Не нужно подгонять моё поведение под какие-то стандарты, а потом пытаться ожидать от меня чего-то в соответствии с этими стандартами.
Аноним 23/10/18 Втр 17:26:32  1283433
>>1283421
>Нужно любой ценой избегать собственного стереотипирования.
Можно, если хочешь напугать омегана, который ссыт гопника, то можно таки нацепить мохнатую кепочку восьмиклинку, нанести малобаром разовые татухи, сфотографироваться с пистолетом или с битой в руках, пригласить создать фон быдлоклассников, которые колоритно выглядят.
Аноним 23/10/18 Втр 17:28:48  1283435
>>1283421
Ясно, очередной нитакой как все. Эй, Мойдодыр, принимай пополнение.
Аноним 23/10/18 Втр 17:32:26  1283441
>>1283435
Видишь ли, я даже не такой, как другие нонконформисты. Так что даже тут ты ничего не сделаешь.

>>1283433
То, что ты делаешь это с определённой целью, отличает тебя от остальных гопников. И ты больше не стереотипирован.
Аноним 23/10/18 Втр 17:53:19  1283456
21.jpg (39Кб, 500x366)
Как искать статьи по теме? И как их быстро читать и понимать, что тут хорошо, а тут нет?
Аноним 23/10/18 Втр 17:54:48  1283458
>>1283456
Если есть пара-тройка имплементаций на гитхабе - то хорошо. Одна от автора - ну такое. Если нет - то, может хорошо, а может и нет. Не трать время.
А так arxiv-sanity это начальная точка. Ну и твиттеры-хуиттеры, реддиты и прочее говно.
Аноним 23/10/18 Втр 17:55:23  1283459
>>1283246
>Ну подумаешь выживаемость повысили на 1% и риск заболевания на 5%,
Ахахахахахаха, аж до слез
>>1283233
Нет конечно, глупо отрицать наличие эфира
>>1283294
>Сначала лемматизируешь все с rnnmorph
Ахахахахахаха, аж до слезповторюсь
Аноним 23/10/18 Втр 17:57:53  1283462
>>1283458
А если статьи старше гитхаба? Не нейроночками едиными же.
Аноним 23/10/18 Втр 17:58:33  1283464
>>1283462
если это что-то годное значит будет в книжке уже 99%
Аноним 23/10/18 Втр 17:59:39  1283465
>>1283462
Ничего ни читай, сэкономишь время с тем же результатом
Аноним 23/10/18 Втр 18:03:19  1283467
>>1283462
Тогда имплементация будет или на том же гитхабе (при чем тут возраст статьи вообще), в scipy, в матлабе (как в пользовательском файловом архиве, так и как часть тулбокса), в R, Mathematica или, в самом пиздецовом случае, на фортране каком-нибудь. И можно даже ранжировать по степени годности.
Вероятность того, что твоя статья никем в паблике не имплементирована и при этом годна крайне мала.
Аноним 23/10/18 Втр 18:08:15  1283471
>>1283421
>А ты знаешь, почему они никогда не захотят?
Конечно знаю.
>Я отвечу тебе, друг мой. Потому что судят по одёжке.
Yep. В этом и заключается мой диагноз - у тебя комплесы из разряда "что люди подумают".

>Если ты своей внешностью похож хоть на какой-то стереотипный образ, то это нехорошо
Почему?

>Ммм, угу, угу, а с чего ты сделал такие выводы? Или же ты проецируешь? У меня есть работа и я люблю гулять - это отличает меня от группы "озлобленный анонимус".

Вообще, не удивительно, что ты в ML не можешь. Ты даже посыл моего поста не понял. Я просто взял и препарировал тебя тем же методом, которым ты препарируешь других.

Фишка-то в чем. Сойбоев не существует. Потому что каждый из них может сказать "у меня всегда найдётся запас отличительных признаков от любой социальной группы, к какой бы ты ни пытался меня причислить". Равно как и не существует "озлобленных анонимусов". Ровно по той же причине. Каждый человек уникален, как уникальны его отпечатки пальцев. Однако социальные группы существуют. Как так получается? Ну, довольно просто - из уникальности человека не следует, что люди не кластеризуются. Даже в случае полностью равномерного распределения признаков люди находят паттерны - например, созвездия это поиск паттернов в достаточно равномерном 2д-распределении звезд. А у нас, естественно, распределение не равномерно.

Мы сначала кластеризуем людей, потом усредняем признаки, и дальше считаем норму между человеком и "средним человеком из данной социальной группы". Меньше какого-то порога - ярлык навешен. Поэтому то, что у тебя есть работа, не отрывает тебя от группы "озлобленный анонимус", потому что по совокупности других признаков ты являешься озлобленным анонимусом. Более того, это было бы крайне невероятным, если бы у тебя таких признаков не было. Я об этом писал выше - "Можно найти тысячи параметров, по которым ты будешь совершенно средним представителем своей группы. А можно найти что-то уникальное у каждого".

>И опять ты оказался в ловушке проекций своего ограниченного мышления.

Нет, я оказался в ловушке твоего ограниченного мышления.

>Ещё раз прочитай это - я не принадлежу ни к какой социальной группе.
Это будет решать социум, мой дорогой квир.
Аноним 23/10/18 Втр 18:18:47  1283483
>>1283355
>использование ультрамодных джаваскрипт-фреймворков

А можно мне их использовать если они рили помогают?
Аноним 23/10/18 Втр 18:27:45  1283491
>>1283471
>Yep. В этом и заключается мой диагноз - у тебя комплесы из разряда "что люди подумают"
М, нет. Люди - лишь индикатор того, что с тобой что-то не так. Но при этом индикатор довольно точный и очень глупо им не пользоваться.

>Почему?
Потому что чтобы прожить свою собственную жизнь, нужно, чтобы она была твоей собственной. Стереотипность образа - верный признак того, что твоя жизнь - не больше чем одна из готовых моделей.

>Вообще, не удивительно, что ты в ML не можешь
Это тот самый ML, который на картинке с гориллой находит барсука, если к картинке добавить совсем небольшой шум?

Вот оно, собственно - ты узник своей модной технологии и пытаешься подогнать весь мир под неё. Три года назад ты задрачивал облака, потом веб-фреймворки, а сейчас задрачиваешь ML. Ты не больше чем стереотипная пустышка. Таких, как ты - миллионы и все вы проживёте свою жизнь одинаково. И не важно даже, хорошо ли вы её проживёте или нет. Важно, что одинаково.

>Сойбоев не существует
>Равно как и не существует "озлобленных анонимусов"
Существуют. До тех пор, пока они подходят под определённые критерии и не стараются впоследствии их избегать, они существуют.

>Мы сначала кластеризуем людей, потом усредняем признаки, и дальше считаем норму между человеком и "средним человеком из данной социальной группы"
Тут вот в чём дело. Если всю жизнь мерить по ML, то можно подобрать абсолютно любой набор признаков, по которым любого человека можно причислить к любой группе. Просто меняя признаки и объём выборки. Понимаешь, к чему я клоню? Реальная жизнь сложнее твоей математической модели. Модель можно обмануть, жизнь - нет.

>Это будет решать социум, мой дорогой квир
Нет уж, это решаю я. Социум - это индикатор, он не может ничего решать.
Аноним 23/10/18 Втр 18:29:53  1283494
>>1283483
Можно. Делать вообще можно что угодно, главное - показать, что ты отличаешься от других, кто использует такой же фреймворк.
Аноним 23/10/18 Втр 19:15:03  1283516
объявляю официальный баттхерт из-за местных шизиков и увольняюсь из этого треда, ищите меня на реддите
Аноним 23/10/18 Втр 19:22:45  1283520
>>1283516
Тут постят несмешное.жпг
Аноним 23/10/18 Втр 19:23:54  1283521
153979603927609[...].jpg (264Кб, 700x863)
>>1283516
>ищите меня на реддите
Помойка уровня швабры
Аноним 23/10/18 Втр 19:47:23  1283539
>>1281076 (OP)
>>1281076 (OP)
Столкнулся с такой проблемой:
Предположим, что наша дата - это покупки в онлайн магазине.
Там много feature, в том числе город. Скорее всего, нордические воины не будут часто заказывать себе солнечные очки, а южане не купят ушанку.
Как поступить в этой ситуации? Можно разделить людей по областям и рассчитывать индивидуально, но тогда не будет учитываться общая картина. Можно выбросить из даты города вообще.

Или я чего-то не понимаю и проблемы тут нет - просто юзать деревья и оно там как-нибудь само..?
Аноним 23/10/18 Втр 19:52:25  1283544
>>1282156
Для бирж куча других методов есть.
но я сам толком не шарю
Аноним 23/10/18 Втр 20:01:51  1283555
>>1283539
>Или я чего-то не понимаю и проблемы тут нет - просто юзать деревья и оно там как-нибудь само..?
А то. Только просто город как фича не очень, можно добавить географические координаты хотя бы. А так в конкурсе от авито как только не изъебывались
Аноним 23/10/18 Втр 21:53:34  1283607
вечер в хату!
дано:
1. 30 лвл
2. вроде бы хорошо помню весь необходимый матан с универа
3. могу в питон
4. могу в простой английский (то есть в хорошо поставленную, не быструю речь)
5. непосредственно с нейронками и машобом дела ранее не имел
6. сложилась ситуация, что могу обучаться этому в рабочее время.

Ищу годных курсов или записей лекций по машрбу, дабы по пацанский разъяснили что да как. желательно на английском что бы и его подкачать. желательно с tensorflow и keras.

существуют такие?

на крайняк возможны русскоязычные курсы, тодько блджад без всякой воды и с нормальным преподом.
Аноним 24/10/18 Срд 00:12:54  1283643
>>1283607
>вечер в хату
>по пацанский разъяснили
Пиздос, тебя с тюрячки чтоли пидорнули?
Аноним 24/10/18 Срд 00:15:58  1283644
>>1283643
Ньюфажек не знает про мой воровач
Аноним 24/10/18 Срд 00:30:34  1283646
153850530811975[...].png (188Кб, 700x552)
>>1283644
Аноним 24/10/18 Срд 02:16:42  1283661
рис.jpeg (38Кб, 810x1080)
Хэлп. Не относится к маш об или нейронкам, но все же тема близка к компьютер вжену.
Препод в универе дал задачку.
Дано: фото риса рассыпного на столе
Требуется: Посчитать количество рисинок на фото
Проблема: Если на фото есть слипшиеся рисинки, я не знаю как посчитать их количество в этой слипшейся кучке.
Аноним 24/10/18 Срд 02:18:02  1283662
>>1283661
Помогите придумать алгоритм как разделить эти слипшиеся рисинки или просто оценить их количество в этой слипшейся кучке.
Аноним 24/10/18 Срд 02:55:39  1283665
>>1283662
на твоей фотке у них у всех примерно одинаковая площадь
можно попробовать количество рисинок в "комках" оценивать по ней
Аноним 24/10/18 Срд 03:31:33  1283669
>>1283661
Число белых пикселей делить на среднюю площадь
Аноним 24/10/18 Срд 16:30:30  1283859
как вам catboost от яндекса?
Аноним 24/10/18 Срд 16:48:01  1283865
image.png (276Кб, 500x387)
>>1283355
>Основная суть сойбойства - почитание навязанных обществом трендов

Ой блять. Сойбойство - это, в первую очередь, отсутствие маскулинности. Соя плохо влияет на тестестерон
Аноним 24/10/18 Срд 17:06:41  1283877
>>1283859
Как земля.
Аноним 24/10/18 Срд 17:54:07  1283895
>>1283865
Совок рухнул 30 лет назад, при чем тут социалисты и машинное обучение?
Аноним 24/10/18 Срд 18:50:50  1283914
>>1283895
Социализм это лучшее что придумало человечество, подрастешь может и поймешь
Аноним 24/10/18 Срд 19:48:34  1283933
>>1283865>>1283895
Средний двачер настолько тупой, что не понимает разницы между мемами soyboy и nu-male.
Аноним 24/10/18 Срд 20:09:11  1283941
>>1283933
Так обучи различать
Аноним 24/10/18 Срд 22:12:06  1284007
15403105465490.png (53Кб, 2051x1365)
Наркоманушки, этот тред про машоб или про сойбоев? Совсем вы ебнулись пидоров обсуждать. Лучше скажите, почему в NLP так не любят алгоритмы для работы с фразами? В том же fasttext'е выпилили word2phrase от оригинального word2vec. Кто-нибудь пробовал StarSpace? Вроде оно может в разные элементы текста, не только отдельные слова.
Аноним 24/10/18 Срд 22:54:53  1284015
>>1284007
Отлюбили уже, тот же статистический машинный перевод это как раз сплошные нграмы.
А нейронкам оно не заходит - скорее всего потому что слов мало, а их сочетаний - много.
Аноним 25/10/18 Чтв 00:07:37  1284034
>>1284007
>>1284015
ниработает? кто бы мог подумать, лол
Аноним 25/10/18 Чтв 00:11:30  1284036
В Яндекс-то берут? Я слышал "только ШАД", а в него хуй пройдешь, если олимпиадные задачи решать не умеешь.
Аноним 25/10/18 Чтв 00:15:27  1284037
>>1284036
>Яндекс
Туда никто в здравом уме не пойдет
Аноним 25/10/18 Чтв 00:17:03  1284038
>>1284037
Ребята из физтеха идут.
Аноним 25/10/18 Чтв 00:23:25  1284040
>>1284038
>Ребята
>дунята
такие обычно очень любят математику и ебать друг друга в жопы
Аноним 25/10/18 Чтв 01:11:30  1284053
>>1284040
Так говоришь как будто это что-то плохое
Аноним 25/10/18 Чтв 01:46:55  1284054
>>1283669
на среднюю площадь чего?
Аноним 25/10/18 Чтв 01:49:14  1284056
>>1283665
Тоже об этом думал. Скорее всего так и придется делать, но проблема в том что на фото все рисинки могут оказаться в комках.
Спасибо за ответ.
Аноним 25/10/18 Чтв 01:55:02  1284058
>>1284054
Рисинки
Аноним 25/10/18 Чтв 02:12:24  1284059
>>1284058
так я же ее не знаю
Аноним 25/10/18 Чтв 02:22:42  1284061
>>1284059
Так узнай
Аноним 25/10/18 Чтв 03:04:54  1284074
15400044479080.png (32Кб, 645x729)
>>1284015
> А нейронкам оно не заходит - скорее всего потому что слов мало, а их сочетаний - много.
Если бы ты знал что такое skipgram например, то знал бы и то, что оно работает только с теми сочетаниями, которые есть в анализируемой корпусе. Но это для тебя наверное слишком сложно, да? Сойбои проще.
>>1284034
> ниработает? кто бы мог подумать, лол
Голова-то твоя? А чему там работать, это ж кость.
Аноним 25/10/18 Чтв 03:43:37  1284085
>>1284074
Ой, да иди нахуй со своей токсичностью. Совсем охуел уже.
Аноним 25/10/18 Чтв 07:15:00  1284113
>>1283607
>2. вроде бы хорошо помню весь необходимый матан с универа
Докажи что пространство непрерывных функций на отрекзе [0,1] бексонечномерно.
Аноним 25/10/18 Чтв 09:09:10  1284127
Антоны, а нейронные сети используются для моделирования свойств материалов? Где можно почитать про это?
Аноним 25/10/18 Чтв 09:10:36  1284128
>>1284127
>для моделирования
Для моделирования и симуляции*
Аноним 25/10/18 Чтв 16:19:06  1284316
Антоны, а HTM сети имеют развитие?
Видел проект от Vicarious, но архитектуру и код еще не смотрел.
Аноним 25/10/18 Чтв 16:37:37  1284321
Можно ли как-то представить строку в виде числа?
Я работаю с multi step forcasting и у меня единичным элементом-токеном является строка
то есть грубо говоря есть время (сколько секунд прошло с момента появления предыдущей строки), последовательнсть строк определенной длины и следующая такая строка
0 abc dfc jkf
10 abd hgj ?
20 ? jdff few
...итд

вопрос состоит в том, как представить строку в виде числа, для того что бы можно было к такой табличке применять методы, применяемые для обычного Multi-Stеp Timе Seriеs Forеcasting
Аноним 25/10/18 Чтв 18:57:53  1284412
153636796818691[...].jpg (30Кб, 400x400)
>>1284074
>теми сочетаниями, которые есть в анализируемой корпусе.
НЛП уровня /b
Аноним 25/10/18 Чтв 18:58:23  1284414
>>1284321
Хэшем
Аноним 25/10/18 Чтв 21:20:18  1284514
>>1284321

int(str(abs(hash('stroka')))[:skolko pervyh tsifr nado])
Аноним 25/10/18 Чтв 21:37:38  1284522
>>1284321
Строки рандомные или несут какой-то смысл? Неси сами строки короче.
Аноним 25/10/18 Чтв 21:41:35  1284526
>>1284522

А что изменится если он их хочет в числа конвертировать, если строки это названия чисел, то вся информация все равно потеряется?
Аноним 25/10/18 Чтв 22:06:27  1284539
>>1284526
Информация не должна теряться, нужно натравить какой-нибудь fasttext и конвертнуть в строки в какие-то полезные фичи. Пайплайн зависит от самих строк.
Аноним 26/10/18 Птн 00:51:38  1284612
>>1284539
попробуй через пихвоиды
ВЫБИРАЕМ КУРС ПОДГОТОВКИ ВСЕМ ДВАЧЕМ Аноним 26/10/18 Птн 01:02:34  1284617
Цель - подобрать материалы, чтобы аноны могли пройти путь от самого дна до повелителей ML за кратчайшее время.

Что лучше: deeplearningbook или ШАД, Coursera или "The Elements of Statistical Learning"? А как насчет Nanodegree от Udacity? Или гарвардские курсы на EdX? А может быть лучше deeplearning.ai?

ГО

Кто-нибудь, пожалуйста, объясните, нахуя ВШЭ и хуяндекс сделали англоязычные курсы с рашнакцентом на курсере? Они реально думают, что англоговорящий анон будет проходить их курс, а не гарвардский???
Аноним 26/10/18 Птн 01:39:48  1284624
>>1284617
>Они реально думают, что англоговорящий анон будет проходить их курс, а не гарвардский???
И проходят, кстати. В околонауке и ML вообще немало людей из самых разных стран с далеко не идеальным английским. Если тебя это триггерит, ты просто пока молодой и глупый.
>Цель - подобрать материалы.
Всё уже давно есть, просто надо немного уметь в гугл.
>за кратчайшее время
Земля тебе пухом.

Аноним 26/10/18 Птн 01:44:56  1284627
>>1284624
>Всё уже давно есть, просто надо немного уметь в гугл.
Щито блядь. Я тебе семь источников материала написал. Откуда я их по-твоему взял?
Аноним 26/10/18 Птн 01:46:12  1284628
>>1284624
>И проходят, кстати. В околонауке и ML вообще немало людей из самых разных стран с далеко не идеальным английским. Если тебя это триггерит, ты просто пока молодой и глупый.
Субтитры? Не, не слышал
Аноним 26/10/18 Птн 02:14:30  1284633
>>1284617
>Что лучше: deeplearningbook или ШАД
deeplearningbook
>Coursera или "The Elements of Statistical Learning"
Второе - червь-пидор
Вообще нет ничего хуже статистиков, держись от них подальше
>А может быть лучше deeplearning.ai
Ын? Должно быть что-то хорошее. Но времени не было посмотреть что там

Книга Николенко, кстати, неплохая.
Аноним 26/10/18 Птн 05:06:59  1284650
>>1284633
> deeplearningbook
Говно.
> Вообще нет ничего хуже статистиков, держись от них подальше
Машоб = статистика, мань.
Аноним 26/10/18 Птн 06:39:38  1284668
>>1284412
Мань, а откуда алгоритм эти сочетания брать должен? Из космоса? Ебать, какие тут дуры сидят, слов нет.
Аноним 26/10/18 Птн 07:34:00  1284674
>>1284650
Петуха забыли спросить
Аноним 26/10/18 Птн 09:35:17  1284698
>>1284617
Для начала Воронцова почитай.
Аноним 26/10/18 Птн 09:39:02  1284699
>>1284674
> Петуха забыли спросить
Тебя если и забыли, так ты сам вылезешь. Весь машоб, и супервайзед и нет, сводится к expectation maximization, я на эту тему даже цитаты приносил. Только клованы вроде тебя могут верить, что индусы с сойбоями двигают науку и что-то новое открывают.
Аноним 26/10/18 Птн 09:41:36  1284700
>>1284698
> Для начала Воронцова почитай.
Воронцов соснул концов. Не надо его читать, в статье про SVM он столько всего нахуевертил, ну его. В ISLR в разы проще все объясняется.
Аноним 26/10/18 Птн 11:49:44  1284751
>>1284699
>Весь машоб, и супервайзед и нет, сводится к expectation maximization
Каким надо быть шизиком, чтобы из теоретической сводимости одного алгоритма к другому делать выводы такого уровня. Ты тупее и вреднее самого тупого индуса.
На, почитай https://www.nature.com/articles/nmeth.4642 , впрочем нет, ты не читай, пусть другие читают. Ты под шконку лезь.
Аноним 26/10/18 Птн 11:52:10  1284752
Как же хочется ИИ...
Аноним 26/10/18 Птн 12:31:56  1284776
maxresdefault.jpg (79Кб, 1280x720)
>>1284752

ХОСПАДЕ КАК ЖЕ ХОЧЕТСЯ AИЧКУ!!!
Аноним 26/10/18 Птн 12:53:36  1284782
>>1284751
> Каким надо быть шизиком, чтобы из теоретической сводимости одного алгоритма к другому делать выводы такого уровня.
Какого уровня? Что машоб это статистика? Так это факт, реальность, а не мой вывод. Ты же пытаешься с этого факта съехать на мою личность. И кто тупой после этого?
Аноним 26/10/18 Птн 13:27:22  1284799
>>1284782
Иди нахуй. Сразу видно, что ты токсичный.

мимо-нюфаня
Аноним 26/10/18 Птн 13:55:49  1284813
Truth.png (211Кб, 2024x688)
Truth2.png (329Кб, 1816x1148)
>>1284617
Надо было сразу почитать книгу Николенко из FAQ. Серьезные дяди поясняют за deep learning
Аноним 26/10/18 Птн 14:09:27  1284818
Как сделать миниманалог шазама? Нужно, чтобы лежало песен 100. И чтобы я спел в микрофон: "Смяка оло но фо. Смяка гими само. Смяка ту ю гет со Смяка о-о-о-о-о". И чтобы самописная программа нашла эту песню среди 100.
Аноним 26/10/18 Птн 14:27:47  1284829
>>1284818

каким-нибудь CNN попробуй выжать фичурсы из спектрограммы

https://github.com/awjuliani/sound-cnn вроде такого
Аноним 26/10/18 Птн 16:32:45  1284884
153622486915801[...].jpg (109Кб, 700x1283)
>>1284668
>Мань, а откуда алгоритм эти сочетания брать должен
Из твоего ануса. Ты там вобще поехал нейроблядок, машоб лол, данные найди, данные подготовь, и пусть теперь нейропараша поковыряется в них и соберет штатистику хотябы за неделю работы на 100500 топнвидиа йоб, ох лол
Аноним 26/10/18 Птн 17:20:45  1284904
>>1284884
Дегродушка, нормальным алгоритмам не нужны видюхи. Skipgram итд как раз нормальные алгоритмы здорового человека, а не параша сойбоя курильщика хуев, которая на суперкластере будет сходиться месяц. Ты ж не в теме вообще, куда ты лещешь, чучело?
Аноним 26/10/18 Птн 17:42:17  1284921
>>1284904
>Skipgram
>нормальным алгоритмам
А ты смешной
Аноним 26/10/18 Птн 17:45:31  1284924
>>1284904
Какого цвета трава?
0.980484: Какого цвета машина?
0.978484: Какого цвета волосы?
0.977465: Какого цвета костюм?
0.977016: Какого цвета глаза?
0.975344: Какого цвета хоть?
0.97237: Какого цвета пламя?
0.955668: Какого цвета волосы? Длинные или короткие?
0.955133: Какого цвета туфли подойдут?
DONE.

Дя?
Аноним 26/10/18 Птн 18:00:06  1284929
>>1284924
Хуйню написал и рад. Чего ты хотел получить этим запросом, клоунесса?
Аноним 26/10/18 Птн 18:02:57  1284931
>>1284929
Бестолковое говно твой пихво2век.
Аноним 26/10/18 Птн 18:34:18  1284948
ИТТ мамкины нейрохейтеры соревнуются, как бы еще пнуть нейронки
Аноним 26/10/18 Птн 18:36:37  1284952
>>1284948
Чому бы не попинать говно?
Аноним 26/10/18 Птн 18:52:01  1284958
>>1284931
> Бестолковое говно твой пихво2век.
Пока что я вижу что ты бестолковое говно и даже не понимаешь, что и зачем пытаешься сделать. Впрочем, что ещё ожидать от дегенерата, басня Крылова "мартышка и очки" как раз про тебя и тебе подобных.
Аноним 26/10/18 Птн 18:57:11  1284960
>>1284958
Ты просто нейродауненок ни черта не понимающий в НЛП.
Аноним 26/10/18 Птн 21:39:50  1285014
>>1284960
> Ты просто нейродауненок ни черта не понимающий в НЛП.
Потому что так сказал дегенерат, не могущий в NLP? Самому не смешно?
Аноним 26/10/18 Птн 21:54:41  1285028
>>1285014
Не смешно, твои нейронки сосут в НЛП с проглотом, это очевидно всем.
Аноним 26/10/18 Птн 22:00:54  1285036
Анон, работаю программистом несколько лет, шлёпаю себе круды.

Посматриваю на сабж. В нём не понимаю ничего. Можешь хотя бы в двух словах описать, насколько это сложно: нужно быть кандидатом наук для которого матан и функан не пустой не звук или сабжевая работа это что-то типа подбора переменных в готовые формулы, пока результат не устроит заказчика?
Аноним 26/10/18 Птн 22:37:54  1285051
>>1285036
>что-то типа подбора переменных в готовые формулы
да, крутишь пимпочки пока результат не устроит заказчика
Аноним 26/10/18 Птн 23:09:42  1285069
Антоны, я не пойму, что за штука такая: Иерархическая временная память?
Не пойму, эта модель вообще рабочая и в чем ее преимущества перед обычной рекуррентной сетью?
Аноним 26/10/18 Птн 23:18:12  1285072
математик.jpg (190Кб, 900x825)
>>1285036
Пик точеный.

Но если ты не настолько удачливый Карлсон-математик, то ты берешь рандомный алгоритм, вроде подходящий под задачи, рандомно берешь коэффициенты, учишь модель и оказывается, что она или не работает на невиданных данных, либо не работает не так, как нужно заказчику. Дальше если ты не знаешь матан и как все работает под капотом, то игра окончена, вы проиграли!
Аноним 26/10/18 Птн 23:18:19  1285073
Двач обьясни тупому зачем юзать нейронку вместо полиномиальной регрессии?
Аноним 26/10/18 Птн 23:23:21  1285078
>>1285072
>ты не знаешь матан и как все работает под капотом
Как анон, знающий как все работает может сдерживать смех и с умным видом крутить пимпочки?
Аноним 26/10/18 Птн 23:26:17  1285081
>>1285078
Зарплата и осознание того, что большую часть времени он не крутит со знающим видом пимпочки, а чистит данные вилкой раз-раз-раз.
Аноним 26/10/18 Птн 23:33:56  1285091
>>1285081
>а чистит данные вилкой раз-раз-раз
Но есть же толока?
Аноним 27/10/18 Суб 02:48:33  1285164
>>1285078
А вот шлепать круды, это нужно быть кандидатом наук для которого реляционная алгербра не пустой звук, или рандомно писать ключевые слова из жс, пока результат не устроит заказчика?
Аноним 27/10/18 Суб 10:15:43  1285201
>>1285164
только не говори, что нейронная матанопетушня пишет код
Аноним 27/10/18 Суб 11:11:19  1285217
>>1285069
Идея хороша, но негров распознавать пока не может.
Аноним 27/10/18 Суб 19:04:03  1285481
>>1285217
Не понял, о чем ты?
Аноним 27/10/18 Суб 20:24:14  1285516
>>1285481
Теоретики, а не практики. Хотя вроде недавно весьма серьёзная статья была по практической примеромости. Но ещё далеко, можешь поспособствовать.
Аноним 27/10/18 Суб 21:10:26  1285557
>>1285516
Я где-то видел статью, где ее сравнивали с глубокой сетью доверия и она выиграла. Много про нее почитал, но так и не понял, кто определяет там количество регионов и памяти, что выделяется на каждый, она сама или я должен это делать? Надо, видимо, ручками ее потискать, а не задавать вопросы Анонам
Пока писал пост, таки нашел статью: http://www.measurement.sk/M2013/doc/proceedings/023_Valentin-1.pdf
Аноним 27/10/18 Суб 21:25:07  1285566
>>1285557
>Надо, видимо, ручками ее потискать, а не задавать вопросы Анонам
А ты не такой уж и глупый, тут джва с половиной практика один вот этот >>1285516 понимает что к чему и почему не работает, а второй я.
Аноним 27/10/18 Суб 22:19:24  1285612
>>1285557
Это статья 2013 года, которую писали еще раньше - до Словакии AlexNet, видимо, долго доходила. Сейчас использовать подобные вещи для классификации листьев немного странно, что 56%, что 66% - это очень плохо.. Поищи что-то поновее.
Аноним 28/10/18 Вск 09:00:17  1285775
15405352004520.jpg (31Кб, 472x403)
Сверточные сети нужны пока еще только для автоматического выделения фич, с самими этими фичами они работают не лучше чего угодно. И очень хороший вариант для работы с этими фичами - встраивание их в векторное пространство слов, фраз, документов по типу word2vec. Есть StarSpace, там уже реализовано такое встраивание фич от картинок вместе с текстом. Я давно говорил, что подобные модели дальше будут развиваться в сторону встраивания в единое векторное пространство разномодальных данных, и вот пейсбукаиресерш это уже реализовали. Могу сказать, что будет дальше. Найдётся метод выделения фич негров получше чем сверточная хуитка, причём, все будет работать без графических ускорителей, для нормальных алгоритмов они и нахуй не нужны, пример те же word2vec и StarSpace. И весь этот соевый хайп закончится, а владелец нвидия Сунь Хуй Чай потеряет миллиарды.
Аноним 28/10/18 Вск 10:35:12  1285792
>>1285775
>Сверточные сети нужны пока еще только для автоматического выделения фич
Про генерацию забыл.
>И весь этот соевый хайп закончится, а владелец нвидия Сунь Хуй Чай потеряет миллиарды.
Хорошо начал, но закончил все равно шизой. У тебя денег на 1080 Ti нет что ли?
Сверточные сети появляются там, где у у тебя есть данные, которые инварианты относительно сдвига. Это изображения и звуки прежде всего. Сущности, которые весят по несколько мегабайт и при этом очень избыточны, то есть так или иначе тебе нужно уменьшить число измерений. Будет у тебя "метод выделения фич негров получше", какой-нибудь SIFT на стероидах, допустим, он все равно будет ускоряться с помощью GPU, потому что GPU - это более эффективное для распараллеливания использование площади кристалла, они никуда не денутся, пока есть параллелящиеся задачи. Сложно придумать алгоритм обработки изображений, который не ускорялся бы на GPU, если только специально не стараться.
Аноним 28/10/18 Вск 11:28:50  1285806
>>1285792
А если я хочу с помощью нескольких камер научиться делать 3Д модель, то сверточная сеть подойдет?
Аноним 28/10/18 Вск 12:08:29  1285812
>>1285806
Гугли structure from motion, можно обойтись и классическими алгоритмами, хотя нейронки тоже применяют
Аноним 28/10/18 Вск 12:41:24  1285817
Снимок.PNG (81Кб, 872x403)
>>1281076 (OP)
Добрый день. Пытаюсь в DCGAN, но он нихуя толкового не генерирует. Изначально хотел арт погенерировать, потому подумал, что данные слишком разные и решил mnist погенерить. На mnist тоже ВООБЩЕ ничего нужного не получается.

Что делать ? Что почитать ? У кого был подобный опыт ?

Аноним 28/10/18 Вск 12:51:00  1285822
>>1285817
Вот эта йоба https://github.com/tkarras/progressive_growing_of_gans заработала из коробки, мнист там есть. Там используется последовательное добавление слоев при увеличении разрешения, поэтому настроить сходимость намного проще.

DCGAN же работает сразу в большом разрешении и поэтому там нужно филигранно настраивать мощу дискриминатора и генератора. Но для минста ты можешь и готовый код на гитхабе найти и плясать уже от него.
Аноним 28/10/18 Вск 12:55:28  1285824
>>1285822
Спасибо за наводку
Аноним 28/10/18 Вск 14:32:23  1285859
Книжка Николенко больно простая, после книжек по машобчику из списка кажется вообще научпопом. По ней точно можно нормально научиться?
Аноним 28/10/18 Вск 14:47:47  1285864
>>1285859
В списке нет книжек по машобу, там ебанутая параша от статистиков
Аноним 28/10/18 Вск 14:50:14  1285866
>>1285864
Держи в курсе.
Аноним 28/10/18 Вск 14:56:44  1285869
>>1285864
> В списке нет книжек по машобу, там ебанутая параша от статистиков
Петух, машоб это раздел статистики.
Аноним 28/10/18 Вск 15:10:04  1285883
>>1285869
Ты скозал?
Аноним 28/10/18 Вск 16:16:03  1285917
>>1285869
Машоб использует в т.ч. матстат и довольно близко стоит к вычислительной статистике (statistical computing), но это архаизм - термин только совсем динозавры используют. В любом случае она - не раздел статистики, а мост между ней и информатикой.
Анон Аноним 28/10/18 Вск 17:22:57  1285956
15390261857620.png (782Кб, 860x716)
Есть ли где-нибудь, на каком-нибудь ЯП библиотека, которая вскармливается некоторыми изображениями, находит в них нечто общее, и это нечто общее рисует в новое изображение?
Т.е на основе некоторых изображений создаёт похожее изображение.

Хотел бы я нейросеточку, которая генерировала арты с Аквой-сама.
Аноним 28/10/18 Вск 17:33:08  1285966
>>1285956
https://github.com/heykeetae/Self-Attention-GAN
Аноним 28/10/18 Вск 17:35:32  1285968
>>1285956
>>1285966
Картинки с дурой с какого-нибудь данбору возьми.
Аноним 28/10/18 Вск 17:43:51  1285975
>>1285968
Не прогрессивно же.
Аноним 28/10/18 Вск 17:46:06  1285977
>>1285966
Дай бог тебе здоровье.
Аноним 28/10/18 Вск 18:09:21  1285987
>>1285201
Ну не из воздуха же все эти библиотеки появились.
Аноним 28/10/18 Вск 18:11:21  1285988
>>1285966
Чет не понял, в чем особенность этой сети?
Аноним 28/10/18 Вск 19:05:43  1286016
>>1285988
В пихвовекторизации
Аноним 28/10/18 Вск 19:07:32  1286020
>>1285775
О, теоритическая манька всплыла. Как дел? Сколько новейших паперов прочитал за последние 12 часов?
Аноним 28/10/18 Вск 19:13:19  1286023
ioslarge1460104[...].jpg (64Кб, 600x525)
>>1286016
в психо чево?
Аноним 28/10/18 Вск 21:23:59  1286116
>>1285812
Ну классические алгоритмы не особо для видео подходят.
Да и вдруг мне нужно моделировать поведение какого-то обьекта? Например, хочу реалистичную симуляцию ткани какой-нибудь.
Аноним 28/10/18 Вск 22:58:43  1286158
>>1281193
Физик-теоретик-кун мимопроходил. ESL читал. ТыещеЛандауЛифшицаневидел.
Аноним 28/10/18 Вск 23:05:55  1286164
Это снова я >>1286158 почитал тред. У вас тут эфирщики... Пздцблд

Аноним 28/10/18 Вск 23:11:27  1286169
>>1286164
>эфирщики
Что имеешь против эфира, релятивистская мразь?
Аноним 29/10/18 Пнд 00:18:01  1286194
image.png (310Кб, 1076x733)
Для кого это сделано? Я имею за плечами стандартный курс университетской математики и эти задачи для меня практически нерешаемы. Я тупой?
Аноним 29/10/18 Пнд 00:22:50  1286198
>>1286169
> Что имеешь против эфира
GPS
Аноним 29/10/18 Пнд 00:31:41  1286200
>>1286194
У меня в универе ни QR ни SVD вообще не было. Вся третья глава охуенна, потому что дает дохуя интуиции именно по всей линейщине и МНК -- но читать надо очень вдумчиво, это да.

Задачи сложные именно потому что требуют интуиции о том что все это значит.
Аноним 29/10/18 Пнд 00:53:33  1286204
>>1286200
Есть смысл серьезно вкладываться и долго думать над каждым упражнением, которое я не могу решить быстро? Я посмотрел пару решений для таких в интернете, они кажутся мне очень нетривиальными.
Аноним 29/10/18 Пнд 01:25:47  1286214
>>1286204
Дык там же даже есть значок с "Ужоснахом", где автор говорит что по-первой лучше не лезть. Я ее третью главу всю, наверное, с третьего захода осилил...
Аноним 29/10/18 Пнд 01:36:46  1286218
>>1286204
>Есть смысл серьезно вкладываться
Есть, будешь на кассе в МакДаке перед другими математиками хвастаться
Аноним 29/10/18 Пнд 09:13:33  1286284
>>1286194
Посиди над каждой минут сорок, если вообще ноль, смотри ответы. По сути это продолжение книги, только тебе дают возможность допереть самому и вырасти таким образом.
Аноним 29/10/18 Пнд 09:51:21  1286290
>>1286284
Полных ответов в открытом доступе не видел. Официального мануала нет, а решения, публикуемые в интернете, как минимум не покрывают все задания (после где-то пятой главы уже только единицы упражнений решены), а зачастую ещё и с ошибками. В этом, пожалуй, один из главных недостатков книги.
Аноним 29/10/18 Пнд 10:38:43  1286298
>>1286020
Вот не надо, это один из немногих его постов, который содержит годные мысли помимо шизы.
Аноним 29/10/18 Пнд 10:41:05  1286299
>>1286116
>Ну классические алгоритмы не особо для видео подходят.
Почему?
Structure from motion для видео с дронов (облетаешь на дроне ангар и получаешь его 3д модель) сейчас довольно горячая тема.
Аноним 29/10/18 Пнд 10:57:42  1286306
>>1286200
>Задачи сложные именно потому что требуют интуиции о том что все это значит.

Нихуя не понял построение предложения. "О том, что все это значит" может требоваться знание. Интуиция - это догадка, озарение. Ты точно не кальками с английского разговариваешь?
Аноним 29/10/18 Пнд 11:05:25  1286308
>>1286306
Ты не слышал про математическую интуицию?
Надо в голове иметь целый багаж аналогий, чтобы чувствовать математические объекты, а не просто заниматься символьными преобразованиями. Научить этому сложно, а способность к этому сильно зависит от твоего IQ.
Аноним 29/10/18 Пнд 13:30:01  1286378
>>1286218
Ну херня же. Где ты математика на кассе видел?
Аноним 29/10/18 Пнд 13:58:25  1286394
>>1286299
А если мне при этом нужно моделировать какой-то реальный обьект и предсказывать его поведение?
Аноним 29/10/18 Пнд 14:24:52  1286402
>>1286306
> Нихуя не понял построение предложения.
Нихуя не верю что ты не понял о чем я. Ты просто до семантики доебываешься потомучто попоболит.

> Интуиция - это догадка, озарение.
Интуиция - это когда тебе говорят SVD, а ты сразу представляешь: мультинорманльное расперделние, гиперплоскость на резиночках, таблицу расстояний между городами, отображающиеся эллипсоиды и, внезапно, W бозоны с кварками.
Аноним 29/10/18 Пнд 14:51:15  1286412
>>1286378
Это петух местный. И ему не бомбит от математики.
Аноним 29/10/18 Пнд 15:19:15  1286424
>>1286402
> SVD
> W бозоны с кварками
Ась?
Аноним 29/10/18 Пнд 17:16:20  1286463
>>1286402
Хуя у тебя воображение. Олимпиадки / физтех? Я ничего кроме вращающегося эллипса себе не представляю.
Аноним 29/10/18 Пнд 18:09:59  1286498
>>1286424
Это нетривиальная фича в Стандартной Модели -- Юкавские матрицы могут быть недиагональны -- им делаешь SVD и все хорошо, но остается CKM.

>>1286463
Физик я да.
> Олимпиадки
Непотизм. Не люблю. Я из быдлосибири выбился.
Аноним 29/10/18 Пнд 18:48:52  1286520
>>1286498
Когда в машобчик вкатился? В бакалавриате, в магистратуре, после?
Аноним 29/10/18 Пнд 19:28:35  1286553
>>1286520
После. На PhD уже. Причем именно со стороны статистики и обработки эксперимента. Потом фрилансил датасаентистом - баезовы сетки вязал. Нейронные серъезно не трогал.
Аноним 29/10/18 Пнд 19:32:17  1286556
>>1286553
>баезовы сетки вязал
Шапочку то хоть связал?
Аноним 29/10/18 Пнд 19:33:34  1286559
>>1286378
Математиков даже в МакДак не берут, или на кассу, поскольку считать в риалтайме не умеют?
Аноним 29/10/18 Пнд 20:37:45  1286585
>>1286559
Какое-то ты совсем полное говно. Даже тролишь уныло.
Аноним 29/10/18 Пнд 20:49:53  1286591
>>1286585
Сколько паперов прочитал за последние 15 секунд?
Аноним 29/10/18 Пнд 21:55:58  1286641
>>1286591
Чего тебя так паперы-то бомбят? Комплексуешь что тупой?
Аноним 29/10/18 Пнд 22:18:17  1286665
>>1286641
Тут все комплексуют
Аноним 29/10/18 Пнд 22:21:38  1286666
Двач, функция правдоподобия даёт вероятность что х был правильно классифицирован при параметре w? А в функции макс правдободобия я подбираю w при котором эта вероятность наибольшая?
Аноним 29/10/18 Пнд 22:46:39  1286674
Как мне написать на этом ебучем TensorFlow простейшую LSTM структуру вида:

network = architect.Perceptron(636, 35, 35, 2)

Почему в Neataptic это делается одной строкой, а в TensorFlow непонятно вообще что делать, какие то горы текста с ебучими СОКРАЩЕННЫМИ названиями (как будто компилированный JS, блять, разбираешь)?

Просьба не троллить.

Сейчас, возможно налетит байтоёбская ЭЛИТА, которой "в кайф" (на самом деле нет, я знаю что это пиздёжь) ебаться с этими "структурами". Но факт остаётся фактом: от Angular, как и от TensorFlow можно только блевануть (тем не менее вопрос о создании простейшей структуры не отменяется).

Это мне нужно исключительно потому что Neataptic не поддерживает GPU, иначе я бы это говно вообще не трогал.
Аноним 29/10/18 Пнд 22:59:40  1286684
>>1286591
Ну паперами ты же кичешься, типа кто больше васянского говна прочитал тот нейроэлитарий.
Аноним 29/10/18 Пнд 23:29:00  1286701
>>1286666
Функция правдоподобия к задаче классификации относится опосредованно. Логистическую регрессию разбираешь?

Функция правдоподобия - это следующее: есть данные X, которые, как предполагается, распределены по закону F(x; z), известному с точностью до параметра z. Функция правдоподобия L(w) - это вероятность получить эти данные X при z = w: L(w) = p(X; w). (точнее, не вероятность, а плотность вероятности - вероятность-то там для непрерывных распределений будет 0)

В простейшем случае X - это просто выборка x1, x2, ..., xn независимых и распределённых по закону F(x; z); тогда L(w) = p(x1; w)p(x2; w)...p(xn; w).

Если это логистическая регрессия, то данные - это обучающая выборка - набор пар (xi, yi) (объект - ответ), а распределение выглядит так: p(x, y; w) = p(y | x; w) p(x) (p(x) - распределение объектов в пространстве, от параметров не зависит). Делается предположение, что p(y = 1 | x; w) = 1 / (1 + exp(-a(x))). Опять же, функция правдоподобия - это вероятность получить обучающую выборку, если параметр распределения равен w.

Функции максимального правдоподобия нет. Есть функция правдоподобия, для которой можно решать задачу максимизации. Это называется задача максимизации правдоподобия. Да, это задача подбора такого значения параметра w, при котором вероятность получить обучающую выборку наибольшая.
Аноним 29/10/18 Пнд 23:29:07  1286702
>>1286666
неа
это не вероятность же
Что-то типа нахождения моды argmax_w p(w|x) = argmax_w p(x|w)p(w) при «равномерном» распределении p(w)
Аноним 30/10/18 Втр 00:37:33  1286741
Как формулируется задача обучения ядерного SVM? Там есть ||w||^2 -> min_w, так вот, ||w||^2 - это квадрат евклидовой нормы или k(w, w)?
Аноним 30/10/18 Втр 00:53:06  1286753
>>1286665
Это "проецирование" называтеся, петушок
Аноним 30/10/18 Втр 01:35:06  1286765
>>1286741
А хотя всё, разобрался.
Аноним 30/10/18 Втр 09:17:17  1286856
>>1286665
> Тут все комплексуют
Нет, ты один тут такой, попандопуло жизнью обиженное. Лечись иди, пока не поздно. В окно же выйдешь или мамку свою ебнешь из-за остывшего борща.
Аноним 30/10/18 Втр 11:30:41  1286879
>>1286753
>>1286856
Вот и комплексующие подвалили, лол
Аноним 30/10/18 Втр 15:22:25  1286979
Output [0->1, 0->1] это какая loss функция? Output может быть: нулевой (при некоем условии, это вычисленно в данных), либо приводиться к вероятности от нуля до единицы.
Аноним 30/10/18 Втр 15:26:07  1286982
>>1286979
>Output [0->1, 0->1]
Чего?
Аноним 30/10/18 Втр 15:30:43  1286984
>>1286982
Output может быть: нулевой (при некоем условии, это вычисленно в данных), либо приводиться к вероятности от нуля до единицы.
Аноним 30/10/18 Втр 15:34:18  1286986
>>1286979
>>1286984
Вообще похоже либо на логлосс, либо кросс-энтропия. Но я вс ё равно не понял задачу. "При некотором условии" - это "если для объекта выполнено условие, то ответ гарантированно 0, в остальных случаях считать вероятность"?
Аноним 30/10/18 Втр 15:40:27  1286991
>>1286986
При генерации данных из input до тренировки вычисляются следующие output: 0 при некоем условии либо вероятность 0->1.
Аноним 30/10/18 Втр 15:48:16  1286998
>>1286991
Ага, то есть в обучающей выборке ответы - это числа из [0, 1), так? А алгоритм что должен выдавать? Тоже числа из этого интервала? Или из {1, -1}? В первом случае можно попробовать статистические расстояния (расстояния между распределениями, https://en.wikipedia.org/wiki/Statistical_distance). Во втором, возможно, подойдёт всё тот же логит.
Аноним 30/10/18 Втр 18:28:51  1287116
Нейранончики, авотскажите -- года два-три назад я обмазывался RNNками и все только и говорили что об LSTM. Потом мне не до всего этого было и я особенно не следил. Сейчас вернулся глянуть какой прогресс на этом поприще, а про длиннокороткопамять ни слова -- одни автокорелляторы, да attention networks какие-то. Что LSTM не пошла?
Аноним 30/10/18 Втр 21:36:29  1287221
>>1286394
Бамп.
Аноним 30/10/18 Втр 23:22:06  1287275
Дописываю вот ии, и такое дело. Допустим в гипотетическом ии есть стиль коррекции ошибок. Ии что-то делает. И возникает ошибка. И тут, вроде бы, два варианта: вычислять дальше/дольше/по-другому, в надежде на более точный результат, жертвуя временем. Либо изначально вычислять недолго, с хуёвыми результатами, но брать количеством и получать больше фидбека от окружения, корректируя итоговую нейронку тупо числом неудач. Это кагбе качество против числа.
// я не программер, просто не знаю где спросить
Какие ещё стили коррекции ошибок могут быть у ии, чтобы не жертвовать скоростью выдачи результата?
Аноним 31/10/18 Срд 00:18:39  1287286
>>1287275
Ты сам не знаешь что спрашиваешь, да?
Аноним 31/10/18 Срд 00:19:42  1287287
>>1287275
Пихвовекторизацию попробуй
Аноним 31/10/18 Срд 00:45:47  1287301
>>1287287
Соглашусь с этим.
Аноним 31/10/18 Срд 01:49:02  1287316
>>1287286
Я не программист(1), и как мог переделал вопрос под нейронки, потому что машинное обучение это ближайшая тема к моей задаче. Не знаю пока как спросить нормально, в основном сам отвечаю на собственные вопросы.
В моём манямирке ии это самообучающаяся нейронка с железом которым она может рулить, у которой могут быть свои стратегии работы основанные на фидбеке от внешнего мира, и которая может грабить корованы. Если допустить что процесс обучения такой нейронки будет протекать беспрерывно и предположить что эти стратегии основаны на коррекции ошибочных действий при принятии решений, то можно сходить нахуй сделать вывод о предположительной возможости двух стратегий принятия решений во время беспрерывного обучения. Подумать дольше, потом сделать. Или делать до охуения, с ошибками, до момента пока нейронка не сформируется в степени достаточной для принятия решения с процентом точности овер сколько_то_там%процентов. Ну то есть мир типа не совершенен, окружение не будет ждать пока нейронка достигет, пусть даже этих, 96% точности. Требуются стратегии принятия решений при большом количестве ошибок ещё нихуя не готовой нейронки.
Аноним 31/10/18 Срд 02:20:43  1287327
>>1287316
> У меня дом человек живет и ест еду. Когда он ест он живет еду дом? Я не строитель.
Аноним 31/10/18 Срд 02:29:16  1287329
>>1287327
> У меня дом человек живет и ест еду. Когда он ест он живет еду дом? Я не строитель.
Ты кот
Аноним 31/10/18 Срд 02:39:58  1287332
>>1287316
Q-learning. Вообще почитай про reinforcement learning, для начала хоть про уравнения Хебба.
Аноним 31/10/18 Срд 02:45:38  1287334
>>1287332
>про уравнения Хебба
шаверму Кебаба
Аноним 31/10/18 Срд 02:49:34  1287335
>>1287327
Ну ёб твою мать, я не знаю как нормально объяснить.
Можно чистить картошку ножом, резать пальцы, но забивать на это хуй, до тех пор пока пальцы новые не отрастут и не сформируется навык чистки картошки. Будет большее количество проходов, навык сформируется быстрее
Можно чистить картошку ножом, медленно чистить, жертвуя скоростью принятия решений, не забивать хуй на порезанные пальцы, но навык сформируется неизвестно когда, и сформируется ли он вообще.
Вот какой-то такой выбор стоит, их вроде всего два, но не может быть такого чтоб не было третьего.
Аноним 31/10/18 Срд 02:52:15  1287336
>>1287334
>>1287287
>>1287301
Чухомор опущенный, сьеби отсюда.
Аноним 31/10/18 Срд 02:59:11  1287337
>>1287335
Как твоя сеть опознает ошибку?
>>1287336
Иди паперыбумагу читай
Аноним 31/10/18 Срд 03:23:55  1287339
>>1287335
> Ну ёб твою мать
Симметрично. Ты слова пишешь, которые, сразу видно, что вообще не понимаешь что значат.
Тебе вон советуют Q-learning. Я еще могу бандитов, эксплорейшен/эксплуатейшен и всякие эпсилон-greedy подкинуть. Но тебе это все рано-же.
Аноним 31/10/18 Срд 03:42:31  1287341
>>1287339
Не понял где искать эксплорейшен алгоритм(?) или что там? Вот это вот есть, https://ru.wikipedia.org/wiki/Метод_Хука_—_Дживса

так или иначе, глянул это всё, оно слишком относится к элементарным алгоритмам, микро-уровню, из которых строится макро, далеко они от решения макро-проблемы.
Аноним 31/10/18 Срд 04:44:46  1287348
>>1287341
Это что, получается, меня все время всё то-же говно тролило?
Аноним 31/10/18 Срд 06:26:21  1287364
>>1286998
Вот эти скобки [, (, { что означают? Как они называются?
Аноним 31/10/18 Срд 06:51:27  1287367
>>1287364
А вот нефиг было в девятом классе в ПТУ бежать скорее. Сейчас бы знал из программы десятого класса, что это обозначение отрезков/интервалов

],[ - включают грацы (левую или правую)
),( - исключают границы

{a, b, c, ...} - перечисление

мимо
Аноним 31/10/18 Срд 07:20:08  1287370
>>1285028
хаха красава братиш как ты его))))
Аноним 31/10/18 Срд 08:07:28  1287377
>>1286998
Если я буду обычный softmax использовать для loss функции - она будет учитывать тот факт, что probability в output data где-то в более, чем 70% = 0?
Аноним 31/10/18 Срд 09:24:56  1287391
>>1287370
Проходи мимо, сталкер
Аноним 31/10/18 Срд 09:44:45  1287403
>>1287335
https://web.stanford.edu/class/psych209/Readings/SuttonBartoIPRLBook2ndEd.pdf

во 2ой главе, можно сказать, что
> резать пальцы, но забивать на это хуй
описывается, у тебя есть жадный алгоритм, а тебе нужно найти оптимальный
Аноним 31/10/18 Срд 09:47:23  1287404
>>1287364
https://www.yaklass.ru/p/algebra/7-klass/matematicheskii-iazyk-matematicheskaia-model-11008/koordinatnaia-priamaia-11971/re-958c78a4-cfb7-4535-a6be-3f23423d444d
Аноним 31/10/18 Срд 10:56:41  1287428
Почему не работает?

# [ [9278, 37.9, ...], [18594, 36.3, ...], ... ]
print(training_set_input.shape) -> (300, 636)

# [ [1, 0], [0, 1], ... ]
print(training_set_output.shape) -> (300, 2)

model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=(300, 636)))
model.add(tf.keras.layers.Dense(2, activation='softmax'))
model.compile(optimizer='adam', loss='mse')

history = model.fit(training_set_input, training_set_output, validation_data=(validation_set_input, validation_set_output), epochs=10, batch_size=32)

////////////////////////////////////

File "network.py", line 85, in train
history = model.fit(training_set_input, training_set_output, validation_data=(validation_set_input, validation_set_output), epochs=10, batch_size=32)
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/models.py", line 920, in fit
validation_steps=validation_steps)
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 1592, in fit
batch_size=batch_size)
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 1431, in _standardize_user_data
exception_prefix='input')
File "/usr/local/lib/python3.5/dist-packages/tensorflow/python/keras/_impl/keras/engine/training.py", line 144, in _standardize_input_data
' dimensions, but got array with shape ' + str(array.shape))
ValueError: Error when checking input: expected lstm_1_input to have 3 dimensions, but got array with shape (300, 636)
Аноним 31/10/18 Срд 11:02:24  1287431
>>1287428
сделай expand_dims и преврати массив (300, 636) в (300, 636, 1) или (1, 300, 636), не знаю, как там правильно
Аноним 31/10/18 Срд 11:18:16  1287440
>>1287431
>expand_dims
np.expand_dims(test_set_output, axis=2) -> (300, 636, 1)

Не работает:

ValueError: Error when checking input: expected lstm_1_input to have shape (None, 300, 636) but got array with shape (300, 636, 1)

Как превратить в (None, 300, 636)? И зачем это? Что это? Не понимаю.
Аноним 31/10/18 Срд 11:21:12  1287441
>>1287440
мне лень читать твою ошибку - но None - это размер батча (типа переменный), остальное - твои данные
Аноним 31/10/18 Срд 11:21:25  1287442
>>1287431
np.expand_dims(training_set_intput, axis=0) -> (1, 300, 636)
np.expand_dims(training_set_output, axis=0) -> (1, 300, 2)

Не работает:

ValueError: Error when checking target: expected dense_1 to have 2 dimensions, but got array with shape (1, 300, 2)
Аноним 31/10/18 Срд 11:24:51  1287445
>>1287440
У тебя keras принимает работу над батчами на себя, поэтому когда ты пишешь model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=(300, 636))), фактически твоя модель ожидает тензор размерностью (число_батчей, 300, 636), где число батчей произвольное, что и обозначается как None.

Перед Dense сделай Flatten, Dense не работает с 2д
Аноним 31/10/18 Срд 11:25:50  1287446
>>1287116
живет и здравствует
http://search.iclr2018.smerity.com/search/?query=lstm
http://search.iclr2018.smerity.com/search/?query=attention
Аноним 31/10/18 Срд 11:27:19  1287448
>>1287428
>model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=(300, 636)))
А, понял. Ты пишешь 300, 636, так как 300 размер твоего трейнинг сета, а выглядит это так как будто ты имеешь инпут картинкой. Керасу не нужно это. Пиши
model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=( 636)))
И все.
Аноним 31/10/18 Срд 11:27:40  1287449
Перекат

>>1287447 (OP)
>>1287447 (OP)
>>1287447 (OP)
Аноним 31/10/18 Срд 11:28:01  1287450
Тогда shape твоего инпута в tf будет (None, 636) и (300, 636) подойдет
Аноним 31/10/18 Срд 11:35:38  1287452
>>1287445
Если я делаю (np.expand_dims(training_set_input, axis=0), то у меня тогда ведь получается один input sample?

Добавил
model.add(tf.keras.layers.Flatten()),
не работает: (тот же самый ValueError (1, 300, 2))
Аноним 31/10/18 Срд 11:40:08  1287455
>>1287448
Это тоже не работает. Изначально я и писал так:

model.add(tf.keras.layers.LSTM(35, activation='sigmoid', input_shape=( 636,)))

Не работает с expand_dims, и без него.
Аноним 31/10/18 Срд 12:44:32  1287469
>>1287446
Спасибо
Аноним 01/11/18 Чтв 02:18:40  1287918
https://www.youtube.com/watch?v=9rDhY1P3YLA
ЧТо скажите про курс?
Аноним 01/11/18 Чтв 10:58:40  1288024
>>1287918
Ролик забавный
Аноним 20/11/18 Втр 21:36:35  1298418
тест

Ошибка:
Капча невалидна.
Аноним 04/12/18 Втр 02:04:05  1305561
посоветуйте тип нейросети из https://en.wikipedia.org/wiki/Types_of_artificial_neural_networks для 3д-игр ?
конфигурация нескольких ?
допустим есть 800х600px - 10fps входные данные
Аноним 04/12/18 Втр 02:06:01  1305563
надеюсь хотя бы тут нейросети не постят ?


Топ тредов
Избранное