[Ответить в тред] Ответить в тред



<<
Назад | Вниз | Обновить тред | Автообновление
507 | 16 | 130

НЕЙРОНОЧКИ И МАШОБ ТРЕД №?.6 /ai/ Аноним 11/07/18 Срд 20:52:03  1226323  
1.jpg (303Кб, 1600x1200)
2.jpg (38Кб, 559x349)
3.png (1536Кб, 900x825)
4.jpg (410Кб, 976x1815)
Очередной тред про хипстерские технологии, которые не работают.
Продолжаем выяснять, кто двигает ноуку: толпы смузихлёбов или фундаментальные деды.

FAQ:
Я ничего не понимаю, что делать? Либо в тупую import slesarplow as sp по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".
Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examples
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/ | https://www.general-ai-challenge.org/
Где работать? https://www.indeed.com/q-deep-learning-jobs.html
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихся
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Архивач:
http://arhivach.cf/thread/340653/
http://arhivach.cf/thread/355442/
http://arhivach.cf/thread/360889/
http://arhivach.cf/thread/366809/
http://arhivach.cf/thread/368934/

Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"

Предыдущий тред: >>1209084 (OP)
Аноним 11/07/18 Срд 22:07:14  1226345
3 пик мемный
Аноним 11/07/18 Срд 23:25:12  1226379
Антоны, чем хайповая Рекурсивная Кортикальная нейросеть лучше, чем автоэнкодер? Он ведь тоже делит картинку на части и ищет закономерности.
Или у них вся суть в особой архитектуре?
Аноним 11/07/18 Срд 23:34:45  1226386
>>1226379
>Рекурсивная Кортикальная нейросеть
че
Аноним 11/07/18 Срд 23:35:20  1226387
>>1226386
Аноним 11/07/18 Срд 23:36:04  1226389
>>1226387
Блять, как криво работает вставка.
http://science.sciencemag.org/content/358/6368/eaag2612.full
Аноним 11/07/18 Срд 23:42:50  1226398
>>1226389
Статья за пейволом, иди нахуй.
Аноним 11/07/18 Срд 23:51:41  1226410
>>1226389
А, Vicarious, это NTM-образная штука. Ничоси, они в Science опубликовались. При чем тут автоэнкодер не знаю, "делит картинку на части и ищет закономерности" это какое-то абсурдно-примитивное описание работы автоэнкодера. На таком уровне ничем, наверное, не отличается. Еще они оба компьютерные программы.
Аноним 11/07/18 Срд 23:53:09  1226413
>>1226398
>40018
>не иметь подписочки на сцыенс
Плеб, плис.
Аноним 11/07/18 Срд 23:54:21  1226415
Sci-hub отменили?
Аноним 12/07/18 Чтв 00:03:16  1226421
>>1226413
> 2018
> считать приемлемым ограничивать доступ к научным статьям
Аноним 12/07/18 Чтв 00:32:27  1226442
>>1226421
Да я тоже ни за что не плачу в интернете, лол
Аноним 12/07/18 Чтв 00:37:13  1226448
>>1226410
Эм, а что за NTM?
>При чем тут автоэнкодер не знаю, "делит картинку на части и ищет закономерности" это какое-то абсурдно-примитивное описание работы автоэнкодера.
Это к тому, что я не особо понял, как оно работает и из описания сразу вспомнил про автоэнкодер, мне показалось, что принцип работы похожий. А описание такое, потому что у меня некоторые проблемы с формулированием мыслей, извините.
Аноним 12/07/18 Чтв 00:39:48  1226450
Правительство выделяет деньги на развитие науки и благополучно распиливает налоги на исследованиях которые никого не интересуют.
@
Почему это правительство должно платить авторам статей, в которых кто-то заинтересован и хочет прочесть? Мы что, коммунисты?
Аноним 12/07/18 Чтв 01:19:03  1226456
>>1226450
Деньги за доступ к статье получают издательства (картельный сговор), а не авторы.
И если уж деньги на науку идут народные (налоги), то и результаты должны быть доступны этому самому народу.
Аноним 12/07/18 Чтв 01:29:37  1226458
Как добавить количество скрытых слоев? Скрытые слои - это количество итераций скрытого слоя?
Аноним 12/07/18 Чтв 01:53:35  1226462
>>1226458
Это размерность симплициальной резольвенты.
Аноним 12/07/18 Чтв 01:54:58  1226464
>>1226462
абеленизацию берем?
Аноним 12/07/18 Чтв 01:56:39  1226466
>>1226464
Только если сначала тензорно умнажаешь
Аноним 12/07/18 Чтв 02:01:16  1226467
Untitled.png (12Кб, 645x386)
Каким графиком выравнивать output значения?
У меня пикрелейтед. Что скажете?
Аноним 12/07/18 Чтв 02:10:57  1226468
>>1226466
умножил, получил гомологии группы G
Аноним 12/07/18 Чтв 03:03:05  1226474
>>1226448
HTM, я описался. Hierarchical Temporal Memory. Это старая модель, которую эти люди разрабатывают многие годы, основана на некоторых идеях о том, как может быть устроен неокортекс (область мозга). Авторы и их последователи считают, что это потенциально более интересное направление, чем, например, нейроночки. Мнение это оспаривается многими интернетными экспертами. Основная причина сомнений была в том, что преимущества модели не были продемонстрированы на практике.
Ну вот теперь они сделали эту штуку с капчей. Стоит признать, это довольно круто, хотя тест все равно синтетический, в то время как изначально предполагалось, что модель как бы будет более терпима к шумным real-world данным.
У меня отношение скорее скептическое. Еще у них постоянные попытки коммерциализировать это, какие-то непонятки с оупенсорсом - вроде бы они всегда выкладывают не самые крутые и последние наработки, кароч мутновато.

Если ты прочел только основную статью в саенсе, то неудивительно, что ничего не понял. В таких журналах основной текст это скорее что-то вроде расширенного абстракта. Вся суть статьи, технические детали и описания в supplementary materials. Читай их, может станет понятнее.
Аноним 12/07/18 Чтв 03:05:01  1226475
>>1226456
Они и доступны. Полтинничек заплати и читай себе. Или тебе еще бесплатный интернет, компьютер предоставить?
Аноним 12/07/18 Чтв 05:24:25  1226491
>>1226475
Ты хуйни не неси. Сейчас бы копротивляться за шекели (((правооблядайтеров))), которые в науке вообще посторонние паразиты и проходимцы, стригущие бабло с исследователей, читателей и со всех остальных, до кого могут дотянуться своими загребущими ручонками.
Аноним 12/07/18 Чтв 05:55:15  1226493
>>1226491
Бвахаха, полюбуйтесь на этого копротивленца, который как обычно не имеет ни малейшего представления, о чем говорит. Их кто-то под дулом автомата заставляет в Саенс статью посылать? Вон у них целый вебсайт есть, выкладывайте туда, или на гитхаб вообще бесплатно для всех. Посылай на конфу, там тебе найдут пару студней сделать пир ревью. Но нет, поди ж ты, они шлют в саенс, сами себе враги, наверное.
Аноним 12/07/18 Чтв 08:38:43  1226518
>>1226493
>Саенс
Вангую, эту парашу никто не читает, там только публикуют.
Аноним 12/07/18 Чтв 11:03:44  1226560
8 часов, 6 тысяч эпох - много для обучения однослойной сети?
Аноним 12/07/18 Чтв 13:34:02  1226610
>>1226560
Если ты ищешь бозон хиггса для ЦЕРН, то еще может быть в пределах нормы, а если это какой-то ирис или мнист, то ты где-то накосячила.
Аноним 12/07/18 Чтв 18:24:07  1226767
Покажите выходные значения из правильно обученной нейронки с активацией 0-1. Они должны быть ближе к 1 или к 0?
Аноним 12/07/18 Чтв 18:37:59  1226771
>>1226767
Что такое активация 0-1? Если у тебя функция активации возвращает только 0 или 1, то выходным значением может быть только 0 или 1, никаких ближе или дальше. Но в этом есть смысл только если ты работаешь с простой задачей вроде XOR.
В любом случае, какой лейбл у входящих данных, такой должен быть и выход. Если у тебя one-hot encoding, то на выходе бери то у чего значение ближе к 1.
Аноним 12/07/18 Чтв 22:38:28  1226938
http://www.deeplearningbook.org/
А эта книга - это уровень введения семестровый или чуть больше этого?
Аноним 12/07/18 Чтв 22:40:24  1226939
>>1226398
sci-hub же есть лол

Аноним 12/07/18 Чтв 22:48:21  1226945
>>1226938
Это полный курс. Там очень много материала, включая довольно новые модели, изложено довольно плотно местами. За семестр с нуля ты точно не сможешь все прочитать с пониманием, за год тоже вряд ли.
Аноним 12/07/18 Чтв 22:49:52  1226946
>>1226945
Отлично. Спасибо. Просто чтобы понимать корреляцию между объемом текста и сроком обучения
Аноним 12/07/18 Чтв 22:54:26  1226950
Да что с вами всеми не так? Все вопросы в треде формулируются каким-то дебилом или стремящейся нейронкой. Научитесь выражать свои мысли и пользоваться поисковиками, может вы потому и не можете ничего найти что гугол понять вас не может.
>>1226938
Что такое уровень введения семестровый? Это очень хорошая книга, с объяснением теории от начал математики до обзора базовых моделей, на которых стоит машобчик, включая модные и свежие. Ты можешь осилить ее за семестр, но фактически пройдешься по верхам, а впереди тебя будет ожидать имплиментация всего этого счастья (вот тут начинается реальное понимание), практические проблемы, попытки в свой пет-проджект, боль, унижения и годы (да, это не веб-макакинг, быстрого вкатывания не существует) тяжелой работы и чтения пейперов. Если тебе это нужно для того чтобы зарабатывать на хайпе, то я с удовольствием посмотрю на твои мучения, а если тебя увлекает тема, то ты бы не задавал тупых вопросов и не рассчитывал быстро проскочить.
Аноним 12/07/18 Чтв 22:57:24  1226952
Вы были ошибкой и ваши родители вас не хотели.
Аноним 12/07/18 Чтв 23:24:16  1226971
Нужен Демидович по нейроночкостроению.
Аноним 13/07/18 Птн 01:09:15  1227026
That $35 that scientific journals charge you to read a paper goes 100% to the publisher, 0% to the authors. If you just email us to ask for our papers, we are allowed to send them to you for free, and we will be genuinely delighted to do so.

https://twitter.com/hwitteman/status/1015049411276300289
Аноним 13/07/18 Птн 04:13:42  1227071
Насколько реалистично чтобы разные модели, например, простая многослойная нейроночка и рандом форест, классифицировали по примерно одинаковым фичам? Тоесть, если есть 100 фич, то топовые feature importance будут у одинаковых 10 в разном порядке.
Аноним 13/07/18 Птн 06:33:42  1227080
На выходной нейрон [1] (индекс с нуля начинается) всегда приходят значения многократно выше (~ в 40 раз) чем на все остальные. Как следствие - он умирает сразу. Что делать?
Аноним 13/07/18 Птн 06:38:59  1227081
Однослойная сеть. Как увеличить количество слоев?

Начало цикла,
форвард,
бэк,
сохранение веса.

Больше одного слоя - это форвард и бэк в цикл for взять?
Аноним 13/07/18 Птн 08:44:14  1227087
>>1227080
Gradient clipping?
Аноним 13/07/18 Птн 08:45:07  1227088
>>1227081
Да. И размерности увеличить.
Аноним 13/07/18 Птн 09:16:35  1227098
>>1227087
Спасибо.
Аноним 13/07/18 Птн 10:32:39  1227119
>>1227071
как ты у нейронки получишь feature importance? мне кажется, можно визуализировать, интерпретировать и тд, но прям фичи не получишь
Аноним 13/07/18 Птн 12:34:44  1227147
153142041911689[...].jpg (178Кб, 640x1136)
Аноним 13/07/18 Птн 14:29:31  1227210
>>1227119
Таки взял натренированную сеть и скармливаю ей один датасет той же размерности, но в каждой итерации заменяю один столбик на его среднее значение, тоесть убираю фичу и смотрю на результат. Рокет саенс.
Аноним 13/07/18 Птн 14:50:34  1227218
>>1227147
Симуляции? Поди марковские цепи с монте Карло дрочат.
Аноним 13/07/18 Птн 15:07:24  1227229
>>1227147
Вот удивили то!
Аноним 13/07/18 Птн 18:11:38  1227413
ничоси.jpg (24Кб, 520x369)
>>1227147
Аноним 14/07/18 Суб 01:29:00  1227765
В статьи все еще вставляют псевдокод или уже можно листинги на питоне?
Аноним 14/07/18 Суб 02:21:46  1227792
>>1227765
Код кладешь на гитхаб, в статью ссылку. Псевдокод в тексте тоже приемлемо.
Аноним 14/07/18 Суб 05:00:57  1227806
Перепробовал разное количество слоев, разные функции активации. Она не работает. Что не так?
Аноним 14/07/18 Суб 06:54:35  1227812
>>1227806
Обучать не пробовал?
Аноним 14/07/18 Суб 07:24:29  1227816
А что вообще такое Data Science?
Аноним 14/07/18 Суб 07:32:15  1227818
>>1227816
Нейроночки
Аноним 14/07/18 Суб 17:01:17  1228080
>>1227816
>А что вообще такое Data Science?
Мартышка к старости слаба мозгами стала;
А у людей она слыхала,
Что это зло еще не так большой руки:
Лишь надо применить нейронОчки.

Все модные нейронОчки себе она достала;
Вертит нейронОчки и так и сяк:
То тренирует их, то стопицот слоев нанижет,
То их в ансамбль соберет, а то полижет;
НейронОчки не действуют никак.

"Тьфу пропасть! — говорит она, — и тот дурак,
Кто на ютубе смотрит врак:
Всё про нейронОчки индусы мне налгали;
А проку на-волос нет в них".
Мартышка тут с досады и с печали
Делитом так хватила их,
Что только файлы засверкали.
Аноним 14/07/18 Суб 20:24:33  1228261
Есть ли смысл делать гридсерч с N эпохами и кросс-валидацией k-fold из тренировочного сета, а затем выбирать лучший эстиматор и обучать его до early stopping или N*10 эпох, с валидацией на предварительно отделенном валидационном наборе?
Аноним 14/07/18 Суб 23:11:47  1228385
>>1228261
Гридсерч чего? Гиперпараметров? Нет. Например, ты learning rate так выберешь слишком большой, а он за собой потянет все остальные гиперпараметры.
Аноним 14/07/18 Суб 23:17:46  1228388
>>1228385
Гиперпараметров. А если вынести learning rate и через callback кераса уменьшать автоматически?
Аноним 14/07/18 Суб 23:21:38  1228392
>>1228388
Learning rate это лишь самый очевидный пример. Все остальное тоже будет неоптимально в общем случае. Гарантий нет.
Аноним 15/07/18 Вск 01:00:58  1228429
True positive rate это то же самое что и recall?
Аноним 15/07/18 Вск 11:09:47  1228518
>>1228392
> Все остальное тоже будет неоптимально в общем случае. Гарантий нет.
Потому что нейроночки это машоб курильщика. Подрочить вприсядку с бубном, авось сойдется.
Аноним 15/07/18 Вск 11:13:31  1228519
>>1228518
Тоесть, другие модели так можно тюнить? Или ты просто стриггерился на нейроночки?
Аноним 15/07/18 Вск 11:14:12  1228520
>>1228518
Что лучше?
Аноним 15/07/18 Вск 11:22:23  1228522
Я разобрал каждый шаг. Теперь не понимаю ещё больше. Не конволюшен сеть с фидфорвардом для предикшена да-не. Зачем делать скаляр на входе? А как ещё? Если скармливать не картинку, а какие-то данные, то как тогда делают? Тоже что-ли просто умножают все?
Аноним 15/07/18 Вск 12:22:04  1228545
Мне нужен список сопоставлений. Например: "как найти тян" разбивалось на слова и лексемы и классифицировалась. Есть же что-то что отделит "как найти" - вопрос, "тян" - женщина? Как это делают?
Аноним 15/07/18 Вск 12:52:20  1228565
Как найти причину почему сеть не может? Доходим до 20%
Аноним 15/07/18 Вск 15:05:25  1228652
>>1228545
Морфологический разбор речи? Вроде учат в школе.
Аноним 15/07/18 Вск 15:13:19  1228656
Поясните что такое lesswrong и что они делают. Все чаще замечаю пиар на дваче. Они вроде хотят сделать йобаИИ, по этому здесь и спросил.
Аноним 15/07/18 Вск 15:37:18  1228680
>>1228656
Юдковский растекается мыслями по поводу того как работает человеческое сознание и полагает что его выводы делают понимание интеллекта lesswrong, большинство статей оттуда или обозревают и систематизируют выводы из когнитивистики, или не несут никакой пользы и абсолютно гуманитарны, а из того что представляет интерес получилось собрать годный фанфик по Гарри Поттеру, который этот самый lesswrong и распиарил. Для тех кто не может в английский есть перевод статей.
И в любом случае ты ошибся тредом.
Аноним 15/07/18 Вск 16:15:34  1228717
Где прочесть про дисперсию из мат. статистики?

Я не могу понять, в чём её смысл? А именно почему разность между очередным значением и средним значением возводится в квадрат, а не берется по модулю? И что мне показывает полученное значение дисперсии? И почему процедура получения дисперсии именно такая?
Аноним 15/07/18 Вск 16:27:25  1228727
>>1228717
Можно брать и по модулю, это просто другое определение расстояния в пространстве(метрики). Просто квадраты сильнее "штрафуют" за отдаление от среднего значения.
Аноним 15/07/18 Вск 16:28:33  1228728
http://www.machinelearning.ru/wiki/images/6/6d/Voron-ML-1.pdf

Ребята, хорошее введение в машинное обучение?
Аноним 15/07/18 Вск 16:39:01  1228736
Вот я какой раз уже вижу тут гениев, которые лезут содомировать нейроночки, при этом понятия не имеют, что такое сигма, дисперсия итд азы. Вот просто по аналогии - много ли можно понять у какого-нибудь Достоевского, не зная русского даже не языка, а алфавита?.. По теорверу есть очень годный учебник Вентцель.
>>1228717
> Я не могу понять, в чём её смысл?
Разброс значений случайной величины.
Аноним 15/07/18 Вск 16:41:22  1228738
>>1228736
>Вот просто по аналогии - много ли можно понять у какого-нибудь Достоевского, не зная русского даже не языка, а алфавита?..
Да
Аноним 15/07/18 Вск 16:44:27  1228739
>>1228736
>учебник Вентцель.
576 стр лол
Надо с более простых вещей начинать, чтобы не пугать человека. Каких-нибудь вводных курсов по теорверу ВШЭ или МГУ более чем достаточно.
Аноним 15/07/18 Вск 16:47:59  1228742
>>1228728
Ты же понимаешь что русских ноунеймов никто читать не будет? Может и хорошее, но можно просто взять http://www.deeplearningbook.org/
Аноним 15/07/18 Вск 17:00:05  1228749
>>1228728
> Ребята, хорошее введение в машинное обучение?
Воронцов штоле? Лол, навернешь у него вариационного исчисления с первой страницы без объяснений что вообще происходит.
Аноним 15/07/18 Вск 17:28:29  1228769
>>1228727
>Просто квадраты сильнее "штрафуют" за отдаление от среднего значения.
Спасибо за ответ. Я бы понял такое объяснение в случае не с дисперсией, а, например, с квадратичной функцией потерь, что там надо оштрафовать то, что сильно отклонилось от правильного ответа. Но вот с дисперсией - нет. Не пойму за что штрафовать? Зачем? Не могу осилить понимание механизма, который делает дисперсию правильной именно с квадратом, а не с модулем.

>>1228736
Благодарю за ответ.
>По теорверу есть очень годный учебник Вентцель.
Так то теор.вер., а я про мат. статистику хотел узнать. В теор. вере. формула дисперсии в другая, чем в учебниках мат. статистики. Например, в теор. вере ряд распределения дан с величинами и вероятностями. А мат. статистике просто ряд со значениями.

Вентцель просто дает формулу, вот формула дисперсии, пользуйтесь. А почему квадрат, а не модуль там не говорится.

>Разброс значений случайной величины.
Не могу смысл найти, разброс можно было бы и модулем померить, а тут квадрат.
Аноним 15/07/18 Вск 17:43:14  1228776
>>1228749
>вариационного исчисления
Первый семестр теормеха
Аноним 15/07/18 Вск 23:20:30  1228961
>>1228776
Не все учились в лицеях.
Аноним 16/07/18 Пнд 02:23:11  1228995
>>1226323 (OP)
Есть у коо полные ответы на Pattern Recognition and Machine Learning?
Аноним 16/07/18 Пнд 07:38:56  1229044
У меня на все нейроны одинаковый bias, одна и та же функция активации. Так никто не делает что ли? Каждому нейрону свой коэффициент? Зачем?
Аноним 16/07/18 Пнд 07:40:59  1229045
>>1229044
Каждому слою нейронов нужен свой bias, почитай что это такое прежде чем использовать. В каждом треде этот вопрос, пора его в шапку.
Аноним 16/07/18 Пнд 08:32:20  1229053
>>1227210
Ок, ступил, хотя это больше для мниста, тогда высокая вероятность, если это не какое-нибудь умножение или другая хитрая корреляция, но это ты и сам знаешь
Аноним 16/07/18 Пнд 08:50:04  1229059
>>1229045
Картинка, из нее скаляр * количество слоев + смещение и активация тангенсом. Я на выходе имею четкое отделение одного от другого. Зачем разный bias, если если я уже контрастно отделил одни числа от других? Смысл честно говоря не пойму.
Аноним 16/07/18 Пнд 09:23:35  1229082
>>1229059
Проблема в том, что науканы не пытаются понять, что делает нейронка. Они рассуждают примерно так: "Ну кароч нейрон что-то делает, хуйзнает, но мы его аппроксимируем линейной функцией, чтобы сильно не напрягаться. Поэтому у нас два параметра для обучения - вес и bias. А чтобы херни на выходе не получалось, мы края обрежем нелинейностью - сигмоид, тангенс, ReLU, похуй ваще, сами разбиратесь, нам это неинтересно."
Аноним 16/07/18 Пнд 09:39:54  1229088
>>1228656
Ты спрашиваешь про MIRI. Они там какие-то формулы придумывают, чтобы оценивать злобность/дружественность ии, или может просто деньги пилят.
Аноним 16/07/18 Пнд 09:54:16  1229089
>>1229082
> Они рассуждают примерно так: "Ну кароч нейрон что-то делает, хуйзнает, но мы его аппроксимируем линейной функцией, чтобы сильно не напрягаться.
Это ты так рассуждаешь, мань. Полно работ по биологическим аспектам нейрона, начиная с того же Розенблатта и Маккаллока с Питтсом. Вместо того, чтобы тут кукарекать, ознакомился бы.
Аноним 16/07/18 Пнд 10:18:58  1229098
>>1229089
>работ по биологическим аспектам нейрона
А самолет изобрели зоологи
Аноним 16/07/18 Пнд 10:21:08  1229099
>>1229098
и делают его из перьев
Аноним 16/07/18 Пнд 10:22:15  1229101
>>1229098
> А самолет изобрели зоологи
Тебя зоологи изобрели, судя по всему. Хоть бы с историей идей машоба ознакомился, прежде чем срать здесь.
Аноним 16/07/18 Пнд 10:33:45  1229107
>>1229101
>прежде чем срать здесь.
Смешно шутишь.
Насрал тебе на голову, кстати.
Маняматика нинужна, ЖС лучший и единственный язык, Путин - президент мира.
Аноним 16/07/18 Пнд 13:16:26  1229152
>>1229101
Что делает первый слой свертки в ResNet?
Аноним 16/07/18 Пнд 13:55:12  1229166
>>1229101
>Тебя зоологи изобрели, судя по всему.
Орнул
Аноним 16/07/18 Пнд 14:07:43  1229175
>>1229089
>Розенблатта и Маккаллока с Питтсом.
И чо и чо, как успехи у пасанчиков, соснуле?
Аноним 16/07/18 Пнд 14:16:00  1229183
>>1229089
>Это ты так рассуждаешь, мань. Полно работ по биологическим аспектам нейрона, начиная с того же Розенблатта и Маккаллока с Питтсом. Вместо того, чтобы тут кукарекать, ознакомился бы.

Это где относительно недавно глиальные клетки начали изучать и только десяток лет назад поняли, что это не просто балластный жирок?

А котематики уже кококок кучу моделей абстрактного говна нахуярили по мотивам старых исследований.
Аноним 16/07/18 Пнд 14:26:06  1229186
Надо математику выучить от самого начала...
Аноним 16/07/18 Пнд 14:37:11  1229188
>>1229186
>от самого начала...
И до самого конца
Аноним 16/07/18 Пнд 14:37:28  1229189
>>1229183

Кстати, у маняматиков на теме открытий в области нейроглии тут же обосратушки-перепрятушки и новые охуительные истории пошли, внезапные откровения озарили, бгг:

https://hal.inria.fr/hal-01221226/document
Аноним 16/07/18 Пнд 14:38:37  1229190
>>1229183
>Это где относительно недавно глиальные клетки начали изучать и только десяток лет назад поняли, что это не просто балластный жирок?
Кстати, а почему вся эта ученая пиздобратия считает, что мышление происходит в мозгу?
Аноним 16/07/18 Пнд 14:49:05  1229192
>>1229190

Да хуй его знает. У них самих из инструментов познания - только жидорептилоидные маняматика, да манялогика, которые им время от времени подгоняют. А потом отвлекают внимание на этих лошар, дескать они агенты зога. Лошары они слепошарые. Вот маняматики те да - чистые рептилии. Того же Перельмана вспомнить, как он способ управления миром по его словам открыл.
Аноним 16/07/18 Пнд 14:58:27  1229196
>>1229192
>них самих из инструментов познания
Есть же интроспекция - йога для бедных.
Аноним 16/07/18 Пнд 15:01:54  1229197
>>1229196
>Есть же интроспекция - йога для бедных.

Тоже в плену формальной и неформальной логик.
Аноним 16/07/18 Пнд 15:08:17  1229200
>>1229188
Это не обязательно.
Аноним 16/07/18 Пнд 15:35:28  1229212
>>1229197
Намного эффективней, чем хуярить мышь током и смотреть какие там у ней участки мозга закоротило, ну это физиологи допустим, а маняматики, какие у них эксперементы? Если они пытаются в аналогию мозга, то почему они не наблюдают за его работой? Откуда они понапиздили всюе эти нейроны и перцептроны?
Аноним 16/07/18 Пнд 17:20:35  1229276
>>1227210
>>1229053
но, хотя я и ступил, но это же не дает тебе фича импотанс в прям уж чистом виде, с тем же успехом можно просто смотреть веса первого слоя, как в простой регрессии
http://explained.ai/rf-importance/index.html
Аноним 16/07/18 Пнд 17:24:04  1229278
>>1229190
не знаю, зачем я тебе отвечаю, но потому что есть (и очень много) экспериментальных данных, как люди теряют способность к разным аспектам мышления при травмах головного мозга, и это просто из самых базовых объяснений
Аноним 16/07/18 Пнд 17:32:02  1229283
>>1226323 (OP)
и предлагаю из названия следующего треда убрать слово "НЕЙРОНОЧКИ", оставить только машинное обучение
Аноним 16/07/18 Пнд 17:36:01  1229286
>>1229283
> предлагаю из названия следующего треда убрать слово "НЕЙРОНОЧКИ"
Изначально его там и не было. Это позже петросянство началось. Диплернинхбук из этой же области, абсолютно непригодные для начинающего объяснения как работают те же сверточные сети.
Аноним 16/07/18 Пнд 17:51:17  1229293
>>1229278
>теряют способность к разным аспектам мышления
Это хуяня, а не объяснение. Если ты у радио выбросишь пару деталей, оно начинает хуево работать, но это не значит, что радиостанция находится внутри него. Веятного объяснения того, что мозг является мыслительным органом нет.
Аноним 16/07/18 Пнд 17:53:28  1229296
>>1229293
>Веятного объяснения того, что мозг является мыслительным органом нет.
В человеке мыслит душа, а не мозг
Аноним 16/07/18 Пнд 17:55:34  1229298
>>1229293
Но мозг - не радио.
Аноним 16/07/18 Пнд 17:56:55  1229300
>>1229298
Алсо, да покормил.
Аноним 16/07/18 Пнд 17:57:01  1229301
>>1229298
>Но мозг - не радио.
Ты скозал?
Аноним 16/07/18 Пнд 17:59:17  1229304
>>1229301
Да, я. Ты сперва докажи, что он радио, а потом поговорим. Если радио посадить в среду с изолированным внешним сигналом, то оно нихуя работать не будет, а человек будет.
Да, я поговорю с шизиком.
Аноним 16/07/18 Пнд 18:01:33  1229305
>>1229304
> Ты сперва докажи
Нет, это уж ты докпжи, что там происходят мыслительные процессы.
>изолированным внешним сигналом
Кто тебе про электромагнитные волны говорил, мань?
Аноним 16/07/18 Пнд 18:05:27  1229310
>>1229305
Активность нейронов, зависимость восприятия и мышлительных процессов от различных дефектов в строении нейронов. Других доказательств нет и пока кто-либо не предоставит другие, то все будут считать, что вычисления проходят в мозге.
Аноним 16/07/18 Пнд 18:10:00  1229314
153138372218488[...].png (91Кб, 400x411)
>>1229310
>Других доказательств нет
>то все будут считать, что вычисления проходят в мозге.
Обожаю современную науку
Аноним 16/07/18 Пнд 18:10:51  1229316
>>1229314
А ты можешь предположить что-то лучше?
Аноним 16/07/18 Пнд 18:17:18  1229318
>>1229316
Могу предложить только одно - перестать матанопетухам наебывать людей. Вся эта нейронная билиберда чистый маркетинг, не имеющий отношения ни к мозгу ни к живым существам.
Аноним 16/07/18 Пнд 18:19:47  1229319
>>1229318
>Вся эта нейронная билиберда чистый маркетинг, не имеющий отношения ни к мозгу ни к живым существам.
Докажи
Аноним 16/07/18 Пнд 18:20:39  1229320
Аноны, кто-нибудь работал с Keras?
Как там подготовить свои данные,
то есть не скачивать готовое https://keras.io/datasets/ ,
а подготовить свои текстовые данные,

собираюсь заниматься анализом текстов с помощью построения RNN с LSTM, не понимаю как вообще организовать папку с данными, где есть данные и лейблы,
в документации ничего об этом не нашел, там пишут, мол качайте готовое, для вас быдла уже все сделано
Аноним 16/07/18 Пнд 18:24:53  1229324
>>1229319
>Докажи
Кампутервижин, НЛП, аутономусвехиклс, все это не работает.
Аноним 16/07/18 Пнд 18:29:52  1229329
>>1229324
И? Это не является доказательством.
Аноним 16/07/18 Пнд 18:34:51  1229335
>>1229329
>Это не является доказательством
Тоесть, когда ученые столько лет лепят пули из говна, а они не стреляют, нужны еще какие то доказательства?
Аноним 16/07/18 Пнд 18:35:28  1229337
>>1229335
Да.
Аноним 16/07/18 Пнд 18:36:13  1229339
>>1229337
Например?
Аноним 16/07/18 Пнд 18:42:40  1229342
>>1229339
Другая теория, которая бы смогла опровергнуть современные взгляды.
Аноним 16/07/18 Пнд 18:45:28  1229344
>>1229342
Пока ее не появится, вы будете делать пули из говна?
Аноним 16/07/18 Пнд 18:45:52  1229345
>>1229344
Да
Аноним 16/07/18 Пнд 19:06:38  1229351
>>1229320
Не совсем понятен вопрос. Упрощая - все данные это таблицы (и ты можешь невозбранно ручками скачать много таблиц ну хотя бы с kaggle). Это может быть база данных, а может быть csv файл, но это таблица с текстовыми данными. Если хочешь работать с текстами, создавай файл text.csv в котором первый столбик заполняй... текстом, это твои Х, а второй столбик лейблами, это твои Y, затем с помощью например pandas read csv ты загружаешь эту таблицу в программу, и например через train_test_split из библиотеки sklearn получаешь точно такие же массивы тренировочных и тестовых данных которым тебя уже приучил керас.
Картинки (и любые другие данные) обрабатываются абсолютно таким же образом, ты берешь файл картинки, делаешь из него строку или двухмерный массив со значениями пикселей от 0 до 255 (в черно-белом варианте) или трехмерный от 0 до 255 для каждого цвета rgb (спойлер, их три), хотя конечно я тебя никак не ограничивая и ты можешь представить картинку как побитовую запись файла или его хеш или как тебе приспичит, это дата саенс, детка. Запиши все это в первый столбик таблицы, а лейблы во второй и все. Дата саенс это не распознавание негров на однообразных данных, это обработка и анализ данных так чтобы из них начало получаться что-то стоящее, а использовать можно хоть линейную регрессию или деревья, деревья вообще тащат а XGB топчик. Перестань бояться данных, они твои бро.
Аноним 16/07/18 Пнд 19:51:37  1229382
Как обучать свою внутреннюю нейроночку?
Аноним 16/07/18 Пнд 19:57:28  1229386
>>1229382
Скармливай данные и лейблы, все. У нее годная архитектура, может научиться хоть лисьим хвостом управлять, хоть языком смотреть.
Аноним 16/07/18 Пнд 20:11:10  1229397
>>1229382
Поощряй за успехи, давай пиздюлей за ошибки.
Аноним 16/07/18 Пнд 21:15:07  1229450
>>1229351
хочу вот так же сделать, но со своими данными,
https://pastebin.com/bUXeqqaE
вот только не могу понять как их готовить

>sklearn
>pandas
можно ли как-то то же самое сделать через спарк и керас?
мне именно с ними надо работать,
ну типа спарком можно как-то обработать сырые данные и дать их на растерзание питоновскому скрипту, потестить разные параметры сети и разные архитектуры,
а потом самую удачную переписать на нативной спарковской библиотеке MLlib на Scala,
у меня такой план
Аноним 16/07/18 Пнд 21:33:17  1229468
>>1229450
Ты можешь это сделать через стандартную библиотеку питона, но зачем? Я тебе про идею, ты мне про инструменты. Это не веб-макакинг где нужно учить новые фреймворки каждые два года, pandas и все что входит в scipy это стандарт, к тому же, тебе всего пара функций нужна оттуда - сперва ты обрабатываешь данные, а потом используешь спарк, керас и что угодно, это два разных процесса в большинстве случаев. Керас просто не предназначен для препроцессинга на таком уровне, он упрощает какие-то специфические моменты в работе со строками и изображениями, но уже после того как по ним прошлись pandas или sklearn.
Кажется, тебе сперва нужно вообще разобраться с тем что такое данные и что такое эти ваши нейроночки, если у тебя нет представления о том что такое X_train.
Аноним 16/07/18 Пнд 21:44:14  1229479
>>1229468
хорошо,
а как придумать лейблы, если я собираюсь анализировать серверные логи,
например, "ERROR", "INFO" и "WARN" это хорошие лейблы?
Аноним 16/07/18 Пнд 21:49:01  1229483
>>1229479
0, 1 и 2 это хорошие лейблы. Начни с http://www.deeplearningbook.org/
Аноним 16/07/18 Пнд 21:57:37  1229488
>>1229483
хорошо,
спасибо
Аноним 16/07/18 Пнд 21:58:45  1229489
>>1229483
> 0, 1 и 2 это хорошие лейблы. Начни с http://www.deeplearningbook.org/
В диплернинхбук такое пишут? Хорошие лейблы это н-р "1 из N", https://en.wikipedia.org/wiki/Constant-weight_code А 0 1 и 2 будут просто непрерывными значениями как при регрессии.
Аноним 16/07/18 Пнд 22:00:54  1229490
>>1229489
One-hot encoding тоже один из стандартных метов и в диплернинхбук о нем пишут.
Аноним 16/07/18 Пнд 23:18:52  1229528
Почему не могут замутить нейронку, с помощью которой модно было бы говорить с животными?
Мне бы пригодилось, еще диплом сдавать и общаться с "преподавателями" в вузеке
Аноним 17/07/18 Втр 04:53:11  1229639
Почему часто в статьях приводятся результаты для валидационного сета? Всмысле, есть резон следить за показателями пока проводятся эксперименты чтобы отловить какие-то косяки, но в качестве результатов эта информация кажется бесполезной.
Аноним 17/07/18 Втр 05:09:09  1229644
>>1229639
> Почему часто в статьях приводятся результаты для валидационного сета?
Потому что они показывают, что модель правильно обучена и может обобщать, т.к работает на данных, не использовавшихся в обучении.
Аноним 17/07/18 Втр 06:24:04  1229649
>>1229320
Ну потому что Keras таки для нейронных сетей, а методов препоцессинга в нем не много. Тебе лучше почитать про то, как готовить данные к ML в целом и как лучше векторизовать тексты в конкретной задаче, почитать про numpy, sklearn, pandas, попробовать чей-нибудь простое типа tf-idf и прочего, а потом открыть для себя doc2vec, word2vec, language models и прочее.
Мимо-нлпшник
Аноним 17/07/18 Втр 06:34:00  1229653
Систему переустанавливал. Не занимался этим день.
Давайте с начала. Нужно получить да или нет ответ. На вход делаем цифры в каком-либо виде. Для контрастности добавляем смещение, активацией выравниваем. Цифры будут разделены на две группы. Зачем делать слои, менять learning rate и разные активации на каждом слое? Или вы получаете больше чем да-нет?
Аноним 17/07/18 Втр 08:56:28  1229683
>>1229653
Да-нет это бинарная классификация. Есть классификация с множественными классами, есть регрессия, есть аппроксимация плотности распределения, априори неизвестной. В зависимости от задачи делается датасет и подбирается подходящий алгоритм, пусть хоть нейроночки эти ваши. Хотя я абсолютно уверен, что если задача не в том что бы негров распознать или котиков под Пикассо разрисовать, можно не изьебываться с сотнями слоёв, достаточно простой SVM.
Аноним 17/07/18 Втр 12:09:26  1229794
Обойдите уже гугл капчу, я заебался эти машинки целыми минутами выбирать блять это пиздец. Хорошо хоть здесь есть нормальная капча.
Аноним 17/07/18 Втр 12:45:48  1229816
>>1229794
Был же скрипт, который в гуглокапче включал аудио вариант и использовал для его распознавания сервис самого гугла.
Аноним 17/07/18 Втр 12:50:31  1229817
>>1229816
Они включили йобазащиту, когда просто банят и не дают ввести капчу
Аноним 17/07/18 Втр 13:18:00  1229826
>>1229528
>21 век
>не умеет общаться представителями своего вида
Какие тебе нейроночки, ты же сам животное, лол
Аноним 17/07/18 Втр 14:28:40  1229853
Почему не сделают вокалоида как гугл мужика? И наоборот
Аноним 17/07/18 Втр 15:16:45  1229873
>>1229649
>Мимо-нлпшник
Привет, ты тот анон с дисером? Как успехи?
Аноним 17/07/18 Втр 15:41:21  1229895
>>1229644
Это показывают данные из тестового набора, а валидационный таки использовался... ну... для валидации по ходу обучения.
Аноним 17/07/18 Втр 15:55:24  1229912
Почему в ёлу нельзя вставить большую картинку инпут? Эксепшен вылетает.
Аноним 17/07/18 Втр 17:13:16  1229963
>>1229895
потому что эти статьи неправильные, а их модели оверфитнутые, но никто не проверяет же
Аноним 17/07/18 Втр 17:35:11  1229979
>>1229963
Нет, в статьях идут таблицы и графики средних результов и тестов, и валидаций.
Аноним 17/07/18 Втр 20:58:01  1230119
А расскажите, где нищему студенту можно взять сервер, чтобы там можно было установить все нужные библиотеки и погонять на нем нейронки? Зимой на месяц брал триал Azure, не разобрался, как получить студенческий доступ, и забил после окончания бесплатного доступа. Есть какие-то фри решения? Огромные вычислительные мощности не нужны.
Аноним 17/07/18 Втр 21:05:33  1230122
>>1230119
Ты профнепригоден, если даже со студентческой халявой разобраться не можешь
Аноним 17/07/18 Втр 21:09:38  1230126
>>1230122
Там попросили номер карты, я ввел, потом сообразил, что вообще-то могу получить студенческий доступ, создал новый аккаунт, а карту перепривязать не удалось.
Аноним 17/07/18 Втр 22:21:12  1230156
>>1230126
Ну напиши им в техподдержку
Аноним 18/07/18 Срд 03:19:27  1230253
Я знаю что старые алгоритмы вроде деревьев продолжают усовершенствовать всякими ансамблями, а что с генетическими алгоритмами? Они мертвы или просто потерялись за хайпом нейроночек?
Аноним 18/07/18 Срд 05:14:04  1230259
>>1230253
Их отдельные энтузиасты пилят понемногу. https://journal.r-project.org/archive/2017/RJ-2017-008/ например. Не думаю, что тема мертва, там ещё есть куда расти и вообще, сама идея ГА (эволюционные методы оптимизации) интересна.
Аноним 19/07/18 Чтв 22:01:12  1231293
Прочел вот этот пост https://habr.com/post/334380/. В разделе про автоматическое дифференцирование, показывается, как вместе со значением функции сразу вычисляется градиент, без backprop-а. Однако затем есть пример, где вызывается backward. Зачем, если градиент параллельно считается?
Аноним 19/07/18 Чтв 22:15:05  1231300
>>1231293
Ты не понял, что там написано. Не расстраивайся, просто описание слишком поверхностное.
>вместе со значением функции сразу вычисляется градиент
Не вычисляется градиент, а строится граф для его вычисления. Т.е. символьно вычисляется выражение. Потом этот граф нужно исполнить, чтобы вычислить значение.
Аноним 20/07/18 Птн 10:54:14  1231548
Программа делает кое-что. Из программы приходит снимок экрана и что программа сделала. Это нужно засунуть в нейронку которая будет анализировать качество действий. Что мне нужно? Классификация?
Аноним 20/07/18 Птн 11:01:29  1231551
>>1231548
Deep reinforcement learning. Даже во всякие арканоиды и понги учат играть эти ваши гейроночки.
Аноним 20/07/18 Птн 15:32:52  1231691
В Украине можно PhD получить?
Аноним 20/07/18 Птн 16:02:26  1231711
>>1231691
Получай.
Аноним 20/07/18 Птн 16:43:51  1231743
>>1228769
>Не могу осилить понимание механизма, который делает дисперсию правильной именно с квадратом, а не с модулем.
Дисперия случайной величины x есть по определению: Var x = E(x-Ex)^{2}, где E - оператор взятия среднего значения( математического ожидания) Предположим, мы считаем, что корректней определять дисперсия через модуль, т.е: Var x = E|x-Ex|. Раскрываем модуль: если x > Ex тогда |x - Ex| = x - Ex и наша новая "дисперсия" равна нулю, если x < Ex то тогда |x - Ex| = Ex - x, и наша дисперсия снова тождественно равна нулю. Таким образом наше определение, очевидно, несостоятельно.
Аноним 20/07/18 Птн 17:40:34  1231781
>>1230253
>что с генетическими алгоритмами?
Идешь сюда: http://gecco2018.uma.es/proceedings/gecco18_papers_toc.html
И качаешь свежие статьи с недавней конфы.
user: gecco2018
password: kyoto

В целом на чисто ml-задачах GP сосет. Самый модный алгоритм epsilon-lexicase selection на задачах регрессии работает в 6-20 раз дольше, чем xgboost и дает, как пишут в их бенчмарках https://github.com/EpistasisLab/regression-benchmark чуть лучший результат.

Однако, что это за бенчмарки? Максимальный размер датасета на котором они тестировались был 1000 наблюдений на 100 признаках.

В общем пока представляет интерес только для соревновательного стекинга.
Аноним 20/07/18 Птн 17:44:26  1231788
>>1231743
>Предположим, мы считаем, что корректней определять дисперсия через модуль
Ты только что стандартное отклонение
Аноним 20/07/18 Птн 17:55:59  1231801
>>1226323 (OP)
>В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.
At first i was like:
>HOLY SHEEEET THESE WORDS ARE TOO COMPLICATED
But then i:
>бля, я же по всему этому получил отлично в экономическом универе и даже через десяток лет всё помню и знаю большую часть
Тру стори, анончик. Как-то хожу сразу в нужные треды, а вот решил почитать и охуел изначально, чот трудна. И ушёл дальше. Вспомнил, что в шапке какой-то мемас есть и решил его понять. Прочитал ещё раз и охуел с того, что я же реально это всё великолепно освоил в универе.
Это ведь действительно глаза боятся, а руки делают.
Ещё один повод начинать кекать с моих одногрупников, которые "блееее, нахуй мне ваша матеша, она нинужна в иканомике" или "фу, ебучий эксель, КТО ИМ ВООБЩЕ ПОЛЬЗУЕТСЯ в экономике?". А теперь эти шакалы за 20к бумажки перекладывают в пыльных некондиционируемых офисах на самом деле, больше половины сидит по местным управлениям миллионника, а остальные съебали в другие страны, ведь направление было блатным и всех куда надо пристроили, только одна тян залетела от хуй пойми кого и в семью играет, ну и я, долбоёб, в кодерство ударился.
Аноним 20/07/18 Птн 17:56:29  1231803
>>1231781
Только в современных соревнованиях обычно миллионы примеров.
Аноним 20/07/18 Птн 18:53:47  1231852
>>1231801
А я не умею в квадратные уравнения.
Аноним 20/07/18 Птн 18:57:54  1231856
>>1231781
поцеловала в щечку
Аноним 21/07/18 Суб 08:27:38  1232136
>>1226323 (OP)
Ну почему я не учил математику в школе и не пошел на математическую специальность в вуз? Так хочется вкатиться в датасаенс, но не умею в английский и математику. Что делать, братцы?
Аноним 21/07/18 Суб 08:37:46  1232143
>>1232136
Увы, скорее всего, поезд ушел. Английский выучить не должно быть серьезным препятствием, можешь начать с него. Все равно пригодится.
Аноним 21/07/18 Суб 10:53:05  1232170
>>1226560
>однослойной сети
>2к18
Аноним 21/07/18 Суб 11:00:22  1232171
>>1229045
На самом деле каждому нейрону свой биас, деб.
Аноним 21/07/18 Суб 11:06:23  1232173
>>1230253
Это совершенно разные понятия. Нейроночки используют деревья как данные и иногда генетические как внутренние алгоритмы.
Аноним 21/07/18 Суб 11:50:03  1232184
>>1232171
Одинаковый для всего слоя.
Аноним 21/07/18 Суб 11:52:25  1232185
>>1232184
Почему?
Аноним 21/07/18 Суб 11:54:15  1232186
>>1232173
Это все алгоритмы машоба, ньюфаг, про деревья читай random forest (и прочие леса) и всякие xgboost (и прочие ансамбли). ГА внезапно тоже могут в машоб, просто очень медленно.
Аноним 21/07/18 Суб 12:14:13  1232195
>>1232186
Я прекрасно понимаю что это. Это совершенно разные понятия, которые к тому же относятся к машобу.
Аноним 21/07/18 Суб 14:28:41  1232246
forman.jpg (61Кб, 720x951)
>>1232173
>используют деревья как данные
Аноним 21/07/18 Суб 19:11:09  1232441
>>1227026
Какая-то чушь. Иначе бы рыночек давно бы порешал такие журнальчики.
Аноним 21/07/18 Суб 19:20:34  1232448
>>1232441
> Какая-то чушь. Иначе бы рыночек давно бы порешал такие журнальчики.
Без публикаций в таких журнальчиках не сделаешь карьеры, вот и все. (((Владельцы))) таких журнальчиков настолько ушлые, что сами давно порешали рыночек.
Аноним 21/07/18 Суб 19:41:49  1232466
>>1232136
Двачую, хотя английский это ерунда.
Аноним 21/07/18 Суб 20:07:41  1232492
>>1232136
Если не секрет, то почему хочется вкатиться?
Меня, например, возбуждает история тян из штатов:
Есть сеть супермаркетов, Таргет (читай Лента), которая работает по картам покупателей. И вот, эта тян ~16 лет закупалась там постоянно и всё было заебись. Пока в один день её на почту (физическую) не начали приходить скидки на всякие памперсы и детскую еду. Батя этой тян впал в ярость берсерка от такой ошибки и начал бегать по судам. Таргет по итогу извинился бабками. И что же вышло в итоге? Тян и была беременной, сама этого не знала даже.
Бигдата Таргета сравнила её со всеми беременными тян и сопоставила изменения в её покупках с теми изменениями, которые делают беременные тян, и выдала такую рекламу.
Если у тебя от такой истории не встал писюн, то нахуй тебе бигдата и датасайенс, братишка?
Аноним 21/07/18 Суб 20:28:00  1232502
>>1232441
> ВРЁТИ
Аноним 21/07/18 Суб 20:41:29  1232510
>>1232246
Чё не так?
Аноним 21/07/18 Суб 21:11:22  1232528
>>1232492
Она в Фейсбуке писала, она Гуглила. Ее запросы были отданы в ФБР. ФБР являясь американской организацией приняло решение защитить своего гражданина и оказать помощь в рождении ребенка и прислало на почту уведомление. Это очередной раз подтверждает превосходство Америки.
Аноним 21/07/18 Суб 22:57:36  1232580
Как вкатиться в вашу хуйню по фасту? Матан немного знаю, если что подзабуду, то легко перечитаю, линал тоже помню. Заебал вебмакакинг, хочу нормальными вещами заниматься.
Аноним 21/07/18 Суб 23:02:24  1232581
>>1232580
Самый быстрый вариант, ведущий к успеху, - PhD в Стэндфорде.
Аноним 21/07/18 Суб 23:02:51  1232582
image.png (1453Кб, 1399x764)
>>1232580
>Как вкатиться в вашу хуйню по фасту
>Заебал вебмакакинг, хочу нормальными вещами заниматься
Аноним 21/07/18 Суб 23:09:28  1232586
>>1232582
>>1232581
Так, значит я ваших матерей ебал, зелёные. Жду нормальных анонов.
Аноним 21/07/18 Суб 23:16:34  1232591
>>1232580
Добавьте в шапку:
- работать без профильного PhD или хотя бы магистратуры получится только в стартапах на три человека, один из которых почитал про нейронки и решил что бывший веб-макака с этим справится.
- если считаешь что достаточно хорошо знаешь матан и после своих смузи-фреймворков без проблем вкатишься, открываешь http://www.arxiv-sanity.com/ и читаешь первые три-четыре статьи, это самое читаемое по машинлернингу типа ваших хабров и.. и того что там еще похоже на хабры. Никакой черезмерной сложности, это как раз ровный средний уровень, наслаждайся.
- если не знаешь английского то ты просто не нужен, у тебя нет шансов ни в науке, ни в средней работке, ни в личной жизни и твои родители тебя ненавидят.
- быстрое вкатывание это два года магистратуры, на диване это два года имплементации готовых алгоритмов, чтения статей и хотя бы одного большого пет-проекта
- если ты не публикуешься, ты зафейлил свое вкатывание
Аноним 22/07/18 Вск 00:12:09  1232619
>>1232591
- шапку почти никто не читает
- чем она больше, тем меньше вероятность ее прочтения
- человек, не обладающий навыками/заслугами, которые ты упомянул, прочитав твой текст, не уйдет отсюда с окейфейсом. Наоборот, он будет долго нудеть о своей уникальной биографии и о том какой он обучаемый, умный и вообще молодец, а все остальные дураки, упрашивая кого-нибудь согласиться что именно в его случае ПхД не нужно и он может уже посылать резюме в гугл брейн и дипмайнд
Аноним 22/07/18 Вск 00:34:55  1232634
>>1232619
Меня оскорбляет то что ты упомянул только проекты Гугла. Тред это безопасная зона в которой запрещены акты микроагрессии, извинись и мы продолжим нормальное дружественное общение в располагающей обстановке.
Аноним 22/07/18 Вск 00:46:28  1232636
бамп
Аноним 22/07/18 Вск 00:47:57  1232638
>>1232634
Но дипмайнд это компания группы alphabet, а не гугла.
Аноним 22/07/18 Вск 00:51:17  1232639
>>1232638
Так толсто что даже бодипозитивно.
Аноним 22/07/18 Вск 11:14:32  1232735
>>1232441
даже за нипс нужно платить оргвзнос
Аноним 22/07/18 Вск 16:08:17  1232923
>>1232591
Не слушайте этого дауна, любой человек, закончивший ПМИ легко освоит абсолютно всё, что нужно за полгода максимум.
Аноним 22/07/18 Вск 16:34:03  1232963
>>1232923
О, малыш, но ведь просто прочесть недостаточно, нужно еще и применить. А требование к PhD обязательное со стороны работодателя.
Аноним 22/07/18 Вск 17:02:42  1233003
>>1228656
Это НЕ культ.
Аноним 22/07/18 Вск 17:05:19  1233007
На сколько сложно распознавать порно и эротический контент, одевать людей из него в паранджу?
Аноним 22/07/18 Вск 17:05:38  1233009
>>1233007
Ну или в общем в закрытую одежду
Аноним 22/07/18 Вск 17:35:38  1233048
>>1233007
> На сколько сложно распознавать порно и эротический контент
Легко, ютюб уже лет десять это делает.
> одевать людей из него в паранджу?
Тоже не сложно.
Аноним 22/07/18 Вск 17:56:45  1233058
>>1233048
На ютубе же толпа индусов распознает, не?
Аноним 22/07/18 Вск 18:15:56  1233067
>>1233058
Не.
Аноним 23/07/18 Пнд 00:21:06  1233304
>>1233048
>Тоже не сложно
Сложно.
Аноним 23/07/18 Пнд 00:47:13  1233312
>>1233304
Кому как.
Аноним 23/07/18 Пнд 09:53:52  1233388
Говорят машобчик это ковыряние даты вилкой, а потом перебор всех подходящих алгоритмов и их параметров, это правда?
Аноним 23/07/18 Пнд 10:54:22  1233426
>>1233388
Всё так.
Аноним 23/07/18 Пнд 12:37:18  1233483
i.jpeg (71Кб, 800x550)
Какой сейчас примерный порог вхождения в отрасадь машинного обучения?
Все время ленты предлагают мне курсы, курсы бесплатные открываемые не самыми плохими университетами, или открытые по госпрограммам.
То есть отрасаль реально востребованная - специалистов не хватает.
Пытаюсь найти инфу о пороге вхождения - курсы курсы курсы.
Обрисуйте ситуацию возможно ли если я не доктор математтческих наук?
Аноним 23/07/18 Пнд 12:46:40  1233491
>>1233483
>обрисуйте
Открываешь хх.ру или другой сайт, где рабов покупают, и обрисовываешь себе до умопомрачения.
Аноним 23/07/18 Пнд 12:48:15  1233492
Анализ успешности компании и прогнозирование дальше. Как все параметры на вход представить? В одну строчку все цифры сделать или как-то иначе?
Аноним 23/07/18 Пнд 12:56:49  1233499
>>1233491
> спросил про порог вхождения

> предлагает посмотреть на хх

Што?
Аноним 23/07/18 Пнд 13:18:37  1233508
>>1233499
Порог вхождения на 4ом оп-пике, если задача именно разобраться в машобчике. Если речь о трудоустройстве, то да, тебе на хх.
Аноним 23/07/18 Пнд 13:27:09  1233514
>>1233426
Зачем тогда таким заниматься?
Аноним 23/07/18 Пнд 13:53:56  1233523
>>1233514
Практические профиты потому что. Ты аутист штоле?
Аноним 23/07/18 Пнд 14:09:42  1233530
image.png (8Кб, 268x103)
Блять, понабрали формул из статфизики и в жопы долбятся и еще заумными словами их называют.
Аноним 23/07/18 Пнд 14:20:45  1233535
>>1233523
Кому? Тому кто занимается или тому кто нанял раба?
Аноним 23/07/18 Пнд 14:29:45  1233537
>>1233312
всем сложно, нужно отделить от бэкграунда - это уже не очень просто. А учитывая все многообразие поз и того, как ткань будет вести себя в динамике, и вовсе невозможно на данный момент.
Аноним 23/07/18 Пнд 15:28:55  1233562
Требуют знать немного, платят много, но опыт от 6 лет
https://hh.ru/vacancy/26616968
Аноним 23/07/18 Пнд 15:39:26  1233569
>>1233562
>Требуют знать немного
>платят много
=)
Аноним 23/07/18 Пнд 16:12:14  1233581
>>1226323 (OP)
>>3
Вот за что люблю /pr так это за то что здесь картиночки смешнее чем в /b

В программировании ничего не понимаю
Аноним 23/07/18 Пнд 18:30:55  1233636
Есть reinforcement нейронка, которая выучила все варианты развития события. Она не угадывает, а просто берет данные из веса и делает как делала в прошлый раз. В чем ошибка? Если ей чуть-чуть энвайромент изменить, она просто будет заново переучиваться. Как сделать чтобы она думала что делает?
Аноним 23/07/18 Пнд 18:36:12  1233637
>>1233636
Это просто перемещение матриц, там нечему думать.
Аноним 23/07/18 Пнд 18:55:51  1233647
>>1233637
Предикшен в чем заключается? Из лучших весов выбираем лучший и его делаем? Мне нужно чтобы нейронка действие вперёд предугадывала.
Аноним 23/07/18 Пнд 20:28:17  1233689
>>1233636
Регуляризации навернуть
Аноним 23/07/18 Пнд 20:30:10  1233691
>>1226560
Количество эпох оценивается по количественным параметрам на training и validation множествах. Скоро всего ты уже 7 часов 59 минут как тупо переобучаешь.
Аноним 23/07/18 Пнд 20:46:44  1233709
привет датасантисты как правильно инициализировать веса для L1 регуляризации?
я думаю нужно просто часть из них зарандомить гауссовым распределением а остальные оставить нулями если
Аноним 23/07/18 Пнд 21:16:28  1233735
Как в lgbm указать количество итераций на котором стопить?
И как бы его получше определить?
Или лучше early_stopping_rounds использовать с кросс-валидацией?
А насколько имеет смысл что-то типо бустинга делать: пусть у нас есть выборка X размера N, тогда построим X_train выбрав N элементов из X с повторениями и в X_valid возьмём всё что не попало в X_train (или как-то по другому??) и будем учить на таких парах это всё K (какое выбрать?) раз.
Где почитать ответы на такое?
Аноним 23/07/18 Пнд 21:19:27  1233739
Кстати накидайте примеров использования какой-то нетривиальной математики _на практике_ в машобе
А то на кэгле даже доверительный интервал никто не построит никогда нахуя вы советуете тогда тут гамалогии учить?
мимо перекатывающийся студент-математик расстроенный тем что зря учил всю эту парашу
Аноним 23/07/18 Пнд 22:30:46  1233785
>>1233739
Нетривиальной математики даже в статьях почти не используется, что уж про кагл. Там про другое вообще.
Попробуй сам поучаствовать в кагле, чтобы понять что там да как.
Аноним 23/07/18 Пнд 22:38:23  1233788
>>1233785
Ды нет это понятно (то есть видно даже из моего очень скромного опыта), что почти никогда к математике никто не обращается. Хотелось бы поглядеть на исключения, как раз.
Если математику в статьях минимально я видел, то на кагле вообще нет.
Аноним 23/07/18 Пнд 22:48:19  1233796
>>1233788
>Если математику в статьях минимально я видел
Там математика как сюжет в порнухе.
Аноним 23/07/18 Пнд 22:51:20  1233798
>>1233788
Гугли manifold hypothesis и далее
Аноним 23/07/18 Пнд 23:50:18  1233852
>>1233735
slowfix:бутстрапинга
Аноним 24/07/18 Втр 01:21:50  1233875
>>1233739
>нетривиальной математики
>_на практике_
Дефайн "нетривиальная математика".
Аноним 24/07/18 Втр 01:58:20  1233890
>>1233875
а зачем? это же не натуральные числа кто может ответить на вопрос тот поймет
Аноним 24/07/18 Втр 05:44:33  1233922
>>1233739
> нахуя вы советуете тогда тут гамалогии учить?
Кто тебе тут советует гамалогии учить? Наоборот, все пишут что третьего оп-пика достаточно.
> Кстати накидайте примеров использования какой-то нетривиальной математики _на практике_ в машобе
Вапник же. И вообще теория статистического обучения. Ну если вариационное исчисление для тебя достаточно нетривиально. В машобе сложнее ничего нет.
Аноним 24/07/18 Втр 13:58:02  1234133
>>1233922
Чот не видел где там необходимо вариационное исчисление (ну или может максимум эйлер-лагранж), но это я наверное глупый.
А я же спрашивал на кэгле/в реальных проектах где посмотреть, что прям вот VC размерность чего-то посчитали и помогло..
Кстати в статьях видел и гамалогии и случайные матрицы, но это конечно экзотика.
Аноним 24/07/18 Втр 14:45:13  1234152
>>1233735
https://lightgbm.readthedocs.io/en/latest/Python-Intro.html#early-stopping
Аноним 24/07/18 Втр 14:47:30  1234154
>>1233735
LightGBM is a gradient boosting framework
конечно, с кросс-валидацией (или чуть раньше)
Аноним 24/07/18 Втр 21:29:27  1234351
1280px-Bufobufo[...].jpg (137Кб, 1280x853)
Сколько по времени займет вкат в датасаенс на уровне макаки?
Собственно застревать в этом не собираюсь, надо всего лишь решить одну задачу - распознать зеленых жаб на фотографии. Эти зеленые пидоры неплохо маскируются, однако их надо отыскать любыми средствами.
С чего начать? Что учить? Знания математики - на считал производные в 11 классе, больше ничего не знаю
Аноним 24/07/18 Втр 21:35:14  1234357
>>1234351
Скачай керас и посмотри получасовой тутор. Готово.
Аноним 25/07/18 Срд 00:40:28  1234439
Где книг по TF на русском?
Аноним 25/07/18 Срд 00:52:23  1234446
>>1234439
На nobrain.dk хорошие переводы были.
Аноним 25/07/18 Срд 01:23:12  1234452
>>1234439
> на русском
Уже мог бы выучить английский.
Аноним 25/07/18 Срд 04:47:28  1234492
>>1229190
А где тогда?
Аноним 25/07/18 Срд 04:54:03  1234495
>>1229293
Манясигнал управляющий мозгом по определению материально взаимодействует с миром, иначе бы он не управлял мозгом. Таких взаимодействий не найдено.
Аноним 25/07/18 Срд 07:03:37  1234512
>>1234495
>материально взаимодействует с миром
Кокие ваши доказательства?
Аноним 25/07/18 Срд 07:04:02  1234513
>>1234492
В тонком эенергетическом мире
Аноним 25/07/18 Срд 07:16:51  1234514
>>1234512
Не взаимодействуют, значит не управляют, значит источник - мозг.
Аноним 25/07/18 Срд 07:19:25  1234515
>>1234513
Не влияет на материальный мир. Если влияет - не является тонким, а является частью материального.
Аноним 25/07/18 Срд 07:26:19  1234516
>>1234515
>Если влияет - не является тонким, а является частью материального.
Расскажи ка дружочек мне про электрон из чего он состоит и к какому миру он относится
Аноним 25/07/18 Срд 07:29:55  1234517
>>1234516
Заводи отдельный тред в другом разделе.
Аноним 25/07/18 Срд 07:38:16  1234520
>>1234517
Нетъ
Аноним 25/07/18 Срд 07:59:59  1234524
>>1234520
Школопидора ответ.
Аноним 25/07/18 Срд 08:17:13  1234527
Вот я репорчу шизиков и всех, с ними разговаривающих, и ты так делай.
Аноним 25/07/18 Срд 08:22:45  1234528
>>1234524
Азазаза
Аноним 25/07/18 Срд 08:23:29  1234529
>>1234527
Ты бы лучше ИИ тянку зделол, ну или симулятор школотрона из 3б
Аноним 25/07/18 Срд 14:25:35  1234675
>>1232591
Где можно получить профильное PhD в РФ?
>inb4: нигде
Аноним 25/07/18 Срд 16:21:11  1234733
>>1234675
Занимаются кое-где. На ВМК МГУ есть кафедры. Но главный вопрос тут: зачем? Такое ПхД ты вряд ли потом сможешь использовать. Да и у нас не платят же за него.
Аноним 25/07/18 Срд 17:33:28  1234771
>>1234675
>PhD
Нахуй тебе быть Доктором Философии, ебанат?
Аноним 25/07/18 Срд 17:44:53  1234785
>>1234675
Получить профильное PhD в РФ можно выехав из РФ пока есть такая возможность. В прошлых тредах уже разжевали что это проще чем кажется и люди готовы пихать тебе деньги в карманы чтобы ты потратил часть своей жизни на исследования которые отнимет у тебя гугол и пейсбук.
>>1234771
Приходи сюда когда закончишь школу.
Аноним 25/07/18 Срд 17:53:39  1234794
>>1234785
>Приходи сюда когда закончишь школу.
Закончил тебе за щеку, держи карман шире, а то деньги пихать не будут, прохфесор пхилософии
Аноним 25/07/18 Срд 19:26:08  1234854
запускаю lgbm как-то так:
https://pastebin.com/cvJeNKUV
и она все равно мне на каждом шагу выдает скор.
то есть вопрос том как правильно использовать verbose
и еще как скормить lgbm'овский датасет в fit?
Аноним 25/07/18 Срд 19:29:26  1234855
>>1234854
запустил и оно вообще у меня не останавливается, натаскивается на validation_bin почему-то
Аноним 25/07/18 Срд 19:38:43  1234863
>>1234855
Лан с последним это уже я накосячил
Аноним 25/07/18 Срд 19:45:14  1234869
>>1234863
и с verbose'ом тоже разобрался: почему-то надо указывать train'у аргумент verbose_eval, но почему он игнорирует значение в параметрах -- я не понимаю.
Остается только вопрос о том как скармливать lgm.Dataset fit'у
Аноним 25/07/18 Срд 20:18:13  1234894
хочу купить видеокарту , но бюджет ограничен 26к понятно что gtx1080 отпадает остановился пока на 1060 https://market.yandex.ru/product/1729164449?track=tabs и https://market.yandex.ru/product/14141262?show-uid=325388165329143107616003&nid=55314&glfilter=4878792%3A13994072&glfilter=7893318%3A152863&context=search
чо скажете? стоит ли вообще экономить на памяти?
сколько по времени на такой карте будет тренироваться сетка с 4000 входами приблизительно при архитектуре допустим 4000/500/1
Аноним 25/07/18 Срд 20:41:49  1234902
>>1234894
>стоит ли вообще экономить на памяти?
Нет. Будет ли тренироваться 4 часа или 8 часов - это в принципе похуй, один хуй будешь на ночь ставить, но если памяти нет, то ее нет.
Аноним 25/07/18 Срд 21:00:40  1234909
>>1234902
всмысле если память кончится процесс прервется?
или что ты имел ввиду?
Аноним 25/07/18 Срд 21:07:17  1234914
>>1234909
Нейронке требуется память под параметры самой себя и под параметры оптимизатора. Интересные архитектуры просто в твои три гигабайта не помесятятся.
Аноним 25/07/18 Срд 21:21:34  1234922
>>1234914
:*
Аноним 25/07/18 Срд 21:42:21  1234937
>>1234922
<З ?
Аноним 25/07/18 Срд 21:55:38  1234949
Зачем в tf нужно отдельно инициализировать переменные? Мы же и так указываем значения, которыми их надо инициализировать. Почему бы автоматически эти значения не записывать при создании сессии?
Аноним 25/07/18 Срд 22:47:51  1235006
В какой идти вуз, чтобы потом в машоб вкатиться
самый тупой вопрос в этом треде
Аноним 25/07/18 Срд 22:56:16  1235017
>>1235006
В Стэндфорд.
Аноним 25/07/18 Срд 23:05:57  1235026
Я уже писал сюд с вопросом, но теперь я уже лучше владею материалом и готов к конструктивной беседе.

Как можно организовать обучение нейронки "в рантайме"?
Например работает какое-то приложение на сервере и выдает какие-то логи, а нейронка бы их хавала определенной порцией и предсказывала бы, ведут ли потенциально эти логи к какой-нибудь фатальной ошибке типа "out of memory" или к ошибке типа "null pointer exception",
если да, то будут предприниматься какие-нибудь действия (например придет электическое письмо дяде сисадмину)
предсказывать будет какой-нибудь простой классификатор типа наив бейс или рандом форест или svm, но он вроде самый долгий,
второй вариант, что предсказывает какая-нибудь RNN, но с дип лернингом я пока не знаком,
насколько по вашему эта идея может взлететь?Как бы вы реализвовывали?

У меня такая реализация,
пока что я лишь присматриваюсь к нужному алгоритму, играю с логами и пишу методы, что б их парсить, весь ML реализован на Питоне с использованием библиотеки sklearn, а так же других стандартных библиотек,
парсинг логов и вытаскивание из них полезной информации целиком сделан с помощью регулярок и питоновской библиотеки re.Пишу в jupyter notebook на питоне 3.7

Можно анализировать лог, как естественный язык, есть набор тестовых логов, которые ведут к определенным ошибкам, к примеру: "out of memory" , "null pointer exception".
Проходимся по логу препроцессингом: убираем все знаки препинания;
потом идет Stemming - сокращаем слова до минимума, что бы осталась самая суть, (responsible, responsibility итд превращаются в response),
далее по тексту проходимся алгоритмом tfidf и превращаем текст в числовой вектор, это готовые features для классификатора, заранее берем от них 10% для тестирования, на выходе имеем 2 питоновских list
features_training и features_test
target это вектор, где единичка обозначает соответствующую ошибку,к которой ведет лог, нулевой вектор - нет ошибок


Думаю ни для кого здесь не секрет, что всем алгоритмам классификаторам пофиг на содержание текста, их интересует только частота появления определенного слова и наличие как можно большего количества тренировочных данных, больше того, наличие большого количества хороших данных это более внушительный залог успеха, нежели совершенность алгоритма,

Пока что проблема с подготовкой данных,
какую часть лога лучше брать для features ? Само сообщение лога или целиком строчку с таймстемпом,
Пример лога:

2017-03-14 22:43:14,405 FATAL [org.springframework.web.context.support.XmlWebApplicationContext]-[localhost-startStop-1] Refreshing Root WebApplicationContext: startup date [Tue Mar 14 22:43:14 UTC 2017]; root of context hierarchy
2017-03-14 22:43:14,476 INFO [org.springframework.beans.factory.xml.XmlBeanDefinitionReader]-[localhost-startStop-1] Loading XML bean definitions from Serv
2017-03-14 22:43:14,476 INFO [org.springframework.beans.factory.xml.XmlBeanDefinitionReader]-[localhost-startStop-1] Here is a multiline
log entry with another entry after
2017-03-14 22:43:14,476 INFO [org.springframework.beans.factory.xml.XmlBeanDefinitionReader]-[localhost-startStop-1] Here is a multiline
log entry with no entries after
2017-03-14 22:43:14,476 INFO [org.springframework.beans.factory.xml.XmlBeanDefinitionReader]-[localhost-startStop-1] Here is a multiline
log entry with no entries after
2012-02-02 12:47:03,227 ERROR [com.api.bg.sample] - Exception in unTech:::[Ljava.lang.StackTraceElement;@6ed322
java.io.IOException: Not in GZIP format
at java.util.zip.GZIPInputStream.readHeader(Unknown Source)
at java.util.zip.GZIPInputStream.<init>(Unknown Source)
at java.util.zip.GZIPInputStream.<init>(Unknown Source)
at com.api.bg.sample.unGZIP(sample.java:191)
at com.api.bg.sample.main(sample.java:69)

Пока что пишу классификатор на "плохое"(ведущее потенциально к скорой ошибке) и "хорошее" (нейтральные логи, которые не ведут к потенциальной ошибке)
соответсвенно target это вектор [0] - хорошо [1]- плохо (есть ошибка)
Аноним 25/07/18 Срд 23:30:29  1235061
>>1234675
В Украине.
Аноним 25/07/18 Срд 23:38:23  1235068
>>1235006
Учись дистанционно, интернет же тебе дан.
Аноним 25/07/18 Срд 23:39:50  1235071
>>1235026
>Например работает какое-то приложение на сервере и выдает какие-то логи, а нейронка бы их хавала определенной порцией и предсказывала бы, ведут ли потенциально эти логи к какой-нибудь фатальной ошибке типа "out of memory" или к ошибке типа "null pointer exception"
А где здесь обучение в рантайме? Берешь тонну логов с заведомо известным итогом, обучаешь сетку. Пока она работает, копишь новые логи.
Можно либо каждый раз обучать с нуля либо, если данных ну реально дохуя, дообучать (я бы не стал), во втором случае возможно придется сделать некоторые трюки типа рандомизации весов или пилообразной кривой learning rate, чтобы нейронка вышла из локального минимума (а-ля алгоритм имитации отжига), но этого будет достаточно.

>Пока что проблема с подготовкой данных, какую часть лога лучше брать для features ?
Если у тебя дипленинг, скармливай текст целиком, нейронка разберется. Я бы взял сверточную нейронку, которая бы анализировала, допустим, 16 кб логов, и так скользящим окном и делала бы предсказания. Дешево, сердито и никаких RNN. А стэммингам-хуеммингам она сама научится.
Аноним 26/07/18 Чтв 00:15:35  1235078
>>1235071
Даже интересно, сможет ли оно что-то предсказать. Задача вообще-то нетривиальная, т.к. обычно искать нужно не какие-то конкретные паттерны, а всевозможные отклонения от нормы.
Аноним 26/07/18 Чтв 00:20:35  1235081
>>1235078
sklearn.ensemble.IsolationForest
Аноним 26/07/18 Чтв 00:23:55  1235086
>>1235078
>сможет ли оно что-то предсказать
Нет
Аноним 26/07/18 Чтв 00:54:15  1235106
>>1235078
Если ты сможешь объяснить за день алкоголику-бомжу, что делать, то сможет. Если не сможешь объяснить студенту мехмата за неделю, то не сможет. Вилка где-то такая.
Аноним 26/07/18 Чтв 01:06:11  1235109
Че котаны, как там ваши нийронки, что нового, кокие достижения?
Аноним 26/07/18 Чтв 01:21:45  1235114
>>1235109
http://www.fast.ai/2018/07/02/adam-weight-decay/ рекомендую
Аноним 26/07/18 Чтв 01:31:25  1235116
>>1235114
>http://www.fast.ai/2018/07/02/adam-weight-decay/
Нахуй мне эти графики и проценты? Давай рабочую и наглядную йобу, что бы ого го го
Аноним 26/07/18 Чтв 01:43:05  1235120
>>1235116
Когда выпустим дам
Аноним 26/07/18 Чтв 02:12:45  1235126
>>1235120
>Когда выпустим дам
Я уже хочу автономный автомобиль и ИИ не уебище Алису
Аноним 26/07/18 Чтв 02:37:14  1235132
>>1235126
Пока рынок не отобьет затраты, не дождешься. Мы тоже не все разработки в открытый доступ выкладываем, все равно конкурентов нет
Аноним 26/07/18 Чтв 09:11:30  1235191
11111.jpeg (63Кб, 1280x960)
2222222.jpeg (58Кб, 1280x960)
teast.jpeg (111Кб, 720x1280)
Как подготовить фоточку к текст рекогнишену?
Юзаю openCV.
Не могу отделить нормально текст от фона для того чтобы заюзать бинаризацию, они сливаются. Пробовал контрасты всякие, насыщение етц, но тогда текст слишком сильно кораптит и иногда ocr просто рандомные значения выдает, к тому же "13" и "15" сливаются в одну циферку. Алсо фотка оч чувствительна к качеству, любой блик или тень к хуям вся портит.
пикчу перед обработкой обрезаю
Аноним 26/07/18 Чтв 09:29:15  1235194
>>1235191
Не надо ничего подготавливать. Больше данных, больше свёрток и сеть и так будет твои картинки распознавать
Аноним 26/07/18 Чтв 09:44:02  1235199
>>1235191
13 и 15 ты точно не отделишь. Сложный текст. Почитай статьи, как капчи распознают, может поможет.
Аноним 26/07/18 Чтв 10:14:04  1235228
>>1235191
Нейроночкой придется делать. Но датасет как ты будешь набирать я не знаю. Даже 10000 фоток (довольно маленькая выборка) ты помрешь делать.
Аноним 26/07/18 Чтв 10:17:48  1235230
image.png (178Кб, 322x384)
>>1235194
>Не надо ничего подготавливать. Больше данных, больше свёрток и сеть и так будет твои картинки распознавать
Аноним 26/07/18 Чтв 10:20:59  1235231
>>1235191
Ищи паттерны цвета какие-нибудь. Блять. Это банальная арифметика, нахуя ты это спрашиваешь.
Аноним 26/07/18 Чтв 10:34:22  1235239
>>1235191

https://ru.wikipedia.org/wiki/YUV
Аноним 26/07/18 Чтв 10:49:14  1235246
>>1235239
Спс, няша
Аноним 26/07/18 Чтв 16:19:48  1235473
>>1235191
Индусам и китайцам отдай вместо капчи.
Аноним 26/07/18 Чтв 22:41:05  1235865
Кто может подсказать ресурс, где разбираются решение задач, можно на английском
Аноним 26/07/18 Чтв 22:41:39  1235866
Кто может подсказать ресурс, где разбираются решение задач, можно на английском
Аноним 26/07/18 Чтв 23:40:48  1235892
Что скажете насчет книг:
Deep Learning (Adaptive Computation and Machine Learning)
и
Hands-On Machine Learning with Scikit-Learn and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems

Аноним 28/07/18 Суб 18:21:31  1236854
Геймдев или нейроночки?
Аноним 28/07/18 Суб 20:20:16  1236898
>>1236854
Гейроночки.
Аноним 28/07/18 Суб 21:05:05  1236924
Ононы, не стукайте за даунские вопросы:
1) Есть ли Русская версии книги диплернинг.орг?
2) Нужно ли изучать основы программирования для работы с МЛ?там же на пайтоне и я пытался в него вкатится на днях-понял чуть менее, чем нихуя(алгоритмы, теории графов и т.д.)
Аноним 28/07/18 Суб 22:03:33  1236958
>>1236924
Без английского тебе ловить все равно нечего, учи его сначала. Программировать нужно.
Аноним 28/07/18 Суб 22:32:56  1236983
>>1235068
А как математику учить?
Аноним 28/07/18 Суб 22:59:35  1237018
>>1236983
Как и программирование
Аноним 29/07/18 Вск 00:32:58  1237051
>>1236958
Нужно начинать с основ программирования и только потом переходить в МЛ? Или просто начать читать эту книгу и кодить без фундаментальных основ программирования?
Аноним 29/07/18 Вск 02:45:30  1237073
>>1237051
Да не нужно там программирование. Нужный объём за неделю осилишь, если не торопиться. Диплернинхбук - говно из жопы, попробуй сам почитать нраву про сверточные сети и убедиться, что авторы пишут хуйню, непонятную начинающему.
Аноним 29/07/18 Вск 04:07:31  1237087
>а можно без английского языка?
>а можно без математики?
>а можно без программирования?
>а можно не умея читать?
>а можно будучи идиотом?
>а можно обезьяне?
>а можно камню?
Да можно, можно. Если кто спросит - говорите, что я разрешил.
Аноним 29/07/18 Вск 09:03:00  1237116
>>1237073
А что не говно в таком случае?
Аноним 29/07/18 Вск 09:03:55  1237117
>>1237087
Ебать, я как бы интересуюсь, а не собираюсь не делать лишнюю работу
Аноним 29/07/18 Вск 10:38:51  1237145
>>1237073
Ниасилил и осуждаю, нужно чтобы в картиночках.
Аноним 29/07/18 Вск 10:47:43  1237147
Если прорешал конкретную математику сложно будет вкатиться?
Аноним 29/07/18 Вск 12:44:06  1237185
Если в свёрточку классификации в гуглопоиске закинуть изображение с комбинироваными признаками каких-то классов, то она может выдать такое же пересечение этих классов, но только с другими признаками. То есть сами признаки игнорируются, а соотносятся элементы классов. Это баг или фича?
Аноним 29/07/18 Вск 19:36:21  1237368
>>1237185
Ничо не понял.
Аноним 29/07/18 Вск 19:45:20  1237374
Че это за х....??))) идите лучше телак ебите))
Аноним 29/07/18 Вск 23:50:11  1237498
orig875dea678d4[...].png (22Кб, 326x322)
Пора уже учебник по математике выпускать
Аноним 30/07/18 Пнд 00:06:05  1237502
Почему никто не советует cs231n или fast.ai? Всё разжевывают же и практических заданий хватает
Аноним 30/07/18 Пнд 08:10:44  1237546
Вот вы смеетесь, а на хабре новость: "Windows 10 использует технологию машинного обучения для определения возможности апдейта".
То есть по активности юзера винда пытается определить, отошел он поссать, или ушел домой, а значит можно скачать апдейт и перезагрузиться.
Аноним 30/07/18 Пнд 08:42:13  1237551
>>1237546
>хабре
тамошнее хомячье и не такое напишет
Аноним 30/07/18 Пнд 09:41:22  1237571
>>1237551
К чему тут снобизм? Вот первоисточник: https://blogs.windows.com/windowsexperience/2018/07/25/announcing-windows-10-insider-preview-build-17723-and-build-18204/
Аноним 30/07/18 Пнд 10:45:36  1237593
>>1237571
>К чему тут снобизм?
Потому что хабр для макак и переводчиков.
Аноним 30/07/18 Пнд 11:01:34  1237597
>>1237571
>How many times have you been immersed in a captivating virtual experience and…
>
> Wanted to take a quick peek at someone nearby?
> Wanted to reach for a drink, your phone or a keyboard?
> Needed to find a surface to set down your controllers?
>
>In the past you probably fumbled about or removed your headset, which can be clumsy if you have controllers in your hands.
Помогите определить уровень аутизма.
Аноним 30/07/18 Пнд 14:27:08  1237676
Существуют ли алгоритмы пригодные для генерации бредотекста кроме цепей маркова и charrnn/wordrnn?
Аноним 30/07/18 Пнд 14:58:27  1237702
>>1237676
Любая плохообученая RNN с текстом.
Аноним 30/07/18 Пнд 17:19:54  1237759
>>1237502
С 231cs'a неслабо рвется жопа от первых двух домашних заданий. Датасаентисту из пиков в шапке нахуй не усралось писать свертки/полносвязные слои на нумпае
Аноним 30/07/18 Пнд 17:47:20  1237770
>>1237676
>бредотекста
Если бредоязык типа англопараши то да, на нормальных флективных языках соснешь.
Аноним 30/07/18 Пнд 20:34:56  1237855
Курсы от Яндекса по МО на Курсере за 5к/месяц норм тема?
Аноним 30/07/18 Пнд 20:38:05  1237857
>>1237855
Будешь дрочить ненужную теорию, полезных знаний не получишь. Меня заебало на половине, дропнул.
Аноним 30/07/18 Пнд 21:55:47  1237946
>>1237855
заявление на фин. помощь подай
Аноним 30/07/18 Пнд 23:26:04  1237996
>>1237855
Отдавая деньги Яндексу ты финансируешь войну в Сирии.
Аноним 31/07/18 Втр 01:03:57  1238062
Накидайте годных МЛ блогов
только чтоб не какой-то индус рассказывал как он на tf курс биткойна предсказывает, а чтоб с рокетсаенсом
Аноним 31/07/18 Втр 01:41:27  1238074
Добавте в шапку треда ссылку на книгу: "Нейронный сети. Эволюция"(2018) http://turbobit.net/vjcsw97ck7wx.html
В этой книге очень наглядно и ПО ПРОСТОМУ все объясняется.
Аноним 31/07/18 Втр 02:30:36  1238083
>>1238074
> http://turbobit.net/vjcsw97ck7wx.html
> В этой книге очень наглядно и ПО ПРОСТОМУ все объясняется.
Иди на каких-нибудь других даунах свои гроши зарабатывай. Зарепортил.
Аноним 31/07/18 Втр 02:34:25  1238084
>>1238083
Еблан?
Что бы там зарабатывать нужны многотысячные скачивания. Больше источников я не нашел если найдешь лучший источник то выкладывай.
И сьеби школьник.
Аноним 31/07/18 Втр 03:16:26  1238089
>>1238084
Съебал тебе за щеку.
Аноним 31/07/18 Втр 05:09:48  1238095
>>1238062
Попробуй http://www.arxiv-sanity.com/
>>1238074
> http://turbobit.net
Ты путешественник во времени?
Аноним 01/08/18 Срд 14:37:15  1238917
Между прочим, >>1238074 книжка правда довольно годная для самых начинающих. Матчасть, куча наглядных картинок + код на пистоне с нуля для всего. Перцептроны, градиентный спуск, бэкпропагейшн сначала, затем сверточные сети (объяснение гораздо более наглядное и простое, чем в вашем какашечном диплернинхбуке). Алсо, тут многие и английского не знают, так там все даже на русском. Так что да, как затравка для вкатывания и понимания что вообще к чему, я бы рекомендовал. Если смущает быдлообменник турбрбит, перезалил на рыгхост http://rgho.st/6zR5RKKlK
Аноним 01/08/18 Срд 16:58:03  1238990
>>1238917
>вашем какашечном диплернинхбуке
))
>многие и английского не знают
Ну и пусть нахуй идут, чего уж надрываться.
>ргхост
Здоровья брату.
Аноним 01/08/18 Срд 20:41:30  1239148
>>1226323 (OP)
А сколько платят?

Добавьте вопрос в фак, а то хз стоит ли вообще тратить время на изучение.
Аноним 01/08/18 Срд 20:45:47  1239158
>>1239148
Тем, кто задаёт такие вопросы - не платят.
Аноним 02/08/18 Чтв 02:13:00  1239421
>>1239148
2 дошика в час что по моему мнению овердохуя
Аноним 02/08/18 Чтв 02:26:31  1239425
>>1239421
24 дошика буду зарабатывать каждый день. Вот это да.
Аноним 02/08/18 Чтв 20:45:52  1239789
>>1238917
Спасибо
Аноним 04/08/18 Суб 18:54:35  1240865
where can I find last russian papers?
Аноним 04/08/18 Суб 18:57:37  1240869
>>1240865
Если бумага опубликована только на русском, это значит, что он никому не нужна
Аноним 04/08/18 Суб 19:01:11  1240873
>>1240869
Это значит ноухау, а неработоспособное масмедио говно пишут на английском, да.
Аноним 04/08/18 Суб 19:15:11  1240889
>>1240873
Ути какой милый ватничек!
потрепал за щечку
Ничего, английский очень простой язык и ты обязательно сможешь однажды его выучить чтобы читать статьи для больших мальчиков, а не переводы на хабре.
Аноним 04/08/18 Суб 19:21:35  1240892
>>1240889
>Ничего, английский очень простой язык и ты обязательно
Я достаточно знаю это говно что бы читать техлитературу, а так же вполне очевидно что никто из копетооиздов не будет рассказывать о своих наработках, а вот пиздануть хуйни это да, большие мальчики любят жрать говно.
Аноним 04/08/18 Суб 21:27:28  1240972
>>1240865
Сколтех вроде что-то публикует. Я видел только на английском. У Ветрова были статьи на русском точно.
Аноним 04/08/18 Суб 21:40:15  1240980
>>1240972
>Я видел
Что ты еще видел, расскажи, оч интересно?
Аноним 04/08/18 Суб 22:29:50  1241011
>>1240972
>Сколтех
>Ветров Дмитрий Петрович
>Руководитель группы Баейсовских методов >кафедры ММП ВМК
Аноним 05/08/18 Вск 06:57:50  1241089
>>1240892
> а так же вполне очевидно что никто из копетооиздов не будет рассказывать о своих наработках,
Какое же ты быдло. Маня, очнись, гугл тебе наработки сливает нахаляву, слесарьплов тот же. Забирай, пользуйся. Но тебе проще ныть, оправдывая свое биомусорство грязноштанными мантрами про плохих капиталистов. Петух, сука.
Аноним 05/08/18 Вск 10:07:20  1241116
>>1240980
Деньги мне плати, тогда расскажу.
>>1241011
Долбоёбина, ты не думаешь, что это перечисление разных чуваков?
Аноним 05/08/18 Вск 10:20:00  1241120
>>1241116
> Деньги мне плати, тогда расскажу.
> англоязычные капиталисты ничего не могут, только щедрые русские постят ноу-хау
Аноним 05/08/18 Вск 12:11:34  1241153
>>1241089
>Маня, очнись, гугл тебе наработки сливает нахаляву, слесарьплов тот же.
Кококо, кудахкудах, ФайндФейс провел шершавым по нейроноблядям и съебал в закат, а гугля выкладывает неработоспособную хуйну и зоонаблюдает как петушня пытается слепить из говна пулю, впаривая им потихонечку курсики.
Аноним 05/08/18 Вск 12:12:26  1241154
Копетолизды соснуле ИТТ
Аноним 05/08/18 Вск 13:09:01  1241187
https://homes.cs.washington.edu/~pedrod/papers/cacm12.pdf
Мб, добавить в шапку
Аноним 05/08/18 Вск 14:18:57  1241219
>>1241187
>Фашингтон
Нужен апрув от местных патриотов.
Всё ето во введении диплёрненбуха написано
Аноним 05/08/18 Вск 16:03:01  1241309
https://en.wikipedia.org/wiki/Euphonia_(device)

ВО! Сделаете такое в электронном виде?
Аноним 05/08/18 Вск 16:09:45  1241317
>>1241219
Заапрувел тебе за щеку, доляр возмешь в корыте.
Аноним 05/08/18 Вск 16:17:43  1241324
>>1241317
Какой ты злой. Водка закончилась?
Аноним 05/08/18 Вск 16:30:15  1241341
>>1241324
>Водка закончилась?
Послал за ней автономный автомобиль на нейронках, но он не отличил дерево от дороги и самовыпилился.
Аноним 05/08/18 Вск 17:09:19  1241364
Почему еще никто не написал гайда как вкатиться в математику со школьного уровня? Что в какой последовательности читать, что решать, и так далее.
Аноним 05/08/18 Вск 18:34:02  1241442
>>1241364
>гайда как вкатиться в математику со школьного уровня?
Нейронодибилы ИТТ еще сами вкатываются
Аноним 05/08/18 Вск 18:37:07  1241447
>>1241364
Что там непонятного? Выучи определение пучка и вперед "Что такое математика". Когда зазубришь определение единицы и некоторые другие бурбакизмы, тогда обращайся в этот тред. Картофан не нужен.
Аноним 05/08/18 Вск 18:38:13  1241449
>>1241447
Я хотел программу вербицкого предложить, но ты меня опередил
Аноним 05/08/18 Вск 18:46:03  1241458
>>1241364
Давно уже пора делать учебник математики с йобами и мемасами. Но интерактивный, чтобы адаптировался под ученика с помощью слесарьплова. Дополнительно прикрутить всякие там Coq и демидовичи.
Аноним 05/08/18 Вск 18:49:21  1241462
>>1241458
Теоремы будем писать в виде будапешт-тредов
Аноним 05/08/18 Вск 18:56:14  1241468
>>1241458
Применим Бенедикта Камбербэтча.
Аноним 05/08/18 Вск 19:22:53  1241484
>>1241447
>бурбакизмы
>баребухами
Фикс
Аноним 05/08/18 Вск 19:27:36  1241489
>>1241484
Ты же даже падеж неправильно поставил. Обучайся лучше.
Аноним 05/08/18 Вск 19:32:10  1241495
>>1241489
патралил лалку, кек
Аноним 05/08/18 Вск 21:03:33  1241550
Компания OpenAI, основанная Илоном Маском в 2015 году намерена устроить состязание с использованием ботов Dota 2 во время The International 2018. Сегодня же можно посмотреть показательный матч между ИИ и пятью топовыми игроками — прошлыми профи, кастерами и аналитиками. Прямой эфир стартует сегодня в 22:30 по Москве.

https://shazoo.ru/2018/08/05/68631/strim-ii-protiv-topovyh-igrokov-v-dota-2
Аноним 05/08/18 Вск 21:08:50  1241553
>>1240889
>этот студентик гордящийся просмотром сериалов в оригинале
Ну а ты, если поднажмёшь, сможешь выучить и другие языки когда-нибудь, тогда может получится избавиться от своей болезни неофита.
Аноним 05/08/18 Вск 21:53:47  1241587
>>1241458
Кто за?
Аноним 06/08/18 Пнд 00:04:59  1241717
>>1241587
Здесь люди которые шарят и в мемесах и в математике?
Аноним 06/08/18 Пнд 00:20:01  1241723
>>1241550
разъебал их!!!!!!
Аноним 06/08/18 Пнд 08:38:48  1241787
>>1241717
Конечно.
Аноним 06/08/18 Пнд 13:03:28  1241863
Как считается mean для векторов и почему так важно что бы он был равен нулю?
Что такое equal variance??
Во второй раз просматриваю эти лекции, но понимание не приходит
https://classroom.udacity.com/courses/ud730/lessons/6370362152/concepts/63798118400923
Аноним 06/08/18 Пнд 13:13:14  1241866
>>1241863
>второй раз просматриваю
Начинай смотреть со второго сезона
Аноним 06/08/18 Пнд 13:58:40  1241893
>>1241863
Вся матчасть нужная для нейроночек есть на русском, любые совковые учебники подойдут, нихуя в этом калкулусе не изменилось со времён Фихтенгольца, как и в основах теорвера со времён Вентцель. Интеграл он и в Африке интеграл, как и теорема Байеса. Читайте хотя бы самые азы на русском, ничего плохого в этом нет. Потом хоть лекции эти понятны будут, если они вообще нужны.
Аноним 06/08/18 Пнд 14:10:10  1241901
>>1241893
>совковые учебники подойдут,
например?
Аноним 06/08/18 Пнд 14:48:36  1241912
>>1241901
Фихтенгольц, Вентцель.
Аноним 06/08/18 Пнд 15:15:25  1241918
>>1241912
Шульц, Кац, Розенцвайг, Мутерперель
Аноним 06/08/18 Пнд 15:19:40  1241919
1232034.jpg (31Кб, 279x400)
Oma168O1.jpg (40Кб, 336x500)
>>1241918
Аноним 06/08/18 Пнд 15:39:45  1241927
>>1241919
Ненужное говно
Аноним 06/08/18 Пнд 17:26:47  1241985
Лучше делайте новый учебник математики. В какое спортлото могу обратиться с таким предложением?
Аноним 06/08/18 Пнд 17:30:22  1241992
http://math-cs.spbu.ru/courses/video/
Просто внимательно смотрите эти лекции, и найдите где-нибудь задания по математике. Лучшее, что есть их русскоязычного сегмента.
Аноним 06/08/18 Пнд 17:34:59  1241998
>>1241985
Тебе мало сотен имеющихся учебников?
На крайний случай есть https://www.khanacademy.org/math/calculus-home
Аноним 06/08/18 Пнд 17:35:30  1242001
>>1241998
Мы создадим идеальный учебник математики для нашей эпохи.
Аноним 06/08/18 Пнд 17:36:40  1242004
>>1242001
>Мы
Ты
Аноним 06/08/18 Пнд 17:36:40  1242005
>>1241985
>Лучше делайте новый учебник математики
Бытует мнение, что без сапога в жопе вуза математике научиться будет очень сложно. В вузе тебя ебут и ты вынужден чем-то заниматься, а на самообразовании в математике далеко не уедешь, особенно если с нуля начинаешь.
Аноним 06/08/18 Пнд 17:38:57  1242010
>>1242001
А для "нашей эпохи" без видео и мемасиков совсем никак? В любом случае, на что рассчитывают вкатывальщики в нейроночки и датасаенс если не могут осилить обычные учебники по математике?
Аноним 06/08/18 Пнд 17:40:48  1242015
>>1242010
> без видео
Ну почему, я выше скинул лекции СПБГУ по математике. Если смотреть их и еще заниматься по учебникам, то, может, что-то и получится.
Аноним 06/08/18 Пнд 17:45:32  1242023
>>1242015
Перефразирую, "нашей эпохе" обязательно учиться по видео и мемасикам? По пейперам тоже будете видяшки ждать на ютубе? Вообще, это внезапно похоже на бизнес-идею, поднять канал где милая рыжая "датасаентисточка" с двумя курсами английской филологии будет поставленным голосом пересказывать санити и рисовать заранее подготовленные нефотогеничными бородачами иллюстрации.
Аноним 06/08/18 Пнд 17:47:35  1242025
>>1242023
>где милая рыжая "датасаентисточка"
Вроде такой курс был у мфти, там тяночка вела датасаенс.
Ну вообще да, желательно учиться по книгам, но в довесок можно и серьезные лекции смотреть.
Аноним 06/08/18 Пнд 17:48:21  1242028
>>1242001
>нашей эпохи
Это которая "нихуя не знаю, ничего не умею, со сраковерфлоу код копирую"? Удачи, ага.
Давно пора вернуть пту, чтобы загонять туда в край охуевших современных холопов я б сам пошёл в пту, если бы там качественно готовили, лол
>>1242023
Уже ведь вроде есть канал с названием типа "пейпорс ин файв минетс", где какой-то индус разжёвывает всякое популярное говнецо.
Аноним 06/08/18 Пнд 17:49:39  1242030
>>1242028
> какой-то индус
Поэтому я о нем и не знаю. Ниша свободна.
Аноним 06/08/18 Пнд 17:50:03  1242032
>>1242028
ПТУ - это кстати очень годная тема, потому что 90% людей высшее образование совсем не нужно.
Аноним 06/08/18 Пнд 17:50:54  1242033
Уже есть: https://www.youtube.com/user/keeroyz/videos
Аноним 06/08/18 Пнд 17:53:25  1242037
>>1242033
Там скорее обзорные популярные видео уровня "Анализ данных и машинное обучение простыми словами"
Аноним 06/08/18 Пнд 17:55:12  1242039
>>1242037
Так ведь это то, о чем мечтают напомоечники ИТТ: смареть про машобчик без матеши.
Аноним 06/08/18 Пнд 17:56:59  1242041
Учебник будет интерактивным и расширит идею 4 фотокарточки с ОП-сообщения.
Аноним 06/08/18 Пнд 18:00:16  1242044
>>1242032
>90% людей
100% людей, вышка для пидоров-говноедов
Аноним 06/08/18 Пнд 18:02:15  1242047
>>1242044
Ну есть же разные врачи, физики-ядерщики, йоба-инженеры и математики, которые придумывают новые дата саенсы.
А остальным не нужна, да.
Аноним 06/08/18 Пнд 18:03:44  1242050
>>1242010
Совсем никак. Современное поколение даже не умеет толково завязывать шнурки и определять время по аналоговым часам. Нужно адаптировать и повышать уровень образования.
Аноним 06/08/18 Пнд 18:04:56  1242051
>>1242030
Ты о нём не знаешь, потому что хуёво гуглишь.
А вот вроде и он: >>1242033
>>1242037
Не, как раз уровень запросов обитателей треда. Вроде и пейпор разбирает, а вроде и нихуя думать не надо.
>>1242032
Ага. В современном виде тем более. В России
Аноним 06/08/18 Пнд 18:43:58  1242095
>>1242041
> Учебник будет интерактивным и расширит идею 4 фотокарточки с ОП-сообщения.
Так расширь её сам, начни с себя. Вот лично я рисовал сигму и интеграл, которые туда потом добавили. Возьми нарисуй что-нибудь ещё.
Аноним 06/08/18 Пнд 19:11:33  1242116
Нахуя вам матеша
Для дипленинга ничего кроме градиента и перемножения матриц знать не надо!
пруф что это не так
Аноним 06/08/18 Пнд 19:20:42  1242117
>>1242116
Нормы/метрики?
Аноним 06/08/18 Пнд 19:37:18  1242122
>>1242117
Лалки/мемасики
Аноним 06/08/18 Пнд 19:38:27  1242123
Анончи, кто пробывал треананально сверточный анус с бустингом? Негров распознает?
Аноним 06/08/18 Пнд 19:39:44  1242125
>>1242116
Да, только при устройстве на работу требуют Master Degree, а то и PhD в области математики/computer science.
Я вот например в computer vision хочу, там вот почему-то нужно намного больше, чем матрицы и градиент
Аноним 06/08/18 Пнд 19:42:40  1242127
>>1242117
лол ну чтоб прочитать на вики определение нормированного пространства не нужно 5 лет брать интегралы на мехмате
Аноним 06/08/18 Пнд 19:43:34  1242128
>>1242127
Как будто бы на матмехе берут 5 лет интегралы
Аноним 06/08/18 Пнд 19:45:38  1242131
>>1242127
а что такое пространство?
Аноним 06/08/18 Пнд 19:45:48  1242132
>>1242128
не вполне знаком с программой матмеха, но полагаю что еще года 3 надрачивают концепты еще более далёкие от машоба чем счёт интегралов
Аноним 06/08/18 Пнд 19:47:47  1242134
>>1242132
Суть в том, что на матмехе легче найти людей, которые интересуются машобом.
Ну и, учась на обычного программиста, ты, скорее всего, даже ту жалкую математику для машоба не осилишь
Аноним 06/08/18 Пнд 19:50:22  1242136
>>1242131
ну тык открываешь на вики страничку про нормированные пространства, оттуда идёшь на страничку про векторные
В интуиции это всё уже у нас есть, нужно просто прочитать про то, как это называют окружающие
И таких понятий, совершенно элементарных, не так много, причем можно по ходу обучения мл'ю их познавать, видя примеры и зачем это надо
Аноним 06/08/18 Пнд 19:50:52  1242139
>>1242134
это так, да
Аноним 06/08/18 Пнд 19:58:03  1242148
Здесь вообще обсуждают что-то кроме метамашобчика?
Аноним 06/08/18 Пнд 20:00:28  1242150
>>1242148
Можем обсудить то что родители хотят чтобы я бросил науку, начал кодить всякие игры-сайтики и нашел обычную тяночку.
Аноним 06/08/18 Пнд 20:01:56  1242152
>>1242150
Так скажи им, что ты уже знаком с дядей йобой, который по совместительству завкафедрой и он тебя берет на работу.
Нет, ну а что, говори, что будешь преподом работать
Аноним 06/08/18 Пнд 20:06:33  1242157
>>1242152
Они оба преподавали и говорят что это для ноулайферов.
Аноним 06/08/18 Пнд 20:08:26  1242159
>>1242157
Бля, такого я не ожидал
Ну говори, что любишь спокойную работу. Скажи, что будешь до 80 лет работать в вузе, в то время как твои сверстники умрут в 40-50 лет, работая на заводе или где-нибудь программистами
Аноним 06/08/18 Пнд 20:26:11  1242175
>>1242136
У тебя есть вышка, только честно?
Аноним 06/08/18 Пнд 20:27:57  1242177
>>1242159
Сын папиного друга закончил на химика, кажется, а теперь успешный кодер за 300кк/c, а дочь маминой подруги отучилась на филологии, после чего стала эйчаром, теперь спокойно живет с кучей свободного времени и хорошей зарплатой. А я отучился на программиста и внезапно не в айти - больная тема для всей семьи, знакомые смеются.
Аноним 06/08/18 Пнд 20:32:08  1242180
>>1242175
Да
Аноним 06/08/18 Пнд 20:36:59  1242182
>>1242180
Ну так твоё мнение не репрезентативно, для человека, который толком математикой не занимался, начать вики по математике листать будет проблематично. Это тебе всё очевидно, другим не очень
Аноним 06/08/18 Пнд 20:40:37  1242186
>>1242182
Само собой
Но читать все тома зорича тоже плохое решение
Курс по матеше для МЛ должен составлять какую-то очень-очень малую часть от того, что запихивают в вузиках.

Аноним 06/08/18 Пнд 20:41:34  1242187
>>1242186
И такой вполне под силу должно быть осилить даже без прессинга вузовского
только сомневаюсь что он существует
Аноним 06/08/18 Пнд 21:02:02  1242206
>>1242187
Прессинга никакого нет, есть просто семинары и программа и 4 года.
Аноним 06/08/18 Пнд 21:03:21  1242207
>>1242206
Это не прессинг, а мотивация к обучению.
Ну вот покажите мне персонажа, который полностью самостоятельно поднял математику со школьного уровня и хоть как-то вкатился?
Аноним 06/08/18 Пнд 21:11:50  1242216
придумал вам еще одну схему!
Идешь в вузик первый курс адово ботаешь всё, заводишь знакомства и готовишься к поступлению в ШАД
После поступления в ШАД дропаешь вузик
+Матешка
+Связи
+Бумажка для работодателя
+Сэкономленное на философии и диффурах время
Аноним 06/08/18 Пнд 21:14:02  1242219
>>1242216
А где ты жить будешь?
Аноним 06/08/18 Пнд 21:19:50  1242225
>>1242216
>первый курс адово ботаешь всё
Если ты какой-нибудь сверхразумист с айсикью > 180, то может и осилишь.
Обычные люди идут в шад, когда уже учатся в аспирантуре/магистратуре
Аноним 06/08/18 Пнд 21:22:30  1242226
image.png (125Кб, 1024x649)
>>1242216
В вузик меня не взяли.
Аноним 06/08/18 Пнд 21:25:00  1242230
>>1242226
Выше скидывали лекции спбгу, там высший матан с нуля объясняется
Аноним 06/08/18 Пнд 21:27:40  1242233
>>1242216
Залез в вики. А разве в ШАД учат машобу? Вроде там статистика и бигдата только.
Аноним 06/08/18 Пнд 21:28:50  1242235
>>1242233
>А разве в ШАД учат машобу?
Там анализ данных есть.
Но вообще можно и машоб после шада.
Аноним 06/08/18 Пнд 21:29:25  1242236
>>1242230
Я предпочитаю выписывать темы из википедии и смотреть объяснения на ютубе, они меня расслабляют и успокаивают.
Аноним 06/08/18 Пнд 21:30:47  1242237
>>1242235
Области очень похожие и во многом пересекаются, но это разные вещи.
Аноним 06/08/18 Пнд 21:31:53  1242238
>>1242236
Так эти лекции на ютубе есть, лол.
Просто например для человека, который ни разу ничего не слышал про множества, функции и прочий высший матан, будет гораздо проще и легче начать с каких-нибудь лекций, которые его заинтересуют, а потом уже можно и книжечки начать ботать.
Аноним 06/08/18 Пнд 21:38:22  1242244
>>1242207
я?
Аноним 06/08/18 Пнд 21:39:06  1242246
>>1242244
Ну расскажи, как ты учил математику. имея только знания школы?
Аноним 06/08/18 Пнд 21:40:34  1242248
>>1242233
а что такое маш об а что такое анализ данных
Аноним 06/08/18 Пнд 21:41:28  1242249
>>1242248
машоб - это всего лишь подмножество датасаенса
Аноним 06/08/18 Пнд 21:42:54  1242250
>>1242249
Гораздо более перспективное и полезное подмножество чем весь остальной датасаенс, лол.
Аноним 06/08/18 Пнд 21:42:58  1242251
>>1242249
судя по программе там вполне есть маш об
и одноименный курс и дип ленинги и т.п.
Аноним 06/08/18 Пнд 22:19:35  1242269
>>1242251
Машоб там читают два сема, читает Воронцов даже видео есть, а у местного анона галлюцинации
Аноним 06/08/18 Пнд 22:29:05  1242275
>>1242225
>Если ты какой-нибудь сверхразумист с айсикью > 180
Но машинное обучение же для таких, разве нет? ага, очень сложно подгонять параметры
>Обычные люди идут в шад, когда уже учатся в аспирантуре/магистратуре
Мне казалось, там большинство студентов идут после 2 курса ФИВТ или ФКН или т.п.
Аноним 06/08/18 Пнд 22:44:01  1242282
>>1242246
Так-то в хорошей (даже не математической) школе в мат. классе дают пределы через епсилон-дельта, производную и интеграл.
Я, например, первый курс вообще хуи пинал. В СПбГУ
мимо
Аноним 06/08/18 Пнд 22:44:03  1242283
Мне кажется что линейная регрессия и прямые пропорциональности слишком просты чтобы быть реальными и это наебалово для тупых обезьян, которые не могут в настоящую вселенскую математику.
Аноним 06/08/18 Пнд 22:44:23  1242284
Математика нужна тем, кто хочет создать йобаИИ.
Аноним 06/08/18 Пнд 22:47:36  1242287
>>1242283
Просто ты не в курсах, что на предикторы можно навесить пространство функций и это тоже будет линейной регрессией
Аноним 06/08/18 Пнд 22:50:40  1242293
>>1242283
Большая часть машоба - 19-ый век максимум.
Аноним 06/08/18 Пнд 22:51:16  1242294
>>1242287
>на предикторы можно навесить пространство функций и это тоже будет линейной регрессие
Пруфы
Аноним 06/08/18 Пнд 22:52:01  1242296
>>1242293
Основные теоремы из 20-го, алё.
Аноним 06/08/18 Пнд 22:53:19  1242297
>>1242294
Ты дурак или прикидываешься?
Аноним 06/08/18 Пнд 22:55:18  1242300
>>1242284
ну йобаИИ без phd не создать и тут дело больше в среде чем в математике
Аноним 06/08/18 Пнд 22:56:48  1242302
>>1242297
В таком случае тут от регрессии вообще нихуя не остаётся. Это вообще перестаёт быть каким-либо решением или аппроксимацией.
Аноним 06/08/18 Пнд 22:58:24  1242304
>>1242302
С чего ты взял? вот у тебя функция квадратично зависит от предиктора, твой ход?
Аноним 06/08/18 Пнд 23:05:27  1242307
>>1242304
Ты уже определись она зависит или нет.
Аноним 06/08/18 Пнд 23:24:54  1242314
изображение.png (626Кб, 800x450)
>>1242216
>схема
Пикрил.
>Диффуры
Что такого в диффурах? Хотя если негров предсказывать, то не нужны, да.
Аноним 06/08/18 Пнд 23:29:42  1242315
>>1242150
>родители хотят чтобы я бросил науку
Говори что машоб не имеет к науке отношения.
Аноним 06/08/18 Пнд 23:36:54  1242320
>>1242283
Поэтому непараметрическая статистика - выбор мужиков!
Аноним 06/08/18 Пнд 23:40:21  1242322
>>1242177
Какое-то окно в круга элиты этот ваш двач.
Аноним 07/08/18 Втр 00:47:31  1242341
>>1242307
https://en.wikipedia.org/wiki/Polynomial_regression
Аноним 07/08/18 Втр 00:49:39  1242342
Чет не нашел как в тенсорфлоу через си-апи сохранить переменные - веса сети. Есть варианты?
Аноним 07/08/18 Втр 01:00:37  1242343
>>1242342
Он их сам в model dir сохраняет в види чекпоинтов. Бери последний. Потом сохраняй в frozen graph
Аноним 07/08/18 Втр 12:02:25  1242444
Обойдите уже гуглокапчу, мне надоело это говно вводить.
Аноним 07/08/18 Втр 14:27:35  1242506
>>1228769
Квадрат - гладкая функция, везде дифференцируема, а модуль - нет, у него особая точка в нуле. Иногда удобнее работать с функциями, которые можно продифференцировать.
Аноним 07/08/18 Втр 14:44:21  1242513
>>1228717
если брать квадрат то получается как бы скалярное произведение
на пространстве случайных величин с нулевым мат ожиданием
отсюда имеем некоторые приятности
Аноним 07/08/18 Втр 14:49:11  1242515
>>1242513
точнее если E[X] = E[Y] = 0, то скалярное произведение у нас <X, Y> = E[XY]
и тогда дисперсия Var[X] это |X|^2 в этом гильбертовом пространстве
В частности независимые случайные величины будут ортогональны и мы получим Var[X + Y] = Var[X] + Var[Y] в таком случае, что приятно и полезно
Аноним 07/08/18 Втр 14:52:00  1242516
>>1242515
fix:В частности -> например
Аноним 07/08/18 Втр 14:52:45  1242517
Как проверить модель на оверфит?
Допустим, я получил оптимальные гиперпараметры с помощью чего-либо. Далее проверяю качество обученной на трейнинг датасете модели на валидационном наборе, и если оно хуёвое, то что? Пытаюсь упростить модель или перейти к другой?
Аноним 07/08/18 Втр 15:13:51  1242518
>>1242517
Пиздос. Это основы, которые в любой книге в той или иной степени подробности описаны. Иди ищи сам.
Аноним 07/08/18 Втр 16:09:28  1242529
>>1242517
> Как проверить модель на оверфит?
Очень низкая или нулевая ошибка на обучающие сете и очень большая на тестовом.
Аноним 07/08/18 Втр 16:29:31  1242538
>>1242529
это какой-то уж очень вырожденный случай
Я бы на кросс валидации посчитал скор, если есть возможность и если скор на кросс валидации будет значительно отличаться от скора на тесте, то да оверфит
Ну или можно смотреть на скор на трейне/тесте в зависимости от итерации обучения и когда скор на тесте пойдет вверх, то мы начинаем переобучаться
Это из каких-то наивных соображений если
Аноним 07/08/18 Втр 19:34:35  1242623
первый тред:
коко нужно ли мотимотеко?

последний тред, 2 года спустя:
коко нужно ли мотимотеко?
как проверить модель на оверфит?
Аноним 07/08/18 Втр 19:37:04  1242626
>>1242623
И что ты этим хотел сказать?
Аноним 07/08/18 Втр 19:49:13  1242633
>>1242623
Через полгода:
Что такое оверфиттинг?
Через год:
Где скачать нейронные сети?
Аноним 07/08/18 Втр 19:51:00  1242635
>>1242538
> и когда скор на тесте пойдет вверх, то мы начинаем переобучаться
Ты наверно хотел написать "вниз". Да, такая идея, иногда чуть сложнее используется. А вообще читай книжки. Даже в самом простом гайде для конченных дебилов это написано.
Аноним 07/08/18 Втр 20:36:58  1242669
>>1228717
Потому что матожидание это минимизация именно квадратичного момента E[(x-С)^2], т.е. С=Ex это такое С при котором для данных x величина минимальна.
Если ты возьмёшь абсолютный первый момент вместо второго E[abs(x-С)], то ты обнаружишь что он минимизируется уже в медиане, а не в среднем.
Поэтому, если ты берёшь матожидание в качестве параметра для оценки "среднего", то к нему логичнее брать именно среднеквадратичное отклонение.
Аноним 07/08/18 Втр 22:44:58  1242732
>>1242343
а через C-api вообще реально обучать и сохранять чекпоинты?
Аноним 07/08/18 Втр 23:07:17  1242739
Продублирую сюда.
Помогите с пандас.
У меня есть датафрейм и я хочу в некоторых его столбцах поменять НА на среднее по этому столбцу, допустим. Среднее у меня вычисляет функция MyMean почему же тогда не работает такой код?
https://pastebin.com/ECAnZtkP
Аноним 07/08/18 Втр 23:09:38  1242740
>>1242739
Зачем тебе отдельный метод для вычисления среднего по столбцу? Ты ебанутый?
Аноним 07/08/18 Втр 23:11:48  1242741
>>1242740
А что не так?
Ну вообще две причины есть для этого, а скорее даже три.
Я хочу попрактиковаться в таком синтаксисе.
Я не знал, как mean обходится с пропущенными значениями.
Моя функция работает с датафреймом, а mean с массивом.
Аноним 07/08/18 Втр 23:20:58  1242746
>>1242739
Делай по каждому столбцу отдельно. ДФ и нампи массив это не одно и то же, например типы данных у столбцов будут разные. Такие операции со всем ДФ это не пандас-вей.
Аноним 07/08/18 Втр 23:31:46  1242747
>>1242746
>Делай по каждому столбцу отдельно
В смысле циклом проходится? Эх, а я хотел каким-нибудь питоновским изъебом воспользоваться.
Т.е. ты советуешь брать по столбцу, считать среднее и заменять?
И можешь пояснить насчет разницы между датафремом и масивом нумпай. Если я вытащу первый столбец, то это же будет массив нумпай или все же это будет дата фрейм? Т.е. я не очень понимаю, с чем я в итоге должен работать, чтобы следовать пандас-вей.
Аноним 07/08/18 Втр 23:57:30  1242757
ПОКАТИЛИСЬ

>>1242753 (OP)
>>1242753 (OP)
>>1242753 (OP)
Аноним 08/08/18 Срд 01:44:00  1242780
>>1242747
Да, циклом. Там делов на одну строчку больше по сравнению с твоим кодом.
ДФ это набор столбцов. Каждый столбец это т.н. Series. Чтобы преобразовать это в массив нампи, нужно использовать поле values.
Padas-way это преобразование датафреймов как таблиц, наподобие реляционной БД. Там для этого есть индексы, всевозможные join и groupby.
Аноним 08/08/18 Срд 01:48:44  1242782
>>1242780
Последний вопрос, можно?
А в чем смысл этих values, если я могу обратиться через iloc допустим и индекс и получу то же самое число?
Аноним 08/08/18 Срд 01:59:33  1242786
>>1242782
Через iloc ты можешь получить либо скаляр, т.е. одно число, строку и т.п., либо опять же пандасовские типы DataFrame или Series. values преобразовывает все в типы numpy.
Еще один тонкий момент, который не упоминается в доках: любой доступ к ДФ на порядки медленнее доступа к массивам нампи. Так что часто не имеет смысла пользоваться пандас, если тебе не нужны его специфические вещи. Если у тебя там просто матрица в ДФ, лучше взять от нее values и работать с массивом.
Аноним 09/08/18 Чтв 00:04:59  1243318
>>1240865
You mean "latest"?


Топ тредов
Избранное