Главная Настройка Mobile Контакты NSFW Каталог Пожертвования Купить пасскод Pics Adult Pics API Архив Реквест доски Каталог стикеров Реклама
Доски


[Ответить в тред] Ответить в тред

Check this out!


[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 510 | 35 | 135
Назад Вниз Каталог Обновить

НЕЙРОНОЧКИ & МАШОБЧИК #16 Аноним 02/08/17 Срд 23:30:41  1036439  
kuca.PNG (203Кб, 277x275)
evol.png (749Кб, 1212x388)
нейроночка - массив
Аноним 03/08/17 Чтв 00:06:38  1036469
>>1036439 (OP)
Может, и мандада тогда тоже мосив?
Аноним 03/08/17 Чтв 00:22:56  1036478
image.png (154Кб, 600x600)
>>1036469
но тогда мондадо - нейроночка
Аноним 03/08/17 Чтв 11:34:44  1036662
И че, мне надо умножать вектор на массив и все будет заебись, нейроночка будет думать?
Аноним 03/08/17 Чтв 13:41:13  1036728
image.png (329Кб, 650x365)
>>1036662
ну да, так мозги и работают же
Аноним 03/08/17 Чтв 18:33:54  1037045
Пытаюсь разобраться, но там какие то формулы ебанистические, даже толком не объясняется что это.
При том что вышка техническая у меня есть (инженегр) и математика мне знакома с курса университета.
Реквестирую материалы для вката, кстати
Аноним 03/08/17 Чтв 18:37:28  1037052
>>1036662
А тебе не похуй какой моделью создавать закономерности? В голове вроде как тоже веса. Интересно было бы понять алгоритм их настройки.
Аноним 03/08/17 Чтв 20:28:09  1037131
Как вкатиться в обучение с подкреплением?
Аноним 03/08/17 Чтв 21:05:23  1037165
>>1037131
https://github.com/vkantor/MIPT_Data_Mining_In_Action_2016
лекции 7, 8, 9
Аноним 03/08/17 Чтв 21:46:27  1037205
image.png (459Кб, 742x615)
>>1037165
Ух ты! Как много красивых картинок! А какие инструменты используют? Слесарьплов уже не подходит? Нужно тензор2тензор или еще что-то?
Аноним 03/08/17 Чтв 22:45:04  1037296
>>1037205
https://www.quora.com/What-frameworks-are-available-for-reinforcement-learning
Аноним 04/08/17 Птн 01:33:19  1037466
Посоны. Поясните мимокрокодилу:
1. В каких журналах обычно публикуются топовые статьи по машинному обучению?
2. Если смотреть на теорию, а не на практику. Это скорее статистика, или все же математика?(да, статистику как бы не считаем математикой)
3. Та математика, которая используется, теоретиками машинного обучения она узкая и специфическая именно для этой отрасли, или эти теоретики они вполне себе математики не хуже других?
Аноним 04/08/17 Птн 01:35:04  1037468
>>1037466
1. arxiv.org
2. Статистика
3. Не узкая и не специфичная.
Аноним 04/08/17 Птн 02:50:35  1037484
>>1037468
Т.е. алгебра если и нужна, то минимально, а всякие геометрии так вообще нахуй не нужны?
В статистике есть движение вперед, прогресс, открытия? Или это все полумертвое?(без подвоха, я правда не в теме)
Аноним 04/08/17 Птн 02:53:47  1037485
>>1037484
Никакой алгебры (она нигде не нужна), никакой геометрии (это не геймдев), в статистике никакого движения вперед, всё полностью мертвое.
Аноним 04/08/17 Птн 02:56:47  1037487
>>1037485
Что-то мне подсказывает, что ты надо мной издеваешься, ну да ладно. Другой вопрос. Я слышал, что два самых годных научных центра(в РФ) по этому вашему машинному обучению это ВЦ РАН и ИППИ, так ли это? они занимаются одним и тем же, или у каждого своя специфика? это один уровень, или какой-то из них все же более годный?
Аноним 04/08/17 Птн 02:59:20  1037490
>>1037487
Не издеваюсь, это так.
Хз, я не в курсе развития машобчика в россии, статей с архива и так по горло хватает.
Аноним 04/08/17 Птн 03:02:47  1037491
>>1037490
Не очень тебя понимаю. Машобчик развивается? Наверное развивается. Значит должны быть люди, которые двигают соответствующую теорию. Но, как можно двигать то, что по твоему мертво и новых результатов нет?
Аноним 04/08/17 Птн 03:10:37  1037493
>>1037491
> Машобчик развивается?
Машобчик сейчас это скорее не про науку, а про технологию обработки данных, никакого существенного левел-апа в теории не было уже лет 5.
Аноним 04/08/17 Птн 03:14:59  1037495
>>1037493
Хоть что-то про науки о данных развивается? Ну там дата майнинг или биг дата, ну или как там у вас это назвается.
Последние левел-апы в теории были сделаны с помощью ученых занимающихся статистикой, или чем?
Аноним 04/08/17 Птн 03:22:40  1037498
>>1037495
Появилось много всяких-разных данных/датасетов => нейросеточки стали обучаться эффективнее. Последние левел-апы делали специалисты по нейросетям/сomputational_statistics.
Аноним 04/08/17 Птн 03:25:19  1037499
>>1037498
Т.е. сейчас все довольно стабильно, медленный рост качества, ничего нового? Есть хотя бы намеки на то, что в какой-то сфере может быть прорыв?
Аноним 04/08/17 Птн 03:28:45  1037501
>>1037499
Сейчас очень много людей в машобе (на реддите уже больше 100000 подписчиков на r/machinelearning), тема очень модная, так что всё возможно.
Аноним 04/08/17 Птн 03:30:31  1037502
>>1037501
Я правильно понял, что эта такая вещь в себе относительно слабо связанная с разными науками как статистика, математика и тд и тп?
Аноним 04/08/17 Птн 03:32:48  1037503
>>1037502
Нет, почему, статистику важно знать очень плотно + немного матана.
Аноним 04/08/17 Птн 03:34:27  1037504
>>1037503
Вот-вот. Сейчас по сути то, что мне было узнать важнее всего. Т.е. есть очень немного матана, который надо бы знать. А если знать больше? Это бесполезно в машобе? Применение есть только у ОЧЕНЬ ограниченных разделов матана?
Аноним 04/08/17 Птн 03:36:49  1037506
>>1037504
Нэ, 1-2 курс матана максимум, ничего специфического.
Аноним 04/08/17 Птн 03:37:33  1037507
>>1037506
Даже если мы говорим не о практиках, а о теоретиках?
Аноним 04/08/17 Птн 03:37:52  1037508
>>1037506
Ок, спасибо, бро
Аноним 04/08/17 Птн 03:39:46  1037509
>>1037507
Ну теоретики специализируются на статистике, теории алгоритмов + мультидисциплинарство (биология, лингвистика) в почёте.
Аноним 04/08/17 Птн 03:41:55  1037511
>>1037509
кроме биологии и лингвистики есть распространенные варианты?
и, теперь уж точно последний вопрос: если есть желание не спеша вкатиться с нуля, в качестве средства заняться свободное время, с чего начать?
Аноним 04/08/17 Птн 03:47:46  1037512
>>1037511
Ну хз, любые науки где есть биг дата.
Если с нуля, то лучше всего курсы от яндекса на курсере, потом читаешь туториалы к популярным библиотека по машобу (keras, tensorflow) и гуглишь непонятное.
Аноним 04/08/17 Птн 04:14:42  1037515
лет 5 назад уровень хайпа был существенно меньше чем сейчас?
тожемимопроходил
Аноним 04/08/17 Птн 04:25:55  1037517
>>1037515
Да
https://trends.google.ru/trends/explore?date=today%205-y&q=%22machine%20learning%22
Аноним 04/08/17 Птн 07:08:10  1037537
>>1037511
>кроме биологии и лингвистики есть распространенные варианты?
Экономика, обработка сигналов, социология
Аноним 04/08/17 Птн 14:55:02  1037781
>>1037493
>>1037498
Кроме теории статистического обучения никаких левел-апов и не будет. В нейроночках осталось только слои наращивать.
Аноним 04/08/17 Птн 15:57:21  1037844
>>1037487
>ВЦ РАН и ИППИ
>они занимаются одним и тем же?
В ВЦ РАН умножают матрицу на вектор и раскладывают тензор. В ИППИ ищут минимум функции.
Аноним 04/08/17 Птн 16:53:35  1037888
>>1037844
А для человека не знакомого с темой, можно как-то попонятнее?
Аноним 04/08/17 Птн 18:12:28  1037956
>>1037888
> А для человека не знакомого с темой, можно как-то попонятнее?

>В ИППИ ищут минимум функции:
>Лаборатория №10 Интеллектуальный анализ данных и предсказательное моделирование
проект по минимизация массы композитной боковой панели болида «Формулы-1» на основе данных натурных экспериментов и данных вычислительных экспериментов с соответствующей физической моделью.
>наука сырьевой криптоколонии в 2017 году
Аноним 04/08/17 Птн 18:47:16  1037985
>>1037956
ВЦ РАН лучше, или те же яйца?
Аноним 04/08/17 Птн 19:12:18  1038001
>>1037985
Что лучше-то?

В ИППИ до недавнего времени работал Юрий Нестеров -- один из ведущих исследователей в мире по выпуклой оптимизации. Сейчас он уже в Бельгии.

Про ВЦ РАН не знаю ничего, но думаю полдюжины нормальных ученых там еще осталась.

Только все это нафиг никому тут не нужно. Публикации, препринты, цитирования. Нахер оно все надо.

Будете облегчать композитную боковую панель на субподряде или считать загрузку такси в Яндексе. Ничего более осмысленного делать криптоколонии не положено.
Аноним 04/08/17 Птн 19:16:07  1038006
>>1038001
А в цивилизованном мире какие научные центры самые годные?
Аноним 04/08/17 Птн 19:25:11  1038016
Сейчас максимальный индекс Хирша из тех кто остался в ИППИ равен 31. У Нестерова 50 -- умные люди оттуда съебывают:
https://scholar.google.com/citations?view_op=view_org&hl=en&org=135524506371074591

У ВЦ РАН нет странички, но походу самые высокоцитируемый там Воронцов.
https://scholar.google.com/citations?user=KIW4fnsAAAAJ&hl=en
Аноним 04/08/17 Птн 19:27:49  1038019
>>1038006
https://scholar.google.ru/citations?view_op=search_authors&hl=ru&mauthors=label:machine_learning

Читайте Вапника короче. Круче него никого нет. Плюс все ранние книги написаны по-русски. Плюс отдельная книга с кодом на Фортране.
Аноним 04/08/17 Птн 21:53:49  1038104
>>1038019
Круче Вапника в МЛ и правда нет никого, только местное быдлецо этого не понимает. И на английском он не сложнее, чем на русском. Вот только код на фортране точно не нужон, в плане практики лучше почитать про запиливание вручную SVM на слесарьплове или в R с помощью тамошних солверов квадратичных задач типа quadprog.
Аноним 05/08/17 Суб 10:30:23  1038352
predel-pogreshn[...].png (10Кб, 481x289)
Нейроаноны, есть-ли какие-нибудь методы для регрессии, когда таргет задается не значением, а верхней и нижней границей?
Т.е нужно чтобы моя функция лежала внутри границ, но может и не лежать внутри для некоторых выбросов.
Типо пика
Только есть проблема, границы очень разные, т.е у одного значения это может быть 100±10, а следующего 70±50. В этом случае среднее считать почти бессмысленно.
Аноним 05/08/17 Суб 12:29:24  1038393
>>1038352
>когда таргет задается не значением, а верхней и нижней границей?
Нечетким числом, то есть. Есть, конечно, нечеткие аппроксиматоры никто не отменял. Но тута это не модно, Ын, Сутскевер, Лекун и прочие бородатые хипстеры на коворкингах не одобряют.
Аноним 05/08/17 Суб 14:25:47  1038478
>>1038352
Бери среднее значение )))
Аноним 05/08/17 Суб 14:27:02  1038479
>>1038352
>>1038478
Ой, не дочитал до конца.

Почему нельзя делать две регрессии, для минимальных и максимальных значений?
Аноним 05/08/17 Суб 14:29:36  1038480
>>1038352
Не понимаю в чем проблема. По сути у тебя функция двух(если границы заданы нормальным распределением) переменных или трех переменных (если надо отдельно указывать нижнюю грань, верхнюю грань, среднее).

Строй приближение функции нескольких переменных и все.
Аноним 05/08/17 Суб 14:30:48  1038483
>>1038480
Лол я даун. Сорри.
Аноним 06/08/17 Вск 01:19:08  1038835
>>1036439 (OP)
Почему Эндрю Нджи берёт за ошибку последнего слоя error = a - y, хотя я обычно вижу error = (a-y)*g'(z)
Аноним 06/08/17 Вск 06:06:10  1038881
>>1037131
Зарешай тетрадочки отсюда:
https://github.com/yandexdataschool/Practical_RL

Когда разбершься, регайся на openai.com и начинай фигачить игоры из gym.openai.com

Еще советую глянуть на policy gradient strategy и feudal(hierarhical) reinforcment learning.
Три интересные статейки на тему:
https://arxiv.org/abs/1611.01626
https://arxiv.org/abs/1703.01161
https://arxiv.org/abs/1707.06203
Аноним 06/08/17 Вск 23:19:03  1039629
Можно ли хранить логи в нейросети? И что из этого выйдет?
Аноним 07/08/17 Пнд 02:20:43  1039787
>>1039629
Не очень понял зачем и как, но, судя по всему, вам нужны автоэнкодеры:

https://en.m.wikipedia.org/wiki/Autoencoder
Аноним 08/08/17 Втр 00:21:42  1040383
Господа, насколько сложно обучить нейросеть генерировать уникальный контент для сайтов по заданным ключевым словам, т.е. чтобы на выходе были полноценные статьи по заданной тематике по 2-3к знаков каждая, к примеру. Читал на хабрепараше про рекуррентную нейросетку, но там все ограничивалось описанием товаров, отзывов и т.д. Нужно что-то типо http://shir-man.com/gienierator-istorii-k-fotoghrafiiam/ или https://apparat.cc/news/rnn-ai-science-fiction/ ну это уже пиздец круто как по мне:-) Алсо, сам вебмакака и нихуя не знаю матана, насколько реально хотя бы что-то похожее реализовать? Просто где-то год назад анон здесь писал про нейросети, что они уже в состоянии романы писать, ну в контексте того что люди ужеинахуй не нужны будут, биомусор короче:-)
Аноним 08/08/17 Втр 04:05:45  1040423
>>1040383
>полноценные статьи по заданной тематике по 2-3к
это пока невозможно
Аноним 08/08/17 Втр 04:16:43  1040426
>>1040383
>насколько сложно обучить нейросеть генерировать уникальный контент для сайтов по заданным ключевым словам
Очень. Текст-то генерировать несложно но только он бессвязный выходит.
>что они уже в состоянии романы писать
Постмодернистские разве что, лол.
Аноним 08/08/17 Втр 11:49:13  1040557
А кто-то пытался обучить нейросеть блиссимволике? Ведь, по сути, нейросеть чем-то подобна на ребенка с ДЦП.
Аноним 08/08/17 Втр 12:23:21  1040590
Есть кто на ICML? Заебался в номере хекковать.
Аноним 08/08/17 Втр 12:25:55  1040593
>>1040383
Ишь ты, кокой хитрый. Нагенерить миллионы текстов и впаривать копирайтерам с сотен левых акков. Нет, братюнь, не выйдет у тебя зарабатывать по одной-двум хатам в день. Максимум получишь нечто уровня https://twitter.com/neuromzan
Аноним 08/08/17 Втр 17:24:31  1040791
>>1040590
Запили нам фоточки с конфы. Кенгуру там или что вокруг.
Аноним 08/08/17 Втр 20:47:24  1040957
>>1040593
Нахуя мне твои копирайтеры, имея лямы уник контента можно клепать тысячи сдл и иметь по пентхаусу в сутки:-) Короче пока что максимум ныне это что-то вроде https://habrahabr.ru/company/meanotek/blog/259355/
Аноним 08/08/17 Втр 21:59:33  1041005
>>1040557
>подобна на
)
Аноним 09/08/17 Срд 18:21:43  1041505
>>1040426
То есть максимум ныне это коменты в клиттере или небольшое описание к товару? Если даже скормить нейросети десятки гигов текста определенной направленности, то грубо говоря, она не сможет установить достаточное кол-во зависимостей, чтобы текст был более менее связным, это будет просто простыня уник текста на уровне грубого синонимайза?
Аноним 09/08/17 Срд 20:16:28  1041572
>>1041505
Ну сейчас все эти модели вероятностные, то есть недалеко ушли от какой-нибудь цепи Маркова. Осмысленный текст они не могут генерировать потому что никаких мыслей у них нет. Напиши Хассабису в DeepMind письмо, пусть что-нибудь придумает.
Аноним 10/08/17 Чтв 10:47:37  1041811
>>1041005
) ограниченный словарный запас
Аноним 10/08/17 Чтв 13:48:02  1041921
Что в крестах используют вместо питоньего Keras?
Аноним 10/08/17 Чтв 15:33:51  1041978
>>1041921
Tensorflow, наверн.
Аноним 10/08/17 Чтв 16:49:49  1042010
>>1041921
>>1041978
Леее, чукчи. "тюленя, оленя", больше ни про что не слышали. Если не керас, значит слесарьплов. Если не слесарьплов, то керас. Вот на крестах - http://mxnet.io/
Аноним 10/08/17 Чтв 19:39:53  1042104
>>1041921
caffe, dlib, tinyDNN
Аноним 10/08/17 Чтв 20:28:43  1042128
Во что превратится программирование через пару лет:
https://github.com/joelgrus/fizz-buzz-tensorflow/blob/master/fizz_buzz.py
Аноним 11/08/17 Птн 06:00:09  1042326
>>1042104
Двачую эстета
Аноним 11/08/17 Птн 06:07:31  1042329
>>1042128
Спасибо, угарнул со статьи.
Аноним 11/08/17 Птн 21:29:47  1042822
>>1036439 (OP)
С каких пор курсера стала платной? Я раньше все просто так получал что там, что на юдасити. Думал в айти уже почти коммунизм.
Аноним 11/08/17 Птн 21:30:13  1042823
2017-08-1121h26[...].png (38Кб, 664x300)
>>1042822
Аноним 12/08/17 Суб 03:12:49  1042950
А кто в СССР/России был специалистом по нейронным сетям? Вроде Вапника в машобе. Кого можно почитать?

Смотрел видос про какого-то мужика с физтеха, который 40 лет строил нейрокомпьютеры. Он норм? Или профессор Выбегалло?
Аноним 12/08/17 Суб 03:15:54  1042951
Анон, сколько слоев сейчас в сетях для распознавания изображений?
Аноним 12/08/17 Суб 03:17:07  1042952
>>1042951
Несколько тысяч (или даже десятки/сотни тысяч).
Аноним 12/08/17 Суб 03:19:33  1042953
main-qimg-1aa06[...].jpg (136Кб, 500x1132)
>>1042951
Аноним 12/08/17 Суб 03:25:29  1042954
Очень глубокие сети попробовали -- теперь надо попробовать очень широкие сети. Шириной с твою мамку
Аноним 12/08/17 Суб 04:14:47  1042957
googlenetdiagram.png (123Кб, 1984x584)
>>1042951
В residual networks тысячи слоёв. На практике чаще какие-нибудь готовые модели типо AlexNet или Vgg-19 где пара десятков слоёв.
Аноним 12/08/17 Суб 04:17:29  1042958
Там OpenAI для Дотки бота запилили который лучших игроков уделывает. Мамок тоже вроде ебёт.
https://blog.openai.com/dota-2/
Аноним 12/08/17 Суб 04:56:50  1042959
Прошелся по гугл-школяру по чувакам с тегам нейронные сети и среди русаков там только пара физиков с ЦЕРНа. Что совсем нет никого крутого по теме?

Вспомнил как зовут профессора который выглядит, как Выбегалло -- Галушкин А. И.

В википедии написано, что он придумал backpropagation, но так как данная инфа написана только в русской вики -- то боюсь, что это он сам про себя и написал.
Аноним 12/08/17 Суб 04:57:55  1042960
>>1042958
Дота-дауны, кстати, визжали, что их игра в миллион раз сложнее шахмат и го. Что для нее никогда не создадут кампуктерную программу, которая будет их ебать. Наивные.
Аноним 12/08/17 Суб 12:18:44  1043069
>>1042954
Че ты как лох ограничиваешься тремя измерениями.
Аноним 12/08/17 Суб 16:43:03  1043200
салам, терпилы.
решил начать обмазываться мл и алгоритмами.
буду разбирать сорцы вот этой либы и алгоритмы из нее.
http://php-ml.readthedocs.io/en/latest/machine-learning/association/apriori/
положняк?
Аноним 12/08/17 Суб 17:14:53  1043217
>>1043200
>PHP
Аноним 12/08/17 Суб 19:36:20  1043273
>>1043217
пшел нахуй байтоеб. только у веба есть будущее, только динамика впереди.
Аноним 12/08/17 Суб 21:38:54  1043334
>>1042960
> 1v1
> dota
Дотан - коммандная игра. Ждём коопящихся ботов.
Аноним 12/08/17 Суб 22:15:40  1043352
Не понимаю программистишек, зачем вы пилите сук, на котором сидите?

Как только будет создан сильный ИИ, вас же всех выкинут на мороз, как сраных луддитов после появления станков. ИИ может работать бесплатно 24 часа в день, не ест, не пьет кофе, не читает хабру, никогда не уставать и не ошибаться.
Аноним 12/08/17 Суб 22:20:00  1043356
>>1043352
>Как только будет создан сильный ИИ
А в чем сила, брат?
>вас же всех выкинут на мороз
Если уж и программистишек на мороз выкинет, то остальные быдлопрофессии и подавно.
>зачем вы пилите сук, на котором сидите?
Потому что могут.
Аноним 12/08/17 Суб 22:37:27  1043373
>>1042960
Дота говно для дебилов, кстати.
Аноним 12/08/17 Суб 22:37:46  1043374
>>1043352
Да вон какие-то конструктивисты даже математиков обещают автоматизировать, а ты о программистишках
Аноним 12/08/17 Суб 22:38:10  1043375
>>1043352
Я надеюсь, что ИИ выкинет вообще всех людишек на помойку. пилю его из пиплхейта.
Аноним 12/08/17 Суб 22:41:03  1043383
>>1043356
>А в чем сила, брат?
В способности выполнять работу как минимум не хуже человека, при этом еще и бесплатно и непрерывно.

>Если уж и программистишек на мороз выкинет, то остальные быдлопрофессии и подавно.
Э, нет, тут-то мы и поправим программистишку! В быдлопрофессиях рыночек решает, ведь нелегальный таджик-строитель стоит дешевле робота. В IT наоборот, выгоднее будет заменить зажравшуюся кодомакаку на ИИ.

>Потому что могут.
Потому что узко направленны и не видят дальше своего носа.
Аноним 12/08/17 Суб 22:42:21  1043388
>>1043374
>>1043375
Это в далеком будущем. А вот программистишки (большинство) останутся без работы очень скоро.
Аноним 12/08/17 Суб 22:49:40  1043395
>>1043388
как можно остаться без работы в создании самого модного направления последних 20 лет?
Аноним 12/08/17 Суб 22:57:20  1043401
>>1043395
Я про веб-макак и прочих формошлепов, их как раз системы вроде DeepCoder заменят как класс.
В Machine Learning и Data Mining люди будут нужны, но бывшему пиццевозу в эту область никак не вкатиться, там же нужно знать математику.
В итоге 99% современных кодеров останутся без работы.
Аноним 12/08/17 Суб 23:19:19  1043429
Никакого ИИ не будет. Будет миллион разных костылей с мозгом уровня амебы или печеночного сосальщика. Никакой угрозы для людей нет. Проблемы будут только если ты работаешь кассиром, грузчиком или изготовителем бургеров. Там мозга печеночного сосальщика как раз хватит.
Аноним 12/08/17 Суб 23:30:55  1043446
>>1043429
Ну, как-бы есть сторонники и совсем других архитектур, не диплеринг, но это не так модно, не так стильно и не так молодежно.
Аноним 12/08/17 Суб 23:41:32  1043451
>>1043429
блять, да меня бычий цепень медленно убивает и никакие лекарства не помогают, ты зря недооцениваешь сосальщиков.
Аноним 12/08/17 Суб 23:42:40  1043453
>>1043401
какие-то дикие фантазии свихнувшегося байтоеба.
веб уже автоматизирован до конструкторов сайта и плагинов, которыми может любой уася пользоваться.
Аноним 13/08/17 Вск 01:48:33  1043496
>>1043429
Гугеловский tensor2tensor уже научился сортировать массивы, через несколько десятков лет можно будет шлёпать кожаных мешком на удобрения.
Аноним 13/08/17 Вск 06:30:38  1043531
>>1043352
Долбоёб, ты понимаешь, что машоб на текущем этапе развития и сильный ИИ это вообще разные вещи?
Аноним 13/08/17 Вск 10:07:54  1043554
02101312293115.jpg (64Кб, 800x860)
>>1042958
В дотку даже Карина без мозгов может. Вот если бы на этом deep reinforcement learning запилить бота, который на бирже всех вертит на хую и рубит миллиарды, то вот это было б годно. Теоретически разницы с доткой никаких, тренировать можно на тестовых счетах.
Аноним 13/08/17 Вск 10:32:24  1043559
>>1043531
>ты понимаешь, что машоб на текущем этапе развития и сильный ИИ это вообще разные вещи?
Самая хохма в том, что сильный ИИ не нужон, это больше философия чем прикладная задача. На практике достаточно того, что алгоритмы МЛ, не являющиеся сильным ИИ, давно уже могут решать задачи, в которые традиционно может только мыслящий человек. И чем дальше, тем таких задач все больше и больше, без всякого сильного ИИ даже в проекте. В эти ваши ссаные нейроночки все не уперлось, к слову. Вон выше упомянули системы автоматизированных математических доказательств. Coq не нейроночка и вообще принципиально не машоб, но теорему 4 красок (в которую даже мыслящие людишки нишмагли) на нем доказали как нехуй http://www2.tcs.ifi.lmu.de/~abel/lehre/WS07-08/CAFR/4colproof.pdf на данном этапе Кок используется как костыль для человека, но и это поправимо, я как раз занимаюсь одним из возможных путей полной автоматизации подобных задач. И опять же без нейроночек и машобчика, хотя вон есть и желающие приколхозить нейроночки к пруверам https://arxiv.org/pdf/1606.04442.pdf и даже не без некоторых успехов.
Аноним 13/08/17 Вск 10:40:15  1043561
Как вкатиться в МЛ дебилу, который забыл математику?
Аноним 13/08/17 Вск 11:17:34  1043575
>>1043561
Арифметику знаешь?
Аноним 13/08/17 Вск 11:41:00  1043585
>>1043575
Знаю, и еще какие-то обрывочные знания из средней школы.
Аноним 13/08/17 Вск 12:09:50  1043612
>>1036439 (OP)
На днях заинтересовался нейросетью и интересует такой вопрос.
Какой вид математики нужно знать что сделать нейросеть?
У меня уровень 7-8 класс математики.
Аноним 13/08/17 Вск 12:25:29  1043619
>>1043585
А я вот старый, но раньше математику знал хорошо. Алгебру по Кострикину, например, изучил. Но мат статистикой, в то время, не очень интересовался. Давно это было. Какие пути вкатиться а эту область, х.з. Хочется побороться с гредущим альцгеймером, так как уже за тридцатник...
Аноним 13/08/17 Вск 12:29:05  1043623
>>1043619
>гредущим
грядущим
альцгеймер не дремлет
Аноним 13/08/17 Вск 12:32:14  1043625
>>1043217
сам PHP и расширения к нему написаны на C, в том числе и реализация "Fast Artificial Neural Network или FANN" => всё достаточно быстро, особенно в последних версиях
Аноним 13/08/17 Вск 12:36:59  1043629
>>1043273
веб и байтоёбство -- вовсе не антонимы.
фу таким быть.
Аноним 13/08/17 Вск 12:39:29  1043631
>>1043612
Арифметика, высшая арифметика (теория чисел), алгебраическая геометрия.
Аноним 13/08/17 Вск 12:45:09  1043638
>>1043631
Ты еще алгебраическую топологию и дифференциальную геометрию забыл. Плюс ТФКП, операционное исчисление...
Аноним 13/08/17 Вск 12:46:51  1043640
>>1043631
>>1043638
Я так понял что это минимум который нужно знать?
Аноним 13/08/17 Вск 12:51:37  1043643
>>1043640
Для начала изучи все отсюда https://stepik.org/catalog?tag=866
Аноним 13/08/17 Вск 12:53:52  1043645
>>1043643
По еnglish тегу тоже
Аноним 13/08/17 Вск 12:55:04  1043646
>>1043640
Ну, желательно, доктора наук получить.
Аноним 13/08/17 Вск 12:56:16  1043647
>>1043643
>>1043646
Не лучше я дальше буду веб-макакой, слишком сложно для меня. Это какая то хуйня для избранных.
Аноним 13/08/17 Вск 12:57:52  1043649
>>1043646
Каких наук? Теологических?
Аноним 13/08/17 Вск 13:02:34  1043652
image.png (500Кб, 944x1195)
>>1043647
Да че сложного то
Аноним 13/08/17 Вск 13:08:49  1043655
>>1043652
Алгебраическая топология, дифференциальная геометрия, ТФКП и т.д.
Я пол года назад пробовал изучать дискретную математику, то дальше первой главы не мог пройти, так как РЕЗКО все вставало непонятным и запутанным.
Аноним 13/08/17 Вск 13:12:45  1043656
>>1043655
Надеюсь ты понимаешь, что это стеб. Реально нужно инженерное знание математики на уровне заборостроительного.
Аноним 13/08/17 Вск 13:15:04  1043658
>>1043655
>Алгебраическая топология, дифференциальная геометрия, ТФКП
Но ведь это всё не нужно...
Аноним 13/08/17 Вск 13:27:36  1043664
А вообще какие есть методы вкатав этой сфере для энтузиастов без галстука. Конкурсы - это реально? Кто все эти люди на kaggle.com ?
Аноним 13/08/17 Вск 13:31:26  1043666
1.jpg (116Кб, 818x542)
>>1043656
>Надеюсь ты понимаешь, что это стеб.
Нет не понял, думал что это серьезно.

>Реально нужно инженерное знание математики на уровне заборостроительного.
Вот посмотри на пикчу, я так понял это сумма, ее тоже нужно знать.

Пикча из сайта.
http://neuralnet.info/%D0%B3%D0%BB%D0%B0%D0%B2%D0%B0-2-%D0%BE%D1%81%D0%BD%D0%BE%D0%B2%D1%8B-%D0%B8%D0%BD%D1%81/

>Но ведь это всё не нужно...
Тогда что нужно?
Аноним 13/08/17 Вск 13:34:05  1043670
>>1043559
https://www.youtube.com/watch?v=ZTZjFz8HPUM
Аноним 13/08/17 Вск 13:35:34  1043672
>>1043666
И что тебя в этой сумме пугает - греческий знак сигма?
Аноним 13/08/17 Вск 13:41:30  1043674
>>1043672
Что означает "n" над сигмой?
Что значит "i=1" под сигмой?
Аноним 13/08/17 Вск 13:47:50  1043678
>>1043674
Если ты программер, то представь сигму как оператор for (i=1; i<=n; i++) { sum += x * w }
Аноним 13/08/17 Вск 13:49:12  1043681
>>1043674
Там написано
sum = 0
for (i = 1; i <= n; ++i) {
sum += x * w
}
Аноним 13/08/17 Вск 13:50:43  1043683
>>1043678
for (i=1; i<=n; i++) { sum += xi * wi }

Бля двач, что ты творишь?
Аноним 13/08/17 Вск 13:52:05  1043685
>>1043678
>>1043681
Аааааа теперь понятно, я то думал что сигма это какие то йоба вычисления.

>>1043683
>xi * wi
А что значит нижнее "і"?
Аноним 13/08/17 Вск 13:53:48  1043687
>>1043685
Элемент с индексом i
Аноним 13/08/17 Вск 14:08:33  1043697
>>1043674
Зато в кадом перезвоним-треде:
РЯЯЯ!! ВЫСШЕЕ ОБРАЗОВАНИЕ НИ НУЖНА!!
ЕБАТЬ ВЫ ЛОХИ!
ПЯТЬ ЛЕТ ЖИЗНИ В ПИЗДУ
ЛУЧШЕ ВЕБ-МАКАКОЙ ЗА 30 ТР
Аноним 13/08/17 Вск 14:13:15  1043698
>>1043697
ВО и правда ненужно, в институте старый пердун хриплым голосом объясняет математику по учебникам из 60 годов, где поймешь только 5% материала в лучшем случае.
Лучше изучать то что нужно по мере продвижения, если все попытаться охватить то жопа треснет.

>ЛУЧШЕ ВЕБ-МАКАКОЙ ЗА 30 ТР
Сейчас веб-макакам платят от 40 и выше.
Аноним 13/08/17 Вск 14:17:13  1043702
>>1043698
Я уже в одном из из тредов написал что сложные знания имеют цикличискую зависимость друг от друга. Без систематического образования освоить это в одиночку большая задача.
Аноним 13/08/17 Вск 14:17:56  1043704
>>1043698
Подскажи чем новые учебники лучше старых из 60-х годов и посоветуй нормальные новые.
Аноним 13/08/17 Вск 14:21:10  1043708
>>1043698
>учебникам из 60 годов
И что? Вот например А. Н. Колмогоров написал учебник по теорверу ещё в начале 1930-х, что положило начало аксиоматической теории вероятностей. Учебник до сих пор актуален.
Аноним 13/08/17 Вск 14:25:38  1043711
>>1043704
По матану годнота H. Amann, J. Escher "Analysis I-III" 10/10, лучше Зорича. Первый том в 2005 вышел. По алгебре P.Aluffi "Algebra: Chapter 0" вообще красота, т.к. с самого начала учит теории категорий, первое издание вышло в 2009г.
Аноним 13/08/17 Вск 14:26:06  1043712
https://www.youtube.com/watch?v=GrgQlqfWWx4

Нубо вопрос мимо проходящего в связи с видеорилейтед.

Может ли нейронка обучаться в несколько потоков или она только в одном работает? И если может, то как она потом производит синхронизацию этого изученного материала особенно если там данные противоречивые получились? Или процесс записи / обучения по факту происходит в одном потоке изолированного от распараллеливанного процессинга вычисления и извлечения данных и потом что-то типа коротких готовых результатов которые передаются в вашу Mode/Data ?
Аноним 13/08/17 Вск 14:39:04  1043718
Зачем вы изучаете нейронные сети?
Аноним 13/08/17 Вск 14:40:36  1043720
>>1043708
>Я уже в одном из из тредов написал что сложные знания имеют цикличискую зависимость друг от друга. Без систематического образования освоить это в одиночку большая задача.
Для простых задач хватит и минимума, я не собираюсь скайнет делать.

>Вот например А. Н. Колмогоров написал учебник по теорверу ещё в начале 1930-х, что положило начало аксиоматической теории вероятностей. Учебник до сих пор актуален.
Там устаревшие математические обозначения, в новый учебниках более понятные объяснения и доказательства.
Аноним 13/08/17 Вск 14:43:05  1043721
>>1043697
>ЛУЧШЕ ВЕБ-МАКАКОЙ ЗА 30 ТР
>30 ТР
Я бы с радостью убежал работать вебмакакой

мимо заводораб
Аноним 13/08/17 Вск 14:51:12  1043725
>>1043718
Лично мне просто интересно, хочется написать какого то бота для игры, и чтобы он соревновался с другим ботом, чтобы узнать какая нейросеть лучше будет, а то как людишки между собой соревнуются уже неинтересно, прошлый век.
Аноним 13/08/17 Вск 14:52:09  1043726
>>1043725
Почему использовать именно нейросети?
Аноним 13/08/17 Вск 14:52:29  1043727
>>1043725
А меня смущают суммы вознаграждения на kaggle.com
Аноним 13/08/17 Вск 14:54:37  1043729
>>1043727
>kaggle
Ведь его придумали хитрые жиды, которые получают решение проблемы за символическую плату вместо того, чтобы нанимать исследовательскую группу без гарантированного успеха.
Аноним 13/08/17 Вск 14:56:48  1043730
>>1043729
Это нормально - переносить риски на лохов.
Аноним 13/08/17 Вск 14:58:15  1043733
>>1043726
Они лучше справляются с такими задачами.
Аноним 13/08/17 Вск 15:02:21  1043736
>>1043733
Правильно я понимаю, что она не может дообучаться во время непосредственно игры?
Аноним 13/08/17 Вск 15:04:58  1043738
>>1043730
Вот родился ты в Пакистане, но очень умный. Берешь и работаешь над датасетами на планшете, пока груженый ишак поднимается в гору. Выиграл $50k и можешь уже гарем купить и забыть о работе на всю жизнь.
Аноним 13/08/17 Вск 15:07:40  1043742
>>104373
А откуда у пакистанца ферма машин с видюхами?
Аноним 13/08/17 Вск 15:08:57  1043744
>>1043742
Богиня Азура подарила
Аноним 13/08/17 Вск 15:10:18  1043745
>>1043625
>сам PHP и расширения к нему написаны на C, в том числе и реализация "Fast Artificial Neural Network или FANN"
падажжи, эта библиотека использует GPU или нет?
Аноним 13/08/17 Вск 15:12:38  1043746
>>1043554
>Теоретически разницы с доткой никаких,
Разница принципиальная.
>тренировать можно на тестовых счетах.
нет
Аноним 13/08/17 Вск 15:14:47  1043747
Что-то слишком мало сервисов уровня "потыкать" с обучением с подкреплением. Вот сверточные нейросети то там и котики всякие есть и прочее, а обучения с подкреплением нет.
Аноним 13/08/17 Вск 15:19:20  1043749
>>1043736
Можно поставить чтобы и обучалась а можно и отключить эту способность.
Аноним 13/08/17 Вск 15:25:18  1043751
>>1043746
>Разница принципиальная.
Ты так сказал? Поясняй.
Аноним 13/08/17 Вск 15:30:21  1043755
>>1043670
И что это?
Аноним 13/08/17 Вск 15:57:59  1043775
>>1043751
Не может быть алгоритма, который в долгосрочной перспективе прибыльней среднего по рынку, потому что рынок полностью прозрачен (все видят сделки по купле и продаже) и симметричен (все могут купить любые акции). Поэтому если такой алгоритм будет реально работать, все просто начнут копировать твои сделки и он работать перестанет.
Аноним 13/08/17 Вск 16:06:09  1043778
>>1043775
А у спекулянтов есть спрос на прогеров знающих ML? Тяжело вкатиться, покатиться и прокатиться?
Аноним 13/08/17 Вск 16:08:49  1043781
>>1043778
мл как ты понял маркетинговый ход, для впаривания говна матанопитухам, в трейденге мл нинужно от слова совсем.
Аноним 13/08/17 Вск 17:50:42  1043868
>>1043775
>Не может быть алгоритма, который в долгосрочной перспективе прибыльней среднего по рынку,
Ты согласишься с тем, что доход на рынке зависит от конкретного поведения (купи-продай) в конкретной ситуации (текущая цена, история цены, объем торгов, его история показания индикаторов, текущие новости и т.д.)?
Аноним 13/08/17 Вск 19:25:38  1043966
Почему нейроночка массив, а не список?
Аноним 13/08/17 Вск 19:29:10  1043970
>>1043966
Нейроночка - зависимый тип же.
Аноним 13/08/17 Вск 19:29:59  1043971
>>1043970
>зависимый тип
В смысле?
Аноним 13/08/17 Вск 19:48:50  1043993
>>1043678
это есть множитель двух переменных возведенный в степень n?
Аноним 13/08/17 Вск 19:52:26  1043995
>>1043993
Это двач сожрал квадратные скобки с индексами.
Аноним 13/08/17 Вск 19:56:59  1043997
Школьники незнакомые с суммой не засирайте тред. Он создан для обсуждения свежих статей из архива.
Аноним 13/08/17 Вск 20:00:26  1043999
>>1043971
В прямом, https://en.wikipedia.org/wiki/Dependent_type
Аноним 13/08/17 Вск 20:02:56  1044004
>>1043997
>Школьники незнакомые с суммой не засирайте тред.
Мне 25

>свежих статей из архива
Какого архива?
Аноним 13/08/17 Вск 20:05:46  1044009
>>1044004
>Какого архива?
https://arxiv.org/
Аноним 13/08/17 Вск 20:06:30  1044010
>>1043745
Да, но можно и без него
Аноним 13/08/17 Вск 20:23:52  1044022
Господа, сейчас вот эту нейронку разбираю.
Тут какая-то солянка из интерфейсов и абстрактных классов, использующих различные алгоритмы. пока не оче понятно.
https://github.com/php-ai/php-ml/blob/master/src/Phpml/NeuralNetwork/Network/MultilayerPerceptron.php
никто не хочет скоординироваться, чтобы разобраться в кишках нейронок? Просто использовать без понимания ее действия мне не хочтеся (планирую запилить веб сервис с самооучающейся нейронкой).
Аноним 13/08/17 Вск 20:26:05  1044026
>>1044022
что она должа делать?
Аноним 13/08/17 Вск 20:26:08  1044027
КТО ШКОЛЬНИК ТЫ ШКОЛЬНИК МНЕ 30 ЛЕТ!!
Аноним 13/08/17 Вск 20:30:04  1044029
>>1044027
>КТО ШКОЛЬНИК ТЫ ШКОЛЬНИК МНЕ 30 ЛЕТ!!
Нахуй ты его гнобишь? У человека появился новый интерес и в первую очередь нужно общаться с человеком, а не с его заслугами или невежеством. Эту математику можно быстро выучить, а ничего сверхпродвинутого для import sleasorflow as sf не нужно. Если ты такой сверхразум он тебе конкуренции не составит, не мешай человеку вкатываться, если интересно
Аноним 13/08/17 Вск 20:41:01  1044033
>>1044022
>солянка из интерфейсов и абстрактных классов, использующих различные алгоритмы. пока не оче понятно.
Похапе вообще ЯП курильщика, тут уже не в нейросетях проблема. Перцептрон и в африке перцептрон, что там разбирать. Аппроксимация функции многих переменных через суперпозиции частных функций от двух переменных, для чего и нужен скрытый слой. У Вапника суть перцептрона очень хорошо раскрыта, http://gen.lib.rus.ec/book/index.php?md5=BC6C3185972183559646187BE34C1C31 Аппроксимация функций зависимостей выходов от входов - это вообще универсальная суть всех нейронок, ничего другого они не делают в принципе.
Аноним 13/08/17 Вск 20:56:14  1044051
>>1044026
я сейчас свою бизнес-идею палю, но ок:

анализировать симптомы болезней из сети, ставить диагноз по симптомам и выписывать лечение.

Книга на 332 страницы. Я уже читал краткие описания нейронок, даже в википедию про синапсы полез читать. Но все-таки я не могу понять, как они обучаются. Все результаты трейнинга они куда-то запоминают в класс, а потом выуживают, чтобы сравнить с инпутом??
Аноним 13/08/17 Вск 20:56:35  1044052
>>1044051
>>1044033
Аноним 13/08/17 Вск 20:57:02  1044054
>>1043712
Учи матчасть. Стохастические примочки работают как раз из-за того, что при распространении градиента на веса, дельта зависит в данный момент времени только от данного объекта, и даже если один объект (условно) попадается несколько раз подряд, то это окей. Думаешь, почему тащат GPU и TPU? Именно поэтому.

А в сабже они вообще могли запустить на одном агенте 100 сессий одновременно.
Аноним 13/08/17 Вск 20:58:32  1044057
>>1043747
gym.openai.com и yandexdatafactory practical_RL на гитхабе.

Пользуйся.
Аноним 13/08/17 Вск 21:00:01  1044058
>>1044051
да без разницы, куда конкретная реализация запоминает результаты обучения -- в класс или куда-то ещё.

Если ты, допустим, врач -- тебе нужен результат. Бери и применяй.
Аноним 13/08/17 Вск 21:01:44  1044059
>>1043997
Ват? В 8 классе же, когда рекуррентные соотношения и индукцию проходят.
Аноним 13/08/17 Вск 21:07:48  1044064
>>1044051
>свою бизнес-идею палю,
Братюнь, твоей гениальной бизнес-идее лет сильно больше чем тебе. Няпонци еще в 80-х годах мутили диагностические системы на нечеткой логике, Вапник еще в СССР в 70-х годах подобным занимался. Хохлы, вон, готовую технологию продают, гугли luven diagnostic, ранняя диагностика онкологии по параметрам клеток буккального эпителия.
>Все результаты трейнинга они куда-то запоминают в класс, а потом выуживают, чтобы сравнить с инпутом??
Результаты трейнинга - это изменения весов "синапсов". Вход, умноженный на эти веса, должен давать правильный выход. Для того и существует обучение. Сами веса представляют собой коэффициенты линейных или полиномиальных функций, в простейшем случае.
Аноним 13/08/17 Вск 21:09:25  1044066
>>1044059
Хуя ты с 57 школы
Аноним 13/08/17 Вск 21:10:43  1044067
>>1044064
>Вход, умноженный на эти веса, должен давать правильный выход
Тип я могу доумножаться до искусственного интеллекта?
Аноним 13/08/17 Вск 21:18:07  1044076
>>1044067
Вот очень годное видео, один из создателей этой технологии все на пальцах поясняет, как что работает. Искусственный интеллект - это философская концепция, а не формальная постановка задачи. Нет нормального определения предмета - нет и быть не может предметной дискуссии. Чисто фактически, алгоритмы машобчика могут многое, что раньше считалось возможным только для человека, это все, о чем можно говорить твердо и четко в наше время.
https://www.youtube.com/watch?v=hc2Zj55j1zU&t=14s
https://www.youtube.com/watch?v=skfNlwEbqck
Аноним 13/08/17 Вск 21:30:57  1044079
Тут я так понимаю, в основном преподы из универов и их студенты сидят?
Расскажите, как вам на кафедре? Норм платют? На науч. работах бабло пилить удается (инвесторы там фонды)?
Аноним 13/08/17 Вск 21:37:42  1044085
>>1043868
да
Аноним 13/08/17 Вск 21:39:37  1044088
Расскажите про примерный план изучения математики, необходимой для работы с tensorflow.
На данный момент есть обрывочные знания из школьной программы, знаю, что такое логарифм, синус - не больше, в азы матанализа не умею.
Аноним 13/08/17 Вск 21:41:09  1044089
>>1044085
Но ведь то, что я описал, это и есть суть алгоритмов reinforcement learning, конкретные примеры - Q-learning, POMDP (марковский процесс принятия решений в условиях системы, только частично доступной для наблюдения). Это вполне алгоритмы, а ты сам только что признал, что оптимальное поведения на рынке к ним сводится.
Аноним 13/08/17 Вск 22:01:40  1044111
>>1044088
Матанализ, теорвер, линал. Все на уровне первого попавшегося учебника, читанного по диагонали. Работа со слесарьпловом - это всего лишь построение графов, вершины которого это математические операции, ребра - скаляры/векторы/матрицы/тензоры в зависимости от задачи.
Аноним 13/08/17 Вск 22:05:18  1044115
>>1044111
>Матанализ, теорвер, линал
Изучать именно в таком порядке?
И что делать, если встретится тонна незнакомых математических символов?
И да, требуют ли книги по высшей математике глубокого знания школьной программы?
Аноним 13/08/17 Вск 22:07:26  1044118
>>1044115
>Изучать именно в таком порядке?
Нет, лучше параллельно.
>что делать, если встретится тонна незнакомых математических символов?
В любом учебнике объясняется вся используемая нотация.
>требуют ли книги по высшей математике глубокого знания школьной программы?
Нет.
Аноним 13/08/17 Вск 22:08:57  1044120
>>1044118
Спасибо большое, анон.
Аноним 13/08/17 Вск 22:12:03  1044126
>>1044115
Лучше учебник высшей математики для экономистов возьми - там как раз уклон в статистику.
Аноним 14/08/17 Пнд 04:02:36  1044218
>>1044089
Нет, не сводится. Когда ты каким-нибудь deep q-learning учишься играть, скажем, в блэкджек, у тебя есть определённое распределение состояний, которое задано правилами игры, и ты пытаешься найти стратегию, которая позволит тебе получить состояния, в которых ты получаешь какие-то ништяки. Фондовые рынки принципиально отличаются от этого тем, что распределение постоянно меняется. Это как пытатся MNIST нейронкой классифицировать но при каждом прогоне датасет слегка меняется так, чтобы у тебя ошибка осталась прежней. Заработать на акциях можно только если ты точнее оцениваешь её реальную стоимость чем остальной рынок но если ты можешь оценивать акции точнее других то все просто будут копировать твою стратегию и разница между твоей оценкой и реальной рыночной ценой очень быстро сойдёт к нулю. Такой вот парадокс. Если бы алгоритм мог здесь помочь, то Гугл уже давно был бы королём всех рынков но увы. Чтобы зарабатывать на акциях нужна ассиметричная информация, без этого никак.
Аноним 14/08/17 Пнд 10:14:19  1044315
>>1044218
Ты сам читаешь, что пишешь? Почитай. Разница между каким-нибудь понгом и рынком только в том, что в случае рынка правила динамически меняются. Но это не отменяет их существования, т.е. оптимальное поведение на рынке все равно зависит от состояний самого рынка, описанных здесь >>1043868 а не от астральных сущностей в виде гномика. И если под эти изменения может подстроиться человек, то может и алгоритм обучения с подкреплением, потому что в противном случае (если бы таких зависимостей не было) не мог бы и человек. В обоих случаях имеет место аппроксимация функции зависимости выхода (дохода) от входов (состояний рынка и возможных вариантов поведения). Я бы мог еще тезис Черча вспомнить, но это лишнее. В любом случае, как ни крути, в конечном счете то что может вычислить человек, может и машина Тьюринга. Нет ни одного известного человечеству случая, опровергающего этот тезис, как бы у хейтеров математики с этого жопы ни горели.
Аноним 15/08/17 Втр 09:56:21  1044777
image.png (393Кб, 382x509)
Сможет ли нейросеть отличить животное от хлебушка?
Аноним 15/08/17 Втр 10:05:54  1044782
>>1044315
Для игры на рынке нужны ужаса и магия. Может тут и есть ряд закономерностей, но рандом тоже присутствует. Это как ставки на лошадей. Исходя из истории побед лошади ты можешь вычислить, какая победит. Но точно может предсказать только врач, берущий кровь у лошадей.
Аноним 15/08/17 Втр 10:11:08  1044786
>>1044777
От алгоритма зависит. Если на вход подаются чб изображения - врят ли отличит.
Аноним 16/08/17 Срд 10:27:25  1045251
В чем основные проблемы нейроночек?
Аноним 16/08/17 Срд 11:22:59  1045275
>>1045251
Не распознает шум. Переобучается.
Аноним 16/08/17 Срд 12:04:25  1045287
>>1044786
Терминатор расстреливающий манекены?
Dmitry 16/08/17 Срд 21:04:01  1045555
Это все пиздато, но какие проблемы можно решить кроме создания роботов?
Аноним 16/08/17 Срд 21:17:33  1045566
>>1045555
Митяй, ты бы погуглил

https://ru.wikipedia.org/wiki/Рекомендательная_система

https://ru.wikipedia.org/wiki/Кредитный_скоринг
Аноним 17/08/17 Чтв 11:08:49  1045778
>>1044782
>Может тут и есть ряд закономерностей, но рандом тоже присутствует.
Там не только рандом. Наверняка есть моменты, не сводящиеся ни к рандому ни к функциональным зависимостям выходов от входов (многоходовочки крупных игроков, заговоры рептилоидов и т.д). Поэтому в алгоритмах обучения с подкреплением типа POMDP (parial-observed markov decision-making process) речь именно о частично-наблюдаемой системе, все переменные которой нам не будут доступны никогда и ни при каких обстоятельствах. При этом задача - выйти на наилучший возможный результат именно исходя из того, что мы имеем, а не из 100% целостной картины. Так что магия тоже учитывается.
Аноним 17/08/17 Чтв 13:02:06  1045811
>>1045555
да никаких проблем не решается, братан, хуйня всё это
Аноним 17/08/17 Чтв 13:07:33  1045815
...
Аноним 17/08/17 Чтв 19:52:21  1045959
1.PNG (82Кб, 1280x917)
Есть один кусок XGBoost'а, и он меня кажется троллит. Так как я не знаю Питон, я взял обертку на Шарпе для XGBoost. И я не понимаю в чём дело, но эта херня меня троллит и просто не реагирует ни на какие параметры кроме objective.
https://pastebin.com/pZsvvwU4 вот кусок кода
Вывод XGBoost'а приложил. Я перебираю бустеры и eval_metrics и ожидаю хоть какого-то изменения в деревьях, но нет, результаты одни и те же. Что-то меняет только objective.

Так вот, никто не мог бы помочь и набросать пару строк на Питоне? В общем, есть файл input.json, там объект с четырьмя полями. TestInput (float[][]), TestOutput (float[]), TrainInput (float[][]), TrainOutput (float[]). Мне нужен кусок кода, который загрузит эти данные и подаст на XGBoost (сам файл я переподготовлю, чтобы в нём вообще ничего было менять не нужно, и оставалось бы только подать его на библиотеку для обучения). Ну совсем в идеале также перебрать метрики и бустеры как это делаю я. Я хочу понять в чём дело, в обертке на C# или в самом XGBoost'е.
Спрашиваю здесь, а не в Пистон треде, потому что здесь кто-нибудь Пистон да знает и мб подскажет в чём дело, если дело в самом XGBoost.

Обертка вот эта была: https://github.com/PicNet/XGBoost.Net

Заранее спасибо, няши

То, что у меня precision такой маленький это пока отдельный разговор, сначала надо понять работает ли сам швейцарский нож
Аноним 17/08/17 Чтв 21:26:31  1045988
>>1045959
Это из-за скобок с новой строки.
Аноним 17/08/17 Чтв 21:59:02  1046013
>>1045988
https://github.com/PicNet/XGBoost.Net/blob/master/XGBoost/lib/libxgboost.dll 28 ноября 2016 года
Аноним 18/08/17 Птн 03:47:23  1046093
Будет ли актуален машоб через 4-5 лет, стоит ли вкатываться?
Аноним 18/08/17 Птн 03:50:36  1046094
И вообще, каким вы видите будущее машоба. Очень интересно, что будет дальше или не будет.
Аноним 18/08/17 Птн 04:00:06  1046097
>>1046093
Ну не знаю даже
https://www.newkaliningrad.ru/news/briefs/economy/14299115-glava-sberbanka-obyasnil-pochemu-ne-vozmet-na-rabotu-vypusknikov-yurfaka-bfu-im-i-kanta.html
Аноним 18/08/17 Птн 04:06:03  1046098
>>1046097
Понял, принял.
Аноним 18/08/17 Птн 04:06:41  1046099
>>1046094
> каким вы видите будущее машоба
https://www.youtube.com/watch?v=oqvtLGZb0A0
https://www.youtube.com/watch?v=7BX6om4TKgU
https://www.youtube.com/watch?v=p-0AtLhiubc
Аноним 18/08/17 Птн 15:34:40  1046299
на каком ЯП лучше всего писать нейронки?
Аноним 18/08/17 Птн 17:01:51  1046360
>>1046299
На brainfuck'e, очевидно.

на чём хотите, на том и пишите. На питоне легче, так как больше библиотек и разработка проще. Но сейчас даже для сраной пыхи есть пакеты.
Аноним 18/08/17 Птн 17:15:29  1046365
>>1045959
https://github.com/dmlc/xgboost/blob/master/demo/binary_classification/README.md lol, оказывается xgboost поддерживает работу из-под консоли, принимая файл конфигурации на вход. Так тоже сойдёт. Так и сделаю

Теперь другой вопрос, который не является оффтопиков. Вот у меня есть обучающая выборка на 1200 значений, почти всё там это класс A, класса B там в 9 раз меньше (11.1%). Теперь вопрос: почему XGboost (по крайней мере с дефолтными значениями) так сильно забивает на precision? Потому что по умолчанию там мера error, а не kind of F1?
Я от безысходности запилил свою разбивку с Gini / F1-мерой, и я точно знаю, что там можно срезать 3%-4% от данных так, чтобы они почти полностью состояли из класса B. И, да, я учил на тренинговой выборке, а тестировал на тестовой, выборки не пересекаются.
У меня уже всерьёз появляются идеи самому имплементировать дерево решений.
Аноним 18/08/17 Птн 17:16:08  1046366
>>1046299
На Пистоне уже всё готово и ждёт тебя. У Яши и Гугла весь ML на Пистоне. Вывод очевиден.
Аноним 19/08/17 Суб 09:50:19  1046686
Как велико участия стран третьего мира в машобе?
Аноним 19/08/17 Суб 11:46:23  1046737
>>1046365
>У меня уже всерьёз появляются идеи самому имплементировать дерево решений.
Ты одну хуйню юзаешь из-под хуевой обертки к третьей хуйне. Родина дала R, где всех этих хгбустов и прочего бустинга до жопы, все работает, в документации разберется даже средний пенсионер из аудитории одноклассников. Нет, не хотим. Хотим сладкий хлеб поедать. И это слесари? Говно какое-то...
Аноним 19/08/17 Суб 11:57:19  1046745
>>1046360
>>1046366
А если меня не интересуют готовые фреймворки и пакеты, я хочу поразбираться в кишках и алгоритмах, то питон тоже подойдет?
Аноним 19/08/17 Суб 12:16:36  1046760
>>1046745
Подойдет. Есть вот такая книшка http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6 про объяснения алгоритмов МЛ и запиливание их с нуля на пистоне.
Аноним 19/08/17 Суб 12:17:47  1046762
>>1046686
Ну из России несколько хороших учёных есть, про остальные не знаю.
Аноним 19/08/17 Суб 12:21:20  1046766
>>1046686
Весьма велико. На индусах весь современный машоб держится.
Аноним 19/08/17 Суб 12:22:55  1046767
>>1046760
спасибо
Аноним 19/08/17 Суб 13:58:26  1046823
Какие сейчас темы в машобе актуальны особенно?
Хочу научную работу какую-нибудь написать, но до этого ничего не писал и опыта в машобе почти нет, только вот пару месяцев назад начала работать, до этого хелоуворлды разные на слесарьфлоу и на плюсах писал.
Аноним 19/08/17 Суб 14:44:29  1046852
>>1046823
NLP
Аноним 19/08/17 Суб 15:02:37  1046868
>>1046852
Нейроночки в НЛП не могут, все натужные попытки их там использовать напоминают попытки подмести пол болгаркой. Есть vector-semantic models, которые еще в 90-е успешно проходили тесты типа TOEFL, до чего нейроночки еще лет 15-20 не дорастут.
Аноним 19/08/17 Суб 15:12:45  1046873
Есть че-то еще проще, чем keras?
Аноним 19/08/17 Суб 21:23:06  1047065
>>1046873
Завести китайца и заставить его работать.
Аноним 19/08/17 Суб 23:38:27  1047112
>>1046737
Я не знаю об R ничего кроме того, что это язык для числодробилок и числового анализа. Ты мне предлагаешь ещё один синтаксис выучить?
Аноним 20/08/17 Вск 10:16:07  1047220
>>1047112
>пытается в МЛ
>"я нихуя не знаю и знать не желаю о самом продвинутом языке для МЛ"
Понял, отстал.
Аноним 20/08/17 Вск 15:44:20  1047389
Помогают ли занятия олимпиадной прогой в вузе дальше в машобе?
Аноним 20/08/17 Вск 15:45:08  1047392
>>1047389
нет
Аноним 20/08/17 Вск 16:03:25  1047403
>>1047392
Спасибо.
Аноним 20/08/17 Вск 16:38:05  1047425
Делаю gridsearch в keras как тут http://machinelearningmastery.com/grid-search-hyperparameters-deep-learning-models-python-keras/ , как реализовать сохранение чекпоинтов для гридсерча? Или вообще извлекать хоть какие-то полезные данные? А то если он прерывается, то теряется весь прогресс полностью.
Аноним 20/08/17 Вск 17:36:30  1047459
>>1047220
>R
>самый продвинутый язык для ML
Ты, видимо, в 2007 до сих пор живёшь. Пока для питона не было API matplotlib'ы, R еще мог что-то выиграть, но сейчас он в принципе нахуй не нужен.
Аноним 20/08/17 Вск 17:42:11  1047464
>>1047459
Все, что есть для МЛ на пистоне - 5-6 средних пакетов для R, которых там в официальном репозитории больше 11000. Я уже предлагал мне показать аналог LSAfun для пистона, его нет и не будет никогда, что уже говорит о том, что пистон для семантического анализа текста непригоден, word2vec - это предел. Так что это ты в 2007 году еще.
Аноним 20/08/17 Вск 17:48:11  1047470
>>1047464
Use the ntlk, Luke
Аноним 20/08/17 Вск 17:48:33  1047471
>>1047470
*nltk
Аноним 20/08/17 Вск 17:58:54  1047478
>>1047470
Хуета, там нет ничего подобного тому, что есть в LSAfun. И анализ текстов - не единственное, во что не может пистон.
Аноним 20/08/17 Вск 19:26:01  1047538
>>1047478
Зато он смог в твою мамку.
Аноним 20/08/17 Вск 21:22:19  1047627
>>1046868
ээээ
какбе сейчас всё в нлп на нейроночках держатся
Аноним 20/08/17 Вск 21:38:29  1047648
>>1047627
Какбе не все модели - нейроночки.
Аноним 20/08/17 Вск 22:21:20  1047681
>>1047648
приведи пример нлп задачи, которая бы решалась классическим машобом (или чем то ещъ) эффективнее чем нейроночками
Аноним 21/08/17 Пнд 03:28:39  1047772
>>1047464
ты заебал со своим LSAfun. Если чего-то нет в питоне, значит это настолько ненужно, что никто не заморочился портировать интерфейс для питона. А написать такой интерфейс дело пары дней для большинства алгоритмов в статистике.
Аноним 21/08/17 Пнд 17:03:34  1047962
>>1036439 (OP)
Вы типа настолько элитные, что даже шапку для новичков убрали? Как вкатываться теперь? Поломали мне жизнь, спасибо!
Аноним 21/08/17 Пнд 17:15:31  1047973
1500068778638.png (102Кб, 534x400)
>>1037466
> статистика - не математика
Кек, ну и ретард.
Аноним 21/08/17 Пнд 17:32:06  1047998
>>1047973
Математика это что-то о пучках.
Аноним 22/08/17 Втр 10:31:46  1048530
>>1047627
Оно и видно, как держится. Даже до классических векторно-семантических моделей из 90х не дотягивают ваши нейроночки в 100500 слоев.
>>1047681
>приведи пример нлп задачи, которая бы решалась классическим машобом (или чем то ещъ) эффективнее чем нейроночками
Ты читать не умеешь? TOEFL-тест ваши нейраначке до сих пор не пройдут, тогда как semantic-space модели в это еще в 90-к годы могли.
>>1047772
>Если чего-то нет в питоне, значит это настолько ненужно
Коооо-кококо-кооко нинужно!!111 Стандартная мантра деградантов. Факт же в том, что вот как раз нужно, а вот на пистоне нету.
>написать такой интерфейс дело пары дней
Аутист-вэй. Сейчас бы учить пистон, чтобы джва дня пердолить костыли для инструментов, которые в нормальном языке для МЛ уже давно запилены и работают.
Аноним 22/08/17 Втр 16:33:44  1048719
>>1048530
Нахуй кому сдался твой TOEFL?
А вот анализ эмоциональной окраски и машинный перевод востребованны, и нейроночки тут тащат.
Аноним 22/08/17 Втр 17:03:17  1048730
>>1048719
>машинный перевод
>нейроночки тут тащат

Ohooitelnii istorii.
Аноним 22/08/17 Втр 17:09:21  1048732
>>1048719
>Нахуй кому сдался твой TOEFL?
Это пример того, как алгоритм может решать задачу, в которую традиционно могут только люди.
>А вот анализ эмоциональной окраски и машинный перевод востребованны, и нейроночки тут тащат.
Ты ведь даже не задавался вопросом, кем и почему востребованы. Сентимент анализ нужен для анализа рынков потенциального спроса и предложения всяким рекламщикам и т.п. хуепутолам. Потому и востребован и оплачивается.
Аноним 22/08/17 Втр 18:15:18  1048753
>>1036439 (OP)
Почему линейная регрессия в TF без нормализации данных так плохо работает?
Аноним 22/08/17 Втр 22:09:49  1048892
>>1048753
>линейная регрессия в TF
Ты, наверное, на винде запускаешь? Всем известно, что линейная регрессия на винде плохо работает. Лучше всего на маке, но она там платная, так что обычно ее на линуксе делают.
Аноним 22/08/17 Втр 22:25:43  1048921
>>1048892
Тонко.
Аноним 22/08/17 Втр 23:10:46  1048983
>>1048730
И на чём по-твоему основан гугл транслейт? На правилах?
>>1048732
И нахуя решать какие-то непонятные задачи, которые и не академические, и не прикладные?
Аноним 22/08/17 Втр 23:24:28  1048993
>>1048530
>Коооо-кококо-кооко нинужно!!111
ты явно не понимаешь как устроена область машинного обучения. вангую ты ни одной статьи на нормальной конференции даже не опубликовал
Аноним 22/08/17 Втр 23:36:58  1049002
>>1048892
Моя имплементация-то заебись угадывает.
Аноним 23/08/17 Срд 08:07:30  1049194
>>1048993
Расскажи, какие ещё есть NLP-инструменты в R, которых нет в питоне. У меня просто весь стек, с которым я работаю -- синтакснет, скиптхотс, сиамские сетки, фасттекст -- весь на Питоне, и я хз, есть ли смысл постигать R.
Аноним 23/08/17 Срд 11:40:17  1049335
>>1049194
>Расскажи, какие ещё есть NLP-инструменты в R, которых нет в питоне.
Я ж сто раз уже написал - на пистоне нет нихуя для LSA, да вообще для всех semantic-space моделей, тематическое моделирование (topicmodels) так же в зачаточном состоянии (вроде что-то есть, но в сравнении с R можно просто считать что нету).
>>1048993
>вангую ты ни одной статьи на нормальной конференции даже не опубликовал
Никак, Пхд закукарекал?
Аноним 23/08/17 Срд 12:26:00  1049366
>>1049335
import lsalib
Аноним 23/08/17 Срд 12:28:29  1049372
>>1049366
Не, читать ты все-таки не умеешь. Впрочем, от пистонщика я большего и не ожидал.
Аноним 23/08/17 Срд 14:31:36  1049448
>>1049335
Так для топик модделинга самый пиздатый это bigartm
И нахуя нужен LSA, если для построения семантик спейс есть модели эмбеддингов, тот же фасттекст?
Аноним 23/08/17 Срд 14:38:50  1049455
Питоношкольники и р-питухи скоро будут перебираться на божественную джулию
Аноним 23/08/17 Срд 14:38:52  1049456
>>1049448
>для построения семантик спейс есть модели эмбеддингов, тот же фасттекст?
Есть, да. https://cran.r-project.org/web/packages/fastTextR/ Но я с ним не знаком, даже скажем честно - только что услышал. Я неоднократно упоминал LSAfun как пример того, что мне нужно. Так вот, читаю я описание этого вашего фасттекста, и ничего подобного там в упор не вижу. Только не нужно говорить "сделай сам", там дохуя делать-то надо, зачем мне это если есть готовое решение?
Аноним 23/08/17 Срд 14:39:58  1049457
>>1049455
>божественную джулию
Хуета из-под кота, например. Там вообще ничего полезного нет, тогда лучше уж сразу на кресты переезжать.
Аноним 23/08/17 Срд 14:52:24  1049468
>>1049448
Найти, насколько 2 слова близки в семантическом смысле это не проблема, это еще в 80-е решалось картами Кохонена, сейчас кернел методы в моде. А вот как быть с сентенциями, документами и т.д.? Вплоть до автоматического подбора ответов на поставленный вопрос. Фастттекст в такое может?
Аноним 23/08/17 Срд 15:52:42  1049500
>>1049448
Почитал https://arxiv.org/abs/1607.04606 оно ж только в отдельные слова может. Идея использовать для анализа не целиком слова, а н-ки от 2 до 6 буков внутри слов интересна, но это не то что мне нужно.
Аноним 23/08/17 Срд 16:18:04  1049512
>>1049468
Для поиска близости коротких предложений обычно используют усреднённые вектора слов; для длинных предложений сиамские сетки и skip-thoughts. Тебе, как я понимаю, надо находить семантическую близость документов, и поэтому ты используешь LSAFun?
Аноним 23/08/17 Срд 16:37:15  1049519
>>1049512
>Тебе, как я понимаю, надо находить семантическую близость документов,
Не только документов. Разных подмножеств корпуса, между словом и словом, словом и сентенцией, сентенциями, документами, сентенцией и документом и т.д. Допустим, есть слово (пусть какой-то хитрый термин) и есть документ, где объясняется значение этого слова (пусть статья в педивикии). Задача - автоматически выбрать из документа предложение / сентенцию, определяющую заданный термин. В LSAfun можно итеративно сравнить данное слово со всеми снтенциями документа и выбрать подходящюю по наибольшему значению. Мне неизвестно, как это можно сделать другими методами, желательно безо всякого шаманства (я не утверждаю, что других методов нет в природе).
>Для поиска близости коротких предложений обычно используют усреднённые вектора слов;
Среднее по больничке очень редко нормальный вариант, я читал пейпер Mitchell, J., & Lapata, M. (2008). Vector-based Models of Semantic Composition, там сложнее все. Как раз показано, как можно получить семантику множества слов из отдельных составляющих. И все эти методы + некоторые другие реализованы только в одном месте.
>для длинных предложений сиамские сетки и skip-thoughts
Про такое даже не слышал. Есть чо почитать?
Аноним 23/08/17 Срд 17:49:15  1049575
Я пока не готов к талмуду 900 страничному на ангельском. Есть что-то для вкатывания на курсере какой-нибудь. Желательно на русском.
Аноним 23/08/17 Срд 18:25:57  1049592
>>1049575
Введиние в машинку от вшэ и яндекса
Аноним 23/08/17 Срд 18:33:06  1049595
>>1049592
Эх, там питон, а я плюсы хотел. Спасибо, буду заниматься.
Аноним 23/08/17 Срд 19:35:50  1049625
>>1049455
>божественную джулию
Очередная попытка сделать аналог матлаба. Но проблема в том, что сам матлаб — раковый язык и вдохновившись им можно сделать только кусок говна.

Это как с си-подобными языками, которые стабильно появляются раз в пару лет. Архитектор каждого нового си-подобного языка думает: "ну сейчас-то мы устраним все фатальные недостатки си и все девелоперы перекатятся к нам". Сколько их там уже было? C++, Objective-C, Dart, Swift, Go, D и еще 60 других из списка википедии.

Никаких проблем Джулия не решит, а только наплодит серию недоделаных проектов собранных из костылей и палок.
Аноним 23/08/17 Срд 19:53:41  1049634
господа, я установил вот эту либу из книги на убунту

https://www.scipy.org/scipylib/building/linux.html#debian-ubuntu

В книге есть такой пример. я чота не понимаю, как мне его с либой numpy использовать? просто создал питон файлик и открыл через командную строку а он мне просто гедит открыл. может я чота не там подключаю?
Аноним 23/08/17 Срд 20:07:43  1049646
>>1049634
Нюфаня, с твоим уровнем понимая происходящего, может стоит сначала почитать какую-нибудь книжечку про юникс сначала? Питон файл он создал лол.
Аноним 23/08/17 Срд 20:16:29  1049659
>>1049646
ну я нюфаня в питоне (я пхпшник). яж не виноват что там примеры на пайтоне
Аноним 23/08/17 Срд 21:55:44  1049738
Можно сделать такой видеоредактор, где сидели бы нейроночки и тип рендеринг ускоряли?
Аноним 24/08/17 Чтв 01:54:01  1049892
>>1049738
Делай.
Аноним 24/08/17 Чтв 02:53:04  1049915
>>1036439 (OP)
Пишу с Brain.js. Рейт.
Аноним 24/08/17 Чтв 04:53:23  1049927
>>1049625
Холивары в другом треде. Но
C++ язык ООП Богов, C для функциональных крестьян
Аноним 24/08/17 Чтв 04:54:33  1049928
>>1049915
>JS
От меня бы отказались родители и все друзья.
Аноним 24/08/17 Чтв 11:10:08  1049997
>>1046760
напиши название книги плиз не могу открыть
Аноним 24/08/17 Чтв 22:52:56  1050437
>>1049928
> ЯСКОЗАЛ
Аргументы в студию.
Аноним 25/08/17 Птн 02:09:49  1050552
>>1050437
Напиши-ка ганчик или генеративную модель через распределение гумбеля. Да хотя-бы LeNet. Ну как? Хорошо на JS? А LSTM нейрончки считаются как? Кайф?

JS - медленная хуйня для макак. Даже R подойдёт лучше, не говоря уже о питоне/lua, для которых написано 90% библиотек и поддерживаются видюхи/tpu из коробки
Аноним 25/08/17 Птн 02:49:57  1050561
>>1050552
Загугли pix2pix
Аноним 25/08/17 Птн 03:42:12  1050576
>>1050561
Он на lua написан, крендель
Аноним 25/08/17 Птн 10:54:29  1050640
>>1049592
>вшэ и яндекса
Яндекс - рекламная параша. Ни во что кроме агрессивного впаривания рекламы они не могут, никогда не могли и никогда не смогут. Говнокод уровня SplitStroku даже индусским называть не хочется дабы не обижать индусов сравнением с этими производителями сладкого хлеба.
>>1049997
Stephen Marsland. Machine Learning: An Algorithmic Perspective, Second Edition
Аноним 25/08/17 Птн 11:30:29  1050647
1) Эти ваши нейронные сети в состоянии решать простые задачи по типу вопросов iq тестов для аутистов? (пикрил, аля продолжите ряд чисел)
2) Есть ли примеры использования tensorflow для чего-то отличного от задачи классификации? В каждой статье пердолят задроченный mnist. Особенно интересно посмотреть на реализацию RNN для предсказания.
Аноним 25/08/17 Птн 11:31:11  1050648
Безымянный.png (21Кб, 1146x949)
>>1050647
Аноним 25/08/17 Птн 11:39:55  1050651
>>1050647
1) Могут, без проблем, только дай датасеты.
2) site:github.com tensorflow+RNN+prediction первая ссылка https://github.com/guillaume-chevalier/seq2seq-signal-prediction
Туториалы пишутся для вкатывальщиков, которые mnist посмотрят и сольются. Нормальные люди читают книги, гитхаб и пишут сами.
Аноним 25/08/17 Птн 15:22:21  1050774
>>1050647
>Эти ваши нейронные сети в состоянии решать простые задачи по типу вопросов iq тестов для аутистов?
Вся эта поебень с машобом и нейроночками умеет делать ровно одну вещь — аппроксимировать функцию по заданным точкам. Больше она делать ничего не умеет и уметь не будет.

Если у тебя есть миллион правильных ответов на миллион тестов IQ, то эта тупая задача тоже будет аппроксимирована. Однако, легко понять, что никакого интеллекта или творчества там нет. Больше всего вся эта область напоминает анекдот:

Студент выходит к доске и рисует идеальный круг.
Профессор: - Как ты это смог сделать?
Студент: - Да, я просто в армии весь год мясорубку крутил!
Аноним 25/08/17 Птн 15:29:33  1050777
>>1050648
> продолжите ряд
Можно придумать бесконечное число ответов. Например, сайт OEIS сообщает о 41 последовательностях, начинающихся с чисел в первом вопросе, встречающихся в математике:
https://oeis.org/search?q=18%2C+20%2C+24%2C+32&language=english&go=Search

Тесты на IQ, как уже миллион раз обоссано, могут сообщить только одну вещь — насколько близко твои ответы совпадают с ответами автора теста. Какое отношение имеет эта информация к интеллекту не ясно. Не слышал чтобы изобретатели, инженеры или ученые занимались составлением подобных тестов. Обычно этим промышляют выпускники различных кафедр психологии и фрейдизма-юнгизма.
Аноним 25/08/17 Птн 15:33:00  1050779
>>1050774
>Вся эта поебень с машобом и нейроночками умеет делать ровно одну вещь — аппроксимировать функцию по заданным точкам. Больше она делать ничего не умеет и уметь не будет.
Будто интеллект к этому не сводится.
Аноним 25/08/17 Птн 16:23:02  1050800
>>1050779
>Будто интеллект к этому не сводится.
Скорее всего сводится. Представим на секунду, что это так. Пусть интеллект человека — это функция от n переменных (пусть каждая n — это один нерв кожи, носа, глаз, ушей, языка и т.д.). А сам интеллект мы аппроксимировали полиномом степени i, с коэффициентами степени j. Но хватит ли нам памяти и вычислительной мощности когда-нибудь для оперирования с таким полиномом? Сомневаюсь.

Посмотрим сколько синапсов в мозге: 1000 триллионов штук.
А сколько в кампуктерах транзисторов (22-core Xeon Broadwell-E5): 7,200,000,000 штук.

Первое делим на второе = 138 тысяч раз. Наконец, транзисторы это не синапсы. Представим, что к 2100 году сделают не огромный калькулятор, а нейроморфный чип типа TrueNorth со сравнимым числом синапсов. Скорее всего и тогда нас ждет обсер.
Аноним 25/08/17 Птн 16:25:43  1050801
>>1050800
>Пусть интеллект человека — это функция от n переменных (пусть каждая n — это один нерв кожи, носа, глаз, ушей, языка и т.д.). А сам интеллект мы аппроксимировали полиномом степени i, с коэффициентами степени j.
Про что несет... Лень отвечать даже, настолько ты не в теме.
Аноним 25/08/17 Птн 16:29:55  1050802
>>1050800
Забей, квантовый компуктер всё мгновенно подсчитает.
Аноним 25/08/17 Птн 16:36:48  1050804
Что то я нихуя не понимаю. Куча видосов каких то дедов из яндекса, мфти, шад и пр., говорящих что никто не понимает как работают нейросети, но при этом если ими будешь пользоваться то будешь кончать радугой. Говорят что это будущее и нужно быстрее прыгать на поезд. Но при этом нет лекций рассказывающих как именно ими пользоваться, что они из себя представляют и не показывают реальную востребованность на рынке труда в таких спецах.
Все это очень напоминает схему 10 летней давности, когда такими же громкими словами обрабатывали школьников, но только вместо слов data science, нейросети и машинное обучение, использовали слова айти и прогромист. Так, вдохновленные своей уникальностью первооткрыватели после последнего звонка массово будут поступать на дорогие факультеты и ходить на платные курсы, а ректора и владельцы курсов будут купаться в золоте.
Так вот, как вкатиться минуя этот заговор сионистов?
Аноним 25/08/17 Птн 16:39:32  1050807
2срюрлзк.png (221Кб, 1824x496)
Рекомендую перечитывать перед сном.
Аноним 25/08/17 Птн 16:40:04  1050808
>>1050804
Берешь и без задней мысли поступаешь на соответствующую магистратуру, или читаешь книжки, можешь с Бишопа начать. Намекну, это сложная область, видосов с мемами не хватит.
Аноним 25/08/17 Птн 16:41:09  1050809
>>1050804
>Куча видосов каких то дедов из яндекса, мфти, шад и пр.
Так не смотри хуйню всякую, в чем проблема.
>как вкатиться минуя этот заговор сионистов?
Никак, забудь. Тебе уж вряд ли что поможет с твоим подходом уровня лекций от яндекса и шад.
Аноним 25/08/17 Птн 17:18:52  1050831
>>1050640
о, спасибо. а то вчера весь день пришлось это читать http://robotics.stanford.edu/people/nilsson/MLBOOK.pdf
а тут не оче понятные формулы и матан.
Аноним 25/08/17 Птн 17:33:02  1050839
>>1050808
>>1050809
Я хотел в интернете учиться, потому что в универе уже учусь на прогромиста и связывать свое существование только с нейросетями нет желания. Просто ради интереса, посмотреть что это такое и сделать практичный хелоу ворд. Но из 2х лекций что посмотрел на ютубе к делу ни относилась ни одна. Такое ощущение, что там читали вольный пересказ одного и того же текста "какие нейроны ахуенные". Поэтому не знаю с чего конкретно начать.
Аноним 25/08/17 Птн 17:38:56  1050842
>>1050839
Начни с CS231n. Он маскимально практико-ориентированный. Можешь сразу со второй лекции. В первой маркетинговая вода не по делу.
Аноним 25/08/17 Птн 17:39:15  1050843
>>1050808
>видосов с мемами не хватит
А кто-то пробовал такое сделать?
Аноним 25/08/17 Птн 17:41:39  1050846
>>1050839
>Я хотел в интернете учиться,
> Просто ради интереса, посмотреть что это такое и сделать практичный хелоу ворд.
>из 2х лекций что посмотрел на ютубе
А теперь забудь про нейроночки и представь, что таким же методом ты решил разобраться в любой другой (около)математической теме.
Аноним 25/08/17 Птн 17:44:19  1050848
>>1050846
А почему искусственные нейронные сети не могут сгенерировать нормальный учебник по математике?
Аноним 25/08/17 Птн 18:00:55  1050861
давайте коннфочку запилим :3
Аноним 25/08/17 Птн 18:07:12  1050864
>>1050848
Могут. Только для этого есть методы сильно лучше нейроночек.
Аноним 25/08/17 Птн 18:17:29  1050868
>>1050843
А то. https://www.youtube.com/channel/UCWN3xxRkmTPmbKwht9FuE5A/videos
Аноним 25/08/17 Птн 18:52:22  1050890
>>1050640
В курсе от яндекса математика очень простая, буквально на пальцах. Для первого раза заходит хорошо, а потом уже можно догоняться нормальными курсами от стенфорда и учебниками.
Еще от ods курс ничего.
Аноним 25/08/17 Птн 19:04:36  1050903
Посоны, хотел в интернете учиться алгебрической геометрии, потому что в универе уже учусь на прикладного математика и связывать свое существование только с пучками нет желания. Просто ради интереса, посмотреть что это такое и сделать доказательство теоремы Римана-Роха. Но из 2х лекций Вербита что посмотрел на ютубе к делу ни относилась ни одна. Такое ощущение, что он там читал вольный пересказ одного и того же текста "какие алгебраические геометры ахуенные". Поэтому не знаю с чего конкретно начать.
Аноним 25/08/17 Птн 19:11:52  1050906
>>1050903
Наверное это хорошо, что на дваче сидит столько душевнобольных и дебилов. Они не лезут в другие места.
Аноним 25/08/17 Птн 19:12:47  1050907
Посоны, хотел в интернете учиться академической гребле, потому что в универе физкультуры уже учусь на тренера и связывать свое существование только с байдаркой нет желания. Просто ради интереса, посмотреть что это такое и сделать 500 метров в лодке К-1 за минуту и 39 секунд. Но из 2х лекций профессора Селуянова что посмотрел на ютубе к делу ни относилась ни одна. Такое ощущение, что он там читал вольный пересказ одного и того же текста "какие окислительные мышечные волокна охуительные". Поэтому не знаю с чего конкретно начать.
Аноним 25/08/17 Птн 20:35:15  1050949
Что думаете про курсы Техносферы? Те же проблемы, что и у ШАДа? Хотелось бы услышать от тех, кто прошел их двухгодичный курс или около того.
Аноним 25/08/17 Птн 21:07:00  1050969
Почему любые другие IT-сферы кажутся совсем унылыми после работы над аи-проджектами?
Аноним 25/08/17 Птн 21:18:53  1050977
>>1050969
где ты умудрился РАБотать над Аи проектом?
https://www.youtube.com/watch?v=O9l5NVIjv94
Аноним 25/08/17 Птн 21:22:18  1050980
>>1050977
Стартап грузинский.
Аноним 25/08/17 Птн 21:28:31  1050982
>>1050977
аи-рилейтед имеется в виду.
Аноним 25/08/17 Птн 21:39:21  1050992
Есть нейронка с "подпиткой" симуляцией "удовольствия" на lua? Ну типа ту нейронку которая DeepMind использует.
Аноним 25/08/17 Птн 22:32:55  1051017
>>1050992
Открой чакры, сын мой, и откроется подпитка энергией тебе.
Аноним 25/08/17 Птн 22:46:16  1051022
>>1051017
Я имел в виду:
Есть нейросеть. Когда она все делает правильно, то учитель говорит:это хорошо. И нейросеть старается придумать как этих "хорошо" получить больше.
Аноним 25/08/17 Птн 22:58:17  1051030
>>1051022
Deep reinforcement learning ты имел в виду. На луа такое вряд ли есть, разве что под torch запилили, в чем я сомневаюсь. Зачем тебе это, пользуйся реализациями на пистоне - openai gym / universe
Аноним 25/08/17 Птн 23:13:45  1051035
>>1051030
В питон вкатываться... такое.
Посмотрю в интернете, думаю будет библиотека.
Аноним 26/08/17 Суб 10:41:50  1051167
Что делать с NaN в датасете? Есть во всех столбиках и строках, так что просто дропать нельзя.
Аноним 26/08/17 Суб 10:48:16  1051169
В /s полтора пердошкольника, напишу сюда. Тут кто-то слесарьплов с поддержкой видюхи ставил?
Ставлю TensorFlow с поддержкой GPU по мануалу отсюда http://www.nvidia.com/object/gpu-accelerated-applications-tensorflow-installation.html все валится с ошибкой на последней комманде из 3го пункта (установка куды, cudnn):
/sbin/ldconfig.real: /usr/local/cuda-8.0/targets/x86_64-linux/lib/libcudnn.so.7 is not a symbolic link

/sbin/ldconfig.real: /usr/lib/nvidia-375/libEGL.so.1 is not a symbolic link

/sbin/ldconfig.real: /usr/lib32/nvidia-375/libEGL.so.1 is not a symbolic link
Абдейт, абгрейд делал (гуглил, там это советуют), все бесполезно. Просто пишет эту ошибку и все. И как быть-то?
Аноним 26/08/17 Суб 12:49:12  1051217
В шапке нихуя нет, че почитать по нейронкам?
Аноним 26/08/17 Суб 13:07:51  1051222
>>1051217
Это намек на то что хватит вкатываться.
Аноним 26/08/17 Суб 13:11:05  1051223
>>1051222
Та я не вкатываться собрался, мне просто интересно, меня устраивает и формочки клепать на js/php.
Аноним 26/08/17 Суб 15:40:07  1051284
>>1051167
гугли fillna
Аноним 26/08/17 Суб 16:21:04  1051297
>>1051284
Напихать своих значений я могу и без библиотек.
Аноним 26/08/17 Суб 18:09:22  1051363
>>1051297
В чём проблема тогда?
Аноним 26/08/17 Суб 18:32:57  1051388
>>1051363
Во мне. Ненавижу себя.
Аноним 26/08/17 Суб 18:53:02  1051400
Шапки не будете делать?
Аноним 26/08/17 Суб 18:53:19  1051401
Шапку не будете делать?
Аноним 26/08/17 Суб 18:56:24  1051406
Шапку треда буⰟдетеⰁ делать?
Аноним 26/08/17 Суб 19:04:36  1051416
>>1051400
>>1051401
>>1051406
Нет.
Аноним 26/08/17 Суб 19:58:44  1051462
>>1050949
Бамп вопросу.
Аноним 26/08/17 Суб 20:11:39  1051471
>>1051462
Техносфера же для студентов МГУ только или нет?
Аноним 26/08/17 Суб 20:40:28  1051491
>>1051471
Вроде да. Или только для основных техфаков.
Аноним 28/08/17 Пнд 10:27:22  1052474
image.png (83Кб, 400x300)
>Техника атаки на системы, использующие алгоритмы машинного обучения
https://www.opennet.ru/opennews/art.shtml?num=47086
Аноним 28/08/17 Пнд 12:13:11  1052509
>>1051416
Лучше сделайте. Иначе появятся два треда: один без шапки, другой без трусов.
Аноним 28/08/17 Пнд 12:57:51  1052541
>>1052509
>Иначе появятся две нитки: одна без шапки, другая без трусов.
Аноним 28/08/17 Пнд 15:23:52  1052635
Неужели в этом треде нет мгушников.
Аноним 28/08/17 Пнд 15:33:51  1052639
Меня очень сильно напрегает, что про теносферу нет ни одного адекватного отзыва в интернете, максимум - обзоры от всяких журналов о том, как круто - биг дата и машин ленинг, 300к/секунду и прочее.
Аноним 28/08/17 Пнд 15:35:41  1052641
>>1052639
>напрягает
Аноним 28/08/17 Пнд 15:51:39  1052645
>>1052639
В правильном направлении мыслишь. А разгадка проста - эта ваша техносфера суть маняпрожект для галочки, яндекс - рекламное агентство, ни во что кроме агрессивной рекламы не могущее (а особенно в МЛ), МГУ - африканское ПТУ для ТП с силиконовыми дакфейсами и мажорчиков на бентлях, преимущественно с монобровью.
Аноним 28/08/17 Пнд 16:29:25  1052658
>>1052639
> теносферу
сначала прочитал тенсорфлоу лол про него тоже нет
Аноним 28/08/17 Пнд 18:07:14  1052738
>>1052645
Насчет всего остального не знаю, поэтому и спрашиваю, но вот это
>МГУ - африканское ПТУ для ТП с силиконовыми дакфейсами и мажорчиков на бентлях, преимущественно с монобровью
точно неправда. Может с остальным ты тоже ошибаешься. Извини, но в таком случае я не могу доверять твоему мнению.
Аноним 28/08/17 Пнд 19:04:23  1052768
У МЕНЯ НЕ СТОЛЬ БУЗУМНАЯ ИДЕЯ
Нейронка на AutoIt3.
Аноним 28/08/17 Пнд 19:17:54  1052776
хочу сделать себе робота со стальным фаллосом, чтобы долбил во все дырочки :3
рейт идею. смогу ли я под нее выбить гранты?
Аноним 28/08/17 Пнд 20:23:33  1052837
>>1052768
Таки да, хорошо для взаимодействия с внешним миром. Можно обучаться на любой хуите.
Аноним 28/08/17 Пнд 20:34:18  1052841
>>1052837
Или там нельзя смотреть видеопамять?
Аноним 28/08/17 Пнд 20:41:03  1052848
>>1052738
>я не могу доверять твоему мнению.
А не надо доверять мнению. Доверяй фактам. Факты ты сам озвучил, выводы тоже сам делай, 1 и 1 сложить не сложно.
Аноним 28/08/17 Пнд 20:51:22  1052854
>>1052848
А какие факты? Я написал, что нет отзывов, это можно списать на то, что место новое, да и если бы там было прямо отвратительно наоборот из всех щелей бы лез негатив, а так непонятно.
Аноним 28/08/17 Пнд 20:51:52  1052855
>>1052841
Можно
Аноним 28/08/17 Пнд 21:16:46  1052879
а если я хочу сайт с нейронкой сделать на пхп, мне как-то питоновские либы туда надо прикручивать или можно прямо на пхп свой велосипед написать? просто оче мало хостингов, поддерживающих питон
Аноним 28/08/17 Пнд 21:18:47  1052885
>>1052879
На похапе есть какая-то либа для МЛ https://github.com/php-ai/php-ml
Аноним 28/08/17 Пнд 21:40:16  1052907
>>1052885
да я знаю эту либу, но она маленькая и единичная, а ведь на питоне есть оче большая либа, которая во всех учебниках приводится, вдруг мне понадобятся алгоритмы из нее.
Аноним 28/08/17 Пнд 21:42:25  1052910
>>1052768
Есть нормальные либы для AutoIt3?
Аноним 28/08/17 Пнд 21:45:39  1052913
>>1052879
юзай flask может?
Аноним 28/08/17 Пнд 22:58:32  1052991
image.png (500Кб, 944x1195)
>>1043666
Надо будет добавить сумму.
Аноним 29/08/17 Втр 00:52:59  1053037
Какие мысли по поводу plot.ly/api/ ?
Аноним 29/08/17 Втр 10:28:35  1053173
yobamath.png (511Кб, 944x1323)
>>1052991
Изи.
Аноним 29/08/17 Втр 10:35:23  1053174
yobamath.png (509Кб, 944x1323)
>>1053173
Эх, с плюсами проебался. Вот так правильно.
Аноним 29/08/17 Втр 10:58:49  1053180
>>1053174
Йобы, соберитесь в ряд!
Аноним 29/08/17 Втр 12:06:05  1053201
Нужно еще добавить йобу-интеграл и дифференциал.
Аноним 29/08/17 Втр 12:40:26  1053212
yobaintegral.jpg (31Кб, 781x406)
Например.
Аноним 29/08/17 Втр 13:35:11  1053250
Вот тут говорилось, что нейроночки тащат в машинный перевод и вообще NLP сейчас самый топчик. В связи с чем вопрос - чем можно нормально перевести текст с немецкого пусть на английский (про русский и не заикаюсь, хуле уж). Нормально - значит учитывая структуру предложения, семантику там хуе-мое, вот это все, а не просто отдельные слова. Чтобы в итоге не получалось нечитаемого набора слов. Есть такая возможность?
Аноним 29/08/17 Втр 13:48:09  1053258
image.png (15Кб, 642x200)
>>1053250
Гугл переводчик и можешь какое-то ПО для проверки грамматики или еще там что.
Аноним 29/08/17 Втр 13:55:06  1053260
>>1053250
>чем можно нормально перевести текст с немецкого пусть на английский
https://translate.google.com
http://www.bing.com/translator/
Аноним 29/08/17 Втр 14:55:56  1053297
>>1053258
Правивильно будет
Wir gehen in DIE Schule
Аноним 29/08/17 Втр 23:51:26  1053700
рейтаните мой простенький персептрон на php. :3
https://ideone.com/qyao0t
Аноним 29/08/17 Втр 23:54:57  1053702
>>1053700
ой, там одну переменную надо было поменять
https://ideone.com/Ljtxzy
Аноним 29/08/17 Втр 23:55:29  1053703
BRS0277017881.jpg (30Кб, 126x168)
>>1053250
дефаин семантика, формально опиши, в чем разница между семантикой и синтаксисом, без упоминания валентности и 10 падежей, ведь это тоже синтаксис, просто неявно выраженный.
В этом собственно одна из проблем.
Аноним 30/08/17 Срд 02:08:12  1053823
15039437341281.jpg (336Кб, 800x718)
>>1053702
С точки зрения программирование - гомно. Я бы начал с написания своей либы для матриц, иначе нечитабельные циклы будут. + константы сразу привыкай прописывать, замучаешься менять же.
Ну, под либой я подразумеваю на коленке сделанные функции или классы. Чтобы основная логика читалось норм. Даже если пилишь оч быструю и грязную реализацию, основные правила лучше не вертеть на хую, себе дороже будет.


Какой левел? Го болтать, пацаны. У меня ощущение, что каждый школьник учит нейроночки. А те, что в Москве, и имеют все шансы на какой-нибудь Яндекс, ебошат на острие науки уже.
Аноним 30/08/17 Срд 08:36:17  1053885
15023044998340.jpg (250Кб, 1288x1288)
Как это делается? Читал про style transfer, нихуя не понял. По сути же там автоэнкодер да?
Аноним 30/08/17 Срд 09:56:35  1053908
>>1053885
Просто нашли фото похожих людей.
Аноним 30/08/17 Срд 10:33:52  1053922
>>1053823
Двачую, заебали вкатывальщики. Вот я начал вкатываться до того, как жто было мейнстримом, а смысл?
Алсо писал свою ""либу"" для матриц на jsдаже на тайпскрипте, если это что-то меняет, было дохуя перемножений в секунду, но работало на удивление очень шустро.
первый курс
Аноним 30/08/17 Срд 10:59:29  1053928
>>1053922
>заебали вкатывальщики
Жопкой уже чувствуешь конкуренцию со школьниками заканчивающими ШАД? Чувствуешь приближающеюся ненужность, отказы на собеседованиях, гнет ебанотеки, вечерние запилы жены про отсутствии денег? На вакансию с зарплатой в 60к уже стоит очередь из студентов с несколькими публикациями? А у тебя еще ни одного препринта?

Вы вкатились слишком поздно. Попробуйте выкатиться.
Аноним 30/08/17 Срд 11:01:40  1053930
>>1053928
> Попробуйте выкатиться в окно
Аноним 30/08/17 Срд 12:16:03  1053941
>>1053928
Я тут раньше выкладывал картинку, где какой-то отец обучал четвероклассницу машобу с помощью лекций на ютубе.
Аноним 30/08/17 Срд 12:18:19  1053943
>>1053941
С одной стороны, ничего внятного по лекция на ютюбе не сделаешь. С другой - человек посмотрит на ютюбе, ему станет интересно, он начнет разбираться глубже.
Говно короче, хуй знает что делать.
Аноним 30/08/17 Срд 18:50:35  1054249
>>1053823
ой ой ой, я же написал, что это просто максимально простенький персептрон. А то такие как ты для простого действия начинают городить абстрактные фабрики синглтонов из кучи классов и интерфейсов, даже не поймешь, что они делают. Как работает персептрон и самостоятельно набросать его я в итоге смог только прочитав 60 страниц, 59 из которых был ненужный матан.
Аноним 30/08/17 Срд 19:05:27  1054260
>>1054249
Ой, иди нахуй. Я тебе годный совет дал, а ты не чувствуешь разницы между простенький и хуёвый. Абстрактные фабрики тут не причем. Как ты вот learning rate подбирал? Каждый раз бродил по коду и менял 0.25?
Аноним 30/08/17 Срд 19:07:15  1054261
>>1053922
Ну заебись, первый курс. Я на первом ещё даже теорвер не прошёл. Ща бакалавра получаю, дошёл только до свёрточных. Ничего, ща ёба проект для диплома заебашу, и вы все соснёте хуев со своим шадом.
Аноним 30/08/17 Срд 19:30:01  1054284
>>1054261
Что за проект?
У мея вообще 0 идей что для диплома брать.
Аноним 30/08/17 Срд 19:36:28  1054287
>>1054260
> learning rate
А как его подбирают? Я скопировал из примера в книге, там такой дается, чтобы не сильно большой (даст не корректный результ) и не сильно маленький был (медленно будет обучаться).
Аноним 30/08/17 Срд 19:36:41  1054288
>>1054284
Чем ваши научники занимаются?
Аноним 30/08/17 Срд 19:39:41  1054292
млин, я пока в отпуске был и появилось свободное время, решил взять вашу книжечку по ml, накатил питон и NumPy. Как же это интересно боже.

Я теперь не знаю, как на работу возвращаться и опять заниматься версткой 8/5 после такого??

Я чувствую, что на меня даже на работе смотрят, как на зашкваренного питуха (я там один на верстке сижу).
Аноним 30/08/17 Срд 19:40:10  1054293
bc9f53d1ce06172[...].jpg (17Кб, 399x388)
>>1054292
пепе фрог отклеился
Аноним 30/08/17 Срд 19:49:51  1054302
images.jpg (7Кб, 230x219)
>>1054288
Откуда мне вообще знать.
Аноним 30/08/17 Срд 19:50:48  1054306
>>1054292
Какую книжку брал?
Аноним 30/08/17 Срд 20:05:13  1054315
>>1054306
По ml.
Аноним 30/08/17 Срд 20:14:36  1054329
>>1054306
там выше скидывали.
ML Marsland
Аноним 30/08/17 Срд 20:17:06  1054330
>>1054287
Да сам поймешь потом.

>>1054292
Двачу. Аще лень работать.

Аноним 30/08/17 Срд 21:11:31  1054374
image.png (100Кб, 794x661)
>>1054329
>X-Files
Что-то здесь не так.
Аноним 30/08/17 Срд 21:32:08  1054396
>>1054374
https://doc.lagout.org/science/Artificial%20Intelligence/Machine%20learning/Machine%20Learning_%20An%20Algorithmic%20Perspective%20%282nd%20ed.%29%20%5BMarsland%202014-10-08%5D.pdf
Аноним 31/08/17 Чтв 00:48:31  1054490
>>1036439 (OP)
Могу ли я на Scheme Lisp заебашить нейронную сеть?
Аноним 31/08/17 Чтв 01:09:16  1054510
image.png (32Кб, 383x416)
Как без pygal и pandas (только с помощью matplotlib) сделать такой график?
Есть два списка x, y. В одном названия столбцов, в другом количества.
plt.bar(x, y) выдёт ошибку, видимо потому что x состоит из строк, а не чисел.
Аноним 31/08/17 Чтв 01:15:32  1054517
>>1054510
что то типа
plt.hist(y)
plt.xticks(x)
Аноним 31/08/17 Чтв 01:17:12  1054519
>>1054517
TypeError: unorderable types: numpy.ndarray() < str()
Аноним 31/08/17 Чтв 01:20:20  1054523
>>1054519
plt.xticks(range(len(x)), x)
Аноним 31/08/17 Чтв 01:20:46  1054524
>>1054523
сажа прилипла
Аноним 31/08/17 Чтв 01:30:37  1054532
>>1054510
на цсс + жс легко.
Аноним 31/08/17 Чтв 01:35:12  1054539
>>1054523
О, спасибо большое, заработало.
Аноним 31/08/17 Чтв 03:10:39  1054575
>>1054490
Да, чому нет. Если придумаешь как читать jpeg в список, то запросто. А ты школьник/первак, дрочащий сиспу?
Аноним 31/08/17 Чтв 13:45:24  1054724
>>1054575
Совсем одурели уже. Кто мне сможет внятно объяснить, как вообще нейросети связаны с jpeg?
Аноним 31/08/17 Чтв 13:53:01  1054729
>>1054724
Да я ебанутый, не обращай внимание. Хотел сказать, просто данные, которые ты будешь учить и предсказывать. Но место данных сразу представил пикчу, и подумол, что сжатые форматы без готовых либ читать заебешься.
Аноним 31/08/17 Чтв 14:04:55  1054740
>>1054575
У меня консольное приложение на лиспе, да и в целом язык нравится. Также повод сикп дочитать.
Аноним 01/09/17 Птн 18:37:35  1055664
Ребзя, я продолжаю читать кижечку по машобу и там очень много ссылок на смежные работы (персептрон, бэкпропагейшн, классификации и т.п.).
Так вот стоит ли мне все их читать, чтобы въехать в курс дела или лучше пытаться писать свои персептроны, кластеры и алгоритмы?
Наверное, лучший ответ - это совмещение теории и практики. Например, покурить доки NumPy?
Что посоветуете? Скоро выхожу на работу и времени будет мало.
Аноним 02/09/17 Суб 15:31:59  1056140
>>1055664
Какой смысл что-то без практики читать?
Аноним 02/09/17 Суб 15:48:37  1056145
Какая нужна математика для понимания книг по вашему машобу? И какие есть ресурсы, чтобы ее выучить? mathprofi хватит или что-то еще будет нужно?
Аноним 02/09/17 Суб 17:05:50  1056182
image.png (541Кб, 944x1323)
>>1056145
Аноним 02/09/17 Суб 17:54:10  1056203
>>1056182
Что такое e и почему йобы в фигурных скобках что означают эти скобки? нечеткие? И как понять теорему байеса, я просто совсем не знаком с теорией вероятностей?
Аноним 02/09/17 Суб 18:00:29  1056213
pymlecoverdoubl[...].jpg (97Кб, 642x391)
Screenshot2017-[...].png (899Кб, 1558x965)
Привет!
Я достаточно уверенно пишу на Python, классическими алгоритмами.
К современному миру машоба решил приобщиться через адаптацию книги на изображении 1. Уже на первой главе меня встретила математика.
Нужно сказать что я ее порядком не помню, разве что численные методы, которые преподавали в непрофильном техническом ВУЗ. Какие выкладки следует знать? Только матрицы, или еще что-то? Насколько сильно абстрагирование sickit, keras и прочих либ от математики?
Может быть, вам видится другой путь изучения, только, пожалуйста без букваря/азбуки/SICP и прочего в начале.
Аноним 02/09/17 Суб 18:06:12  1056215
>>1056213
Абстрагирование сильное, просто в учебниках углубляются в детали, чтобы ты знал, что пихаешь в аргументы функций, так что лучше попытаться что-то понимать.
Аноним 02/09/17 Суб 18:22:44  1056223
>>1056213
https://www.r-bloggers.com/the-real-prerequisite-for-machine-learning-isnt-math-its-data-analysis/
Аноним 02/09/17 Суб 18:36:39  1056233
>>1056203
>>1056145
бамп вопросам
Аноним 02/09/17 Суб 18:38:53  1056234
Что лучше для поиска работы на швитом, r или питон?
Аноним 02/09/17 Суб 18:40:05  1056236
>>1056223
>>1056215
Спасибо за мнения.

>Note that as this post continues, I’m going to use the term “data analysis” as a shorthand for “getting data, cleaning data, aggregating data, exploring data, and visualizing data.”
В его понимании, собственно, я владею анализом данных.
Аноним 02/09/17 Суб 18:52:28  1056244
>>1056236
В архиве работаешь?
Аноним 02/09/17 Суб 20:29:45  1056280
>>1056244
Нет, моя работа вообще не связана с компьютерами. Это хобби.
Аноним 02/09/17 Суб 20:59:59  1056290
Вообще это нормально, что я пропускаю места с мат. формулами в книгах по мл? Я просто не понимаю их, но общие описания принципа работы персептронов там бэк пропагейшн, хидден лэйерс я вроде понимаю.
Алсо мне было бы значительно проще, если бы эти формулы записывались кодом (питоновским). Но вместо этого приводят только названия функций из Numpy, которые реализуют эти формулы.
Зачем так делается? сложна жи
Аноним 02/09/17 Суб 23:49:11  1056329
>>1056203
Бамп вопросу
Аноним 02/09/17 Суб 23:51:07  1056330
>>1056290
Зачем в МЛ полез, макака?
Аноним 02/09/17 Суб 23:52:27  1056331
>>1056330
илитный матиматик закукарекал.
Аноним 03/09/17 Вск 00:06:35  1056334
>>1056290
>если бы эти формулы записывались кодом (питоновским)
Покопипастить не удается, быдло?
Аноним 03/09/17 Вск 00:12:47  1056336
>>1056290
>я вроде понимаю
ты думаешь, что понимаешь
Аноним 03/09/17 Вск 01:12:29  1056344
>>1056336
Тащемо понимать можно на разном уровне.
Аноним 03/09/17 Вск 11:38:59  1056413
>>1056203
Е - это число Эйлера. Размытые йобы в фигурных скобках - элементы нечеткого множества, элементы множества вообще принято указывать в таких скобках, это стандартная нотация. Теорему Байеса понять очень просто, достаточно подумать над этой формулой. Если в теорвер вообще не можешь - читай Вентцель "теория вероятностей", там все очень подробно, в т.ч. и за Байеса с кучей примеров.
Аноним 03/09/17 Вск 11:44:15  1056416
>>1056290
>я пропускаю места с мат. формулами в книгах по мл? Я просто не понимаю их, но общие описания принципа работы персептронов там бэк пропагейшн, хидден лэйерс я вроде понимаю.
Наркоман чтоле? Формула алгоритма / его части - это и есть принцип работы этого алгоритма / его части. Как можно понимать принцип, но не понимать формулу - формальную запись этого принципа? Бред какой-то.
Аноним 03/09/17 Вск 12:05:34  1056418
Безымянный.png (69Кб, 651x676)
>>1056416
как можно понять эти формулы? какие-то закорючки. Я уже не помню, что такое y, x, k
Аноним 03/09/17 Вск 12:10:46  1056420
>>1056418
И что тут непонятного? Логарифм, сигма, дельта Кронекера?
>Я уже не помню, что такое y, x, k
Записывай, лол. В тексте 100% написано, что это.
Аноним 03/09/17 Вск 12:52:52  1056436
>>1056420
>дельта Кронекера
а ну теперь-то стало понятно. только вот для обычного самоучки из пр без мат. подготовки это не понятно.
может какой-то вводный курс по матану перед книжка советовать, который бы расшифровывал эти символы? типа справочника. а то ведь их хз как гуглить
Аноним 03/09/17 Вск 12:56:40  1056437
>>1056436
>только вот для обычного самоучки из пр без мат. подготовки это не понятно
Нахуй ты нужен, самоучка? Почему в айти столько уебанов, считающих, что без фундаментальной подготовки они здесь что-то смогут? Все равно что хирург-самоучка придет в больницу устраиваться на работу и скажет: "Ну я это, дома хлеб и колбасу резал, значит и людей смогу резать, хуле тут сложного".
Аноним 03/09/17 Вск 13:08:18  1056442
>>1056437
потому что Мистер Робота посмотрели ;)
вообще что тебе не нравится? могу и хирургом стать при нынешнем обилии мануалов в сети, если я закажу соответствующее оборудование. но это мне не особо интересно. хотя подумываю о приложухах на стыке медицины и кодинга, индивидуальных роботов-лабораторий типа "домашний доктор", но тут у меня пробел в бюджете.

а весь программач - это сборник туториалов по кодингу, почему не запилить туториал по матану, юзающемуся в кодинге? и почему тебя это так злит? мы вообще тут за свободное распространение информации. на вот манифест аарона почитай:

http://www.furfur.me/furfur/heros/manifesto/179919-aaron-swartz

Аноним 03/09/17 Вск 13:09:05  1056443
>>1056436
ИТТ сто раз жи писалось, что для МЛ ничего сверхъестественного знать не нужно. Матанализ, линал и теорвер на уровне читанных по диагонали любых первых попавшихся учебников/методичек, больше для общего развития, как раз чтобы не впадать в ступор при виде сигмы или той же дельты Кронекера.
Аноним 03/09/17 Вск 13:14:58  1056445
>>1056413
Спасибо. Теперь где можно подробно прочитать про число эйлера и множества, в том числе нечеткие?
Аноним 03/09/17 Вск 13:21:35  1056451
>>1056437
Не знаю. Получил заборостроительное, всё пока понимаемо. Но возможно только лишь пока.

>>1056420
>дельта Кронекера
Лол, впервые слышу. Но, бро >>1056418 в твоих формулах нет ничего мутного. Они все чисты и используют самые примитивные математические операции. Поверь, если бы ты немного разобрался, ты бы понял, как со стороны странно выглядишь.
Аноним 03/09/17 Вск 13:45:05  1056459
>>1056445
Да это легкое, ты бы лучше разобрался с теорией вероятности и теоремой Байеса.
Аноним 03/09/17 Вск 13:57:04  1056464
>>1056445
Число Эйлера - обычноконстанта. Просто знай её, посмотри график натурального алгоритма. Потом уже на примерах увидишь, как её юзают.

Нечёткие множества - зачем? Пока дрочишь нейроночки, можешь забить.
Аноним 03/09/17 Вск 14:00:52  1056470
>>1056464
Будет как тни в универе, которые до последнего курса тупят перед доской: как продифференцировать константу.
Аноним 03/09/17 Вск 14:04:20  1056472
> как понять теорему байеса
Это траленг такой?

Аноним 03/09/17 Вск 14:05:24  1056473
>>1056470
(C-C)/2*e = 0 Численные методы наше всё.
Аноним 03/09/17 Вск 14:13:04  1056481
419+LA4RrnL.SX3[...].jpg (33Кб, 354x499)
Вот в этой книжке есть абсолютно весь матан который нужен для статистики.
Аноним 03/09/17 Вск 14:18:19  1056485
>>1056481
Здесь только хипстеров нехватало. Где твои конспекты из универа, манюша?
Аноним 03/09/17 Вск 14:21:53  1056488
Почему просто не выпустить одну версию книжек по МЛ для математиков и вторую для программистов, где все уравнения и формулы описаны кодом?
Зачем заставлять кодеров тратить время на матан, а математиков разгребать код?
Аноним 03/09/17 Вск 14:24:32  1056491
>>1056485
> нет, хочу жрать конспекты сомнительного качества
Алсо в моих много чего не было.
Аноним 03/09/17 Вск 14:26:01  1056492
>>1056451
я провинциальную вечерку 11 лет назад заканчивал и по физике, геометрии и алгебре у меня были тройки. причем училки по алгебре всегда издевались надо мной и у меня сложилось довольно негативное мнение об этом предмете.
Аноним 03/09/17 Вск 14:30:40  1056496
>>1056491
А у меня была гора конспектов. Причем я конспектировал учебники в основном: Кострикина, Кудрявцква и тд. Когда узнал что предки их выкинули, знатно у меня пригорело.
Аноним 03/09/17 Вск 14:33:22  1056499
>>1056491
>>1056492
Съебите из этого треда, уебища.
Аноним 03/09/17 Вск 14:36:36  1056503
>>1056472
Да там рассказывают о каких-то печеньках
Аноним 03/09/17 Вск 14:47:37  1056514
>>1056472
К сожалению, нет.
Я просто пытаюсь в машоб, вот начал с математики.
Аноним 03/09/17 Вск 14:52:19  1056518
>>1056488
1) Язык математики лучше подходит. Нет, сам подумай, это же бред. Из кода хуй вытащишь смысл формулы. Это полный бред.

2) Таки книги вполне пишутся под программистов, и формулы там простые. А дело в том, что хороший программист есть инженер. И когда он получает вышку, его как минимум надрачивают на типовые задачи, и он чувствует себя комфортно с твоими страшными формулами. Нет, чувак, это бред. Твои формулы зайдут и школьнику без проблем. Разве что вероятностный смысл всяких там softmax будет неочевиден.
А если ты тот пхпшник, то не льсти себе, ты пока что и на программиста не тянешь.

3) ML в идеале для прикладных математиков. Тот же Бишоп грил, что его книга для phd студентов.
Аноним 03/09/17 Вск 15:03:01  1056527
>>1056518
>Из кода хуй вытащишь смысл формулы.
1) А какой там смысл формулы? Как раз кодом формула гораздо лучше описывается и понятнее.
3) МЛ пишется с помощью кода, значит это для программистов. То, что не хотят писать формулы кодом - т.е. на понятном программистам языку - это проблемы математиков, написавших книгу.
Т.е. специально завышают порог вхождения и стопорят развитие науки, заставляя программистов тратить время на иную дисциплину.
Аноним 03/09/17 Вск 15:08:32  1056530
>>1056518
>>1056527
На самом деле существует нотация, которая согласно изоморфизму Карри-Говарда одновременно и кудахтерный код и математическая формула. Вот только с той нотации хуеют как 95% математиков, так и 95% программистов. Поэтому пусть уж лучше будет как есть, тем более, что все формулы в МЛ это реально простейшая дискретка, доступная любому птУшнику при минимальном желании разобраться.
Аноним 03/09/17 Вск 15:08:34  1056531
>>1056527
Даешь квоты для птушников! Долой несправедливость!
Аноним 03/09/17 Вск 15:11:38  1056532
>>1056527
1) Изначальная задача нахождение весов - задача минимизации функции ошибки. Как ты это запишешь в виде кода? В коде уже применяется численный метод для решение данной задачи. Как ты будешь понимать это по коду?
2) Нет, основа мл - мат. модели. Значит это для математиков. Без формул матмодель не объяснить. По коду ты лишь видишь тупой алгоритм, без понимание, почему он должен работать. Реализаций можно вообще дохуя запилить, тот же SVM.
Аноним 03/09/17 Вск 15:12:05  1056533
>>1056532
1 - это для дефолтной нейронки пример.
Аноним 03/09/17 Вск 15:12:07  1056534
>>1056499
Дефайн уебище
Аноним 03/09/17 Вск 15:14:00  1056536
>>1056496
Нахуя?
Аноним 03/09/17 Вск 15:16:26  1056538
>>1056536
Что нахуя? Нахуя конспектировал, нахуя выкинули, нахуя пригорел?
Аноним 03/09/17 Вск 15:18:09  1056540
Нейроночки в js завезли уже?
Аноним 03/09/17 Вск 15:20:35  1056541
>>1056538
Нахуя конспектировал учебники?
Аноним 03/09/17 Вск 15:22:25  1056543
Безымянный.png (23Кб, 571x220)
расшифруйте мне вот эту формулу раз такие умные. Что это за С с хвостиком и n c хвостиком?
Аноним 03/09/17 Вск 15:28:53  1056546
>>1056543
Что там расшифровывать? Такую нотацию задаёт автор.
Аноним 03/09/17 Вск 15:29:52  1056547
>>1056541
Чтение дает самый фиговый уровень понимания сложных вещей. Проблема в том что человеческий мозг способен запомнить и узнать даже волосню на заднице рандомного мимококодила. Но узнавание не есть понимание.

Когда угораешь по какому-то делу до такой степени что, если тебя разбудят среди ночи и спросят по этому делу, то ты, не моргнув глазом, начнешь отвечать - это хороший уровень понимания.
Аноним 03/09/17 Вск 15:31:17  1056549
>>1056547
Читать учебник != понимать. А понимать можно и без конспектирования. В лучшем случае, на временных листках что-то доказать/решить. Вот переписывание учебника точно не даёт понимания.
Аноним 03/09/17 Вск 15:40:09  1056554
>>1056549
Переписывание != конспектирование. Конспектироване == сжатие информации == выделение главного => ты должен понять, что является главным. Советую еще самостоятельно доказывать максимум лем и теорем из учебников. Можно подглядывать только идею доказательства. Польза от прочитанной книги максимальна, когда ты помнишь содержание и можешь по нему воспроивести в памяти кратко весь материал.
Аноним 03/09/17 Вск 15:50:05  1056565
>>1056554
Бред какой-то. Вот я читаю книгу. Вот я вижу что-то, что нельзя просто прочитать. Вот я это понимаю. Если готовлюсь к экзаменам - то ок. Но для экзаменов у меня есть конспекты лекций, или методичка. Но ирл мне пригодится именно тот факт, что я прошёл через понимание, и запомнил, где что подглядеть. Смысл выписывать "главное"?
Аноним 03/09/17 Вск 16:01:36  1056570
>>1056554
Я вот иногда расписываю неочевиднфе мне моменты, но чтобы прям конспектировать.
Аноним 03/09/17 Вск 16:07:51  1056571
>>1056565
Можешь продолжать в том же духе. Будешь как большинстово хипстеров, способен только чекать, какую из тысяч книг ты читал или нет. Узнавание - оно такое - создает иллюзию знания.

Решение задач, конечно, хороший тест на усвоение материала, и он обязателен, но этот тест не покрывает все случаи. Просто решая задачи из учебника, ты не установишь связи между разными знаниями, которые ты уже приобрел или приобретешь.

Почему-то считается, что преподование лучший способ глубокого понимания предмета.

А вообще я сейчас тоже как ты ленюсь.
Аноним 03/09/17 Вск 16:25:13  1056584
>>1056532
1. Ну как берешь и записываешь в виде функции с переменными.
2. ой все. ну значит надо брать и для таких как я расшифровывать каждую закорючку в формуле - это сигмоид (ссыль на вики), это весы, это дельта кронекера (ссыль на вики), эта формула делает то-то. а то напишу значение переменных вначале книги, ищи их потом в 400 страницах, чтобы каждую формулу понять
Аноним 03/09/17 Вск 16:27:05  1056585
>>1056584
Он толстиит, я не верю что такие бывают.
Аноним 03/09/17 Вск 16:29:41  1056588
я пукнула
Аноним 03/09/17 Вск 16:40:49  1056595
>>1056571
Лолшто? Это не узнавание. Я получаю от книги скиллы, которые могу на практике закрепить решением задач. А вот смысл переписывания якобы главных мест книги - ты не показал. Я вот приемлю это только на временных листах, аналогично с упражнениями.

Про связь знаний - установлю. Что мне мешает? Чем поможет конспектирование?
Аноним 03/09/17 Вск 16:43:13  1056599
>>1056584
Давай, покажи для той минимизации. Ещё раз говорю, кодят численный метод. Алгоритм кода не отражает модель полностью. А исследуют и работают именно с моделью.

Нет, надо чтобы ты имел базу перед взятием учебника (которая, как тебе уже тыщу раз сказали, очень простая).

Вообще, даже пусть тебя хотят конкретно научить решение персептрона с помощью градиентного спуска. Как ты думаешь, почему код является самым паршивым объяснением алгоритма даже среди кодеров? Почему нужно писать всякие слова, комментарии, пояснения?
Аноним 03/09/17 Вск 16:43:39  1056600
>>1056595
>Я получаю от книги скиллы
+5 к интеллекту
-15 к скрытности
Аноним 03/09/17 Вск 16:45:58  1056602
>>1056584
Алсо, какой лвл? Я пытаюсь понять, ты просто птушник или реально школьник, который решил типа маошоб мммммммммммммммммм.
Аноним 03/09/17 Вск 16:50:10  1056605
Ну вот хотел по-быстрому теорию нейроночек почитать, чтобы понимать, что в тех либах, которые я буду использовать для своего сайтика на нейроночках.
а получается, что мне еще пару лет придется потратить на чтение лит-ры сначала по нейронкам, потом по матану, а сайтик придется отложить на это время. ._.
Аноним 03/09/17 Вск 16:50:17  1056606
>>1056602
> какой лвл?
16 лвл
Аноним 03/09/17 Вск 16:51:16  1056609
>>1056602
>>1056492
попробуй посчитай мой лвл, гений математики.
Аноним 03/09/17 Вск 16:53:11  1056610
>>1056588
Как запах? Нравится или бывало получше?
Аноним 03/09/17 Вск 16:54:21  1056611
>>1056610
пернула при своем парне. так стыдно ппц
Аноним 03/09/17 Вск 16:54:53  1056612
>>1056610
Думаешь девочки пукают духами? А ледибои чем?
Аноним 03/09/17 Вск 17:09:28  1056621
>>1056611
Ну бывает. Если бы ты пернула, делая бурпи или отрабатывая удары в челноке, можно было бы сказать, что рабочий процесс хорошо идет!
Аноним 03/09/17 Вск 17:14:27  1056624
>>1056605
Еба, какие пару лет, твоя нейроночка это просто составная функция а бекпропагейшн это просто взятие производных, сомневаюсь что для твоего сайта нужно более детальное понимание.
Аноним 03/09/17 Вск 17:18:24  1056627
>>1056612
Ну я люблю занюхнуть свои пуки. Наименее интересный запах - это когда кишка пустая, а самый вкусный - когда внутри есть немного свежего дерьма или слегка залежавшегося. Свежее дерьмо пропитывает пук ядреным запахом, а лежалое - густым, выдержанным ароматом.
Аноним 03/09/17 Вск 17:21:19  1056628
Сколько минимум нужно картинок с капчей, чтобы сделать её распознавалку?
Аноним 03/09/17 Вск 17:29:45  1056634
пидорасы
https://2ch.hk/pr/res/1056633.html
https://2ch.hk/pr/res/1056633.html
https://2ch.hk/pr/res/1056633.html
https://2ch.hk/pr/res/1056633.html
https://2ch.hk/pr/res/1056633.html
https://2ch.hk/pr/res/1056633.html
https://2ch.hk/pr/res/1056633.html
Аноним 03/09/17 Вск 18:17:00  1056650
>>1056540
Да, но там чисто на поиграть.
Что-то серьёзное сделать можно только на python/cpp.
Аноним 03/09/17 Вск 18:20:18  1056653
>>1056543
>С схвостиком
В голос. Это либо дзета, либо кси. Нотация авторская.

ru.m.wikipedia.org/wiki/Греческий_алфавит
Аноним 03/09/17 Вск 19:52:15  1056699
>>1056650
Java?????????????????????????????
Аноним 03/09/17 Вск 21:07:11  1056751
>>1056699
Для рептилойдов.
Аноним 06/09/17 Срд 08:09:47  1057838
>>1056464
>график натурального алгоритма
проиграл, 6ти калссник учит 6 классника что такое логарифм, экспонента и е.
Аноним 06/09/17 Срд 14:12:25  1058014
>>1057838
Иди нахуй, я опечатался.
Аноним 17/09/17 Вск 02:32:46  1063071
>>1043554
> eep reinforcement learning запилить бота, который на бирже всех вертит на хую и рубит миллиарды, то вот это было б годно.
Уже сделали.
Аноним 20/09/17 Срд 15:11:19  1064230
>>1037045
Двачую реквест
Аноним 24/09/17 Вск 11:37:35  1065779
>>1043685
x * w
Аноним 24/09/17 Вск 11:38:13  1065780
>>1065779
x[ i ] * w[ i ]
Аноним 24/09/17 Вск 12:10:50  1065788
>>1050864
Какие?

[Назад][Обновить тред][Вверх][Каталог] [Реквест разбана] [Подписаться на тред] [ ] 510 | 35 | 135
Назад Вверх Каталог Обновить

Топ тредов
Избранное