Главная Настройка Mobile Контакты NSFW Каталог Пожертвования Купить пасскод Pics Adult Pics API Архив Реквест доски Каталог стикеров Реклама
Доски


[Ответить в тред] Ответить в тред

Check this out!


[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 536 | 53 | 168
Назад Вниз Каталог Обновить

НЕЙРОНОЧКИ Аноним 09/12/17 Суб 18:26:56  1105498  
alphazero.png (186Кб, 2464x569)
creepy.png (1369Кб, 1548x988)
pytorch.jpg (61Кб, 1200x542)
Очередной тред про нейроночки.

Что почитать для вкатывания? http://www.deeplearningbook.org/
В чем практиковаться нубу? http://www.deeplearning.net/tutorial/
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ https://halite.io/ https://www.general-ai-challenge.org/
Где работать? https://www.indeed.com/jobs?q=deep+learning&l=
Где узнать последние новости? https://www.reddit.com/r/MachineLearning/
Где посмотреть последние статьи? http://www.arxiv-sanity.com/
Аноним 09/12/17 Суб 18:58:04  1105524
>>1105498 (OP)
Зачем сделали ограничение в минуту? Играть, так играть же.
Аноним 09/12/17 Суб 22:20:54  1105644
>>1105524
Цель этой статьи - показать, что альфа зеро превосходит по силе старые методы. Одна минута на ход для этого вполне подходит. Если они будут потом участвовать в каких-то официальных турнирах, сделают так, чтобы работало по турнирным ограничениям.
Аноним 09/12/17 Суб 22:25:38  1105645
Выступление одного из дедов машинлернинга, в котором он осуждает нынешние нравы молодежи: https://www.youtube.com/watch?v=ORHFOnaEzPc
Местным хейтерам понравится. Вернее, понравилось бы, если бы они понимали английский.
Аноним 09/12/17 Суб 22:25:39  1105646
>>1105644
Интересно, может ли сеть ломать простые алгоритмы шифрации?
Аноним 09/12/17 Суб 22:27:08  1105647
>>1105646
Наверное, только совсем тривиальные. Надо пробовать. Попробуй ты, например. Если что-то выйдет, можешь даже опубликоваться.
Аноним 10/12/17 Вск 06:54:51  1105727
>>1105645
>Выступление одного из дедов машинлернинга
>Ali Rahimi
кекнул с нейроноблядей
Аноним 10/12/17 Вск 11:22:16  1105760
Screenshot from[...].png (157Кб, 1198x673)
ТРАДИЦИОННОЕ ПРОГРАММИРОВАНИЕ МЕРТВО.
НЕЙРОНОЧКИ ЕБОШАТ ДАЖЕ КЛАССИЧЕСКИЕ АЛГОРИТМЫ В РАЗЫ ЛУЧШЕ.
ДО 2Х УСКОРЕНИЕ ПОСИКА ПО КЛЮЧУ ПРИ ДО 15 РАЗ МЕНЬШЕМ ИНДЕКСЕ.
ПОГРОМИСТЫ ПЕРЕУЧИВАЙТЕСЬ НА САНТЕХНИКОВ НА ХУЙ.
СОФТВАРЕ 2.0 СУКА ГРЯДЕТ, ПОКАЙТЕСЬ!
https://medium.com/@karpathy/software-2-0-a64152b37c35

Скрин отсюда:
http://learningsys.org/nips17/assets/slides/dean-nips17.pdf
Аноним 10/12/17 Вск 11:25:08  1105762
Screenshot from[...].png (957Кб, 669x767)
Новая игрушечки от Гугля.
Аноним 10/12/17 Вск 11:43:35  1105768
Нельзя ли писать нейроночки более декларативно?
Аноним 10/12/17 Вск 11:48:43  1105771
>>1105760
>Software 2.0 is not going to replace 1.0 (indeed, a large amount of 1.0 infrastructure is needed for training and inference to “compile” 2.0 code), but it is going to take over increasingly large portions of what Software 1.0 is responsible for today.
Аноним 10/12/17 Вск 12:13:33  1105774
>>1105760
>ДО 2Х УСКОРЕНИЕ ПОИСКА ПО КЛЮЧУ ПРИ ДО 15 РАЗ МЕНЬШЕМ ИНДЕКСЕ
Допустимо ли предиктор называть индексом?
Аноним 10/12/17 Вск 12:17:04  1105776
Wrightflyer.jpg (983Кб, 2400x1432)
>>1105771
> Высокоуровневые языки програмирования никогда не заменят язык ассеблера. Большое количесво кода на ассеблере требуетсмя днаписания компилятора языка высокого уровня.

> Компьютеры никогда не заменят логарифмические линейки. Большое количесво линеек требуетсмя для проектирования и построения компьютера

> Автомобили никогда не заменят лошадей. Большое количесво лошайдей требуется для доставки деталей на автомобильную фабрику!

> Станки никогда не заменят рабов! Множество рабов требуется для того что бы построить один станок!

17 декабря 1903 Братья Райт совершили первый длительный управляемый полёт аппарата тяжелее воздуха с двигателями.
Уже через 40 лет, в воздуже летали реактивные бомбардировщики и лайнры доставляющие пассажиров через океан со всеми удобствами.

Через 20 лет "Программирую на c++" == "Подковываю лошадей"
Аноним 10/12/17 Вск 12:20:14  1105777
>>1105774
Как по мне, то это завист от того обеспечивает он 100% точность.
Если да, то он, дефакто, индексом и является(изоморфен), и из него за конечное время можно класический индекс построить обратно.
Аноним 10/12/17 Вск 12:27:36  1105782
>>1105777
Ну вот у меня сильное подозрение, что 100% он не обеспечит, иначе это архиватор Бабушкина.
Аноним 10/12/17 Вск 12:31:27  1105784
>>1105776
>Через 20 лет "Программирую на c++" == "Подковываю лошадей"

Конечно, ведь есть божественный Rust, а С++ говнище которое не могут до нормального вида довести и уже не смогут. Спасибо комитету по стандартизации и Бьерну Страуструпу
Аноним 10/12/17 Вск 12:36:37  1105787
>>1105760
Ну первая ссылка - хуйня для попиариться.
А вот насчет индексов - интересно. Ссылка на ту статью https://arxiv.org/pdf/1712.01208.pdf
Поясните, как тензорслесари байтослесарю, что значит Model Err для B-Tree на Figure 6?
Аноним 10/12/17 Вск 13:08:55  1105798
Screenshot from[...].png (132Кб, 1020x834)
>>1105787
Для того что бы говорить о замене страничного индекса эта велични должна быть 1/2 страницы или меньше.

Страничный индекс работает как алфавитный указатель в книге. Он дает тебе ссылку только на страницу, Не на сам слово(ключ) на странице. Но нам ключ на странице есть точно.
Их нейронка дает тебе указатель на конкретное слово в пределах не более (размер страницы пополам) от нужного тебе со 100% гарантией.

Разница в том, что от страницного указателя нужно перебрать размер_страницы записей вперед, а от того, что дала нейронка размер_страницы/2 вперед и размер_страницы/2 назад.
Аноним 10/12/17 Вск 13:54:03  1105812
>>1105784
> Спасибо комитету по стандартизации и Бьерну Страуструпу
Комитет не хочет портить обратную совместимость из-за зиллионов уже написанных строк. А не потому что там долбоебы, которые хотят чтобы крестовики страдали.
Аноним 10/12/17 Вск 14:29:11  1105820
>>1105645
Очередной плач маняматика о том что де не поверить гамалогиями нейросети. Ну, а кто же виноват, что маняматика настолько бессильная что реальные задачи ставящиеся бизнесом она решить не в состоянии? Промышленности некогда ждать пока аутисты раскачаются и начнуть доказывать первые робкие baby-теоремки, будет тут некоторый элемент алхимии и искусства, обычное дело.
Аноним 10/12/17 Вск 15:13:17  1105827
Pixel-Gif-Pixel[...].gif (4843Кб, 811x409)
Есть два класса, первого класса в датасете 97%. Какой scoring лучше использовать? Как вообще так жить? Зачем продолжать заниматься этим, если в светлом киберпанковом будущем выгоднее быть барменом-человеком чем датаслесарем-человеком?
Аноним 10/12/17 Вск 16:20:48  1105855
>>1105827
У тебя два стула выхода.
1. Увеличить присутствие второго класса хоятя бы до 10%, например, сгенерировав фейковые/средние/случайные значения
2. Считать объекты второго класса аномалиями и использовать:
https://en.wikipedia.org/wiki/Anomaly_detection
https://alexanderdyakonov.wordpress.com/2017/04/19/поиск-аномалий-anomaly-detection/
Аноним 10/12/17 Вск 19:04:44  1105930
>>1105820
Не надо грязи. Али говорит, что если нельзя доказать теорему, хотя бы демонстрируйте эффекты на предельно простых экспериментах. А если уже начали говорить о чем-то ("internal covariate shift"), то будьте добры определить это, показать его существование, и продемонстрировать его эффект.
Аноним 10/12/17 Вск 19:27:23  1105937
На Паскале можно сделать ИИ? А как?
Аноним 10/12/17 Вск 19:33:42  1105941
>>1105937
Конечно можно. Так же как и на сях только пишешь нейронку на паскале, ну или враппер для слесарфлоу.
Аноним 10/12/17 Вск 19:34:33  1105943
>>1105812
Один хрен ничего сложнее С-с-классами не компилируется спустя 10 лет.
Аноним 10/12/17 Вск 19:37:30  1105945
>>1105762
Эти ТПУ вроде бы дорогие ужс. Больше чем на вес золота.
Аноним 10/12/17 Вск 19:46:14  1105951
Есть какой-то сайт, где все люди, часто даже без званий докторов наук, пытаются создать свой ИИ или хотя бы высказывают свои восхитительные идеи?
Аноним 10/12/17 Вск 19:50:11  1105957
>>1105951
есть, в /b
Аноним 10/12/17 Вск 19:51:01  1105960
>>1105951
https://www.reddit.com/r/MachineLearning/ -?
Туда и авторы AlphaGo, например, захаживают
>Hi everyone.
>We are David Silver (/u/David_Silver) and Julian >Schrittwieser (/u/JulianSchrittwieser) from DeepMind. We >are representing the team that created AlphaGo.

https://www.reddit.com/r/MachineLearning/comments/76xjb5/ama_we_are_david_silver_and_julian_schrittwieser/

Пойдет?
Аноним 10/12/17 Вск 19:53:56  1105964
https://www.youtube.com/watch?v=89tRnIezxHc
Аноним 10/12/17 Вск 19:56:05  1105968
tpu-10.png (45Кб, 1354x822)
>>1105945
Стоят того.
Графики еще прошлой версии TPU v1
Аноним 10/12/17 Вск 20:01:57  1105975
>>1105968
На v2 еще и тренировать нейроночки можно. Ясно, что это круто, просто пока что это людям недоступно, только крупным конторам. Покупку такой штуки можно сравнить с запуском своего коммерческого спутника, например.
Аноним 10/12/17 Вск 20:02:06  1105976
>>1105937
>На Паскале можно сделать ИИ? А как?
Почти все API и так на питоне, куда уж дальше деградировать?
Аноним 10/12/17 Вск 20:09:32  1105981
Screenshot from[...].png (339Кб, 1341x912)
>>1105975
Да ладно. Производительность всего 180 teraflops на юнит. У копеечного титана V 110 teraflops.


копеечного для такой производительности.
3 к баксов это ничто. Дисковая подсистема с аппаратным рейдом стоит больше.
Аноним 10/12/17 Вск 20:13:22  1105983
>>1105981
Пока что не очень понятно, что под "deep learning teraflops" подразумевается. И памяти там мало. Так что еще смотреть надо, но вообще это хорошо, что разработки идут. Гугловский ТПУ, наверное, не очень эффективен по цене/производительности.
Аноним 10/12/17 Вск 20:17:21  1105985
B4TQ7fX9WJQ.jpg (30Кб, 604x303)
>>1105983
>Пока что не очень понятно, что под "deep learning teraflops" подразумевается.
>Хуанг.
Всем все понятно.
Аноним 10/12/17 Вск 20:26:37  1105988
>>1105981
>180 teraflops
и чо, теперь ваши нейронки в 10 раз быстрее нулевой результат будут производить?
Аноним 11/12/17 Пнд 01:43:17  1106148
>>1105760
Прочитал по диоганале и не понял.
Че уже пишут код нейронные сети?
Когда мне в макдак пиздовать?
Аноним 11/12/17 Пнд 02:31:36  1106161
>>1106148
Прямо сейчас беги, а то все места займут.
Аноним 11/12/17 Пнд 04:19:11  1106170
>>1106148
Еще хуже. Код вообще не нужен, его заменяют на нейроночки. Те, кто поумнее уже года три как в маке работают, в менеджеры уже выбились. А когда ты надумаешь, там будет очередь из тысяч бывших кодерков.
Аноним 11/12/17 Пнд 07:18:21  1106177
На реддите часто говорят, что мол в твиттере обсуждают то, это, всякие новые веяния. Я никогда не пользовался твиттером. Кто-нибудь может вкратце объяснить, как там организован диалог, как их посмотреть? Чтобы быть в курсе последних новостей, мне нужно подписаться на каких-то особо популярных людей (кого?), или на хештеги (какие?), или там есть какая-то группировка твитов по темам? Если ноунейм без подписчиков вроде меня ответит на твит какой-то звезды вроде Карпати, этот твит кто-нибудь увидит? Ответят ли на него?
Аноним 11/12/17 Пнд 07:37:44  1106181
>>1106177
Этот твит все увидят и ответят, если захотят.
Аноним 11/12/17 Пнд 08:03:39  1106184
>>1106181
>твит
твит же на русский переводится как вскукарек?
Аноним 11/12/17 Пнд 10:33:20  1106207
>>1105827
>Есть два класса, первого класса в датасете 97%
Недавно участвовал в конкурсе участники конкурсов догадались в каком, где были как раз такие данные. Стандартные ml-методы хреново работают в таких условиях. Копай в стороны детекции аномалий, денойза, детекции выбросов и т.д.
Аноним 11/12/17 Пнд 12:39:47  1106222
oni-gorazdo-luc[...].jpg (40Кб, 468x296)
>>1106207
> участвовал в конкурсе
Аноним 11/12/17 Пнд 18:58:04  1106321
>>1106184
>твит же на русский переводится как вскукарек?
DA

Аноним 11/12/17 Пнд 20:56:41  1106375
позвали на собес фронтендером для разработки продукта на нейроночках.
эта успех))
Аноним 11/12/17 Пнд 20:59:52  1106377
>>1106375
в мтс?
Аноним 11/12/17 Пнд 22:24:56  1106396
>>1106377
Не, в медицинский стартап. Боже упаси работать в рашкинских продуктовых фирмах.
Аноним 11/12/17 Пнд 22:40:00  1106401
>>1106396
b...gene?
Аноним 12/12/17 Втр 02:33:40  1106468
>>1106375
Советую на собесе обговорить возможность заниматься собственно нейроночками, а не только фронтендом. Ты же ради этого туда идешь. Даже если они не особо хотят тебя к этому пускать, если им силно нужен фронтендер, могут уступить и будет уже договоренность заранее. Иначе потом могут сказать, что не твоего ума это дело.
Аноним 12/12/17 Втр 14:35:07  1106585
>>1105855
>>1106207
Спасибо, все поломалось, но обещает выдать как-то.. результат. Наверное. Может быть. Если нейронные сети корпораций не отнимут у меня работу завтра.
Аноним 12/12/17 Втр 14:58:50  1106588
>>1106401
ноуп
Аноним 12/12/17 Втр 15:01:55  1106590
>>1106468
Ну здрасти, я на это и буду упор делать. Мол читал книги по алгоритмам в мл, в свободное время накатываю numpy.
Я туда тока для этого и иду, что мне в свое время точно такая же идея, как та, которую они реализуют, в голову пришла, поэтому я буду ммаксимум заинтересован в этом проекте.
Даже если до питона будут со скрипом допускать, я все равно скачаю их проектик (я же для него интерфес буду делать) и разберу код.
Аноним 12/12/17 Втр 16:44:34  1106631
Господа, накидайте годноты для новичков по LSTM.
Аноним 12/12/17 Втр 18:42:47  1106690
Слышал, что язык Go ещё более для даунов чем даже питон. Это правда? На нем можно писать нейроночки? Я могу быстро импортировать тензорплов и писать свои нейросети изучив перед этим Go?
Аноним 12/12/17 Втр 18:54:55  1106693
>>1106631
В шапке.
Аноним 12/12/17 Втр 19:50:27  1106714
>>1106590
>накатывает numpy
>библиотека про умножение матриц
Ну хотя бы соври им, что уже тензорфлоу накатываешь.
Аноним 12/12/17 Втр 22:18:15  1106786
>>1106714
ну тензорфлоу - это конечно же по умолчанию.
Аноним 12/12/17 Втр 22:56:17  1106815
>>1106786
А как ты тензорфлоу пользуешься, ничего до этого на нампае не писав? Где предобработка данных, бака?
Аноним 13/12/17 Срд 00:55:47  1106849
>>1105498 (OP)
Меня не забанят на каггле, если я создам второй аккаунт для тестирования решений? Как может это выясниться? Разумеется, в победители не мечу, просто два сабмишена в сутки не хватает для тестирования гипотез.
Аноним 13/12/17 Срд 01:34:33  1106858
>>1106849
Вполне возможно. Могут вычислить по айпи или по совпадению решений, например. Раньше абьюзеров удаляли.
Аноним 13/12/17 Срд 07:35:27  1106895
>>1106849
тестируй локально, разбей трейн на трейн, кросс-валидацию и трейн; и тестируй
Аноним 13/12/17 Срд 09:55:06  1106908
>>1106895
Обучающая выборка и так очень маленькая в том соревновании.
>>1106858
А каким образом? Я же засылаю результаты, а не код, а они каждый раз отличаются. А айпи может совпадать, если два программиста живут рядом или это общага, например.
Я же не собираюсь брутфорсить решения, перебирая их, я просто хочу, чтобы в день у меня было 4 или 6 попыток вместо 2.
Если засылать с разных айпи, не забанят?
Аноним 13/12/17 Срд 10:26:05  1106913
>>1106908
Они регулярно банят клоны, уж не знаю, как вычисляют. Не думай, что ты единственный хитрец.
Если обучающая выборка маленькая - часто используют сторонние данные, обычно правилами это разрешено.
Аноним 13/12/17 Срд 12:11:29  1106929
>>1106913
НЕТУ ТАКИХ ДАННЫХ БЛЕАТЬ, ГДЕ Я ТЕБЕ ФОТКИ ОПРЕДЕЛЕННОГО ТИПА СО СПУТНИКОВ НАЙДУ
Ладно, понял, спасибо, надо было раньше начать делать.
Аноним 13/12/17 Срд 12:51:29  1106936
>>1106929
>ГДЕ Я ТЕБЕ ФОТКИ ОПРЕДЕЛЕННОГО ТИПА СО СПУТНИКОВ НАЙДУ
GAN тебе в помощь
Аноним 13/12/17 Срд 13:21:10  1106942
>>1106936
новый уровень data augmentation
Аноним 14/12/17 Чтв 11:19:20  1107354
>>1106849
>Меня не забанят на каггле, если я создам второй аккаунт для тестирования решений?
Забанят и правильно сделают. Это прописано в правилах.
Аноним 14/12/17 Чтв 22:20:02  1107653
Посоны, поясните за Q-learning когда комбинаций огромное множество как в шахматах.
Аноним 14/12/17 Чтв 22:45:42  1107670
У меня есть две сетки: одна на теано, другая на тензорфлоу и мне надо их друг к другу подсоединить, самое простое решение -- переписать одну из них или можно как-то ещё?
Аноним 14/12/17 Чтв 22:52:33  1107675
>>1107670
Они ж обе на питоне, подавай выход одной на вход другой. В чем проблема?
Аноним 15/12/17 Птн 00:00:58  1107702
image.png (664Кб, 768x448)
Тут один анон исходный код для смены лиц на видео выложил, нейросети и т.д.
https://www.reddit.com/r/deepfakes/comments/7jqvny/release_face_swap_model_tool/
Аноним 15/12/17 Птн 00:07:24  1107707
>>1107653
И какой вид нейронки они используют для обучения? Вообще как выглядит схема обучения. В питоне не всегда понятно что и как соединено даже с описанием.
Аноним 15/12/17 Птн 01:33:47  1107747
>>1107670
Теано умер, так что лучше переписать на тф.
>>1107707
Тебе книгу по RL тут пересказать или чо? Иди учи основы. Для начала осиль Саттона.
Аноним 15/12/17 Птн 07:51:14  1107822
>>1107653
> Посоны, поясните за Q-learning когда комбинаций огромное множество как в шахматах.
Чего тут пояснять, обучение затянется на годы и все. Если бы все было так просто, давно бы уже реализовали. Как вариант, придумать метод оценки результативности во время самой игры, т.е уже по ходу партии как-то отсекать бесполезные ходы. Опять же, вручную это нереализуемо, нужны какие-то эвристики полезности.
Аноним 15/12/17 Птн 08:17:07  1107824
>>1107702
Результат можно заценить на pornhub, лол.
Аноним 15/12/17 Птн 10:43:23  1107860
>>1107702
Спасибо за ссылку. Сейчас пойдет волна всевозможных фейков. Уходит эпоха человека, похожего на генпрокурора.
Аноним 15/12/17 Птн 11:17:52  1107870
Что там из математики для вкатиывания нужно знать? Calculus обязателен?
Аноним 15/12/17 Птн 11:49:42  1107887
>>1106908
Щас бы думать что крупнейшая площадка соревнований по машинлернингу не сможет вычислить наебывающего васяна.
Вангую что это делается в полуавтоматическом режиме, сначала твои аккаунты на основании комбинации подозрительных факторов помечает система, а потом уже его рассматривает под лупой специальный человек
Аноним 15/12/17 Птн 11:55:16  1107891
>>1107747
>Тебе книгу по RL тут пересказать или чо? Иди учи основы. Для начала осиль Саттона.
Люди умещают весь этот процесс в несколько строк питона.
Аноним 15/12/17 Птн 13:28:39  1107919
>>1107860
дело же не в технологиях, а в людях.
Аноним 15/12/17 Птн 17:38:09  1108007
Вопрос к работающим машоб-господам: как вы выясняете какие параметры модели дают лучший результат? Просто прогоняете на разных комбинациях параметров и записываете на бумажку? Отдельные тесты? CI/CD?
Аноним 15/12/17 Птн 18:03:19  1108020
>>1107891
Один из сотни алгоритмов. И без понимания хотя бы на уровне определений, ты все равно не поймешь почему надо делать именно так.
Аноним 15/12/17 Птн 18:05:24  1108021
>>1108007
Random search / Grid search / "(under)Grad search"
Аноним 15/12/17 Птн 18:06:16  1108023
>>1108007
Я прогоняю на комбинациях и пишу на бумажку. Пытаюсь интуитивно понять, как параметры влиаят на процесс, но по сути просто случайно ищу.
Аноним 15/12/17 Птн 18:15:47  1108030
>>1108021
Это понятно. Меня больше интересует то, как этот поиск запускается (автоматически?), как наблюдается результат (очеты/графики?), что потом происходит с "лучшей" моделью (автоматический деплой на dev/test/stage-сервер?).
Ну и соответственно: какие инструменты для всего этого must have?
>>1108023
Именно тот процесс от которого хочется уйти.
Аноним 15/12/17 Птн 19:52:35  1108079
>>1108020
Хорошо, какой использует гугл в Alpha Zero? Например, хочется самому потренировать. Все таки такие задачи интересней, потому что у них нет точной оценки действия.
Аноним 15/12/17 Птн 21:09:58  1108111
Батч-нормализация может ухудшать результаты работы нейронки? А дропауты? Везде пишут, что дропауты спасают от переобучения, но на данных оказывается, что это не так. Или просто брать больше/меньше эпох?
Аноним 15/12/17 Птн 22:04:14  1108123
>>1108079
Прочти статью, там все расписано. У alphazero нетрадиционная тренировка, собственно в ней и заключается прорыв. Вроде бы кто-то на гитхабе делал клон. Но для го или шахмат там годы вычислений на ГПУ требуются.
Аноним 15/12/17 Птн 22:06:08  1108124
>>1108111
Все может ухудшать результаты. Надо уметь правильно применять.
Аноним 15/12/17 Птн 23:03:24  1108147
матан для вашей хуйни нужен? а то почитать хочу че это за нейтронные сети, но ебаться с матаном не хочу
Аноним 15/12/17 Птн 23:29:35  1108158
>>1108147
нужен и пиздец какой. можешь почитать книгу по алгоримтам аи и офигеешь от формул.
Аноним 16/12/17 Суб 00:41:50  1108183
>>1108147
Нужна довольно серьезная математическая база. Без нее максимум что тебе светит - бездумно копировать стоки или целые репозитории с готовыми решениями.
Аноним 16/12/17 Суб 01:42:30  1108220
>>1108124
А ты можешь какую-то конкретную статью/конкретную главу из конкретной книги по ухудшениям от дропаутов посоветовать?

Батч-нормализация судя по результатам все-таки улучшает.
Аноним 16/12/17 Суб 02:08:38  1108230
>>1108183
>>1108158
Вот предположим я после n-го прочтения догнал алгоритм.
Но как мне это поможет в проде?
Аноним 16/12/17 Суб 04:28:14  1108243
А мне интересно наоборот, тут математика где-то кроме вапника есть или только шаманство? Что после него читать, поближе к современным реалиям чтоб?
Аноним 16/12/17 Суб 04:45:27  1108244
>>1108220
Не могу. Дропаут - это регуляризация, соответственно можно ожидать более медленной сходимости, например. Вплоть до полной остановки обучения. Еще слышал что на свертках он не работает, но тут не уверен.
Аноним 16/12/17 Суб 05:20:47  1108249
>>1108230
Например, ты сможешь правильно применить этот алгоритм, обнаружить и устранить проблемы в его работе, сказать в каких случаях он применим.
Аноним 16/12/17 Суб 05:22:26  1108250
>>1108243
Не шаманство, а скорее инженерия, кое-где граничащая с шаманством. Читай шапку.
Аноним 16/12/17 Суб 06:25:06  1108253
>>1108243
тут матан на уровне теорфизики 60-х годов, когда еще толком не вдупляли что такое интеграл фейнмана и как суммировать ряды диаграмм. Что-то работало и давало офигенные результаты которые по-другому не посчитаешь. Что-то не работало, хотя вроде бы все делалось по правилам, но в результате получались какие угодно сечения рассеяний. То же самое и с нейронками сейчас: повезет, решишь задачу лучше человека, не повезет, будешь на уровне тупых алгоритмов из предыдущей эпохи болтаться. Но ждать пока матанщики допрут до этого не вариант: все задачи к этому времени уже решат те, кто не боится обосраться прилюдно.
Аноним 16/12/17 Суб 06:57:09  1108254
>>1108253
А в чем публичный обсер? Если получилось, публикуешься, нет - закапываешь и копаешься дальше. В этом вся наука, собственно.
В целом хорошо описал ситуацию.
Аноним 16/12/17 Суб 07:24:59  1108255
>>1108250
> Не шаманство, а скорее инженерия, кое-где граничащая с шаманством. Читай шапку.
Да нет, кроме Вапника шаманство и есть. Он ещё в 60х годах выделил 2 подхода к машобу. То, что делает он это сложно, не зря у него ушли десятилетия на получение практически ценных результатов. Гораздо проще шаманить, это даже индусы могут.
Аноним 16/12/17 Суб 08:34:57  1108261
>>1108254
ну в том, что например суммировать расходящиеся ряды - зашквар, который учат избегать еще на первом курсе.
Аноним 16/12/17 Суб 08:57:06  1108262
>>1108255
ты не догоняешь. Когда математика поймет почему нейронки работают это уже будет в школьных учебниках. Ты представляешь, что алгоритм Hamiltonian Monte Carlo уже в 80х считал квантувую хромодинамику, а почему он работает начали понимать только в 2010х? Или ты только кукарекать про индусов можешь?
Аноним 16/12/17 Суб 11:08:42  1108273
>>1108262
> Когда математика поймет почему нейронки работают
Пиздец. Почему они работают, было известно ещё в начале прошлого века. Ещё Маккаллоку с Питтсом. Ещё Розенблатту. Арнольд с Колмогоровым пояснили полностью. Вся суть там в представлении функций от многих переменных через суперпозиции частных функций от двух или около того переменных. Вот и все. Остальное это методы аппроксимации зависимости выхода от входов. Все это сто лет уже известно любому знакомому с математикой уровня выше школьного. Вапник же начал вообще с другой стороны, с постановки задачи обучения машины регрессии, классификации и восстановлению распределения вероятности по датасету, что покрывает вообще весь возможный машоб.
Аноним 16/12/17 Суб 11:44:48  1108281
>>1108255
Математика всегда догоняет, смирись с этим. Программы тоже сначала пишут, они работают, и только потом через десятилетия математики кое-как на упрощенных моделях формально доказывают работоспособность.
Аноним 16/12/17 Суб 11:47:03  1108283
>>1108254
В том что тут есть от 1 до 3 математикодрочеров, которые упорно форсят что текущий подход говно, нужно засесть за формальные доказательства и разработку мат теорий, а потом уже распознавалки песьих анусов писать.
Аноним 16/12/17 Суб 12:56:59  1108301
Если бы математика понимала, как работают нейронки, она давала бы четкий ответ, какой оптимальный алгоритм, какие выбрать гиперпараметры.
На деле же этого нет, а есть шаманство и дрочево.
Аноним 16/12/17 Суб 12:59:59  1108303
>>1108301
Дебил ты. Просто дебил.
Аноним 16/12/17 Суб 13:24:11  1108312
>>1108303
>Дебил ты. Просто дебил
лол, тот анон ппав. как кстати этот ваш черный ящик отлаживается, всмысле дебагинга?
Аноним 16/12/17 Суб 14:02:02  1108321
>>1108303
Добавь-ка немного информативности в свои выперды. Что конкретно дал матан нейронкам? Прямой проход - это умножить и сложить, арифметика за третий класс. Алгоритм обратного распространения ошибки? Да его в девятьсот лохматом придумали. Потом надолго затупили на перцептроне. Затем догадались перцептрон по картинке построчно двигать - получилась свертка. Охуеть как сложно.
Сейчас топовая сетка на Imagenet - это NASNet, якобы сгенеренная автоматически. Я смотрю на нее - бред там с точки зрения человека. Типа два ReLU подряд, или Pooling(kernel_size=1, stride=2). Работает как и прежнее говно, но на один процент лучше. Где тут ваш матан, я его не вижу. Точнее, не вижу прогресс благодаря ему.
Аноним 16/12/17 Суб 15:08:38  1108347
>>1108301

Честно говоря, на твой вопрос отвечает банальная No free lunch theorem

We have dubbed the associated results NFL theorems because they demonstrate that if an algorithm performs well on a certain class of problems then it necessarily pays for that with degraded performance on the set of all remaining problems.[1]


In 2005, Wolpert and Macready themselves indicated that the first theorem in their paper "state that any two optimization algorithms are equivalent when their performance is averaged across all possible problems".[3] The 1997 theorems of Wolpert and Macready are mathematically technical and some find them unintuitive.

Отсюда и все шаманство, что алгоритм всегда приходится выбирать под изучаемую проблему-пространство. И не существует золотой пилюли.
Аноним 16/12/17 Суб 15:12:09  1108348
>>1108347
>No free lunch theorem
Пустая софистика. Из того, что средний анализ мочи / кала / крови по больничке всегда примерно на одном уровне, никак не следует, что анализы не могут служить диагностическими критериями. Хотя бы потому, что оценивается конкретная проба от конкретного поциента.
Аноним 16/12/17 Суб 15:25:37  1108352
>>1108347
>не существует золотой пилюли.
Вообще, чисто теоретически выход есть. И я его описывал в этих тредах с полгода назад. Как можно автоматически построить алгоритм под любую конкретную задачу (подобрать параметры уже проще). Есть методы, только те, кто понимает что надо делать, не владеют в достаточной степени кодингом, а с индусов-быдлокодеров что взять. Так и живем.
Аноним 16/12/17 Суб 15:56:10  1108360
>>1108244
Энивей, спасибо, попробую увеличить количество эпох.
Аноним 16/12/17 Суб 16:58:07  1108394
>>1108249
Ну я так то только вкатываюсь.
Прохужу курс яндексовский на курсере и читаю лекции ВШЭ и Воронцова.
И когда дошло до стенкинга там прям написано: НУ БЛЯ ЕПТ НИКТО НЕ ПОНИМАЕТ ПОЧ СТЕКИНГ РАБОТАЕТ, РАБОТАЕТ И ХУЙ С НИМ
Вот у меня и сложилось впечателение, что если ты не ресерч гай, а простой слесарь в моем случает я просто хотел бы юзать опенсв на сС++ не как обезьяна, то особо глубоко понимать смысл всего этого не стоит.
Аноним 16/12/17 Суб 19:04:52  1108434
>>1108273
ты нихера не понимаешь, анон. "Почему они работают" = "почему ожидание функции потерь на тренировочном сете и на тестовом сете различаются на маленькую величину и как она зависит от модели и количества тренировочных примеров". Ты видимо очередной фрик, считаешь что все еще архимед придумал. И Вапника ты видимо не читал, а если и читал то не понял.
Аноним 16/12/17 Суб 19:10:25  1108437
Как сделать свое векторное пространство, ну, точнее там svm или что-то там, ну где король + женщина даёт королева
Аноним 16/12/17 Суб 19:20:45  1108440
>>1108437
Linguistic regularity это называется. SVM не при чем.
Аноним 16/12/17 Суб 19:25:22  1108442
>>1108437
Да, word2vec гугли. Для R есть text2vec, тоже может в это. Но оно не всегда нормально работает, хотя в десятке ближайших векторов правильный ответ есть всегда.
Аноним 16/12/17 Суб 20:17:49  1108454
https://www.youtube.com/watch?v=zHjE07NBA_o
Аноним 16/12/17 Суб 20:33:54  1108465
>>1108454
Что это за чувак? я почему-то подписан на этот канал, лол
Аноним 16/12/17 Суб 23:47:07  1108579
>>1108352
И как?
Аноним 17/12/17 Вск 03:39:26  1108665
Анонсы, как данные с жпс препроцессить? У меня, например, есть координаты и время их отправки. Задача - классификация транспортных маршрутов.
Аноним 17/12/17 Вск 19:50:08  1108902
>>1108665
Превращай пути в картинки.
Аноним 17/12/17 Вск 20:11:20  1108913
>>1108902
>в картинки
а картинки в видеоряд
Аноним 18/12/17 Пнд 00:47:15  1109020
>>1108321
>два ReLU подряд
Искусственный интеллект, который мы заслужили.
Аноним 18/12/17 Пнд 04:20:48  1109068
Дут датаслесаря ищут https://drive.google.com/file/d/1TxdrNtuwkD88quuDRRXOkQ3uBtBVJM5T/edit
Аноним 18/12/17 Пнд 04:32:20  1109070
>>1109068
Уёбывай.
Аноним 18/12/17 Пнд 05:03:15  1109074
15119545829210.jpg (71Кб, 605x639)
>>1109070

С чего бы?
Аноним 18/12/17 Пнд 06:07:24  1109084
>>1109068
Задача опять про торговлю байткойнтами?
Аноним 18/12/17 Пнд 06:08:39  1109085
>>1109074
Потому, что вы задрали своими тестами, анкетами, аджайлом и отчётностью в Битрикс24 с оплатой по часам, вот почему.
«Тестовое задание» — это значит, рабовладелец живёт за счёт родителей тех, кого нанимает на работу.
Аноним 18/12/17 Пнд 08:01:45  1109098
>>1109084
>Мы – подразделение компании ZORG Invest
угадал
Аноним 18/12/17 Пнд 10:07:08  1109119
15121979503100.jpg (62Кб, 537x537)
>>1109085

Тащемта, я на linux.org.ru в разделе job это стащил. Вы же сами тут ноете, что работу найти не можете.
Аноним 18/12/17 Пнд 10:18:10  1109122
image.png (3655Кб, 1920x1080)
Аноны, я тут немного платиновый. Я правильно понимаю, что если у меня АМуДа вместо видимокарты, то в нейронки лучше не лезть у меня еще i7 7700k как CPU, но судя по всему это не решает.

И еще, насколько трудозатратно будет вкатиться в нейронки, если я не планирую ими зарабатывать, знаю питон, джаву и немного го и работаю ИТ не пограмист ? Хочу сделать генератор обоев с нужной цветовой гаммой. Задолбало ради них интернеты шерстить
Аноним 18/12/17 Пнд 11:10:44  1109134
>>1109119
Оттуда объяву уже удалили. Нет никакой информации о вакансии, гугл слышал только про одноименную контору в Голландии. Сайт-пустышка. Стремно как-то заниматься таким тестовым заданием.
Аноним 18/12/17 Пнд 14:17:31  1109184
>>1109122
>Хочу
А я хочу чтобы 15 числа менты оцепили Москву, и начали всячески гнобить хачей и не давать им кучковатся. И что бы хачи разозлились как следует. И чтобы приехал Кадыров на золотом трехэтажном лимузине, и сказал ментам «Идите на хуй». И чтобы менты пошли нахуй. И множество хачей стало собиратся около Европейского, по дороге пиздя всех подряд. И чтобы анон кинул в них бутылки с средством для костров. И чтоб хачи впали в ярость и кинулись терзать подъехавших омоновцев и ввшников, переворачивая и поджигая их автобусы, и насиловалуя женоментов и их немецких овчарок в глазницы. И чтобы разгневанные ноостями футбольные фанаты собрались на другом конце моста Богдана Хмельницкого и повесили несколько хачей на поручнях моста. И чтобы хачи увидели это и кинулись к ним. И чтобы они начали биться за мост, падая с него окровавленными комьями. И что бы лед провалился от веса трупов. И чтобы вконец ебнувшиеся еще летом от жары и дыма планарии стали выпрыгивать из воды и хавать трупы. И чтобы они забили своими разжиревшими телами Москву-реку. И чтобы начался потоп. И ополоумевшие таджики стали выскакивать из заливаемых подвалов со своими грудными таджичатами, кипятильниками из лезвий и горящими метлами, и начали поджигать прохожих и голубей. И чтобы горяшие голуби занесли огонь в Останкинскую телебашню. И чтобы из зала суда вырвался Ходорковский, и вместе с Каспаровым и Шендеровичем, он залез бы на самую высокую башню кремля, и стал кидать в творящийся внизу хаос тысячи сшитых им рукавиц. И чтобы болельщики все дрались и дрались бы с хачами, а хачи дрались между собой, и всех их хуячили бы менты, а ментов бы хуячили подтянувшиеся силы таманской дивизии, которым похуй кого пиздить потому что они загипнотизированы метелью, порхающими рукавицами и горящими голубями. И что бы Путин посреди улицы громко играл на рояле, а Медведев стоял рядом, делал фотки и выкладывал в твиттер. И всю эту хуйню показывали по всем каналам как 9/11. И чтобы хуйня все длилась и длилась, а Путин все играл и играл.
Аноним 18/12/17 Пнд 14:51:38  1109191
>>1109184
начни с себя
Аноним 18/12/17 Пнд 14:53:18  1109192
>>1109122
>если я не планирую ими зарабатывать
То дальше хеллоуворда ты никогда не уйдешь.
Аноним 18/12/17 Пнд 17:35:59  1109263
Как сделать своего интеллектуального агента?
Аноним 18/12/17 Пнд 17:38:59  1109264
>>1109192
> дальше хеллоуворда
ну ты критичен ко мне, я иногда под линуксы программирую, иногда быдловеб, все по большему счету для себя. На работе это все только коственно надо. Хобби у меня такое прос
Аноним 18/12/17 Пнд 19:09:10  1109285
>>1109122
А вопрос про карту стоящий? Сколько денег на железо нужно потратить чтобы вкатиться в нейронки? И можно ли купить просто специальный компьютер внешний, без переферии, только с видеокартой?
Аноним 18/12/17 Пнд 19:12:33  1109286
>>1109285
Можно просто купить еще одну видеокарту, ноя этого делать не буду, моей хватает
Аноним 18/12/17 Пнд 21:56:25  1109337
>>1109285
Я недавно собрал норм комп с 1080ти (топчик для МЛ сейчас по цене/скорости) за 2к грина вместе с монитором. Очень доволен, в перспективе можно поставить еще одну видеокарту.
Аноним 18/12/17 Пнд 22:48:26  1109356
>>1105498 (OP)
тренирую сеть из 47 нейронов в одном скрытом слое. Входной слой - 7. Выходной - 1.
learning rate 0.45
библиотека theano.
cpu. Celeron.
10 эпох на 10 экзмплярах тренируются 500 секунд.

Так и должно быть?
Аноним 18/12/17 Пнд 23:14:23  1109373
>>1109356
Смотря сколько у тебя там данных в эпохе. Ну и
>cpu. Celeron.
Теано умер, кстати.
Аноним 18/12/17 Пнд 23:18:49  1109375
Почему бывает, что лосс на validation очень маленький (0,03-0,05), а лосс на train раз в 5 больше (0,2). Казалось бы, данные однородные.
Аноним 18/12/17 Пнд 23:24:44  1109379
>>1109375
Эффект выбросов в тренировочной части и сильно регуляризованной модели.
Аноним 19/12/17 Втр 01:14:15  1109416
>>1109373
10 экземпляров, карл. 10 векторов - весь дейтасет. специально обрезал, чтобы посмотреть, за какое время это говно их обсчитает.

>Теано умер, кстати.

а тензорфлоу говно ёбанное, пусть со своим bazelем на хуй идут, раз делать нехуй, кроме как всякое говно без фатального недостатка not invented here втирать.

так что, хоть зайку и бросила хозяйка, он будет живее всех живых. По крайней мере до тех пор, пока гугл будет продолжать толкать свою уёбищную систему сборки.
Аноним 19/12/17 Втр 01:34:16  1109422
>>1109416
Тогда это нереально медленно, конечно. Где-то баг.
Попробуй питорч, базарю еще захочешь.
Аноним 19/12/17 Втр 02:21:12  1109432
>>1109422
вот только фиг его знает где. Сеть не моя - я готовую либу взял, которая всё делает и уже засветилась в статье. Ну не в теано он же.

Celeron не новый, а ещё 32х битный. Но я сильно сомневаюсь, что даже на таком целероне может так тормозить.
Аноним 19/12/17 Втр 02:28:46  1109433
>>1109432
Ненене, 50с на 10 примеров? Как самый-самый минимум в 1000 раз быстрее должно быть, селерон, не селерон.
Возможно, та либа делает что-то гораздо более тяжелое внутри. Смотри по шагам, сделай сам маленькую нейроночку по туториалу, посмотри с какой скоростью она тренируется.
Аноним 19/12/17 Втр 02:47:26  1109440
vladtepesbig-x01.jpg (45Кб, 525x557)
Мне нужен генератор портретов.
Есть что-либо готовое, или придется самому собирать коллекцию и тренировать нейроночку? Долго же.
Или лучше вообще найти генератор фотореалистичных лиц, а затем обработать переносчиком стиля для портретизации?
Аноним 19/12/17 Втр 03:01:30  1109443
>>1109440
Оупенсорс есть генератор анимешных девочек, если тебе такое подойдет. Прям портретов не видел вообще. Нвидиа сделала генератор фоток знаменитостей, но вроде не оупенсорс. Придется делать самому, скорее всего.
Для игр это было бы шикарно. Если сделаешь, выкладывай.
Аноним 19/12/17 Втр 10:24:10  1109503
orig.png (73Кб, 1200x627)
imoutodeikou25e[...].jpg (167Кб, 800x600)
Есть одна задача, она вполне нормально решается catboost'ом, если бы не одно но... решения нестабильные.

То есть я запускаю вот так
catboost-0.5 fit --learn-set "samples-catboost-2928.train.tsv" --test-set "samples-catboost-2928.test.tsv" --column-description "samples-catboost.column.tsv" --loss-function "CrossEntropy" --custom-loss Precision,Recall --train-dir "samples-out-CrossEntropy-0.1-6-20-28" --thread-count 5 --snapshot-file snapshot.model.bin --iterations 20 --depth 6 --l2-leaf-reg 28 --learning-rate "0.1" --fstr-file fstr.tsv --fstr-internal-file fstr-internal.tsv

Делаю так 10 раз, переименовывая папки, и у меня получаются модели, которые совершенно по разному обсчитываются на тестовой выборке. Где-то очень хорошо, где-то хуже. Очевидно, что в одном случае модель уходит в over fitting, в другом нет.
Я меняю depth (6 & 9), iterations, learning-rate, l2-leaf-reg, loss-function (между CrossEntropy & LogLoss). И обсчитываю каждую пермутацию параметров 10 раз, но если модель себя правильно показывает на тестовой выборке, я прекращаю обсчёт и перехожу к следующей пермутации.

Правильно ли я понимаю, что можно использовать ту модель, которая хорошо себя показывает на тестовой выборке или мне нужно поделить данные на 70%/20%/10% и тестировать каждую модель отдельно на 20% выборки и отдельно на 10% и только при обоюдных успешных тестах — использовать модель? Или полученные модели вообще нельзя использовать, потому что хорошие тесты это просто совпадения, а модели очевидно всегда в оверфите?
Аноним 19/12/17 Втр 10:30:47  1109504
>>1109503
> catboost-
Что-то от яндекса? А с нормальным софтом типа deepboost или xgboost такие же проблемы?
Аноним 19/12/17 Втр 10:39:25  1109509
>>1109504
Я начал с xgboost, но он меня подвёл кое в чём, поэтому сейчас трахаюсь с catboost'ом, но принципы-то одни и те же
Аноним 19/12/17 Втр 11:29:58  1109524
>>1109509
А тебе из каких-то соображений именно бустинг нужен? Мб там SVM с регуляризацией достаточно или чего-то в этом роде.
Аноним 19/12/17 Втр 11:45:37  1109528
>>1109524
данные специфичные. Но мб SVM и сработает
Аноним 19/12/17 Втр 12:17:29  1109542
z418n47aat401.jpg (185Кб, 1046x1420)
вы уже опоздали Аноним 19/12/17 Втр 12:33:35  1109547
Hype-Cycle-Gene[...].png (148Кб, 1152x768)
Ваши попытки потратить пару лет на вкатывание в нейронки обречены на провал. Через два года IT-пузырь родит новый хайп и вам снова придется переучиваться. Ведь рыночку всегда нужно не то чему вы учились предыдущие два года.
Аноним 19/12/17 Втр 15:32:01  1109590
>>1109085
> рабовладелец
Я победил в игре "найди хохла"! Ты "галеру" забыл упомянуть
Аноним 19/12/17 Втр 17:12:09  1109628
Посаны, я тут подумал, а ведь сыгранные парти по-сути ничем не отличаются от лейблов в обучении с учителем. Массив ходов - батч, награда - правильный лейбл для всего батча.
Аноним 19/12/17 Втр 17:13:08  1109629
>>1109628
>,по сути,

фиксую
Аноним 19/12/17 Втр 17:19:21  1109634
>>1109547
>Ваши попытки потратить пару лет на вкатывание в нейронки обречены на провал
Так и есть.
>Через два года IT-пузырь родит новый хайп
Уже рождается. Просто до вкатывальщиков на зекаче волна еще не докатилась. Помогать этому я конечно не буду
Аноним 19/12/17 Втр 17:22:18  1109636
>>1109542
Поясни картинку и что там на иероглифах. Хули, cnn, rnn, caffe не обязательно значат диплернинг.
Аноним 19/12/17 Втр 17:26:35  1109640
>>1109634
Семен, плиз. Следующий хайп в IT - обучение роботов с ИИ, а дальше уже конец, гибель человечества.
Аноним 19/12/17 Втр 17:32:46  1109641
>>1109640
а как же веб 4.0 на носимых устройствах
Аноним 19/12/17 Втр 17:36:07  1109642
>>1109640
>Семен, плиз
С чего ты решил что я семен, мань?
> Следующий хайп в IT - обучение роботов с ИИ, а дальше уже конец, гибель человечества.
Рановато ему гибнуть, ну и тебя не смущает твой вскукарек, исходя из того что пока промышленное производство редукторов, сервоприроводов и прочей релейтед хуйни для роботов в предзачаточном состоянии? Кроме darpa и пары исследовательских центров этим никто в мире массово не занимается.
Да и хипстеров с подворотами, скачущих по хайповым направлениям, аки твоя матушка по хуям, в обучение роботов не пустят.
>гибель человечества
Ссыканул на всякий случай в любителя примитивных киноштампов.
Аноним 19/12/17 Втр 17:40:19  1109644
caffe.JPG (26Кб, 672x138)
>>1109636
>что там
Там в комментах все верно переведено. Это китайская разновидность индийских программеров на C++.
Аноним 19/12/17 Втр 17:40:26  1109645
>>1109640
>Следующий хайп в IT - обучение роботов с ИИ
ах ну да, все предыдущие хайпы позорно слиты. тот же ocr ох какое дно, не грворя о более сложных вещах.
Аноним 19/12/17 Втр 18:05:53  1109654
постойте постойте. но я только нампи накатил, а вы уже говорите, что хайпа нет.
Аноним 19/12/17 Втр 18:13:17  1109655
вот вы говорите "хайп хайп пузырь сдуется". а посмотрите, как серьезные дядьки пляшут вокруг околоайтишных хайпов.
аж специальность в универы хотят вводить "спец по биткам" лел.

Участники также предлагают Минобрнауки России рассмотреть вопрос разработки и внедрения стандарта профессиональной квалификации «Специалист в сфере блокчейн – технологий».
https://gov-news.ru/%D1%80%D0%BE%D1%81%D0%BF%D0%B0%D1%82%D0%B5%D0%BD%D1%82-%D0%BF%D0%B5%D1%80%D0%B2%D1%8B%D0%B9-%D1%80%D0%BE%D1%81%D1%81%D0%B8%D0%B9%D1%81%D0%BA%D0%B8%D0%B9-%D0%B1%D0%BB%D0%BE%D0%BA%D1%87%D0%B5%D0%B9%D0%BD-%D0%BF%D0%B0%D1%82%D0%B5%D0%BD%D1%82-%D0%BF%D0%BE%D1%8F%D0%B2%D0%B8%D1%82%D1%81%D1%8F-%D0%B2-%D0%B1%D0%BB%D0%B8%D0%B6%D0%B0%D0%B9%D1%88%D0%B8%D0%B5-%D0%BC%D0%B5%D1%81%D1%8F%D1%86%D1%8B/
Аноним 19/12/17 Втр 18:15:36  1109656
>>1109641
>а как же веб 4.0 на носимых устройствах
Все последние годы веб упорно стремился в тонкие клиенты, а десктопные приложения превращались в сайты. Скоро конвергенция нахуй, а за ней пустота.
>>1109642
>промышленное производство редукторов, сервоприводов
Речь шла про хайп в АЙТИ.
>любителя примитивных киноштампов
Никаких Терминаторов и восстания ИИ, у среднего человека просто деградирует интеллект ниже критического уровня с очень нехорошими последствиями в условиях урбанизации и высокой плотности населения.
Аноним 19/12/17 Втр 18:26:35  1109657
>>1109655
Вот подтверждение тезиса, что люди тупеют. Интеллектуальная элита - айтишники, повелись на МММ в блокчейне.
Аноним 19/12/17 Втр 18:28:13  1109659
>>1109657
>илита
>айти
>Россия
Аноним 19/12/17 Втр 18:54:21  1109663
>>1109657
>Интеллектуальная элита - айтишники, повелись на МММ в блокчейне.
Айтишники повелись только тем что начинают внедрять блохчейны в любое говно за сотни тысяч долларов. Я бы не сказал что они тупые.
Аноним 19/12/17 Втр 23:22:31  1109727
>>1109503
это говно на 32х битах пашет? майкрософтовское говно собралось, но как пашет её не пробовал.
Аноним 19/12/17 Втр 23:28:09  1109729
>>1109547
это всё равно что сказать, что все те, кто обучился программированию опоздал. Но ведь это не так. Сейчас это совершенно необходимый навык, нужный каждому. Завтра (уже вчера на деле) к набору этих базовых навыков добавится ML. Кто не осилит - пойдёт на хуй. Кто осилит - не будет чем-то выдающимся из-за этого.
Аноним 19/12/17 Втр 23:29:57  1109730
>>1109634
qc?
Аноним 19/12/17 Втр 23:33:12  1109732
1379-eded0708df[...].jpeg (406Кб, 788x949)
>>1109727
> на 32х битах пашет?
> 2017
Аноним 19/12/17 Втр 23:33:34  1109733
>>1105645
>Вернее, понравилось бы, если бы они понимали английский.
Нейронки местных Антонов настолько плохи что они не могут в ингриш?
Аноним 19/12/17 Втр 23:35:41  1109735
>>1109729
Кому "каждому"? Люди школьную программу осилить не могут, а он про программирование говорит.
Аноним 19/12/17 Втр 23:44:32  1109740
>>1109730
В реальном мире qc нереализуемо.
Аноним 19/12/17 Втр 23:46:26  1109741
>>1109729
Ну и нахуй он нужен кажому? Я бы посмотрел как ты будешь тете зине на кассе объяснять что без навыков писать код она нинужна.
Аноним 19/12/17 Втр 23:50:04  1109744
>>1109741
Ей это хозяин кассы объяснит, очень доходчиво, пинком под зад.
Аноним 20/12/17 Срд 01:30:18  1109787
Есть что нибудь на жабе для неронок?
Аноним 20/12/17 Срд 01:51:40  1109791
>>1109122
бамп
Кстати что проще и сойдет для такой задачки PyTorch или Keras ?
Аноним 20/12/17 Срд 02:48:25  1109797
>>1109791
Керас проще для простых моделей, питорч для сложных.
Аноним 20/12/17 Срд 13:36:33  1109951
>>1109068
Покопался все-таки немного с этой задачей ради интереса. Сложно, не осилил сделать нормально. Тут кто-нибудь пробовал?
Аноним 20/12/17 Срд 14:13:32  1109973
>>1109951
ZOG Invest, плиз
Аноним 20/12/17 Срд 14:38:10  1109980
>>1105498 (OP)
Насколько правда, что вкатиться нельзя уже?
Аноним 20/12/17 Срд 16:03:45  1110005
Если кто MT занимается, помогите инвалиду.

Все пишут, что у них, там на WMT такого-то года BLEU такой-то. Я иду на сайт соревнования http://www.statmt.org/wmt15/translation-task.html и вижу там в тест-сетах только по одному референсному переводу, на чем они BLEU считают? Правда на одном референсе или я просто плохо ищу?
Аноним 20/12/17 Срд 16:05:47  1110007
>>1109973
Я к ним не буду подаваться, скорее всего, даже если сделаю это задание. Контора слишком мутная. Просто интересно, смогу ли. Там немного замаскированная задача про торговлю на рынке, и у меня не вышло побить их бенчмарк. Вот и спрашиваю, вдруг кто-то смог.
Аноним 20/12/17 Срд 16:13:16  1110013
>>1109657
но ведь это чиновники повелись на хайп вокруг блокчейнов.
Аноним 20/12/17 Срд 18:01:52  1110094
>>1109980
99,(9)
Аноним 20/12/17 Срд 18:16:48  1110097
>>1110094
Нахуй тогда тред?
Аноним 20/12/17 Срд 18:28:14  1110098
>>1110097
Для тех кто уже вкотился.
Аноним 20/12/17 Срд 19:42:36  1110134
maxresdefault.jpg (48Кб, 1280x720)
>>1110098
Аноним 20/12/17 Срд 21:16:34  1110189
>>1109980
заебали, попробуй хеллоуворды, если зайдет то продолжай, работу найдешь, этож IT, тут хайпы умирают только среди хипсторов, если оно пришло в энтерпрайз, то протянет еще долго. Если не зашло - нехуй и продолжать, ты же не хочешь ненавидеть то чем занимаешься большую часть времени ?
Аноним 20/12/17 Срд 22:03:05  1110196
Все, посаны, кажется я понял как сделать генеральный искусственный интеллект.
Аноним 20/12/17 Срд 22:19:04  1110201
Гайз, а среди вас есть труЪ машлернеры?
которые конкурсы выигрывали, какие-то охуенные решения разрабатывают что-то в этом духе.
Или только на двощах пиздите дохуя?
Аноним 21/12/17 Чтв 01:22:32  1110234
>>1110201
Есть.
Аноним 21/12/17 Чтв 02:36:31  1110249
>>1109735
ну так давайте равняться на всяких недоумков.
Аноним 21/12/17 Чтв 02:52:19  1110257
Я охреневаю. Это просто пиздец. Каждые авторы либ выёбываются как могут.

sklearn.preprocessor - если есть хоть один nan или None бросает ошибку. И разрабам похуй, тикет уже много лет висит. А мне нужно именно с пропущенными переменными - методы обучения отсутствующие переменные обработают.

patsy - лютый пиздец. во-первых коверкает имена и даже отображения старая колонка <-> новые колонки не предоставляет. Ладно, с именами можно ещё вручную поебаться, хоть и заёбывает конкретно, но ... блять, во-первых имена каждый раз разные в зависимости от фаз луны, а во-вторых наборок колонок бывает разный, и не остаётся ничего, кроме полного перебора, обёрнутого в try - except. А без патси нельзя - делает то, что sklearn.preprocess делать отказался. А ещё в этом дерьме почему-то число строк во взодной матрице отличается от числа строк выходной. Но ещё большие проблемы возникают, когда пытаюсь сделть предсказание по регрессии. Ето дерьмо ругается на входной вектор, типа не те типы.

lifelines - либа типа нормальная, но что-то регрессия Кокса выдаёт сумасшедшие результаты.

xgboost - почему-то делает одно дерево глубиной 3 на 4х категориальных переменных, хотя я предоставил дофига численных.

короче, как мне со всем этим говном совладать?
Аноним 21/12/17 Чтв 03:01:49  1110263
>>1110257
Успокойся и нормально почитай доки прежде чем юзать либу. По тому что ты написал не увидел чтобы авторы где-то выебывались
Аноним 21/12/17 Чтв 07:04:59  1110278
>>1110234
ну так поделитесь достижениями, а то такое ощущение что тут одни школьники сидят и пиздят
Аноним 21/12/17 Чтв 07:46:09  1110280
>>1110134
вкотиться могут те кто еще десять лет назад вкотился в матан и прочее.
то есть опция вкотиться есть, но не для всех.
Если ты не из этих, то сорри братан
Аноним 21/12/17 Чтв 08:18:24  1110282
>>1110280
Двачну. И ведь это совершенно очевидно, но нет, никто из них не засядет за матан. Так и будут тут стенать.
Аноним 21/12/17 Чтв 08:20:52  1110283
>>1110278
Достижениями делятся на конференциях, в крайнем случае на реддите. Здесь просто потрепаться, обсудить новости или какие-то непонятные вещи. Это же анонимный форум, чувак.
Аноним 21/12/17 Чтв 08:36:35  1110286
>>1110283
Ну тогда расскажи чем занимаешься, как вкотился, какой бэкграунд.

Мимо тоже интересно
Аноним 21/12/17 Чтв 09:15:18  1110293
>>1110283
ну если он анонимный, то хуле тебе будет есть ты в одном сообщении с деанонишься. ты же фото с флажком в жопе не выкладывал в itt
Аноним 21/12/17 Чтв 10:49:21  1110313
>>1110257
> короче, как мне со всем этим говном совладать?
Использовать R вместо пистонопараши. Как вариант, можешь и дальше содомировать хуиту, не могущую даже в корректную обработку nan ов.
Аноним 21/12/17 Чтв 14:55:26  1110387
>>1110313
вот r - это и есть хуита хуит. Чтобы решить такую простую задачу, как парсинг числа из строки (число в хексе) пришлось конкретно заебаться. Выяснилось, что в r из коробки этого нет, после чего язык был послан по адресу.
Аноним 21/12/17 Чтв 16:48:05  1110457
CuPT7glXQO4.jpg (104Кб, 570x960)
А что за история с байесианцами?
Аноним 21/12/17 Чтв 17:01:08  1110467
gopher.png (39Кб, 222x238)
>>1105498 (OP)
Ух ты, Go даже тут рулит, педалит и нагибает! А они мне говорили: язык для дебилов, язык для дебилов. Вон, уже просторы нейронных сетей во всю бороздит!
Аноним 21/12/17 Чтв 17:21:02  1110472
>>1110467
Чушок, вернись в свой загон. В машобе рулит, педалит, нагибает и будет продолжать с++ и биндинги на пистон. Все остальное не более чем игрушки(разве что r еще). Я посмотрю как ты свою парашу будешь юзать на мобилках и полностью переписывать современные промышленные решения лишь бы можно было корутинами в жепу поебстись.
Аноним 21/12/17 Чтв 17:23:01  1110473
>>1110467
Хотя наверное ты просто шутканул про первую пикчу, а я пропиздоглазил. Но тем не менее видал goвнарей с похожими заявлениями.
Аноним 21/12/17 Чтв 17:23:36  1110475
>>1110472
Тогда почему твоих чудокрестов даже на графиках ОПпика нет? Ммм? Соснул, крестоблядь?
Аноним 21/12/17 Чтв 17:25:41  1110477
>>1110473
больше похоже что он сам лажонул
Аноним 21/12/17 Чтв 19:51:50  1110532
IMG4614.JPG (2126Кб, 3648x2736)
Посаны, как сделать нейросеть, чтоб она классифицировала моих куколок по размеру - крупные (справа), средние (слева), мелкие (по центру).
Придется размечать начальные фотки вручную?
Аноним 21/12/17 Чтв 20:40:18  1110548
>>1110532
Я один не вижу разницы между этими червями (что слева, что справа, что по центру)?
Аноним 21/12/17 Чтв 20:41:37  1110550
>>1110467
Смешная шутка.
Аноним 21/12/17 Чтв 20:52:09  1110564
>>1110532
Даже для этого вопроса тебе нужно их разметить, т.к. я в упор не вижу никакой разницы между теми, что справа, слева и по центру.
Аноним 21/12/17 Чтв 21:19:31  1110588
IMG4618.JPG (379Кб, 3045x1727)
>>1110548>>1110564
А разница есть, но на глаз классифицировать сложно, поэтому и нужна автоматизация.
Аноним 21/12/17 Чтв 21:26:55  1110596
>>1110588
Допустим у нас есть готовая программа, которая однозначно классифицирует твоих червей смотри конкурсы про тюленей и сортировку рыбы. Что ты дальше будешь делать с результатом классификации? Сортировать их по баночкам?
Аноним 21/12/17 Чтв 21:45:06  1110608
>>1110532
На глаз не проще? Из пушки по куколкам воробьям. У тебя же не конвейер. CNN, object recognition, вот ето всё. Только тебе дохуя примеров надо самому разметить
Аноним 21/12/17 Чтв 21:46:52  1110612
>>1110532
Ты отвратителен, анон
Аноним 21/12/17 Чтв 21:48:07  1110613
>>1110596
>Что ты дальше будешь делать с результатом классификации? Сортировать их по баночкам?
Вы таки победитель "битвы экстрасенсов"?
А так да, мелких сразу в корм, крупных селекционировать, средних для поддержания текущий популяции.
Аноним 21/12/17 Чтв 21:55:34  1110622
IMG4621.JPG (3274Кб, 3648x2736)
>>1110548
>>1110596
>>1110564
>червей
И да, это не черви, а куколки. Черви на пике
>>1110612
Щито поделать десу, мои вкусы очень специфичны.
Аноним 21/12/17 Чтв 22:05:41  1110635
>>1110613
Так раскладывать все равно руками, там и определишь. Или как ты это себе представляешь? Если мечтаешь о роботизированной системе, лучше сразу забудь. Там работы на годы будет для целой команды специалистов.
Аноним 21/12/17 Чтв 22:26:59  1110651
>>1110613
>А так да, мелких сразу в корм, крупных селекционировать, средних для поддержания текущий популяции.
Думаю в твоем случае задачу стоит решать механическим способом. Как на заводах сортируют овощи, орехи и прочее. Сито разноячеестые и т.д.

Какое научное название твоих насекомых?
Аноним 21/12/17 Чтв 22:59:26  1110665
Поблевался с треда.
Аноним 21/12/17 Чтв 23:03:16  1110668
сука этот индус украл мою идею, собрал под нее инвесторов и воплощает ее в жизнь.
http://droicelabs.com/
как же печет.
Аноним 21/12/17 Чтв 23:22:17  1110686
>>1110668
ща он полечит нейронками индусов и их станет как литовцев
Аноним 21/12/17 Чтв 23:42:44  1110699
>>1110686
Они вообще-то на рашкованьках обкатывать технологию будут. Там в вакансиях требование русского языка есть.
Аноним 21/12/17 Чтв 23:45:35  1110700
>>1110699
>рашкованьках обкатывать технологию будут
до, до
Аноним 21/12/17 Чтв 23:51:47  1110702
>>1110668
>индус
>Aleksandr Makarov
>Mayur Saxena
>Harshit Saxena
>Tasha Nagamine
Аноним 21/12/17 Чтв 23:54:57  1110705
>>1110702
вайт хет кекера Ashanideepta Bhattacharya забыл
Аноним 22/12/17 Птн 06:38:50  1110786
>>1110705
>Deep is a certified white-hat hacker (version 7).
>ГДЕ МОЙ ТРЕТИЙ УРОВЕНЬ ОБАЯНИЯ И СВИНЬЯ ДЕВЯТОГО УРОВНЯ СУКИ БЛЯДЬ????????
Это к ним вебмакака решила внедриться и украсть модель? Вангую что эта модель появится очень нескоро.
Аноним 22/12/17 Птн 12:48:07  1110908
>>1110668
Watson с той же идеей уже лет 10 IBM пилит. А идея она довольно простая. Даже я на первом курсе хотел написать какую-нибудь базу данных с картами пациентов, чтобы врачам было удобнее смотреть какие лекарства помогли, а какие дали осложнения, и чтобы более точно диагнозы ставить. Конечно я хочет чтобы это потом всё в нейроночку да с AI, но тогда я даже не знал как к этому подступиться.
Аноним 22/12/17 Птн 13:09:56  1110932
>>1110532
Дрочишь на них?
Аноним 22/12/17 Птн 13:41:39  1110959
>>1110622
>>1110588
>>1110532
В чем твой профит с этих червей?
Аноним 22/12/17 Птн 14:15:16  1110978
imgcatsmobdotco[...].jpg (166Кб, 960x640)
>>1110651
Крупных и средних довольно мало, сетке скомить фотку, она подсветит подходящих по размеру, а дальше собрать их вручную. Это здорово облегчило бы жизнь,
Сито не пойдет - орехи круглые, а насекомые неправильной формы.
Называются "Tenebrio molitor"
>>1110959
Вкусная и здоровая пища 250 руб/100 грамм.
Аноним 22/12/17 Птн 14:18:00  1110981
>>1110978
>250 руб/100 грамм.
Ну нахуй. Мраморная говядина гораздо дешевле. Я понимаю, если бы твои черви полтос за кило стоили.
Аноним 22/12/17 Птн 15:31:08  1111026
>>1110978
Да они на вкус как мел. Не сказал бы что такие уж вкусные. Пробовал как-то жаренных в тайланде.
Аноним 22/12/17 Птн 15:37:18  1111030
>>1110978
>>1111026
ФУУУУУУУУУУУУ
самый мерзкий тред в разделе
Аноним 22/12/17 Птн 15:39:01  1111033
>>1111030
Это ещё что, дауны сверху вообще про нейронки говорили.
Аноним 22/12/17 Птн 17:02:50  1111085
>>1110981
Еще пару лет назад я их продавал по 400р/100 грамм, но появились пидорасы-конкуренты - цены снизились, объемы упали.
>>1111026
Я конечно знаю, что они съедобны, но за те годы, что их держу так и не удосужился попробовать. Продаю их как корм для животных - хомячки, попугайчики, игуаны там, лемуры всякие. Хотя их уже и в святой Европке едят.
Аноним 22/12/17 Птн 17:31:50  1111106
uakYOINNypQ.jpg (40Кб, 604x302)
>>1111085
>пару лет назад я их продавал по 400р/100 грамм, но появились пидорасы-конкуренты - цены снизились, объемы упали.
Несколько лет назад в /ne был тред, чувак гровил крупных жуков на продажу, он там писал, что в атмосфере с повышенным содержанием кислорода они пиздец крупные растут.
Аноним 22/12/17 Птн 18:22:27  1111123
>>1111106
ну так несовершенство дыхательной системы - основной ограничитель предельного размера насекомых
Аноним 22/12/17 Птн 18:35:41  1111128
Это домашних питомцев тред? Я хочу начать выращивать каких-то милашек, чтобы не требовали много регулярных усилий и все жили в ламповой мобильной коробочке.
Аноним 22/12/17 Птн 18:38:38  1111129
>>1111128
прыщи
Аноним 22/12/17 Птн 18:40:58  1111132
smallbro.jpg (6Кб, 180x166)
>>1111128

Попроси Бабушку с пенсии купить тебе томагочи.
Аноним 22/12/17 Птн 19:21:31  1111152
>>1111128
>выращивать каких-то милашек
коноплю вырасти
Аноним 22/12/17 Птн 19:25:22  1111156
>>1110532
а что это за червячки? сделой сито с разными дырками или трубу через которую им нужно проползти, так и отсеишь.
Аноним 22/12/17 Птн 19:29:35  1111158
Замечу, что так и заканчивались все нейронко треды, начиналась ни с чем не связанная хуита
Аноним 22/12/17 Птн 20:03:39  1111168
>>1111158
Потому что, наверно, все задачи,которые можно решить нейронками, проще решить методами уровня >>1111156.
Аноним 22/12/17 Птн 21:58:10  1111217
Какой фреймворк наиболее удобный для программирования через c++? cntk, tf?
Аноним 22/12/17 Птн 22:15:21  1111227
Аноны, хочу машоб и нейроночки брать на диплом, посоветуйте несложную тему, я ещё не вкатился.
Аноним 22/12/17 Птн 22:18:32  1111232
>>1111227
>посоветуйте несложную тему
сортировка червячков
Аноним 22/12/17 Птн 22:33:40  1111245
>>1111217
Есть несколько фреймворков, поддерживающих кресты. Посмотри здесь, например:
https://github.com/tiny-dnn/tiny-dnn/wiki/Comparison-with-other-libraries
https://github.com/josephmisiti/awesome-machine-learning
Лично я бы, будучи привязанным к крестам, взял бы tiny-dnn, если не нужен ГПУ, и Darknet, если нужен.
Аноним 22/12/17 Птн 22:37:19  1111248
>>1111227
Совсем уровня туториала - распознать мнист. Далее можешь усложнить. Например, пусть на картинке неколько цифр, и нужно определить их количество и распознать. Хардмод - если цифры могут пересекаться. Можно добавить шум. Используй какие-нибудь передовые методы из относительно свежих статей, и будет норм для диплома, да и в сиви потом хорошо пойдет.
Аноним 22/12/17 Птн 22:52:10  1111260
>>1111248
Я до мая смогу осилить это?
Аноним 22/12/17 Птн 22:53:29  1111263
>>1111248
Я сейчас вот что прохожу
https://github.com/Yorko/mlcourse_open
Аноним 23/12/17 Суб 01:08:14  1111300
>>1111260
Я не знаю, слишком много факторов. В принципе это возможно. Посоветуйся с научником.
Аноним 23/12/17 Суб 07:35:39  1111332
Почему kaggle и прочие не ограничивают вычислительную сложность решений? Получается в итоге, что петухи с фермами из титанов выигрывают, и никакого прогресса в нейронках.
Аноним 23/12/17 Суб 09:18:46  1111340
>>1111332
Геморно проверять. Прогресс в нейронках не их дело, им главное показать, какая точность в принципе возможна. Далее заказчик сам разберется, на какой компромисс по вычислениям/точности он готов пойти.
Аноним 23/12/17 Суб 12:29:56  1111394
>>1111332
>никакого прогресса в нейронках.
Там и не будет никакого прогресса, т.к. это асимптотически-эффективные алгоритмы. Вапник еще в 60х годах за это пояснил с математическими пруфами, сейчас мы просто наблюдаем это на практике - у кого фермы из титанов / кластеры больше, тот и крут. Умным людям и 50 лет назад было очевидно, что все эти индусско-хипстерские игрища - путь в никуда.
Аноним 23/12/17 Суб 12:51:13  1111400
>>1111394
Как же ты заебал своим вапником.
Аноним 23/12/17 Суб 13:37:40  1111422
>>1111400
Страдай, хуле.
Аноним 23/12/17 Суб 17:50:39  1111503
>>1111332
>петухи с фермами из титанов выигрывают
Манямирок неосилятора. Ты всегда можешь объединиться в команду с тем у кого есть лишнее железо, если у тебя есть годные идеи. Но у тебя идей-то нет.
Аноним 23/12/17 Суб 17:52:08  1111505
>>1111503
Пол мира дрочит на биток. Хотя могли бы протеины высчитывать например. Обьединение не имеет смысла пока не несёт профита.
Аноним 23/12/17 Суб 17:52:45  1111507
>>1111505
Ясно. Ты теоретик.
Аноним 23/12/17 Суб 17:55:37  1111508
>>1111507
Ну последний комент мой, а я мимопроходил. Так что жди пока тот анон ответит.
Аноним 23/12/17 Суб 19:44:29  1111541
>>1111503
Суть объединения в команды - либо нарастить мощность железа, либо собрать ансамбль из моделей, что опять-таки равносильно увеличению мощности железа. Здесь нет никаких новых идей, это не прогресс, это заведомый тупик. А соревнования в нынешнем виде этот путь поощряют. Это неправильно.
Аноним 23/12/17 Суб 20:03:32  1111549
>>1111541
>команды зло, все по одному
>это не прогресс
>Это неправильно
>я так скозал
Аноним 23/12/17 Суб 20:18:37  1111552
piston.jpg (11Кб, 460x437)
>>1111541
Аноним 23/12/17 Суб 23:28:07  1111610
Искусственный интеллект где же он? Где технологическая сингулярность?
Аноним 24/12/17 Вск 00:35:36  1111620
>>1111610
мдауш
Аноним 24/12/17 Вск 00:45:50  1111623
>>1111552
https://ru.wikibooks.org/wiki/%D0%9B%D0%B8%D1%81%D0%BF/%D0%A4%D1%83%D0%BD%D0%BA%D1%86%D0%B8%D0%B8
>>типа Си или Пёрла
я ща умру
Аноним 24/12/17 Вск 02:29:35  1111639
sampleef57a4605[...].jpg (471Кб, 850x583)
Посоветуйте, пожалуйста, интересные источники на тему почему ИИ может или не может приблизиться к человеческому интеллекту и самосознанию, с чисто детально технической точки зрения современных светил машинного обучения и датаслесарей попроще.
Аноним 24/12/17 Вск 05:56:47  1111662
>>1111639
Для того, чтобы хотя бы подобраться к правильной формулировке вопросов, тебе предстоит многое изучить. Можешь начать с "Plato's Camera: How the Physical Brain Captures a Landscape of Abstract Universals" Черчленда.
Аноним 24/12/17 Вск 10:40:17  1111692
>>1111639
https://scisne.net/a-1003
Коротко: программирование в текущем виде - детская хуита
Аноним 24/12/17 Вск 12:47:27  1111726
>>1111692
>Невозможно написать программу для машины Тьюринга или любой другой универсальной вычислительной машины, которая была бы способна имитировать работу человеческого мозга и, таким образом, имитировать в любых ситуациях поведение человека. Этот аргумент можно сформулировать и несколько иначе, в виде утверждения, что человек обладает способностью решать алгоритмически неразрешимые проблемы
Нейросеть обладает возможностью решать алгоритмически неразрешимые проблемы. При том что нейросеть тоже алгоритм. Остальное можно не читать.
Эти ссаные философы ни в чем не разбираются, но лезут во все области науки. Гоните философов, насмехайтесь над ними.
Аноним 24/12/17 Вск 14:35:45  1111758
>>1111726
>в любых ситуациях
Ты читаешь через слово?
Аноним 24/12/17 Вск 14:43:24  1111763
>>1111662
Спасибо, начну с этого. Можешь составить небольшой список?
>>1111692
Как-то да, учитывается только что программирование это выполнение конкретных инструкций без способности обучаться, что уже устарело.
Аноним 24/12/17 Вск 15:37:42  1111789
>>1111758
А в чем проблема-то? Нейросеть работает с любыми данными на входе, значит обработает любые ситуации. Уж точно не хуже человека, который в нестандартных ситуациях тупит практически всегда.
Аноним 24/12/17 Вск 16:03:49  1111793
>>1111789
Ты как себе представляешь ансамбль сеток для всего? Это какие вычислительные мощности нужны?
>тупит практически всегда
Ага, первое время. А потом очень быстро адаптируется.
Аноним 24/12/17 Вск 16:19:19  1111798
>>1111793
>Это какие вычислительные мощности нужны?
Ну хотя бы как у мозга человека. Или ты хочешь ИИ на 1080? Так не бывает.
Да, и нужно добиваться большей генерализации, тогда требуемый объем сеток сильно сократится, а их производительность увеличится. Это хорошо видно на человеке с развитыми логическими и аналитическими способностями.
Аноним 24/12/17 Вск 17:07:59  1111821
>>1111726
Пример алгоритмически неразрешимой задачи, которую спообен решить человек или нейросеть?
Аноним 24/12/17 Вск 17:51:52  1111836
>>1111821
Это вопрос к Гёделю, с чего он взял, что такие задачи есть
Аноним 24/12/17 Вск 21:36:08  1111924
Поделитесь хорошим списком рецептов/советов для трейна нейросетей.
Аноним 24/12/17 Вск 22:18:00  1111934
>>1111924
Не трогать их, идти подскакивать кабанчиком в бизнес.
Аноним 24/12/17 Вск 22:48:25  1111965
R хорошая технология? Можно даже не просматривать на питон?
Аноним 24/12/17 Вск 23:04:44  1111967
>>1111965
>на питон
смотря на чей
Аноним 24/12/17 Вск 23:10:02  1111970
>>1111965
И то, и другое, это обертка вокруг сишных библиотек, разницы нет.
Аноним 25/12/17 Пнд 01:42:53  1112015
>>1105498 (OP)
аноны, вопрос.

1 вот есть xgboost. Как его заставить предсказывать векторы вместо скаляров, используя одни и те же деревья, градиенты и хессианы?

2 есть ли либа для питон градиентного бустинга любой модели, а не только деревьев, если я предоставлю градиент и гессиан?
Аноним 25/12/17 Пнд 01:44:09  1112017
>>1111965
говно. по неюзабельности обошла матлаб.
Аноним 25/12/17 Пнд 01:46:02  1112018
>>1111503
а вот меня не хуй послали, сказали "ты хочешь майнить битки на нашем компе, на хуй пошёл", хотя я им реально объяснил, что не для битков, а для нейросети.
Аноним 25/12/17 Пнд 02:12:40  1112028
>>1111965
Лучше пистона в разы.
Аноним 25/12/17 Пнд 02:41:23  1112032
>>1112015
1. Никак. Кроме того, в предсказаниях не используются градиенты и хессианы.
2. Не знаю посмотри sklearn. Для градиентного бустинга не нужен ни градиент модели, ни хессиан. Нужна только сама модель, т.е. функция fit, и функция потерь вместе с ее градиентом.
Аноним 25/12/17 Пнд 02:51:18  1112034
>>1111965
R это питон курильщика.
Аноним 25/12/17 Пнд 04:56:29  1112053
>>1111965
> R хорошая технология? Можно даже не просматривать на питон?
R это изначально язык обработки данных, тогда как пистон нет. Отсюда, весь машоб в Пистоне это костыли.
Аноним 25/12/17 Пнд 07:35:05  1112062
>>1112015
> 1 вот есть xgboost. Как его заставить предсказывать векторы вместо скаляров, используя одни и те же деревья, градиенты и хессианы?
Хгбуст это miso модель, множественный вход и единственный выход. А тебе нужно mimo, множественные как вход так и выход. Суть в том, что любая mimo модель представима как совокупность отдельных miso моделей, посчитанных на одних входах для разных выходов (компонент твоего вектора).
Аноним 25/12/17 Пнд 12:30:26  1112120
>>1111505
зачем эти протеины нужны? очередное биологическое ненужно же
Аноним 25/12/17 Пнд 13:00:31  1112127
Ря не нужен. Питухон хоть в мультипроцессинг без особой ебли с ооп может, чтобы ебошить итераторы на ядра.
Аноним 25/12/17 Пнд 13:12:05  1112128
14930272223891.png (773Кб, 1212x388)
>>1111965
Пора напомнить очередным ньюфажикам положение R-параши
Аноним 25/12/17 Пнд 13:31:15  1112134
>>1112128
Эх, а ведь где-то новогоднюю версию проебал. Ебаный андроид, не может в сохранение картинок на сдкарту.
Аноним 25/12/17 Пнд 16:07:19  1112185
>>1112062

>1. Никак. Кроме того, в предсказаниях не используются градиенты и хессианы.

Если я хочу дать кастомную objective function, то туториал говорит передать функцию, которая вернёт кортеж из градиента и хессиана objective функции в данной точке.

>2. Не знаю посмотри sklearn.
Спасибо, но вроде смотрел, нет.

>Для градиентного бустинга не нужен ни градиент модели, ни хессиан. Нужна только сама модель, т.е. функция fit, и функция потерь вместе с ее градиентом.

Да, но xgboost требует это. Видимо предоставление в явном виде эффективнее, чем численное дифференциирование.

>>1112062
я хочу сделать, чтобы xgboost бустил коэффициенты нелинейной регрессии.

То есть выдавал вектор коэффициентов регрессии для указанного экземпляра (вектора ковариатов). То есть вот у меня регрессия Кокса. Коэффициенты регрессии - это риск. вектор коэффициентов умножается скалярно на вектор ковариат и произведение ставится в экспоненту. Ковариаты нелинейно зависят друг от друга. Проблема тут в том, что для смеси разных страт (групп экземпляров, где работает модель кокса) эта модель может не работать - то есть коэффициенты будут разными для разных страт, а коэффициенты от регрессии на смеси страт вообще бредом будут. Истинные коэффициенты я не знаю - их и надо подобрать. Возникла идея заюзать tree gradient boosting c кастомной objective function - той же, что и для регрессии. Для регрессии всё равно нужен гессиан с градиентом, то есть функция, их считающая, уже у меня есть. Надо теперь знать, когда бить на страты. Мне кажется, что градиентный бустинг деревьев сможет разбить на страты в зависимости от ковариатов. А считать коэффициенты той же регрессией. Цель - предсказывать коэффициенты регрессии по ковариатам.

Вообще, что посоветуете? Нейронку уже пробовал, не обучается она. Да и dataset маловат.
Аноним 25/12/17 Пнд 19:33:55  1112263
>>1112185
Твоя модель выглядит вполне как нейроночка. С одним нейроном будет один набор коэффициентов, с двумя - два и т.д. Распиши математически свою модель и сам увидишь. На питорче можешь ее записать буквально так, как и на бумажке, и подгонять коэффициенты градиентным спуском. хгбуст тут ни к чему, по-моему.
Аноним 25/12/17 Пнд 21:13:29  1112333
>>1112128
Все наоборот
Аноним 26/12/17 Втр 00:45:37  1112445
>>1112263
Ещё раз посмотрел sk-learn, там действительно есть общий градиентный бустинг, погуглил и набрёл на градиентный бустинг деревьев, скрещенный с регрессией Кокса. Не уверен, что это то, что нужно, так как пока ещё не смог вывести результаты в графическом виде. Работает чертовски медленно, всё таки не xgboost, api крайне непонятное: то ему pandas.DataFrame не подходит, то даже простой numpy.ndarray не то. Видимо придётся дорабатывать напильником. Вот только результаты нуужны были ещё в прошлом месяце, а сейчас уже поздно, я просрал все полимеры.
Аноним 26/12/17 Втр 15:06:54  1112733
какая-то херня тамошний градиентный бустинг. Не может предсказать даже то, что видно невооружённым глазом по графикам при стратификации по этому признаку.

Или скорее всего я херовый data scientist. Вместо этого пихает несущественные признаки в корень деревьев. Concordance 60%. 50% - это если бы был случайный результат. Я же ожидал (не посчитано, просто угадываю) как минимум 75-90%.

Порезал лишние признаки. Если опять не осилит - пойду дальше хренью страдать.
Аноним 26/12/17 Втр 15:56:01  1112751
>>1112733
3 дерева глубиной 10 на lr 0.1 без dropoutа дают concordancce 74. Экспериментирую дальше. Поставил learning rate и dropout по 0.5.
Аноним 26/12/17 Втр 16:01:00  1112755
>>1112034
>>1112017
В питоне никто мало-мальски серьёзной статистикой не занимается. только в R
Аноним 26/12/17 Втр 16:03:28  1112762
>>1112755
ты скозал
Аноним 26/12/17 Втр 16:04:57  1112763
4 дерева, глубиной 3 learning rate и dropout по 0.5 -> concordance = 0.71
Аноним 26/12/17 Втр 16:33:59  1112770
Перепилил фиттер, чтобы юзал xgboost вместо sklearn, благо что нетрудно, так как sklearn имеет объекты с почти совместимым интерфейсом. Быстрее не стало, по моему даже стало медленнее.
Аноним 26/12/17 Втр 16:35:28  1112771
Видимо bottleneck по скорости не в деревьях, а в питоньем коде.
Аноним 26/12/17 Втр 17:01:55  1112788
Можно ли сделать такой инструмент дабы он обучал людей делать нейросети? То есть, тебе дают базу и подкрепляют задачами, и через некоторое время ты можешь приступать к серьезным нейроночкам.
Аноним 26/12/17 Втр 17:12:04  1112795
>>1112788
Слесарьплов жи.
Аноним 27/12/17 Срд 00:16:31  1112935
"АНТРОПОС — это агрегат агрегатов. Он состоит из тысячи двухсот самостоятельно работающих электронных агрегатов. Все эти агрегаты неодинаковы: все они принимают одинаковые данные, но решают их по-своему. Каждый из тысячи двухсот агрегатов создает свою картину будущего. Затем они автоматически подключаются к спормашине, то есть к машине спора. Они начинают безмолвно спорить между собой, и каждый агрегат путем логических доказательств отстаивает свой вариант будущего и в то же время, в процессе спора, вносит в этот вариант некоторые поправки. Постепенно некоторые агрегаты, подавленные логикой других, начинают выходить из игры. Когда останется только десять спорящих, в дело вступает агрегат-судья. Пока агрегаты спорили между собой, этот судья как бы слушал их, не вмешиваясь в спор, но все мотая на ус. Он вырабатывал свое мнение. От каждого побежденного в споре агрегата он брал частицу его правоты. На основании того, что он знает, судья вступает в переговоры с оставшимися десятью агрегатами и присуждает победу тому, чье мнение считает наиболее совпадающим со своим. Теперь, как понимаете, остаются два агрегата: победитель в споре и судья. Их прогнозы поступают в примирительное устройство, где вырабатывается основной прогноз."
Аноним 27/12/17 Срд 01:03:12  1112958
"АНТРОПОС — это агрегат агрегатов. Он состоит из тысячи двухсот самостоятельно работающих электронных агрегатов. Все эти агрегаты неодинаковы: все они принимают одинаковые данные, но решают их по-своему. Каждый из тысячи двухсот агрегатов создает свою картину будущего. Затем они автоматически подключаются к спормашине, то есть к машине спора. Они начинают безмолвно спорить между собой, и каждый агрегат путем логических доказательств отстаивает свой вариант будущего и в то же время, в процессе спора, вносит в этот вариант некоторые поправки. Постепенно некоторые агрегаты, подавленные логикой других, начинают выходить из игры. Когда останется только десять спорящих, в дело вступает агрегат-судья. Пока агрегаты спорили между собой, этот судья как бы слушал их, не вмешиваясь в спор, но все мотая на ус. Он вырабатывал свое мнение. От каждого побежденного в споре агрегата он брал частицу его правоты. На основании того, что он знает, судья вступает в переговоры с оставшимися десятью агрегатами и присуждает победу тому, чье мнение считает наиболее совпадающим со своим. Теперь, как понимаете, остаются два агрегата: победитель в споре и судья. Их прогнозы поступают в примирительное устройство, которое и бросает монетку."
Аноним 27/12/17 Срд 15:50:02  1113134
ttt.png (26Кб, 1000x500)
Анон, вот в сети кучи примеров анализа картинок, текстов, голоса и тд. А как дела обстоят с сухими цифрами ?

Вот допустим у меня есть пик, построен на агрегированых цифрах. Цифры у меня все есть, как агрегированые так и нет. Я хочу определить интервалы ступенек. Куда копать ? Ступеньки не всегда идут вверх, не всегда равны и обладают погрешностями. Куда копать ? А то судя по тому что мне гуглится, проще отрендерить такую же картинку и натравать на нее один ихз примеров. Ну и да, простой алгоритм который if-ами находит их на основе отклонения от предыдущего значения у меня уже есть, просто хочу попробовать сделать это хайповыми штуками нейронками
Аноним 27/12/17 Срд 15:51:16  1113135
>>1113134
если не отговорю себя, буду использовать Keras. Питон вроде знаю
Аноним 27/12/17 Срд 16:00:56  1113141
>>1113134
>Куда копать ?
что-то я закопался тут, сорьки
Аноним 27/12/17 Срд 16:49:52  1113160
>>1113134
>Я хочу определить интервалы ступенек. Куда копать ?
В направлении скользящих средних и отклонения от них.

И сразу вопрос, относительно чего у тебя распознаются ступеньки. На одном масштабе у тебя 8 ступенек здесь, а в другом масштабе — АДЫН СТУПЭННЫК БИЛЯТЬ.
Аноним 27/12/17 Срд 17:05:20  1113165
>>1113160
>В направлении скользящих средних и отклонения от них.
круто, пойду гуглить
>И сразу вопрос
не факт что я тебя правильно понял, но вот то что на графике это весь датасет который уйдет алгоритму, раньше/позже связаных с ним данных нет. При чем датасет может быть на временном интервале и 2ч как на пике, так и 8ч и с одной ступенью или вообще 24ч. При этом я не должен этого явно задавать. В алгоритм просто
Аноним 27/12/17 Срд 18:12:52  1113203
>>1111821
Человек способен время примерно так почувствовать.
Аноним 28/12/17 Чтв 00:55:16  1113322
Насколько легко получить работу, связанную с машинным обучением без высшего образования?
Аноним 28/12/17 Чтв 01:27:06  1113337
>>1113322
Чуть труднее чем засунуть в анус бильярдный шар
Аноним 28/12/17 Чтв 02:20:19  1113349
>>1113337
Насколько труднее? Засунуть не высунуть.
Аноним 28/12/17 Чтв 02:52:18  1113353
>>1113349
Вот прям сейчас возьми шар и попытайся запихнуть. Если сможешь - все у тебя получиться. Нет - даже не пытайся.
На самом деле и с вышкой бакалавра вкатиться практически анрил
Аноним 28/12/17 Чтв 03:14:04  1113355
>>1113353
Мне поможет опыт игр на заднем дворе и смазка, все просто.

А почему анрил-то? В треде никого работающего нет?
Я обучаемый, если что, математику уважаю.
Аноним 28/12/17 Чтв 04:40:58  1113359
>>1113355
Я сюда заглядываю практически с первых тредов. Кроме очевидных кукаретиков и парочки школокаглеров и отчисленных из ШАДа тут проскакивало только 2 работающих анона, один из них был аспирантом(хз работает ли он сейчас в мл). Зато тысячи вопросов о вкате и том какой вопрощающих супер-пупер мотивированный и нитакой как все. Максимум через месяц они куда-то отваливаются. Выводы делай сам. + Практические во всех вакансиях(зарубежных) нужен мастер, а у нас как минимум ищут синьоров с парой лет опыта работы в МЛ/ДАТАСАЕНС.
Конечно каких нибудь йоба каглеров с золотыми медалями возьмут и без диплома, но это сам понимаешь, элитка.

Моя аналогия с шаром была рассчитана на тех, кто не имеет опыта игр на заднем дворе, но походу на двачах таких таки нет за исключением меня
Аноним 28/12/17 Чтв 05:39:35  1113367
wiseman.png (331Кб, 1058x1521)
>>1113355
>В треде никого работающего нет?
Ну вот я работающий например.
Для того чтобы работать в МЛ-рилейтед области кем-то кроме оператора-размечатора нужно минимум освоить университетскую программу и въебать гору времени в самообразование. Гору - это не месяц-два позадротить с целью пройти собес, а систематически учиться, уделяя этому своё личное драгоценное время.
Всё машинное обучение - это дрочка на минимизацию функций многих параметров, без _понимания_ того что происходит внутри основных алгоритмов (для чего нужен хороший матан, линалг и теорвер с матстатом) твои занятия МЛем ограничатся сценариями уровня
- ну вот тут я свм хуйнул, а тут xgboost'ов настакал, что-то напредиктило
- а почему именно так сделал
- эээ..

Если ты не осилил учебу в вузе то вероятность что ты станешь годным спецом в мл стремится к нулю - без обид. Сейчас и в других областях можно хорошие деньги поднимать, и много где не надо для этого ебать себе мозги матаном.
Ты можешь попытаться, но предупреждаю - вероятность успеха мала. Не ведись на хайп.
Аноним 28/12/17 Чтв 18:29:10  1113521
>>1113367
вот-вот, нахуй эти нейронки нужны, когда можно веб макакингом столько же если не больше рубить.
к тому же у работающих анонов нет времени эту поебень задротить, там кучи матана, книг, накатывания либ, да и пистон со фласком ковырять фу.
Аноним 28/12/17 Чтв 20:21:12  1113550
>>1113521
У тебя странное определение нахуйнужности. Я занимаюсь МЛем потому что мне это интересно, а не потому что там платят. Исключительно ради получения большего количества бабла - да, нинужно. Само по себе - интересно и нужно.
Но про пистон конечно да, писать на этой параше что-то сложнее чем from slesarlow inport * нестерпимо отвратительно.
Аноним 28/12/17 Чтв 21:39:27  1113568
>>1113550
>Я занимаюсь МЛем потому что мне это интересно
ты ебанутый, чел. проверься у психиатра. я смотрю аниму и занимаюсь сексом, потому что мне это интересно.
Аноним 28/12/17 Чтв 22:03:51  1113573
>>1113367
Для того чтобы работать в МЛ-рилейтед области кем-то кроме оператора-размечатора нужно минимум освоить университетскую программу и въебать гору времени в самообразование.

Первых двух курсов хватит же, плюс несколько книжек специализированных.
Аноним 28/12/17 Чтв 22:04:25  1113574
>>1113359
Вкатываюсь уже полгода потихоньку, думаю, года через два-три приду к успеху.
Аноним 29/12/17 Птн 04:19:37  1113693
>>1113367
Ты неправильно меня понял. Я не "не осилил учёбу в вузе", я скорее не захотел тратить на это 4 года жизни в 21м-то веке. По баллам егэ мог подавать документы хоть в МГУ.
Но благо большинство погроммистских ваканский сейчас не требуют корочки, чисто работу найти не составляет труда.
Другое дело, что меня всё ещё интересует наука и работать над МЛ я хочу из этого побуждений, а не денег.
Аноним 29/12/17 Птн 05:20:13  1113695
>>1113359
>Зато тысячи вопросов о вкате и том какой вопрощающих супер-пупер мотивированный и нитакой как все.
О, я как раз такой, выпизднут с третьего курса ПМИ, перекатываюсь из скриптомакакинга, нихуя не шарю впрочем имею неплохой математический бекграунд, матан там, линал, тервер, матстат, замотивирован по самые помидоры. А ты тут такой кайфоломщик, говоришь мол, много вас таких по весне оттаяло.
Аноним 29/12/17 Птн 12:24:11  1113793
>>1113693
> По баллам егэ мог подавать документы хоть в МГУ.
Обосрался с этого гения.
Аноним 29/12/17 Птн 14:42:55  1113842
>>1110282
За что именно садится в матане подскажи плес.
Аноним 29/12/17 Птн 14:55:00  1113845
>>1113842
Линал, теорвер, дискретка, матстат.
Аноним 29/12/17 Птн 15:15:19  1113853
>>1113845
>матан
>линал, теорвер, дискретка, матстат
Ух, бля.
Аноним 29/12/17 Птн 16:10:35  1113868
>>1113853
Сам матан (калькулюс) само собой.
Аноним 29/12/17 Птн 23:32:52  1113989
Сап двач. Такой вопрос. Работаю в компании где занимаются компьютерным зрением. Но в другом отделе. Как это лучше выучить? Что почитать? Хочу после корочки податься.

Чего почитать, что попробовать накодить и тд?
Аноним 29/12/17 Птн 23:45:02  1113991
>>1113989
Компьютерное зрение неудачный вариант для новичка из другого отдела. Область сложная, возможностей мало, работы тоже мало, а на каждую вакансию десяток макак. Сейчас каждый школьник учит OpenCV, а потом не знает что делать с ней. Лучше попробуй Haskell. На нём и конкуренция пониже, и зарплаты больше, и сам язык понятней. Если никогда не занимался программированием, то начинать лучше всего с Haskell. Работы полно, платят отлично. По книгам. Если есть хоть немного знаний программирования, читай это: http://www.ozon.ru/context/detail/id/30425643/ Если совсем новичок, пойдет эта книга: http://www.ozon.ru/context/detail/id/28346038/ Ну и куча онлайн-учебников. Вот, например: https://anton-k.github.io/ru-haskell-book/book/home.html Хороший учебник, всё расписано подробно. Сам по нему учился. Рекомендую.
Аноним 29/12/17 Птн 23:47:45  1113995
>>1113991
Это такой толстый троллинг?

Аноним 29/12/17 Птн 23:49:28  1113996
>>1106170
Пиздец, одни тут говорят о том что ФП всех заменит, другие что нейронки. А на деле нихуя не изменится.
Аноним 30/12/17 Суб 00:32:20  1114004
1401290255369.jpg (30Кб, 680x510)
>>1113693
>Ты неправильно меня понял. Я не "не осилил учёбу в вузе", я скорее не захотел тратить на это 4 года жизни в 21м-то веке. По баллам егэ мог подавать документы хоть в МГУ.

А я не зафейлил собес в гугл, скорее не захотел тратить на него 5 лет жизни в 21м веке. Не обосрался, просто говно из жопы вывалилось, так сказать.
Баллы егэ это вообще пушка, если ты понимаешь разницу между "мог подать документы" и "получил образование".

>Другое дело, что меня всё ещё интересует наука и работать над МЛ я хочу из этого побуждений, а не денег.
Тебя не интересует наука, тебе просто кажется что ты умнее остальных и МЛ дастся тебе просто так, без усилий, а конкретно МЛ ты избрал объектом своей самореализации из-за хайпа который сейчас вокруг него есть.

Среди моих коллег абсолютно все кто хоть как-то занимается МЛем имеют минимум бакалавра/магистра или учатся на них в данный момент, причем не в шарагах а в более менее нормальных вузах. И имеют их не ради корочки.
Так что, не занимайся самовнушением - ты выбрал свой путь когда решил что четыре года опыта клепания гостевух важнее системного образования. В ушедший поезд уже не сесть.
Аноним 30/12/17 Суб 01:22:58  1114017
>>1114004
В чем смысл заниматься такой демотивацией, как ты это делаешь здесь? Боишься конкуренции и демпинга со стороны людей, которые не нюхали 5 лет пыль за партой и не будут требовать денежки за свои бесполезные титулы? Стоило сделать профиль со словом саентист, как всплыли всякие "ученые", которые хотят вернуть своему бечполезному образованию ликвидность. Вед это же не макакинг а "саенс", и их бесполезные годы в шараге вновь обрели смысл.
Без обид, просто умный человек не будт демотивировать людей на пустом месте.
Аноним 30/12/17 Суб 01:41:25  1114024
>>1114004
Тогда что посоветуешь? Накатить игор и скроллить /b/?
Аноним 30/12/17 Суб 02:06:39  1114030
>>1114017
>не будт демотивировать людей
это ты еще не знаешь, что ML к AI ни какого отношения не имеет
Аноним 30/12/17 Суб 02:36:20  1114034
>>1114030
Имеет. ML это методика программирования, для AI пока самая перспективная.
Аноним 30/12/17 Суб 02:54:50  1114040
Img1228.jpg (53Кб, 369x480)
>>1114017
>умный человек не будт демотивировать людей на пустом месте.
Разумеется. Только я не на пустом месте такую полемику начал, а строго после охуительной комбинации из "не захотел тратить 4 года жизни на учебу" (еще и сдобренное пренебрежительным "в 21м веке", будто в нашем веке модно быть долбоёбом) и "меня интересует наука".
Смысл заниматься демотивацией в том что у того анона в голове ветер а в жопе дым, возможно моя токсичность сэкономит ему немало времени. Очевидно что он ведется на около AI-шный хайп - а это путь в никуда (вестись на форсы, я имею ввиду).

>Боишься конкуренции и демпинга со стороны людей, которые не нюхали 5 лет пыль за партой и не будут требовать денежки за свои бесполезные титулы?
Мне платят не за красный диплом а за компетенцию - так что нет, не боюсь. Так же как не боюсь орд вкатывальщиков в ойти.

>Стоило сделать профиль со словом саентист, как всплыли всякие "ученые"
Тут бесспорно, пройти пол курса на курсере, натренить мобайлнет на фотках своей мамаши-шлюхи и выставить себе тайтл "саентист" - верный детектор долбоёба. Хинтон - саентист, Воронцов саентист, Вапник саентист, а я вот простой (почти) инженер.

>хотят вернуть своему бечполезному образованию ликвидность
Если для тебя любое образование - бесполезное, с тобой не о чем разговаривать. Годное системное образование (а не тир-3 шарага-"колледж" в залупинске) всегда будет ликвидно. И да, я еще не встречал случаев когда люди обучились математике (а весь МЛ суть она) по онлаен курсам или сами - это та область где нужны учителя.

>>1114024
>Тогда что посоветуешь?
Посоветую не вестись на хайп, объективно оценивать свои возможности и искать _интересную_ работу. В отличии от МЛ, быть годным в коммерческом погромировании можно (хотя и сложнее) и без специализированного образования.
Если тебе прям пиздец как хочется - устройся в мл-рилейтед компанию или проект, и посмотри что оно такое изнутри, а потом решай надо ли тебе тратить время на то чтоб долбиться в эту стену.

>Накатить игор и скроллить /b/?
В /b/ рекомендую не заходить, адекваты кончились 5 лет назад и раздел действует на психику весьма хуево. В игры можешь играть, но не много.
Аноним 30/12/17 Суб 03:09:26  1114041
>>1114040
Мое мнение об образовании - оно про российские реалии. Хорошо, если студент получит хоть какой то знание необходимых скиллов в духе линейной, статистики и прочего. Это в лушчем случае. Остальное вообще неясно зачем нужно. Может в мгу есть смысл обучаться, я не знаю, я там не учился.
Аноним 30/12/17 Суб 03:13:53  1114042
>>1114040
Согласен с тобой на 90%, но вот с этим нет:
> И да, я еще не встречал случаев когда люди обучились математике (а весь МЛ суть она) по онлаен курсам или сами - это та область где нужны учителя.
Если мы говорим о прикладном ML - для применения в своих продуктах, то там всё равно есть разделение на учёных теоретиков и инженеров/ программистов. В первую категорию без образования не попасть, само собой. Да и с образованием далеко не все с этим справятся. А вот во вторую категорию вполне себе можно пролезть, если у тебя нет проблем со школьной математикой и ты шаришь а алгоритмах (путь не топовый олимпиадник, но задачи второго дивизиона решаться уметь ты должен).

Итого, теоретики дают направление, подсказывают новые методы, следят за методологией и всё в таком духе, разработчики же разработают. По крайней мере, так это было в Яндексе.

Мне лично приходит в голову аналогия между кодерами и архиторами. Если есть скииллы и опыт, то сам сможешь вырасти, даже и без формального образования.
Аноним 30/12/17 Суб 03:16:12  1114043
original.jpg (40Кб, 250x535)
15092951653500.gif (1342Кб, 202x360)
>>1114040
Ясно. Ты недооцениваешь мою силу и детерминацию. Всего доброго.
Аноним 30/12/17 Суб 03:18:43  1114044
>>1114042
Кстати, если кому мой опыт интересен, то я в ML вкатился благодаря курсам Андрея Нг и своему опенсорс проекту по теме. В универе мне давали все эти вещи слишком теоретически, я вообще не имел понятия как всё это используется на практике. Так что, курсера сильно помогла.
Аноним 30/12/17 Суб 03:41:48  1114045
14859557394080.jpg (66Кб, 400x325)
>>1114043
>Ты недооцениваешь мою силу и детерминацию

>боевые картиночки в ответ на советы
>неспособность воспринимать критику

Есть и кое-что что я переоценил - уровень твоей культуры общения и, скорее всего, возраст.
Аноним 30/12/17 Суб 04:07:55  1114049
>>1114004
>Тебя не интересует наука, тебе просто кажется что ты умнее остальных и МЛ дастся тебе просто так, без усилий, а конкретно МЛ ты избрал объектом своей самореализации из-за хайпа который сейчас вокруг него есть.
Двачну, очень точно выразил суть вкатывальщиков, помню даже времена когда точно такое же было, но по отношению ко всяким СПАРКАМ, СКАЛЕ, БИГ ДЭЙТА.

>>1114034
Нет не имеет.

Аноним 30/12/17 Суб 04:13:23  1114051
>>1114044
Универ на самом деле дает плюшки, какой-то системный подход к обучению. Я хорошо вижу эту хуйню по друзьям, которые в шарагах не учились. С теорией там все очень хуево, да и обобщающая способность нейронок мозгов как-то слабовата, могут задрочить хорошо какие-то скилы, но в нестандартной ситуации всегда фейлят.
Ну и матан тебе универ дал какой-никакой, так что тебе легко кукарекать.
Что не отменяет того, что не топовые рашкоуниверы параша ебаная, все полезные вещи которых можно ужать до 1 года обучения.
Аноним 30/12/17 Суб 04:52:03  1114056
ecl.jpg (44Кб, 1000x405)
>>1114045
Ты просто спутал меня с классическим двачером-кукаретиком, который думает, что можно делать нихуя, а всё будет. Бывает. Ты так же пытаешься отыскать оправдание себе и своим друзьям с вузовским образованием, доказать, что в этом есть нечто стоящее. Про 21й век упомянание имело в виду то, что сейчас информации по любой теме просто до жопы, какой смысл приковывать себя к программе вуза, с неоптимальным темпом, профессорами, лишними предметами? За 4 года возможно достичь в несколько раз больших высот.
Мой изначальный вопрос вообще состоял не в том, смогу ли я интеллектуально достичь уровня среднестатического дата-саентиста, с этим проблем нет; он состоял лишь в том, насколько адекватны компании, которые берут к себе на работу этих саентистов, понимают ли они вышеуказанные тезисы про вышку или нет, дропают ли они резюме автоматически без графы про вышку или дают шанс показать себя.
Аноним 30/12/17 Суб 05:05:19  1114057
>>1114056
>дата-саентиста
поясните довну что это за хуйня? маг над данными?
мимо nlp-господин
Аноним 30/12/17 Суб 05:16:41  1114058
>>1114056
Лол, хули ты тут так мечешь и доказываешь что не верблюд? Тем кто тут давно смешно смотреть на это со стороны т.к. зекач полон такими вкатывальщиками, которые думают что сейчас УХ как начнут работать в поте лица и придут к успеху, и вообще они не эти лохи, которые поматросят и бросят через месяц, сами забивая через неделю.
Насчет твоего вопроса тебе уже отвечали выше: вышку требуют, без нее хрки сразу дропают твое резюме. Дальше будет только хуже т.к. хайп и вкатывальщиков лезет огромное количество, особенно с вышкой. Но если ты имеешь какие-то достижения за плечами типа побед в кагле или успешные репозитории на гитхабе или как-то еще заявишь о себе - могут взять и без вышки, если сумеешь пройти хрофильтр или в хр будет не девочка-нихуя-не-умею-много-о-себе-думаю, а адекватный профессионал-мужик.

Ты мог уже сам открыть бишопа и уже прочесть сотню другую вакансий и сам посмотреть. В слаке ODS вон народ сидит с вышками, пет проджектами, хорошими рейтами на кагле и не может найти работу.
Аноним 30/12/17 Суб 05:24:16  1114060
acl.jpg (6Кб, 369x136)
>>1114058
Не беда, буду тогда стендалон саентистом, тогда у меня ещё эти эйчары посмотрят.
Я ещё никогда не бросал своих начинаний.
Аноним 30/12/17 Суб 05:28:05  1114061
>>1114060
Молодец, больше дела, меньше срачей на двачах.
Аноним 30/12/17 Суб 05:46:34  1114064
ocl.jpg (245Кб, 727x1093)
>>1114061
Как это "меньше срача на двачах"?
Ты думаешь если моей целью было бы движение к успеху, я стал бы вообще постить на этой параше?
Аноним 30/12/17 Суб 05:57:09  1114066
>>1114064
Тогда ладно, я вот захаживаю сюда токмо для движения к успеху. В треде иногда годнота проскакивает.

Сука, как же заебала эта новая капча, чувствую себя сраной бесплатной нейронкой для гугла
Аноним 30/12/17 Суб 06:44:03  1114068
>>1114066
А я просто кликаю галочку "мамой клянусь, что не робот", и меня пускает.
Аноним 30/12/17 Суб 19:31:10  1114215
image.png (190Кб, 600x450)
Аноним 31/12/17 Вск 01:35:42  1114338
>>1109337
то есть если у меня есть только ноут с mx150 то это безнадега? даже для образовательных целей на пару лет до покупки гипотетического компа не вкатиться?
Аноним 31/12/17 Вск 01:48:45  1114339
>>1114004
Просто невероятно точно написано не буду скрывать я просто в шоке от того как это охеренно написано, двачую этого анона >>1114049
Аноним 31/12/17 Вск 15:05:43  1114464
>>1114066
>Сука, как же заебала эта новая капча
Какая ерония для мл треда.
Аноним 31/12/17 Вск 15:25:22  1114469
>>1105498 (OP)
Сап нейрач, пока молодой, хочу вкатиться в нейросети. Знания на уровне "слышал мемы про жаву". Интересует с чего стоит начинать чтоб в последствии работать именно с нейросетями. Реквестирую базовые мануальчики по программированию, которые могут послужить хорошей базой.
Аноним 31/12/17 Вск 15:35:49  1114473
>>1114469
Сначала выучи матан, линал, теорвер и матстат, через полгода приходи к нам снова. Без этого все программирование бессмысленно.
Аноним 31/12/17 Вск 15:39:01  1114474
>>1114469
Сначала учи математику.
Аноним 31/12/17 Вск 15:39:55  1114475
>>1114473
>>1114474
Конкретная литература?
Аноним 31/12/17 Вск 15:42:54  1114477
>>1114475
Без вуза у тебя вряд ли что-нибудь получится.
Учебники есть хорошие, но только без программы обучения у тебя ничего не выйдет.
Поэтому поступи в вуз для начала, а после 2 курса уже приходи за нейронками.
Аноним 31/12/17 Вск 15:47:04  1114480
>>1114477
Понял. Спасибо.
Аноним 31/12/17 Вск 16:21:16  1114498
>>1114480
Зорич и трехтомник Кострикина для начала.
Аноним 31/12/17 Вск 16:28:41  1114503
>>1114498
SICP начал читать. После него примусь за этих джентельменов.
Аноним 31/12/17 Вск 16:32:36  1114508
>>1114475
Начни с http://neuralnetworksanddeeplearning.com/
Всё что непонятно из математики - изучай сам по учебникам
Учить тупо всю математику не обязательно, достаточно базы чуть выше школьной
Аноним 31/12/17 Вск 16:42:43  1114512
>>1114503
>хочу в нейронки
>SICP
Зачем?
Аноним 31/12/17 Вск 16:49:15  1114516
14847438551270.jpg (101Кб, 900x598)
>>1114477
Сука, заебали со своими вузами.
Я может и физикой хочу заниматься, и биологией, мне за этим тоже в вуз вкатываться?
В конце концов, программы вузов лежат в открытом доступе. Хочешь следовать конкретному регламенту - следуй.
Что вы такие беспомощные-то.
Аноним 31/12/17 Вск 16:51:26  1114519
>>1114512
Чтоб хоть какая-то база была в программировании. У меня действительно очень абстрактное понимание как это работает. На уровне информатики школьного курса
Аноним 31/12/17 Вск 17:24:15  1114525
>>1114519
Ну ты бы хотя бы с Кнута тогда начал или Кормена, SICP - так себе начало.
Аноним 31/12/17 Вск 17:25:41  1114527
>>1114516
Но хуй тебя куда возьмут без вышки или процесса ее получения. Я вот дропнул свой топовый вуз после двух курсов, решил вкатиться в биоинформатику, но в трех НИИ меня послали из-за отсутствия образования.
Аноним 31/12/17 Вск 17:54:59  1114535
Правда ли, что нечеткая логика позволяет сделать такие нейросети, которые понятны любому школьнику?
Аноним 31/12/17 Вск 18:17:59  1114541
>>1114527
Лол, НИИ? Чтобы работать там за копейки?
Проблема решается просто - сделай что-нибудь великое в своей области, и НИИ сами будут просить тебя к ним.
Аноним 31/12/17 Вск 19:04:15  1114553
>>1114541
Чтобы сделать что-то великое тебе лет так пять нужно поработать в мле, покрутиться в этой среде с такими же знающими людьми и только потом сможешь начать делать что-то великое. Один так и будешь import tf as tf десятилетиями дрочить. Когда работаешь темп обучения раз в этак 10 больше и ебланить месяцами не получиться т.к. сроки и дедлайны.
Аноним 31/12/17 Вск 19:48:23  1114560
>>1114541
Охуенный блять совет.
Проблема решается просто - отлови бозон Хиггса, и ЦЕРН сам будет просить тебя к нему.

>>1114553
Двачую.
Аноним 31/12/17 Вск 20:48:08  1114589
>>1114560
>отлови бозон Хиггса
В бозоны очень высокий порог входа по оборудованию, у одиночки нет денег на коллайдеры.
С машобом все намного проще, нужны только видеокарта, датасет и мозги.
>>1114553
>Когда работаешь темп обучения раз в этак 10 больше
Хорошо если задачи разнотипные, а если одно и то же, но в разных вариациях? Какое-нибудь говно типа прогноза кликов на рекламу в фейсбуке.
Аноним 31/12/17 Вск 20:52:19  1114591
>>1114553
>>1114560
Ну если не можешь в великое, то лучше уж закончить универ экстерном, например, да.
Аноним 31/12/17 Вск 21:41:23  1114611
>>1114589
Для поисков бозона Хиггса тоже нужен датасет, но хуй тебе его кто даст.

>>1114591
Щас бы Физтех экстерном заканчивать.
Аноним 31/12/17 Вск 21:57:36  1114618
>>1114611
Скажешь, невозможно? Ты же уже 2 курса отучился, и уже в принципе должен основные концепты всех 4х, так что сдашь за 2 года
Аноним 01/01/18 Пнд 15:16:20  1114687
>>1114618
Я тупо не смогу 16 экзаменов за сессию сдать, бака. Да и не предусмотрена тут такая возможность.
Аноним 01/01/18 Пнд 16:25:04  1114697
>>1114611
Датасеты церна можно скачивать из открытого доступа же.
Аноним 01/01/18 Пнд 17:16:53  1114712
>>1114004
>>1114040
Ну давай разберём тобою написанное, "простой инженер". Ты же у нас в данных шаришь?
>абсолютно все
Бывают не абсолютно все?
>имеют минимум бакалавра/магистра или учатся на них в данный момент
То есть все имеют бакалавра, некоторые магистра, некоторые учатся на них в данный момент. Диаграмму Венна ещё не прошли?
>в более менее нормальных вузах.
Их даже несколько? Наверное, у каждого по нормальному вузу?

ML-инженер не мог написать такую хуйню, значит, ты не ML-инженер.
И довесочек
>Среди моих коллег
Это нерепрезентативная выборка.
>я еще не встречал случаев когда люди обучились математике (а весь МЛ суть она) по онлаен курсам или сами значит это та область где нужны учителя
Какой ты нахуй инженер. Ты школьник с максимализмом головного мозга и логикой тупой пизды.
Аноним 01/01/18 Пнд 17:18:31  1114713
>>1114477
>Без вуза у тебя вряд ли что-нибудь получится.
Ведь кататься на пары, жить в общаге и переписывать в тетрадку с меловой доски - это единственный способ выучить матан.
Аноним 01/01/18 Пнд 17:20:08  1114714
>>1114527
>Но хуй тебя куда возьмут без вышки или процесса ее получения.
В ООО "Вектор" не возьмут, конечно. В нормальную контору без проблем.
Аноним 01/01/18 Пнд 18:43:03  1114727
>>1114713
> кататься на пары, жить в общаге и переписывать в тетрадку с меловой доски - это единственный способ выучить матан.
Будешь смеяться, но да. Без надсмотрщика 99,9999% на матан забьют через месяц в лучшем случае. А если ты уберменш, способный мотивировать себя годами изучать что-то, ты не только в мле, а в чем угодно себе имя сделаешь без дяди.
Аноним 01/01/18 Пнд 18:53:26  1114733
>>1114589
>С машобом все намного проще, нужны только видеокарта, датасет и мозги.
с таким набором разве что котиков распознавать будешь всю жизнь. по нормальному мл нужно внедрять в роботехнику, вот там простор для изобретений. но в одиночку и без денех такого не осилить.
Аноним 01/01/18 Пнд 19:27:46  1114738
Почитал я ваш тред, датасаентисты мамкины, нихуя у вас не получится, вы будете вкатом в МЛ заниматься как хобби.
Аноним 01/01/18 Пнд 19:29:24  1114740
>>1114738
Раздался голос со стороны вебмакак.
Аноним 01/01/18 Пнд 19:51:42  1114746
>>1114733
>разве что котиков распознавать будешь всю жизнь
Ты котиков-то распознай нормально а не как сейчас, прежде чем за Робокопа браться.
Аноним 01/01/18 Пнд 23:26:42  1114799
>>1114712
Ну давай разберем по частям тобою написанное, "разбиратель написанного". Ты же у нас говоришь по делу?

>Бывают не абсолютно все?
Доебка до речевого оборота с абсолютно понятным смыслом.

>То есть все имеют бакалавра, некоторые магистра, некоторые учатся на них в данный момент.
А теперь перечитываешь еще раз то что цитировал, вместе с контекстом.

>Их даже несколько?
Да, представь, нормальных вузов больше одного.

>Наверное, у каждого по нормальному вузу?
Диаграмму Венна прошел? Это сейчас шестой или седьмой класс?

>ML-инженер не мог написать такую хуйню, значит, ты не ML-инженер.
ЯСКОЗАЛ, ЗНАЧИТ НЕ МОЖИТ!!1
Это феерическое НИВЕРЮ даже комментировать не надо.

Ну и довесочек:
>Это нерепрезентативная выборка.

Теперь цитируешь место где я заявлял о реперезентативности своей выборки, или прекращаешь выдавать свои фантазии за мысли оппонента.
За репрезентативной выборкой идешь нахуй ODS, CrossValidated / Quora или любой другой рилейтед ресурс, спрашиваешь людей и получаешь такой же ответ, а потом кукарекаешь о репрезентативности.

>Какой ты нахуй инженер. Ты школьник с максимализмом головного мозга и логикой тупой пизды.
Какой ты нахуй разбиратель, ты обычная порватка которая встретила мнение отличное от своего и мгновенно воспламенилась. Ах, да, еще ты животное не обученное элементарному сетевому этикету, а значит беседовать с тобой нет смысла. Довольно показательный пример того чем отличаются люди ведущие диалог от обезьян пытающихся закидать собеседника говном.

Можешь продолжать гореть.
Аноним 01/01/18 Пнд 23:39:25  1114807
>>1114746
да гугл нормально котиков распознает. а гугл капча датасет для распознавания дорожных знаков для самоуправляемых машин собирает например.
Аноним 02/01/18 Втр 00:37:24  1114823
>>1114807
ох лил
Аноним 02/01/18 Втр 08:46:45  1114891
google-photos-r[...].jpg (36Кб, 640x426)
>>1114807
>нормально распознает
Аноним 02/01/18 Втр 09:39:58  1114899
>>1114891
А что не так? Горилла и есть. Нейроночке ты не пояснишь за блек лайвс маттер, СЖВ идеалы и прочее говно.
Аноним 02/01/18 Втр 10:54:10  1114913
>>1114799
Вот это подгорело, класс. Наверняка ты не ожидал такого ушата холодной воды, когда высокомерно отчитывал вкатывальщика, да, мудачок?
Аноним 02/01/18 Втр 16:11:04  1114970
Хочу создать Искусственный Интеллект, даже нашел формулу F = T ∇ Sτ, но пока не создал. Почему так?
Аноним 02/01/18 Втр 20:13:23  1115060
>>1111033
спасибо проорался)))))
Аноним 03/01/18 Срд 02:46:35  1115162
>>1114970
>Хочу создать Искусственный Интеллект, даже нашел формулу F = T ∇ Sτ, но пока не создал. Почему так?
42
Аноним 03/01/18 Срд 17:16:06  1115374
Если я скипну объемные книги по мл с матаном и сразу стану накатывать примеры на numpy и тензорфлоу - я стану мл разрабом или преврачусь в очередную макаку?
Аноним 03/01/18 Срд 17:32:32  1115380
>>1115374
Да.
Аноним 03/01/18 Срд 21:54:25  1115496
>>1114913
>атветил значит подгорело.
Хех, посмеялся, судя по постам пылает как раз у тебя.

Мимозоонаблюдаю
Аноним 04/01/18 Чтв 02:30:03  1115580
>>1115496
>Мимозоонаблюдаю
Проиграл.
Аноним 04/01/18 Чтв 12:13:10  1115640
>>1115496
Он тя унизил, съеби уже.
Аноним 04/01/18 Чтв 17:20:53  1115733
>>1115640
Зачем ты говоришь о себе в третьем лице, гений мамкин?
Аноним 04/01/18 Чтв 18:21:17  1115763
>>1115733
Два анона срутся и оба пытаются создать видимость общественной поддержки. Ничего нового.
Аноним 04/01/18 Чтв 18:40:52  1115772
>>1115374
Как это "скипнешь"? Мл и есть по сути чистый матан
Аноним 04/01/18 Чтв 19:57:07  1115800
>>1115772
ну накодю на готовых либах известные мл алгоритмы, которые я нагуглю. не буду при этом читать объемные книги на 600 страниц матаноформул.
я сторонник практики. еще ни разу не учил программирование по книгам.
Аноним 04/01/18 Чтв 20:24:41  1115812
>>1115800
>объемные книги на 600 страниц матаноформул
Все ML описывается десятком формул, откуда там 600 страниц?
Аноним 04/01/18 Чтв 20:45:19  1115819
>>1115800
Без знания теории не будешь знать какие алгоритмы где применять, что касается чистого кодинга там справиться даже трехлетний ребенок, так что какой смысл?
Аноним 05/01/18 Птн 11:44:40  1115993
>>1115819
>справиться
Скоро уже каникулы закончатся?
Аноним 05/01/18 Птн 12:26:59  1115996
>>1115812
Бурбакизмы
Аноним 05/01/18 Птн 13:27:34  1116013
>>1115993
>доебывается к грамматике
>кукарекает про каникулы
Школьник не палится
Аноним 05/01/18 Птн 15:33:30  1116075
>>1116013
Я тоже тока на соченениях старался... а типерь я ML-инженер! Имею право писать как зохочу)
Аноним 05/01/18 Птн 15:40:43  1116077
прохожу туториал по numpy, какая-то числодробилка и массивошейкер. и где же страшный-ужасный матан, которым меня пугали в книгах по мл?
Аноним 05/01/18 Птн 15:51:30  1116082
>>1116077
Научи меня numpy и быть таким же бесстрашным.
Аноним 05/01/18 Птн 15:54:46  1116086
>>1116077
Это же питон. Всё что связано с питоном - школьное, простенькое говно.
Аноним 05/01/18 Птн 16:13:25  1116103
>>1115812
ну не 600, а 452, но они читаются так медленно с-ка.
https://doc.lagout.org/science/Artificial%20Intelligence/Machine%20learning/Machine%20Learning_%20An%20Algorithmic%20Perspective%20%282nd%20ed.%29%20%5BMarsland%202014-10-08%5D.pdf
Аноним 05/01/18 Птн 16:41:23  1116117
Так будет ли учебник по машинному обучению с йобами и мемасами?
Аноним 05/01/18 Птн 16:54:41  1116126
Анончики, киньте пак с книгами по machine learning, пожалуйста.
Аноним 05/01/18 Птн 17:45:58  1116139
>>1116126
В шапке питонотреда
Аноним 05/01/18 Птн 18:44:49  1116166
>>1116139
Добра тебе.
Аноним 05/01/18 Птн 21:56:46  1116226
Поясните за железо, пожалуйста. Моя единственная рабочая машина -- ноут (Zenbook), для своего класса устройств весьма шустрый, но ну вы понимаете. А видяхи нет вообще.

Какой самый простой практический способ обзавестись нужными мощностями? Отдельную ферму под это собрать? Какое железо брать? Есть какой-нибудь внятный гайд по таким практическим вещам?

Если что, сейчас мне это нужно только для своих экспериментов. Играть с тензор-флоу, запускать новую йобу с гитхаба.
Аноним 05/01/18 Птн 22:38:04  1116231
Кто может посоветовать литературу по самообучающимся системам, где описывается проблематика их создания? сорян, если вопрос тупой
Аноним 05/01/18 Птн 22:57:42  1116246
>>1116226
AWS гугли и не еби себе мозги кошелёк, если только для экспериментов. Там и триал есть вроде как.
Аноним 05/01/18 Птн 23:17:24  1116256
>>1116246
AWS я знаю само собой, я про железо спрашиваю. Эксперименты это не значит, что это мне на полчаса нужно.
Аноним 06/01/18 Суб 04:46:09  1116318
>>1116226
https://pcpartpicker.com/user/kevindewalt/saved/2br999
Это примерно средний вариантец. Я собрал за 2100 урезав на том и на сем. Главное 32+ Гб памяти, 1080ти, и процессор из верхнего сегмента.
Аноним 06/01/18 Суб 05:28:17  1116322
>>1116318
>2100
пендоляров за кудахтер? ты ебанулся. потом такой прийдешь, я тут вам нейроночку спроектировал, на роспазнование двух цветов, вам нужно всего лишь ;50000 на серваки
Аноним 06/01/18 Суб 05:58:34  1116327
>>1116318
Я так понимаю, ты это используешь как десктоп. Есть подводные камни при использовании в качестве хедлесс машины по ssh? Необходимость какой-нибудь ебучей винды, например. Меня ноут в качестве инструмента вполне устраивает. Я, если честно, вообще рассчитывал, что смогу отделаться рекомендациями в стиле покупки внешней видяхи к ноуту, ну да ладно.
>>1116322
Ты кокойто прям студент. Знал бы ты, сколько любая мало-мальски приличная организация тратит в месяц на сервера. А от затрат на рекламу вообще охуел бы.
Аноним 06/01/18 Суб 07:26:48  1116343
>>1116327
Да, у меня это десктоп. Хедлесс еще лучше будет, наверное, т.к. загруженность ГПУ не будет помехой в работе - у меня сейчас все ацки тормозит, если ГПУ нагружен на 100%. У меня АМД, там нет встроенной видюхи на ЦПУ.
Внешние карточки я смотрел - так и не понял что там с дровами, совместимостью. Почти наверное не оче. А вся эта экосистема с кудой на линуксе и так как карточный домик, пока все заработает пять раз их переустановишь. Это на самой стандартной конфигурации, если там что-то экзотическое, то какая-то безнадега будет, видимо.
Аноним 06/01/18 Суб 15:19:53  1116441
>>1116103
Хорошая книга?
Аноним 07/01/18 Вск 02:08:26  1116729
Так посаны. Обучите сеть сложению. Подайте на первый вход в двоичном виде 32 бита и на второй 32 бита данных, на выходе получим 32 бита суммы. Данных у нас дохуища. Получится обучить?
Аноним 07/01/18 Вск 02:25:49  1116731
1515277515371.jpeg (2Кб, 225x225)
>>1116729
https://habrahabr.ru/post/301536/
Аноним 07/01/18 Вск 03:35:58  1116749
>>1116731
Мог бы и на 2-ух слойной сети проверить.
Аноним 07/01/18 Вск 05:11:15  1116758
>>1116729
Конечно, получится. Только архитектура сети должна быть правильной.
Аноним 07/01/18 Вск 10:32:19  1116787
Анончик, есть на русском книги хорошие об этом чтобы вкатиться? Готов купить бумажную версию. Я ангельский более менее знаю, но мне кажется не настолько хорошо чтобы понять такую тему, плюс там наверняка много математических терминов или подобного.
Аноним 07/01/18 Вск 14:43:33  1116880
Создайте уже ИИ дабы он решил все проблемы
Аноним 07/01/18 Вск 15:38:14  1116891
>>1116880
Уже создаем ИИ которое создает ИИ, которые создают ИИ, которые решают проблемы. Жди.
Аноним 07/01/18 Вск 20:20:53  1117019
>>1112128
поясните эту картинку !!
Аноним 07/01/18 Вск 20:57:08  1117030
ml.jpg (157Кб, 1390x986)
>>1116880
Еще чуть чуть ручки гиперпараметров подкручу и создам.
Готов ли ты к приходу такого ИИ?
Аноним 08/01/18 Пнд 04:09:49  1117130
>>1116787
https://www.piter.com/product/glubokoe-obuchenie
Аноним 08/01/18 Пнд 06:37:02  1117153
Может кто подсказать, как генерятся ground truth изображения для сегментации? Только ручками размечать?
Аноним 08/01/18 Пнд 09:14:40  1117178
>>1112128
хуле R-мakaque в таком хуевом качестве ?
Аноним 08/01/18 Пнд 09:21:43  1117179
>>1117019
http://actuary-info.blogspot.ru/2011/05/homo-actuarius-bayesianes.html
Аноним 08/01/18 Пнд 19:26:55  1117442
Знатоки, поясните, пожалуйста, за TPOT - почему датаслесари ещё не идут массово в KFC?
Аноним 08/01/18 Пнд 19:34:50  1117446
>>1117442
>не идут массово в KFC?
почему не идут, идут?
Аноним 08/01/18 Пнд 21:45:32  1117502
Если задрочить только курсы и какие то проекты учебные для портфолио, реально ли вкатиться, если нет IT вышки?
Или им нужны дипломы ВШЭ МФТИ и подобные?
Аноним 09/01/18 Втр 16:05:51  1117782
Чем можно визуализировать гиперпараметры после рандом серча? Если их больше трех? Или как это теоретически сделать, я могу попробовать сам написать.
Аноним 09/01/18 Втр 22:40:19  1117955
Почему сетки пишут на питоне?
Аноним 09/01/18 Втр 22:50:38  1117962
>>1117955
Очень удобно, под себя.
Аноним 10/01/18 Срд 02:56:05  1118037
>>1117782
А тебе зачем их визуализировать?
Чисто гипотетически, ни разу не видел, чтобы структуры данных больше трёх измерений изображали сколь бы то ни было приемлемо.

Можно поизвращаться с тепловой картой, где в каждом квадрате будет несколько цветовых градиентов, но чтобы такое "из коробки" было - не видел, да и информативность решения сомнительная.

Проще в табличке отсортированной смотреть, имхо.

>>1117955
Потому что просто, много библиотек и развитое коммьюнити.
Аноним 10/01/18 Срд 05:31:37  1118046
>>1118037
> ни разу не видел, чтобы структуры данных больше трёх измерений изображали сколь бы то ни было приемлемо.
Карты Кохонена, проекция Сэммона? Ах да, нимодно.
Аноним 10/01/18 Срд 20:36:18  1118335
Какой питон подучить, чтобы поиграться с машинным обучением, 2 или 3?
Аноним 10/01/18 Срд 22:25:40  1118427
>>1118335
Разница минимальная, за написание новых поделок на втором питоне нужно принудительно лишать невинности.
Аноним 10/01/18 Срд 22:29:05  1118429
В комнате есть два компьютера, как быстро и безболезненно распаралелить обучение сеточки на оба? А если добавить компьютер одноклассницы и ноутбук знакомого принца из Нигерии?
Аноним 11/01/18 Чтв 02:17:14  1118529
>>1118429
#мапридьюс, #спарк, #ашдвао
Аноним 11/01/18 Чтв 02:21:11  1118530
>>1118429
ебашь horovod
Аноним 11/01/18 Чтв 10:17:37  1118602
>>1117962
А то что он медленнее моего бати?
Аноним 11/01/18 Чтв 14:02:53  1118674
hype.jpg (77Кб, 1412x618)
Уже второй месяц хайп сдувается. Ждите новый маркетинговый высер IT-индустрии. Снова нужно будет переучиваться.
Аноним 11/01/18 Чтв 14:06:25  1118677
>>1118674
Хайп сдувается с 70-х. Переучивай фреймворки каждый месяц, вебмакака, и не мешай большим дядям играться с интересными вещами.
Аноним 11/01/18 Чтв 14:10:03  1118678
fp.JPG (58Кб, 1176x612)
>>1118677
>большим дядям
Много видеокарт-то уже закупил? Тренд-то уже тютю. Скоро будет новый.
Аноним 11/01/18 Чтв 15:49:02  1118719
>>1118678
Много. Не убивайся так, когда-то и ты может быть сможешь позволить себе купить хоть одну топовую.
Аноним 11/01/18 Чтв 18:11:51  1118780
>>1118674
Лол, новый хайп всегда на готове. Ты думаешь просто так в последнее время лохчейны, смарт контракты и прочие криптохуитки форсили? Посмотри на гитхабе сколько уже кода насрали. Так что готовь свой анус к финансовому матану, а вапника с бишопом можешь оставить на помоечке.
Аноним 11/01/18 Чтв 21:25:50  1118845
1515694958039.jpg (25Кб, 740x1008)
Под андрюху нашёл восхитительное приложение Neural Network simulator. Можно почувствовать себя крутым. Рекомендую.
Аноним 11/01/18 Чтв 22:50:57  1118858
Чет я поплыл немножко, прошу совета мудрого. GA, GP и GL к каноничному ML относят или нет?
Аноним 12/01/18 Птн 12:00:09  1118976
Есть ли какие-нибудь хреновины для моделирования нейросетей по типу инструментов в матлабе? Желательно, что-то бесплатное inb4 наивный
Аноним 12/01/18 Птн 12:41:29  1118986
>>1118976
Выучи уже питон, плебей. Там все что хочешь можно.
Аноним 12/01/18 Птн 13:54:13  1119011
janvranovsky (2[...].jpg (250Кб, 1280x1307)
>>1105498 (OP)
Возможно ли непогромисту вкатится в сабж и тренить свою домашнюю сеточку?
Интересует чисто в качестве художественного доводчика-обработчика фоток.
фотошоп-кун
Аноним 12/01/18 Птн 13:59:23  1119013
>>1119011
прикалываешься ? тут не каждый программист может, а уж тем более какой-то сраный гуманитарий
Аноним 12/01/18 Птн 14:25:48  1119020
>>1119011
Лол, конечно нет. Как ты себе это представляешь, сидишь такой, говоришь сеточке "ну кароче зделой збс, вот тебе пикчи, СИДИ, ТРИНИРУЙСЯ"?

Тренировать сетки это сам по себе роект саенс граничащий с магией перебора: нужно знать как тренировать, что скармливать сетке, какую сетку использовать, какую структуру. На каждом из этих этапов нет каких-то четких инструкций. Но самое главное тебе нужно смочь представить то что ты хочешь в формат чисел и операций над ними что само по себе нетривиальная задача, а в применении к ХУДОЖЕСТВЕННОЙ ДОВОДКЕ фоточек это вообще за гранью.
Аноним 12/01/18 Птн 14:51:01  1119034
>>1119020
>>1119013
Печалька, че. Буду ждать нейросетей, которые пишут свои нейросети для прикладных быдло-задач.
Аноним 12/01/18 Птн 15:10:33  1119045
>>1118986
Да хоть на на фортране. Меня интересуют примеры.
Аноним 12/01/18 Птн 15:21:05  1119049
Что будет в перекате?
Аноним 12/01/18 Птн 15:38:15  1119061
>>1119034
>нейросетей, которые пишут свои нейросети для прикладных быдло-задач.
Зочем? Проще и логичнее ждать когда сириус бизнес натренирует правильно сеточки для плебса и обернет это все в привычные вам приложения с ползунками и кнопками "make pizdato". Это как если бы ты ждал пока фотошоп или винду напишет сама программа, а не люди.
Аноним 12/01/18 Птн 15:43:52  1119065
>>1118335
Второй питон выключают через два года
Аноним 13/01/18 Суб 08:03:50  1119305
https://arxiv.org/abs/1801.03526
А вот уже реальный капец кодеркам наклевывается.
Аноним 13/01/18 Суб 10:11:21  1119318
>>1119305
>We benchmark our algorithm, called priority queue training (or PQT), against genetic algorithm and reinforcement learning baselines on asimple but expressive Turing complete programming language called BF.
Хачеиндусы ас ис, дальше можно не читать. Сделали хуйню и рады. Главное, на полпроцента объебали генетическое программирование. Вся суть хипстеров-дегенератов с коворконгов и барбершопов. Родина дала типизированную лямбду, нет не хотим. А скорее всего, просто не слышали. Генетическое программирование потому и проебалось, что сколько-нибудь сложная программа на любом ЯП - неподъемная комбинаторная задача даже для новомодных видюх и кластеров из них, которые используются бородатыми пидорами. Единственный вариант хоть как-то это упростить - лямбда, где выражение любой сложности это просто дерево из абстракций и аппликаций. И никакой диблернинг тут вообще не нужон, нужно специализированное железо (FPGA, асики). Короче, статья - говно их жопы, авторы - хуесосы со смузи.
Аноним 13/01/18 Суб 10:35:14  1119320
>>1119318
Неплохой у тебя в голове коктейль из комплексов, зависти и отчаяния.
Аноним 13/01/18 Суб 14:59:10  1119394
image.png (560Кб, 1000x737)
Может кто подскажет где взять или подкинет более-менее свежий датасет с покупателями, купившими какой-либо товар, чтобы там реальные данные были типо пола и возраста? Что за товар не важно.
Аноним 13/01/18 Суб 21:51:19  1119587
>>1119394
На кагле посмотри, там были соревнования с покупателями. Не знаю, можно ли скачивать данные с закончившихся соревнований.
Аноним 14/01/18 Вск 13:41:09  1119802
осторожно, платина!

Есть ли в тренде успешные дата сцаентисты/машинообучаторы/сотрудники гуглов и яндексов? Каков был ваш жизненный путь?

Хочу вкатится в область на полшишечки, ибо есть одна прикладная задача, которую возможно имеет смысл решать нейросетями, а не простейшей статистической моделью. Правда, на текущем месте работы мне все равно никто мои идеи не даст реализовать, так что я собираюсь сделать это скорее для себя / потенциальной смены работы на более интеллектуальную и высокооплачиваемую.

Карочи, есть ли среди вас кто-нибудь, кто использует/пишет нейросети для прогнозирования спроса/продаж в ритейле? Или хотя бы любых других временных рядов? Есть ли уже готовый софт, который это делает параша которую используют в нашей говноконторе не умеет даже сложные статмодели строить.
Аноним 14/01/18 Вск 21:43:31  1120037
>>1105498 (OP)
Господа нейроночковцы, что из математики нужно для того, чтобы ощущать себя достаточно комфортно в области?
Аноним 14/01/18 Вск 22:31:37  1120061
>>1120037
По первой ссылке из шапки все объясняется.
Аноним 15/01/18 Пнд 04:42:21  1120146
>>1120037
Линал
Калкулус, векторный калкулус
Теорвер, матстат
Численные методы
Логика
Теория хаоса
Аноним 15/01/18 Пнд 05:09:42  1120150
>>1120146
>Теория хаоса
Ась? Она-то где? Там не нужны топология и физика? Я в нейронках не особо прошаренный, если что. По-моему, больше пригодиться базовая теория игр, которая под GANами лежит.
мимохуй
Аноним 15/01/18 Пнд 05:25:48  1120151
На слак ODS стоит вкатиться? Или реддита достаточно? Предвзято отношусь к рузге сообществам всё скатывается в пиздецовый офтоп.
Аноним 15/01/18 Пнд 09:42:33  1120179
>>1120151
Потому и оффтоп, что такие как ты пишут хуйню.
Половина тредов вопросы "чо почитать?". Башорг почитайте блять.
Аноним 15/01/18 Пнд 09:52:42  1120187
Какие годные магистратуры по данной тематике можете посоветовать?
Аноним 15/01/18 Пнд 09:53:11  1120188
>>1120187
В СНГ офк.
Аноним 15/01/18 Пнд 09:55:29  1120189
>>1120187
>магистратуры
лол, там же не учат нихуя, бери сразу аспирантуру
Аноним 15/01/18 Пнд 10:01:29  1120192
>>1120189
После бакалавриат можно сразу в аспирантуру?
Аноним 15/01/18 Пнд 10:02:03  1120193
>>1120192
Бакалавриата*
Аноним 15/01/18 Пнд 10:02:45  1120194
>>1120192
вроде как можно, но я сам в магистратуру пошел ради откоса и потому что учиться не надо сообо, сейчас вот уже сам думаю про аспирантуру немного поздно блят
Аноним 15/01/18 Пнд 10:04:33  1120195
>>1120194
Ну от армии я уже откосил. Так что пофиг. А аспирантуру можешь посоветовать нормальную по тематике?
Аноним 15/01/18 Пнд 10:07:16  1120198
>>1120195
я - нет, может тут есть еще знающий анон, но сомневаюсь
Аноним 15/01/18 Пнд 16:00:03  1120334
>>1109547
Двачую, нейронок уже хайп спадает, ближайшее несколько лет будет править БЛОКЧЕЙН. Спецы сейчас уже нарасхват идут за оверпрайс.
Аноним 15/01/18 Пнд 16:05:45  1120337
>>1120334
для нейронок хотя бы применение есть, каое применение блокчейна ? Там же геометрическая зависимость от количества транзакций, если они вырастут то никакого трафика не хватит и места на винтах
Аноним 15/01/18 Пнд 17:00:27  1120356
>>1120187
В Вышке аж две - науки о данных и статистическая теория обучения. Насчет второй не знаю, но первая годная, друг рассказывал, что ребята, которые плохо шарили в МЛ, здорово так там прокачали себя.
Аноним 15/01/18 Пнд 17:01:44  1120357
>>1120356
Что за вышка?
Аноним 15/01/18 Пнд 18:54:30  1120411
>>1120357
Если ты не можешь это загуглить, тебе не стоит заниматься МЛ.
Аноним 15/01/18 Пнд 20:25:51  1120460
>>1120357
Высшая мера наказания. Расстрел, то есть. Просветление через смерть
Аноним 17/01/18 Срд 01:21:49  1121047
chrome2018-01-1[...].png (97Кб, 1092x617)
анон, хули уже так сложно? Можно как-то вот без этого всего, а?
Аноним 17/01/18 Срд 02:36:56  1121057
>>1121047
>простейшая хуйня
>хуле уже так сложно
Земля тебе пухом, братишь.
Аноним 17/01/18 Срд 02:46:06  1121058
Анон, как xgboostить многоклассовую классификацию (даже после 10к итераций подбора гиперпараметров случайным поиском), если классы несбалансированы и есть пропуски? Из-за пропусков не могу заюзать imbalanced_learn, imputting - не вариант
Аноним 17/01/18 Срд 09:32:15  1121114
>>1121047
Уровень первой половины первого семестра. Еще и разжевывается все, чтобы даже до тугодума дошло, почему и как.
>>1121058
хгбуст должен и так все съесть, сырым. Если не работает, то данных просто слишком мало. Используй аугментацию для расширения датасета, например.
Аноним 18/01/18 Чтв 14:35:47  1121687
>>1105498 (OP)
Приветствую.
Сам в нейросетях ничего не понимаю, кроме всяких там градиентных спусков и всего такого.
Вопрос такой:
Есть мок страницы, хочу научить нейросеть строить из этого мока JSON объекты определенной структуры, только они довольно сложные.
Так вот, с чего начать? Если в обработке изображений и прочем там матрицы и все-такое, то в вопросе как научить нейросеть строить объекты даже не знаю с чего начать.
т.е. Изображение -> объект.
Может быть подойдет что-то другое, не нейросеть. Не знаю.
Спасибо.
Аноним 18/01/18 Чтв 16:00:42  1121761
>>1121687
Нихуя не поняно что ты хочешь, пиши конкретнее и понятнее пидор
Аноним 18/01/18 Чтв 16:04:04  1121767
При работе с лицом, хотя бы симметрию задайте, количество глаз итп
Аноним 18/01/18 Чтв 16:05:48  1121768
>>1121767
Короче, предлагаю задать жёсткие каркасы (от; до) для разных вещей, поезда, лица, коты, а ИИ чтобы потом свою шизофрению вкладывал в эти каркасы, "раскрашивал", так скажем.
Аноним 18/01/18 Чтв 16:57:18  1121817
>>1121761
у меня есть, скажем, PSD макет или просто изображение мокапа страниц и я хочу этот мокап представить в виде жсона (точнее представление уже есть, просто надо научить этому комп)
например:
Изображение ->
{
Form1:{
children:[{
Button_1...,
TextField1...,
}]
}
}

Т.е представить страницу в виде древовиднойструктуры
Аноним 18/01/18 Чтв 17:05:11  1121824
Сука, какого хрена никто не перекатил до сих пор? Лимит уже пять дней.
Аноним 18/01/18 Чтв 17:36:25  1121860
ПЕРЕКАТ >>1121858 (OP)
Аноним 19/01/18 Птн 02:51:29  1122221
>>1121817
Это уже реализовали же, нет?
Аноним 19/01/18 Птн 10:23:18  1122297
>>1122221
хз
я перекатился в новый тред
если реализовали, то хотелось бы побольше инфы
если ты о pix2code, то там строится сразу страница, а мне кастомный объект нужен
Аноним 12/02/18 Пнд 01:28:17  1137212
image.png (15Кб, 337x153)
Поясните ньюфагу, чем все перечисленное на пике отличается друг от друга? Прочитал вроде каждую статью, но разницы между ними особой не увидел. И к какому типу относятся нейронки?

[Назад][Обновить тред][Вверх][Каталог] [Реквест разбана] [Подписаться на тред] [ ] 536 | 53 | 168
Назад Вверх Каталог Обновить

Топ тредов
Избранное