нейроночка - массив
>>1036439 (OP)Может, и мандада тогда тоже мосив?
>>1036469но тогда мондадо - нейроночка
И че, мне надо умножать вектор на массив и все будет заебись, нейроночка будет думать?
>>1036662ну да, так мозги и работают же
Пытаюсь разобраться, но там какие то формулы ебанистические, даже толком не объясняется что это. При том что вышка техническая у меня есть (инженегр) и математика мне знакома с курса университета.Реквестирую материалы для вката, кстати
>>1036662А тебе не похуй какой моделью создавать закономерности? В голове вроде как тоже веса. Интересно было бы понять алгоритм их настройки.
Как вкатиться в обучение с подкреплением?
>>1037131https://github.com/vkantor/MIPT_Data_Mining_In_Action_2016 лекции 7, 8, 9
>>1037165Ух ты! Как много красивых картинок! А какие инструменты используют? Слесарьплов уже не подходит? Нужно тензор2тензор или еще что-то?
>>1037205https://www.quora.com/What-frameworks-are-available-for-reinforcement-learning
Посоны. Поясните мимокрокодилу:1. В каких журналах обычно публикуются топовые статьи по машинному обучению?2. Если смотреть на теорию, а не на практику. Это скорее статистика, или все же математика?(да, статистику как бы не считаем математикой)3. Та математика, которая используется, теоретиками машинного обучения она узкая и специфическая именно для этой отрасли, или эти теоретики они вполне себе математики не хуже других?
>>10374661. arxiv.org2. Статистика3. Не узкая и не специфичная.
>>1037468Т.е. алгебра если и нужна, то минимально, а всякие геометрии так вообще нахуй не нужны?В статистике есть движение вперед, прогресс, открытия? Или это все полумертвое?(без подвоха, я правда не в теме)
>>1037484Никакой алгебры (она нигде не нужна), никакой геометрии (это не геймдев), в статистике никакого движения вперед, всё полностью мертвое.
>>1037485Что-то мне подсказывает, что ты надо мной издеваешься, ну да ладно. Другой вопрос. Я слышал, что два самых годных научных центра(в РФ) по этому вашему машинному обучению это ВЦ РАН и ИППИ, так ли это? они занимаются одним и тем же, или у каждого своя специфика? это один уровень, или какой-то из них все же более годный?
>>1037487Не издеваюсь, это так.Хз, я не в курсе развития машобчика в россии, статей с архива и так по горло хватает.
>>1037490Не очень тебя понимаю. Машобчик развивается? Наверное развивается. Значит должны быть люди, которые двигают соответствующую теорию. Но, как можно двигать то, что по твоему мертво и новых результатов нет?
>>1037491> Машобчик развивается? Машобчик сейчас это скорее не про науку, а про технологию обработки данных, никакого существенного левел-апа в теории не было уже лет 5.
>>1037493Хоть что-то про науки о данных развивается? Ну там дата майнинг или биг дата, ну или как там у вас это назвается. Последние левел-апы в теории были сделаны с помощью ученых занимающихся статистикой, или чем?
>>1037495Появилось много всяких-разных данных/датасетов => нейросеточки стали обучаться эффективнее. Последние левел-апы делали специалисты по нейросетям/сomputational_statistics.
>>1037498Т.е. сейчас все довольно стабильно, медленный рост качества, ничего нового? Есть хотя бы намеки на то, что в какой-то сфере может быть прорыв?
>>1037499Сейчас очень много людей в машобе (на реддите уже больше 100000 подписчиков на r/machinelearning), тема очень модная, так что всё возможно.
>>1037501Я правильно понял, что эта такая вещь в себе относительно слабо связанная с разными науками как статистика, математика и тд и тп?
>>1037502Нет, почему, статистику важно знать очень плотно + немного матана.
>>1037503Вот-вот. Сейчас по сути то, что мне было узнать важнее всего. Т.е. есть очень немного матана, который надо бы знать. А если знать больше? Это бесполезно в машобе? Применение есть только у ОЧЕНЬ ограниченных разделов матана?
>>1037504Нэ, 1-2 курс матана максимум, ничего специфического.
>>1037506Даже если мы говорим не о практиках, а о теоретиках?
>>1037506Ок, спасибо, бро
>>1037507Ну теоретики специализируются на статистике, теории алгоритмов + мультидисциплинарство (биология, лингвистика) в почёте.
>>1037509кроме биологии и лингвистики есть распространенные варианты?и, теперь уж точно последний вопрос: если есть желание не спеша вкатиться с нуля, в качестве средства заняться свободное время, с чего начать?
>>1037511Ну хз, любые науки где есть биг дата.Если с нуля, то лучше всего курсы от яндекса на курсере, потом читаешь туториалы к популярным библиотека по машобу (keras, tensorflow) и гуглишь непонятное.
лет 5 назад уровень хайпа был существенно меньше чем сейчас?тожемимопроходил
>>1037515Даhttps://trends.google.ru/trends/explore?date=today%205-y&q=%22machine%20learning%22
>>1037511>кроме биологии и лингвистики есть распространенные варианты?Экономика, обработка сигналов, социология
>>1037493>>1037498Кроме теории статистического обучения никаких левел-апов и не будет. В нейроночках осталось только слои наращивать.
>>1037487>ВЦ РАН и ИППИ>они занимаются одним и тем же?В ВЦ РАН умножают матрицу на вектор и раскладывают тензор. В ИППИ ищут минимум функции.
>>1037844А для человека не знакомого с темой, можно как-то попонятнее?
>>1037888> А для человека не знакомого с темой, можно как-то попонятнее?>В ИППИ ищут минимум функции:>Лаборатория №10 Интеллектуальный анализ данных и предсказательное моделирование проект по минимизация массы композитной боковой панели болида «Формулы-1» на основе данных натурных экспериментов и данных вычислительных экспериментов с соответствующей физической моделью.>наука сырьевой криптоколонии в 2017 году
>>1037956ВЦ РАН лучше, или те же яйца?
>>1037985Что лучше-то?В ИППИ до недавнего времени работал Юрий Нестеров -- один из ведущих исследователей в мире по выпуклой оптимизации. Сейчас он уже в Бельгии.Про ВЦ РАН не знаю ничего, но думаю полдюжины нормальных ученых там еще осталась.Только все это нафиг никому тут не нужно. Публикации, препринты, цитирования. Нахер оно все надо.Будете облегчать композитную боковую панель на субподряде или считать загрузку такси в Яндексе. Ничего более осмысленного делать криптоколонии не положено.
>>1038001А в цивилизованном мире какие научные центры самые годные?
Сейчас максимальный индекс Хирша из тех кто остался в ИППИ равен 31. У Нестерова 50 -- умные люди оттуда съебывают:https://scholar.google.com/citations?view_op=view_org&hl=en&org=135524506371074591У ВЦ РАН нет странички, но походу самые высокоцитируемый там Воронцов.https://scholar.google.com/citations?user=KIW4fnsAAAAJ&hl=en
>>1038006https://scholar.google.ru/citations?view_op=search_authors&hl=ru&mauthors=label:machine_learningЧитайте Вапника короче. Круче него никого нет. Плюс все ранние книги написаны по-русски. Плюс отдельная книга с кодом на Фортране.
>>1038019Круче Вапника в МЛ и правда нет никого, только местное быдлецо этого не понимает. И на английском он не сложнее, чем на русском. Вот только код на фортране точно не нужон, в плане практики лучше почитать про запиливание вручную SVM на слесарьплове или в R с помощью тамошних солверов квадратичных задач типа quadprog.
Нейроаноны, есть-ли какие-нибудь методы для регрессии, когда таргет задается не значением, а верхней и нижней границей? Т.е нужно чтобы моя функция лежала внутри границ, но может и не лежать внутри для некоторых выбросов. Типо пикаТолько есть проблема, границы очень разные, т.е у одного значения это может быть 100±10, а следующего 70±50. В этом случае среднее считать почти бессмысленно.
>>1038352>когда таргет задается не значением, а верхней и нижней границей?Нечетким числом, то есть. Есть, конечно, нечеткие аппроксиматоры никто не отменял. Но тута это не модно, Ын, Сутскевер, Лекун и прочие бородатые хипстеры на коворкингах не одобряют.
>>1038352Бери среднее значение )))
>>1038352>>1038478Ой, не дочитал до конца.Почему нельзя делать две регрессии, для минимальных и максимальных значений?
>>1038352Не понимаю в чем проблема. По сути у тебя функция двух(если границы заданы нормальным распределением) переменных или трех переменных (если надо отдельно указывать нижнюю грань, верхнюю грань, среднее).Строй приближение функции нескольких переменных и все.
>>1038480Лол я даун. Сорри.
>>1036439 (OP)Почему Эндрю Нджи берёт за ошибку последнего слоя error = a - y, хотя я обычно вижу error = (a-y)*g'(z)
>>1037131Зарешай тетрадочки отсюда:https://github.com/yandexdataschool/Practical_RLКогда разбершься, регайся на openai.com и начинай фигачить игоры из gym.openai.comЕще советую глянуть на policy gradient strategy и feudal(hierarhical) reinforcment learning. Три интересные статейки на тему:https://arxiv.org/abs/1611.01626https://arxiv.org/abs/1703.01161https://arxiv.org/abs/1707.06203
Можно ли хранить логи в нейросети? И что из этого выйдет?
>>1039629Не очень понял зачем и как, но, судя по всему, вам нужны автоэнкодеры:https://en.m.wikipedia.org/wiki/Autoencoder
Господа, насколько сложно обучить нейросеть генерировать уникальный контент для сайтов по заданным ключевым словам, т.е. чтобы на выходе были полноценные статьи по заданной тематике по 2-3к знаков каждая, к примеру. Читал на хабрепараше про рекуррентную нейросетку, но там все ограничивалось описанием товаров, отзывов и т.д. Нужно что-то типо http://shir-man.com/gienierator-istorii-k-fotoghrafiiam/ или https://apparat.cc/news/rnn-ai-science-fiction/ ну это уже пиздец круто как по мне:-) Алсо, сам вебмакака и нихуя не знаю матана, насколько реально хотя бы что-то похожее реализовать? Просто где-то год назад анон здесь писал про нейросети, что они уже в состоянии романы писать, ну в контексте того что люди ужеинахуй не нужны будут, биомусор короче:-)
>>1040383>полноценные статьи по заданной тематике по 2-3кэто пока невозможно
>>1040383>насколько сложно обучить нейросеть генерировать уникальный контент для сайтов по заданным ключевым словамОчень. Текст-то генерировать несложно но только он бессвязный выходит.>что они уже в состоянии романы писатьПостмодернистские разве что, лол.
А кто-то пытался обучить нейросеть блиссимволике? Ведь, по сути, нейросеть чем-то подобна на ребенка с ДЦП.
Есть кто на ICML? Заебался в номере хекковать.
>>1040383Ишь ты, кокой хитрый. Нагенерить миллионы текстов и впаривать копирайтерам с сотен левых акков. Нет, братюнь, не выйдет у тебя зарабатывать по одной-двум хатам в день. Максимум получишь нечто уровня https://twitter.com/neuromzan
>>1040590Запили нам фоточки с конфы. Кенгуру там или что вокруг.
>>1040593Нахуя мне твои копирайтеры, имея лямы уник контента можно клепать тысячи сдл и иметь по пентхаусу в сутки:-) Короче пока что максимум ныне это что-то вроде https://habrahabr.ru/company/meanotek/blog/259355/
>>1040557>подобна на)
>>1040426То есть максимум ныне это коменты в клиттере или небольшое описание к товару? Если даже скормить нейросети десятки гигов текста определенной направленности, то грубо говоря, она не сможет установить достаточное кол-во зависимостей, чтобы текст был более менее связным, это будет просто простыня уник текста на уровне грубого синонимайза?
>>1041505Ну сейчас все эти модели вероятностные, то есть недалеко ушли от какой-нибудь цепи Маркова. Осмысленный текст они не могут генерировать потому что никаких мыслей у них нет. Напиши Хассабису в DeepMind письмо, пусть что-нибудь придумает.
>>1041005) ограниченный словарный запас
Что в крестах используют вместо питоньего Keras?
>>1041921Tensorflow, наверн.
>>1041921>>1041978Леее, чукчи. "тюленя, оленя", больше ни про что не слышали. Если не керас, значит слесарьплов. Если не слесарьплов, то керас. Вот на крестах - http://mxnet.io/
>>1041921caffe, dlib, tinyDNN
Во что превратится программирование через пару лет:https://github.com/joelgrus/fizz-buzz-tensorflow/blob/master/fizz_buzz.py
>>1042104Двачую эстета
>>1042128Спасибо, угарнул со статьи.
>>1036439 (OP)С каких пор курсера стала платной? Я раньше все просто так получал что там, что на юдасити. Думал в айти уже почти коммунизм.
>>1042822
А кто в СССР/России был специалистом по нейронным сетям? Вроде Вапника в машобе. Кого можно почитать?Смотрел видос про какого-то мужика с физтеха, который 40 лет строил нейрокомпьютеры. Он норм? Или профессор Выбегалло?
Анон, сколько слоев сейчас в сетях для распознавания изображений?
>>1042951Несколько тысяч (или даже десятки/сотни тысяч).
>>1042951
Очень глубокие сети попробовали -- теперь надо попробовать очень широкие сети. Шириной с твою мамку
>>1042951В residual networks тысячи слоёв. На практике чаще какие-нибудь готовые модели типо AlexNet или Vgg-19 где пара десятков слоёв.
Там OpenAI для Дотки бота запилили который лучших игроков уделывает. Мамок тоже вроде ебёт. https://blog.openai.com/dota-2/
Прошелся по гугл-школяру по чувакам с тегам нейронные сети и среди русаков там только пара физиков с ЦЕРНа. Что совсем нет никого крутого по теме?Вспомнил как зовут профессора который выглядит, как Выбегалло -- Галушкин А. И.В википедии написано, что он придумал backpropagation, но так как данная инфа написана только в русской вики -- то боюсь, что это он сам про себя и написал.
>>1042958Дота-дауны, кстати, визжали, что их игра в миллион раз сложнее шахмат и го. Что для нее никогда не создадут кампуктерную программу, которая будет их ебать. Наивные.
>>1042954Че ты как лох ограничиваешься тремя измерениями.
салам, терпилы. решил начать обмазываться мл и алгоритмами. буду разбирать сорцы вот этой либы и алгоритмы из нее.http://php-ml.readthedocs.io/en/latest/machine-learning/association/apriori/положняк?
>>1043200>PHP
>>1043217пшел нахуй байтоеб. только у веба есть будущее, только динамика впереди.
>>1042960> 1v1> dotaДотан - коммандная игра. Ждём коопящихся ботов.
Не понимаю программистишек, зачем вы пилите сук, на котором сидите?Как только будет создан сильный ИИ, вас же всех выкинут на мороз, как сраных луддитов после появления станков. ИИ может работать бесплатно 24 часа в день, не ест, не пьет кофе, не читает хабру, никогда не уставать и не ошибаться.
>>1043352>Как только будет создан сильный ИИА в чем сила, брат? >вас же всех выкинут на морозЕсли уж и программистишек на мороз выкинет, то остальные быдлопрофессии и подавно.>зачем вы пилите сук, на котором сидите?Потому что могут.
>>1042960Дота говно для дебилов, кстати.
>>1043352Да вон какие-то конструктивисты даже математиков обещают автоматизировать, а ты о программистишках
>>1043352Я надеюсь, что ИИ выкинет вообще всех людишек на помойку. пилю его из пиплхейта.
>>1043356>А в чем сила, брат? В способности выполнять работу как минимум не хуже человека, при этом еще и бесплатно и непрерывно.>Если уж и программистишек на мороз выкинет, то остальные быдлопрофессии и подавно.Э, нет, тут-то мы и поправим программистишку! В быдлопрофессиях рыночек решает, ведь нелегальный таджик-строитель стоит дешевле робота. В IT наоборот, выгоднее будет заменить зажравшуюся кодомакаку на ИИ.>Потому что могут.Потому что узко направленны и не видят дальше своего носа.
>>1043374>>1043375Это в далеком будущем. А вот программистишки (большинство) останутся без работы очень скоро.
>>1043388как можно остаться без работы в создании самого модного направления последних 20 лет?
>>1043395Я про веб-макак и прочих формошлепов, их как раз системы вроде DeepCoder заменят как класс.В Machine Learning и Data Mining люди будут нужны, но бывшему пиццевозу в эту область никак не вкатиться, там же нужно знать математику.В итоге 99% современных кодеров останутся без работы.
Никакого ИИ не будет. Будет миллион разных костылей с мозгом уровня амебы или печеночного сосальщика. Никакой угрозы для людей нет. Проблемы будут только если ты работаешь кассиром, грузчиком или изготовителем бургеров. Там мозга печеночного сосальщика как раз хватит.
>>1043429Ну, как-бы есть сторонники и совсем других архитектур, не диплеринг, но это не так модно, не так стильно и не так молодежно.
>>1043429блять, да меня бычий цепень медленно убивает и никакие лекарства не помогают, ты зря недооцениваешь сосальщиков.
>>1043401какие-то дикие фантазии свихнувшегося байтоеба.веб уже автоматизирован до конструкторов сайта и плагинов, которыми может любой уася пользоваться.
>>1043429Гугеловский tensor2tensor уже научился сортировать массивы, через несколько десятков лет можно будет шлёпать кожаных мешком на удобрения.
>>1043352Долбоёб, ты понимаешь, что машоб на текущем этапе развития и сильный ИИ это вообще разные вещи?
>>1042958В дотку даже Карина без мозгов может. Вот если бы на этом deep reinforcement learning запилить бота, который на бирже всех вертит на хую и рубит миллиарды, то вот это было б годно. Теоретически разницы с доткой никаких, тренировать можно на тестовых счетах.
>>1043531>ты понимаешь, что машоб на текущем этапе развития и сильный ИИ это вообще разные вещи? Самая хохма в том, что сильный ИИ не нужон, это больше философия чем прикладная задача. На практике достаточно того, что алгоритмы МЛ, не являющиеся сильным ИИ, давно уже могут решать задачи, в которые традиционно может только мыслящий человек. И чем дальше, тем таких задач все больше и больше, без всякого сильного ИИ даже в проекте. В эти ваши ссаные нейроночки все не уперлось, к слову. Вон выше упомянули системы автоматизированных математических доказательств. Coq не нейроночка и вообще принципиально не машоб, но теорему 4 красок (в которую даже мыслящие людишки нишмагли) на нем доказали как нехуй http://www2.tcs.ifi.lmu.de/~abel/lehre/WS07-08/CAFR/4colproof.pdf на данном этапе Кок используется как костыль для человека, но и это поправимо, я как раз занимаюсь одним из возможных путей полной автоматизации подобных задач. И опять же без нейроночек и машобчика, хотя вон есть и желающие приколхозить нейроночки к пруверам https://arxiv.org/pdf/1606.04442.pdf и даже не без некоторых успехов.
Как вкатиться в МЛ дебилу, который забыл математику?
>>1043561Арифметику знаешь?
>>1043575Знаю, и еще какие-то обрывочные знания из средней школы.
>>1036439 (OP)На днях заинтересовался нейросетью и интересует такой вопрос.Какой вид математики нужно знать что сделать нейросеть?У меня уровень 7-8 класс математики.
>>1043585А я вот старый, но раньше математику знал хорошо. Алгебру по Кострикину, например, изучил. Но мат статистикой, в то время, не очень интересовался. Давно это было. Какие пути вкатиться а эту область, х.з. Хочется побороться с гредущим альцгеймером, так как уже за тридцатник...
>>1043619>гредущимгрядущимальцгеймер не дремлет
>>1043217сам PHP и расширения к нему написаны на C, в том числе и реализация "Fast Artificial Neural Network или FANN" => всё достаточно быстро, особенно в последних версиях
>>1043273веб и байтоёбство -- вовсе не антонимы.фу таким быть.
>>1043612Арифметика, высшая арифметика (теория чисел), алгебраическая геометрия.
>>1043631Ты еще алгебраическую топологию и дифференциальную геометрию забыл. Плюс ТФКП, операционное исчисление...
>>1043631>>1043638Я так понял что это минимум который нужно знать?
>>1043640Для начала изучи все отсюда https://stepik.org/catalog?tag=866
>>1043643По еnglish тегу тоже
>>1043640Ну, желательно, доктора наук получить.
>>1043643>>1043646Не лучше я дальше буду веб-макакой, слишком сложно для меня. Это какая то хуйня для избранных.
>>1043646Каких наук? Теологических?
>>1043647Да че сложного то
>>1043652Алгебраическая топология, дифференциальная геометрия, ТФКП и т.д.Я пол года назад пробовал изучать дискретную математику, то дальше первой главы не мог пройти, так как РЕЗКО все вставало непонятным и запутанным.
>>1043655Надеюсь ты понимаешь, что это стеб. Реально нужно инженерное знание математики на уровне заборостроительного.
>>1043655>Алгебраическая топология, дифференциальная геометрия, ТФКПНо ведь это всё не нужно...
А вообще какие есть методы вкатав этой сфере для энтузиастов без галстука. Конкурсы - это реально? Кто все эти люди на kaggle.com ?
>>1043656>Надеюсь ты понимаешь, что это стеб. Нет не понял, думал что это серьезно.>Реально нужно инженерное знание математики на уровне заборостроительного.Вот посмотри на пикчу, я так понял это сумма, ее тоже нужно знать. Пикча из сайта.http://neuralnet.info/%D0%B3%D0%BB%D0%B0%D0%B2%D0%B0-2-%D0%BE%D1%81%D0%BD%D0%BE%D0%B2%D1%8B-%D0%B8%D0%BD%D1%81/>Но ведь это всё не нужно... Тогда что нужно?
>>1043559https://www.youtube.com/watch?v=ZTZjFz8HPUM
>>1043666И что тебя в этой сумме пугает - греческий знак сигма?
>>1043672Что означает "n" над сигмой? Что значит "i=1" под сигмой?
>>1043674Если ты программер, то представь сигму как оператор for (i=1; i<=n; i++) { sum += x * w }
>>1043674Там написаноsum = 0for (i = 1; i <= n; ++i) { sum += x * w}
>>1043678for (i=1; i<=n; i++) { sum += xi * wi }Бля двач, что ты творишь?
>>1043678>>1043681Аааааа теперь понятно, я то думал что сигма это какие то йоба вычисления.>>1043683>xi * wiА что значит нижнее "і"?
>>1043685Элемент с индексом i
>>1043674Зато в кадом перезвоним-треде:РЯЯЯ!! ВЫСШЕЕ ОБРАЗОВАНИЕ НИ НУЖНА!!ЕБАТЬ ВЫ ЛОХИ!ПЯТЬ ЛЕТ ЖИЗНИ В ПИЗДУЛУЧШЕ ВЕБ-МАКАКОЙ ЗА 30 ТР
>>1043697ВО и правда ненужно, в институте старый пердун хриплым голосом объясняет математику по учебникам из 60 годов, где поймешь только 5% материала в лучшем случае.Лучше изучать то что нужно по мере продвижения, если все попытаться охватить то жопа треснет.>ЛУЧШЕ ВЕБ-МАКАКОЙ ЗА 30 ТРСейчас веб-макакам платят от 40 и выше.
>>1043698Я уже в одном из из тредов написал что сложные знания имеют цикличискую зависимость друг от друга. Без систематического образования освоить это в одиночку большая задача.
>>1043698Подскажи чем новые учебники лучше старых из 60-х годов и посоветуй нормальные новые.
>>1043698>учебникам из 60 годовИ что? Вот например А. Н. Колмогоров написал учебник по теорверу ещё в начале 1930-х, что положило начало аксиоматической теории вероятностей. Учебник до сих пор актуален.
>>1043704По матану годнота H. Amann, J. Escher "Analysis I-III" 10/10, лучше Зорича. Первый том в 2005 вышел. По алгебре P.Aluffi "Algebra: Chapter 0" вообще красота, т.к. с самого начала учит теории категорий, первое издание вышло в 2009г.
https://www.youtube.com/watch?v=GrgQlqfWWx4Нубо вопрос мимо проходящего в связи с видеорилейтед.Может ли нейронка обучаться в несколько потоков или она только в одном работает? И если может, то как она потом производит синхронизацию этого изученного материала особенно если там данные противоречивые получились? Или процесс записи / обучения по факту происходит в одном потоке изолированного от распараллеливанного процессинга вычисления и извлечения данных и потом что-то типа коротких готовых результатов которые передаются в вашу Mode/Data ?
Зачем вы изучаете нейронные сети?
>>1043708>Я уже в одном из из тредов написал что сложные знания имеют цикличискую зависимость друг от друга. Без систематического образования освоить это в одиночку большая задача.Для простых задач хватит и минимума, я не собираюсь скайнет делать.>Вот например А. Н. Колмогоров написал учебник по теорверу ещё в начале 1930-х, что положило начало аксиоматической теории вероятностей. Учебник до сих пор актуален.Там устаревшие математические обозначения, в новый учебниках более понятные объяснения и доказательства.
>>1043697>ЛУЧШЕ ВЕБ-МАКАКОЙ ЗА 30 ТР>30 ТРЯ бы с радостью убежал работать вебмакакоймимо заводораб
>>1043718Лично мне просто интересно, хочется написать какого то бота для игры, и чтобы он соревновался с другим ботом, чтобы узнать какая нейросеть лучше будет, а то как людишки между собой соревнуются уже неинтересно, прошлый век.
>>1043725Почему использовать именно нейросети?
>>1043725А меня смущают суммы вознаграждения на kaggle.com
>>1043727>kaggleВедь его придумали хитрые жиды, которые получают решение проблемы за символическую плату вместо того, чтобы нанимать исследовательскую группу без гарантированного успеха.
>>1043729Это нормально - переносить риски на лохов.
>>1043726Они лучше справляются с такими задачами.
>>1043733Правильно я понимаю, что она не может дообучаться во время непосредственно игры?
>>1043730Вот родился ты в Пакистане, но очень умный. Берешь и работаешь над датасетами на планшете, пока груженый ишак поднимается в гору. Выиграл $50k и можешь уже гарем купить и забыть о работе на всю жизнь.
>>104373А откуда у пакистанца ферма машин с видюхами?
>>1043742Богиня Азура подарила
>>1043625>сам PHP и расширения к нему написаны на C, в том числе и реализация "Fast Artificial Neural Network или FANN"падажжи, эта библиотека использует GPU или нет?
>>1043554>Теоретически разницы с доткой никаких, Разница принципиальная.>тренировать можно на тестовых счетах.нет
Что-то слишком мало сервисов уровня "потыкать" с обучением с подкреплением. Вот сверточные нейросети то там и котики всякие есть и прочее, а обучения с подкреплением нет.
>>1043736Можно поставить чтобы и обучалась а можно и отключить эту способность.
>>1043746>Разница принципиальная.Ты так сказал? Поясняй.
>>1043670И что это?
>>1043751Не может быть алгоритма, который в долгосрочной перспективе прибыльней среднего по рынку, потому что рынок полностью прозрачен (все видят сделки по купле и продаже) и симметричен (все могут купить любые акции). Поэтому если такой алгоритм будет реально работать, все просто начнут копировать твои сделки и он работать перестанет.
>>1043775А у спекулянтов есть спрос на прогеров знающих ML? Тяжело вкатиться, покатиться и прокатиться?
>>1043778мл как ты понял маркетинговый ход, для впаривания говна матанопитухам, в трейденге мл нинужно от слова совсем.
>>1043775>Не может быть алгоритма, который в долгосрочной перспективе прибыльней среднего по рынку,Ты согласишься с тем, что доход на рынке зависит от конкретного поведения (купи-продай) в конкретной ситуации (текущая цена, история цены, объем торгов, его история показания индикаторов, текущие новости и т.д.)?
Почему нейроночка массив, а не список?
>>1043966Нейроночка - зависимый тип же.
>>1043970>зависимый типВ смысле?
>>1043678это есть множитель двух переменных возведенный в степень n?
>>1043993Это двач сожрал квадратные скобки с индексами.
Школьники незнакомые с суммой не засирайте тред. Он создан для обсуждения свежих статей из архива.
>>1043971В прямом, https://en.wikipedia.org/wiki/Dependent_type
>>1043997>Школьники незнакомые с суммой не засирайте тред.Мне 25>свежих статей из архиваКакого архива?
>>1044004>Какого архива?https://arxiv.org/
>>1043745Да, но можно и без него
Господа, сейчас вот эту нейронку разбираю.Тут какая-то солянка из интерфейсов и абстрактных классов, использующих различные алгоритмы. пока не оче понятно. https://github.com/php-ai/php-ml/blob/master/src/Phpml/NeuralNetwork/Network/MultilayerPerceptron.phpникто не хочет скоординироваться, чтобы разобраться в кишках нейронок? Просто использовать без понимания ее действия мне не хочтеся (планирую запилить веб сервис с самооучающейся нейронкой).
>>1044022что она должа делать?
КТО ШКОЛЬНИК ТЫ ШКОЛЬНИК МНЕ 30 ЛЕТ!!
>>1044027>КТО ШКОЛЬНИК ТЫ ШКОЛЬНИК МНЕ 30 ЛЕТ!!Нахуй ты его гнобишь? У человека появился новый интерес и в первую очередь нужно общаться с человеком, а не с его заслугами или невежеством. Эту математику можно быстро выучить, а ничего сверхпродвинутого для import sleasorflow as sf не нужно. Если ты такой сверхразум он тебе конкуренции не составит, не мешай человеку вкатываться, если интересно
>>1044022>солянка из интерфейсов и абстрактных классов, использующих различные алгоритмы. пока не оче понятно.Похапе вообще ЯП курильщика, тут уже не в нейросетях проблема. Перцептрон и в африке перцептрон, что там разбирать. Аппроксимация функции многих переменных через суперпозиции частных функций от двух переменных, для чего и нужен скрытый слой. У Вапника суть перцептрона очень хорошо раскрыта, http://gen.lib.rus.ec/book/index.php?md5=BC6C3185972183559646187BE34C1C31 Аппроксимация функций зависимостей выходов от входов - это вообще универсальная суть всех нейронок, ничего другого они не делают в принципе.
>>1044026я сейчас свою бизнес-идею палю, но ок:анализировать симптомы болезней из сети, ставить диагноз по симптомам и выписывать лечение.Книга на 332 страницы. Я уже читал краткие описания нейронок, даже в википедию про синапсы полез читать. Но все-таки я не могу понять, как они обучаются. Все результаты трейнинга они куда-то запоминают в класс, а потом выуживают, чтобы сравнить с инпутом??
>>1044051>>1044033
>>1043712Учи матчасть. Стохастические примочки работают как раз из-за того, что при распространении градиента на веса, дельта зависит в данный момент времени только от данного объекта, и даже если один объект (условно) попадается несколько раз подряд, то это окей. Думаешь, почему тащат GPU и TPU? Именно поэтому.А в сабже они вообще могли запустить на одном агенте 100 сессий одновременно.
>>1043747gym.openai.com и yandexdatafactory practical_RL на гитхабе.Пользуйся.
>>1044051да без разницы, куда конкретная реализация запоминает результаты обучения -- в класс или куда-то ещё.Если ты, допустим, врач -- тебе нужен результат. Бери и применяй.
>>1043997Ват? В 8 классе же, когда рекуррентные соотношения и индукцию проходят.
>>1044051>свою бизнес-идею палю,Братюнь, твоей гениальной бизнес-идее лет сильно больше чем тебе. Няпонци еще в 80-х годах мутили диагностические системы на нечеткой логике, Вапник еще в СССР в 70-х годах подобным занимался. Хохлы, вон, готовую технологию продают, гугли luven diagnostic, ранняя диагностика онкологии по параметрам клеток буккального эпителия. >Все результаты трейнинга они куда-то запоминают в класс, а потом выуживают, чтобы сравнить с инпутом?? Результаты трейнинга - это изменения весов "синапсов". Вход, умноженный на эти веса, должен давать правильный выход. Для того и существует обучение. Сами веса представляют собой коэффициенты линейных или полиномиальных функций, в простейшем случае.
>>1044059Хуя ты с 57 школы
>>1044064>Вход, умноженный на эти веса, должен давать правильный выходТип я могу доумножаться до искусственного интеллекта?
>>1044067Вот очень годное видео, один из создателей этой технологии все на пальцах поясняет, как что работает. Искусственный интеллект - это философская концепция, а не формальная постановка задачи. Нет нормального определения предмета - нет и быть не может предметной дискуссии. Чисто фактически, алгоритмы машобчика могут многое, что раньше считалось возможным только для человека, это все, о чем можно говорить твердо и четко в наше время.https://www.youtube.com/watch?v=hc2Zj55j1zU&t=14shttps://www.youtube.com/watch?v=skfNlwEbqck
Тут я так понимаю, в основном преподы из универов и их студенты сидят? Расскажите, как вам на кафедре? Норм платют? На науч. работах бабло пилить удается (инвесторы там фонды)?
>>1043868да
Расскажите про примерный план изучения математики, необходимой для работы с tensorflow.На данный момент есть обрывочные знания из школьной программы, знаю, что такое логарифм, синус - не больше, в азы матанализа не умею.
>>1044085Но ведь то, что я описал, это и есть суть алгоритмов reinforcement learning, конкретные примеры - Q-learning, POMDP (марковский процесс принятия решений в условиях системы, только частично доступной для наблюдения). Это вполне алгоритмы, а ты сам только что признал, что оптимальное поведения на рынке к ним сводится.
>>1044088Матанализ, теорвер, линал. Все на уровне первого попавшегося учебника, читанного по диагонали. Работа со слесарьпловом - это всего лишь построение графов, вершины которого это математические операции, ребра - скаляры/векторы/матрицы/тензоры в зависимости от задачи.
>>1044111>Матанализ, теорвер, линалИзучать именно в таком порядке?И что делать, если встретится тонна незнакомых математических символов?И да, требуют ли книги по высшей математике глубокого знания школьной программы?
>>1044115>Изучать именно в таком порядке?Нет, лучше параллельно.>что делать, если встретится тонна незнакомых математических символов?В любом учебнике объясняется вся используемая нотация.>требуют ли книги по высшей математике глубокого знания школьной программы? Нет.
>>1044118Спасибо большое, анон.
>>1044115Лучше учебник высшей математики для экономистов возьми - там как раз уклон в статистику.
>>1044089Нет, не сводится. Когда ты каким-нибудь deep q-learning учишься играть, скажем, в блэкджек, у тебя есть определённое распределение состояний, которое задано правилами игры, и ты пытаешься найти стратегию, которая позволит тебе получить состояния, в которых ты получаешь какие-то ништяки. Фондовые рынки принципиально отличаются от этого тем, что распределение постоянно меняется. Это как пытатся MNIST нейронкой классифицировать но при каждом прогоне датасет слегка меняется так, чтобы у тебя ошибка осталась прежней. Заработать на акциях можно только если ты точнее оцениваешь её реальную стоимость чем остальной рынок но если ты можешь оценивать акции точнее других то все просто будут копировать твою стратегию и разница между твоей оценкой и реальной рыночной ценой очень быстро сойдёт к нулю. Такой вот парадокс. Если бы алгоритм мог здесь помочь, то Гугл уже давно был бы королём всех рынков но увы. Чтобы зарабатывать на акциях нужна ассиметричная информация, без этого никак.
>>1044218Ты сам читаешь, что пишешь? Почитай. Разница между каким-нибудь понгом и рынком только в том, что в случае рынка правила динамически меняются. Но это не отменяет их существования, т.е. оптимальное поведение на рынке все равно зависит от состояний самого рынка, описанных здесь >>1043868 а не от астральных сущностей в виде гномика. И если под эти изменения может подстроиться человек, то может и алгоритм обучения с подкреплением, потому что в противном случае (если бы таких зависимостей не было) не мог бы и человек. В обоих случаях имеет место аппроксимация функции зависимости выхода (дохода) от входов (состояний рынка и возможных вариантов поведения). Я бы мог еще тезис Черча вспомнить, но это лишнее. В любом случае, как ни крути, в конечном счете то что может вычислить человек, может и машина Тьюринга. Нет ни одного известного человечеству случая, опровергающего этот тезис, как бы у хейтеров математики с этого жопы ни горели.
Сможет ли нейросеть отличить животное от хлебушка?
>>1044315Для игры на рынке нужны ужаса и магия. Может тут и есть ряд закономерностей, но рандом тоже присутствует. Это как ставки на лошадей. Исходя из истории побед лошади ты можешь вычислить, какая победит. Но точно может предсказать только врач, берущий кровь у лошадей.
>>1044777От алгоритма зависит. Если на вход подаются чб изображения - врят ли отличит.
В чем основные проблемы нейроночек?
>>1045251Не распознает шум. Переобучается.
>>1044786Терминатор расстреливающий манекены?
Это все пиздато, но какие проблемы можно решить кроме создания роботов?
>>1045555Митяй, ты бы погуглил https://ru.wikipedia.org/wiki/Рекомендательная_системаhttps://ru.wikipedia.org/wiki/Кредитный_скоринг
>>1044782>Может тут и есть ряд закономерностей, но рандом тоже присутствует.Там не только рандом. Наверняка есть моменты, не сводящиеся ни к рандому ни к функциональным зависимостям выходов от входов (многоходовочки крупных игроков, заговоры рептилоидов и т.д). Поэтому в алгоритмах обучения с подкреплением типа POMDP (parial-observed markov decision-making process) речь именно о частично-наблюдаемой системе, все переменные которой нам не будут доступны никогда и ни при каких обстоятельствах. При этом задача - выйти на наилучший возможный результат именно исходя из того, что мы имеем, а не из 100% целостной картины. Так что магия тоже учитывается.
>>1045555да никаких проблем не решается, братан, хуйня всё это
...
Есть один кусок XGBoost'а, и он меня кажется троллит. Так как я не знаю Питон, я взял обертку на Шарпе для XGBoost. И я не понимаю в чём дело, но эта херня меня троллит и просто не реагирует ни на какие параметры кроме objective.https://pastebin.com/pZsvvwU4 вот кусок кодаВывод XGBoost'а приложил. Я перебираю бустеры и eval_metrics и ожидаю хоть какого-то изменения в деревьях, но нет, результаты одни и те же. Что-то меняет только objective. Так вот, никто не мог бы помочь и набросать пару строк на Питоне? В общем, есть файл input.json, там объект с четырьмя полями. TestInput (float[][]), TestOutput (float[]), TrainInput (float[][]), TrainOutput (float[]). Мне нужен кусок кода, который загрузит эти данные и подаст на XGBoost (сам файл я переподготовлю, чтобы в нём вообще ничего было менять не нужно, и оставалось бы только подать его на библиотеку для обучения). Ну совсем в идеале также перебрать метрики и бустеры как это делаю я. Я хочу понять в чём дело, в обертке на C# или в самом XGBoost'е.Спрашиваю здесь, а не в Пистон треде, потому что здесь кто-нибудь Пистон да знает и мб подскажет в чём дело, если дело в самом XGBoost.Обертка вот эта была: https://github.com/PicNet/XGBoost.NetЗаранее спасибо, няшиТо, что у меня precision такой маленький это пока отдельный разговор, сначала надо понять работает ли сам швейцарский нож
>>1045959Это из-за скобок с новой строки.
>>1045988https://github.com/PicNet/XGBoost.Net/blob/master/XGBoost/lib/libxgboost.dll 28 ноября 2016 года
Будет ли актуален машоб через 4-5 лет, стоит ли вкатываться?
И вообще, каким вы видите будущее машоба. Очень интересно, что будет дальше или не будет.
>>1046093Ну не знаю дажеhttps://www.newkaliningrad.ru/news/briefs/economy/14299115-glava-sberbanka-obyasnil-pochemu-ne-vozmet-na-rabotu-vypusknikov-yurfaka-bfu-im-i-kanta.html
>>1046097Понял, принял.
>>1046094> каким вы видите будущее машобаhttps://www.youtube.com/watch?v=oqvtLGZb0A0https://www.youtube.com/watch?v=7BX6om4TKgUhttps://www.youtube.com/watch?v=p-0AtLhiubc
на каком ЯП лучше всего писать нейронки?
>>1046299На brainfuck'e, очевидно.на чём хотите, на том и пишите. На питоне легче, так как больше библиотек и разработка проще. Но сейчас даже для сраной пыхи есть пакеты.
>>1045959https://github.com/dmlc/xgboost/blob/master/demo/binary_classification/README.md lol, оказывается xgboost поддерживает работу из-под консоли, принимая файл конфигурации на вход. Так тоже сойдёт. Так и сделаюТеперь другой вопрос, который не является оффтопиков. Вот у меня есть обучающая выборка на 1200 значений, почти всё там это класс A, класса B там в 9 раз меньше (11.1%). Теперь вопрос: почему XGboost (по крайней мере с дефолтными значениями) так сильно забивает на precision? Потому что по умолчанию там мера error, а не kind of F1?Я от безысходности запилил свою разбивку с Gini / F1-мерой, и я точно знаю, что там можно срезать 3%-4% от данных так, чтобы они почти полностью состояли из класса B. И, да, я учил на тренинговой выборке, а тестировал на тестовой, выборки не пересекаются. У меня уже всерьёз появляются идеи самому имплементировать дерево решений.
>>1046299На Пистоне уже всё готово и ждёт тебя. У Яши и Гугла весь ML на Пистоне. Вывод очевиден.
Как велико участия стран третьего мира в машобе?
>>1046365>У меня уже всерьёз появляются идеи самому имплементировать дерево решений. Ты одну хуйню юзаешь из-под хуевой обертки к третьей хуйне. Родина дала R, где всех этих хгбустов и прочего бустинга до жопы, все работает, в документации разберется даже средний пенсионер из аудитории одноклассников. Нет, не хотим. Хотим сладкий хлеб поедать. И это слесари? Говно какое-то...
>>1046360>>1046366А если меня не интересуют готовые фреймворки и пакеты, я хочу поразбираться в кишках и алгоритмах, то питон тоже подойдет?
>>1046745Подойдет. Есть вот такая книшка http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6 про объяснения алгоритмов МЛ и запиливание их с нуля на пистоне.
>>1046686Ну из России несколько хороших учёных есть, про остальные не знаю.
>>1046686Весьма велико. На индусах весь современный машоб держится.
>>1046760спасибо
Какие сейчас темы в машобе актуальны особенно? Хочу научную работу какую-нибудь написать, но до этого ничего не писал и опыта в машобе почти нет, только вот пару месяцев назад начала работать, до этого хелоуворлды разные на слесарьфлоу и на плюсах писал.
>>1046823NLP
>>1046852Нейроночки в НЛП не могут, все натужные попытки их там использовать напоминают попытки подмести пол болгаркой. Есть vector-semantic models, которые еще в 90-е успешно проходили тесты типа TOEFL, до чего нейроночки еще лет 15-20 не дорастут.
Есть че-то еще проще, чем keras?
>>1046873Завести китайца и заставить его работать.
>>1046737Я не знаю об R ничего кроме того, что это язык для числодробилок и числового анализа. Ты мне предлагаешь ещё один синтаксис выучить?
>>1047112>пытается в МЛ>"я нихуя не знаю и знать не желаю о самом продвинутом языке для МЛ"Понял, отстал.
Помогают ли занятия олимпиадной прогой в вузе дальше в машобе?
>>1047389нет
>>1047392Спасибо.
Делаю gridsearch в keras как тут http://machinelearningmastery.com/grid-search-hyperparameters-deep-learning-models-python-keras/ , как реализовать сохранение чекпоинтов для гридсерча? Или вообще извлекать хоть какие-то полезные данные? А то если он прерывается, то теряется весь прогресс полностью.
>>1047220>R>самый продвинутый язык для MLТы, видимо, в 2007 до сих пор живёшь. Пока для питона не было API matplotlib'ы, R еще мог что-то выиграть, но сейчас он в принципе нахуй не нужен.
>>1047459Все, что есть для МЛ на пистоне - 5-6 средних пакетов для R, которых там в официальном репозитории больше 11000. Я уже предлагал мне показать аналог LSAfun для пистона, его нет и не будет никогда, что уже говорит о том, что пистон для семантического анализа текста непригоден, word2vec - это предел. Так что это ты в 2007 году еще.
>>1047464Use the ntlk, Luke
>>1047470*nltk
>>1047470Хуета, там нет ничего подобного тому, что есть в LSAfun. И анализ текстов - не единственное, во что не может пистон.
>>1047478Зато он смог в твою мамку.
>>1046868ээээкакбе сейчас всё в нлп на нейроночках держатся
>>1047627Какбе не все модели - нейроночки.
>>1047648приведи пример нлп задачи, которая бы решалась классическим машобом (или чем то ещъ) эффективнее чем нейроночками
>>1047464ты заебал со своим LSAfun. Если чего-то нет в питоне, значит это настолько ненужно, что никто не заморочился портировать интерфейс для питона. А написать такой интерфейс дело пары дней для большинства алгоритмов в статистике.
>>1036439 (OP)Вы типа настолько элитные, что даже шапку для новичков убрали? Как вкатываться теперь? Поломали мне жизнь, спасибо!
>>1037466> статистика - не математикаКек, ну и ретард.
>>1047973Математика это что-то о пучках.
>>1047627Оно и видно, как держится. Даже до классических векторно-семантических моделей из 90х не дотягивают ваши нейроночки в 100500 слоев.>>1047681>приведи пример нлп задачи, которая бы решалась классическим машобом (или чем то ещъ) эффективнее чем нейроночкамиТы читать не умеешь? TOEFL-тест ваши нейраначке до сих пор не пройдут, тогда как semantic-space модели в это еще в 90-к годы могли.>>1047772>Если чего-то нет в питоне, значит это настолько ненужноКоооо-кококо-кооко нинужно!!111 Стандартная мантра деградантов. Факт же в том, что вот как раз нужно, а вот на пистоне нету. >написать такой интерфейс дело пары днейАутист-вэй. Сейчас бы учить пистон, чтобы джва дня пердолить костыли для инструментов, которые в нормальном языке для МЛ уже давно запилены и работают.
>>1048530Нахуй кому сдался твой TOEFL? А вот анализ эмоциональной окраски и машинный перевод востребованны, и нейроночки тут тащат.
>>1048719>машинный перевод >нейроночки тут тащатOhooitelnii istorii.
>>1048719>Нахуй кому сдался твой TOEFL? Это пример того, как алгоритм может решать задачу, в которую традиционно могут только люди.>А вот анализ эмоциональной окраски и машинный перевод востребованны, и нейроночки тут тащат. Ты ведь даже не задавался вопросом, кем и почему востребованы. Сентимент анализ нужен для анализа рынков потенциального спроса и предложения всяким рекламщикам и т.п. хуепутолам. Потому и востребован и оплачивается.
>>1036439 (OP)Почему линейная регрессия в TF без нормализации данных так плохо работает?
>>1048753>линейная регрессия в TFТы, наверное, на винде запускаешь? Всем известно, что линейная регрессия на винде плохо работает. Лучше всего на маке, но она там платная, так что обычно ее на линуксе делают.
>>1048892Тонко.
>>1048730И на чём по-твоему основан гугл транслейт? На правилах? >>1048732И нахуя решать какие-то непонятные задачи, которые и не академические, и не прикладные?
>>1048530>Коооо-кококо-кооко нинужно!!111ты явно не понимаешь как устроена область машинного обучения. вангую ты ни одной статьи на нормальной конференции даже не опубликовал
>>1048892Моя имплементация-то заебись угадывает.
>>1048993Расскажи, какие ещё есть NLP-инструменты в R, которых нет в питоне. У меня просто весь стек, с которым я работаю -- синтакснет, скиптхотс, сиамские сетки, фасттекст -- весь на Питоне, и я хз, есть ли смысл постигать R.
>>1049194>Расскажи, какие ещё есть NLP-инструменты в R, которых нет в питоне.Я ж сто раз уже написал - на пистоне нет нихуя для LSA, да вообще для всех semantic-space моделей, тематическое моделирование (topicmodels) так же в зачаточном состоянии (вроде что-то есть, но в сравнении с R можно просто считать что нету). >>1048993>вангую ты ни одной статьи на нормальной конференции даже не опубликовал Никак, Пхд закукарекал?
>>1049335import lsalib
>>1049366Не, читать ты все-таки не умеешь. Впрочем, от пистонщика я большего и не ожидал.
>>1049335Так для топик модделинга самый пиздатый это bigartmИ нахуя нужен LSA, если для построения семантик спейс есть модели эмбеддингов, тот же фасттекст?
Питоношкольники и р-питухи скоро будут перебираться на божественную джулию
>>1049448>для построения семантик спейс есть модели эмбеддингов, тот же фасттекст? Есть, да. https://cran.r-project.org/web/packages/fastTextR/ Но я с ним не знаком, даже скажем честно - только что услышал. Я неоднократно упоминал LSAfun как пример того, что мне нужно. Так вот, читаю я описание этого вашего фасттекста, и ничего подобного там в упор не вижу. Только не нужно говорить "сделай сам", там дохуя делать-то надо, зачем мне это если есть готовое решение?
>>1049455>божественную джулию Хуета из-под кота, например. Там вообще ничего полезного нет, тогда лучше уж сразу на кресты переезжать.
>>1049448Найти, насколько 2 слова близки в семантическом смысле это не проблема, это еще в 80-е решалось картами Кохонена, сейчас кернел методы в моде. А вот как быть с сентенциями, документами и т.д.? Вплоть до автоматического подбора ответов на поставленный вопрос. Фастттекст в такое может?
>>1049448Почитал https://arxiv.org/abs/1607.04606 оно ж только в отдельные слова может. Идея использовать для анализа не целиком слова, а н-ки от 2 до 6 буков внутри слов интересна, но это не то что мне нужно.
>>1049468Для поиска близости коротких предложений обычно используют усреднённые вектора слов; для длинных предложений сиамские сетки и skip-thoughts. Тебе, как я понимаю, надо находить семантическую близость документов, и поэтому ты используешь LSAFun?
>>1049512>Тебе, как я понимаю, надо находить семантическую близость документов, Не только документов. Разных подмножеств корпуса, между словом и словом, словом и сентенцией, сентенциями, документами, сентенцией и документом и т.д. Допустим, есть слово (пусть какой-то хитрый термин) и есть документ, где объясняется значение этого слова (пусть статья в педивикии). Задача - автоматически выбрать из документа предложение / сентенцию, определяющую заданный термин. В LSAfun можно итеративно сравнить данное слово со всеми снтенциями документа и выбрать подходящюю по наибольшему значению. Мне неизвестно, как это можно сделать другими методами, желательно безо всякого шаманства (я не утверждаю, что других методов нет в природе).>Для поиска близости коротких предложений обычно используют усреднённые вектора слов;Среднее по больничке очень редко нормальный вариант, я читал пейпер Mitchell, J., & Lapata, M. (2008). Vector-based Models of Semantic Composition, там сложнее все. Как раз показано, как можно получить семантику множества слов из отдельных составляющих. И все эти методы + некоторые другие реализованы только в одном месте.>для длинных предложений сиамские сетки и skip-thoughtsПро такое даже не слышал. Есть чо почитать?
Я пока не готов к талмуду 900 страничному на ангельском. Есть что-то для вкатывания на курсере какой-нибудь. Желательно на русском.
>>1049575Введиние в машинку от вшэ и яндекса
>>1049592Эх, там питон, а я плюсы хотел. Спасибо, буду заниматься.
>>1049455>божественную джулиюОчередная попытка сделать аналог матлаба. Но проблема в том, что сам матлаб — раковый язык и вдохновившись им можно сделать только кусок говна.Это как с си-подобными языками, которые стабильно появляются раз в пару лет. Архитектор каждого нового си-подобного языка думает: "ну сейчас-то мы устраним все фатальные недостатки си и все девелоперы перекатятся к нам". Сколько их там уже было? C++, Objective-C, Dart, Swift, Go, D и еще 60 других из списка википедии.Никаких проблем Джулия не решит, а только наплодит серию недоделаных проектов собранных из костылей и палок.
господа, я установил вот эту либу из книги на убунтуhttps://www.scipy.org/scipylib/building/linux.html#debian-ubuntuВ книге есть такой пример. я чота не понимаю, как мне его с либой numpy использовать? просто создал питон файлик и открыл через командную строку а он мне просто гедит открыл. может я чота не там подключаю?
>>1049634Нюфаня, с твоим уровнем понимая происходящего, может стоит сначала почитать какую-нибудь книжечку про юникс сначала? Питон файл он создал лол.
>>1049646ну я нюфаня в питоне (я пхпшник). яж не виноват что там примеры на пайтоне
Можно сделать такой видеоредактор, где сидели бы нейроночки и тип рендеринг ускоряли?
>>1049738Делай.
>>1036439 (OP)Пишу с Brain.js. Рейт.
>>1049625Холивары в другом треде. НоC++ язык ООП Богов, C для функциональных крестьян
>>1049915>JSОт меня бы отказались родители и все друзья.
>>1046760напиши название книги плиз не могу открыть
>>1049928> ЯСКОЗАЛАргументы в студию.
>>1050437Напиши-ка ганчик или генеративную модель через распределение гумбеля. Да хотя-бы LeNet. Ну как? Хорошо на JS? А LSTM нейрончки считаются как? Кайф?JS - медленная хуйня для макак. Даже R подойдёт лучше, не говоря уже о питоне/lua, для которых написано 90% библиотек и поддерживаются видюхи/tpu из коробки
>>1050552Загугли pix2pix
>>1050561Он на lua написан, крендель
>>1049592>вшэ и яндекса Яндекс - рекламная параша. Ни во что кроме агрессивного впаривания рекламы они не могут, никогда не могли и никогда не смогут. Говнокод уровня SplitStroku даже индусским называть не хочется дабы не обижать индусов сравнением с этими производителями сладкого хлеба.>>1049997Stephen Marsland. Machine Learning: An Algorithmic Perspective, Second Edition
1) Эти ваши нейронные сети в состоянии решать простые задачи по типу вопросов iq тестов для аутистов? (пикрил, аля продолжите ряд чисел)2) Есть ли примеры использования tensorflow для чего-то отличного от задачи классификации? В каждой статье пердолят задроченный mnist. Особенно интересно посмотреть на реализацию RNN для предсказания.
>>1050647
>>10506471) Могут, без проблем, только дай датасеты.2) site:github.com tensorflow+RNN+prediction первая ссылка https://github.com/guillaume-chevalier/seq2seq-signal-predictionТуториалы пишутся для вкатывальщиков, которые mnist посмотрят и сольются. Нормальные люди читают книги, гитхаб и пишут сами.
>>1050647>Эти ваши нейронные сети в состоянии решать простые задачи по типу вопросов iq тестов для аутистов?Вся эта поебень с машобом и нейроночками умеет делать ровно одну вещь — аппроксимировать функцию по заданным точкам. Больше она делать ничего не умеет и уметь не будет.Если у тебя есть миллион правильных ответов на миллион тестов IQ, то эта тупая задача тоже будет аппроксимирована. Однако, легко понять, что никакого интеллекта или творчества там нет. Больше всего вся эта область напоминает анекдот:Студент выходит к доске и рисует идеальный круг. Профессор: - Как ты это смог сделать?Студент: - Да, я просто в армии весь год мясорубку крутил!
>>1050648> продолжите рядМожно придумать бесконечное число ответов. Например, сайт OEIS сообщает о 41 последовательностях, начинающихся с чисел в первом вопросе, встречающихся в математике:https://oeis.org/search?q=18%2C+20%2C+24%2C+32&language=english&go=SearchТесты на IQ, как уже миллион раз обоссано, могут сообщить только одну вещь — насколько близко твои ответы совпадают с ответами автора теста. Какое отношение имеет эта информация к интеллекту не ясно. Не слышал чтобы изобретатели, инженеры или ученые занимались составлением подобных тестов. Обычно этим промышляют выпускники различных кафедр психологии и фрейдизма-юнгизма.
>>1050774>Вся эта поебень с машобом и нейроночками умеет делать ровно одну вещь — аппроксимировать функцию по заданным точкам. Больше она делать ничего не умеет и уметь не будет.Будто интеллект к этому не сводится.
>>1050779>Будто интеллект к этому не сводится.Скорее всего сводится. Представим на секунду, что это так. Пусть интеллект человека — это функция от n переменных (пусть каждая n — это один нерв кожи, носа, глаз, ушей, языка и т.д.). А сам интеллект мы аппроксимировали полиномом степени i, с коэффициентами степени j. Но хватит ли нам памяти и вычислительной мощности когда-нибудь для оперирования с таким полиномом? Сомневаюсь.Посмотрим сколько синапсов в мозге: 1000 триллионов штук.А сколько в кампуктерах транзисторов (22-core Xeon Broadwell-E5): 7,200,000,000 штук.Первое делим на второе = 138 тысяч раз. Наконец, транзисторы это не синапсы. Представим, что к 2100 году сделают не огромный калькулятор, а нейроморфный чип типа TrueNorth со сравнимым числом синапсов. Скорее всего и тогда нас ждет обсер.
>>1050800>Пусть интеллект человека — это функция от n переменных (пусть каждая n — это один нерв кожи, носа, глаз, ушей, языка и т.д.). А сам интеллект мы аппроксимировали полиномом степени i, с коэффициентами степени j.Про что несет... Лень отвечать даже, настолько ты не в теме.
>>1050800Забей, квантовый компуктер всё мгновенно подсчитает.
Что то я нихуя не понимаю. Куча видосов каких то дедов из яндекса, мфти, шад и пр., говорящих что никто не понимает как работают нейросети, но при этом если ими будешь пользоваться то будешь кончать радугой. Говорят что это будущее и нужно быстрее прыгать на поезд. Но при этом нет лекций рассказывающих как именно ими пользоваться, что они из себя представляют и не показывают реальную востребованность на рынке труда в таких спецах. Все это очень напоминает схему 10 летней давности, когда такими же громкими словами обрабатывали школьников, но только вместо слов data science, нейросети и машинное обучение, использовали слова айти и прогромист. Так, вдохновленные своей уникальностью первооткрыватели после последнего звонка массово будут поступать на дорогие факультеты и ходить на платные курсы, а ректора и владельцы курсов будут купаться в золоте.Так вот, как вкатиться минуя этот заговор сионистов?
Рекомендую перечитывать перед сном.
>>1050804Берешь и без задней мысли поступаешь на соответствующую магистратуру, или читаешь книжки, можешь с Бишопа начать. Намекну, это сложная область, видосов с мемами не хватит.
>>1050804>Куча видосов каких то дедов из яндекса, мфти, шад и пр.Так не смотри хуйню всякую, в чем проблема. >как вкатиться минуя этот заговор сионистов? Никак, забудь. Тебе уж вряд ли что поможет с твоим подходом уровня лекций от яндекса и шад.
>>1050640о, спасибо. а то вчера весь день пришлось это читать http://robotics.stanford.edu/people/nilsson/MLBOOK.pdfа тут не оче понятные формулы и матан.
>>1050808>>1050809Я хотел в интернете учиться, потому что в универе уже учусь на прогромиста и связывать свое существование только с нейросетями нет желания. Просто ради интереса, посмотреть что это такое и сделать практичный хелоу ворд. Но из 2х лекций что посмотрел на ютубе к делу ни относилась ни одна. Такое ощущение, что там читали вольный пересказ одного и того же текста "какие нейроны ахуенные". Поэтому не знаю с чего конкретно начать.
>>1050839Начни с CS231n. Он маскимально практико-ориентированный. Можешь сразу со второй лекции. В первой маркетинговая вода не по делу.
>>1050808>видосов с мемами не хватитА кто-то пробовал такое сделать?
>>1050839>Я хотел в интернете учиться,> Просто ради интереса, посмотреть что это такое и сделать практичный хелоу ворд.>из 2х лекций что посмотрел на ютубе А теперь забудь про нейроночки и представь, что таким же методом ты решил разобраться в любой другой (около)математической теме.
>>1050846А почему искусственные нейронные сети не могут сгенерировать нормальный учебник по математике?
давайте коннфочку запилим :3
>>1050848Могут. Только для этого есть методы сильно лучше нейроночек.
>>1050843А то. https://www.youtube.com/channel/UCWN3xxRkmTPmbKwht9FuE5A/videos
>>1050640В курсе от яндекса математика очень простая, буквально на пальцах. Для первого раза заходит хорошо, а потом уже можно догоняться нормальными курсами от стенфорда и учебниками.Еще от ods курс ничего.
Посоны, хотел в интернете учиться алгебрической геометрии, потому что в универе уже учусь на прикладного математика и связывать свое существование только с пучками нет желания. Просто ради интереса, посмотреть что это такое и сделать доказательство теоремы Римана-Роха. Но из 2х лекций Вербита что посмотрел на ютубе к делу ни относилась ни одна. Такое ощущение, что он там читал вольный пересказ одного и того же текста "какие алгебраические геометры ахуенные". Поэтому не знаю с чего конкретно начать.
>>1050903Наверное это хорошо, что на дваче сидит столько душевнобольных и дебилов. Они не лезут в другие места.
Посоны, хотел в интернете учиться академической гребле, потому что в универе физкультуры уже учусь на тренера и связывать свое существование только с байдаркой нет желания. Просто ради интереса, посмотреть что это такое и сделать 500 метров в лодке К-1 за минуту и 39 секунд. Но из 2х лекций профессора Селуянова что посмотрел на ютубе к делу ни относилась ни одна. Такое ощущение, что он там читал вольный пересказ одного и того же текста "какие окислительные мышечные волокна охуительные". Поэтому не знаю с чего конкретно начать.
Что думаете про курсы Техносферы? Те же проблемы, что и у ШАДа? Хотелось бы услышать от тех, кто прошел их двухгодичный курс или около того.
Почему любые другие IT-сферы кажутся совсем унылыми после работы над аи-проджектами?
>>1050969где ты умудрился РАБотать над Аи проектом?https://www.youtube.com/watch?v=O9l5NVIjv94
>>1050977Стартап грузинский.
>>1050977аи-рилейтед имеется в виду.
Есть нейронка с "подпиткой" симуляцией "удовольствия" на lua? Ну типа ту нейронку которая DeepMind использует.
>>1050992Открой чакры, сын мой, и откроется подпитка энергией тебе.
>>1051017Я имел в виду:Есть нейросеть. Когда она все делает правильно, то учитель говорит:это хорошо. И нейросеть старается придумать как этих "хорошо" получить больше.
>>1051022Deep reinforcement learning ты имел в виду. На луа такое вряд ли есть, разве что под torch запилили, в чем я сомневаюсь. Зачем тебе это, пользуйся реализациями на пистоне - openai gym / universe
>>1051030В питон вкатываться... такое.Посмотрю в интернете, думаю будет библиотека.
Что делать с NaN в датасете? Есть во всех столбиках и строках, так что просто дропать нельзя.
В /s полтора пердошкольника, напишу сюда. Тут кто-то слесарьплов с поддержкой видюхи ставил?Ставлю TensorFlow с поддержкой GPU по мануалу отсюда http://www.nvidia.com/object/gpu-accelerated-applications-tensorflow-installation.html все валится с ошибкой на последней комманде из 3го пункта (установка куды, cudnn):/sbin/ldconfig.real: /usr/local/cuda-8.0/targets/x86_64-linux/lib/libcudnn.so.7 is not a symbolic link/sbin/ldconfig.real: /usr/lib/nvidia-375/libEGL.so.1 is not a symbolic link/sbin/ldconfig.real: /usr/lib32/nvidia-375/libEGL.so.1 is not a symbolic linkАбдейт, абгрейд делал (гуглил, там это советуют), все бесполезно. Просто пишет эту ошибку и все. И как быть-то?
В шапке нихуя нет, че почитать по нейронкам?
>>1051217Это намек на то что хватит вкатываться.
>>1051222Та я не вкатываться собрался, мне просто интересно, меня устраивает и формочки клепать на js/php.
>>1051167гугли fillna
>>1051284Напихать своих значений я могу и без библиотек.
>>1051297В чём проблема тогда?
>>1051363Во мне. Ненавижу себя.
Шапки не будете делать?
Шапку не будете делать?
Шапку треда буⰟдетеⰁ делать?
>>1051400>>1051401>>1051406Нет.
>>1050949Бамп вопросу.
>>1051462Техносфера же для студентов МГУ только или нет?
>>1051471Вроде да. Или только для основных техфаков.
>Техника атаки на системы, использующие алгоритмы машинного обученияhttps://www.opennet.ru/opennews/art.shtml?num=47086
>>1051416Лучше сделайте. Иначе появятся два треда: один без шапки, другой без трусов.
>>1052509>Иначе появятся две нитки: одна без шапки, другая без трусов.
Неужели в этом треде нет мгушников.
Меня очень сильно напрегает, что про теносферу нет ни одного адекватного отзыва в интернете, максимум - обзоры от всяких журналов о том, как круто - биг дата и машин ленинг, 300к/секунду и прочее.
>>1052639>напрягает
>>1052639В правильном направлении мыслишь. А разгадка проста - эта ваша техносфера суть маняпрожект для галочки, яндекс - рекламное агентство, ни во что кроме агрессивной рекламы не могущее (а особенно в МЛ), МГУ - африканское ПТУ для ТП с силиконовыми дакфейсами и мажорчиков на бентлях, преимущественно с монобровью.
>>1052639> теносферу сначала прочитал тенсорфлоу лол про него тоже нет
>>1052645Насчет всего остального не знаю, поэтому и спрашиваю, но вот это>МГУ - африканское ПТУ для ТП с силиконовыми дакфейсами и мажорчиков на бентлях, преимущественно с монобровьюточно неправда. Может с остальным ты тоже ошибаешься. Извини, но в таком случае я не могу доверять твоему мнению.
У МЕНЯ НЕ СТОЛЬ БУЗУМНАЯ ИДЕЯНейронка на AutoIt3.
хочу сделать себе робота со стальным фаллосом, чтобы долбил во все дырочки :3рейт идею. смогу ли я под нее выбить гранты?
>>1052768Таки да, хорошо для взаимодействия с внешним миром. Можно обучаться на любой хуите.
>>1052837Или там нельзя смотреть видеопамять?
>>1052738>я не могу доверять твоему мнению. А не надо доверять мнению. Доверяй фактам. Факты ты сам озвучил, выводы тоже сам делай, 1 и 1 сложить не сложно.
>>1052848А какие факты? Я написал, что нет отзывов, это можно списать на то, что место новое, да и если бы там было прямо отвратительно наоборот из всех щелей бы лез негатив, а так непонятно.
>>1052841Можно
а если я хочу сайт с нейронкой сделать на пхп, мне как-то питоновские либы туда надо прикручивать или можно прямо на пхп свой велосипед написать? просто оче мало хостингов, поддерживающих питон
>>1052879На похапе есть какая-то либа для МЛ https://github.com/php-ai/php-ml
>>1052885да я знаю эту либу, но она маленькая и единичная, а ведь на питоне есть оче большая либа, которая во всех учебниках приводится, вдруг мне понадобятся алгоритмы из нее.
>>1052768Есть нормальные либы для AutoIt3?
>>1052879юзай flask может?
>>1043666Надо будет добавить сумму.
Какие мысли по поводу plot.ly/api/ ?
>>1052991Изи.
>>1053173Эх, с плюсами проебался. Вот так правильно.
>>1053174Йобы, соберитесь в ряд!
Нужно еще добавить йобу-интеграл и дифференциал.
Например.
Вот тут говорилось, что нейроночки тащат в машинный перевод и вообще NLP сейчас самый топчик. В связи с чем вопрос - чем можно нормально перевести текст с немецкого пусть на английский (про русский и не заикаюсь, хуле уж). Нормально - значит учитывая структуру предложения, семантику там хуе-мое, вот это все, а не просто отдельные слова. Чтобы в итоге не получалось нечитаемого набора слов. Есть такая возможность?
>>1053250Гугл переводчик и можешь какое-то ПО для проверки грамматики или еще там что.
>>1053250>чем можно нормально перевести текст с немецкого пусть на английскийhttps://translate.google.comhttp://www.bing.com/translator/
>>1053258Правивильно будетWir gehen in DIE Schule
рейтаните мой простенький персептрон на php. :3https://ideone.com/qyao0t
>>1053700ой, там одну переменную надо было поменятьhttps://ideone.com/Ljtxzy
>>1053250дефаин семантика, формально опиши, в чем разница между семантикой и синтаксисом, без упоминания валентности и 10 падежей, ведь это тоже синтаксис, просто неявно выраженный.В этом собственно одна из проблем.
>>1053702С точки зрения программирование - гомно. Я бы начал с написания своей либы для матриц, иначе нечитабельные циклы будут. + константы сразу привыкай прописывать, замучаешься менять же.Ну, под либой я подразумеваю на коленке сделанные функции или классы. Чтобы основная логика читалось норм. Даже если пилишь оч быструю и грязную реализацию, основные правила лучше не вертеть на хую, себе дороже будет.Какой левел? Го болтать, пацаны. У меня ощущение, что каждый школьник учит нейроночки. А те, что в Москве, и имеют все шансы на какой-нибудь Яндекс, ебошат на острие науки уже.
Как это делается? Читал про style transfer, нихуя не понял. По сути же там автоэнкодер да?
>>1053885Просто нашли фото похожих людей.
>>1053823Двачую, заебали вкатывальщики. Вот я начал вкатываться до того, как жто было мейнстримом, а смысл?Алсо писал свою ""либу"" для матриц на jsдаже на тайпскрипте, если это что-то меняет, было дохуя перемножений в секунду, но работало на удивление очень шустро.первый курс
>>1053922>заебали вкатывальщикиЖопкой уже чувствуешь конкуренцию со школьниками заканчивающими ШАД? Чувствуешь приближающеюся ненужность, отказы на собеседованиях, гнет ебанотеки, вечерние запилы жены про отсутствии денег? На вакансию с зарплатой в 60к уже стоит очередь из студентов с несколькими публикациями? А у тебя еще ни одного препринта?Вы вкатились слишком поздно. Попробуйте выкатиться.
>>1053928> Попробуйте выкатиться в окно
>>1053928Я тут раньше выкладывал картинку, где какой-то отец обучал четвероклассницу машобу с помощью лекций на ютубе.
>>1053941С одной стороны, ничего внятного по лекция на ютюбе не сделаешь. С другой - человек посмотрит на ютюбе, ему станет интересно, он начнет разбираться глубже.Говно короче, хуй знает что делать.
>>1053823ой ой ой, я же написал, что это просто максимально простенький персептрон. А то такие как ты для простого действия начинают городить абстрактные фабрики синглтонов из кучи классов и интерфейсов, даже не поймешь, что они делают. Как работает персептрон и самостоятельно набросать его я в итоге смог только прочитав 60 страниц, 59 из которых был ненужный матан.
>>1054249Ой, иди нахуй. Я тебе годный совет дал, а ты не чувствуешь разницы между простенький и хуёвый. Абстрактные фабрики тут не причем. Как ты вот learning rate подбирал? Каждый раз бродил по коду и менял 0.25?
>>1053922Ну заебись, первый курс. Я на первом ещё даже теорвер не прошёл. Ща бакалавра получаю, дошёл только до свёрточных. Ничего, ща ёба проект для диплома заебашу, и вы все соснёте хуев со своим шадом.
>>1054261Что за проект?У мея вообще 0 идей что для диплома брать.
>>1054260> learning rate А как его подбирают? Я скопировал из примера в книге, там такой дается, чтобы не сильно большой (даст не корректный результ) и не сильно маленький был (медленно будет обучаться).
>>1054284Чем ваши научники занимаются?
млин, я пока в отпуске был и появилось свободное время, решил взять вашу книжечку по ml, накатил питон и NumPy. Как же это интересно боже. Я теперь не знаю, как на работу возвращаться и опять заниматься версткой 8/5 после такого??Я чувствую, что на меня даже на работе смотрят, как на зашкваренного питуха (я там один на верстке сижу).
>>1054292пепе фрог отклеился
>>1054288Откуда мне вообще знать.
>>1054292Какую книжку брал?
>>1054306По ml.
>>1054306там выше скидывали.ML Marsland
>>1054287Да сам поймешь потом.>>1054292Двачу. Аще лень работать.
>>1054329>X-FilesЧто-то здесь не так.
>>1054374https://doc.lagout.org/science/Artificial%20Intelligence/Machine%20learning/Machine%20Learning_%20An%20Algorithmic%20Perspective%20%282nd%20ed.%29%20%5BMarsland%202014-10-08%5D.pdf
>>1036439 (OP)Могу ли я на Scheme Lisp заебашить нейронную сеть?
Как без pygal и pandas (только с помощью matplotlib) сделать такой график?Есть два списка x, y. В одном названия столбцов, в другом количества.plt.bar(x, y) выдёт ошибку, видимо потому что x состоит из строк, а не чисел.
>>1054510что то типаplt.hist(y)plt.xticks(x)
>>1054517TypeError: unorderable types: numpy.ndarray() < str()
>>1054519plt.xticks(range(len(x)), x)
>>1054523сажа прилипла
>>1054510на цсс + жс легко.
>>1054523О, спасибо большое, заработало.
>>1054490Да, чому нет. Если придумаешь как читать jpeg в список, то запросто. А ты школьник/первак, дрочащий сиспу?
>>1054575Совсем одурели уже. Кто мне сможет внятно объяснить, как вообще нейросети связаны с jpeg?
>>1054724Да я ебанутый, не обращай внимание. Хотел сказать, просто данные, которые ты будешь учить и предсказывать. Но место данных сразу представил пикчу, и подумол, что сжатые форматы без готовых либ читать заебешься.
>>1054575У меня консольное приложение на лиспе, да и в целом язык нравится. Также повод сикп дочитать.
Ребзя, я продолжаю читать кижечку по машобу и там очень много ссылок на смежные работы (персептрон, бэкпропагейшн, классификации и т.п.). Так вот стоит ли мне все их читать, чтобы въехать в курс дела или лучше пытаться писать свои персептроны, кластеры и алгоритмы?Наверное, лучший ответ - это совмещение теории и практики. Например, покурить доки NumPy?Что посоветуете? Скоро выхожу на работу и времени будет мало.
>>1055664Какой смысл что-то без практики читать?
Какая нужна математика для понимания книг по вашему машобу? И какие есть ресурсы, чтобы ее выучить? mathprofi хватит или что-то еще будет нужно?
>>1056145
>>1056182Что такое e и почему йобы в фигурных скобках что означают эти скобки? нечеткие? И как понять теорему байеса, я просто совсем не знаком с теорией вероятностей?
Привет!Я достаточно уверенно пишу на Python, классическими алгоритмами.К современному миру машоба решил приобщиться через адаптацию книги на изображении 1. Уже на первой главе меня встретила математика.Нужно сказать что я ее порядком не помню, разве что численные методы, которые преподавали в непрофильном техническом ВУЗ. Какие выкладки следует знать? Только матрицы, или еще что-то? Насколько сильно абстрагирование sickit, keras и прочих либ от математики?Может быть, вам видится другой путь изучения, только, пожалуйста без букваря/азбуки/SICP и прочего в начале.
>>1056213Абстрагирование сильное, просто в учебниках углубляются в детали, чтобы ты знал, что пихаешь в аргументы функций, так что лучше попытаться что-то понимать.
>>1056213https://www.r-bloggers.com/the-real-prerequisite-for-machine-learning-isnt-math-its-data-analysis/
>>1056203>>1056145бамп вопросам
Что лучше для поиска работы на швитом, r или питон?
>>1056223>>1056215Спасибо за мнения.>Note that as this post continues, I’m going to use the term “data analysis” as a shorthand for “getting data, cleaning data, aggregating data, exploring data, and visualizing data.”В его понимании, собственно, я владею анализом данных.
>>1056236В архиве работаешь?
>>1056244Нет, моя работа вообще не связана с компьютерами. Это хобби.
Вообще это нормально, что я пропускаю места с мат. формулами в книгах по мл? Я просто не понимаю их, но общие описания принципа работы персептронов там бэк пропагейшн, хидден лэйерс я вроде понимаю. Алсо мне было бы значительно проще, если бы эти формулы записывались кодом (питоновским). Но вместо этого приводят только названия функций из Numpy, которые реализуют эти формулы. Зачем так делается? сложна жи
>>1056203Бамп вопросу
>>1056290Зачем в МЛ полез, макака?
>>1056330илитный матиматик закукарекал.
>>1056290>если бы эти формулы записывались кодом (питоновским)Покопипастить не удается, быдло?
>>1056290>я вроде понимаюты думаешь, что понимаешь
>>1056336Тащемо понимать можно на разном уровне.
>>1056203Е - это число Эйлера. Размытые йобы в фигурных скобках - элементы нечеткого множества, элементы множества вообще принято указывать в таких скобках, это стандартная нотация. Теорему Байеса понять очень просто, достаточно подумать над этой формулой. Если в теорвер вообще не можешь - читай Вентцель "теория вероятностей", там все очень подробно, в т.ч. и за Байеса с кучей примеров.
>>1056290>я пропускаю места с мат. формулами в книгах по мл? Я просто не понимаю их, но общие описания принципа работы персептронов там бэк пропагейшн, хидден лэйерс я вроде понимаю.Наркоман чтоле? Формула алгоритма / его части - это и есть принцип работы этого алгоритма / его части. Как можно понимать принцип, но не понимать формулу - формальную запись этого принципа? Бред какой-то.
>>1056416как можно понять эти формулы? какие-то закорючки. Я уже не помню, что такое y, x, k
>>1056418И что тут непонятного? Логарифм, сигма, дельта Кронекера? >Я уже не помню, что такое y, x, k Записывай, лол. В тексте 100% написано, что это.
>>1056420>дельта Кронекераа ну теперь-то стало понятно. только вот для обычного самоучки из пр без мат. подготовки это не понятно. может какой-то вводный курс по матану перед книжка советовать, который бы расшифровывал эти символы? типа справочника. а то ведь их хз как гуглить
>>1056436>только вот для обычного самоучки из пр без мат. подготовки это не понятноНахуй ты нужен, самоучка? Почему в айти столько уебанов, считающих, что без фундаментальной подготовки они здесь что-то смогут? Все равно что хирург-самоучка придет в больницу устраиваться на работу и скажет: "Ну я это, дома хлеб и колбасу резал, значит и людей смогу резать, хуле тут сложного".
>>1056437потому что Мистер Робота посмотрели ;)вообще что тебе не нравится? могу и хирургом стать при нынешнем обилии мануалов в сети, если я закажу соответствующее оборудование. но это мне не особо интересно. хотя подумываю о приложухах на стыке медицины и кодинга, индивидуальных роботов-лабораторий типа "домашний доктор", но тут у меня пробел в бюджете.а весь программач - это сборник туториалов по кодингу, почему не запилить туториал по матану, юзающемуся в кодинге? и почему тебя это так злит? мы вообще тут за свободное распространение информации. на вот манифест аарона почитай:http://www.furfur.me/furfur/heros/manifesto/179919-aaron-swartz
>>1056436ИТТ сто раз жи писалось, что для МЛ ничего сверхъестественного знать не нужно. Матанализ, линал и теорвер на уровне читанных по диагонали любых первых попавшихся учебников/методичек, больше для общего развития, как раз чтобы не впадать в ступор при виде сигмы или той же дельты Кронекера.
>>1056413Спасибо. Теперь где можно подробно прочитать про число эйлера и множества, в том числе нечеткие?
>>1056437Не знаю. Получил заборостроительное, всё пока понимаемо. Но возможно только лишь пока. >>1056420>дельта КронекераЛол, впервые слышу. Но, бро >>1056418 в твоих формулах нет ничего мутного. Они все чисты и используют самые примитивные математические операции. Поверь, если бы ты немного разобрался, ты бы понял, как со стороны странно выглядишь.
>>1056445Да это легкое, ты бы лучше разобрался с теорией вероятности и теоремой Байеса.
>>1056445Число Эйлера - обычноконстанта. Просто знай её, посмотри график натурального алгоритма. Потом уже на примерах увидишь, как её юзают.Нечёткие множества - зачем? Пока дрочишь нейроночки, можешь забить.
>>1056464Будет как тни в универе, которые до последнего курса тупят перед доской: как продифференцировать константу.
> как понять теорему байесаЭто траленг такой?
>>1056470(C-C)/2*e = 0 Численные методы наше всё.
Вот в этой книжке есть абсолютно весь матан который нужен для статистики.
>>1056481Здесь только хипстеров нехватало. Где твои конспекты из универа, манюша?
Почему просто не выпустить одну версию книжек по МЛ для математиков и вторую для программистов, где все уравнения и формулы описаны кодом?Зачем заставлять кодеров тратить время на матан, а математиков разгребать код?
>>1056485> нет, хочу жрать конспекты сомнительного качестваАлсо в моих много чего не было.
>>1056451я провинциальную вечерку 11 лет назад заканчивал и по физике, геометрии и алгебре у меня были тройки. причем училки по алгебре всегда издевались надо мной и у меня сложилось довольно негативное мнение об этом предмете.
>>1056491А у меня была гора конспектов. Причем я конспектировал учебники в основном: Кострикина, Кудрявцква и тд. Когда узнал что предки их выкинули, знатно у меня пригорело.
>>1056491>>1056492Съебите из этого треда, уебища.
>>1056472Да там рассказывают о каких-то печеньках
>>1056472К сожалению, нет.Я просто пытаюсь в машоб, вот начал с математики.
>>10564881) Язык математики лучше подходит. Нет, сам подумай, это же бред. Из кода хуй вытащишь смысл формулы. Это полный бред.2) Таки книги вполне пишутся под программистов, и формулы там простые. А дело в том, что хороший программист есть инженер. И когда он получает вышку, его как минимум надрачивают на типовые задачи, и он чувствует себя комфортно с твоими страшными формулами. Нет, чувак, это бред. Твои формулы зайдут и школьнику без проблем. Разве что вероятностный смысл всяких там softmax будет неочевиден.А если ты тот пхпшник, то не льсти себе, ты пока что и на программиста не тянешь. 3) ML в идеале для прикладных математиков. Тот же Бишоп грил, что его книга для phd студентов.
>>1056518>Из кода хуй вытащишь смысл формулы.1) А какой там смысл формулы? Как раз кодом формула гораздо лучше описывается и понятнее.3) МЛ пишется с помощью кода, значит это для программистов. То, что не хотят писать формулы кодом - т.е. на понятном программистам языку - это проблемы математиков, написавших книгу.Т.е. специально завышают порог вхождения и стопорят развитие науки, заставляя программистов тратить время на иную дисциплину.
>>1056518>>1056527На самом деле существует нотация, которая согласно изоморфизму Карри-Говарда одновременно и кудахтерный код и математическая формула. Вот только с той нотации хуеют как 95% математиков, так и 95% программистов. Поэтому пусть уж лучше будет как есть, тем более, что все формулы в МЛ это реально простейшая дискретка, доступная любому птУшнику при минимальном желании разобраться.
>>1056527Даешь квоты для птушников! Долой несправедливость!
>>10565271) Изначальная задача нахождение весов - задача минимизации функции ошибки. Как ты это запишешь в виде кода? В коде уже применяется численный метод для решение данной задачи. Как ты будешь понимать это по коду? 2) Нет, основа мл - мат. модели. Значит это для математиков. Без формул матмодель не объяснить. По коду ты лишь видишь тупой алгоритм, без понимание, почему он должен работать. Реализаций можно вообще дохуя запилить, тот же SVM.
>>10565321 - это для дефолтной нейронки пример.
>>1056499Дефайн уебище
>>1056496Нахуя?
>>1056536Что нахуя? Нахуя конспектировал, нахуя выкинули, нахуя пригорел?
Нейроночки в js завезли уже?
>>1056538Нахуя конспектировал учебники?
расшифруйте мне вот эту формулу раз такие умные. Что это за С с хвостиком и n c хвостиком?
>>1056543Что там расшифровывать? Такую нотацию задаёт автор.
>>1056541Чтение дает самый фиговый уровень понимания сложных вещей. Проблема в том что человеческий мозг способен запомнить и узнать даже волосню на заднице рандомного мимококодила. Но узнавание не есть понимание. Когда угораешь по какому-то делу до такой степени что, если тебя разбудят среди ночи и спросят по этому делу, то ты, не моргнув глазом, начнешь отвечать - это хороший уровень понимания.
>>1056547Читать учебник != понимать. А понимать можно и без конспектирования. В лучшем случае, на временных листках что-то доказать/решить. Вот переписывание учебника точно не даёт понимания.
>>1056549Переписывание != конспектирование. Конспектироване == сжатие информации == выделение главного => ты должен понять, что является главным. Советую еще самостоятельно доказывать максимум лем и теорем из учебников. Можно подглядывать только идею доказательства. Польза от прочитанной книги максимальна, когда ты помнишь содержание и можешь по нему воспроивести в памяти кратко весь материал.
>>1056554Бред какой-то. Вот я читаю книгу. Вот я вижу что-то, что нельзя просто прочитать. Вот я это понимаю. Если готовлюсь к экзаменам - то ок. Но для экзаменов у меня есть конспекты лекций, или методичка. Но ирл мне пригодится именно тот факт, что я прошёл через понимание, и запомнил, где что подглядеть. Смысл выписывать "главное"?
>>1056554Я вот иногда расписываю неочевиднфе мне моменты, но чтобы прям конспектировать.
>>1056565Можешь продолжать в том же духе. Будешь как большинстово хипстеров, способен только чекать, какую из тысяч книг ты читал или нет. Узнавание - оно такое - создает иллюзию знания.Решение задач, конечно, хороший тест на усвоение материала, и он обязателен, но этот тест не покрывает все случаи. Просто решая задачи из учебника, ты не установишь связи между разными знаниями, которые ты уже приобрел или приобретешь. Почему-то считается, что преподование лучший способ глубокого понимания предмета.А вообще я сейчас тоже как ты ленюсь.
>>10565321. Ну как берешь и записываешь в виде функции с переменными.2. ой все. ну значит надо брать и для таких как я расшифровывать каждую закорючку в формуле - это сигмоид (ссыль на вики), это весы, это дельта кронекера (ссыль на вики), эта формула делает то-то. а то напишу значение переменных вначале книги, ищи их потом в 400 страницах, чтобы каждую формулу понять
>>1056584Он толстиит, я не верю что такие бывают.
я пукнула
>>1056571Лолшто? Это не узнавание. Я получаю от книги скиллы, которые могу на практике закрепить решением задач. А вот смысл переписывания якобы главных мест книги - ты не показал. Я вот приемлю это только на временных листах, аналогично с упражнениями.Про связь знаний - установлю. Что мне мешает? Чем поможет конспектирование?
>>1056584Давай, покажи для той минимизации. Ещё раз говорю, кодят численный метод. Алгоритм кода не отражает модель полностью. А исследуют и работают именно с моделью.Нет, надо чтобы ты имел базу перед взятием учебника (которая, как тебе уже тыщу раз сказали, очень простая). Вообще, даже пусть тебя хотят конкретно научить решение персептрона с помощью градиентного спуска. Как ты думаешь, почему код является самым паршивым объяснением алгоритма даже среди кодеров? Почему нужно писать всякие слова, комментарии, пояснения?
>>1056595>Я получаю от книги скиллы+5 к интеллекту-15 к скрытности
>>1056584Алсо, какой лвл? Я пытаюсь понять, ты просто птушник или реально школьник, который решил типа маошоб мммммммммммммммммм.
Ну вот хотел по-быстрому теорию нейроночек почитать, чтобы понимать, что в тех либах, которые я буду использовать для своего сайтика на нейроночках.а получается, что мне еще пару лет придется потратить на чтение лит-ры сначала по нейронкам, потом по матану, а сайтик придется отложить на это время. ._.
>>1056602> какой лвл?16 лвл
>>1056602>>1056492попробуй посчитай мой лвл, гений математики.
>>1056588Как запах? Нравится или бывало получше?
>>1056610пернула при своем парне. так стыдно ппц
>>1056610Думаешь девочки пукают духами? А ледибои чем?
>>1056611Ну бывает. Если бы ты пернула, делая бурпи или отрабатывая удары в челноке, можно было бы сказать, что рабочий процесс хорошо идет!
>>1056605Еба, какие пару лет, твоя нейроночка это просто составная функция а бекпропагейшн это просто взятие производных, сомневаюсь что для твоего сайта нужно более детальное понимание.
>>1056612Ну я люблю занюхнуть свои пуки. Наименее интересный запах - это когда кишка пустая, а самый вкусный - когда внутри есть немного свежего дерьма или слегка залежавшегося. Свежее дерьмо пропитывает пук ядреным запахом, а лежалое - густым, выдержанным ароматом.
Сколько минимум нужно картинок с капчей, чтобы сделать её распознавалку?
пидорасыhttps://2ch.hk/pr/res/1056633.htmlhttps://2ch.hk/pr/res/1056633.htmlhttps://2ch.hk/pr/res/1056633.htmlhttps://2ch.hk/pr/res/1056633.htmlhttps://2ch.hk/pr/res/1056633.htmlhttps://2ch.hk/pr/res/1056633.htmlhttps://2ch.hk/pr/res/1056633.html
>>1056540Да, но там чисто на поиграть. Что-то серьёзное сделать можно только на python/cpp.
>>1056543>С схвостикомВ голос. Это либо дзета, либо кси. Нотация авторская.ru.m.wikipedia.org/wiki/Греческий_алфавит
>>1056650Java?????????????????????????????
>>1056699Для рептилойдов.
>>1056464>график натурального алгоритмапроиграл, 6ти калссник учит 6 классника что такое логарифм, экспонента и е.
>>1057838Иди нахуй, я опечатался.
>>1043554> eep reinforcement learning запилить бота, который на бирже всех вертит на хую и рубит миллиарды, то вот это было б годно.Уже сделали.
>>1037045Двачую реквест
>>1043685x * w
>>1065779x[ i ] * w[ i ]
>>1050864Какие?