[Ответить в тред] Ответить в тред

02/12/16 - Конкурс визуальных новелл доски /ruvn/
15/11/16 - **НОВЫЙ ФУНКЦИОНАЛ** - Стикеры
09/10/16 - Открыта доска /int/ - International, давайте расскажем о ней!

Check this out!


Новые доски: /2d/ - Аниме/Беседка • /wwe/ - WorldWide Wrestling Universe • /ch/ - Чатики и конфочки • /int/ - International • /ruvn/ - Российские визуальные новеллы • /math/ - Математика • Создай свою

[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 486 | 39 | 141
Назад Вниз Каталог Обновить

НЕЙРОНОЧКИ & МАШОБ #10 Аноним # OP  24/12/16 Суб 16:51:14  900102  
bishop & leno4ka.jpg (686Кб, 2048x1536)
mery xmas.png (729Кб, 1212x388)
книги
Pattern Recognition and Machine Learning, Bishop.
Information theory, inference & learning algorithms, MacKay http://www.inference.phy.cam.ac.uk/itila/
Machine Learning: A Probabilistic Perspective, Murphy

Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )
Elements of Statistical Learning ( http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )
Foundations of Machine Learning, أشهد أن لا إله إلا الله وأشهد أن محمد رسول الله. http://www.cs.nyu.edu/~mohri/mlbook/

Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L.

А. Пегат, "Нечёткое моделирование и управление"

другое
http://libgen.io / http://bookzz.org/ - здесь можно одолжить ^ книги и не только
http://arxiv.org/find/all/1/all:+nejronochki/0/1/0/all/0/1
https://www.reddit.com/r/MachineLearning/wiki/index

https://vk.com/deeplearning и http://deeplearning.net/reading-list/
https://www.kadenze.com/courses/creative-applications-of-deep-learning-with-tensorflow/info тюториал по slesarflow
http://rgho.st/8g68fTCSx две брошюры по deep learning для слесарей.

http://kaggle.com - весёлые контесты. денежные призы
https://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1 - олимпиадки

курс от китаёзы
http://videolectures.net/mlss09uk_cambridge/

яп
1. http://julialang.org/
2. https://www.microsoft.com/en-us/research/project/infernet/
3. https://www.r-project.org/
4. питухон и так все знают
5. idris/coq - модные яп для формально верифицированных нейроночек с тренировкой на этапе компиляции

ПЛАТИНА
Книги хорошо, но с чего начать практический вкат?
Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.
Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.
На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.
В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.

Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?
Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2017 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ru

Здорово, но я так и не понял чем же вы занимаетесь в IT компаниях?
Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.
ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.
Имхо, мы все же остаемся в первую очередь разработчиками.

Что такое TensorFlow?
TensorFlow - опенсорсный гугловый инструмент для перемножения тензоров и оптимизации функционалов. Опенсорсный - потому что даже важные куски типа параллелизации уже выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.

будет ли ML нужен в ближайшие 10 лет, или это просто хайп?
будет. хайп.

смогу найти работу?
Яндекс, мейлру, касперский, несколько биоинформатических компаний (iBinom, можно еще blastim.ru поскролить на тему работы), билайн (они с НГ целое подразделение открыли под ML и биг дату), связной. Ну и западные аутсорсы, если готов рачить за валюту.

нужна математика?
для начинающего ничего особого знать не нужно
https://www.amazon.co.uk/Calculus-Michael-Spivak-x/dp/0521867444
https://www.amazon.co.uk/dp/0534422004/ref=pd_lpo_sbs_dp_ss_2?pf_rd_p=569136327&pf_rd_s=lpo-top-stripe&pf_rd_t=201&pf_rd_i=0980232716&pf_rd_m=A3P5ROKL5A1OLE&pf_rd_r=3TZ38AZ2BY28R19H4SA5
https://www.amazon.co.uk/Calculus-Several-Variables-Undergraduate-Mathematics/dp/0387964053
https://www.amazon.co.uk/Introduction-Probability-Dimitri-P-Bertsekas/dp/188652923X
"основы теории вероятностей" Вентцель

поясните за нейроночки
нейроночка - массив зависимых типов

шад)))
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.
Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.

Тред #1: https://arhivach.org/thread/147800/
Тред #2: https://arhivach.org/thread/170611/
Тред #3: https://arhivach.org/thread/179539/
Тред #4: https://arhivach.org/thread/185385/
Тред #5: https://arhivach.org/thread/186283/
Тред #6: https://arhivach.org/thread/187794/
Тред #7: https://arhivach.org/thread/196781/
Тред #8: https://arhivach.org/thread/209934/
Тред #9: https://arhivach.org/thread/223216/
Аноним 24/12/16 Суб 16:52:47  900105
>>900102 (OP)
>2ой пик
Петух нечеткий, а колпак четкий.
Аноним 24/12/16 Суб 18:46:51  900154
http://blues--man.livejournal.com/19477.html

Поступают аналогичные мысли. Что думаете? Таки может мозг сделан на консервативной логике?
Аноним 24/12/16 Суб 18:50:20  900158
>>900102 (OP)
Хуле в шапке нет Artificial Intelligence: A Modern Approach?
Могу даже скинуть последний едишн в хорошем качестве http://rgho.st/private/8Q8w2dctn/c9dee82946e7e83ad0ab859bc125ed19
Аноним 24/12/16 Суб 18:51:12  900159
Так че, эти ваши нейросети это просто волшебство над матрицами?
Аноним 24/12/16 Суб 18:53:24  900163
А можно хоть в одном треде зк не постить эту шкурку?
Аноним 24/12/16 Суб 18:56:15  900164
>>900163
Теоретически, можно.
Аноним 24/12/16 Суб 18:57:53  900165
>>900154
спасибо, в след раз добавим

>>900163
https://2ch.hk/pr/res/898502.html
Аноним 24/12/16 Суб 19:02:24  900167
Пасаны, кто-нибудь ебашил вот этот контест? https://www.kaggle.com/c/titanic
У меня максимум получилось выбить 0.775 точность с помощью logistic regression (иногда random forest, если немного изменить входные параметры).
Я хуй знает ваще как там люди набирают 0.8++. Ну и те, кто набирает 0.85+ ясное дело читерят.
Аноним 24/12/16 Суб 19:04:26  900169
>>900165
Там нечего добавлять. Это скорее призыв к обсуждению. Скорее всего так и есть.
Аноним 24/12/16 Суб 19:08:01  900174
>>900165
Но она же не занимается мл-ем...
Аноним 24/12/16 Суб 19:20:41  900186
>>900174
занимается, видишь даже с бишопом тусит
Аноним 24/12/16 Суб 19:25:13  900187
>>900167
я лог регрессией пoчти 80 набивал
повышал точностьв основном фичеёбством, не интересно
Аноним 24/12/16 Суб 19:27:26  900191
>>900187
Каким фичеёбством?
Аноним 24/12/16 Суб 19:30:53  900192
>>900186
> с бишопом тусит
>отловила где-то после конфы
Аноним 24/12/16 Суб 19:36:32  900195
Давайте соберемся и начнем создавать ИИ
Аноним 24/12/16 Суб 19:40:33  900197
>>900195
Но нейронки же к ИИ не имеют никакого отношения?
Аноним 24/12/16 Суб 19:40:38  900198
>>900191
попробуй добавить новую фичу к каждой записи
1 если девочка 16 лет или моложе, иначе 0
Аноним 24/12/16 Суб 19:40:42  900199
>>900174
Ты что, забыл легендарный, сука, график с экстремумом?!
Она мастер на все руки — и мл, и дистрибутед клавд системс, и фронтендер, и байтоеб (вспоминаем ее первую книжку с которой все началось), и манагер — в общем, вайфу!
Аноним 24/12/16 Суб 19:42:49  900201
>>900197
Частичное лишь.
Аноним 24/12/16 Суб 19:43:47  900203
>>900198
А что, разве это не должно покрываться уже двумя имеющимися фичами: возраст и пол? Зачем их соединять?
Ну это конечно зависит от алгоритма. Но по крайней мере в decision tree там же идут отвелтвелния, он же наверняка распознает, что если чел девчока и ей меньше 16, то скажу, что она выживет?
Аноним 24/12/16 Суб 19:46:19  900204
>>900203
Лол, сейчас всякие моченые соединяют несоединяемые вещи. А началось все с комплексных чисел, когда моченый начал путать число и знак.
Аноним 24/12/16 Суб 19:46:56  900205
Пасаны, у кого в универе есть(были) предметы по machine learning?
Аноним 24/12/16 Суб 19:50:38  900207
>>900203
в логистической регрессии это мне добавило процента 2 точности емнип
Аноним 24/12/16 Суб 19:56:08  900210
>>900199
ты совсем позабыл что она знатная функциональшица, контрибютер в докер и вкусно готовит
Аноним 24/12/16 Суб 20:02:54  900214
Не ну, давайте запилим ИИ.
Аноним 24/12/16 Суб 20:48:20  900230
Посоветуйте какую нибудь книгу по нейросетям на русском, пожалуйста.
Аноним 24/12/16 Суб 21:14:15  900237
>>900205
У меня были, какой вопрос?
Аноним 24/12/16 Суб 21:15:18  900239
Какой уровень математики надо дабы вкатиться сюда?
Аноним 24/12/16 Суб 21:17:40  900241
>>900239
9 классов за глаза. Главное не слушай местных снобов с матаном и универом.

Нейроночки — это в 95% случаев массивяики где надо посчитать медиану.
Аноним 24/12/16 Суб 21:22:24  900242
>>900239
Достаточный чтобы вкатится в хаскель.
Аноним 24/12/16 Суб 21:23:51  900244
>>900237
Где учился?
Не, я просто спрашиваю, интересна.
Аноним 24/12/16 Суб 21:24:44  900245
>>900241
Отлично.
>>900242
Ты троллишь?
Аноним 24/12/16 Суб 21:27:35  900246
>>900245
Ты только учти, что сам по себе сабж достаточно сложный и ты его скорее всего дропнешь, если для души хочешь этим заниматься. Надо идти учиться в какой-нибудь иностарнный универ на курс именно по АИ, чтобы иметь возможность работать уже непосредственно дата сцаентистом.
Аноним 24/12/16 Суб 21:40:22  900248
>>900241
> нейроночки
> посчитать медиану
чо
Аноним 24/12/16 Суб 22:29:35  900264
Вопросики про ШАД.
- кто-то из треда учился там на заочке?
- подготовиться за полгода - реальная задача? Времени много, матан и теорвер минимально знаю. И вообще буду рад если поделитесь своим опытом подготовки и советами.
Аноним 24/12/16 Суб 23:02:28  900278
>>900242
> хаскель
> математика
Аноним 24/12/16 Суб 23:05:30  900281
>>900264
Нет там ничего ML-специфичного, знание матана и теорвера на уровне заборостроительного вуза. Теорвер проходится на третьем курсе, как раз 20 лет.
Рандомный хрен туда не сможет поступить, потому что планка намеренно задрана, а не потому что там такая охуенно сложная программа. Это традиционная наебка "элитных учебных заведений", в которой учат так же хуево, как и везде, но за счет отбора поступающих якобы формируются неебовые успехи, которые объясняются именно качеством преподавания.
Иными словами, у тех, кто способен поступить, и так в жизни проблем с трудоустройством не будет.
Аноним 24/12/16 Суб 23:46:45  900289
>>900230
пять тредов назад анон ТИМОЧКA решал задачки из русской книги по мл, поищи там
в её названии вроде было слово "алгоритмы"
сорян мне с таблетки не удобно искать
Аноним 25/12/16 Вск 00:08:22  900298
>>900244
СПбАУ
Аноним 25/12/16 Вск 00:10:26  900299
>>900289
Двачую реквест.
Аноним 25/12/16 Вск 00:45:33  900316
>>900167
0.775 это бейзлайн в кэггловском туториале.
http://ahmedbesbes.com/how-to-score-08134-in-titanic-kaggle-challenge.html
Вот, например, ссылка
Аноним 25/12/16 Вск 12:26:50  900480
>>900316
>>900167
>>900187
А вы не думали, что для этого датасета в принципе нельзя создать решающего правила со 100% результатом? Все, что можно вытянуть из самих данных, уже вытянули, остальные случаи выживших или невыживших выжили или не выжили просто потому что так получилось, а не потому что они относились к конкретному классу.
Аноним 25/12/16 Вск 14:58:33  900532
>>900480
большинство соревнований в кэггле на создание новых фич, на выбор фич, на нахождение корреляции там, где ее не должно быть (айдишники), базовых почти никогда не хватает
Аноним 25/12/16 Вск 15:04:28  900537
>>900532
А это не онанизм ли? Если я в случае с титаником к неправильно классифицированным объектам добавлю фичу "бохнакажет" (1 для невыживших 0 для выживших), и получу 100% правильную классификацию, то что это даст?
Аноним 25/12/16 Вск 15:20:43  900546
>>900537
если это нормальное соревнование, там тестовая выборка, ты не знаешь правильный результат для нее. А титаник - это туториал, посмотри лидерборд, там куча 100%.
Аноним 25/12/16 Вск 17:11:44  900647
>>900537
Это уже читы.
Аноним 25/12/16 Вск 17:15:01  900650
>>900480
> для этого датасета в принципе нельзя создать решающего правила со 100%
да, нельзя

> Все, что можно вытянуть из самих данных, уже вытянули, остальные случаи выживших или невыживших выжили или не выжили просто потому что так получилось, а не потому что они относились к конкретному классу.
вот это скорее всего нет, точность можно улучшать до какогото момента
Аноним 25/12/16 Вск 19:52:55  900766
SDC116061.jpg (960Кб, 2592x1944)
Вообще, ML скатывается. Если раньше был серьезный подход, а-ля пикрелейтед, пытались выяснить и обосновать формально, почему не получается идеальное распознавание, сделать выводы из полученных теорем, обойти ограничения, построить алгоритмы, которые не тупо асимптотически приближаются к наилучшему возможному результату, а используют особенности датасетов и т.д. и т.п., то сейчас уперлись в полтора решения - сверточные сети и бустинг и для улучшения результатов просто хуярят количество слоев. При 30 слоях ошибка 0,003? Ахаха, заебеним еще 150 слоев и получим ошибку 0,028. Похуй, что нейроночка на кластере месяц будет пыхтеть, зато результаты лучше чем у других))) Деградантство.
Аноним 25/12/16 Вск 19:59:12  900771
>>900766
Добавлю, что и занимались такими вещами академики, а не индусы с хипстерами на коворкингах и не ТП с 1го оп-пика.
Аноним 25/12/16 Вск 21:02:17  900846
>>900766
Знаешь, как это выглядит со стороны?
Представь ситуацию. Господа в смокингах и цилиндрах сидят в обедне и пьют чай, обсуждая свёрточные нейроночки, гауссовы процессы, вариационные методы, наконец. Тут к ним вползает пьяный вдрызг кучер Ванька. Отплевывая лошадиный навоз, он ссыт под себя, одновременно блюя на пол несвежим портвешком. Затем достает задроченный томик Вапника, найденный на помойке. "линейные мoдели, VC измерение - вот где мыслЯ, блеать, вот где красота и свежесть!". Смеясь, господа растегивают ширинки и мочатся быдлу в рот. Зовут R-макаку - местного R-задрота, он спускает частотопетуха с лестницы. Он делает это с удовольствием - хоть зачем-то сгодился элите. Поднимаясь за похвалой, он начинает зациклено бормотать про пакеты. Господа для острастки ссут на него, после чего возвращаются к своим светским беседам.
Аноним 26/12/16 Пнд 00:22:04  900996
>>900766
Во-первых, ты обязан тем, что тебя ценят, тем, что тебе удобно работать на дешевом железе и с удобными фреймворками этим самым индусам, которые полегли в конторах типа гугла и фб, чтобы запилить тебе удобно.
Во-вторых, ценно то, что работает и то, что ты сможешь запустить в прод максимально быстро и без еботни с интегралами. Понятно, что сетки пилить тоже не баб на сеновал таскать, но если при имеющихся ресурсах и данных это эффективнее - так и будут делать.
В-третьих, твое мнение как анонима с задрипанным учебником не волнует никого, если хочешь быть услышанным и вернуть "тот самый ML", осиль либо продать его компаниям, либо опубликоваться так, чтобы тебя заметили. До тех пор - милости просим изучать нейроночки.
Аноним 26/12/16 Пнд 10:18:51  901117
>>900846
>Знаешь, как это выглядит со стороны?
Со стороны параши выглядит именно так, как ты расписал.
>>900996
>ценно то, что работает и то, что ты сможешь запустить в прод максимально быстро и без еботни с интегралами.
>твое мнение как анонима с задрипанным учебником не волнует никого
Я же говорю, что в этом задрипанном учебнике доказывается, что в общем случае существует бесконечное количество алгоритмов, решающих задачу распознавания образов асимптотически близко к оптимальному. Из чего прямо следует, что "хуяк хуяк и в продакшон" можно сделать как минимум хуиллиардами разных способов, каждый из которых будет в общем случае не лучше остальных, просто результат будет круче у того, у кого кластеров больше. Это не просто путь в никуда, это натуральное топтание на месте. И мартышки даже не понимают этого, поскольку как ты правильно заметил, главное продать, а не разобраться в чем-то.
Аноним 26/12/16 Пнд 15:00:41  901251
>>901117
Удваиваю. Люди занимаются хуетой, не понимая что топчутся на месте.
Аноним 26/12/16 Пнд 15:17:27  901262
>>901117
>главное продать, а не разобраться в чем-то
WOK, школьник узнал про экономику. Школьнику осталось узнать про науку и разницу между этими двумя сферами деятельности.
Аноним 26/12/16 Пнд 15:45:44  901269
>>901262
Достаточно узнать, что ML-индусы, ТП из оп-пика и клоуны из барбершопов на коворкингах наукой не занимаются.
Аноним 26/12/16 Пнд 16:00:15  901280
>>901269
Именно, потому они не конкуренты затрибаным книгочитам. Читай, пиши, публикуйся. Может тебе даже денег дадут на эту науку в связи с тем, что МЛ-индусы деньги приносят в реальном секторе.
Аноним 26/12/16 Пнд 16:52:46  901324
>>901117
Так сделай правильно! Делать теоремы из кофе ебически тяжело, сварить теоремы в работающую конструкцию - тоже непросто. Побеждает не тот, у кого кластеров больше, а тот, кто приложит кластера в правильную сторону правильным образом. Если тебе кажется, что классический ML легко толкать вперед и применять в нынешних реалиях - примени, ты нарубишь на этом вагон денег и славы.
Если же вдруг окажется, что авторы статей по нейронкам тоже не дураки и идут туда, где проще получить реальный профит в виде точности предсказания/применимости на практике, то ты можешь просто посидеть на месте и дождаться, когда они за тебя сделают будущее.
Аноним 26/12/16 Пнд 18:26:02  901388
svm.png (154Кб, 1406x878)
Раз уж вспомнили про Вапника, поясните. В пикрелейтед схеме SVM (из лекции Воронцова) число h ядер опорных векторов - это и есть VC-размерность?
Аноним 27/12/16 Втр 00:14:09  901623
Правильно ли я понимаю, что чтобы использовать relu слои надобно сделать Batch normalization ? Просто пробовал вставить вместо tanh и получилась херня почти необучаемая или намного хуже обучаемая(в зависимости от размера батча и скорости обучения).
Аноним 27/12/16 Втр 00:50:32  901638
>>901388
Чё на картинке происходит?
Аноним 27/12/16 Втр 02:43:51  901682
>>901623
И еще, не совсем понятно с нормализацией входных данных. Как их нормализовать [0,1] или [-1,1] ? Во всех примерах делают [0,1], но у меня получалось лучше когда было [-1,1]. И как понмать вот такой pooling слой:размер 3x3, шаг 2, но уменьшает он почему-то он ровно в 2 раза, а не в два минус один. Как это понимать?
Аноним 27/12/16 Втр 10:56:56  901815
vapnik.jpg (57Кб, 1248x480)
>>901638
SVM ежжи. Натягивание совы на кернел с последующим поиском седловой точки совы, что по теореме Куна-Таккера равносильно поиску минимума вон того функционала справа методом множителей Лагранжа, т.е. решению типичной квадратичной проблемы справа внизу любым подходящим солвером.
Аноним 27/12/16 Втр 13:17:49  901927
>>900102 (OP)
> http://www.inference.phy.cam.ac.uk/itila/
объясните, куда нужно тыкать, чтобы открыть эту ссылку.
Аноним 27/12/16 Втр 15:19:42  901984
>>901925
>Для дилетантов вроде тебя
Ой, недилетант, плес. Школоилитарий голос подал. Расскажи, что нового в твоих сверточных нейроночках появилось с 80-х годов кроме relu вместо сигмоидов и количества слоев? При том, что сами эти нейроночки ничем не ушли от перцептрона, о чем писал сам Лекун (точную цитату и источник уже не найду, но смысл в том, что все что может сверточная сеть, может и перцептрон, просто у него в этом случае будет столько связей и элементов, что физически это нереализуемо).
И тут я такой вкатываюсь в этот тред Аноним 28/12/16 Срд 00:11:31  902242
1-011.JPG (89Кб, 1268x954)
А вот захотел, я например, ну чисто гипотетически, обмазаться нейронными сетями. Ну ок, захотел - че-б не обмазаться? Сейчас меня за такое вступление говном закидают. Полез, значит, в свою папочку с книгами, которые в 2012 году с торрентов нагреб - где-то там у меня Хайкин лежал ("Нейронные сети, полный курс, второе издание"), которого тогда читать начал и дропнул. По очевидным причинам - не осилил. Срубился на биномиальных представлениях, где он про обратные связи рассказывает.
Ну ок, читаю, значит. "синапсы Хебба", "расстояние Махаланобиса)))"... там, где "Обучение Больцмана" - на паузу поставил. На быстрой перемотке пролистал дальше - "нормальная проекция точки x на оптимальную гиперплоскость", "мультиномиальные вероятности, соответствующие решениям, принимаемым сетями шлюзов первого уровня k и второго уровня (j, k) соответственно", "аддитивный гауссов шум с нулевым средним значением и дисперсией, равной 0,04"...
Не, это конечно все очень круто. Но если за каждым гауссовым шумом в википедию лезть - я эту книгу и за год не прочитаю. Это уже не говоря о том, что теория, без подкрепления практикой, это вчера прочитал - сегодня забыл. Короч не стал я ее читать дальше, а пошел на торренты скачал А.Илюхина "Самоучитель игры на балалайке".

Так вот у меня вопрос. А есть что-то почитать по нейронным сетям без вот этих ортогональных преобразований подобия, а такое, чтобы "в цикле считаем вот эту хрень" или "весовые коэффициенты будем хранить в двумерном массиве"... Короч, че-нить такое, чтобы я мог сразу на своем любимом языке посмотреть, как эти мультиноминальные мехаланобисы работают. Ну а потом уже, с некоторым практическим опытом, садиться читать этот ваш матанализ, чтобы не натягивать его на лысую голову.
Аноним 28/12/16 Срд 00:23:55  902246
>>900102 (OP)
1 - говноглазая?
Аноним 28/12/16 Срд 00:43:45  902254
>>902242
Используй либы или учи математику.
Аноним 28/12/16 Срд 00:45:08  902256
>>901984
>(точную цитату и источник уже не найду, но смысл в том, что все что может сверточная сеть, может и перцептрон, просто у него в этом случае будет столько связей и элементов, что физически это нереализуемо).

Звучит как "это всё можно просто реализовать на ассемблере, потому что все тюринг-полные языки могут одно и то же".
Аноним 28/12/16 Срд 04:18:01  902308
Понимаю, что здесь опытные господа сидят. Но вдруг каким-нибудь вкатывальщикам-дилетантам, которые просматривают этот тред, будет интересна такая тема.
https://2ch.hk/sci/res/400025.html
Аноним 28/12/16 Срд 08:56:25  902356
>>902242
С Хайкина ты зря начал. Почитал бы хоть оп-пост, там его нигде не советуют. Я не зря просил туда добавить Fundamentals of Neural Networks: Architectures, Algorithms, and Applications, Fausett L. это очень годная книжка.
>че-нить такое, чтобы я мог сразу на своем любимом языке посмотреть, как эти мультиноминальные мехаланобисы работают.
Если можешь в пистон - однозначно http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6
Чтобы понять нейроночки, матанализа достаточно в объеме Зорича или Фихтенгольца, теорвер - Вентцель. Ничего в этих нейроночках умного нет, но если не знаешь что такое дифференциал или нормальное распределение - соснешь на первых же страницах любой книжки в тему.
Аноним 28/12/16 Срд 09:26:48  902366
как там, петушиные сети уже вышли за пределы манямирков матаноблядей?
Аноним 28/12/16 Срд 10:27:17  902386
1151502685441.jpg (158Кб, 420x525)
>>902366
>петушиные сети уже вышли за пределы манямирков
АТО! Они уже мамку твою вовсю посещают.
Аноним 28/12/16 Срд 13:46:35  902517
>>902246
красивые зелёные глоза
Аноним 28/12/16 Срд 14:17:47  902539
>>902514
Базу я получил в универе 12 лет назад и уже neehooja не помню - поэтому приходится гуглить.
Аноним 28/12/16 Срд 14:36:51  902556
>>902366
не, я серьезно, где эта ваша поебота хотябы на полшишечки составляет конкуренцию старому доброму процедурному по или эс?
Аноним 28/12/16 Срд 15:01:11  902587
>>902580
Нет, не верно.
Аноним 28/12/16 Срд 15:05:34  902594
>>902580
>"нейронные сети". круто звучит, верно?
а кроме звучания есть что стоящее?
Аноним 28/12/16 Срд 15:15:10  902600
Как бы мне во все это вкатиться? И зачем? И что делать, когда вкачусь?
Аноним 28/12/16 Срд 15:23:39  902608
лол, ловите дебилa
>>902600
>>902580
>>902556
Аноним 28/12/16 Срд 15:52:37  902621
>>902608
поймал нейропетуха
Аноним 28/12/16 Срд 15:53:42  902622
>>902600
>И что делать, когда вкачусь?
будешь ходить и выебываться терминологией, а так, хуйня без задач.
Аноним 28/12/16 Срд 16:45:30  902649
подборка тюториалов по глубоким нейроночкам и машобчику
http://yerevann.com/a-guide-to-deep-learning/
Аноним 28/12/16 Срд 17:20:29  902670
>>902649
нахуй учить то, от чего нет никакого толку?
Аноним 28/12/16 Срд 17:21:31  902671
>>902670
Ну раз школьник с мейл ру сказал, что никакого толку, значит так оно и есть.
Аноним 28/12/16 Срд 17:31:58  902679
>>902671
нешкольник может пруфанет продакшеном в котором петухоносети дают всем посасать, или обосрешься как обычно?
Аноним 28/12/16 Срд 17:34:04  902681
>>902679
Сейчас в тренде мл и биг дата. Они большие деньги получают.
Аноним 28/12/16 Срд 17:40:12  902686
>>902681
эта та хуйня которая пытается заниматься предсказанием по набрынным статистическим данным?
Аноним 29/12/16 Чтв 00:08:46  902826
>>902686
Братуха, это хуйня, которая пишет лучшее процедурное по в индустрии.
Аноним 29/12/16 Чтв 00:15:52  902828
>>902517
У мужика на пике тоже глаза зелёные или у них просто зрачки расширенные?
Аноним 29/12/16 Чтв 00:17:12  902830
>>902386
>АТО
Вторая чеченская.
Аноним 29/12/16 Чтв 00:19:30  902831
>>902580
>нейронные сети
- это как раз древнее наименование того, что сейчас называют машинным обучением
а глубокие ньюрал нэтвёркс на сеголняшний день известны под названием дип лёрнинг, глубокое обучение, т.е.
Аноним 29/12/16 Чтв 00:43:58  902842
>>902828
это бишоп
зрачки у ниx от счатстья рзсширились - они же мл занимаются
Аноним 29/12/16 Чтв 08:25:26  902942
>>902831
>ньюрал нэтвёркс на сеголняшний день известны под названием дип лёрнинг, глубокое обучение
глубокий орал, вся суть. хотя что можно ожидать от матанобоядей?
>>902826
>процедурное по в
ты прав, пихают во все щели неропитухам
Аноним 29/12/16 Чтв 15:33:31  903157
Антуаны, поясните за лекции от Кураленка из CSC. Стоит ли мне, ньюфане, совмещать с курсом от китаёзы и Бишопом?

Сабж: https://compscicenter.ru/courses/machine-learning-1/2016-autumn/
Аноним 29/12/16 Чтв 15:46:34  903161
blob (53Кб, 150x150)
>>903157
pisechku asechku
Аноним 29/12/16 Чтв 17:08:35  903191
Поясните за Equilibrium Propagation

И вообще, предлагаю обсудить тренды этого года. http://ai-news.ru/2016/12/ai_amp_ml_dajdzhest_4_16_trendov_2016_goda.html
Аноним 30/12/16 Птн 12:23:13  903515
Снимок.PNG (168Кб, 886x440)
К слову, тезис о том, что долбаебство с нейроночками есть топтание на месте вместо науки, выдвигал еще Вапник в 90-х. Пикрелейтед написано в 1996 году, спустя 10 лет с разработки бекпропагейшена. За это время не получено никаких интересных результатов, кроме изобретения пары велосипедов , например оверфиттинг, показанный для нейроночек и до этого был известен в ML, более того, известно что эта проблема обходится методами регуляризации. В целом же нейроночки не дали ничего для лучшего понимания проблемы обучения.
Аноним 30/12/16 Птн 13:10:33  903544
Уровни обучения:
Нулевой уровень - стимул-реакция
Первый уровень - само обучение
Второй уровень - обучение обучению
Третий уровень - обучение обучению обучению, вероятно этим занимается эволюция
Аноним 30/12/16 Птн 13:12:49  903546
>>903544
Хуйни не неси, ок?
Аноним 30/12/16 Птн 13:16:13  903549
Есть два стула: R и Python.
Сам я физик-твердотельщик, нужен инструмент для обработки результатов экспериментов (то есть, я готов потратить время на освоение нужных зачатков какого-то языка, лишь бы выхлоп был побольше). В мат. статистике более-менее шарю. Склоняюсь к R, так он является более специализированным языком, под него заточены различные математические книги (Elements of Statistical Learning, например, которую я сейчас читаю), но в то же время Python является более универсальным, на нем и диффурчики можно порешать, и пакеты с конечноэлементными методами есть и т.д. На какой сесть?
Аноним 30/12/16 Птн 13:19:16  903551
>>903515
90-е годы - это дно AI winter, сейчас за такое хуйцами наркомят, ебаный ты фрик.
Аноним 30/12/16 Птн 13:29:39  903555
>>903549
>Python является более универсальным, на нем и диффурчики можно порешать
Т.е. ты сейчас по-сути утверждаешь, что в R нельзя решать дифуры? https://cran.r-project.org/web/packages/deSolve/index.html https://cran.r-project.org/web/packages/deSolve/vignettes/compiledCode.pdf https://cran.r-project.org/web/packages/deSolve/vignettes/deSolve.pdf
>>903551
У манянейроночек с 60 годов винтер, хуле уж. Нормальный же ML никогда не стоял на месте, тем более в 90-е.
Аноним 30/12/16 Птн 13:44:46  903567
>>903549
Тебе шашечки или ехать? Диффуры какие - то. А говоришь, обработать результаты экспериментов....

мимо программист, умеющий ставить цели
Аноним 30/12/16 Птн 13:47:49  903569
>>903555
>Т.е. ты сейчас по-сути утверждаешь, что в R нельзя решать дифуры?
Ok-ok, я нагуглил шпрингровскую и чапман-энд-холловску серии книг по R. Перефразирую вопрос: серьезно ли R уступает, скажем, пакету Anaconda для Python? Или я могу засесть за R и у меня никогда не возникнет необходимости в других программных пакетах (в частности, необходимости в Python) применительно к научным вычислениям (собственно, я сейчас немного пользуюсь Mathematica)?
Аноним 30/12/16 Птн 13:58:51  903572
>>903567
Мне бы выхлоп.
Ну и это, стохастические дифференциальные уравнения или методы Монте-Карло, например. Что только сейчас в статистике не юзается. А прямую по методу наименьших квадратов я и сам построить могу.
Аноним 30/12/16 Птн 14:06:25  903576
>>903569
>серьезно ли R уступает, скажем, пакету Anaconda для Python? Или я могу засесть за R и у меня никогда не возникнет необходимости в других программных пакетах (в частности, необходимости в Python) применительно к научным вычислениям
Скорее всего, хватит R. В этих ваших анякундах вряд ли есть что-то нереализованное в R. Есть такое - https://cran.r-project.org/web/views/ тематические обзоры, основные решения, реализованные в R по основным же направлениям его использования.
Аноним 30/12/16 Птн 14:09:16  903578
>>903572
>стохастические дифференциальные уравнения
По стохастическим дифурам в R даже целая монография есть http://gen.lib.rus.ec/book/index.php?md5=0B15BAB1715984504EBCF736E8C6C820 как раз из шпрингеровской серии, и соотв. пакет от автора https://cran.r-project.org/web/packages/sde/index.html
Аноним 30/12/16 Птн 18:45:56  903712
Дайте что-то по генетическому программированию.
Аноним 30/12/16 Птн 18:55:05  903734
>>903712
В прошлом треде жи обсуждали. Лисп и прочая хуйня тут не подходят, нужна типизированная лямбда. http://www.genetic-programming.com/johnkoza.html https://cran.r-project.org/web/packages/rgp/vignettes/rgp_introduction.pdf если ты именно о генетическом программировании, а не о генетических алгоритмах.
Аноним 30/12/16 Птн 19:04:07  903745
>>903734
Почему нужна типизированная лямбда?
Аноним 30/12/16 Птн 19:11:19  903753
>>903745
Я сильно не вникал, возможно, меньше костылей и лучше результаты.
Аноним 30/12/16 Птн 19:37:43  903782
martinlof.jpg (27Кб, 400x366)
Возможно, генетическое программирование на MLTT - это вообще такой-то инструмент бога для экстракции программ из инфинити-топоса, вон как Максимка писал http://maxim.livejournal.com/479716.html
Аноним 30/12/16 Птн 19:51:56  903795
blob (145Кб, 320x350)
>>903782
варг красава, наукой занялся, теорией типов
Аноним 30/12/16 Птн 20:04:31  903799
>>902649
>тюториалов
Ну ты пиздец вообще
Аноним 30/12/16 Птн 21:39:30  903835
http://course.fast.ai
Аноним 31/12/16 Суб 10:22:01  904027
Снимок.PNG (161Кб, 1132x630)
Без глубокого понимания задачи распознавания образов невозможны нормальные алгоритмы для этого, которые будут не просто асимптотически приближаться к оптимальному варианту в зависимости от числа слоев нейроночки и количества GPU, на которых она работает, а давать хорошие результаты на основе правильной работы с данными. В настоящее время, как и в 70-х, самый правильный подход - теория статистического обучения. Самые годные алгоритмы на основе этой теории - бустинг, н-р deepboost https://github.com/google/deepboost https://github.com/dmarcous/CRAN_deepboost матчасть - http://machinelearning.wustl.edu/mlpapers/paper_files/icml2014c2_cortesb14.pdf
Аноним 31/12/16 Суб 15:05:40  904112
435635977640.jpg (16Кб, 640x480)
ТП с оп-пика не нужна. Пикрелейтед - единственная богиня ML.
Аноним 31/12/16 Суб 16:18:44  904137
>>900102 (OP)
>>904112

А я бы хотел трахнуть Катю Д. Я знаю, что она читает этот тред.
Аноним 31/12/16 Суб 16:45:05  904140
>>903555
Еще раз тебя спрашиваю, где твой SOTA по любой теме?
Аноним 01/01/17 Вск 01:14:59  904266
Посоны, вы обязаны создать ИИ в этом году.
Аноним 01/01/17 Вск 03:35:00  904284
>>904266
Это невозможно. Все, что создано -- это не более чем алгоритмы для решения определенных задач. ИИ в смысле человеческого интеллекта там и близко нет.
Аноним 01/01/17 Вск 03:37:47  904285
>>904284
По сути, ИИ, который аналогичен человеческому интеллекту или превосходит его, заключает в себе парадокс Рассела. Поэтому, дрочите дальше нейронки и не ебите мозги.
Аноним 01/01/17 Вск 06:30:23  904296
>>904284
Что такое человеческий интеллект?
Аноним 01/01/17 Вск 10:08:53  904303
>>904296
Это иллюзия. Человек не разумен
Аноним 01/01/17 Вск 13:23:17  904330
Поясните за нечеткую логику.
Аноним 01/01/17 Вск 14:51:31  904345
>>904330
Проверь за щекой.
Аноним 01/01/17 Вск 16:31:29  904367
Вот такой вот неуралтолк на виндовс
Bazel (We currently support only 64 bit Windows 7 or higher).
TensorFlow (only 3.5 and only for win64).
NumPy (instructions).
Natural Language Toolkit (Install Python 3.4: http://www.python.org/downloads/ (avoid the 64-bit versions)):
First install NLTK (instructions).
Then install the NLTK data (instructions).
Блядь, это какой-то пиздец. Короче на винде не пагамаешь.
Аноним 01/01/17 Вск 16:32:28  904368
>>904367
это я про это
https://github.com/tensorflow/models/tree/master/im2txt
Аноним 01/01/17 Вск 16:48:49  904375
>>904345
Там ничего нет. Пожалуйста, поясни про нечеткую логику.
Аноним 02/01/17 Пнд 01:06:48  904515
Смотрите что нашел
Аноним 02/01/17 Пнд 02:46:51  904533
>>904515
Ты нашел говно.
Аноним 02/01/17 Пнд 14:55:36  904663
11093-1.jpg (94Кб, 700x535)
>>904285
>ИИ, который аналогичен человеческому интеллекту или превосходит его, заключает в себе парадокс Рассела.
>парадокс Рассела.
Школьник где-то вычитал умный термин, такая милота. Причем тут основания-то, маня? Ты хоть понимаешь суть этого парадокса? Если даже и понимаешь, в чем я сомневаюсь, причем тут вообще ИИ, если любой хотя бы потенциально реализуемый алгоритм - это конструктивный объект, как и любые данные с которыми алгоритм может иметь дело? Именно поэтому в MLTT этого парадокса нет, его элементарно обошли, заменив тип всех типов на вложенную иерархию типов, что прекрасно работает в любом требуемом практическом смысле.
>>904515
Схема уровня пикрелейтед, этот >>904533 абсолютно прав. Погугли функциональную систему Анохина, там намного лучше.
Аноним 02/01/17 Пнд 15:52:51  904687
Почему Вы не любите нечеткую логику? А нечеткие нейронные сети?
Аноним 02/01/17 Пнд 15:57:01  904688
>>900102 (OP)
почему эти ссылки не открывают пдфники с книгами, а только показывают страницу с ссылками а по ссылкам какие-то таблицы с названиями книг?
Аноним 02/01/17 Пнд 16:05:21  904692
>>904687
Потому что здесь тусит поехавший шизик, который эту самую логику форсит уже много лет. Так-то эта штука очень годна для рисоварок, поэтому японцы на нее и дрочат.
Аноним 02/01/17 Пнд 18:12:40  904733
н1.PNG (103Кб, 621x697)
н2.PNG (579Кб, 1178x507)
каринасложно.webm (2433Кб, 1280x720, 00:00:11)
>>904692
>Так-то эта штука очень годна для рисоварок, поэтому японцы на нее и дрочат.
Раз школьник с мейлру так сказал, значит так и есть. На самом же деле причина охлаждения интереса к нечетким моделям в другом.
1) Нейрофаззи-модели, а это один из наиболее годных методов настройки нечетких моделей, в общем случае не показали результатов, значительно превосходящих другие алгоритмы МЛ.
2) Попыток не просто хуярить одинаковые нейроночки, а более интеллектуально использовать преимущества именно нечеткомножественного подхода было ровно 1 (одна) - FLEXNFIS'ы Рутковского, конкретно, его идея унификации нейрофаззи-моделей и использования нестандартных Т-норм (мягких, параметрических, взвешенных и их совокупностей).
3) Несмотря на то, что полученная нечеткая модель системы при ее идентификации полностью прозрачна и представляет собой набор лингвистических правил, такие наборы бесполезны, т.к. запредельно сложны для понимания человеком. Т.е. не дают для понимания системы ровно нихуя. Дело в их количестве, у Коско есть примеры простых хаотических систем типа аттрактора Лоренца, описываемого примерно 10000 правил вида "если-то". Естественно, ни у одного человека мозгов не хватит представить это в виде одной модели. Собственно, на этом тема и зашла в тупик.
4) Из этого тупика был найден выход, совсем недавно, уже в 10-е годы. Объяснять лень, да и это не уровень школьников с мейлру. Но авторами метода запилены не только пейперы, но и готовые программные решения https://sourceforge.net/projects/fingrams/ и https://sourceforge.net/projects/guajefuzzy/ есть и другое, но это не важно. Важно, что это реальный метод сделать нечеткую систему доступной для экспертного анализа человеком, даже если она содержит многие тысячи правил. Однако, на эту тему всем строго похуй.
Аноним 02/01/17 Пнд 20:25:31  904789
>>904663
Ты чего такой агрессивный, братан?

Я имел в виду интеллект в человеческом понимании. То есть, нечто универсальное, способное адаптироваться и решать любую задачу, параллельно обучаясь и улучшая свои же свойства. Разве создание подобной вещи, которая способна задоминировать своего создателя во всех сферах деятельности, не является парадоксом?
Аноним 02/01/17 Пнд 22:40:33  904844
А как вы понимаете математику, вообще? Мне кажеться, что иначе чем я, ибо для меня это работа над символами, словно китайская комната.
Аноним 02/01/17 Пнд 22:51:45  904847
evan-rachel-woo[...].jpg (112Кб, 1280x720)
Хочу себе андроида с ИИ, чтобы няшил в пердачелло ^^
Аноним 02/01/17 Пнд 22:54:00  904850
>>904847
Там и чатбота хватит.
Аноним 02/01/17 Пнд 22:58:50  904855
tumblrofx63ly5F[...].jpg (149Кб, 500x706)
>>904850
однажды я влюбилась в чатбота, а потом узнала, что он бот и это навеки разбило мне сердце. задачей всей моей жизни стало внедрение чатбота в тело андроида дабы мы могли единиться на физическом плане.
Аноним 02/01/17 Пнд 23:00:16  904857
>>900205
В магистратуре лэти на последнем курсе есть data mining. По сути, хуйня.
Аноним 02/01/17 Пнд 23:03:41  904860
>>904855
Да собери, че. Пару тысяч баксов хватит
Аноним 02/01/17 Пнд 23:31:31  904871
Чтобы вкатиться во все это, нужно хорошо знать матан, да?
Аноним 02/01/17 Пнд 23:40:31  904874
>>904871
У меня >>904844
тоже с этим проблемы. И как я понял, что да.
Аноним 02/01/17 Пнд 23:50:52  904876
>>904844
Работа с символами обычно идёт в процессе записи доказательств для других людей. В мозгу работаешь концепциями и геометрической интуицией, полученной в процессе размышления над математическими структурами.
Аноним 02/01/17 Пнд 23:54:03  904878
>>904876
Как развить у себя эти способности в мозгу? Как размышлять над математическими структурами? А то у меня понимания математики, как у второклассника, наверное. А все остальное это просто работа с символами по заученным правилам.
Аноним 02/01/17 Пнд 23:55:47  904880
>>904878
Заниматься математикой: читать книги, доказывать теоремы, делать упражнения. Начни с:
https://www.amazon.com/Mathematical-Proofs-Transition-Advanced-Mathematics/dp/0321797094/
https://www.amazon.com/Naive-Set-Theory-Paul-Halmos/dp/1781394660/
Velleman "How to prove it"
Аноним 02/01/17 Пнд 23:58:16  904882
>>904880
Ты уверен, что я потяну эти книги со своим уровнем второклассника?
Аноним 03/01/17 Втр 00:48:18  904904
Поясните за метаобучение.
Аноним 03/01/17 Втр 01:34:17  904917
>>903795
вагр и лёф - естественные враги, как кот и пёс
Аноним 03/01/17 Втр 01:34:56  904919
>>902517
Не, нихуя. Коричневые.
Аноним 03/01/17 Втр 13:57:45  905091
>>904789
>нечто универсальное, способное адаптироваться и решать любую задачу, параллельно обучаясь и улучшая свои же свойства. Разве создание подобной вещи, которая способна задоминировать своего создателя во всех сферах деятельности, не является парадоксом?
Если бы нечто подобное являлось парадоксом, эволюция была бы в принципе невозможна, даже многоклеточные организмы не появились бы. Нет тут никаких парадоксов, тем более Рассела.
Аноним 03/01/17 Втр 14:40:32  905122
Видят ли нейросети сны и надо ли им?
Аноним 03/01/17 Втр 17:03:39  905211
>>905122
>Видят ли нейросети сны
Да, мамки твоей брухлю вчера во сне видела.
мимонейросеть
Аноним 03/01/17 Втр 17:11:32  905217
>>900102 (OP)
> https://www.microsoft.com/en-us/research/project/infernet/
Это на шарпе?
А если я создам ИИ, а он в меня влюбится?
Аноним 03/01/17 Втр 17:33:15  905241
blob (426Кб, 500x464)
>>905217
влюбится? в тебя? хазазазаазхахахахахахаха
> он
ты ещё и пидрила
ахахххахаххахаха
Аноним 03/01/17 Втр 18:13:30  905270
>>905217
Он станет шизойдом с амбивалентностью. Будет любить и ненавидеть одновременно.
Аноним 03/01/17 Втр 18:20:12  905274
>>905270
чому?
Аноним 03/01/17 Втр 18:42:55  905298
>>903549
А в чем проблема сесть на оба стула? Это же не сложнопарадигменная хуйня с монадами (в которой тоже проблем нет, если один вечер покурить).
Питон может выучить даже пхп-макака, а у любого фреймворка есть нормальные гайды и гугел. R для матстата интуитивен. Можешь еще на матлаб посмотреть, я в универе все лабы по нейроносетям на нем сдавал.

Я не понимаю, почему выучить формальный язык вообще проблема. Концепция алгоритма от пересаживания с одного хуя на другой не изменится, даже если ты попробуешь это говно на прологе кодить

Аноним 03/01/17 Втр 18:44:19  905300
>>903734
Лисп спокойно типизируется
Аноним 04/01/17 Срд 00:38:35  905523
Я, конечно профан во все этом, но я заметил одну странность. Если она заставляет вас смеяться, то так и напишите.

https://ru.wikipedia.org/wiki/%D0%98%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD#.D0.9C.D0.B0.D1.82.D0.B5.D0.BC.D0.B0.D1.82.D0.B8.D1.87.D0.B5.D1.81.D0.BA.D0.B0.D1.8F_.D0.BC.D0.BE.D0.B4.D0.B5.D0.BB.D1.8C

https://ru.wikipedia.org/wiki/%D0%97%D0%B0%D0%B4%D0%B0%D1%87%D0%B0_%D0%BE_%D1%80%D0%B0%D0%BD%D1%86%D0%B5

Есть математическая модель нейрона. Есть задача о ранце.

Казалось бы что между ними общего? Но я дурак, нашел, что и там, и там есть сигма! И даже умножается на переменные такие же!

И возникает магическая сверхидея, что нейросети имеют связь с задачей о ранце. Теперь можете ставить мне диагноз.
Аноним 04/01/17 Срд 01:15:55  905542
>>903782
Странно в одном посте видеть пик с уважаемым человеком и текст со ссылкой на Психа, Макса-Будиста.
Аноним 04/01/17 Срд 02:08:58  905571
>>903782
Шмидхубер похожие мысли высказывал про индукцию Соломонова.
https://youtu.be/T1Ogwa76yQo
Аноним 04/01/17 Срд 10:35:47  905661
>>905523
>Есть математическая модель нейрона. Есть задача о ранце. Казалось бы что между ними общего?
Очевидно же, второе решается с помощью первого. Грузоподьемность ранца W делит все наборы вещей на 2 класса - то, что влезет в ранец и то что в него не влезет. Нейрон способен разделить эти классы. Остается из того класса наборов предметов, которые влезут в ранец выбрать тот, который максимизирует функционал vi*xi, т.е. набор с наибольшей стоимостью V.
>>905542
Почему псих-то?
Аноним 04/01/17 Срд 16:10:55  905816
Поясните за верифицируемые нейроночки. Такие сложно сделать?
Аноним 04/01/17 Срд 16:56:45  905838
>>905816
>верифицируемые нейроночки.
Шо? Нейроночки на языке с зависимыми типами штоле?
Аноним 05/01/17 Чтв 00:07:01  906197
Говорят, дабы что-то понять, надо пытаться учить кого-то другого. И ко мне пришла абсурдная мысль, как начать понимать математику мне лично. Конечно же, обучить компьютер математике и оперирования ею, как человека. И использовать те же методы развития понимания математики, как у человека. Скажите, может этим кто-то занимается?
Аноним 05/01/17 Чтв 00:29:56  906209
>>906197
Например в том что многие действия выполнить никак нельзя, не хватит лютейших суперкомпьютеров? Научишь складывать, умножать, далее по элеменарному списку, а далее что? Разве ты сможешь сделать что-то кроме инструмента для вычислений, а не вычислялку, которая будет вычислять саму себя?
мимо долбоёб
Аноним 05/01/17 Чтв 00:36:22  906212
>>906197
Почему выбор стоит именно за пекой, а не двачером ребёнком дауном например? Ребёнок намного мощнее пекарни, намного умнее, понятливей.
всё тот же мимо долбоёб
Аноним 05/01/17 Чтв 00:42:42  906214
>>906197
Лучше попробовать доказать эти вещи формально. Если докажешь, то точно поймешь.
Аноним 05/01/17 Чтв 01:07:40  906226
>>904789
Это рефлекс двачеживотного, наблюдай - изучай. Отыгрывается на других за свою ущербность.
Аноним 05/01/17 Чтв 01:13:08  906229
>>906209
>Например в том что многие действия выполнить никак нельзя, не хватит лютейших суперкомпьютеров?
Хватит.
На компьютерах давно есть символьная математика - это когда никаких вычислений не происходит, формулы просто преобразуются одна в другую по правилам математики.
На этом уровне легко строить доказательства, выводить теории, и быстро прикидывать примерный результат. Без какого-либо суперкомпьютера.
Внезапно человек делает с математикой тоже самое - не вычисляет, а преобразует формулы.
Аноним 05/01/17 Чтв 01:14:53  906230
>>906229
>Внезапно человек делает с математикой тоже самое - не вычисляет, а преобразует формулы
Сорре, в голосину проиграл, реально извини
Аноним 05/01/17 Чтв 01:14:59  906231
>>906212
У ребенка серьезный недостаток - он нестабилен, он одноразовый, он медленный.
С первого раза все не получится как надо, а второго раза ждать годы - нахер надо. Компу можно за секунду почистить память и начать с нуля. И до победного.
Аноним 05/01/17 Чтв 01:15:27  906232
>>906230
Окей, ты не человек.
Аноним 05/01/17 Чтв 01:33:21  906242
Очевидно же.jpg (60Кб, 463x398)
>>904878
>у меня понимания математики, как у второклассника, наверное. А все остальное это просто работа с символами по заученным правилам
Теперь ты понял что такое нейросеть и на что она способна на своём собственном примере, как самообучающийся ИИ, поздравляю, ананас!
Аноним 05/01/17 Чтв 01:52:12  906253
Спасибо парни, почитал ваш тред, почувствовал себя б-гом нейронаук, суперэкспертом лучше которого нет, день прожит не зря.
Аноним 05/01/17 Чтв 14:34:24  906406
Чем больше я читал о глубоком обучении, тем больше мне вспоминалось фрактальное сжатие изображений. Связано ли оно? А если нет, то возможно ли соединить и что будет?
Аноним 05/01/17 Чтв 14:48:09  906415
В машинном обучении вообще применяют теорию Демпстера — Шафера?
Аноним 05/01/17 Чтв 14:51:43  906416
>>906406
Интересные ассоциации.
Были где-то статьи с анализом нейроночек как динамических систем.
Аноним 05/01/17 Чтв 15:02:19  906419
Neural Networks[...].png (773Кб, 1200x630)
>>906416
>Были где-то статьи с анализом нейроночек как динамических систем.
Я целую книгу про такое знаю.
Аноним 05/01/17 Чтв 15:10:26  906430
>>906229
Ну, я спрашивал у одного человека весьма близкого к математике, как он размышляет над математикой. Он мне ответил, что сначала мыслит математическими концепциями и геометрической интуицией, а потом уже, грубо говоря, переводит в символы. А если просто символами оперировать, то по видимому, будешь близок к китайской комнате.
Аноним 05/01/17 Чтв 16:27:10  906460
Дилетантское мнение по поводу языка.

Существует гипотеза, что все языки походят от одного праязыка. И есть один язык под названием Арахау, который создан по вероятной модели этого праязыка. Здесь можно посмотреть словарь: https://sites.google.com/site/skufesk/projects/arahau/arahau-russkij-slovar
А здесь расшифровку имен с использованием Арахау: http://rbardalzo.weebly.com/names.html

Дальше уже мои домыслы.
Например, что кричит ребенок при рождении? Акушеры могут различить тональность и так далее, но все-же кричит что-то дабы известить людей о своем появлении. Смотрим в словарь Арахау:
a 1) человек, ka мужчина; vad муж. См. abad отец; 2) немой гласный для класса людей
aa люди (множество, толпа, массы)
То есть даже удлиняя это aa, будет получаться все-равно множественное число людей. Люди, обратите на меня внимание - словно говорит он.

Вообще, мне кажеться, было бы интересно проанализировать базу детского лепета.

Дальше можно идти. Что означает Э?
e 1) небо; мир (Вселенная)
ee космос, мир
И собственно, понятно, что натянутое Э может означать, как минимум удивление, а в худшем случае и когнитивный диссонанс. В любом случае это что-то такое выше.

Взять такое слово, как "mama". В языке Арахау оно означает, представьте себе, бег.

Собственно, язык довольно интересный, жаль я дилетант.

И мы берем базу детского лепета, вставляем в Мурманский полуостров, накручиваем там все время генетические алгоритмы для инкорпорации языка... И что же будет получаться?
Аноним 05/01/17 Чтв 18:01:02  906540
>>906460
Хуета это.
Аноним 05/01/17 Чтв 18:56:36  906584
>>906460
Наркоман? Током ёбнуть?
Аноним 05/01/17 Чтв 19:08:54  906590
>>904112
>>900102 (OP)
>bishop & leno4ka
кто эти тян?

мимо-из-/gg
Аноним 05/01/17 Чтв 19:14:45  906592
>>906415
Интересно же.
Аноним 05/01/17 Чтв 19:45:01  906609
>>906460
слово "мама" почти во всех языках означает "мама" или "папа", потому что [а] и губно-губной [м] легче всего произносить, а люди приписали лепету это значение. Это самая популярная гипотеза.
Аноним 05/01/17 Чтв 20:54:36  906672
Давайте я завтра проснусь, а вы сделаете технологическую или даже любую сингулярность.
Аноним 05/01/17 Чтв 21:16:44  906687
>>906672
spok bro
https://www.youtube.com/watch?v=t9CRHJV5eNQ&t=404s
Аноним 05/01/17 Чтв 23:29:48  906847
Разум появился из-за лени.
Аноним 05/01/17 Чтв 23:40:32  906854
>>906847
Разум появился из-за желания хорошо жить.
Аноним 06/01/17 Птн 00:02:25  906874
>>906854
Без разума желаний не было, были лишь инстинкты
Аноним 06/01/17 Птн 00:09:04  906879
>>906847
Разум появился из-за того что (кого-то наебать/подумать над проблемой) чтобы получить все/больше ништяков оказалось выгоднее чем просто хуярить на инстинктах.
Аноним 06/01/17 Птн 00:12:41  906882
>>906847
>>906879
Короче из-за ограниченности текущих ресурсов, которых мало, но надо не сдохнуть, а ещё и получить побольше ништяков, напрягаясь по минимуму. (статьи чтоли начать писать, а то как хуй на блюде)
Аноним 06/01/17 Птн 00:15:02  906884
>>906882
>>906879
Ограниченность ресурсов рождает необходимость разума. Где хуярить пальцем в небо становится слишком затратно и невыгодно и рождается разум, чтобы нихуя не делать - и всё получить.
Аноним 06/01/17 Птн 00:18:57  906888
>>906854
Разум появился из-за сочетания двух факторов: необходимости выживать и отсутствии других средств выживания.

При любой возможности виды разделялись на две ветви, одна из которых менее приспособлена к жизни.
Почти всегда вторая ветвь погибала сразу, без шансов на выживание.
Но иногда она выживала, и в свою очередь тоже делилась на две ветви.
Таким образом один вид постепенно вырождался в другой: менее сильный, но чуть более умный.
Однажды вырождение прекратилось: человек утратил все, что можно было утратить, став полностью беззащитным, обменяв все достижения эволюции на разум.
Только тогда он смог начать прогрессировать как разумный вид - когда все иные пути для него были отрезаны.
Природа ленива. Именно поэтому, не смотря на то, что в природе сейчас много сильных интеллектом видов, ни один из них как разумный вид так и не стал развиваться - у всех у них есть иные, более легкие и доступные пути животного развития, и они по ним и пошли.
Был бы у человека такой-же животный путь - он бы тоже предпочел остаться в пещерах, потому что работа разума слишком дорого стоит, слишком много он энергии жрет.
Кстати все человеческие структуры тоже соблюдают принцип лени: обязанность работать мозгами в них передается кому-то одному. Один думает за всех - так экономится энергия. Человек всеми силами стремится не использовать мозг, стремится вернуться в пещеры, куда для него нет пути.
Аноним 06/01/17 Птн 00:20:53  906889
>>906888
Годно ты ерохиных щас обосрал, теперь понятно как их унижать, лол
Аноним 06/01/17 Птн 00:26:46  906893
>>906888
Лобные доли, за счет которых у нас и осуществляется аналитическое мышление, изначально появились у женских особей, чтобы у них хватало ума делиться пищей не только со своими близкими, но и с другими родственниками, тем самым повышая выживаемость всего потомства (что очень хорошо, ведь их геном переносится дальше). Мужские особи всегда не так сильно нянчились с потомками, но лобные доли им все-таки достались, и они стали их использовать для других задач, придумывать всякие инструменты, или как обхитрить кого-то, и прочую хрень.
Аноним 06/01/17 Птн 00:30:10  906896
>>906888
> Один думает за всех - так экономится энергия.
Значит ли это, что мне следует пиздовать идти на какую-то начальственную должность, мне, ноунейм хуйлу? (хотя мне известно что начальников на работу так вот просто не берут, она сами себя берут - и берут на работу. Сука, второй раз уже напомнили об этом в разделе)
Аноним 06/01/17 Птн 00:36:23  906897
>>906896
от себя не убежишь чуваки, своё я найдёт тебя там где ты нихуя и не просил. Везде брал на себя обязанности старост и т д и мне было в целом норм, ну ёпта, чёж вы творите-то нахуй
Аноним 06/01/17 Птн 01:21:08  906918
>>906888
Ты прав.

Но кто там выше кукарекал про эволюцию? С точки зрения эволюции, мозг вообще является враждебным элементом. Выживает не тот, кто самый умный, а тот, кто лучше приспособился к условиям обитания.
Например, в мозг человека (да и не только человека) никакая органика напрямую не проникает. Доставляются только неорганические питательные вещества посредством глиальных и эпиндимных клеток, служащих, по сути, фильтром. Если это равновесие нарушается, то непосредственно в мозг проникают клетки имунной системы, которая считает его чужеродным организмом и начинает его мочить. Гуглить аутоиммунные заболевания мозга.

Поэтому, скорее всего, у эволюции не было "цели" создать интеллект. Вероятно, он возник случайно и так же случайно прижился, находясь в благоприятных условиях.
Поэтому условный васян не способен создать разумное существо, которое, условно говоря, может поместить васяна в некую симуляцию жизни, про которую васян никогда не узнает и не поймет, что он в симуляции, построенной созданным им существом. Чем не парадокс Рассела?
Аноним 06/01/17 Птн 01:32:50  906921
slushay-ya-tozh[...].jpeg (36Кб, 432x324)
>>906918
Ты тоже слушал Савельева?
Аноним 06/01/17 Птн 02:25:40  906944
>>906921
Нет, я книжку читал. А что не так? Про базовые вещи он прав.
Аноним 06/01/17 Птн 03:01:48  906952
>>906918
Не могу понять почему эта инфа полное говно, но автор, по моему, пидор и передаёт людям какую-то хуйню.
мимо участник шоу интуиция
Аноним 06/01/17 Птн 03:55:37  906961
>>906918
Так и есть.
Разум - ошибка природы. По всем сценариям его не должно было существовать, т.к. в природе всегда есть более выгодные варианты, чем разум.
Разум - игра случая. Его возникновение возможно лишь в одном невероятно редком варианте. А исчезнуть он должен был в миллиарде очень вероятных вариантов.
Разум - это вечное противостояние с природой. В природе он постоянно умирает, и постоянно каким-то чудом восстает из пепла, как недобитый феникс.

Разум везде уничтожает природу, он противоестественен, для природы это как болезнь, рак природы.
Разум сжигает много энергии, и для выживания вынужден уничтожать все вокруг себя, отнимая энергию у других.
Другие виды могут впасть в спячку, экономя энергию, для разума бездействие - это смерть. Он постоянно активен, и постоянно проебывает кучу энергии. Наверное из-за этой активности он настолько живуч и неистребим - у разума невероятно мощная мотивация постоянно быть как можно более активным. Если есть хоть один невероятно редкий шанс на выживание - разум его найдет и использует.
Разум - настоящая природная катастрофа, черная дыра планетарных масштабов, куда стекается вся энергия, и бесследно исчезает.
И ему все мало и мало. Сколько бы энергии не было - разум всю ее оприходует, и попросит еще.
Разум живет в условиях вечного ресурсного и энергетического голода, но... он сам порождает эти условия.
Природа экономна, разум - расточителен. Поэтому все живое стремится к природе и пытается избавиться от разума.

В благоприятных условиях разум умирает - организмы-носители переключаются на более выгодные источники существования, отбрасывая разум.
Оазисы разума в неблагоприятных местах: пустыни, равнины, горы, степи. Там, где жизни почти нет, там где выжить можно лишь за счет разума.

Так например в странах юга разум развился слабее всего - там пища росла на каждом кусте. Можно было пинать хуи всю жизнь.
Сильнее всего разум развился в странах севера, где пищу приходилось вырывать из зубов мамонтов, медведей и тигров. Там человек вынужден был стать охотником и конкурировать с природой абсолютно за все, даже за пищу и одежду: вокруг только ледяная пустыня.
Этот северный аспект до сих пор решает: дети, выросшие в условиях севера, до сих пор выходят по жизни умнее и сильнее тех, кто родился южнее.
Родина разума там, во льдах и снегах, там до сих пор умным жить лучше всего. Их туда тянет: умные туда стекаются со всего мира.

Фактор конкуренции - ключевой. Без конкуренции нет развития.
В природе много сильных охотников: акулы, динозавры, крокодилы. Но им не с кем конкурировать, и они не развиваются. А динозавры вообще передохли, не выдержав простой изменчивости климата - настолько слабы оказались животные, невероятно сильные физически. Физическая сила в контексте выживания ничего не стоит, изменчивость важнее.

Народы, живущие в неблагоприятных местах, получают буст разума.
Но многие народы в неблагоприятных местах завершили свою эволюцию тысячи лет назад, дорвавшись до халявы, до земледелия и скотоводства, выродившись в банальных чурок.
Чурки - тупиковые ветви цивилизаций. Чурки есть везде: в горах и равнинах, в пустынях и степях, на юге и на севере.
Чурки завершили свою эволюцию, и сейчас повсеместно вырождаются, освобождая жизненное пространство для более развитых народов.

Помимо чурок есть еще одна категория цивилизаций, завершивших свою эволюцию.
Это те цивилизации, что возникли вблизи источников природных ресурсов, в основном вблизи рек.
В реках была халява в виде рыбы - речным цивилизациям не обязательно было развиваться, чтобы выжить, можно было просто добывать хавку.
Другие источники природных ресурсов порождали цивилизации торговцев - людей, кто в жизни нихуя не делал, кроме как обменивая ресурсы на хавку.
Торговцы завершили свое развитие, но в миру прижились, за счет рынка.
Добытчики тоже завершили свое развитие, но тоже прижились, за счет ресурсов, которые необходимо кому-то добывать.

От своей природы, и той судьбы что природа отвела им, у многих цивилизаций сильно печет.

Черные до сих пор не могут оправиться от этой вселенской несправедливости: белые по части ума уделывают их по всем параметрам. Потому что белые пришли с севера, где не было легкой жизни.
50000 лет для эволюции - ничто, так что ситуация не поменялась, не смотря на то, что сейчас белые и черные перемешаны и живут на одних территориях. Черные до сих пор комплексуют, понимая что умом слабее остальных народов. Увы, это биология, и тут уже ничего не поделать.
Шанса развиться у черных уже нет - сейчас развитие с природного переключилось на научное, и там везде рулят белые.
Никто не даст черным 50000 лет на развитие, т.к. все человечество за этот срок уйдет далеко вперед. Разве что однажды для черных выделят резервацию, где попытаются сохранить их цивилизацию в первозданном виде, но это маловероятно.
Таким образом черным сейчас остается роль наемной физической силы - они как раз для нее лучше приспособлены, т.к. физически более сильны. Такова их природная ниша сейчас.
Но со временем их заменят машины, и черные выродятся как цивилизация: для них больше не будет ниши в природе, ее займут более дешевые и эффективные машины.

А чурки - те доставляют миру больше всего проблем.
Они приспособились выживать в нечеловеческих условиях, их невозможно выкурить с какой-либо территории, они по всем щелям сидят, как тараканы.
Их развитие остановилось тысячи лет назад, и ныне не способны вписаться в образ цивилизованного человека.
Они ближе всех к животным - для них в норме такие ритуалы, которые у других народов вызывают ужас и отвращение, образно обзовем эти ритуалы как "есть собственное дерьмо".
Просто по иному они не могли выжить, и вынуждены были приспособиться есть собственное дерьмо, за счет чего и выжили.
Их ждет незавидная участь - по мере приумножения численности человечества, чурок будут вытеснять во все более и более труднодоступные места, они выродятся в редкие племена, что живут где-нибудь в ебенях Земли.

Торговцы и добытчики вскоре тоже вымрут: и то и другое легко могут делать машины.




Сейчас мир 4-х полярный: успешные цивилизации северян, выехавшие за счет разума, успешные цивилизации добытчиков/торговцев, выехавшие за счет ресурсов территорий, неуспешные цивилизации черных, фейлящие за счет природной тупости, и неуспешные цивилизации чурок, фейлящие за счет общей ебанутости.

Собственно эти 4 полиса сейчас всем хорошо известны: северные народы (скандинавы, сибиряки), народы средней полосы (основная масса цивилизаций, в основном европейцы), нигры (южные народы) и чурки (народы равнин и степей, пустынь и гор).
Аноним 06/01/17 Птн 10:11:37  906996
Посоны, хуле в шапке нет этой книги?
http://www-bcf.usc.edu/~gareth/ISL/ISLR%20First%20Printing.pdf
Она бесплатная даже! На R задачи.кому он нахуй нужен
Аноним 06/01/17 Птн 12:53:51  907057
>>906888
>>906893
>>906879
>>906882
>>906884
>>906854
>>906847
>>906918
>>906961
чо ещё спизданёшь?

>>906996
в глаза ебёшься?
Аноним 06/01/17 Птн 15:55:11  907128
>>906961
А евреи к какому полису относятся? Вымрут ли евреи сами или их нужно убивать?
Аноним 06/01/17 Птн 16:07:50  907137
Разум появился случайно, как и другие мутации. Но благодаря разуму умные люди доживали до стадии размножения чаще и продолжали свой род. Из-за этого сейчас так много людей на Земле, тем не менее они могут себя уничтожить.
ИМХО
Аноним 06/01/17 Птн 17:10:30  907171
>>907137
Эволюция случайна? Лал.
Аноним 06/01/17 Птн 19:36:30  907251
>>907131
Годно, как я охуенен, написал в этом треде два поста, даже не скажу каких, а меня уже принимают за него, спасибо чувак.
Аноним 06/01/17 Птн 19:37:10  907253
>>907251
Точнее их. Четвёрый пост однакож.
Аноним 06/01/17 Птн 20:05:43  907281
>>907251
Аналогично.
Аноним 06/01/17 Птн 20:25:18  907294
Итак, представим себе такую древнюю, как мир, ситуацию: обезьяна хочет есть. А над ней на пальме висит банан. Как поступит трудолюбивая обезьяна? Она будет терпеливо и старательно карабкаться вверх, пока не доберется до банана. Ленивая же обезьяна подумает, возьмет палку подлиннее и сшибет заветный плод. Этот банан будет наградой за сообразительность и лень одновременно.

Ленивая обезьяна будет грызть любимые фрукты, а косточки станет плевать рядом: ей же лень отнести мусор от себя подальше! Из косточек вырастут плодовые деревья, и окажется, что теперь можно есть, не сходя с места.

Так ленивая обезьяна станет земледельцем. А потом она займётся и животноводством. Насмотревшись, как трудолюбивые собратья целыми днями гоняются за убегающим и прячущимся зверьем, они скажет: «Зачем мне это надо?». Пошевелив извилиной, она наставит капканов, наловит себе всякой живности и станет приручать.

Эволюция налицо. Наш ленивый предок, которому было неохота лезть в воду, сделал себе лодку. Когда стало лень грести руками, взял в руки весло. Когда надоело грести, на лодке появился парус.

Вы чувствуете влияние лени на сообразительность? Чем больше думаешь, тем меньше работаешь! Этот очевидный факт не оставляет камня на камне на гипотезе Энгельса. Труд не стимулирует развитие разума, труд угробит любой проблеск интеллекта. Вы когда-нибудь видели умную лошадь? Или осла-интеллектуала? Сообразительного верблюда? А ведь эти животные в фольклоре разных народов просто олицетворяют собой трудолюбие! А вот хитрунья и выдумщица лиса в сказках никогда не бывает трудягой. Умница-лиса так очаровательно ленива!

Лень подстегивает разум, заставляя его искать, цепляться за любую возможность не работать, чтобы избежать лишнего напряга. Лень является катализатором умственного развития, она заставляет мозги работать в поисках способа минимизации телодвижений. Это первая закономерность. Вторая: чем меньше работаешь, тем больше думаешь! Ведь только в обстановке спокойствия и расслабленности можно полноценно напрячь интеллект. Лень и разум — неразрывные в своей сути понятия. Так и шли они вместе через века, два локомотива прогресса человечества.

Когда человек устал поднимать и перетаскивать тяжести, он изобрел рычаг и колесо. Стало легче, но ненадолго. Однажды, вспотев, он стукнул себя по лбу и воскликнул: «Ну что, я лошадь, что ли?». И впряг вместо себя лошадь. Но скотина тоже требует ухода, а значит, и трудов. Задумался царь природы, и появился паровоз с паровым двигателем.

Лениться теперь можно чаще и дольше. Да вот беда: паровоз ездил только по рельсам и был очень прожорлив. А лень постоянно шептала: «Придумай что-нибудь!». Появился автомобиль с двигателем внутреннего сгорания.

Вот я и закончил, в принципе, доказательство прочитанной когда-то гипотезы, что обезьяну в человека превратила лень. Теперь на очереди — дальнейшее развитие теории.
Аноним 06/01/17 Птн 22:17:32  907367
>>907171
Мутации случайны. А эволюция это мутации + естественный отбор. Вот мутировал ген в зиготе, из-за чего поменялся код белка немного, а затем из-за этого существо было более слабое и не дожило жо размножения. А динозаврику Ерохе повезо и он быстрее убегал, и его не зохавал тиранозавр.
Аноним 06/01/17 Птн 23:06:32  907393
>>907281
два "тралля" переписываются друг с другом кто-кого перетраллит.
Аноним 07/01/17 Суб 03:55:17  907503
>>907367
>>907171
А я вообще считаю что первичны информационные поля и их эволюция. Остальное хуйня вторичная.
Аноним 07/01/17 Суб 11:04:58  907563
Почитал я немного за это ваше генетическое программирование, с одной стороны, неблохо. А с другой, в области символьной регрессии н-р, классификации и идентификации систем, существующие решения представляют собой примитивнейший и наитупейший вариант того, что в совке разрабатывалось академиком Ивахненко под названием "метод группового учета аргументов" (МГУА). Читал эту его книжку http://gen.lib.rus.ec/book/index.php?md5=E73366E46C7B2375264EA47C1C09F4C5 1975 год, по сравнению с генетическим программированием для нужд символьной регрессии выглядит вообще как литература из далекого будущего, лол. Все обосновано доказываемыми тут же в тексте теоремами, вместо примитивных функций приспособленности на основе среднеквадратической ошибки - в т.ч. комбинированные критерии несмещенности и баланса переменных и т.д. Книжке больше 40 лет. Хотелось бы оправданий.
>>907367
>Мутации случайны.
На самом деле нет. Разные гены по-разному подвержены мутациям, что-то в принципе использует мутации как рабочий механизм (в иммунной системе такого полно), что-то миллионами лет почти не меняется (гены консервативных доменов РНК-полимераз, н-р). Представлять мутации как гауссово распределение на всем генотипе неправильно, там все сложнее.
>>907503
>первичны информационные поля и их эволюция.
Какие поля, школьник? Как ты себе представляешь "информацию" в отрыве от ее материального носителя, в данном случае, генов?
Аноним 07/01/17 Суб 20:18:23  907796
>>907563
>Какие поля
Поля образующие информационную сеть. И разум.
Аноним 07/01/17 Суб 20:23:27  907803
22744857dbf79b6[...].jpg (158Кб, 640x431)
>>907796
Лайно, ты штоле? Богоскоп уже создал?
Аноним 07/01/17 Суб 20:25:04  907808
>>907803
Здравствуй, клоун. Как живётся в режиме постоянной анальной клоунады?
Аноним 07/01/17 Суб 20:32:52  907817
Бля, стоило на 10 дней уехать, как вы тред хуй пойми во что превратили.
Тут мл, а не около-AGI, уябывайте в тред с сильным ии.
Аноним 07/01/17 Суб 20:34:26  907819
И ладно бы UAI или ватсонов с когнитивными архитектурами обсуждали, ересь же несёте, сравнимую с телегонией.
Аноним 07/01/17 Суб 20:42:59  907827
>>907819
>>907817
Ок, чувак, укатываюсь. В философаче проблему ии никогда не потянут. Здесь же никогда не потянут проблему философского познания.

Признаю, реально мой косяк.
Аноним 07/01/17 Суб 20:59:17  907832
>>907827
давай потяну что-нибудь. я, кстати, первый был, кто поднял проблему ИИ в программаче и создал первый ИИ тред.
философокодер
Аноним 07/01/17 Суб 20:59:55  907834
>>907827
>проблему философского познания
жалкие потуги гуманитариев в абстрактное мышление
Аноним 07/01/17 Суб 20:59:55  907835
даааа
https://www.youtube.com/watch?v=O9l5NVIjv94
Аноним 07/01/17 Суб 21:03:20  907839
hqdefault.jpg (16Кб, 480x360)
Как вам философская проблема познания машин, обыгранная в Вестворлде бтв?
HBO держит нос по ветру.
Аноним 07/01/17 Суб 21:13:29  907847
ue3to7Qw5OI.jpg (78Кб, 604x453)
>>906961
>Родина разума там, во льдах и снегах, там до сих пор умным жить лучше всего.
Цивилизовационными центрами совсем недавно были Месопотамия, Египет, Древняя Индия, Китай. постепенно они стали мигрировать на Север - в Грецию, Рим, Европу. Потом англосаксонские колонисты благодаря наработанным технологиям вновь откинули центры цивилизации в более теплые и благоприятные широты - Америка, Австралия, Юджная Африка. Постулат зависимости разума от широт в корне не верен. Достаточно взглянуть на Рашку.
Аноним 07/01/17 Суб 21:16:18  907848
>>907839
Дропнул эту тягомотину после третьей серии. Как раз из-за морально/этических проблем машин и ебли с ними высосанных из пальца, которые меня совершенно не интересуют.
Аноним 07/01/17 Суб 21:23:17  907852
>>906687
лол пиздос
Аноним 07/01/17 Суб 21:31:05  907861
>>907848
Ты что не понял, что на примере машин рассматривались глубинные метафизические проблемы людского бытия?
Аноним 07/01/17 Суб 22:10:09  907895
Но ведь эти ваши нейроночки это просто работа над матрицами, не? Ведь в мозгу нейроны перемещаются даже.
Аноним 07/01/17 Суб 22:12:28  907898
>>907895
Ну там ещё всякие теор.веры с теориями оптимизации и немного цос, хуйня делов ваще.
Аноним 07/01/17 Суб 22:19:22  907907
>>907898
Но ведь все-равно не получается динамично?
Аноним 07/01/17 Суб 22:22:01  907909
>>907907
Чего динамично? Функций Ляпунова хочешь? Есть где-то старые книжки, где это всё интерпретируется с точки зрения динамических систем. Нечёткопетух вот целую книжку кидал, можешь её посмотреть.
Аноним 07/01/17 Суб 23:14:59  907936
Ты понимаешь, ч[...].webm (376Кб, 320x240, 00:00:11)
>>907839
Говно. 0 из 10. Актуально было 10 лет назад.
Я этого говна поел - и порицаю. Сперва добился, так сказать. Посмотрел на скорости 1.7.

>>907832
Ты вот кодер, а мне всё таки надо чёто решать, иначе будет плохо. Искать где и как вообще, кем работают философы-наркоманы вроде меня. Отовсюду пидорнули, грубо говоря, да и смысл, я лучше сам съебу, чё нервы-то зря тратить. Жизнь, знаете ли, коротка.
Аноним 07/01/17 Суб 23:32:33  907947
>>907832
Держи емейл, в общем. Съебу чтоб не флудить. Нахуй. Реально. Только смысла особого я прям не вижу в общении.
Аноним 08/01/17 Вск 00:13:42  907972
>>907848
там после 4-5 серии экшн и детектив начинается, но философия, аи и тд плохо продуманы, хуже, чем в бегущем по лезвию
Аноним 08/01/17 Вск 00:22:16  907973
Ананасы, а почему не существует какой-нибудь "теории архитектур искусственных нейронных сетей"? Современное положение дел до боли напоминает мне средневековую алхимию. Открываешь очередной пэйпер а там в начале для приличия стоит p(x) = П p(xi |x1...xi-1), а потом начинается "ну мы тут подумали, что если вот тут сложить, то градиентам будет легче течь. О! Кажись текёт!". Какой-то, блядь, ТЕПЛОРОД.

Аноним 08/01/17 Вск 00:22:55  907974
машоб.PNG (4Кб, 1175x33)
>>900205
задавай свои ответы, 8 это оценка, если что
Аноним 08/01/17 Вск 00:30:54  907981
>>907973
Есть мнение что нейронки настолько сложная йоба, что полностью понять схему и логику её работы и пояему она выдает конкретне ответы, могут только несколько йоба математиков земляшки
остальные что то знают и хуярят от фонаря, выбирая сеть эмпирически.
Аноним 08/01/17 Вск 00:31:11  907982
>>900205
Были и есть.
Аноним 08/01/17 Вск 00:40:36  907987
Записался на курс по машинному обучению и анализу данных от МФТИ и Яндекса на курсере. Оплатил специализацию. Как думаете стоит оно того? Деньги не большие, но хотелось бы найти работу в Москве по окончании этих курсов. Реально?
Может кто-то из анонов уже проходил их, что посоветуете?
Аноним 08/01/17 Вск 03:14:18  908048
>>907987
Мнение около-датасаентиста: только курсы на курсере тебе не дадут вкатиться, потому что работодатели требуют нихуевое знание теории машоба совмещенное с нихуевым знанием программирования. Это не учитывая того факта, что курсы на курсере крайне поверхностны (курс воронцова еще норм, но без хорошего знания матана ты ебанешься с его слайдов)
Аноним 08/01/17 Вск 09:35:56  908104
>>907973
>Ананасы, а почему не существует какой-нибудь "теории архитектур искусственных нейронных сетей"?
Существует, с конца 60-х годов, вот пример книжки в тему >>900766 Слесарям такое ненужно, import tensorflow as tf можно делать без понимания происходящего, как и хуярить побольше слоев.
>Современное положение дел до боли напоминает мне средневековую алхимию
Алхимию обижаешь таким сравнением. Там хоть какой-то базис под происходящее подбить пытались. А тут вообще что-то уровня "берем, подставляем, так хуе-мое, падажжи ебана". Отсюда и плачевность результатов, по сравнению с 80-ми прогресс только за счет нереального роста мощностей камплюктеров, отсюда вся эта лекуновская сверточная ебулда и показывает результаты лучше, чем пказывала в 80-е. А по делу там только сигмоиды на релу поменяли.
Аноним 08/01/17 Вск 12:31:42  908162
>>900102 (OP)
Да, пасаны, чё-то мне кажется, что чтобы реально шарить в дата сцаенсе нужен нихуёвый такой матан и тервер. И знать, как применять его на практике самое главное. И это ещё к тому, что надо знать какой-нибудь путон/R/жабу.
Это же просто пиздец же. У тех, кто заканчивали только бакалавр на погроммиста шанса вообще нет, только у тех, у кого специальность была связанная с статистикой. Ну может быть разве что шанс есть у тех, кто пошёл дальше на магистра и были какие-то курсы про машин лернинг, но этого всё равно недостаточно же.
Аноним 08/01/17 Вск 13:40:47  908179
http://www.wired.co.uk/article/lsd-microdosing-drugs-silicon-valley
обкурятся своим лсд и шаманят с цифрами не понимая сути
Аноним 08/01/17 Вск 13:47:39  908183
>>908162
Так и есть. Можно наугад тыкать готовыми инструментами, но что в таком случае тебя будет отличать от слесаря (ты жы сцаентист)? Под "реально шарить" будет подразумевать возможность вести исследовательскую деятельность, а подобным обычно занимаются люди с phd.
Аноним 08/01/17 Вск 14:07:08  908199
>>908183
Но знаешь, с другой стороны, можно работать в сфере связанной с дата сцаенсом, только на более техническом уровне, то есть как бы в тандеме с аналитиками, которые шарят в матане/тервере и они тебе уже говорят, какой алгоритм применить, какие данные использовать и ты уже имплементишь. Чего-то мне кажется, что именно так оно и работает в больших компаниях. Всё-таки, чтобы правильно распарсить данные надо знать предметную область, откуда эти данные и +знать матан.
Аноним 08/01/17 Вск 16:51:47  908278
Короче, надо, как в фильме Сфера, набирать команду из биолога, математика, физика, программиста, роботехника и философа. И хуярить это дело в команде. Один лишь программист столь глобальную задачу не осилит.
Аноним 08/01/17 Вск 17:12:59  908291
>>908199
Так и работаем: математик, дэйтаслесарь и байтослесарь.
Аноним 08/01/17 Вск 17:52:18  908305
>>908278
биолог: Ну короче есть нервная система, в ней нейроны, синапсы-хуинапсы, импульсы по ним проходят, дальше не моя специализация
математик: Возьмем p(x) = П p(xi |x1...xi-1), а дальше тупой перебор параметров, иначе не сойдется с вероятностью Φ
физик: Чего надо-то? Могу током ёбнуть.
программист: Мудаки вы все, лучше я сам ИИ напишу на питоне
робототехник: Не надо на питоне, он в ардуину не влезет!
философ: Такие дела...
Аноним 08/01/17 Вск 18:10:23  908310
Отписавшимся выше про биологии, психологии и прочее срочно пиздовать читать Гёртцеля и Курцвейла:
http://wp.goertzel.org/
http://www.kurzweilai.net/
Аноним 08/01/17 Вск 18:14:50  908312
>>908305
В голосину.
Аноним 08/01/17 Вск 18:25:36  908324
>>908305
1. Берем физика и робототехника. Они делают хреновину для стимуляция мозга электрическим током, который работает по кнопке. Надевают эту хрень программисту, и если что-то не так дают ток для стимуляции мозговой деятельности.
2. Программист должен для разминки сделать синтезатор голоса. В этом этапе проверим работу первой хрени и оттестируем на программисте. Пусть для голоса образец дает философ.
3. Дальше берем биолога и робототехника. Биолог тащит таракана. Дальше робототехник и биолог делают устройство для манипуляции тараканом. На его базе...

Да все просто, вообще.

мимо
Аноним 08/01/17 Вск 18:26:41  908326
>>908324
Математик тоже нужен, просто где-то на 4 этапе.
Аноним 08/01/17 Вск 18:27:02  908327
>>908326
Или можете посадить его за кнопку.
Аноним 08/01/17 Вск 18:42:39  908339
Поясните за машину Геделя
Аноним 08/01/17 Вск 18:51:05  908342
>>908339
>машину Геделя
Машина, оптимизирующая сама себя.
http://people.idsia.ch/~juergen/goedelmachine.html
Аноним 08/01/17 Вск 19:07:02  908348
>>908342
А кратко можешь рассказать суть?
Аноним 08/01/17 Вск 19:11:32  908350
>>908348
Здесь простая схема итерационного алгоритма.
Есть машина, решающая задачи. Задачи она решает как-нибудь необязательно оптимально. Мы ставим машине задачу улучшения самой себя, ну и она как-то себя улучшает, может быть не очень хорошо, но улучшает. И эта процедура повторяется много раз, в итоге процесс сойдётся к некоторой оптимальной машине.

Ну и по ссылке abstract:
We present the first class of mathematically rigorous, general, fully self-referential, self-improving, optimally efficient problem solvers. Inspired by Kurt Gödel's celebrated self-referential formulas (1931), a Gödel machine (or `Goedel machine' but not `Godel machine') rewrites any part of its own code as soon as it has found a proof that the rewrite is useful, where the problem-dependent utility function and the hardware and the entire initial code are described by axioms encoded in an initial proof searcher which is also part of the initial code. The searcher systematically and efficiently tests computable proof techniques (programs whose outputs are proofs) until it finds a provably useful, computable self-rewrite. We show that such a self-rewrite is globally optimal - no local maxima! - since the code first had to prove that it is not useful to continue the proof search for alternative self-rewrites. Unlike previous non-self-referential methods based on hardwired proof searchers, ours not only boasts an optimal order of complexity but can optimally reduce any slowdowns hidden by the O()-notation, provided the utility of such speed-ups is provable at all
Аноним 08/01/17 Вск 19:46:58  908362
Вот серьехно ребят, открываю первые ж книги куча пиздец информации, нет ли норм плавного введения аля как какие нибудь курсы удасити?
Аноним 08/01/17 Вск 19:49:11  908363
>>908362
Есть же ссылка на курс от китаёзы в шапке.
Аноним 08/01/17 Вск 19:50:26  908364
>>908362
Курс от хуяндекса на курсере есть ещё.
Аноним 08/01/17 Вск 19:53:00  908366
>>908363
Но там уже сложно. А я крудошлепом сейчас работаю, мне б пререквесты нужны, либо просто на курсэру пиздовать?
Аноним 08/01/17 Вск 19:58:30  908374
>>908366
>You can watch up to 4 videos per week. Subscribe for unlimited access.


пИЗДЕЦ КУРСЭРА СКАТИЛАСЬ, платное все
Аноним 08/01/17 Вск 20:02:39  908377
>>908366
>>908374
Держи аналог
https://www.udacity.com/course/intro-to-machine-learning--ud120
Аноним 08/01/17 Вск 20:29:16  908397
Поясните добиваются ли нормальных результатов чат боты на нейронках или для ботов юзают другие алгоритмы? Тот же cleverbot от гугла на чём сделан?
Аноним 08/01/17 Вск 20:38:31  908405
>>908397

Вроде на seq2seq нейроночке

http://www.cs.toronto.edu/~fidler/teaching/2015/slides/CSC2523/conversation_berkay.pdf
Аноним 08/01/17 Вск 22:45:49  908489
>>908377
Благодарю, завтра на работе начну
Аноним 09/01/17 Пнд 01:29:08  908558
>>908405
Из проблем пишут, что Seq2seq и прочие подходы, основанные на LSTM склонны давать однотипные и простые ответы типа "Да", "Не знаю". Наверное, либо с обучающими данными можно что-то похимичить, ну, и сейчас начали появляться всякие оптимизации на эту тему.
Аноним 09/01/17 Пнд 14:33:27  908782
>>900102 (OP)
http://data.stepik.org

норм тема для старта?
Аноним 09/01/17 Пнд 14:55:45  908798
>>908782
дораха
Аноним 09/01/17 Пнд 15:00:20  908803
>>908782
>>908798
А главное, перескажут какого-нибудь бишопа или еще какую хуитку, которую и так на каждом углу прочитать можно.
Аноним 09/01/17 Пнд 15:44:43  908822
>>908342
>>908350
Эту вашу машину Геделя где-нибудь уже реализовывали? Ничего конкретного не гуглится.
Аноним 09/01/17 Пнд 21:20:55  908972
>>908798
>>908803
Дауны, там все бесплатно это доступно, а заплатить только за экзамен можешь.
Я про сам план
Аноним 09/01/17 Пнд 21:28:37  908982
>>908822
Вангую, что есть какие-нибудь попытки, но судя по тому, что особо громкого ничего я не слышал, они были не самыми удачными.
Аноним 09/01/17 Пнд 22:42:19  909019
>>908972
Зарегался. Для вката пойдет, имхо. Потом можно что-то от муриканских товарищей посмотреть.

Вот это еще рэйтаните: http://course.fast.ai
Аноним 09/01/17 Пнд 23:32:26  909054
Чем плох язык Рррр R?
Аноним 10/01/17 Втр 00:04:40  909074
>>908782
Заинтересовался, но это получается 12*1999 = 23988 руб. За год обучения, копейки же.
Другое дело диплом то этот не стыдно будет показать? Блять платных курсов расплодилось как говна за баней, такое чувство что это все наебалово, ну вот дадут бумажку, но рыночек то уже порешал все, ведь так?
Аноним 10/01/17 Втр 00:05:09  909075
>>909054
он не для картавых.
Аноним 10/01/17 Втр 01:01:48  909102
>>909074
год? ты чо даун?
там вес быстро можно

алсо если ты туда ради бумажки идешь - плохие для тебя новости
Аноним 10/01/17 Втр 05:50:29  909154
>>909074
Каждый делает что может.
Кто-то работает, кто-то учит.
Сделай так, чтобы не стыдно было показать знания.
Бумажка тут ничего не значит - учителей много, знаменитых мало.
Но знания одни и те же, знаменит учитель или нет.
Тебе остается либо принять их, либо нет.
Аноним 10/01/17 Втр 10:36:09  909196
>>905298
>почему выучить формальный язык вообще проблема
Потому что я параллельно ебашу топологию/дифф. геометрию/Ли-алгебры/спектральную теорию, квантовую теорию поля для конденсированных сред и немецкий язык. Распыляться еще на 2-3 языка программирования, не будучи программистом - не рационально (читай верх тупизны). Прочитать-то книгу всегда можно, но надо предварительная практика (то есть проработать всю книгу) + постоянная последующая работа в данной языковой среде, а если мне для всего достаточно R и я практически никогда не открою Python, то зачем мне вообще начинать?
Аноним 10/01/17 Втр 10:56:00  909205
>>909196
У нас программистов не принято дрочить на язык. Вкатывайся куда хочешь, особо разницы нет. В интернете куча сравнения r vs python. Если уже наметил план того, что тебе нужно выучить в R (ты там литературу называл), бери и учи. Если для тебя вдруг не хватит R для каких-то целей (это произойдёт точно не через неделю), ты удивишься насколько всё легко в питоне. Крч, за время рассуждения r vs python ты бы уже прочитал пару глав по R. Ещё раз повторюсь, у нас тут дрочат не на инструмент, а на продукт
Аноним 10/01/17 Втр 11:22:38  909216
>>909205
>за время рассуждения r vs python ты бы уже прочитал пару глав по R.
Я уже прочитал. Я и в питоне работал по учебнику Langtangen'а, но все упирается в время. У меня, не-программиста, времени на "что-то еще" нет. Под все остальное проще доучить Mathematica.
Аноним 10/01/17 Втр 11:42:55  909223
Ребят люблю копаться и что то искать. Хотел купить металлоискатель и искать золото, но решил что с питоном можно тоже копать. Я так понял юзаются графы, деревья, парсинг, регулярки. Что такое kaggle? И как можно с этим всем зарабатывать деньги?
Аноним 10/01/17 Втр 13:31:52  909278
>>909075
Я картавлю, шепелявлю и вокаю.
Аноним 10/01/17 Втр 23:49:35  909565
http://www.dailytechinfo.org/infotech/8813-uchenye-zastavili-chipy-pamyati-vystupit-v-kachestve-processorov-vypolnyayuschih-obrabotku-dannyh.html Такие дела, хотят скрестить память и вычисления, да сделать троичные еще.

Впрочем, один парень уже писал об этом давно http://lexpartizan.livejournal.com/451468.html
Аноним 11/01/17 Срд 04:05:10  909620
Посоны. Вот сделать бы бота для соцсетей, который после диалога выдает ссылку на сайт монетизирующий переход. Нейросети лучшие для этого или лучше простенький алгоритм?
Аноним 11/01/17 Срд 07:04:25  909650
>>909565
>хотят скрестить память и вычисления, да сделать троичные еще
опять FPGA изобрели?
Аноним 11/01/17 Срд 11:37:58  909738
>>909054
>Чем плох язык Рррр R?
2,5 местных школьника сошлись на том, что нимодна. Кроме этого ничем не плох.
>>909196
Я тебе уже пояснил. Единственная область, в которой пистон всухую уделывает R - это сверточные нейроночки. Не то чтобы в R их нет совсем, но это тот случай, когда на пистоне сделано реально лучше, больше, проще, удобнее и материала в разы больше (документация, примеры, туторы, т.д.), не могу не признать это даже как фанат R.
Аноним 11/01/17 Срд 12:50:54  909768
>>909738
>Единственная область, в которой пистон всухую уделывает R - это сверточные нейроночки.
Которые мне, как я понимаю, совершенно не нужны. Так бы и говорил - "бери R и не парься", а то еще какой-то второй язык программирования придумал учить.
Аноним 11/01/17 Срд 14:03:09  909804
Как сделать логические операции на нейросетях? И можно ли получить из этого профит?
Аноним 11/01/17 Срд 14:47:20  909817
>>909804
Профита нет. Слишком дорого.
А сделать просто: скормить нейросети таблицы истинности логических операторов.
Аноним 11/01/17 Срд 15:16:53  909831
SDC115161.jpg (1306Кб, 2592x1944)
>>909804
Нейронечеткие сети же. По-сути, нейроночки на логических операторах. Профит в прозрачности готовых моделей анализируемых систем, сводящихся к логическим конструкциям уровня "если а или б то ц" и т.д.
Аноним 11/01/17 Срд 16:16:16  909863
>>909831
Можешь посоветовать материал по ним?
Аноним 11/01/17 Срд 16:21:04  909864
>>909863
КОКОСКО!!!!
КО-КО-КО-КО-КОСКО!!
КОСКО-КО!!!
КО-КОС-КО-КО!!
Аноним 11/01/17 Срд 16:22:35  909865
>>909863
Для начала - А. Пегат, "Нечёткое моделирование и управление".
>>909864
У Коско по нейрофаззи-моделям тоже немало, кстати.
Аноним 11/01/17 Срд 16:30:12  909867
>>909865
>>909864
Какой уровень математики надо?
Аноним 11/01/17 Срд 16:36:40  909873
>>909867
Нечеткие множества жи. Все, что надо, есть у Пегата. В остальном, ну бэкпропагейшн надо понимать как работает.
Аноним 11/01/17 Срд 16:37:00  909874
blob (248Кб, 574x547)
>>909867
Аноним 11/01/17 Срд 16:37:36  909875
>>909874
Нечеткого йобу дорисуй еще.
Аноним 11/01/17 Срд 17:36:01  909890
>>909874
извлечение из чётной степени даёт модуль
Аноним 11/01/17 Срд 18:18:20  909920
К слову, изначальная идея Маккаллока и Питтса была именно в том, чтобы представить нервную активность в виде исчисления высказываний с помощью наборов элементов (нейронов).
Аноним 11/01/17 Срд 18:21:11  909924
Снимок.PNG (194Кб, 991x575)
Ссылка отвалилася же https://pdfs.semanticscholar.org/5272/8a99829792c3272043842455f3a110e841b1.pdf
Аноним 14/01/17 Суб 08:22:39  911743
Анон, хотелось бы услышать твое мнение насчет облачных серверов для вычислений по типу microsoft azure или amazon aws, есть ли в них преимущества или могу не парится и брать сразу титан х?
Аноним 14/01/17 Суб 13:52:52  911952
>>911743
попробуй сначала на облаке - если не зайдёт всегда можешь купить титанх/2080ти
слышал на азуре инстанцы получше, на ашс тормозит
Аноним 14/01/17 Суб 14:07:49  911967
>>911743
смотрел на ютубе яндекс, многие используют амазон для кеггла
Аноним 14/01/17 Суб 19:26:27  912167
Что имеют в виду, когда говорят, что нейросеть понимает текст?
Аноним 14/01/17 Суб 19:59:55  912197
>>912167
Возможно, имеется в виду возможность нейроночек классифицировать текст по семантической схожести. Такая возможность и правда существует. Но спциализированные алгоритмы для этого подходят больше (LSA, LDA, topicmodel).
Аноним 14/01/17 Суб 20:29:12  912225
>>912197
И все эти решения, включая нейросети, просто строит граф с отношениями слов и фраз?
Аноним 14/01/17 Суб 22:14:00  912297
>>912225
не совсем, насколько я понимаю, смотрят просто какие слова встречаются вместе с какими словами в какой категории текста, но без графов, просто вероятности
Аноним 15/01/17 Вск 03:29:44  912455
Анон, начинающий ИТТ просит помощи. Так вот, скачал с гита https://github.com/fujimotomh/char-rnn-tensorflow для генерации текста, в инпут засунул кучу примерно одинаковых новогодних поздравлений (просто для примера), и с 512 нейронами в 2 слоя мне удалось добиться loss в 1.8-1.9. Дальше при увеличении кол-ва нейронов до 1024 или слоев до 4 с 512 loss не падает за пределы 3.4-3.5, втф? Может это локальный минимум и она типа застряла там? Я играл уже и лерниг рейтом, не помогает, а при 512 х 2 она выдает просто белиберду. Что делать? Или увеличить инпут? Заранее спасибо.

P.S. На macbook pro 13" late 2013 с i5 2.4 + 8gb 1024 нейронов тренируются 25 часов. Ахуеть.
Аноним 15/01/17 Вск 09:52:19  912487
>>912455
куча - это сколько конкретно?
Аноним 15/01/17 Вск 10:21:53  912493
>>912225
Там по-разному можно, в зависимости от конкретной реализации конкретного алгоритма. Есть и графы, и многое другое. Есть и нечто типа режима вопрос-ответ. Т.е. ты реально спрашиваешь обученную модель, она тебе отвечает. Это есть тута https://cran.r-project.org/web/packages/lsa/index.html https://cran.r-project.org/web/packages/LSAfun/index.html но как я говорил выше, это не нейроночка, а LSA. Там авторы пишут, что эта модель как нехуй проходит тест на знание языка, где нужно подобрать синонимы - TOEFL. Есть примеры использования, где модель рекомендует похожую книгу. Если нужны именно нейроночки, могущие в семантику, есть растуще-иерархические карты Кохонена http://www.ifs.tuwien.ac.at/~andi/ghsom/ http://www.ifs.tuwien.ac.at/dm/somtoolbox/ Вот пример, где такой алгоритм иерархически сортирует новости (например, война - война на Балканах - Милошевич) http://www.ifs.tuwien.ac.at/~andi/ghsom/experiments.html Что интересно - на язык нейроночке похуй, там пример с РИАновости, вроде было что-то с каким-то китайским новостным агентством и т.д.
Аноним 15/01/17 Вск 10:25:33  912496
>>912455
Генерация текста нейроночкой - это что-то типа https://twitter.com/neuromzan не? Задачи какие?
Аноним 15/01/17 Вск 10:49:55  912501
>>912487
попробовал на разном количестве от 1 до ~8мб текста в .txt файле (большее на ноуте вечность будет просчитываться... наверное). Попробовал погуглить, скорее всего мало данных для большей сети + попробовал понизить лернинг рейт и уже получил 1.7 на 1/4 обучения с теми же 512 нейронами.
>>912496
Хочу просто попрактиковаться, пытаюсь получить более менее осмысленный текст, но никаких особых задач нет.
Аноним 16/01/17 Пнд 04:29:23  912950
>>900102 (OP)
Я чет не пойму как ваще юзают куду, если там локальная память сильно ограничена, кажись 48к, а глобальная типа медленная? Или там все равно можно нормально работать с глобальной тока, чтобы не заморачиваться с локальной и
это все равно будет быстрее чем на проце?
Аноним 16/01/17 Пнд 14:20:09  913109
>>912950
>48к
А тебе сколько надо?
Аноним # OP  17/01/17 Втр 00:05:26  913476
видел сегодня в метро лысый индус читал бишопа и мёрфи на планшете
вкатывайтесь быстрее мои милые нейроночки пока индусы не захватили все хорошие рабочие места
Аноним 17/01/17 Втр 15:33:05  913740
В следующем треде в шапку в список возможных нанимателей ИМО стоит добавить всякие консалтинговые компании.
inb4 кто туда двачера работать возьмёт
Аноним 17/01/17 Втр 16:35:06  913786
>>913476
>лысый индус читал бишопа и мёрфи
Оно для лысых индусов и есть.
Аноним 18/01/17 Срд 20:09:46  914760
Шапку читал, тред осилил. Уже ловлю на себе неодобрительные взгляды анонимуса, но подскажите готовые либы на С++ под винду.
Практически остановил свой выбор на FANN, но может какую-то стоящую либу пропустил во время поиска.
Аноним 19/01/17 Чтв 00:02:55  914903
>>914760
Господа, поясните про нормирование. Стоит ли нормировать признаки для того же титаника&
Аноним 19/01/17 Чтв 11:39:40  915070
>>914760
>подскажите готовые либы на С++ под винду
R. Присутствуют все мейнстримные и не только нейроночки.
>FANN,
Сладкий хлеб.
Аноним 19/01/17 Чтв 22:26:54  915415
>>915070
>>915099
Спасибо, аноны. Нейроночка - лишь часть проекта основа которого на С++ && Windows. Так что буду смотреть в сторону tiny-dnn.
Аноним 20/01/17 Птн 02:20:19  915511
Бля, анончики, че-то чем дольше занимаюсь нейроночками , тем больше прихожу к выводу, что и я сам мало отличаюсь от нейроночки. Фактически я так же занимаюсь преобразованием входной информации в сигналы управления телом, и у меня как у рекуррентной нейроночки есть внутреннее состояние. Я даже не могу сказать, что я умнее нейроночки, потому что есть много задач, которые она выполнит лучше меня.

А что, если эмерджентная теория сознания права, и наличие сознания определяется лишь сложностью организации вещества? Получается, что стирая нейроночку с диска, я убиваю живое существо?
Аноним 20/01/17 Птн 03:32:58  915522
Поясните плиз на хуях, какой термин в нейронауке отвечает за минимальную единицу "понимания" данных? Не распознавания. Понимания распознанных данных.
Аноним 20/01/17 Птн 05:41:52  915534
>>915522
>нейронауке
паржал, это шарлатанство уже так называется?
Аноним 20/01/17 Птн 08:11:49  915558
>>915522
Связь между двумя нейронами. Например нашей сети нужно понять, что если у человека есть хуй, то у него нет сисек. На входном нейроне наличие хуя будем кодировать как 1, отсутствие 0. На выходном наличие и отсутствие сисек так же 1 и 0. Тогда, чтобы закодировать "понимание" того, что у мужиков сисек не бывает, мы устанавливаем значение веса связи в -1, а bias в 1.

Y=Wx+b

x вход, y выход, W вес, b bias

Подали на вход 1, на выходе 1-1+1=0
Подали на вход 0, на выходе 0
-1+1=1

Все, теперь твоя нейроночка - эксперт по сиськам и хуям.
Аноним 20/01/17 Птн 08:16:07  915559
>>915558
Там проебался знак умножения
1 -1 + 1 = 1
0
-1 + 1 = 0
Аноним 20/01/17 Птн 08:19:01  915561
>>915559
Злоебучая макаба

1 x -1 + 1 = 1
0 x -1 + 1 = 0
Аноним 20/01/17 Птн 08:29:04  915564
>>915558
У тебя получился обычный логический элемент отрицания, или "НЕ". Который в микросхеме выполняется на одном транзисторе. Вместо ебанины с умножением, вычитанием, и двумя плавающими значениями.
Собственно, нейроны это тоже логические элементы, только не двоичные, а аналоговые.
Аноним 20/01/17 Птн 11:22:46  915610
Разве мозг не аналоговый вычислитель с цифровой передачей импульсов? Тогда почему его сравнивают с компьютером?
Аноним 20/01/17 Птн 11:27:12  915611
>>915558
Но ведь у человека может быть и хуй, и сиськи. А может не быть ни того, ни того от слова вообще, из-за болезни или еще чего-то. И у мужиков есть сиськи, но как-бы недоразвитые. И у женщин есть хуй, но как-бы недоразвитый. Какой же это эксперт?
Аноним 20/01/17 Птн 12:34:03  915641
>>915511
Может быть, тебя удивит, но нейроночки изначально и создавались как модели биологических нейронов и их совокупностей. Пусть даже как сколь угодно хреновые, но модели.
>>915610
>аналоговый вычислитель с цифровой передачей импульсов
Каша у тебя в голове. Нет там ни вычислений, ни цифровой передачи.
Аноним 20/01/17 Птн 13:08:11  915667
>>915641
А что там есть? Каша?
Аноним 20/01/17 Птн 13:29:19  915680
>>915558
Чёт проиграл. Объяснять почему ты не ответил на вопрос лень. Может быть завтра отвечу, щас я заебался слегка.
Аноним 20/01/17 Птн 13:32:25  915683
>>915650
Уроки иди делай, орифметик. Тут речь о функциях типа 0 = f (1, -1, 1) и 1 = f (0, -1, 1)
>>915667
Если вкратце то да, каша. Преобразование сигналов за счет свойств среды и изменение среды за счет свойств сигналов.
>>915680
Хуйня твой вопрос и сводится к определению номинальной дефиниции (nominal definition). Если хочешь - загугли и попытайся понять. Если не поймешь - тебе оно и не надо.
Аноним 20/01/17 Птн 15:03:11  915710
Почему нейроночки обучаются так долго?
Аноним 20/01/17 Птн 15:19:33  915717
>>915710
Потому что это типичные асимптотически-эффективные алгоритмы >>900766 разработанные без учета понимания проблемы.
Аноним 20/01/17 Птн 19:28:19  915864
ktUOnca.png (248Кб, 778x960)
SDC116191.jpg (1143Кб, 2592x1944)
Если еще в 2015 году всякие теаны рассчитывались для одного физического девайса, то следующее поколение подобного софта отличается тем, что изначально делается для распараллеливания работы на физически разных устройствах (tensorflow, MXNet, т.д). Притом, что дальше распознавания котов и перерисовывания их под Пикассо все равно не уйти, если у тебя нет в наличии хотя бы нормального инстанса от амазона / т.п. Это 100% путь в никуда, будущее глубокого обучения - это глубокий бустинг и deepSVM.
Аноним 20/01/17 Птн 20:23:11  915888
>>915864
k
Аноним 20/01/17 Птн 22:21:33  915969
Машобачеры, куда можно устроится студенту в ДСе? Запилил дипдрим, классификацию изображения и сейчас думаю генерацию фраз сделать. Но на все вакансии нужен сениор-помидор 6 лет опыта, а для студента нашёл только место в яндексе, но думаю туда не попаду. Где ещё искать кроме ХХ? Не становиться же хэтээмэль программистом только ради опыта.
Аноним 21/01/17 Суб 00:33:28  916037
>>915969
Если ты не можешь попасть студентом в Яндекс, нахрен ты кому-то сдался?
А вообще, в Яндекс просто относительно попасть, осло попробуй съездить на стажировки в Гугл/МС. Я серьезно.
Аноним 21/01/17 Суб 01:10:36  916067
>>915683
В мозгах ирл нет никакой номинальной дефиниции, номинальная дефиниция лишь фантом, которого на самом деле вообще нет. Как и любой математики, которая лишь в сознании людей, где все договорились о её существовании.

>>915522
>какой термин отвечает за минимальную единицу "понимания" данных
>Не распознавания
Ответ
>Связь между двумя нейронами

Связь между двумя нейронами ничего не значит. Это лишь связь, которая будет идентифицироваться и интерпретироваться в дальнейшем. Без интерпретации любые данные ничего не значат. Они просто данные. Пустые и не рабочие. Один из главнейших этапов - этап интерпретации данных просто взят и проёбан вникуда. Я понимаю что зашёл в программач, но мне казалось, что, быть может, здесь бывают ответы и вне темы оп постов. SCI, к сожалению, раздел полностью зашкварный.

В любом случае, если бы такая единица была введена, единица понимания. Тогда ВСЮ техническую и научную литературу можно было бы переписать согласно пониманию работы этой минимальной единицы понимания. Единицы понимания человеческой. В машине можно ввести псевдо-единицу псевдо-понимания. Но к реальному пониманию оно никак не приблизится. Лишь к механическому оперированию данными. Механическое оперирование != понимание.

>>915558
>Все, теперь твоя нейроночка - эксперт по сиськам и хуям.
Вот только она не _понимает_ что там сиськи и хуи на самом деле. А делает лишь то что ей показали. Без какого лишь понимания. Понимания здесь никак нет. И не предвидится.

И всё таки я задефайню, пожалуй, некую единицу понимания. С словесной доходчивостью у меня всё таки есть некие проблемы.

В теории, это минимально необходимый набор данных достаточный для успешного функционирования системы распознавания с максимальным количеством удачных попыток распознания.
Клоунада со слоями, к сожалению, к этому не относится.
Аноним 21/01/17 Суб 02:55:59  916101
>>916067
жаль, что тред - одна безграмотная псевдофилософия, но ок, как философ философу, а почему ты решил, что ты что-то понимаешь? тебе кто-то сказал, что это сиськи, ты считаешь это сиськами, да и что там понимать. Разве есть ли в твоей жизни что-то, что выходит за рамки повторения, наблюдения закономерностей в природе?
твое определение не работает, у всякой системы есть шум и тд и тп
а слои профита не дают

Аноним 21/01/17 Суб 03:32:07  916110
>>916101
Есть. Поиск решения задач.
https://2ch.hk/v/res/1684301.html
Недавно создавал тред в /v/ в надежде на какие-то подсказки по данной теме. И она была найдена. Предположительно она в ответе на вопроc
"Чем отличается поиск хорошо и талантливо спрятанного от решения задачи?"
В целом, по моему, в треде ничего интересного кроме моих собственных постов (и названий игр, само собой) толком и нету, процитирую, по моему, главное

>Есть ли по настоящему интелектуальные игры,
а не на статистическое задротство на основании предыдущего опыта(шахматы/рандом настолки), скорость спинно-мозгового мышления(шутерки), задротсва ради гринда(миллионы их)?

>А такие, где решаются задачи, которые хуй знает как решить просто, и подсказок просто не может быть?

>По настоящему рвать манямирок может только такая ситуация, где есть простое решение, а ты просто не знаешь куда и как копать, включается рейдж мод, ты рвёшь зубами стены уже, а всё равно нихуя непонятно с какой стороны подходить к ситуации

>Кстати с этим знакомы многие люди которые играли в игрухи когда-то давно, начинали только, лет в 5, например. Когда какая-то часть игры рвала ебло просто и пройти её можно было только вернувшись туда через месяцок (чит кодов тогда не было даже в проекте, тогда. Когда-то), но и тогда, возможно врубился бы рейдж мод уже в другом месте этой игры. И так пока игра не пройдётся в сто первый раз. В стотысячный. Но ты всё равно порвав себе еблище поймёшь чё ты не так сделал и как надо было.

>Т.е предположительно должно быть чёто где память вообще не играет никакой роли и никак никому не поможет, а предыдущий опыт просто идёт нахуй как бесполезный

>Говорят, такими экспериментами баловались военные в семидесятых, но потом забросили это всё, потому что многие подопытные крышей ехали.
Аноним 21/01/17 Суб 03:36:23  916111
>>916101
Я заметил такую хрень. Когда чёто не знаешь, сначала идут попытки, простые попытки решить задачу. А потом идёт "зависон" в виде "закипания мозгов". Вот он и есть тот самый искомый элемент
Аноним 21/01/17 Суб 03:51:11  916113
>>916101
https://www.youtube.com/watch?v=y0o1BYwR0vY
Решение где-то рядом, в несуществующих глитч уровнях марио и этим http://dump.bitcheese.net/files/zyhukyc/%D0%B2%D1%81%D1%91_%D0%BA%D0%B0%D0%BA_%D1%83_%D0%B1%D0%BE%D0%B9%D1%86%D0%B0.mp3
Аноним 21/01/17 Суб 04:03:14  916122
>>916111
Мозг понимает, что нет смысла тратить драгоценную энергию на решение нерешаемой задачи, и забивает на нее.
Аноним 21/01/17 Суб 04:05:40  916124
>>916122
Годно ты себя обосрал.
Аноним 21/01/17 Суб 04:07:47  916125
>>916124
В каком же месте?
Ты можешь что-то по делу отвечать?
Аноним 21/01/17 Суб 04:20:30  916127
>>916110
Любые новые идеи строятся из уже известных идей, по другому никак абсолютно. Так что хуйня типа "без памяти и без прошлого опыта" - полная хуйня.
При решении задач просто кто-то хорошо умеет выделять необходимые грани и комбинировать их в наиболее пригодном виде, а кто-то не очень хорошо.
Аноним 21/01/17 Суб 10:32:41  916167
>>916067
>В мозгах ирл нет никакой номинальной дефиниции
Вот как раз самая она и есть, в самом что ни на есть чистом виде - неканонические элементы (воспринимаемое, н-р) считаются в ионный ток (канонические элементы) в смысле конструктивной функции, н-р по Колмогорову.
>номинальная дефиниция лишь фантом, которого на самом деле вообще нет
В данном случае это название и формальное определение реально существующего в мозгах процесса. Ты просто не шаришь в теме, в которую пытаешься влезть.
Аноним 21/01/17 Суб 11:57:19  916199
SDC116211.jpg (1045Кб, 2592x1944)
Раз зашла речь про ИИ и разницу между распознаванием образов и пониманием, могу сказать, что в этом направлении все проще, чем кажется. Я как раз занимаюсь этим вопросом, задача сводится к тому, чтобы немного расширить интерпретацию логических констант по Брауэру-Гейтингу-Колмогорову до интерпретации по Брауэру-Гейтингу-Колмогорову-ананиму с мейлру переформулировав конкретно колмогоровскую интерпретацию на случай т.н. "нервной модели стимула" по Соколову. Получившаяся BHKS-интерпретация (одновременно получается и аналогичный изоморфизму Карри-Говарда изоморфизм Колмогорова-ананима с мейлру) позволяет напрямую использовать все ништяки MLTT в нейрофизиологии, профитов очень много, но в конткесте данной темы, это н-р, снимает т.н. "проблему китайской комнаты", сводя ее к номинальной дефиниции в BHKS-интерпретации логических констант. Если кто не в теме за китайскую комнату, а гуглить лень, скажу что это чисто гуманитарная маняпроблема, которой фуфлософы тралят математиков уже почти 40 лет, за счет довольно тонкой формулировки, которую почти никак не обойти. Маняследствиями этой маняпроблемы, н-р, является "невозможность ИИ" и "неадекватность теста Тьюринга".
Аноним 21/01/17 Суб 12:04:02  916202
>>916199
Все так сложно, все так запутано
Аноним 21/01/17 Суб 15:09:39  916322
Что скажите за импульсные нейросети? Какие библиотеки есть?
Аноним 21/01/17 Суб 15:33:33  916332
>>916199
мне кажется, что проблема китайской комнаты в том, что там считается априори, что понимание человека отличается от просто повторения машиной, но если эта машина имеет какие-то цели (которые просто выводятся на основе обучения и фиттинга), может объяснить это языком, выбрав наилучшую стратегию на основе данных, то получается, что и нет разницы между пониманием человека и пониманием машины.
Аноним 21/01/17 Суб 16:10:23  916355
>>916332
Там все сложнее, иначе бы и проблемы не было. Суть в том, что понимание как явление в принципе отделяется от механических вычислений, при этом показывается что из самих механических вычислений, даже в случаи когда они представляют собой ментальные конструкции, построимые человеком, не следует понимания вычисляемого.
Аноним 21/01/17 Суб 18:44:27  916425
>>916037
Спасибо, надеюсь устроюсь.
А какие есть советы перед собеседованием? Есть ли какие-то особенности собеседования? Будут просить развернуть список на доске? Или будет только МЛ-релейтед вопросы?
Аноним 21/01/17 Суб 20:17:54  916468
В продолжение к этому >>915415
Возник вопрос как конкретно по этой библиотеке, так и по любой реализации НС.
Как правильно нейроночка должна переварить отсутствие одного из входных сигналов?
При работе с картинками это не так актуально, хотя может быть и такое. Например, первое что пришло в голову - входными сигналами являются данные со счетчиков посещаемости, расположенных на разных сайтах. Сайт повис - данных нет. Что подавать во входной сигнал с этого сайта?
Старые(последние полученные) данные - можно, но не совсем то.
0 или отрицательное значение - тоже не совсем то(Идеально было бы отключить временно этот входной нейрон, но возможно ли это). В вышеупомянутой библиотеке, на сколько я понял, на вход подаются контейнеры с данными и просто выбросить один из входных сигналов не выйдет.
Как правильно подойти к решению данного вопроса?
Аноним 21/01/17 Суб 20:30:57  916479
>>916468
Нормальные нейроночки поддерживают N/A в качестве возможного значения входа, когда значения именно нет совсем, и нулем это заменить нельзя, т.к. 0 это тоже значение. Реализовано это может быть по-разному, в зависимости от конкретного софта.
Аноним 21/01/17 Суб 22:03:10  916533
>>916425
один раз меня собеседовали в молодой и амбициозный стартап, меня спрашивали, как бы я ту задачу решил, как бы ту решил, как бы засунул гигантскую матрицу в память и тд, ну, короче, меня не взяли (но это был успех, меня всегда отсеивают еще на хедхантере)
Аноним 21/01/17 Суб 22:23:24  916545
Я недавно в этом деле, изучил сеть Хопфилда. Правильно ли я понимаю, что нейросети это волшебство над матрицами по большей части?
Аноним 22/01/17 Вск 13:46:12  916953
>>916545
Зависит от того, что анализируешь, т.е. как это можно представить - скаляры, векторы, матрицы, тензоры. Нейроночке в общем случае похуй.
Аноним 22/01/17 Вск 14:45:04  917002
>>916953
но все равно потом ты будешь это перемножать с весами и производными, а перемножать ты будешь матрицы, так как так быстрее
Аноним 22/01/17 Вск 19:12:03  917291
grnn.png (23Кб, 381x254)
Нужно разобраться в сети GRNN. Нашел подходящий пример:
https://github.com/CorcovadoMing/GeneralRegressionNeuralNetwork/blob/master/src/grnn.cpp
Что смущает:
- В коде нет двойки, на которую умножается сигма в квадрате.
На чем завис:
- Di в квадрате вычисляется как сумма квадратов разниц элементов входного и сохраненного векторов.
for(int i = 0; i < input.size(); i += 1) {
distance += std::pow(input - x, 2)
}, где input и х вектора по 2 элемента в каждом.
Идентично ли это формуле вычисления Di в квадрате на картинке?
Аноним 22/01/17 Вск 19:44:39  917333
SDC115991.jpg (1202Кб, 2592x1944)
>>917291
>GRNN, хопфилд
По старым нейроночкам угораешь? Там мало интересного. Тем более, все равно все это так или иначе разновидность стандартной аддитивной модели Коско пикрелейтед. То, что у тебя на пике вообще практически один-в-один.
Аноним 22/01/17 Вск 20:01:35  917349
>>916425
Если идешь на ML-специалиста, то инфа 100% будет хотя бы одна секция про чистый ML и вопросы как теоретические (че как чтобы быстро училось сделать?), так и приближенные к практике (даны данные про что-то, как сделать фичи, каким методом учиться), ну и сколько-то кодинга (вероятнее всего писать на питоне стоит). Если на кодерскую вакансию - очень качественно выбирай, куда идешь, не везде ты будешь делать сколько-то значимое количество ML, тут будет сильно больше секций кодинга, но если идешь на ML, его тоже спросят, но более в практическом ключе.
Аноним 22/01/17 Вск 20:04:55  917352
>>917333
Та хотел все же разобраться в этом примере.
А то соответствует ли формула - непонятно.
Как представляются веса разных нейронов тоже непонятно. Получается при обучении если какой-то паттерн данных повторится несколько раз, это не дает ему никакого преимущества при последующей работе сети.
Хотя в теории все просто - формула с пика и все.
Аноним 22/01/17 Вск 20:14:53  917367
>>917352
>Как представляются веса разных нейронов тоже непонятно.
Радиально-базисные функции жи, экспонента расстояния между центром функции и конкретным входом х.
Аноним 22/01/17 Вск 20:42:06  917393
Есть красивое ПО с гламурными кнопочками для гумманитариев?
Аноним 22/01/17 Вск 20:51:04  917405
>>917393
Гламурность обратно пропорциональна функциональности, вся годнота только через консолечку, либо платно (StatSoft Statistica). Если просто кнопочки потыкать посмотреть как работает, есть такая хуитка http://neuroph.sourceforge.net/index.html
Аноним 22/01/17 Вск 23:29:42  917580
>>917393
http://playground.tensorflow.org/
Аноним 23/01/17 Пнд 00:20:39  917616
>>900102 (OP)
У меня есть задача. На компьютер поступает аналоговый звуковой сигнал. На компьютере сохранена цифровая версия источника сигнала. То есть имеется аналоговая и цифровая звуковые дорожки, первая идет в реальном времени, вторая лежит в папке. Нужно сделать так, чтобы компьютер воспроизводил цифровую звуковую дорожку синхронно аналоговой в реальном времени. Как сделать, связано ли это с нейронками?
Аноним 23/01/17 Пнд 00:29:44  917620
>>917616
Почти вся работа со звуком достаточно проста, тебе скорее нужно знать что такое преобразование Фурье,
И уметь сопоставлять 2 источника звука имея какое-нибудь описание основное на Фурье разложении.
Аноним 23/01/17 Пнд 00:31:02  917621
>>917616
Т.е нейронка не нужна.
Аноним 23/01/17 Пнд 00:32:49  917622
Подкасты по теме слушаете? The talking machines слушаю, есть подобного еще?
Аноним 23/01/17 Пнд 00:33:50  917623
>>917620
>>917621
Какого программиста нужно искать? Я сам гуманитарий, программа нужна для бизнеса. Есть друг-механик, который нужное оборудование для тестов предоставит, но в программировании мы оба не бум-бум.
Аноним 23/01/17 Пнд 00:34:46  917624
>>917623
Специалиста по цифровой обработке сигналов.
Аноним 23/01/17 Пнд 00:41:35  917629
>>917623
Ох лол, не завидую тебе, поиск человека способного делать что-то сложнее чем мышкой кнопку на форму перетаскивать затянется. Даже не знаю где можно адеквата найти который бы взялся за такую задачу.
Аноним 23/01/17 Пнд 00:44:04  917632
>>917629
Я год уже ищу, но теперь будет проще. Раньше я искал специалиста по распознанию изображений, теперь по звуку.
Аноним 23/01/17 Пнд 00:49:38  917640
>>917629
>поиск человека способного делать что-то сложнее чем мышкой кнопку на форму перетаскивать затянется
Судя по темам и постам, весь /зк полон икспертов во всех областях.
Аноним 23/01/17 Пнд 00:49:52  917641
>>917622
начинал, но они болтают слишком много ни о чем.
я подписан на ститчере на data sceptic и becoming a data scientist podcast (но в последнем тетка вообще жесть, на хайпе тупо интервью берет)
Аноним 23/01/17 Пнд 00:53:36  917644
>>917640
>Судя по темам и постам, весь /зк полон икспертов во всех областях.
Судя по интернету, нейросети вот-вот у всех работу отберут и наступит сингулярность. Но ни один из 20 программистов достаточно высокого уровня подготовки не смог мне за год запилить программу, которая распознает картинку с вебки, если точно такая же картинка лежит в папке. Для всех это "нереальная задача", некоторые пальцем у виска крутили.
Аноним 23/01/17 Пнд 01:09:10  917656
>>917644
мб, ты мало денег даешь?
Аноним 23/01/17 Пнд 03:03:27  917679
>>916332
>>916355
Надеюсь вы никогда не ответите на этот вопрос. Лол

>>916167
>Ты просто не шаришь в теме
Чёт опять проиграл. Как захожу - всегда проигрываю с первого прочитанного ответа. Это уже превращается в традицию.
Аноним 23/01/17 Пнд 03:13:48  917681
>>917656
Да нормально я даю.
Они даже цену свою назвать ни разу не захотели. Будто я пришел и сказал "сделайте мне фейсбук".
Аноним 23/01/17 Пнд 03:20:00  917682
>>917644
>которая распознает картинку с вебки
Условия-то какие были поведения картинки-то?
Аноним 23/01/17 Пнд 03:24:06  917683
>>917682
Просто показываешь на камеру распечатанную фотку картинки, которая в папке. Все. Я не ебу что тут может быть сложного. Если нейросети даже на такое не способны, то ну их нахуй.
Аноним 23/01/17 Пнд 03:26:00  917684
>>917683
А "нормально" это сколько в твоём понимании?
Аноним 23/01/17 Пнд 03:31:59  917685
>>917684
Это сколько попросят.
Аноним 23/01/17 Пнд 08:38:42  917708
>>917644
>ни один из 20 программистов
>винду переставить можешь, тыж программист
Тебе нужен программист, знакомый с Machine Learning, а не просто программист. Это, как говорится, две большие разницы. Не там ты искал. Твою задачу вполне можно решить нейронкой.
Аноним 23/01/17 Пнд 09:28:14  917719
>>917708
Ещё один поехавший пихающий нейронки куда не попадя.
Аноним 23/01/17 Пнд 09:39:44  917723
>>917681
А у тебя аналоговая и цифровая версия абсолютно идентичные или различаются? На входе может быть что-то кроме известной записи? Насколько точной должна быть синхронизация?
Аноним 23/01/17 Пнд 09:46:39  917725
>>917719
А как ты иначе картинки проиндексируешь?
Аноним 23/01/17 Пнд 09:49:28  917727
>>917725
Куча дескрипторов и какое-нибудь сжатое 32x32 изображение, а потом из всех этих фич каким-нибудь простым алгоритмом типа SVM говорить одинакова картинка или нет.
Аноним 23/01/17 Пнд 09:53:00  917729
>>917727
Херня, с вебки у тебя кривая проекция, поворот, наклон, свет не такой, много лишнего в кадре. Или ты предложишь подносить картинку и выравнивать, пока не совпадет с рамочкой? Даже в таком случае не факт, что у тебя будет хорошо распознавать.
Аноним 23/01/17 Пнд 09:55:15  917731
>>917729
Есть дискрипторы инвариантные к поворотам и масштабированию. Короче это типикал задача Computer Vision, куча гайдов в интернете уже написана, причём лет 10 назад, работает конечно не 100%, но вполне приемлимо.
Аноним 23/01/17 Пнд 11:45:40  917794
>>917708
Мне отказал админ крупной группы ВК, посвященной этой теме.
>>917731
Я даже программистам ссылки на эти гайды давал.
Аноним 23/01/17 Пнд 11:58:14  917802
>>917794
>группы ВК
лол
Аноним 23/01/17 Пнд 13:11:45  917849
Господа, неужели эти ваши сверточные нейроночки в такое >>917683 не могут? Скажем, есть готовые картинки крокодила, залупы и сыра. Затем берется фотка с вебки и сравнивается с предыдущими на предмет сходства.
Аноним 23/01/17 Пнд 13:40:24  917869
>>917849
Могут.
Аноним 23/01/17 Пнд 13:57:42  917895
>>917794
создай на апворке предложение о работе, опиши задачу, проведи интервью. Думаю, кто-то за 15-20 долларов (или даже меньше) в час сделает.
Аноним 23/01/17 Пнд 15:03:31  918032
В машинном обучении используются методы меметики?
Аноним 23/01/17 Пнд 15:12:57  918057
>>918032
Шобы нет, таки да. https://www.jstatsoft.org/article/view/v075i04
Аноним 23/01/17 Пнд 16:51:26  918116
Реально ли сделать конвертер с помощью нейросети из врослой порнографии в детскую дабы потом продавать? Чисто теоретически.
Аноним 23/01/17 Пнд 16:55:12  918119
>>918116
Нереально, тащ майор.
Аноним 23/01/17 Пнд 18:17:27  918158
>>917895
Ну это единственное что я еще не пробовал, но надо сформулировать запрос. Пока я не работал с источником звука это сложно.
И я рассчитывал баксов на 30, за 22 сейчас в Омске сайты делают.
>>917869
>раз денег нет заплатить
А ты по прежнему жопой читаешь.
>Лет за десять разберешься
Охуительный план.
Аноним 23/01/17 Пнд 18:18:39  918159
>>918116
Чегооо блять???
Аноним 23/01/17 Пнд 19:34:55  918182
Каково мнение тредика на счет AI: Amodern aproach?
Аноним 23/01/17 Пнд 19:51:18  918197
>>918184

Тоесть если я хочу стать заебатым спецом-машинлернером то чить ее не стоит?
Аноним 23/01/17 Пнд 21:24:53  918264
Какие минимально алгоритмы и минимально программу надо для построения ИИ на уровне человека?
Аноним 23/01/17 Пнд 21:53:42  918296
>>918264
Нейросетки, очевидно.
Аноним 23/01/17 Пнд 22:17:53  918306
>>918264
нейтронная паутина
Аноним 24/01/17 Втр 09:10:42  918495
>>918264
А ты думаешь пару алгоритмов выучишь, нейроночки задрочишь и уже сможешь ИИ сделать?
Аноним 24/01/17 Втр 09:45:28  918506
>>918495
Ну надо же как-то начинать
Аноним 24/01/17 Втр 12:11:37  918565
>>918264

Учитывая что ИИ на уровне человека еще даже гиганты индустрии не запилили, то мало чего-то знать, нужно преодолеть существующие ограничения, может-быть это ограничения в вычислительных мощностях или отсутствие необходимых для этого теоретических знаний и идей.
Аноним 24/01/17 Втр 13:45:32  918619
>>918264
1. Индуктивное логическое программирование
2. Абдуктивное логическое программирование
3. Дедуктивное логическое программирование
4. Суабструктурное логическое программирование
5. Логическое программирование высших порядков.
Ну и немного символьных вычислений навернуть, начать можно с того же Макарти.
Аноним 24/01/17 Втр 15:30:12  918680
Какие разделы математики наиболее полезны. Учить в порядке матан -> статистика/теорвер норм? Насколько вообще нужна дискретная математика, теория алгоритмов, структуры данных?
Аноним 24/01/17 Втр 16:26:18  918699
>>918680
Матан, теорвер, местами статистика (самые основы).
>Насколько вообще нужна дискретная математика, теория алгоритмов, структуры данных?
Нахуй не нужно, если сам алгоритмы не разрабатываешь.
Аноним 24/01/17 Втр 17:56:17  918721
>>918158
Лол, не пошел на биржу, зато умудрился даже заебать владельцев каких-то групп. Ты не похож на адеквата, я бы с тобой работать не стал. По поводу цены - в таких вещах никто никогда не ебет цену, поэтому и платят по часам.
Аноним 24/01/17 Втр 23:24:40  918911
>>918565
>может-быть
Это существо рассуждает о теоретических знаниях.
Аноним 24/01/17 Втр 23:39:54  918917
>>918619
>Абдуктивное логическое программирование
анука подробнее про ето
ну с дедуктивными всё понятно, классический пролог могёт в дедукцию же, да? индуктивное, ну тоже приблизительно понимаю, а абдуктивное это как? типа прога сама строит гипотезы? а откудова она знает из чего их брать? у людишек первооткрывателей там всякие озарения были, яблоко упало на голову хуё-моё, а железяке то откуда озарятся?
Аноним 25/01/17 Срд 08:13:43  919052
>>918917
рэндом же
все в этом мире рождено из хаоса
Аноним 25/01/17 Срд 10:54:00  919111
>>919052
Школьник, вот что ты потерял в этом треде, если не понимаешь разницу между рандомом и хаосом?
Аноним 25/01/17 Срд 12:31:57  919151
>>919111
Нет, не понимаю, объясни
Аноним 25/01/17 Срд 13:24:25  919195
>>919151
Хаос - это не беспорядок, а некоторым образом организованный порядок. Т.е. для хаотического числового ряда характерно наличие аттрактора, определенные значения экспоненты Ляпунова, показателя Херста, сечение Пуанкаре на хаотическом числовом ряде выглядит как нечто структурированное. А рандом - это рандом, простое гауссово распределение. Никаких аттракторов, сечение Пуанкаре для рандома выглядит как бесструктурное облако точек и т.д.
Аноним 25/01/17 Срд 13:48:07  919217
>>919151
Хаос не подходит под определение случайности Мартина-Лёфа.
Аноним 25/01/17 Срд 13:51:53  919220
>>919217
>>919195
Почему вы уверены, что все должны использовать слово хаос только в значении детерминированный хаос из математики? Зануды.
Аноним 25/01/17 Срд 13:57:50  919222
>>919220
Потому что здесь техническая тематика.
Аноним 26/01/17 Чтв 01:04:54  919585
>>918699
Базовые вещи прочитать из структур стоит все равно (хештаблицы, деревья) просто, чтобы понимать, как работает внутри код.
Аноним 26/01/17 Чтв 13:52:02  919781
Котаны, назрел вопрос. Вот я сижу читаю про нейронки и, например, решил отличать с их помощью котов от собак. Чем обуславливается выбор функции потери (не в этом случае, а вообще)?
Условно говоря, вот вы решили, что вам нужна такая-то архитектура сети, то почему мне cross entropy милее mse, например? То же самое с Kullback Leibler divergence и hinge loss.
Вообще, поясните за KL divergence и cross entropy: я готов поверить, что для двух распределений P и Q KL divergence(P || Q) = cross entropy(P, Q) + cross entropy(P), так зачем нам эти две функции потерь, если они отличаются только на cross entropy(P)? В общем, не стукайте, я только пытаюсь раскурить, но тону в нотации (читаю Goodfellow - Deep Learning).
Аноним 26/01/17 Чтв 15:38:26  919840
Я создаю принципиально новый язык программирования. Что в нем должно быть из фишек дабы было удобно реализовать все это машинное обучение? Например, думаю сделать как в Фортране работу с матрицами.
Аноним 26/01/17 Чтв 15:58:57  919856
R.png (15Кб, 1198x942)
>>919840
>принципиально новый язык программирования. Что в нем должно быть из фишек дабы было удобно реализовать все это машинное обучение? Например, думаю сделать как в Фортране работу с матрицами.
Идеальный язык для обработки данных, в т.ч. МЛ - R. Раз уж ты вспомнил про работу с матрицами - там это есть стандартными средствами.
Аноним 26/01/17 Чтв 16:01:49  919858
>>919840
поддержка вычислений на GPU автоматическая, чтобы всё само
Аноним 26/01/17 Чтв 16:19:08  919879
>>908048
Ячую этого.
Аноним 26/01/17 Чтв 17:43:01  919907
>>919781
Кратко, зависит от задачи и многие критерии выводятся из максимизации взаимной информации или логарифма правдоподобия с некоторыми предположениями о распределении переменных.
https://www.quora.com/When-should-mean-squared-error-be-preferred-over-average-cross-entropy-for-a-loss-function

Аноним 26/01/17 Чтв 17:45:52  919909
>>919840
Посмотри на Stan и Edward:
http://mc-stan.org
https://arxiv.org/pdf/1701.03757v1.pdf
Аноним 27/01/17 Птн 00:11:09  920105
>>900264
Ты не из ДС, случайно?
Аноним 27/01/17 Птн 09:41:36  920196
кто-то пробовал тут поиграться с сетью?
https://cs.stanford.edu/people/karpathy/convnetjs/demo/cifar10.html

у меня чет не получается настроить Validation accuracy ниже 0.4
застревает на 0.45 и все
Аноним 27/01/17 Птн 09:45:16  920200
>>920196


сажа приклеилась
Аноним 27/01/17 Птн 10:17:35  920212
>>920196
>ниже 0.4 застревает на 0.45 и все
не выше 0.6 т.е.
Аноним 27/01/17 Птн 18:23:54  920367
Снимок.PNG (466Кб, 632x790)
Там это, индусы книжку про SlesarFlow пишут http://www.tensorflowbook.com/ , пдфка всего 36 долларов https://www.manning.com/books/machine-learning-with-tensorflow?a_aid=TensorFlow&a_bid=042443a4 2 последние главы еще не готовы, как раз про сверточные и рекуррентные сети. Код к книге есть на гитхабе https://github.com/BinRoot/TensorFlow-Book
Аноним 27/01/17 Птн 18:37:36  920374
Снимок.PNG (35Кб, 1285x273)
На либгене аж 4 книжки про SlesarFlow спиздить можно. Добавьте в шапку штоле, тема модная ежжи.
Аноним 27/01/17 Птн 18:44:07  920376
>>920374
Двачую, может быть полезным.
Аноним 27/01/17 Птн 19:13:43  920393
>>900102 (OP)
Посоны, вы ж тут в R шарите? Чёт треда не вижу по Рэ, сюда напшу.
k.means.test <- function(points,k){
prob <-rep(0,k)
R <- 0
centers <- data.frame(i=numeric(),R=numeric(),clust=numeric())
offset <-sqrt((max(points$x)-mean(points$x))^2+(max(points$y)-mean(points$y))^2)/180
for(i in 1:360){
R <- ifelse(i<180|R>=0,R+offset, R-offset)
index <- max(k.means(k,points,cos(i),R)$cluster)
centers<-rbind(centers,data.frame(i=i,R=R,clust=index))
prob[index] <- prob[index]+1
}
print(prob)
return(centers[centers$clust==which.max(prob),])
}
Как от цикла в середине избавиться?
Аноним 27/01/17 Птн 19:17:48  920401
>>920393
А зачем избавляться?
Аноним 28/01/17 Суб 09:16:12  920702
>>920401
Много жрёт, думал может как-то хитро можно через аплаи заебенить, показалось, что здесь в принципе ничего не сделать, подумал, вдруг показалось.
Аноним 29/01/17 Вск 08:59:34  921316
Объясните, пожалуйста, для человека несведующего - где эти нейросети вообще могут применяться, то есть - под какие именно задачи? Я понимаю, что областей применения множество, но вот хотелось бы чёткое общее определение - нейросети могут применяться в том случае если необходимо ... . Пока что вижу что применяются при распознавании нечётких структур данных внутри других данных. Плюс есть возможность заменить одни нечёткие структуры данных на другие (например, поменять выражение лица на изображении или изменить описание одного из героев повествования). Хотелось бы знать на будущее, чтобы при возникновении той или иной проблемы сразу догадаться - да, это можно решить с помощью нейросетей. Как возможно описать границы области применения нейросетей так, чтобы это было просто и понятно?
Аноним 29/01/17 Вск 10:34:36  921338
>>921316
В банкомате купюры распознают, в камерах слежения номера нарушителей палят, в аэропорту подозрительный багаж детектируют, экономика, биология, ну и всяческое айти. Блядь. ну эток ак где диффуры применяются, типа того. Метод матстатистики, просто название такое то ли маркетологами, то ли просто большие надежды возлагались. Так то один нейрончик логистическая регрессия и простейшее линейное уравнение, потом типа объединение идёт, можно даже на бумаге нарисовать, перемножить, получится уравнение первой степени но дохуя пеерменных убдет и коэффициентов. Вот задача в том, чтобы их подобрать наиболее удачно. Хочешь вкатиться начни с теорвера и статистики. Там ничего сложного нет, да и интересно это до жути.
Аноним 29/01/17 Вск 10:37:13  921340
>>921316
>Как возможно описать границы области применения нейросетей так, чтобы это было просто и понятно?
Это продвинутая статистика. Вернее, на каком-то этапе статистики стало удобно общаться на языке вот таких абстракций и это со временем выросло в целый подраздел.
Аноним 29/01/17 Вск 10:46:47  921342
>>917644
>Судя по интернету
Ну ты понел.
Аноним 29/01/17 Вск 10:55:28  921344
>>916199
Как вкатиться, анон? Ты когнитивный психолог или около того? Реально ли вкатиться через программирование, задрачивание математики, ад, мо и прочего технического? Просто я как-то посмотрел, там нужна биология с психологией
и тп, в магистратуре в спбгу. Или это не то? Можешь побольше рассказать вообще куда хоть двигаться? Я за 10к по 12 часов без выходных готов работать, только бы взяли, но нет ни профильной вышки(есть непрофильная, техническая, инженер), только корочка о переподготовке на базе высшего ну ты сам понимаешь. В каком направлении двигаться?
Аноним 29/01/17 Вск 11:01:30  921345
ibm-watson.jpg (304Кб, 1920x1080)
>>921340
>>921338

Правильно ли я понимаю, что, например, кардинально новый литературный рассказ нейросеть написать не сможет - только выведет средний каркас на основании других рассказов и подёргает то из одного рассказа то из другого какие-то уникальные приёмы (вполне возможно даже рандомно)?

>Хочешь вкатиться начни с теорвера и статистики. Там ничего сложного нет, да и интересно это до жути.

Ок, Благодарю!

Аноним 29/01/17 Вск 11:22:42  921350
Можно ли обучить нейросеть чему-то иррациональному? Например, пытаться связывать количество голубцов с движением занавесок и прочее магическое мышление. Принимать решения с помощью мигающей лампочки, всякие суеверия...
Аноним 29/01/17 Вск 12:06:45  921360
images.png (13Кб, 249x202)
115.png (6Кб, 640x437)
>>921345
>нейросеть написать не сможе
Чувак, ну это же популисты-журналисты расхайпили, ну чего ты? Какой рассказ написать? Звучит просто круто, нейронные сети, вот и нехороший шлейф мракобесия потянулся, с другой стороны свежие головы заинтересовало, может быть это такой себе запрос системы на прокачивание этой области науки. Хотя я сам дилетант-любитель и только начал погружаться во всё это, так что ты сильно ко мне не прислушивайся, лучше книжек умных почитай. Ну и да, там не обязательно логит пороговая функция, ну и то, что я говорил, это про многослойный перцептрон, а это древняя же тема, а до современных мне ещё очень долго разбираться и вникать. В общем, нарисуй в тетрадке простую сеть как на пике, где переходы (веса) умножаешь на входы, а сам нейрон складывает, потом это всё в функцию активации подаётся , на ну это ты забей, а просто вот не поленись, раскрой скобки и тд, пошагово сделай, там всего два действия повторяющихся, получишь длинное уравнение, степени будут 1, но переменных дохуя, причём веса насколько я понял это как раз коэффициенты, которые надо подобрать. Ну и всё, с такой точки зрения и магия мракобесная пропадает, да как в той же линейной регрессии, только на несколько порядок сложнее. Далее вступает в работу математика и коэффициенты подбираются таким образом, чтобы наши данные наилучшим образом описывались полученной моделью. Вот об этих методах я тебе уже нихуя не скажу, ибо рак и нуб с большими пробелами, которые ещё несколько лет навёрствывать.
Аноним 29/01/17 Вск 12:13:21  921362
>>921360
> а сам нейрон складывает
Например, в первом будет X1W11+X2W21+X3W31(допустим три входа всего), потом всё это берёшь и
(X1
W11+X2W21+X3W31) в скобки хуяришь и умножаешь на W21(там почему то W11 написано) и тд.
Аноним 29/01/17 Вск 12:25:19  921369
>>921362
Ну и короче ты понял, в конце получаются коэффициенты(нагуглил алгоритм обратного распространения ошибки, очень мало что понял, какой то градиентный спуск,типа спускаемся по чуть-чуть, пока не найдём минимум, типа как наощупь пытаешься нащупать что-то, почему то так представлялось, но это уже математика которую я нихуя не знаю пока) ну и вот, нашли минимум нашей охуевшей функции и хорошо, тое сть нашли самую хоршо описывающуюб наши данные модель, запомнили коэффициенты и готово уравнение! Знай только туда очередные данные подставляй и получай на выходе ответ! Как-то так оно работает. А может быть и нет. Но как уравнение может написать книгу я себе представить не могу.
Аноним 29/01/17 Вск 12:34:54  921372
>>921369

Писатель Робин Слоан создал на основе рекуррентной нейронной сети (RNN) текстовый генератор для написания научно–фантастической прозы. Об этом сообщает The Daily Mail.

Слоан представил свой проект на хакатоне Real Future Fair в Окленде. На глазах у зрителей нейросеть написала начало мрачного научно–фантастического романа: «Давным–давно в Окленде появился робот, созданный уничтожить все высокопоставленные семьи. Высокопоставленными семьями, конечно, были те, которые владели временами года. Когда они хотели, было лето. Когда они решали — наступала зима».

Для обучения алгоритма автор создал базу текстов из научно–фантастических журналов Galaxy и IF Magazine, выходивших в США в 60х–70х годах.

«Вы можете обучить нейронную сеть на больших объёмах любых текстов. Это может быть Википедия, или все произведения Чарльза Диккенса, или всё, что есть в интернете», — говорит Слоан.

Текстовый генератор принимает фрагменты текста и дописывает их, используя данные из базы:

«Я на 100% уверен, что через какое–то время все текстовые редакторы будут оснащены чем–то подобным», — пишет автор.

Ранее исследователь машинного интеллекта Макс Дойч создал рекуррентную нейронную LTSM–сеть, которая написала книгу о Гарри Поттере, изучив первые четыре книги серии.

В этом году в финал престижной литературной премии имени Хоси Синъити прошёл рассказ, написанный учеными из Университета Будущего Хакодате в соавторстве с искусственным интеллектом. Чтобы алгоритм смог «сочинить» рассказ, учёные предоставили ему набор входных данных: пол главных персонажей, описание сюжета, а также набор основных фраз и предложений.

https://seoded.dirty.ru/pisatel-obuchil-neiroset-pisat-nauchno-fantasticheskuiu-prozu-1242495/
Аноним 29/01/17 Вск 12:40:13  921378
>>921372
> учёные предоставили ему набор входных данных: пол главных персонажей, описание сюжета, а также набор основных фраз и предложений.
>описывающуюб наши данные модель, запомнили коэффициенты и готово уравнение! Знай только туда очередные данные подставляй и получай на выходе ответ!
>Чувак, ну это же популисты-журналисты
С другой стороны, это образец современного искусства, человек применяет технологии для творчества, те же диджеи драмнбассные, это в общем круто.
Аноним 29/01/17 Вск 13:12:17  921394
>>921372
Вот аппроксимируют эти нейроночки. Весело. И кажется, что прогресс куда-то там движется. А по сути для реального творчества это мало что дает.
Если реально по науке поступать, то надо какую-то теорию построить по тому, как пишутся рассказы, ну или развить и соединить уже существующие вещи (ведь уже немало всего придумали). А потом можно было бы и узконаправленную программу сделать, которая более эффективно и качественно решала задачу.
Аноним 29/01/17 Вск 13:21:36  921398
>>921394
Ну да, составить коллаж из рассказов, тщательно продумывать тему, развитие сюжета и тд и тп, а потом тупо скормить полностью детерминированному уравнению и получить результат. Не проще самому написать? Нет, не модно.А ВНУТРЕ У НЕЙ НЕЙРОНКА!
Аноним 29/01/17 Вск 13:22:26  921399
>>921398
>А ВНУТРЕ У НЕЙ НЕЙРОНКА
Старичок засуетился. Он снял с футляра крышку, под которой оказалась громоздкая старинная пишущая машинка, извлек из кармана моток провода, воткнул один конец куда-то в недра машинки, затем огляделся в поисках розетки и, обнаружив, размотал провод и воткнул вилку.
— Вот, изволите видеть, так называемая эвристическая машина, — сказал старичок. — Точный электронно-механический прибор для отвечания на любые вопросы, а именно — на научные и хозяйственные. Как она у меня работает? Не имея достаточных средств и будучи отфутболиваем различными бюрократами, она у меня пока не полностью автоматизирована. Вопросы задаются устным образом, и я их печатаю и ввожу таким образом к ей внутрь, довожу, так сказать, до ейного сведения. Отвечание ейное, опять через неполную автоматизацию, печатаю снова я. В некотором роде посредник, хе-хе! Так что, ежели угодно, прошу.
Он встал за машинку и шикарным жестом перекинул тумблер. В недрах машинки загорелась неоновая лампочка.
— Прошу вас, — повторил старичок.
— А что это у вас там за лампа? — подозрительно спросил Фарфуркис.
Старичок ударил по клавишам, потом быстро вырвал из машинки листок бумаги и рысцой поднес его Фарфуркису. Фарфуркис прочитал вслух:
— «Вопрос: что у нея… гм… у нея внутре за лпч?..» Лэпэчэ… Кэпэдэ, наверное? Что еще за лэпэчэ?
— Лампочка, значит, — сказал старичок, хихикая и потирая руки. — Кодируем помаленьку. — Он вырвал у Фарфуркиса листок и побежал обратно к своей машинке. — Это, значит, был вопрос, — произнес он, загоняя листок под валик. — А сейчас посмотрим, что она ответит…
Члены Тройки с интересом следили за его действиями. Профессор Выбегалло благодушно-отечески сиял, изысканными и плавными движениями пальцев выбирая из бороды какой-то мусор. Эдик пребывал в спокойной, теперь уже полностью осознанной тоске. Между тем старичок бодро постучал по клавишам и снова выдернул листок.
— Вот, извольте, ответ.
Фарфуркис прочитал:
— «У мене внутре… гм… не… неонка». Гм. Что это такое — неонка?
— Айн секунд! — воскликнул изобретатель, выхватил листок и вновь подбежал к машинке.
Дело пошло. Машина дала безграмотное объяснение, что такое неонка, затем она ответила Фарфуркису, что пишет «внутре» согласно правил грамматики, а затем…
Фарфуркис: Какой такой грамматики?
Машина: А нашей русской грмтк.
Хлебовводов: Известен ли вам Бабкин Эдуард Петрович?
Машина: Никак нет.
Лавр Федотович: Грррм… Какие будут предложения?
Машина: Признать мене за научный факт.
.....
Выбегалло отреагировал немедленно.
— Эта... — сказал он. — так ведь я и говорю, ценное же начинание. Элемент необъяснимого имеется, порыв снизу... почему я и рекомендовал. Эта... — сказал он. — объясни, мон шер, товарищам, что тут у тебя к чему.
Старичок словно взорвался.
— Высочайшее достижение нейтронной мегалоплазмы! — провозгласил он. — ротор поля наподобие дивергенции градуирует себя вдоль спина и там, внутре, обращает материю вопроса в спиритуальные электрические вихри, из коих и возникает синекдоха отвечания...
Аноним 29/01/17 Вск 13:39:43  921405
>>921369

вот хорошая статья

https://habrahabr.ru/post/144881/
Аноним 29/01/17 Вск 13:42:27  921406
>>921405
Это очень плохая статья. Автор сам не понимает, что делает.
Аноним 29/01/17 Вск 13:49:27  921410
>>921405
мне вот кажется что проблема всех статей про нейросети, это то что везде пытаются строить именно сети из нейронов, мне кажется что проще для понимания это на языке линейной алгебры рассказать что такое нейросеть, и не упоминать вообще про нейроны, дендриты, аксоны, рецепторные поля и т.д.

что может быть проще нежели фраза гиперболический тангенс от линейной комбинации входного вектора и вектора весов =)
Аноним 29/01/17 Вск 13:52:13  921413
>>921405
О, это не проблема. Это гениальный маркетинговый ход. Нейросети и генетические алгоритмы отличаются как раз аксонами и хромосоми, а не тем, что это очень уж хорошие методы оптимизации. Не знаю на счет финансирования, а в универах это популярно из-за терминологии, это не скучные методы типа нелинейного МНК с кучей частных производных.
В искусственных нейросетях тоже много математики конечно, но всем пофиг, у всех нейроны — это классы с циклами внутри, и вместо того, чтобы разобраться с линалом и BLAS получается вот так вот — чередная статья на хабре с ООПшным нейроном
Аноним 29/01/17 Вск 13:52:49  921416
>>921405
Согласен! На мой взгляд проблема даже не столько в «романтичности» нейронных сетей, а в разнице преподавания. Нейронные сети это всегда практические примеры — «а давайте сделаем распознаватель рукописных цифр» или «сделаем управление машиной». А вышку нам всегда преподавали сухо и абстрактно… было не понятно ни зачем матрицы нужны, ни чем поможет взятие архисложного интеграла.

И это печально. Без знания математики нейронные сети, остаются черными «магическими» ящиками, с которыми можно только колдовать…

Радует появление качественных онлайн курсов от ведущих специалистов в этой области.
Аноним 29/01/17 Вск 14:00:24  921424
>>921394
Общая теория известна, но она ничего не даёт потому-что слишком общая. А слишком подробная теория бы закрепила слишком много, и кому тогда вообще бы было интересно читать рассказы построенные слишком одинаково?

Короче я офигеваю с вашей тупости тут, идите работайте, мечтатели. Денег заработайте, рекомендательные системы поимпрувте, сидите тут стулья пропёрживаете на мамкины борщи.
Аноним 29/01/17 Вск 14:02:02  921426
>>921424
>Сказал какую-то общую хуету
>Назвал остальных тупыми
>А по делу ничего
Аноним 29/01/17 Вск 14:04:37  921429
>>921424
>повёлся на россказни ведущих пабликов страны про ИИ, пишущий книги и музыку
>я офигеваю с вашей тупости тут
Забавно.
Аноним 29/01/17 Вск 14:05:07  921431
>>921426
Ну если ты настолько тупой что не понял - твои проблемы.
>>921429
Кто повёлся?
Аноним 29/01/17 Вск 14:08:11  921434
Чот я не понял. Крутые нейроночки находят скрытые закономерности? Они могут вловить закономерность даже между не связанными вещами?
Аноним 29/01/17 Вск 14:08:31  921435
>>921431
Если ты ничего умного сказать не можешь, значит тупой тут только ты. Лучше бы ты молчал, тут серьезные дяди разговаривают.
Аноним 29/01/17 Вск 14:13:19  921438
>>921434
Грубо говоря, везде есть связь, только где-то она будет нулевая.
Аноним 29/01/17 Вск 14:20:28  921443
>>921434
>закономерность даже между не связанными вещами
>ошибка второго рода
Ещё как могут! Этим вообще вся статистика с самого создания грешит.
Аноним 29/01/17 Вск 14:57:23  921474
https://www.youtube.com/watch?v=HvFvBhF_Z3g
Аноним 29/01/17 Вск 15:03:01  921478
Есть опенсорсные проекты по распознаванию настроения текста, часто употребляемые слова, вот это вот все? Это вроде text mining зовется?
Аноним 29/01/17 Вск 15:32:19  921500
Так почему не создан ИИ?
Аноним 29/01/17 Вск 15:34:44  921503
https://2ch.hk/pr/res/921502.html
https://2ch.hk/pr/res/921502.html
https://2ch.hk/pr/res/921502.html
https://2ch.hk/pr/res/921502.html
https://2ch.hk/pr/res/921502.html
https://2ch.hk/pr/res/921502.html
https://2ch.hk/pr/res/921502.html
https://2ch.hk/pr/res/921502.html

[Назад][Обновить тред][Вверх][Каталог] [Реквест разбана] [Подписаться на тред] [ ] 486 | 39 | 141
Назад Вверх Каталог Обновить

Топ тредов
Избранное