Программирование


Ответить в тред Ответить в тред

<<
Назад | Вниз | Каталог | Обновить тред | Автообновление
500 55 113

НЕЙРОНОЧКИ И МАШОБ ТРЕД №25 /ai/ Аноним 27/05/20 Срд 07:17:33 17040371
1.jpg (215Кб, 1386x881)
1386x881
2.jpeg (21Кб, 302x181)
302x181
25.png (3Кб, 83x47)
83x47
Очередной тред про хипстерские технологии, которые не работают.

Я ничего не понимаю, что делать?
Вкатывальщики импортят slesarplow as sp по туториалам (хотя сейчас актуальнее keras и pytorch)
Толковые качают из репозитория awesome-XXXX на гитхабе проект какого-то китайца, меняют фамилию и получают $10M инвестиций как стартап.
Умные смотрят prerequisites на https://see.stanford.edu/Course/CS229 и http://cs231n.stanford.edu/

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus.

Почему python?
Исторически сложилось

Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала

В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. На март 2020 Google Colab дает бесплатно аналог GPU среднего ценового уровня (что-то между 1050 и 1080) на несколько часов с возможностью продления.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Предыдущий:
https://2ch.hk/pr/res/1665515.html
Аноним 27/05/20 Срд 08:34:25 17040512
1415484197202.jpg (30Кб, 500x331)
500x331
>>1704037 (OP)
Репостну.
...расскажите, какие есть альтернативы указанным в шапке сайтам для тренировки?
Что касается Каггла: ныне он что-то ударился в большие датасеты, да обработку изображений, что требует бόльших вычислительных мощностей, что не всегда возможно.
Если говорить, про http://mltrainings.ru/ , то, во-первых, он редиректит на https://ods.ai/competitions - поменяйте в шапке, во-вторых, нативных соревнований там очень не много, а остальные - это ссылки на тот же Каггл, TianChi и прочие ресурсы.
В общем да, реквестирую ресурс где можно попрактиковаться в машобе бесплатно без смс и лишнего геморроя.
Аноним 27/05/20 Срд 10:04:20 17040883
Screenshot137.jpg (32Кб, 658x437)
658x437
Аноним 27/05/20 Срд 10:06:56 17040894
1314898613887.jpg (28Кб, 295x400)
295x400
Аноним 27/05/20 Срд 10:09:10 17040905
>>1704089
ну ты же хотел маленький датасет
Аноним 27/05/20 Срд 10:11:18 17040936
1333886034896.jpg (49Кб, 431x500)
431x500
Аноним 27/05/20 Срд 16:50:46 17044387
сойбои!.png (120Кб, 968x832)
968x832
сойбои.jpg (50Кб, 960x492)
960x492
сойбой2.png (9Кб, 600x800)
600x800
В прошлом треде вскрыли интересную тему - современные соевые технологии машобчика ВНЕЗАПНО не обязательно и не всегда лучшее решение всего, дидовские технологии из 60х в некоторых случаях легко дают пососать новомодным диблернинхам. Я даже уже писал, почему такое может быть, при дедах машобом занимались академики, а не лгбт куколды. Но, про дидов давно забыли. Наткнулся на интересную статью
Evolutionary algorithm outperforms deep-learning machines at video games https://www.technologyreview.com/2018/07/18/104191/evolutionary-algorithm-outperforms-deep-learning-machines-at-video-games/
Вы вдумайтесь, генетические алгоритмы из 60-х. Зумера про такое и не слышали.
Аноним 27/05/20 Срд 17:12:59 17044718
> Зумера про такое и не слышали.
Скорее шизы не в курсе что генетические алгоритмы и ренфорсмент лёрнинг всегда рука об руку шли.
Если просмотреть оригинальную статью
https://arxiv.org/pdf/1806.05695.pdf
а не желтуху которую шизы читают то видно что эти генетические алгоритмы (то что они называют CGP) это просто какое-то очередное велосипедное переложение бандитов
Проблемы генетических алгоритмов в вычислительной сложности, что для атариевских игр может и не так важно, а вообще это одна из мотиваций для развития rl. Пусть старкрафт так же решат, короче, и поговорим потом
Аноним 27/05/20 Срд 17:21:06 17044749
>>1704438

Проебавший аспирантуру недокандидат вкатывается в тредис.

Ну дык генетические алгоритмы имеют под собой весьма солидный матан, который анализирует как какие алго осуществляют поиск оптимальных решений в пространстве. Как алгоритмы могут / не могут залипнуть в локальным оптимуме решений и проебать глобальный итп.

А что такое современные нейросеточки - это какой-то блядский шаманизм и подбор коэффициентов притом, что никто не знает что там внутри и как происходит. Соответственно у вас нет никакой гарантии, что вы не залипните в хуевом оптимуме. Вы даже и знать не будете что вы в жопе.
Аноним 27/05/20 Срд 17:28:19 170447810
152676068695290.mp4 (205Кб, 480x360, 00:00:04)
480x360
Через Гильбертово пространство можно линейно выразить любую нелинейную функцию?
Аноним 27/05/20 Срд 22:06:13 170480311
>>1704474
>никто не знает что там внутри и как происходит.

У тебя устаревшие знания. Сейчас уже более-менее умеют доказывать, что градиентный спуск с шумом сходится к глобальному оптимуму при достаточно мягких ограничениях (правда, может это делать медленно). В нейроночках используют стохастичческий градиентный спуск без доплнительного шума, но этого хватает, так как шум получается обычно из стохастичности.
Аноним 27/05/20 Срд 22:10:36 170481212
>>1704478
Но базисные функции нелинейные же. А теперь докажи, что не существует базиса кусочнолинейных непрерывных функций, с помощью которых можно представить любую непрерывную функцию
Аноним 27/05/20 Срд 22:27:00 170483613
>>1704812
> А теперь докажи, что не существует базиса кусочнолинейных непрерывных функций, с помощью которых можно представить любую непрерывную функцию

В какой норме? Если ты говоришь о непрерывных функциях, то они вообще гильбертово пространство не образуют (если базовое пространство бесконечно, лол). А в стандартной супремум-норме кусочно-линейные функции плотны среди непрерывных.
Аноним 27/05/20 Срд 22:27:42 170484114
>>1704836
>кусочно-линейные функции плотны среди непрерывных

на отрезка
Аноним 27/05/20 Срд 23:39:56 170492615
>>1704438
>Вы вдумайтесь, генетические алгоритмы из 60-х.
С таким же успехом можно написать "арабские цифры из средневековья, арабы умели в машоб". Манямирок петуха как есть.
Аноним 27/05/20 Срд 23:51:33 170493316
>>1704836
>супремум-норме
>гильбертово пространство
Вы там реально на серьезных щах такой маняфантазией занимаетесь? Ржал бы в голосину
Аноним 27/05/20 Срд 23:58:05 170493717
>>1704474
>Ну дык генетические алгоритмы имеют под собой весьма солидный матан
Сколько научных статей по матану в ГА ты прочитал?
>А что такое современные нейросеточки - это какой-то блядский шаманизм и подбор коэффициентов
Сколько статей по нейросетям ты читаешь в месяц?
Аноним 28/05/20 Чтв 00:02:54 170494018
>>1704937
>статей
Это ты тот анон, который дрочит на бесполезные статьи и паперы? Я тебя узнал.
Аноним 28/05/20 Чтв 00:24:43 170495619
>>1704940
Мне интересно, на чем основаны такие охуительные утверждения. Если это не статьи, а собственный опыт, то какой он, мол, была задача, нейронки не справились (такие-то модели), заюзал то-то и то-то.
Вообще вру, мне неинтересно, потому что понятно, что это очередная пиздлявая манька.
Аноним 28/05/20 Чтв 01:09:17 170498820
>>1704956
>Если это не статьи
Когда очередному вговнемоченому нужно налабать 10 статей, что бы не урезали бюджет/грант, очевидно что ценность их нулевая.
Аноним 28/05/20 Чтв 02:40:30 170501821
>>1704988
Попробуй почитать учебник логики как-нибудь
Аноним 28/05/20 Чтв 04:56:26 170505022
>>1704926
> Манямирок петуха как есть.
То что ты написал перед этим - безусловно.
Аноним 28/05/20 Чтв 11:44:24 170531423
>>1705018
>почитать учебник логики
А учебник теологии или практики каканья?
Аноним 28/05/20 Чтв 19:34:01 170603424
Как же забавно читать всех этих озлобленных завистливых программистишек.
Вы хоть понимаете что скоро теоретические основы под то что вы называете "практика эмпирика тупые вговнемочёные теоретики ничево не панимают нинужные статейки ))" будут подведены настолько что все ваши охуительные знания о том какой макакинг перед фитпредиктом сделать просто обесценятся?
Аноним 28/05/20 Чтв 20:52:58 170610725
>>1706034
>эмпирика обесценится перед расчётом.
Далеко не факт. Скорее факт того, что мы можем точно посчитать какую нибудь херню, которую раньше приходилось подбирать просто толкнет эмпириков в зоны, которые без такой базы были недоступны и они продолжат там ковырять новую ебу без готовой теории. В физике по крайней мере я вижу такую тенденцию.
Аноним 28/05/20 Чтв 22:56:28 170619626
Аноним 29/05/20 Птн 14:47:26 170681527
Аноним 29/05/20 Птн 15:48:04 170690728
Аноним 29/05/20 Птн 19:48:17 170720929
>>1704836
>Если ты говоришь о непрерывных функциях, то они вообще гильбертово пространство не образуют

>Векторное пространство можно наделить дополнительными структурами, например, нормой или скалярным произведением. Подобные пространства естественным образом появляются в математическом анализе, преимущественно в виде бесконечномерных функциональных пространств (англ.), где в качестве векторов выступают функции.
Аноним 29/05/20 Птн 20:15:48 170724630
Есть ли какие-нибудь статьи, где идет детальное сравнение обучения с fp32 и fp16? Типа на каких задачах это важно, а на каких нет?
Аноним 29/05/20 Птн 20:53:50 170731631
>>1707246
детально- не видел, но pix2pixHD- якобы прирост 80-90%
Аноним 29/05/20 Птн 20:58:23 170732732
>>1707316
Я не про ускорение вычислений, а про точность. Меня интересует, будет ли польза, допустим, от fp8 или fp4 в nlp или работе с изображениями. И если будет, то почему это еще не реализовали.
Аноним 29/05/20 Птн 21:45:11 170741633
>>1707327
Хуёльза только будет
Аноним 29/05/20 Птн 22:22:24 170746734
>>1707327
Просто перепиши это на js
Аноним 29/05/20 Птн 23:30:55 170753835
Насколько хорошо надо шарить в матане, чтобы строить модели из статей?
Аноним 29/05/20 Птн 23:32:17 170753936
Аноним 29/05/20 Птн 23:40:56 170755137
Аноним 29/05/20 Птн 23:48:58 170756038
>>1707551
Блядь, ну ты сам подумай. Если это нечто прорывное, то над этим работали люди уровня PhD. Или ты думаешь, что имея в арсенале стандартные модули кераса или торча ты сможешь захуярить нечто, превосходящее существующие модели? Нужно знать каждый шаг до мельчайших нюансов.
Пусть в статье написана некая новая формула. От тебя требуется понимание того, что она делает и способность это реализовать в ходе. Первое составляет 99% успеха. Вот и оцени, насколько хорошо нужно шарить.
Аноним 29/05/20 Птн 23:59:20 170756739
>>1707560
Прорывное аххахха да
Аноним 30/05/20 Суб 06:40:08 170769940
>>1707538
Матана мало, матан это просто базовая грамотность любого технаря, чисто чтобы понимать смысл формул. Нужно еще понять специфику. Несмотря на то, что по идее статья должна содержать все для воспроизведения, дохуя чего опускается. Даже код содержит не все.
Ща пошла ебанутая мода, мол, раз во фронтэнд можно за полгода вкатиться, значит высшее образование отменяется, хуяк-хуяк и ты специалист. На деле конечно нихуя не так. Даже шаря в матане на уровне техвуза, более-менее что-то из себя представлять ты будешь только через пару лет.
Аноним 30/05/20 Суб 08:05:01 170770841
>>1707699
Лечи башку нахуй
>жс за 1.5 года, во отменяется
>даже шаря в матане будешь что-то представлять через пару лет
Что сказать то хотел?

Жс-формошлепу матан, как собаке пятая нога, он ему не через месяц, не через два года после вката не понадобится.

До седых мудей он будет натягивать один фреймворк на другой, склеивая это динамически типизированной хуйней.

Для этих обезьян максимум это лычка ПТУ,
И потолок зарплаты должен быть - работа за еду.

Аноним 30/05/20 Суб 08:21:33 170771542
>>1707708
Во дела. Стоило только упомянуть слово "фронтэнд" в посте, как в тред протекло это.
30/05/20 Суб 13:38:50 170789743
>>1707715
Что сказать то хотел?
Аноним 30/05/20 Суб 13:53:23 170791344
>>1707897
петух ты гнилостный короч
Аноним 30/05/20 Суб 14:20:06 170792745
Почитал статьи про градиентный спуск. Там в примерах берут производную от функции ошибки типа х^2. А как берут производную от реальной ф-ии, которая похожа на рельеф местности, а не на кривую из учебников по математике?
Аноним 30/05/20 Суб 14:28:20 170793246
Аноним 30/05/20 Суб 15:41:20 170803247
Поясните на пальцах как предсказывать сезонный спрос?
у меня есть реальные многолетние данные потребления телефонных услуг по дням или неделям. Потребление сезонное и пропорционально спросу.
Есть какая-то готовая модель, которая находит многолетние коэффициенты и далее предсказывает значение с учетом скользящего среднего?

Я просто построил линейную регрессию по статье и охуел как это просто.

Можно так же просто разобраться с предсказанием спроса?
Аноним 30/05/20 Суб 15:45:56 170803648
Такой нищеёбский вопрос: надо купить ноут, недорого, до 50к, можно ли при таких данных ещё и соптимизировать его конфигурацию для занятий (естественно не сильно тяжёлым) машобом?
Аноним 30/05/20 Суб 15:51:56 170804249
158964422318529[...].jpg (55Кб, 700x466)
700x466
>>1708032
>предсказывать сезонный спрос
Никогда не задумывался почему матанопетушня и нейродебилы такие нищие?
Аноним 30/05/20 Суб 16:09:55 170806850
>>1708032
Что за телефонные услуги? Какая цена ошибки за проеб в предсказаниях?
Аноним 30/05/20 Суб 16:13:29 170807151
>>1708036
Бери любой, ничего хорошего именно для машоба ты не купишь
Аноним 30/05/20 Суб 16:20:44 170809152
>>1708068
меня просто просят предсказывать сколько денег резервировать под услуги телефонии каждый месяц или пару недель. Ошибки почти никакой не будет, но начальство считает "метод ларька" тупым.
Аноним 30/05/20 Суб 16:22:06 170809253
>>1708071
Что делать, если я нищий студент и хочу в него вкатиться? Математику-то я и на некроноуте могу учить, а вот остальное...
Аноним 30/05/20 Суб 16:54:44 170813454
>>1708092
Я написал, что делать, лол, бери любой. Вкатиться в машоб можно и на железе десятилетней давности. Для нищих студентов google придумал colab. Поэтому бери любой ноут, при желании погонять простые нейронки - с дискретной видюхой nvidia, amd не бери. Главное это качество сборки, клавиатуры, экрана, время работы. В 50к это будет однозначно так себе железо. Зато оно тебе прослужит до тех пор, пока ты работу не найдешь.
А так, по-хорошему, у тебя должен быть сервер, жужжащий в углу, и либо dynamic dns, либо еще какая йоба для доступа через инет. Потому что ноуты это не апгрейдабельная хуита и точно не для нищих. Но это не для студентов, для студентов есть colab.
Аноним 30/05/20 Суб 23:02:10 170867755
Screenshot140.jpg (20Кб, 1027x340)
1027x340
>>1708032
Всем спасибо. Получил ответ на Твиче от милой тяночки
Аноним 30/05/20 Суб 23:10:08 170868256
>>1708677
Если ты про ARIMA-методы не знал, то нахуй ты вообще нужен? Кидай линк на тяночку, а после проваливай из треда. С такими овощами желания общаться нет.
Аноним 30/05/20 Суб 23:14:28 170868757
Аноним 30/05/20 Суб 23:36:10 170870658
>>1708682
а хули ты сразу не ответил, если знал?
че такой токсичный?
Аноним 30/05/20 Суб 23:37:03 170870759
>>1708092
>Что делать, если я нищий студент и хочу в него вкатиться?
Раз ты не можешь заработать 150-200к на компьютер для машоба, значит ты недостаточно хорошо умеешь программировать, и у тебя все равно не получится вкатиться. Так что для начала учись писать код.
Аноним 30/05/20 Суб 23:57:05 170872460
1590872223424.png (53Кб, 659x611)
659x611
>>1708706
> хули ты сразу не ответил
Вот поэтому.
На русском. Четвертая ссылка.
Далеко ходить не надо.
Раз ты не можешь даже такое нагуглить, то у меня просто слов нет.
Аноним 31/05/20 Вск 00:55:05 170878661
Аноним 31/05/20 Вск 01:55:57 170880262
Аноним 31/05/20 Вск 02:56:46 170881463
>>1708786
На хуй со своей шваброй иди.
Аноним 31/05/20 Вск 04:34:59 170882064
>>1708802
Извини, бро, я не дам просто так плод своего годового труда. Он слишком дорого мне обходится. Это такой опус магнум обезьяннего труда, у которого нету конца и я бы продавал его за много денег.
Аноним 31/05/20 Вск 06:35:14 170885065
>>1708706
Потому что лично я не сталкивался, а погуглить ты сам можешь.
Главное в твоей задаче это не само предсказание, а доверительный интервал, который определяется исходя из стоимости ошибки. Не ебу может ли эта арима в это.
Аноним 31/05/20 Вск 11:07:42 170888966
>>1708820
Годового труда в каком смысле? Ты когда собирал картинки или ты год настраивал параметры обучения? Куда ушел этот год?
Сколько вычислительных часов ушло?
Аноним 31/05/20 Вск 14:14:10 170899067
epoch110inputla[...].jpg (21Кб, 512x512)
512x512
epoch110realima[...].jpg (18Кб, 512x512)
512x512
epoch110synthes[...].jpg (18Кб, 512x512)
512x512
>>1708889
собирать по закоулкам интернетов- по часу минимум каждый день в среднем по два, последние дни- больше + время на тотальную сортировку по частям тела в кадре, по углу поворота тела, и это еще без чета размера грудей там, цвета кожи, а по хорошем следовало бы делать и так. Параметры- с нуля учился всему, тоже, методом тыка. До сих пор модель считаю недопиленной, потому что она "нормально" делает только прямой ракурс и еще кучу параметров следует подбирать. Сейчас проверяю, лучше ли работает на 5 слоев и 3 слоя skip connection чем на 4 слоя генератора и 14 skip. Последние 30 дней две карточки работаю без остановки. До этого работала одна, когда делал первые эксперименты. Сейчас обе карты делают каждая свою модель- одна бедер, другая грудей 512 на 512. Потом буду пилить еще один вариант модели единый для всего тела в 512. Это совсем не стремно тут писать, потому что это по сравнению с поиском изображений- менее 1% времени, да и тут мне давали советы. Я в вычислительных часах не меряю, не так много жрет это в электричестве для хобби. А вот время на поиск и сортировку- очень много.
Аноним 31/05/20 Вск 14:32:52 170900368
7ee18069dabb76a[...].jpg (91Кб, 522x735)
522x735
[Leopard-Raws] [...].png (1206Кб, 1280x720)
1280x720
>>1708990
Она у тебя только сиськи умеет? А задницы? Вон на твоем примере живот тоже огалила.
Зачем сортировку делал?
Для угла поворота: почему не берёшь свой же датасет и просто не поворачиваешь его на все 360 градусов с шагом по 10 градусов?
Какие видухи стоят? Сколько там памяти?
Сетка же обрабатывает не квадратные изображения? Что будет, если подать ей скриншот из аниме? Например те два кадра, которые я дал?
Ты пытался ей скармливать последовательные кадры? Взять вырезку на 5 секунд из аниме, сделать из неё примерно 150 кадров, отдать сети и собрать все кадры обратно?
Аноним 31/05/20 Вск 14:35:18 170900869
>>1708990
>Это совсем не стремно тут писать
Ты реально думаешь, что у тебя УКРАДУТ ИДЕЮ, лол?
Самое умное, что бы ты мог сделать, это хайпануть и найти работу
Аноним 31/05/20 Вск 14:37:08 170900970
>>1709008
идея-то не его. Всякие нуд-фильтро-программы для 3д тянок уже в сети год как
Аноним 31/05/20 Вск 14:41:57 170901271
>>1709009
Ну мы про детали имплементации очевидно
Аноним 31/05/20 Вск 14:46:33 170901672
epoch108inputla[...].jpg (33Кб, 512x512)
512x512
epoch108synthes[...].jpg (24Кб, 512x512)
512x512
epoch109inputla[...].jpg (23Кб, 512x512)
512x512
epoch109synthes[...].jpg (12Кб, 512x512)
512x512
>>1709008
для тебя это может и идея. Я вижу в старой версии дипнуда очень кривую реализацию.
>>1709003
одна умеет сиськи другая письки. Умеет оче плохо по углам, вот тебе плохой пример после 120 поколений по 15к картинок каждое.
Сортировку не только по углу поворота изображения, а также по углу поворота тела в кадре. + угол с которого сделано изображение -сверху снизу посередине. В итоговой папке, где я храню отсортированные изображения- около 16 тысяч папок только со всеми рзветвлениями. Из 50к картинок для тренинга и там и там использую после ручной модерации, поворота повернутых к ровному углу и еще кое-чего- 15к.
Аноним 31/05/20 Вск 14:48:50 170902073
>>1709016
ты хоть свой датасет сохранил куда-нибудь, если HDD навернутся?
Аноним 31/05/20 Вск 14:52:06 170902474
Аноним 31/05/20 Вск 14:52:26 170902575
horse2zebra.gif (7506Кб, 448x128)
448x128
>>1709016
А зачем так много разветвлений. Когда твоей сети будут подавать рандомное изображение, она же не будет знать что ей подали. Вона как, с любого угла может.

Кстати, а ты кормил своей сети картинки без людей вообще? Я имею в виду фотки зданий, пустые пляжи и так далее. Одну и ту же картинку на вход и на выход, чтобы сеть видела, что иногда ничего не надо менять
Аноним 31/05/20 Вск 14:53:21 170902676
>>1709024
Сколько весит пак? 40 гб? 50? Заархивируй (можешь с паролем) и залей куда-нибудь в облачное хранилище. Например на гугл драйв. От греха подальше
Аноним 31/05/20 Вск 14:55:41 170903177
>>1709016
У тебя сеть умеет обрабатывать картинки без GPU? Первая монетизация, которая в голову приходит это сайт с подпиской доллара в $2-$5 в месяц. Сервер на Хецнере стоит 40-50 евро в месяц. 10-20 чуваков уже окупят. А внизу сайта "по предложениям обращаться сюда"
Аноним 31/05/20 Вск 14:59:10 170903478
>>1709016
>для тебя это может и идея. Я вижу в старой версии дипнуда очень кривую реализацию.
Для меня ценно то, что ты архитектуру назвал, на саму идею поебать. А так понятно, что 99% твоей интеллектуальной собственности это датасет.
Аноним 31/05/20 Вск 15:13:53 170905279
epoch117inputla[...].jpg (24Кб, 512x512)
512x512
epoch117synthes[...].jpg (17Кб, 512x512)
512x512
epoch119inputla[...].jpg (34Кб, 512x512)
512x512
epoch119synthes[...].jpg (12Кб, 512x512)
512x512
>>1709025
да, есть и такие купальники, которые как две нитки, и такие которые открывают грудь и закрывают живот, например. Я скорее наоборот фильтровал чтобы обучение шло, а не кручение пустого места. На входе ведь все же будет то, что надо раздеть, а не пустое в порожнее перелить. Скорее да, чем нет, вобщем.
>>1709026
Я про объем думал сразу. 80, причем сначала я приводил изображения к одному формату по глупости, уменьшая или увеличивая до 1400 пикселей по минимальной стороне. Надо было сохранять в оригинале. На гугл драйве только 15 гигов.
>>1709031
да ты прямо читаешь мои мысли. Все будет по другому- дешевле и быстрее. Не хотел чего-то анонсить, пока не начнет работать нормально.
>>1709034
Так, по архитектуре. Как видишь я до сих пор кручу сутки на пролет модель и ищу новые места, где можно быстро нахапать изображения, чтобы не оверфидить модель, да и вообще разнообразие не мешает. Так. архитектура- я еще не пришел к выводу, как это делать лучше, а если бы и пришел, может и не сказал бы. Пробую по разному слои, как видишь. У меня есть очень хорошая идея по поводу того, как это должно выглядеть в конце, но я вам эту идею не дам.
Чем убог дипнуд- там запускается два раза модель- первый раз она помечает зеленкой те места, где нужно что-то дорисовать, вторая сеть рисует поверх зеленки стандартыне сиськи. Делалось это давно, разрешение 512- мне кажется маленьким. А если в качестве входа используется одежда, то сеть, обученная распознавать ее, будет делать результат лучше, чем просто используя зеленку, смекаешь? Тень не теряется. Может быть получается, что я пытаюсь впихнуть невпихуемое в 8гб 1080 карточки, но я же по фану. Если ты читал ранее,то разрешение 256 на 256 в итоге получалось очень хорошо и быстро. Вот сижу и жду, что там будет в конце на 5 слоях с 512 на 512. Вот тебе еще примеры 512 на 512 на 4 слоя 14 скипов. Плохой и хороший.
>>1709034
я вообще питон не знаю, лол., там 0.00001 процента интеллектуального труда.
Аноним 31/05/20 Вск 15:23:24 170905980
>>1709025
и еще- подразумевается, что она все же будет знать, мы не будем фидить сети на сиськи жепы и наоборот. И еще -выучить что такое конь- сетка может. Но, потом к коню она присовокупит и Путина верхом. Я все же стараюсь создать не стольк универсальный инструмент, а такой, котоырй бы работал четко, даже с ручным вводом параметров типа с какого угла мы смотрим. Универсальное- это самое плохое для выполнения какого-то конкретного задания.
Аноним 31/05/20 Вск 15:24:10 170906081
>>1709052
Оплати один месяц гугл драйва и залей туда всё. После того как месяц кончится, у тебя будет выделено 80 гб из 15 гб, ты не сможешь заливать новое, но всё старое останется, это никто не будет удалять. Я так сделал с куском данных на 500 гб. Уже 8 лет там лежат

Ну и да, я вот по 750 рублей за 2 ТБ гдрайв плачу. Мало ли что: а тут всё сохранено
Аноним 31/05/20 Вск 15:25:08 170906282
>>1709059
> котоырй бы работал четко, даже с ручным вводом параметров типа с какого угла мы смотрим
Чувак, у тебя должна быть полная автоматизация
Аноним 31/05/20 Вск 15:36:21 170907683
>>1709062
во-первых не должна никому ничего.
во вторых- это можно реализовать очень просто, сделав каскад сетей, чтобы первая определяла позу персонажа, аки любимый ваш цифровой гулаг, и уже направляла к нужной сетке. Не зря же я сортирую все файлы в 16 к папок по углу поворота тела и по углу с которого мы смотрим, смекаешь? Но я пока что не хочу этим заниматься, всему свое время. Если бы существовал алгоритм для аниме-персонажей по определению поз, как определение скелета человека, то эту информацию тоже можно было бы использовать, но такого пока что нету, только 3д людишки.
>>1709060
хм, спасибо, как сделаю последнюю ревизию, отсортирую еще 3к картинок по папкам в течении недели- возможно залью, если не забуду.
Аноним 31/05/20 Вск 15:58:39 170910784
>>1709052
>Если ты читал ранее,то разрешение 256 на 256 в итоге получалось очень хорошо и быстро
Я бы больше и не делал, а остальное добивал уже с помощью отдельной super resolution сетки. Ну либо поверх уже натренированой 256х256 в духе progressive gan добавил бы новый слой. А начал бы с идеальной работы 128х128, для быстрых итераций. Потому что если она сосок не рисует на 128х128, то и на 512х512 он не появится, не из чего
Аноним 31/05/20 Вск 16:07:54 170911885
>>1709107
я знаю, что есть варианты, когда включают по одному слою, замораживая предыдущие.Так, а что если... если я буду включать по новому слою в pix2pixhd, не замораживая предыдущий и увеличивая размер изображения с 128 3 слоя -256 4 слоя-512 5 слоев (я не умею прогать и не хочу лезть каждый разв код, хотя можно было бы впринципе..., а в самом pix2pix такой функции заморозки нету же?!)... Надо попробовать.
По поводу надстройки супер резолюшен- в какой-то момент я думал, что можно результат работы одной сетки обрабатывать еще одной, натренированной превращать выход первой сетки в оригинал, так сказать разбить сетку на два слоя. Это немного не то, но похоже. А по поводу разрешения- я не хочу терять информацию, хочу нормально делать.
Аноним 31/05/20 Вск 16:31:08 170914886
>>1709118
>А по поводу разрешения- я не хочу терять информацию, хочу нормально делать.
В SR сетку можно на вход давать не 3 RGB канала, а 6, 3 с голым изображением и мутную, и 3 с оригиналом. Скорее всего она обучится комбинировать в единое четкое голое изображение.

Вообще моя мысль в том, что прямо работает shit in -> shit out. Если у тебя сетка 128х128 выдает плохой результат на своем разрешении, на более высоком разрешении этот результат будет просто красиво оформляться, дорисовывая детали поверх кривизны. Поэтому имеет смысл добиться идеального результата на низком разрешении и уже потом думать, как это отмасштабировать. Если у тебя 256х256 идеально работает, к этому нет вопросов.
Аноним 31/05/20 Вск 16:43:37 170917187
>>1709148
запускаю 128 на 128 3 слоя кароче, буду потом добавлять разрешение и слои, и будь что будет. Ниче не понял что ты там про sr пишешь, пиши как для дебича.
Аноним 31/05/20 Вск 17:25:39 170922088
вопрос оффтопный:
кто знает как устроен отбор на интервью в ШАД в последние годы?
раньше я так понимаю на третий этап набирали всех кто решает три или более задач в письменном экзамене.
но сейчас к нему добавили контест.
как учитывается результат контеста при приёме, насколько сильно?
Аноним 31/05/20 Вск 17:32:01 170922589
>>1709171
1. Меняешь число входных каналов с 3 до 6
2. Готовишь датасет:
на вход две картинки, одна 128х128 апсейленная в 4 раза, голая (мутная из нейронки 128х128)
вторая 512х512 одетый оригинал
на выходе голый оригинал

Далее средствами питона из 2-х RGB картинок делаешь одну RGBRGB картинку. Мне лень писать, как это сделать, сорян, но так можно.
Аноним 31/05/20 Вск 19:01:50 170931590
>>1709225
а не предлагаешь ли ты потом делать вручную дополнительно разметку тела под моделью? Ведь входные значения будут только 3 канала с одеждой, а где модели еще 3 канала с примерным изображение наготы брать? Вручную размечать не хочется.
Аноним 31/05/20 Вск 19:51:23 170937091
>>1709315
Нет, 3 канала это входная картинка, еще 3 канала это выхлоп твоей low res GAN 128x128
Как вариант можно попробовать
Аноним 31/05/20 Вск 20:05:36 170938792
>>1709370
а понял. 128 нейронка работает хорошо, ее ресайзим и присовокупляем ко входу, чтобы получить от нее хорошие признаки в хайрезе.
Аноним 31/05/20 Вск 21:22:06 170945193
>>1708134
Окей, а из ноута за 90-100к можно какую-нибудь пользу выжать для машоба или всё равно нет?
Аноним 31/05/20 Вск 21:27:56 170945694
>>1709451
Ты в палатке живешь и каждое утро в маке заряжать его думаешь?
Аноним 31/05/20 Вск 21:37:34 170946495
>>1709451
Покупай самый дешевый и тренируй на коллабе. Иначе залипнешь в игрулях.
Аноним 31/05/20 Вск 23:24:05 170953196
>>1709052
С GIGABYTE nVidia GeForce GTX 970 4 GB там искать нечего, да?
Аноним 01/06/20 Пнд 01:12:29 170958397
Что с макабой? Уже второй раз тред помечается как удаленный, а потом восстанавливается
Аноним 01/06/20 Пнд 05:40:57 170966698
>>1709531
256 на 256 пойдет, по крайней мере можно будет некоторые параметры уменьшить, но это будет долго учиться в любом случае
Аноним 01/06/20 Пнд 05:55:58 170967499
>>1709531
Я с такой начинал в 2015, лол. Теорию и фреймворки осваивать можно, но тренировать на такой ооочень сложно.
Аноним 01/06/20 Пнд 09:02:50 1709712100
>>1709451
Если у тебя есть 100к, ты можешь купить хороший бук с 8 часами автономной работы за 60к, а за 40к собрать ATX-корпус с 1080, подключить его к интернету и работать из любой точки мира на этом самом буке, впоследствии пару раз заменив видюху на более новое поколение. Если не выебываться, этой конфигурации хватит на много лет вперед, если разъем для видеокарт не поменяют. Можно даже не ставить на рабочую машину линукс, оставив его только на этом сервере.
А покупать ноут со впаянной "дорогой видюхой" это так себе решение, и по деньгам, и по производительности (80к за какой-нибудь сраный сетап с 1660), и по долговременности вложений, и по удобству. Запустил обучение и вместо того, чтобы лежать на кровати и дрочить, пока огромный кулер тихо охлажает эту байду, которая стоит где-то на балконе, твой ноут-утюг будет блядски греться и шуметь мелкими кулерами, недовольно реагируя на попытки запустить hd видео на ютубе. И в конце концов в его блоке питания что-то сгорит, а пластмасса погнется от жары, потому что они не рассчитаны на работу 24/7.
Аноним 01/06/20 Пнд 11:36:57 1709779101
>>1709666
Долго это сколько? Нужно 100+ поколений обсчета, так? Сколько уходит на одно поколение с, допустим, 5000 картинками на входе?
После какого поколения можно паузить сеть и посмотреть до чего она уже дошла?
Аноним 01/06/20 Пнд 11:59:31 1709787102
>>1709779
смотреть можно по ходу тренировки. Предположу, что датасет фасады твой корч будет обрабатывать несколько дней. Важно количество ядер CUDA.
Аноним 01/06/20 Пнд 12:17:31 1709809103
>>1709787
https://www.nvidia.com/ru-ru/nvem4/geforce-gtx-970/#pdpContent=2
1664 ядер CUDA
> обрабатывать несколько дней
На все 100 поколение или на одно поколение? Если на все 100, то это просто идеальная скорость. Эту штуку ведь можно паузить, а потом стартовать с того же места?
Аноним 01/06/20 Пнд 12:19:14 1709814104
>>1709809
да, можно продолжать. Ядер много, быстрее будет чем 1 день, но на 4 гб это только лоу рез, (зависит от сложности архитектуры сетки).
Аноним 01/06/20 Пнд 13:11:09 1709852105
>>1709809
>1664 ядер CUDA
>обрабатывать несколько дней
Ору с ваших тихнологий
Аноним 01/06/20 Пнд 13:25:11 1709866106
Аноним 01/06/20 Пнд 14:24:36 1709905107
Как правильно распараллеливать обучение неиронки? Допустим, я параллельно буду тренировать на нескольких пакетах данных, потом для каждого пакета найду среднее значение изменения весов, потом сложу средние значения пакетов, поделю на количество пакетов и плюсану к весам. Это правильный подход, или можно сделать лучше?
Аноним 01/06/20 Пнд 14:40:40 1709932108
>>1709905
Ты в 2020 решил свой dl-фреймворк придумать?
Аноним 01/06/20 Пнд 14:48:30 1709940109
>>1709932
Да, почему бы и нет.
Аноним 01/06/20 Пнд 14:58:49 1709966110
>>1709940
Тогда распараллеливание будет последней твоей проблемой
Аноним 01/06/20 Пнд 15:02:58 1709975111
Аноним 01/06/20 Пнд 15:23:41 1710012112
>>1709966
Распараллеливание универсальная задача. Простую неиронку достаточно просто написать, потом механизм передачи данных и изменения весов менять не обязательно.
Аноним 01/06/20 Пнд 15:43:43 1710037113
>>1709975
Потому что это вообще не проблема.
Пусть нейронка это y=f(x, w), где x и y - вход, w - веса
Обучаешь ты ее, минимизируя функцию l = l(y, f(x,w)), которая возращает скаляр.
Для этого ты находишь градиент dl/dw.
Далее ты предлагаешь вместо этого находить
l1 = l(y1, f(x1,w))
l2 = l(y2, f(x2,w))
l3 = l(y2, f(x3,w))
Далее найти dl1/dw, dl2/dw, dl3/dw, после этого посчитать (dl1/dw + dl2/dw + dl3/dw)/3, а затем я запутался, что ты хочешь, находя средние значения пакетов, это тебе не нужно уже. Ты просто делаешь w = w - alpha (dl1/dw + dl2/dw + dl3/dw)/3 и все.
Так делать можно, но на самом деле это то же самое, что найти градиент у
l_parallel = l(y1, f(x1,w))/3+l(y3, f(x3,w))/3+l(y3, f(x3,w))/3
И это более правильный путь, ты просто записываешь нужную тебе целевую функцию, и у нее уже находишь градиент, а не ебешь себе мозги с тем, что ты написал в посте. Фреймворк тебе найдет этот градиент автоматически.
Но и это в целом неправильно, потому что у тебя сама нейронка должна уметь пропускать через себя сразу все примеры и выдавать ответ, то есть
l = l([y1; y2; y3], f([x1; x2; x3], w))
И так делает любой фреймворк. Потому что параллелить удобнее послойно, а не целыми сетями. А написать параллельное перемножение стопки матриц не сложнее, чем перемножение одной пары матриц.
Функция l при этом усредняет результат, чтобы на выходе у нее был скаляр.
Аноним 01/06/20 Пнд 15:53:34 1710046114
HSVcone.png (308Кб, 1280x1024)
1280x1024
Barnsgrandteton[...].jpg (360Кб, 800x2392)
800x2392
TrianguloHSV.png (16Кб, 347x347)
347x347
Почему для ML-работы над изображением используется RGB пространство? HSV же намного интуитивнее
Аноним 01/06/20 Пнд 16:10:08 1710067115
>>1710037
>Для этого ты находишь градиент dl/dw.
Скаляр делишь на веса? Откуда значения весов берутся?
Аноним 01/06/20 Пнд 16:15:21 1710078116
>>1710067
>Скаляр делишь на веса
Вот я и говорю, что будет последней проблемой. Это производная, а если ты этого не понял, значит матана у тебя не было.
Вот платиновая ссылка https://cs231n.github.io/optimization-2/ , изучай
Аноним 01/06/20 Пнд 16:18:16 1710082117
>>1710046
YUV я использовал, потому что там можно эксплуатировать человеческую особенность, что к изменениям яркости человек чувствительнее, поэтому для U и V можно считать все в половинном разрешении, прямо как аналоговый телевизор.
HSV не представляю, нахуя. На наглядность компьютерам похуй. Нейронки же вообще первым же слоем твои 3 цвета распидорасят в 16-32-64 "цвета", и им похуй с чем работать, можешь попробовать HSV кормить, хуже вряд ли будет, как и лучше.
Аноним 01/06/20 Пнд 17:13:02 1710188118
>>1710037
Как такой метод обучения называется? В градиентном спуске используется обратное распространение ошибки, те мы ищем разницу между выходным значением и тем, которое требуется, и через веса распространяем ее на предыдущие слои, по крайней мере, я такой способ делаю. Для каждого слоя получаются свои коэффициенты, к тому же, если какие-то веса на каких-то слоях заморожены, мы не имеем права их менять.
Как я понял, ты предлагаешь искать общее значение производных функций ошибки каждого слоя в отдельности и потом на него менять веса всех слоев, но не понимаю, как это делать, тем более параллельно, когда выход l1 служит для входа l2 и тд.
Аноним 01/06/20 Пнд 17:26:49 1710213119
Аноним 01/06/20 Пнд 17:38:26 1710239120
Аноним 01/06/20 Пнд 18:11:24 1710277121
>>1710188
>Как такой метод обучения называется
Это и есть градиентный спуск в более удобных обозначениях, очищенных от веков поиска, говна, пота и крови дидов.
Нейронка - это ПРОСТО функция многих переменных.
Целевая функия (loss) - это тоже ПРОСТО функция многих переменных, но которая всегда возвращает скаляр.
Градиентный спуск - это w_new = w_old - alpha градиент_l_по_w
Обратное распространение ошибки - это ПРОСТО школьное правило (f(g(x))'=f'(g(x)) g'(x)

В случае персептрона у тебя f(x,w)=g(x,w)=w@x, где @ - произведение матрицы на вектор
Соответственно f'(x,w)=g'(x, w)=x'@

В случае персептрона, который может принимать твой "пакет" из стопки векторов (aka матрицы длиной с твой вектор и высотой с размер твоего пакета) [x1 x2 x3] у тебя будет просто
f([x1 x2 x3],w)=g([x1 x2 x3],w)=[w@x1 w@x2 w@x3]
f'(x,w)=g'(x, w)=тоже чему-то равно

То есть принял на вход стопку, выдал на выход стопку. С градиентом то же самое, принял сразу кучу входных данных, выдал сразу кучу входных данных.

Двуслойный персептрон это f'(g(x)) g'(x) - то есть видно, что порядок вычислений у тебя это
t1 = g'(x)
t2 = g(x)
t3 = f'(t2)
ответ = t1t3
Как видно, чтобы вычислить f, тебе нужно вычислить g. Поэтому это и называется обратным проходом - ты большую сложную функцию вида f(g(h(yoba(x)))) раскручиваешь с конца в начала.

>но не понимаю, как это делать, тем более параллельно, когда выход l1 служит для входа l2 и тд.
Обратным распространением и делать. Допустим у тебя лосс это L2, то есть
l(x,y)=mean((x-y)^2)
Где ты сначала вычитаешь выходной вектор из образца, возводишь разницу в квадрат, а потом находишь среднее. Здесь может быть любой другой лосс, сигмоид, softmax, что хочешь.
Тогда для "пакета" ты хочешь усреднять
l([x1 x2 x3],[y1 y2 y3])=(sum(x1-y1)^2 + sum(x2-y2)^2 + sum(x3-y3)^2)/3 - примерно то, что ты себе представлял
Какой градиент у этой байды? Можешь вывести сам, но я воспользуюсь http://www.matrixcalculus.org/ и получу, что
l'(x,y) по x = 2 mean(x1-y1) + 2 mean(x2-y2) + 2 mean(x2-y2)

Тогда итоговая формула это - l(нейронка(x, w), y). Проходим по нейронке, получаем результат, подставляем в l, получаем число.
В параллельном случае это l(нейронка([x1 x2 x3], w), [y1 y2 y3]) - нихуя особо не изменилось на самом деле, так как параллельность закодирована в каждом слое.

Применяя chain rule
l'(нейронка(x), y)=l'(нейронка(x),y)
нейронка'(x), где ты вычисляешь сначала
1. нейронка(x, w)
2. нейронка'(x, w) по w (здесь chain rule нужно применять рекурсивно)
3. l'(нейронка(x,w),y)*нейронка'(x,w)

Так как все это делать вручную ебань, люди представляют нейронки в виде вычислительного графа, по которому сначала идет прямой проход, и собираются все слой(x), а потом делается обратный проход и собираются все слой'(x) с помощью chain rule. А после этого, как мы вычислили градиент для каждого из весов, можно пройтись и отапдейтить все веса. Поэтому смысла все это хардкодить я не вижу. Более хорошим специалистом это тебя не сделает. Гораздо эффективнее с помощью ручки и бумажки освоить matrix calculus и понять, например, какая размерность у градиента функции многих переменных, чему равен градиент свертки, какая у него размерность, и так далее.
Аноним 01/06/20 Пнд 18:12:05 1710281122
>>1710277
и все равно проебался где-то со звездочками
Аноним 01/06/20 Пнд 18:35:50 1710315123
>>1710213
А нейронная сеть - пучок колец
Аноним 01/06/20 Пнд 19:26:59 1710355124
>>1710277
Вроде понял, спасибо за пояснение.
Аноним 02/06/20 Втр 02:30:58 1710622125
А в cv принято все ml кейворды совать, или numpy/scipy/pandas/matplotlib в резюме это баян и маркер салаги?
Аноним 02/06/20 Втр 02:40:07 1710623126
15890988432190.png (294Кб, 1197x593)
1197x593
>>1710213
>>1710315
Хуйню не несите. Нейрон - функция от двух аргументов, вся сеть - суперпозиция таких функций. Совсем обпучкались зумера
Аноним 02/06/20 Втр 03:41:20 1710629127
>>1710623
Ты тупой, когда война начнётся мы тя портянки нам стирать подрядим
Аноним 02/06/20 Втр 09:25:47 1710710128
>>1710622
На сайте суй все, это же seo для хрюш банальное, при отправке конторе нужно любое резюме переделывать под вакансию
Аноним 02/06/20 Втр 09:47:42 1710716129
Аноним 03/06/20 Срд 14:44:02 1711890130
Поясните, есть ли жизнь в машобе вне питухона?
Хочу вкатиться, но писать на питухоне - себя не уважать, трудно придумать более мерзкий язык.
Знаю, что tensorflow изначально написан на плюсах, но на плюсах не особо удобно работать с данными на высоком уровне.
Можно ли заниматься машобом например на шарпе, участвовать в kaggle, или там всё под питухон заточено?
Аноним 03/06/20 Срд 15:25:27 1711959131
>>1711890
На шарпе есть ML.NET>>1708786

Ты можешь угареть и написать свои прокидки к Тензорфлоу из-под Шарпа. Там придётся в unsafe code опуститься правда. Мб это вообще уже кто-нибудь сделал
google://C#+tensorflow
google://C#+keras
Аноним 03/06/20 Срд 15:30:13 1711967132
Rprogramming[1].jpg (118Кб, 1176x664)
1176x664
Аноним 03/06/20 Срд 16:08:29 1712015133
Аноним 03/06/20 Срд 16:19:17 1712031134
image.png (151Кб, 638x389)
638x389
Аноним 03/06/20 Срд 18:36:36 1712132135
>>1708786
>>1711959
>>1712015
А я говорил, что пистон ваш - говно из жопы, и то что его вообще используют для машобчика есть следствие того, что пистон индусам в ПТУ преподают и поэтому кроме него они ничего толком и не знают.
03/06/20 Срд 19:09:44 1712162136
Ущербные итт не понимают, что тред называется "НЕЙРОНОЧКИ", а не "на чем импортить slesarplow".
Аноним 03/06/20 Срд 19:19:14 1712174137
>>1712162
Тред должен называться "нейроночки и шизики" так-то
Аноним 03/06/20 Срд 20:11:07 1712238138
>>1712162
> МАШОБ
> маш. обучение
> машионное обучение
Аноним 03/06/20 Срд 23:11:09 1712440139
Нейроночки стали такой же больной темой для шизы, как квантмех, теория относительности, холодный термояд, теорема Кантора, вечные двигатели и проч.
Аноним 03/06/20 Срд 23:26:55 1712447140
нейроночки стали отличной темой для знающих людей получить немного больше информации об окружающем нас мире.
Аноним 03/06/20 Срд 23:39:39 1712455141
>>1712447
>немного больше информации об окружающем нас мире
И что ты там получил, школьник?
>>1712440
Этот матанопетух порвался.
04/06/20 Чтв 09:32:23 1712647142
>>1712132
Удачи найти имплементацию какой-нибудь работы не на питоне. А на язык всем наплевать. Если кто-то задаст моду и начнет писать прорывные модели на Джулии или каком-нибудь Хаскеле, то все на них перейдут.
Аноним 04/06/20 Чтв 12:19:39 1712741143
>>1712647
>прорывные модели
Аааааааааааааааааа
04/06/20 Чтв 15:13:39 1712973144
Аноним 04/06/20 Чтв 15:31:09 1712994145
А какие кейсы для применения svm сейчас, кроме легаси?
Аноним 04/06/20 Чтв 18:30:37 1713197146
Аноним 04/06/20 Чтв 18:37:55 1713208147
>>1712132
В Amazon и Spotify используют Python для анализа пользовательских данных, информации о продажах и разработки персонализированных рекомендаций.

В Walt Disney применяют этот язык в качестве скриптового для анимации.

YouTube и Instagram… Эти проекты полностью написаны на Python. Кроме того, холдинг Alphabet использует «питон» для скрейпинга в Google — извлечения данных со страниц веб-ресурсов.

Netflix создала свой рекомендательный сервис с нуля на Python.

Autodesk в своём редакторе 3D-анимации Maya с помощью Python создаёт мультипликацию. Так же язык использует студия Pixar.

JPMorgan Chase, крупный американский финансовый холдинг, применяет Python для прогнозирования рынка.

NASA работает с проектами на этом языке программирования, чтобы проводить научные вычисления.

В этом списке собрана лишь незначительная часть компаний и сервисов, которые работают с Python. В их числе также Mail.ru, Яндекс, Yahoo, Facebook, Dropbox, Quora и многие другие.
Аноним 04/06/20 Чтв 19:11:14 1713235148
>>1713197
Я считаю это достижение111 Вся суть машоба.
Аноним 04/06/20 Чтв 20:58:35 1713338149
>>1713208
> YouTube
> полностью написан на питон
Ну очень толсто.
Аноним 04/06/20 Чтв 21:29:08 1713357150
>>1713235
Ну а что, нет, машоб уже рисует картины лучше тебя.
Не говоря о том что симулировать например речь шизиков вроде тебя он умел ещё давно.
Аноним 04/06/20 Чтв 21:55:26 1713388151
>>1713357
Я и говорю, очень полезными вещами занимается, прогресс на лицо.
Во 50х лабали медицинские диагностические системы, в 2020х рисуют картинки.
Аноним 04/06/20 Чтв 22:12:53 1713415152
>>1713388
все более чем логично- шизиков развелось, уже лечить негде, а картины- это вечное.
Аноним 04/06/20 Чтв 22:17:28 1713420153
>>1713388
>Во 50х лабали медицинские диагностические системы
Их и сейчас делают. Просто код и датасеты не попадают в свободный доступ, а статьи публикуются в медицинских журналах, которые смузихлебам не интересны.
Аноним 04/06/20 Чтв 22:24:57 1713430154
>>1713420
>а статьи публикуются в медицинских журналах
Там статьи уровня грантосоства, поскольку трясунам черных ящиков никто диагностику никогда не доверит.
Аноним 04/06/20 Чтв 23:19:57 1713487155
>>1712440
> теорема Кантора
А с ней что не так?
Аноним 04/06/20 Чтв 23:53:28 1713525156
>>1713487
Шизики очень любят основания математики.
Вообще сценарий один, взять какой-нибудь научный спор столетней давности, по которому ни у одного мимокрокодила не может быть мнения, и давай его форсить, мол, наука свернула не туда из-за жидов.
Дальше возникает простой манямирок -
1. Мимокроки говорят - о, пиздит о чем-то, разбирается видимо, и идут мимо
2. Новичков, дающих ответы в духе школьной программы, шизик разбивает бомбардировкой аргументов из того спора столетней давности, которые поднять и выучить в принципе несложно. В итоге новичок идет мимо, будучи пораженным, какого глубокого и эрудированного человека он встретил
3. Специалисты тупо шизика игнорируют
В таком манямирке комфортно, потому что спорить особо не скем.
Кефирщики - это опыт Майкельсона, конец 19 века. Что там с Кантором множествами не знаю, но шизики очень неравнодушны, золотце тот же, лет 10 назад заебывал все борды с "покажи мне бесконечность", вечные двигатели это хуйня еще старше.
Конкретно вот эта шиза про черные ящики - это отрыжка https://www.liquisearch.com/connectionism/connectionism_vs_computationalism_debate
Аноним 05/06/20 Птн 17:13:35 1714132157
>>1713525
> Что там с Кантором множествами не знаю, но
Но пукнуть своим школьным мнением считаешь обязательным, да?
> Шизики очень любят основания математики.
Шизики очень любят искать кругом шизиков.
Аноним 05/06/20 Птн 17:57:03 1714203158
>>1714132
Вот это манямир, лол. Конечно если кто-то пишет что-то неприятное тебе - это школьник. Таблетки прими.
Аноним 05/06/20 Птн 19:16:28 1714292159
>>1714203
Если ты не школьник, тогда все ещё хуже. Для 12летнего твой предыдущий пост ещё сойдёт, но если тебе больше, это пиздец какой-то. Стыдно должно быть нести такую херню
Аноним 06/06/20 Суб 15:57:39 1714985160
>>1712455
всё с тобой ясно, судя по манере общения - наивные провокации и просьбы, просьбы без уважения..
Аноним 06/06/20 Суб 18:48:53 1715059161
Что круче: гитхаб или каггл?
Аноним 06/06/20 Суб 20:59:30 1715174162
Аноним 06/06/20 Суб 23:41:20 1715320163
>>1715174
Да я ж тебя с говном сожру
Аноним 07/06/20 Вск 01:32:57 1715365164
>>1715320
Да ты и просто говно сожрёшь.
Аноним 07/06/20 Вск 14:09:20 1715597165
>>1715320
Хороший был сайт, жаль, что закрыли.
Аноним 07/06/20 Вск 15:02:03 1715683166
Запускаю свою модель на колабе, но при каждом новом запуске приходится вводить ключ, чтобы оно подключило гугл диск. Какие есть варианты загрузки модели без этих свистоплясок?
Аноним 07/06/20 Вск 15:02:52 1715685167
>>1715597
Лол, только сейчас увидел, что это говно закрыли. А за что? Дохода не приносил?
Аноним 07/06/20 Вск 15:28:22 1715725168
Я правильно понимаю, то в densenet каждый слой получает карты признаков со всех предыдущих слоёв, а в resnet - только с непосредственно предыдущего?
Аноним 07/06/20 Вск 21:33:58 1716075169
>>1704037 (OP)
Аноны, есть какие-то материалы по машинному обучению(сетки и всё связанное с ИИ тоже) в информационной безопасности? Я нахожу какие-то статьи или какие-то теоритические обоснования, но я не могу что-то практическое, а ещё лучше что-то что разобрано подробно. Возможно анон знает какие-нибудь курсы или видео, книги, связанные с МБ в ИБ. Был бы очень благодарен за инфу
Аноним 08/06/20 Пнд 02:19:02 1716356170
>>1716075
Читай классику Edward Zhopenschmulzer
Аноним 08/06/20 Пнд 12:57:50 1716679171
stat-100[1].png (18Кб, 526x349)
526x349
15878071096180.jpg (68Кб, 720x471)
720x471
Распределение вероятностей это плотность вероятности или функция распределения?
Аноним 08/06/20 Пнд 13:17:12 1716689172
>>1716679
Плотность вероятности, синяя линия
Аноним 08/06/20 Пнд 14:35:36 1716739173
Пацаны, колаб перестал давать халявные 25 гигов оперативы если крашнуть сессию с дефолтными 12 гигами.

Есть ли какая-нибудь альтернатива? Нужен юпитер интерфейс и не менее 20 гигов рамы.
Аноним 08/06/20 Пнд 15:17:30 1716769174
>>1716739
А там memmap нельзя делать?
Аноним 08/06/20 Пнд 17:53:44 1716934175
Аноним 08/06/20 Пнд 18:24:13 1716964176
>>1716934
он ток для пиндосов
Аноним 08/06/20 Пнд 18:34:27 1716973177
>>1716739
Нахуя тебе 25 гигов оперативы? Датасет целиком хранить? О зумера, о нравы
Аноним 08/06/20 Пнд 19:36:01 1717018178
>>1716973
>Нахуя тебе 25 гигов оперативы? Датасет целиком хранить? О зумера, о нравы
Интересно, что он будет делать когда столкнется с датасетом в несколько терабайт.
Аноним 08/06/20 Пнд 19:45:00 1717030179
>>1716973
нужно катбуст прогнать на датасете, который около гига весит, но там проблема в том, что когда глубина и кол-во деревьев (а я прогоняю по гриду параметров, итого получается 100+ моделей) большое оно жрет всю оперативу и дохнет

я не особо зумер, скорее думер, но не просвящен как местная элита. Был бы рад совету
Аноним 08/06/20 Пнд 21:19:26 1717122180
>>1717030
>катбуст
А, ну это грустно.
Я бы посоветовал заюзать халявные $300 на гуглоклауде, или сколько они там дают сейчас.
Аноним 08/06/20 Пнд 22:28:29 1717166181
>>1717122
Это рил грустно, особенно учитывая то что с LightGBM вообще нет проблем - не жрет оперативу.

Спасибо за совет
Аноним 08/06/20 Пнд 22:39:12 1717170182
а помните, как тред начинался?
https://youtu.be/O9l5NVIjv94

и чем все закончилось? сидите эпохи ждете и веса балансируете тьху
Аноним 08/06/20 Пнд 22:40:14 1717171183
>>1716964
Нет, просто ЗИП-код (почтовый индекс) нужно валидный вставить.
Аноним 08/06/20 Пнд 22:43:56 1717172184
>>1717030
> катбуст
почему именно его, а не lightgmd, xgboost, tensorflow?
Аноним 08/06/20 Пнд 23:30:03 1717190185
>>1717030
В смысле даже одна модель всё жрёт? Если что в python можно del делать и даже мусор собрать, отученные и отвалидированные модели можно удалять из памяти
Аноним 08/06/20 Пнд 23:36:47 1717192186
>>1717190
Я помню в каком-то древнем керасе был баг с утечкой памяти у меня в коде был кусок где я сначала делаю del всего, потом делаю gc.collect(), и так пару раз. Только в таком формате перестало рандомно падать с OOM
Аноним 09/06/20 Втр 00:09:51 1717200187
>>1717171
хм, но это нарушает их правила

Section 3, "Geographic Restrictions. The Paid Services are currently available only in some countries. You will not present any false, inaccurate or misleading information in an effort to misrepresent yourself as a resident of a supported country, and you will not attempt to circumvent any restrictions on access to or availability of the Paid Services or content available within the Paid Services."
Аноним 09/06/20 Втр 07:33:28 1717297188
>>1717200
Кто-то говорил, что прописка это устаревшее совковое говно и пережиток ГУЛАГа.
> Section 3, "Geographic Restrictions. The Paid Services are currently available only in some countries. You will not present any false, inaccurate or misleading information in an effort to misrepresent yourself as a resident of a supported country,
Без прописочки официально залупа на воротник, но это ДРУГОЕ, конечно же.
Аноним 09/06/20 Втр 21:55:19 1718070189
>>1704037 (OP)
Аноны, есть какие-то материалы по машинному обучению(сетки и всё связанное с ИИ тоже) в информационной безопасности? Я нахожу какие-то статьи или какие-то теоритические обоснования, но я не могу что-то практическое, а ещё лучше что-то что разобрано подробно. Возможно анон знает какие-нибудь курсы или видео, книги, связанные с МБ в ИБ. Был бы очень благодарен за инфу
Аноним 09/06/20 Втр 22:01:31 1718082190
Аноним 09/06/20 Втр 22:27:10 1718103191
>>1718082
Боже дай бГ тебе всего!
Аноним 10/06/20 Срд 02:32:25 1718268192
Я так и не понял зачем для бустинга с категорными фичами нужно что-то дополнительно делать (аля тот же катбуст)
Если бустинговая моделька это тупо сумма if-else блоков с весами, разве if-elsам не должно быть всё равно категорные фичи или не категорные?
Аноним 10/06/20 Срд 02:33:42 1718269193
>>1717297
Прописка - это когда не уведомительная, а разрешительная. (Когда милиционер решает вписать ли тебя на новое место или отказать и вернуть в колхоз)
Аноним 10/06/20 Срд 03:50:03 1718288194
>>1718268
> разве if-elsам не должно быть всё равно категорные фичи или не категорные
Нет, потому что категорные фичи не упорядочены, а бинарные деревья это не просто ифы, это какая-то операция сравнения. Допустим, у тебя есть датасет с ужами и ежами, и что ты будешь делать if еж < 0.5? Это нонсенс.
А вот если ты вместо ежей и ужей сделаешь ежовость и ужовость, и установишь ежовость=1 и ужовость=0 у ежа, а ужа наоборот 0 и 1, то тогда ты сможешь делать что-то типа if ежовость<0.5
Уже неплохо.
Аноним 10/06/20 Срд 04:58:50 1718321195
>>1718288
> и что ты будешь делать if еж < 0.5
Ну у меня будет ужоежовость = 0 и ужа и ужоежовость = 1 у ежа, разбиение ужоежовость < 0.5 даст разделение на ужей и ежей в ветках
Аноним 10/06/20 Срд 06:19:16 1718368196
>>1718321
Один хуй ты от категорий избавился
Аноним 10/06/20 Срд 09:00:20 1718429197
Аноним 10/06/20 Срд 12:58:07 1718583198
>>1704037 (OP)
Анончики, подскажите тупому, а почему U-net назыавют нейросетью, если нигде не написано где там нейроны? Я понимаю обычные сверточные, там на последнем слое нейроны, а Unet на какое-то шарлатанство похоже.
Аноним 10/06/20 Срд 13:16:54 1718608199
>>1718583
Шарлатанство, шарлатанство, таблетки прими
Аноним 10/06/20 Срд 15:28:34 1718723200
В шапке линал и матстат, а по современному сеткошлепству ничего нет.
Аноним 10/06/20 Срд 15:46:02 1718747201
>>1718429
Можно было так высокомерно не пукать, к тому же в твоём ентрилевельном видео именно прямого ответа на вопрос нет, логично было бы про это отдельно сказать раз уж это видос для новичков.
>>1718368
Нет, не избавился, моя ужоежовость это чисто категорная фича а твои ужовость и ежовость это one-hot.
Аноним 10/06/20 Срд 19:21:47 1718853202
1037901044[1].jpg (291Кб, 1036x1600)
1036x1600
Аноним 10/06/20 Срд 21:33:18 1718939203
>>1718608
Там короче каждый пиксель и есть нейрон
Аноним 10/06/20 Срд 23:54:21 1719032204
>>1718747
Мало того, что избавился, еще и споришь как даун. Спорь о чем-нибудь умном
Аноним 11/06/20 Чтв 11:33:41 1719202205
>>1718853
Норм вообще книжка? Теория нормально изложена, или только импорт слесарьплов?
Аноним 11/06/20 Чтв 13:40:38 1719275206
>>1718723
Нормально там по современному сеткошлепству, в глаза не ебись. Другой вопрос что на русском нет нихуя
>>1718853
Посмотрел, выглядит нормально, если буду перекатывать и не проебусь, добавлю
Аноним 11/06/20 Чтв 14:20:39 1719329207
>>1704037 (OP)
Всем привет
Есть одна задача для души

Дальше речь про некоторую игру:
Есть сложная функция, описывающая урон персонажа, в которой есть х и у, известна сумма этих х и у, а еще есть некоторое дерево талантов, которое влияет на эту самую формулу. Дерево по своей сути простое (просто меняет количество х, у или какой-то множитель формулы), но это именно дерево, т.е. некоторые таланты незлья взять, пока не взяты другие. и еще они выглядят, сука, похоже.
Подскажите, как оценить максимальное значение функции при заданных х,у и числе талантов?

Как вообще такое гуглить? Подскажите, в какую сторону смотреть. Наверняка есть какое-то типовое (хотя бы чуть-чуть) решение, чтобы хоть как-то сузить количество циклов.
Пока что мне прило в голову только следующее: для всех возможных комбинаций талантов просчитать формулу и выбрать соответствующее значение, но при количестве талантов от 50 это будет по меньшей мере больше 10 к вариантов

И вообще, я по адресу?
Аноним 11/06/20 Чтв 15:17:13 1719440208
0GmYOooZb0BphrXA.mp4 (4450Кб, 480x480, 00:00:52)
480x480
Аноним 11/06/20 Чтв 15:18:04 1719444209
>>1719329
Генетическое программирование (скорее) или генетические алгоритмы же. На пистоне - DEAP.
Аноним 11/06/20 Чтв 15:20:34 1719451210
Пиздежь или aqualife действительно задизайнили свой новый бренд fantola спомощью нейроночек. Мне даже реклама вылезла сразу после покупки, хотя у ютьюба и свой алгоритм.
Аноним 11/06/20 Чтв 20:15:36 1719819211
>>1719329
У тебя формулы-то на руках? Капай в сторону генетических алгоритмов. Тебе вроде их уже подсказали
Аноним 11/06/20 Чтв 20:26:04 1719829212
>>1719451
пиздёж у тебя в штанах
Аноним 11/06/20 Чтв 20:46:17 1719856213
>>1719444
>>1719819
Чет почитал, пока что это выше моего понимания
Там биология какая-то
Я тупой, наверное, но я прямо нихуя не понял
Ежели кто сталкивался, было бы здорово какой-то простенький образец

Ладно, дорогу осилит идущий. Спасибо )
Аноним 11/06/20 Чтв 20:50:13 1719866214
Аноним 11/06/20 Чтв 21:38:09 1719899215
Почему телефон за 5 тыщ распознает лицо за наносекунду, а моя сверточная сеть гадает 256х256 rgb около 20 секунд на среднем компе без gpu, еще и комп наровит сгореть? Я думал максимум секунда будет. Нахуй мне эти нейронные сети тогда если они адекватно работают тока с видюхами от 20к
Аноним 11/06/20 Чтв 21:43:47 1719906216
>>1715683
хз у меня никаких ключей не просит, 3 клика и всё работает и диск есть
Аноним 11/06/20 Чтв 22:53:25 1719957217
У кого из больших корпораций можно снять под ML сервера с видеокартами и загрузить их куд-кудой? Сколько стоит сколько видух? Можно ли туда залить гигабайты моих входных/выходных данных? Сколько стоит час/день/неделя ренты?
Аноним 12/06/20 Птн 00:58:34 1720034218
>>1719957
Для того чтобы немного поиграться есть бесплатный гугл колаб. В остальных случаях дешевле купить видеокарту.
Аноним 12/06/20 Птн 03:13:08 1720089219
>>1719957
Если тебе не нужно в краткий срок сделать десятки экспериментов, покупай железо. Если нужно, советую гугловские TPU, на момент октября 2019 это было на порядок дешевле видеокарт. Правда у меня одна компиляция модели на них шла 40 минут, так что тут тоже не все однозначно
Аноним 12/06/20 Птн 03:14:05 1720090220
>>1719899
Потому что архитектуру сети в телефоне выбирали не дауны типа тебя
Аноним 12/06/20 Птн 07:47:38 1720115221
>>1719957
60 центов - несколько долларов в час, если не preemptible (сам погуглишь, что это такое). Смотри aws и gcloud, как сверху написали.
Аноним 12/06/20 Птн 09:23:16 1720137222
>>1719202
Теория есть, первые страниц 80 только она. Дальше теория + разбор примеров на керасе
Аноним 12/06/20 Птн 14:48:42 1720378223
>>1719329
Это типичная задача дискретной оптимизации, к машобу не имеет отношения. У них частая проблема - либо они сводятся к хорошо известной (типа максимального потока или задачи о назначениях), либо NP-полные, и лучше чем перебором не получится. Так что гугли основные задачи дискретной оптимизации и думай, можно ли свести к ним твою.
Аноним 12/06/20 Птн 15:47:31 1720441224
>>1719329
>Пока что мне прило в голову только следующее: для всех возможных комбинаций талантов просчитать формулу и выбрать соответствующее значение, но при количестве талантов от 50 это будет по меньшей мере больше 10 к вариантов
10к вариантов это хуйня, любой другой метод ты будешь кодировать дольше, чем эти 10к вариантов переберутся.
Вот когда вариантов несколько миллиардов, это может стать проблемой.
Аноним 12/06/20 Птн 17:04:56 1720532225
Аноним 12/06/20 Птн 17:17:50 1720542226
>>1704037 (OP)
Кто нибудь делал детектор либирашек?
Аноним 12/06/20 Птн 17:35:23 1720559227
>>1720542
Только детектор зумеров.
Аноним 12/06/20 Птн 21:35:25 1720850228
>>1720378
Да не, графы тут вообще не причём, дерево талантов эт не то
Аноним 12/06/20 Птн 23:11:32 1720985229
>>1720559
Мсье, пожалуйста, ссылочку в студию.
Аноним 13/06/20 Суб 11:02:19 1721238230
>>1719329
Звучит похоже на всякие минмаксы в шахматах (только без мин части). ( Возможно, это и называется генетическим программированием, я не шарю). Но, мне кажется, что тут нужно просто перебором решать и прунить дерево не получится , так как в играх у самой убогой ветки может быть в конце имбовый талант.
Аноним 13/06/20 Суб 11:34:49 1721281231
Аноним 13/06/20 Суб 13:38:37 1721358232
gptree.png (15Кб, 250x250)
250x250
>>1721238
Если я правильно понял, что ему надо (есть конечный притом очень небольшой набор функций и аргументов, из них нужно получить дерево, максимизирующее опять же известную целевую функцию, т.е есть от чего плясать с определением лосса), то это 100% задача генетического программирования, даже ничего выдумывать не надо, все уже готово https://deap.readthedocs.io/en/master/tutorials/advanced/gp.html
Аноним 13/06/20 Суб 15:06:17 1721424233
Допустим я запилю AGI, как сделать так, чтобы он не уничтожил человеков?
Аноним 13/06/20 Суб 15:10:09 1721427234
>>1719329
Нихуя не понял, но предполагаю тебе скорее всего поможет Q-learning. Это даже не обязательно нейронки. Короче копай туда, это по сути математический способ выбора оптимальной стратегии.
Аноним 13/06/20 Суб 15:26:00 1721437235
>>1720850
Где я говорю про графы? Повторяю, это задача дискретной оптимизации. Если получится свести её к какой-нибудь традиционной задаче - будет хорошо. Если не выйдет - ну, придётся перебор с эвристиками применять, типа A-star или альфа-бета-отсечения.

Вообще, попробуй динамическое программирование, по виду как раз оно подойдёт.
Аноним 13/06/20 Суб 15:40:53 1721460236
>>1721358
>есть конечный притом очень небольшой набор функций и аргументов, из них нужно получить дерево, максимизирующее опять же известную целевую функцию
По-моему там дерево уже есть, в каждой вершине которой своя функция урона, нужно найти максимум при заданных значения параметров. Вообще не понятно как без дополнительных предположений найти максимум на конечном множестве кроме полного перебора, причём здесь генетические алгоритмы и кулёрненхи всякие вообще?
Аноним 13/06/20 Суб 20:17:40 1721816237
>>1721460
ГА могут быстро и без геморного кодирования дать псевдомаксимум, довольно близкий к истинному максимуму. Если перебирать долго, то ГА дают тебе быстрое приблизительное решение с довольно большой скоростью и кодозатратами примерно как у перебора.

А вообще у него там есть дополнительные предположения - скорее всего на некоторые ветки можно наложить верхние границы, и таким образом быстро отсекать большие ветки.
Аноним 13/06/20 Суб 21:12:03 1721889238
>>1721816
>ГА могут быстро и без геморного кодирования дать псевдомаксимум, довольно близкий к истинному максимуму.
Генетические алгоритмы это же просто umbrella term для кучи похожих идей, т.е. никакого строго доказательства этому нет?
Аноним 14/06/20 Вск 02:16:29 1722102239
Аноним 14/06/20 Вск 03:44:58 1722139240
>>1704037 (OP)
Приветики, трясунишки в штанишках, как дела, как котики?
Аноним 14/06/20 Вск 05:01:19 1722152241
>>1721460
> Вообще не понятно как без дополнительных предположений найти максимум на конечном множестве кроме полного перебора, причём здесь генетические алгоритмы и кулёрненхи всякие вообще?
Я о генетическом программировании. Это хотя и ГА, но со своей спецификой. Оно лучше полного перебора тем, что это направленный перебор, с поиском в сторону максимально возможного увеличения или уменьшения целевой функции, а не тупо квадратногнездовой брутфорс от забора и до обеда. Кулернинх не об этом, как и в случае простых ГА там придется саму задачу ставить так чтобы решения выдавались в виде дерева, а это дополнительный мартышкин труд, ибо в ГП все уже сделано.
Аноним 14/06/20 Вск 05:59:30 1722158242
15716155488350.gif (391Кб, 652x562)
652x562
>>1721816
Сам то понимаешь вообще все эти баззворды, которые в кучу кидаешь, зумерок?
Аноним 14/06/20 Вск 06:10:22 1722159243
>>1722158
Насколько же сильно на тебе отдохнула природа. У меня в посте нет ни одного баззворда, а вот в твоем посте есть два, во-первых - это слово "баззворд", значение которого ты не понимаешь, во-вторых, слово "зумер", с которым ты откровенно заебал.
Аноним 14/06/20 Вск 10:37:40 1722212244
image.png (100Кб, 774x761)
774x761
Какие ошибки в архитектуре могут приводить к таким расхождениям в точностях?
Аноним 14/06/20 Вск 10:40:58 1722213245
Аноним 14/06/20 Вск 12:00:27 1722260246
>>1722212
Маленький датасет, оверфиттинг.
Аноним 14/06/20 Вск 13:17:34 1722308247
Аноним 14/06/20 Вск 14:46:19 1722412248
Аноним 14/06/20 Вск 16:44:14 1722650249
image.png (473Кб, 2144x1398)
2144x1398
В машинлернинг не хочу, там надо модели оверфитить. А если не заоверфитишь, то получишь метрики дерьмовые и тебя уволят. Под музыку, как в фильмах американских. А модель то все равно в прод выкатят. Заквантизированную, парадную. С аксельбантом. Ребята идите в дейта сайенс!

Ребятишкам молодым на кагле дата лики в трейн подсыпают. Совсем молодым ребятам. У них потом CatBoost перформит как часовой с берданкой. И до приватного лидерборда они на ods друг с другом метриками меряются, seed подбирают как гиперпараметр. Любят нарядиться Андреем Карпатым и про индакшн байес порассуждать.

Если ты попал в NLP - считай твои дни сочтены. Утром файнтюнишь language model. Перед обедом фистинг от заказчика. На обед смузи. После обеда сокращение. Без ужина оставили. Пидоры суки. У меня там модель не сошлась еще, а меня выгоняют. Блядь

Когда новую модель в прод выкатывали, датасайентистов загнали в переговорку. Закрыли, начали "по собственному желанию" оформлять. А они не знают ничего, r/MachineLearning скроллят. Лид на продакшене поды повалил - его заломали и выебали. Почему? Да потому что он размер батча на входе не ограничил и с OOM все повалил, сука. А CTO с CFO смеются. У CTO припадок, глаза закатил, про serverless бормотать начал. Уволился. Тех, кому дела он передавал тоже уволили.

Алерты из графаны посыпались - всем похуй. Твоя модель заоверфитилась - ты знаешь что делать. Если датасайентиста попросили сделать доклад на митапе - значит он провинился. Его надо в секции вопросов пнуть. Или выебать это уже от чедловека зависит.

Сегодня на NIPS всех отправили новые перспективные архитектуры изучать. Наебали. Суки. Показывали новый трансформер на ахулиард параметров. А датасайентистам прикладными задачами теперь заниматься. Они же там весь бюджет месячный за ночь спустят блядь! Решили поставить квоты на сервис аккаунты всем. Так эти доблаебы на Google Collab TPU прожрали весь годовой бюджет на ML. Запустили миллион ноутбуков в параллель и гридсерчили. Но мне бюджет не жалко, все равно бы проебали

Кто-то focal loss к bert-у пришивает, кто-то XGBoost'ы утюгом стакает. В даталейке насрано. Плакат с ЛиКуном. Под ним книжка Николаенко. Подписанная. Кто подписал - неизвестно. Всю предыдущую команду разогнали, так никто и не признался. Горько вспомниать.

Зачем нужно машин лернингом заниматься? Чтоб индусов автоматизиорвать. Будут они по колцентру ходить на ломаном английском клиентов отпугивать. Попросит клиента boobs and vegana прислать, а че ты ему скажешь? Он же по английски не понимает. Пидоры, все индусы пидоры. И машинлернеры тоже

У кого на GPU бюджетов нету тому два стула дают. Один говно квазилинейное, другой градиентный бустинг на деревьях. Вот и гадай: либо в четверг пятницу не предскажешь, либо заоверфитишься. Но там большинство на GPU инференсятся. Как тут в deep learning не ударишься, когда тебе заказчик deep throat устраивает

Кто на рабочих мощностях в кагл играется - тот грандмастер. Имеет право носить корону. С ним всегда свита японцев-индусов хейтеров. Он выступает на дата конфах первым. CTO при встрече ему кланяется и обращается "князь крендель". Грандмастер всегда деплоит сразу на прод. Как волк или собака им виднее. После отбоя грандмастера всегда ебут и пиздят. Почему? Да потому что он test set приватный заскрапил, пидарас пассивный.

Правильно говорят, что кто сетки не тренил - тот не сайентист. Или неправильно. Я в хуй не тарабанил. "Кто до лида в DS дожил - тот огурчики полил". Выглядит как чушь? Это сгенерил GPT-3. Кто лидом в дейта сайенсе стал, у того кукушка отбита, и срака как у дональда дака.

Заперформим еще. Так Chief Data Officer говорил. Потом уволился, или уволили, хуй его знает.
Аноним 14/06/20 Вск 16:48:30 1722655250
>>1722650
>У кого на GPU бюджетов нету тому два стула дают. Один говно квазилинейное, другой градиентный бустинг на деревьях.
but then I lol'd
Аноним 14/06/20 Вск 16:55:29 1722665251
CE4E759C-CBB2-4[...].png (545Кб, 2160x1620)
2160x1620
Приветствую, мейлач

Заинтересовался применением нейросетей для прогнозирования свойств металлов

Сейчас присматриваю ищу материал, присматриваю курсы

По математике заинтересовал этот курс:
https://www.coursera.org/specializations/mathematics-machine-learning#about

Может кто занимался подобным применением? Может даже изучал какой курс? Чтобы по минимуму было машинного зрения и всяких там анализов содержания текстов

В экселе делал модель одну для статьи. Предсказание электропроводности сплава от состава. В принципе работало.

Правда сплавы были простые, а хотелось бы что-то эдакое. Сам не знаю что. Как понимаете, параметров очень много и на свойства они влияют по разному
Аноним 14/06/20 Вск 17:00:26 1722674252
>>1722665
Начни с собирания датасета, даже если ты его просто опубликуешь, это будет неплохой буст тематики. Если, конечно, это уже кто-то не сделал
Аноним 14/06/20 Вск 17:40:28 1722743253
>>1722674
нейронщик вкатывальщик интересуется, а как собственно такой датасет собрать можно?
Аноним 14/06/20 Вск 18:05:53 1722799254
>>1722743
Статьи в elsevier или других researchgate’ах шерстить и набивать в таблицы

Антон >>1722665
Аноним 14/06/20 Вск 18:07:33 1722803255
>>1722743
Ну или экспериментальные данные
Которых у меня за годы учебы собралось немерено, а ещё можно подтянуть научника, который свои бы скинул
Аноним 15/06/20 Пнд 05:57:29 1723190256
ERZOw4aWoAI-4U1.png (344Кб, 553x735)
553x735
Есть ли у кого то ссылки на статьи. рассказываюшие, почему не стоит использовать, или наоборот стоит использовать машинное обучение нейроночки? Или кто то просто расскажет своё мнение по поводу этого?
Аноним 15/06/20 Пнд 11:39:30 1723380257
>>1723190
А нахуя тебе их использовать если не разбираешься?
А почему ты не будешь их использовать если разбираешься?
Аноним 15/06/20 Пнд 16:31:50 1723811258
15921035710820.gif (391Кб, 652x562)
652x562
>>1723190
>>1723380
Думаю, это даже не вкатывальщик, а залетное школие, которому в шкалке задали доклад по нейроночкам, а он даже нагуглить не может, ибо iq = возрасту.
Аноним 15/06/20 Пнд 18:28:29 1723951259
Как в гридсёрчсэвэ катбуста указать категорные фичи?
Аноним 15/06/20 Пнд 18:39:16 1723958260
Правил треда не знаю, но попробую. Тут часто вообще ищут начинающие датасаентисты себе менторов? Мне вот бы найти, хочу вкатиться в машинку
Аноним 15/06/20 Пнд 20:14:33 1724024261
>>1723958
>менторов? Мне вот бы найти
А с тебя что?
Аноним 15/06/20 Пнд 20:38:52 1724047262
>>1724024
Да даже не знаю, что может предложить новичок опытному работяге. Задаром конечно никто не будет, тут по идее только либо за деньги, либо по знакомству. Ни того ни другого у меня нет, поэтому есть одна лишь надежда, что меня подберет с помойки кто-нибудь шарящий в этом деле
Аноним 15/06/20 Пнд 23:11:55 1724219263
>>1723958
начинай сам, задавай вопросы конкретные, мне тут давали годные советы.
Аноним 16/06/20 Втр 07:58:11 1724410264
>>1723958
>надеяться, что кто-то отведет тебя за ручку, без усилий с твоей стороны
Аноним 16/06/20 Втр 08:04:37 1724414265
Аноним 16/06/20 Втр 09:10:27 1724427266
границы, которы[...].png (71Кб, 796x142)
796x142
прямо как в жизни...
глубоко...
Аноним 16/06/20 Втр 14:01:43 1724641267
Уважаемые, есть ли среди вас любители nlp
Подскажите какие нибудь статьи/ноутбуки/что угодно, где гугловский берт ТОТ САМЫЙ СТЭЙТ ОФ АРТ приворачивают для работы с русским текстом и он дает нормальный результат
Я вот попытался его использовать, но в итоге получилось всего лишь чуть лучше, чем простой word2vec.
Спасибо
Аноним 16/06/20 Втр 14:06:40 1724645268
>>1724641
Как то абстрактно я высказался
Имел в виду применительно к задаче классификации
Аноним 16/06/20 Втр 16:12:00 1724782269
А как на выходе у нейросетей которые рисуют что-нибудь или там текстуру с одной картинки, на объект на другой так ровно накладывают. Почему такая четкость? Настолько умные?
Аноним 16/06/20 Втр 16:12:54 1724785270
>>1724782
Учатся же. И они не "умные", ум это про когнитивные способности и абстрактное мышление. Они все до сих пор сидят в китайской комнате
Аноним 16/06/20 Втр 16:24:06 1724809271
>>1724785
Имплаинг ты не в китайской комнате сидишь
Аноним 16/06/20 Втр 16:24:52 1724810272
Аноним 16/06/20 Втр 18:27:59 1724994273
>>1724641
> Я вот попытался его использовать, но в итоге получилось всего лишь чуть лучше, чем простой word2vec.
Это норма. Где-то читал что диплернинх в NLP не даёт никакого значимого улучшения результатов по сравнению с shallow моделями типа word2vec.
Аноним 16/06/20 Втр 18:31:36 1724999274
>>1724785
> китайской комнате
>>1724809
> китайской комнате
Фуфлосовская хуета хует для зумерш. Уровень philosophical / behavioral zombie.
Аноним 16/06/20 Втр 18:42:27 1725014275
>>1724999
Когда уже за слово зумер будут расстреливать
Аноним 16/06/20 Втр 19:11:04 1725053276
>>1724999
> зумерш
Обоим этим понятиям (кит. комната и философский зомби) больше лет чем тебе, чмоня. Без этих понятий тебе в этом треде делать нечего
Аноним 16/06/20 Втр 20:24:59 1725150277
Можно ли написать бота для телеги на питоне, чтобы он заменил мне живое общение с тян? Какие либы юзать?
Аноним 16/06/20 Втр 22:09:56 1725259278
Аноним 17/06/20 Срд 00:04:37 1725425279
>>1724994
А kmeans даёт значимое улучшение в кластеризации по сравнению с knn?
Аноним 17/06/20 Срд 00:06:24 1725431280
>>1725150
Поставь алису лучше, она тебе ещё и картин нарисует
Аноним 17/06/20 Срд 02:14:11 1725607281
>>1725053
> Обоим этим понятиям (кит. комната и философский зомби) больше лет чем тебе, чмоня.
Какая разница сколько лет всяким гуманитарным сказочкам для зумерш? Они от этого не перестают быть сказочками, характеризующими уровень веровающих в них.
> Без этих понятий тебе в этом треде делать нечего
И как эта хуета связана с темой треда?
Аноним 17/06/20 Срд 09:13:05 1725800282
>>1725053
В том и дело, болван. Это всё примитивные концепты, которые преподают полуобезьянам, которых называют вежливо студентами. Устаревшая гипотеза, выдуманная через пару лет после появления самого направления.
Аноним 17/06/20 Срд 09:21:41 1725802283
>>1725607
>>1725800
Два долбаёба спалили себя с потрохами.
> гуманитарным сказочкам
Это не "сказочка", это абстрактные концепции для описания принципа
> от этого не перестают быть сказочками
Они от этого не начинают ими быть
> веровающих
В абстрактную концепцию нельзя верить или нет, это концепция, блядь
> как эта хуета связана с темой треда?
Ты вообще не читал что сверху было что ли? Человек спросил как ган-сети так красиво перерисовывают картинки, учатся ли они, понимают ли они что там нарисовано, на что я ответил, что ган-сети просто ищут паттерны пикселей и по ним пытаются перерисовать, вообще не понимая, что изображено на картинке, прямо как в классической китайской комнате
> Устаревшая гипотеза
Это не гипотеза, ты на предложение выше сам назвал это концепцией. У тебя память как у рыбки что ли? Гипотеза, блядь. Ты реально думаешь, что кто-то верит, что какой-то чувак сидит в комнате с китайскими иероглифами и пытается их перебрать? Пиздец просто

Оба на хуй вон из треда. Здесь вам слишком сложно. Попробуйте себя в кондом снортин челледж
Аноним 17/06/20 Срд 09:28:39 1725807284
>>1725802
>вообще не понимая, что изображено на картинке
Понимание - это лишняя сущность. Никакого понимания не существует. Точнее, это эмоция, которую испытавает мозг.
Поэтому в этой фразе столько же смысла, сколько во фразе "у негров нет души". Можно долго обсуждать эту фразу, но ответ в том, что души нет ни у кого.
Аноним 17/06/20 Срд 09:29:09 1725808285
>>1725802
Дефайн "понимание", мань.
Аноним 17/06/20 Срд 09:34:30 1725810286
>>1724641
Открой любое соревнование, где выиграл берт и попробуй побить его на ворд2век + что угодно. Соснешь.
Аноним 17/06/20 Срд 09:37:16 1725811287
>>1725807
> Никакого понимания не существует
Ясно. Юрий Степаныч, уйдите пожалуйста. Вам в zog-тред, он на соседней доске
>>1725808
Когнитивные способности, анализ контента, разбор контента на более простые абстракции, возможность изменить контент, не порушив семантику и возможность сделать контент такого же типа с нуля с похожей семантикой или похожим наполнением
Аноним 17/06/20 Срд 09:40:33 1725813288
>>1725811
И что ганы из этого не делают, лол?
Аноним 17/06/20 Срд 09:51:37 1725818289
>>1725811
> Когнитивные способности, анализ контента, разбор контента на более простые абстракции, возможность изменить контент, не порушив семантику и возможность сделать контент такого же типа с нуля с похожей семантикой или похожим наполнением
Набор слов. Ни у одного из этих гуманитарных фуфлосовских манятерминов нет даже внятного определения. "Ну тип там душа, квалиа, коковалиа)))". Ясно все с тобой.
Аноним 17/06/20 Срд 09:52:00 1725819290
>>1725802
Ты шизик? Покажи справку из пнд что здоров.
Аноним 17/06/20 Срд 11:43:46 1725880291
15923153420223.gif (195Кб, 400x400)
400x400
Удовлетворяет ли условиям теоремы Мерсера композиция (суперпозиция) функций, удовлетворяющих условиям теоремы Мерсера?
Аноним 17/06/20 Срд 12:23:33 1725919292
>>1725813
> И что ганы из этого не делают, лол?
Ну например:
> анализ контента
> разбор контента на более простые абстракции
> возможность сделать контент такого же типа с нуля с похожим наполнением

>>1725818
Ты мамкин маргинал. Твой предел это вилкой чистить очко. Такие как ты ничего за свою жизнь не добиваются, потому что идут наперекор цивилизованному обществу и отрицают идеалы и идеи общества. Ты небось ещё и сознание отрицаешь. Пошёл отсюда на хуй короче
Аноним 17/06/20 Срд 12:37:19 1725932293
3975e007f05e4e3[...].jpg (24Кб, 300x374)
300x374
>>1725919
> идут наперекор цивилизованному обществу и отрицают идеалы и идеи общества. Ты небось ещё и сознание отрицаешь.
Аноним 17/06/20 Срд 12:55:21 1725955294
>>1704037 (OP)
Cап, что лучше взять для классификации картинок - keras или tensorflow?
Аноним 17/06/20 Срд 13:01:50 1725967295
>>1725932
Двачую нечеткого здесь (это же он?). Всё это философский бред, а с точки зрения практики вообще наплевать китайская это комната или нет (даже если бы это не было философской мутью)
Аноним 17/06/20 Срд 13:02:18 1725969296
Аноним 17/06/20 Срд 13:11:09 1725978297
>>1725919
>анализ контента
>разбор контента на более простые абстракции
>возможность сделать контент такого же типа с нуля с похожим наполнением

Вообще-то ганы делают именно это.
Ты просто нейрорасист, который рассуждает примерно о том же, что и обычный расист, типа, негры не могут испытывать боль, потому что у них нет души. Тут такая же хуйня. У нейронок нет понимания, а что такое понимание ну мы все, белые люди, знаем, не то что эти бездушные нейронки.
Аноним 17/06/20 Срд 13:20:28 1725989298
>>1725955
керас это надстройка над тенсорфлоу. Твоя дихотомия лишена смысла
Аноним 17/06/20 Срд 13:25:22 1726001299
>>1725978
>расист
Пиздец, ты случаем не с хабра?
Аноним 17/06/20 Срд 13:31:08 1726020300
>>1725978
Нет, ганы не умеют разбирать контент на абстракции, они не могут понять, что на фото кошка, что это её нос, уши, хвост, что надо поменять эти перерисовать эти предметы определённым образом и из кошки получится собака. Ганы берут паттерны и заменяют на другие паттерны, это буквально всё.

Возьми японскую фразу
私は私の猫を愛します。

Теперь я тебе говорю, что любой иероглиф 猫 можно заменить на любой из следующих вариантов


ちんちん

お父さん

Ты берёшь и заменяешь. Ты получаешь синтаксически корректное предложение японского языка. Ты от этого стал понимать язык? Ты вообще понял суть своего действия? Вот тебе дают другие предложения
猫をなくした。
猫を殺した。

Ты там заменяешь иероглиф на предыдущие варианты. И типа всё правильно. Но ты понял, что это такое вообще было?

Нет, Ганы не понимают что они делают, они просто заменяют одни паттерны на другие.
Аноним 17/06/20 Срд 14:05:07 1726076301
Аноним 17/06/20 Срд 14:12:04 1726085302
>>1726020
>Ганы берут паттерны и заменяют на другие паттерны, это буквально всё.
Точно так же поступают и люди.

>Ты от этого стал понимать язык?
Нет, потому что твой датасет говно. Давай нормальный датасет, начну понимать язык. И нейронка начнет.
Аноним 17/06/20 Срд 15:18:09 1726137303
>>1726085
>Давай нормальный датасет, начну понимать язык
Не начнешь
Аноним 17/06/20 Срд 16:26:46 1726186304
>>1726085
Даты про то чем kmeans отличается от knn в интернете полно, однако тебе это не помогает.
Аноним 17/06/20 Срд 17:34:09 1726244305
>>1726186
Еще бы блядь, идиотские названия
Аноним 17/06/20 Срд 21:04:42 1726454306
Насколько важен факт наличия хоть какого-то диплома в профессии?
Аноним 17/06/20 Срд 23:16:39 1726573307
>>1724641
хз про русский язык, у нас на практике (4 разных языка) bilstm надавал на клыка fasttext классифайеру прямо так пунктов на 10 f1 скора, а потмо трансформер накинул еще 10. Так что это точно не хуйня без задач, но все очень сильно зависит от задачи - на некоторых даже ебмеддингами не получилось побить бейзлайн на логреге и tf-idf
Аноним 17/06/20 Срд 23:17:14 1726574308
Аноним 17/06/20 Срд 23:20:47 1726576309
>>1726454
> Насколько важен факт наличия хоть какого-то диплома в профессии?
Зависит от места - чем больше поток соискателей и жирнее позиция, тем жесче отсев. На моем опыте собесов - хороше образвоание МФТИ/МГУ/вышка (а если еще и ШАД то вообще огонь) ооочень сильно коррелирует со скиловостью, так что чтоб сэкономить вермя бывает есть смысл просто сфокусироваться на людях из этих шараг.
Аноним 18/06/20 Чтв 08:27:15 1726713310
CNN - это гениально
Аноним 18/06/20 Чтв 12:00:38 1726911311
>>1726576
А если просто ШАД окончу без оканчивания универа? в ШАД в этом году с вероятностью 90% поступлю, но потом мотивация в уник ходить наверняка пропадёт
И за бугром потом как, сильно смотрят на факт наличия диплома, или скиластости/опыта будет достаточно?
Аноним 18/06/20 Чтв 12:50:27 1726978312
>>1726911
Иммиграционным органам точно нужен бакалавр по специальности, без него всякие мучения с доказыванием лет опыта. Компаниям в принципе скиластости достаточно, но ооочень часто пишут бакалавр кампутир саенс или матеша, ну как и в раше
Аноним 18/06/20 Чтв 13:23:57 1727018313
Аноним 18/06/20 Чтв 13:35:29 1727030314
>>1726978
нахуя я на этот ёбаный матфак поступал, пиздоос
Аноним 18/06/20 Чтв 14:14:29 1727080315
>>1727030
>матфак
Лол, лучше бы в семинарию, толку бы больше было
Аноним 18/06/20 Чтв 14:22:57 1727097316
>>1727030
Нормально все на маткафе можно устроить, главное давить на научника, чтобы заниматься актуалочкой
Аноним 18/06/20 Чтв 14:27:32 1727109317
>>1727097
меня просто заебало это место я не хочу туда ходить я бы хотел ходить только в шад а уник дропнуть поскольку всё равно не годен
Аноним 18/06/20 Чтв 14:27:54 1727111318
>>1727109
не годен в армуху то есть
Аноним 18/06/20 Чтв 14:34:25 1727132319
>>1727109
на бакалавра нет никаких причин забивать. 4 года это не строк вообще
Аноним 18/06/20 Чтв 15:19:24 1727225320
Ку. Появилась мысль написать нейронную сеть, которая бы читала карты, к примеру рельефные и уже по этой карте строила бы аналогичную с которой можно было бы взаимодействовать. Я знаю более-менее питон, но там куча библиотек для обучения сетей. Посоветуйте с чего начать
Аноним 18/06/20 Чтв 16:56:13 1727370321
Аноним 19/06/20 Птн 00:13:32 1727693322
15700785037350.jpg (70Кб, 564x560)
564x560
Посоны, я загрузился темой ваших дата сеансов. Сложилось некоторое представления, прошу вас поправить меня если онт неверны.

1) Машоб в простейшем виде можно освоить если знаешь, что такое функция, матрица, вектор и хотя бы основы статистики. Хотя и ее не обязательно знать, можно по ходу дела разобраться. Конечно, есть нюансы, но если посмотреть, то с одной стороны это разочаровывает, потому что колдунство начинается чуть позже, уже в процессе самого обучения, но для какой-то прикладной задачи даже его понимать не обязательно. Все намного проще и менее загадочно, чем кажется.

2) По этой теме больше хайпа, чем потребности. Т.е. везде реклама обучения, но ирл дата саентист, например, аналитик - специфическая должность, уровня продвинутого советчика, а иногда и маркетолога. Я так понял, он мало на что влияет непосредственно.

3) В обывательском представлении все, что связано с ИИ - это философия. Журналисты, писатели, киношники и прочие параноики рисуют быдлу фильмы и сериалы про андроидов, но в реальности этим и близко не пахнет. Все так убеждены, что в будущем будет сильный ИИ, но я не встречал внятного объяснения, зачем его в принципе будут создавать, вместо групп слабых ии, как вариант. Просто какая-то вера, что будет и все. А дата саентисты, которые угорают по тому же, это уже механикусы, которые молятся Омниссии.

4) Множество задач проще решить без нейронок, чем с ними. Последние прикручивают часто для понта, мол У НАС НЕ ПРОСТО САЙТ, А С ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ!.
Аноним 19/06/20 Птн 00:15:16 1727695323
>>1727693
блин, прошу прощения за ошибки
Аноним 19/06/20 Птн 01:52:09 1727750324
>>1727693
Все верно с точки зрения обывателя.
Аноним 19/06/20 Птн 03:26:15 1727766325
>>1727693
>Машоб в простейшем виде можно освоить если знаешь, что такое функция, матрица, вектор и хотя бы основы статистики
А что нельзя освоить, если это знаешь? Главное это прежде всего мозги и умение ими пользоваться, а с такими вводными можно хоть физиком стать, хоть лингвистом. Машоб это типичная STEM дисциплина, не проще и не сложнее остальных.
>По этой теме больше хайпа, чем потребности.
Это особенности инновационной экономики. 10 лет назад все так же бугуртили на соцсети, мол, каждый васян делает соцсеть, хайп везде, а сейчас профессией SMM никого не удивишь, это большая часть жизни большинства населения. Несмотря на то, что 99 стартапов из 100 провалились, оставшийся 1 окупил и эти 99. Так же и с нейронками, все, что видишь в новостной ленте, это шлак, но это не значит, что нет потребности в том, чего ты в новостной ленте не видишь. Уже незаметно так можно включить автоперевод субтитров и спокойно смотреть интервью на незнакомом тебе языке. text-to-speech это распозает, переводчик переведет.
>но ирл дата саентист, например, аналитик - специфическая должность, уровня продвинутого советчика, а иногда и маркетолога. Я так понял, он мало на что влияет непосредственно.
В большой корпорации непосредственно влияют разве что самые топы из топов. Не хочешь такого, не иди в большую корпорацию, иди в стартап.
>В обывательском представлении все, что связано с ИИ - это философия.
Обывательский мозг устроен очень тупо, если что-то, что 20-30 назад казалось задачей ИИ, решается, это просто выписывается из ИИ. Я тебя уверяю, что когда появятся андроиды, к ним привыкнут за полгода и точно так же выпишут из ИИ - потому что сначала они будут туповатыми и безмозглыми, но войдут в жизнь, а потом станут теми, что из фантастики, но все привыкнут и будет похуй уже.
>Все так убеждены, что в будущем будет сильный ИИ, но я не встречал внятного объяснения, зачем его в принципе будут создавать, вместо групп слабых ии, как вариант.
Потому что это находится в логике прогресса. Так дешевле. Если не опускаться до века паровых машин, полвека назад любое устройство состояло из кучи логики, сначала на реле, потом на интегральных схемах, потом появились микропроцессоры, но они зачастую были специализированные, а сейчас все более и более унифицировано, а 90% задач решает вообще смартфон.
>Просто какая-то вера, что будет и все
Те, кто не верит, пердит на диване. Любое творчество подразумевает веру в успех. Основная база - это предположение о том, что человеческий мозг обучается всему, используя один алгоритм (это бритва оккама), а раз хотя бы один такой алгоритм существует, мы можем придумать аналогичный под наше железо.
>Множество задач проще решить без нейронок, чем с ними. Последние прикручивают часто для понта, мол У НАС НЕ ПРОСТО САЙТ, А С ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ!.
Это множество стремительно сокращается. Если заниматься не нейронками, у тебя есть шанс стать конюхом в век появления ДВС. То есть с голоду не помрешь, но инвестиция эта так себе. С другой стороны, нейронки это в основном количественное усложение, а не качественное, то есть если ты не знаешь классический машоб, то и в нейронки ты не сможешь.

у меня 19/06/20 Птн 09:34:00 1727840326
Когда появится сильный ИИ? Ваши прогнозы.
Аноним 19/06/20 Птн 09:37:28 1727845327
>>1727840
20 лет назад обещали к 2042. Я думаю, что ещё минимум на 20 лет позже. Хочу увидеть лично
19/06/20 Птн 10:05:30 1727870328
>>1727840
В конце 22 - начале 23 века
Аноним 19/06/20 Птн 10:46:40 1727889329
Аноним 19/06/20 Птн 11:14:46 1727902330
Аноним 19/06/20 Птн 11:35:24 1727910331
Аноним 19/06/20 Птн 12:42:50 1727959332
>>1727840
Сильный ии уже есть. И он у тебя в голове.
Аноним 19/06/20 Птн 12:49:37 1727966333
>>1727766
>>1727693

>Машоб в простейшем виде можно освоить если знаешь, что такое функция, матрица, вектор и хотя бы основы статистики
А что нельзя освоить, если это знаешь? Главное это прежде всего мозги и умение ими пользоваться, а с такими вводными можно хоть физиком стать, хоть лингвистом. Машоб это типичная STEM дисциплина, не проще и не сложнее остальных.
~~~
Можно, но никому с простейшими знаниями это не нужно. Или ты думаешь в проде все устроено как в титаник датасете? ДС джун нужен такой, который разберется как решать несложную задачу, не поломает прод, не задолбает вопросами , не будет душным и сделает все в срок без голимых отмазок.

>По этой теме больше хайпа, чем потребности.
Это особенности инновационной экономики. 10 лет назад все так же бугуртили на соцсети, мол, каждый васян делает соцсеть, хайп везде, а сейчас профессией SMM никого не удивишь, это большая часть жизни большинства населения. Несмотря на то, что 99 стартапов из 100 провалились, оставшийся 1 окупил и эти 99. Так же и с нейронками, все, что видишь в новостной ленте, это шлак, но это не значит, что нет потребности в том, чего ты в новостной ленте не видишь. Уже незаметно так можно включить автоперевод субтитров и спокойно смотреть интервью на незнакомом тебе языке. text-to-speech это распозает, переводчик переведет.
~~~
Согласен.

>но ирл дата саентист, например, аналитик - специфическая должность, уровня продвинутого советчика, а иногда и маркетолога. Я так понял, он мало на что влияет непосредственно.
В большой корпорации непосредственно влияют разве что самые топы из топов. Не хочешь такого, не иди в большую корпорацию, иди в стартап.
~~~
Отчет по a/b тесту по внедрению очередной фичи из ml влияет на принятие решения как правило.


>Множество задач проще решить без нейронок, чем с ними. Последние прикручивают часто для понта, мол У НАС НЕ ПРОСТО САЙТ, А С ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ!.
Это множество стремительно сокращается. Если заниматься не нейронками, у тебя есть шанс стать конюхом в век появления ДВС. То есть с голоду не помрешь, но инвестиция эта так себе. С другой стороны, нейронки это в основном количественное усложение, а не качественное, то есть если ты не знаешь классический машоб, то и в нейронки ты не сможешь.
~~~
Нйронки это подраздел ml. Просто один из инструментов. Их прикручивают, потому-что определенный класс задач они решают лучше. Они же вообще взлетели c CV и NLP.
Очень часто в проде работают не нейронки, а более простые, но быстрые и очевидные по feature impotances алгоритмы.
Аноним 19/06/20 Птн 13:20:09 1727986334
>>1727959
Тогда уж со времен древнего Рима с их рабами - калькуляторами.
Аноним 19/06/20 Птн 13:29:12 1727990335
>>1727966
>CV и NLP
Питухи родили яйцо
И то и то сейчас в жопе
Аноним 19/06/20 Птн 13:34:14 1727994336
image.png (57Кб, 184x184)
184x184
Аноним 19/06/20 Птн 13:49:44 1728006337
>>1727766
>Если заниматься не нейронками, у тебя есть шанс стать конюхом в век появления ДВС
По-моему сильно сказано, либо очень забегая наперед. Я слышал нечто подобное еще лет 7-8 назад и уверен, что что-то подобное звучало еще раньше. Если смотреть в прошлое, то глядя на ретрофантастику, люди, а точнее наши родители или дедушки-бабушки ( у кого как ), тоже ждали будущего, где будет много роботов, повальной автоматизации, супермедицины с долгим сроком жизни, более продвинутого общества и т.д. Тут можно дискуссировать, что из этого сбылось, но в том фантастическом виде ничего не появилось. Ты можешь возразить, что мы просто этого не заметили, но по факту, сейчас возрождаются схожие ожидания от космоса (Илон Маск и т.п.), но мы пока и близко не стоим рядом с фантастикой.
Аноним 19/06/20 Птн 13:57:15 1728012338
А вам не кажется, что нейронки, да и вообще машоб - сплошное наебалово в последнее время?
Как мне кажется, это своего рода говно без задач. То есть задачи есть, типа компьютерного зрения, которое нужно для выслеживания людей и машин на улицах, для анализа медицинских изображений, беспилотных автомобилей. Но вот все остальное это какой-то сюр, когда уже на протяжении 5 лет каждый месяц показывают очередную хуйню, которая пишет музыку или несвязные стехи.
Если это ради лулзов, то понять можно. Но практического применения этой хуйни как не было, так и не появилось.

Да и вообще, современное айти выглядит каким-то массовым наебаловом. Сам я джава мид, последнее время замечаю, что за последние 5 лет нихуя толком не произошло, единственный ощутимый прогресс был только в инструментах для разработки. Возможно, это шиза и пора к психиатру, но я уверен, что для обывателя никаких заметных улучшений нет. За последние 10 лет имхо наибольшее развитие получили сервисы типа ютаба и музыки и то, во многом благодаря развития телекома и проведению интернета во все дома, а также бурному развитию смартфонов в период с 2010 по 2013.
Аноним 19/06/20 Птн 14:10:04 1728025339
152663707018733[...].jpg (2720Кб, 1600x2133)
1600x2133
>>1728012
>последнее время
Изначально
>современное айти выглядит каким-то массовым наебаловом
Это сфера развлечений, не являющаяся прогрессом для человечества.
>так и не появилось
Копетолизды не дадут.
Мимо погромист-философ который вкатывается в электронику и физику реального мира
Аноним 19/06/20 Птн 14:24:29 1728039340
>>1728012
Наебалова нет. Ml успешно применяется.
Просто у обывателей, разыгралась фантазия от желтушных заголовков статей. Реальность прозаичнее.

Если говорить про бизнес, то тут так.
Пусть есть ml департамент обычной крупной конторы типа x5, Сибура, Wilberries.
Там примерно
1 head 1-2 PM 3-4 Team Lead 15Data Scientist + 2-3 Data Engineer
Еще железо для распределенных вычислений.
Считаем затраты на такой департамент сразу с учетом налогов и взносов. Множитель от оффера 1,4
(600+4002+3004+15200+3250)
Железки будут стоить лямов 40, амортизация лет 7. 40000/84
Раскидываем CAPEX на смежные отделы для простоты оставим на нашем департаменте 0.2

Итого monthly (OPEX+CAPEX) без учета бухгалтерии и прочей мутотени = (600+4002+3004+15200+3250)+(40000/84)*0.1 =
= 6397.61904762

Так вот нужно чтобы те фичи, которые этот отдел порождает, увеличивали что-то в бизнесе, от чего либо общие косты падают либо растет маржинальность на эти самые затраты и больше.

Бизнес будет ежеквартально сношать head of department и
спрашивать, что он и его бравые сайентисты сделали на двадцать миллионов и сколько это принесло прибыли.

Не берем в расчет сейчас развитие компетенций внутри компании и стоимость структурированных данных.
Аноним 19/06/20 Птн 14:49:24 1728068341
А где в россии сейчас топовые мл задачи? До того как попал в яндекс казалось что там, но там говно одно какое-то, перекладывание джейсонов. Я так понял настоящее разгулье в промышленности, банках и торговле, а не в IT.
Аноним 19/06/20 Птн 14:51:52 1728071342
Аноним 19/06/20 Птн 14:53:26 1728074343
>>1728012
>То есть задачи есть, типа компьютерного зрения, которое нужно для выслеживания людей и машин на улицах, для анализа медицинских изображений, беспилотных автомобилей.
Я написал про это выше: "Я тебя уверяю, что когда появятся андроиды, к ним привыкнут за полгода и точно так же выпишут из ИИ - потому что сначала они будут туповатыми и безмозглыми, но войдут в жизнь, а потом станут теми, что из фантастики, но все привыкнут и будет похуй уже".
Ты перечислил технологии, которые 7 лет назад были фантастикой. Через 7 лет автогенеративная музыка, которую будут ставить фоном вместо копирайтнутой, будет обыденностью, но ты это уже не вспомнишь.
Потому что обыватель живет хайпом, отрыжкой медиа, а в медиа попадают только те, кому нужно похайпиться. Если у тебя проинвестирована технология, ты будешь молча ее допиливать, а не тратить ресурсы для того, что ты это лайкал и репостил. Ни одна по-настоящему зрелая технология в нейронках в ленты новостей уже не попадает, она попадает на рынок.
Про "бурное развитие смартфонов с 2010 по 2013" вообще посмеялся. Мобильная связь бурно, по экспоненте, развивалась 20 лет до этого (а радио как технология - больше ста лет), и тут до обывателей дошло, что мир изменился. При чем не для всех, какой-нибудь 60+ пенсионер всерьез будет пиздеть, что эти мобильники нахуй не нужны.
Аноним 19/06/20 Птн 15:28:03 1728107344
19/06/20 Птн 15:28:25 1728108345
>>1727994
И что ты этой пикчей хотел сказать? Ты из тех верунов с СИНГУЛЯРНОСТЬ?
19/06/20 Птн 15:30:35 1728111346
>>1728107
На ICML 2020 у них 5 статей. А так Гугл, Дипмаинд, MIT и ещё пяток мест (какое-нибудь Беркли, если про роботов говорим). Самое смешное, что люди оттуда даже в ОДС не сидят.
19/06/20 Птн 15:31:44 1728113347
Аноним 19/06/20 Птн 15:34:39 1728115348
>>1728074
>что эти мобильники нахуй не нужны
Не нужны, практически им не пользуюсь.
Аноним 19/06/20 Птн 15:37:22 1728118349
>>1728039
>увеличивали что-то в бизнесе
Так так, ты же про спекулянтов говоришь, типа найти лохов по базе и впарить им очередное нинужно. В техпроцессах нейроговно нинужно и никто черный ящик в здравом уме использовать не будет.
Аноним 19/06/20 Птн 15:42:58 1728123350
>>1728111
>На ICML 2020 у них 5 статей.
Так это рисёрч отдел, мы не про него понятное дело говорим.
>люди оттуда даже в ОДС не сидят
Ну логично, не позориться шоб
Аноним 19/06/20 Птн 15:53:19 1728138351
>>1728118
У тебя неполное представление о возможности применения ml в бизнесе.

Если что, у ютуба одна из ключевых бизнес метрик - время проведенное пользователем на сайте.

Одна из фич, направленных на это - рекоммендации после окончания ролика.

Решается рек. системой с метрикой типа NDCG@

в этом алгоритме, как я помню, нейронка как раз.
Аноним 19/06/20 Птн 15:55:08 1728142352
>>1728138
>у ютуба одна из ключевых бизнес метрик
Тото они мне постоянно нерелевантное говнище подсовывают, ай да нейроночки, ай да говнецо
Аноним 19/06/20 Птн 16:12:16 1728152353
>>1728138
Это нечеткий шиз, не трать время на него
Аноним 19/06/20 Птн 16:15:13 1728154354
>>1728111
>А так Гугл, Дипмаинд, MIT и ещё пяток мест (какое-нибудь Беркли, если про роботов говорим)
Типичная жертва медиахайпа, про спейсикс забыл.
>Самое смешное, что люди оттуда даже в ОДС не сидят.
Это же хуитка для социоблядей-вкатывальщиков, мечтающих выехать не за счет скилла, а за счет социоблядства. Понятно там никто сидеть не будет.
19/06/20 Птн 16:25:05 1728161355
>>1728154
При чем тут спеисикс? Я читаю статьи и их имплементирую. Сраный Берт от Гугла, Миколов сделал ворд2век, через месяц в Фейсбук ушел и оттуда уже фасттекст пилил. В картинках и того хуже. Только йоло не из корпораций.
Аноним 19/06/20 Птн 16:59:37 1728186356
>>1728161
То, что делается не в корпорациях, не публикуется, угадай почему
Аноним 19/06/20 Птн 17:11:18 1728201357
>>1728186
>То, что делается не в корпорациях, не публикуется
То что работает в корпорациях тоже не публикуется
Аноним 19/06/20 Птн 17:28:55 1728212358
>>1728186
Судя по моим небольшим пересечениям с военнизированными НИИ (забыл, как эта шарага в часе езды от речного вокзала называется) ничего они толком не умеют, так как денег там мало и бегут оттуда как крысы с корабля, а о всяких ФСБ они отзываются ещё хуже. (Если говорить про нейронки, какому-нибудь физику в РФ кроме военки особо некому податься, поэтому там действительно интересные и классные проекты)
Аноним 19/06/20 Птн 17:38:54 1728222359
>>1728212
>какому-нибудь физику
МФТИ петушня никому не нужна, поскольку это обоссаные теоретики шликающие на матан. Срыночек порешал.
Аноним 19/06/20 Птн 17:52:03 1728247360
Аноним 19/06/20 Птн 17:55:16 1728251361
>>1728247
>А кто нужен?
Изобретатели-первопроходцы, двигающие человеческий прогресс
Аноним 19/06/20 Птн 18:02:26 1728257362
>>1728251
Ты таких видел последнее время?
Аноним 19/06/20 Птн 18:06:17 1728261363
>>1728257
>последнее время
Нет, они похоже закончились в 19 веке.
Аноним 19/06/20 Птн 18:24:12 1728278364
>>1728074
>Мобильная связь бурно, по экспоненте, развивалась 20 лет до этого (а радио как технология - больше ста лет), и тут до обывателей дошло, что мир изменился

Наверное, он имел в виду развитие андроидов и айфонов до того уровня, когда они смогли нормально показывать сайты и видео.
В середине нулевых с этим были большие проблемы. В том числе из-за того, что мобильный интернет как раз к 2012 дошел до уровня, когда им стало возможно пользоваться без мучений. В моем мухосранске по крайней мере.
Аноним 19/06/20 Птн 18:31:27 1728282365
15921035710820.gif (391Кб, 652x562)
652x562
>>1728025
> Копетолизды не дадут.
> Мимо погромист-философ
Тайдмен ты малолетний. Мозги и калмунизм это принципиально несовместимые вещи.
Аноним 19/06/20 Птн 18:35:05 1728284366
как же эта маня заебла
Аноним 19/06/20 Птн 18:38:05 1728286367
>>1728282
Копетолизды всегда будут пресекать прогресс который составит им конкуренцию, утрись и иди тряси свой ящик.
Аноним 19/06/20 Птн 18:40:52 1728289368
>>1728286
Не помнишь, чем закончили луддиты?
Аноним 19/06/20 Птн 18:51:14 1728300369
>>1728289
>Не помнишь, чем закончили луддиты?
Уничтожение машин было объявлено преступлением, наказуемым смертной казнью

Срыночек порешал
Аноним 19/06/20 Птн 19:09:05 1728314370
>>1728300
Так луддиты были за прогресс или против?
Аноним 19/06/20 Птн 19:12:12 1728316371
Блять съебите уже отсюда школьники нахуй
моча прими меры!
Аноним 19/06/20 Птн 19:13:33 1728318372
Аноним 19/06/20 Птн 19:16:10 1728322373
>>1728318
Ну так какой прогресс там был пресечен? Уже не говоря о нападении на частную собственность. Выходит наоборот.
Аноним 19/06/20 Птн 19:21:47 1728327374
>>1728322
А при чем тут частная собственность, это только награбленное ворье отстаивает. Прогресс это когда твои копетолизды построят заводы, а ты придешь и скажешь, что я могу это все делать в трехлитровой банке.
Аноним 19/06/20 Птн 19:42:32 1728341375
Аноним 19/06/20 Птн 19:44:51 1728344376
>>1728341
Чмоки и хорошего настроения
Аноним 19/06/20 Птн 19:59:39 1728348377
>>1728039
>Железки будут стоить лямов 40
Нахрена столько? Мощная железка нужна одна на всю команду, и стоить она будет миллион-два, если все брать по максимуму. Для большинства задач вообще хватит десктопа с парой топовых видеокарт.
Аноним 19/06/20 Птн 20:02:04 1728349378
>>1728212
>>1728201
Не, я не об этом.

Публикуется, потому что корпорациям не выгодно сообщаться свои открытия только тем, кто может в промышленный шпионаж. Проще опубликоваться сразу, тогда будет гораздо меньше проблем, чем вкладывать кучу бабок в якобы секретность, которая один хер будет дырявой.
А если брать мелкие конторы, то
1. Секретность обеспечить не так сложно, в основном по методу "неуловимого джо"
2. Опубликуешь идею - гугл либо переманит весь твой R&D отдел, либо повторит все на своих мощностях, уже зная, куда копать
Поэтому ты максимум находишь статью по теме от CTO в 2010 году, а дальше тишина. И это та подводная часть айсберга, которую не видно.
Аноним 19/06/20 Птн 20:05:09 1728351379
>>1728349
>Проще опубликоваться сразу
Хуйня, все сразу патентуется, если изобретателя копетолизды еще не успели убить
Аноним 19/06/20 Птн 20:33:05 1728360380
Хочу на лето погрузиться в GANы. Какие источники следует изучить?
В прошлом году спрашивал про NLP, подкинули годноту CS224N.
Про ганы был CS236, но его лекции, увы, не публиковались.
Аноним 19/06/20 Птн 20:50:41 1728367381
Аноним 19/06/20 Птн 20:51:04 1728368382
image.png (3Кб, 554x46)
554x46
Ньюфажные вопросы тут можно задавать? Почему кнн весит так много по сравнению с млп, при том, что в точности кнн уступает?Обоссыте не бейте. Это из-за особенностей архитектуры млп?
Аноним 19/06/20 Птн 20:53:54 1728370383
>>1728368
Ты бы почитал как КНН устроен. По сути это тупо датасет, в котором ищется k ближайших точек к твоей точке. Естественно его размер будет совпадать с размером датасета + структуры данных, ускоряющей поиск в многомерном пространстве.
Аноним 19/06/20 Птн 20:56:04 1728372384
>>1728370
Т.е. нужно таки смотреть как они внутри устроены. У меня ещё SVM примерно столько же весит. Хотя там точность практически так же, как и у млп.
Аноним 19/06/20 Птн 20:59:44 1728374385
>>1728372
>Т.е. нужно таки смотреть как они внутри устроены
Нет, не нужно. Просто добавляешь побольше слоев в нейросеть, и зарабатываешь 300кк/сек.
Аноним 19/06/20 Птн 21:01:52 1728377386
>>1728374
Ну именно это я и планировал делать. Я про первый пункт. Хотел гиперпараметры или как это называется подобрать.
Аноним 19/06/20 Птн 21:05:02 1728380387
>>1728377
Нахуя тебе кнн и свм тогда?
1. Ищешь ближайший датасет к своей задаче
2. Ищешь архитектуры, которые на этом датасете дают хороший результат
3. Адаптируешь под свой датасет
4. Плохо работает - добавляешь больше слоев
5. Профит
Аноним 19/06/20 Птн 21:07:00 1728383388
1592590019866.png (4Кб, 478x98)
478x98
>>1728367
Notes на то и Notes, что дополняют лекционный материал. Да, матан там заебись, но изучай я NLP по их заметкам к лекциям, выхлоп был бы нулящим.
Вот несколько дней назад у меня появилась идея для гана, реализованная до меня, конечно. Но у меня возникли некоторые идеи по улучшению. Но их разумность я не могу адекватно оценить, не разбираясь в сути и нюансах. Сейчас изучаю готовый ган для MNIST, смотрю, что с ним можно сделать.
А видение обилия формул типа пика на каждой странице только перегружает. Потому-то и нужны размеренные лекции или не настолько строго формализованная книга.
Аноним 19/06/20 Птн 21:07:55 1728384389
>>1728380
>4. Плохо работает - добавляешь больше слоев
Или меньше, если данных мало. Идеально вообще запустить оптимизацию гиперпараметров и пусть оно само думает, сколько надо слоев.
Аноним 19/06/20 Птн 21:08:34 1728385390
>>1728384
Если данных мало, увеличиваешь регуляризацию
Аноним 19/06/20 Птн 21:09:49 1728387391
Аноним 19/06/20 Птн 21:10:00 1728388392
>>1728385
>Если данных мало, увеличиваешь регуляризацию
Не всегда помогает. Уменьшение количества параметров намного эффективнее.
Аноним 19/06/20 Птн 21:12:42 1728389393
>>1728380
Я просто в шикилерна взял все классификаторы, и прогнал их через датасет. Чтобы наглядно убедится, что нейросеть лучше всех будет. Вот убедился, да.
В принципе, все твои пункты уже выполнены. Правда для нейросети параметрами по умолчанию уже точность 85%.
Аноним 19/06/20 Птн 21:14:12 1728390394
>>1728388
Нихуя подобного. Когда у тебя параметров много, больше шансов выпадания выигрышного лотерейного билета. Поэтому их и должно быть много. А чтобы оверфита не было при этом, регуляризуешь.
Если же нужна сетка побыстрее, дистиллируешь или прунишь.
Аноним 19/06/20 Птн 21:22:29 1728396395
>>1728383
Я бы вообще хуй забил на, что связано с хинтоном. На редкость бесполезный дядя, которого респектуют скорее за выслугу лет
Аноним 19/06/20 Птн 21:23:10 1728397396
>>1728390
>А чтобы оверфита не было при этом, регуляризуешь.
Если параметров слишком много, то оверфит будет всегда, и одна регуляризация тут не поможет. Архитектуру нейронки надо подбирать под датасет (количество данных и классов).
Аноним 19/06/20 Птн 21:38:06 1728413397
15915178995040.jpg (108Кб, 811x454)
811x454
Анон, подсоби нубу, пожалуйста.
Какие есть варианты экономии памяти при запуске модели? Какие методы и подходы есть?
Стоит ли использовать минибатчи при тренировки свёрточных сетей? Или это этого толку немного?
Хотя бы подскажи с чего начать изучение данного вопроса, где искать, ну или своим опытом поделись, пожалуйста.
Аноним 19/06/20 Птн 21:39:07 1728414398
>>1728413
При каком запуске, ты о чем. При тренировке или инференсе?
Аноним 19/06/20 Птн 21:42:34 1728419399
>>1728414
Если можно по каждому этапу:
- при обучении;
- при валидации;
- при использовании на тестовых данных.
Аноним 19/06/20 Птн 23:43:22 1728559400
>>1728390
>больше шансов выпадания выигрышного лотерейного билета
Блин, хватит эту хуйню передавать из уст в уста без понимания.
Далеко не для всех моделей двойной спуск есть.
Аноним 19/06/20 Птн 23:46:04 1728563401
>>1728389
>>1728368
Ещё один ньюфажный вопрос. Почему нейронки быстрее обучаются, нежели тот же самый кнн?
Аноним 19/06/20 Птн 23:47:03 1728566402
>>1728384
А сколько много/мало для нейронки можно примерно почуствовать?
Аноним 20/06/20 Суб 00:45:55 1728607403
Screenshot2020-[...].png (54Кб, 485x326)
485x326
>>1728559
>Далеко не для всех моделей двойной спуск есть.
Если ты про https://arxiv.org/pdf/1912.02292.pdf , на которую ты предусмотрительно не дал ссылку, то ты жопой прочитал. Если ты делаешь early stopping, описанных маняпроблем у тебя не будет. На приложенном пике это отлично видно.
Аноним 20/06/20 Суб 00:47:36 1728608404
15914306577003.jpg (67Кб, 604x568)
604x568
20/06/20 Суб 00:56:49 1728614405
>>1728608
Distill learning и прочая ерунда
Аноним 20/06/20 Суб 01:49:25 1728639406
>>1728566
>А сколько много/мало для нейронки можно примерно почуствовать?
Если видишь оверфит, значит слишком много. В большинстве случаев параметров должно быть не более чем в 10 раз больше, чем данных. Например, для MNIST где 60к картинок нужно не больше 600к параметров.
Аноним 20/06/20 Суб 08:39:01 1728696407
>>1728614
Спасибо. А что насчёт:
>Стоит ли использовать минибатчи при тренировки свёрточных сетей? Или это этого толку немного?
Аноним 20/06/20 Суб 09:50:19 1728713408
>>1728696
Стоит , все используют, хотя это не совсем для производительности, а скорее, чтобы градиент не шатало
Аноним 20/06/20 Суб 10:37:56 1728736409
>>1727766
> Если заниматься не нейронками, у тебя есть шанс стать конюхом в век появления ДВС.
При работе с табличными данными (т.е. когда количество призкаков ~ несколько десятков) есть какой-то выхлоп от использования нейронок? В таких задачах, по идее, классические подходы типа generalized linear model, SVM, RF будут более к месту. А ведь именно табличными данными занимается и будет заниматься основная часть аналитиков.
Это впрочем не аргумент не знакомиться с нейронками, но я к тому, что использовать DL как швейцарский нож неэффективно.
Аноним 20/06/20 Суб 11:34:12 1728769410
>>1728349
>Проще опубликоваться сразу
Рецепт КокаКолы не подскажете?
Аноним 20/06/20 Суб 11:42:52 1728772411
>>1728769
> Рецепт КокаКолы не подскажете?
На любой бутылке посмотри, шизло.
Аноним 20/06/20 Суб 13:31:22 1728849412
>>1728772
там нет рецепта, там список ингредиентов в порядке убывания
Аноним 20/06/20 Суб 16:41:03 1729028413
>>1728849
А тебе что надо? Берешь воду, бодяжишь в ней все ингредиенты, получаешь какакалу.
Аноним 20/06/20 Суб 22:28:00 1729279414
Аноним 21/06/20 Вск 14:55:29 1729613415
>>1708677
Анон, скажи как найти плиз, гугл ничего не выдает(
Аноним 21/06/20 Вск 21:31:05 1729983416
>>1728736
sota для табличных данных это бустинг на деревьях, но только потому что в табличных данных естественным образом много категорных фичей
так-то нейронки куда мощнее
Аноним 21/06/20 Вск 22:06:45 1730021417
>>1728736
Ты не понял мою аналогию. Лошади начали пропадать в в начале века и пропали окончательно ну типа к 70-м годам. Коммерция еще долго будет жить таблицами, может до конца века, но ведь на самом деле любая таблица это просто костыль для более содержательных сырых данных, которые как правило являются простым логом событий.
Аноним 21/06/20 Вск 22:14:09 1730028418
>>1729983
> так-то нейронки куда мощнее
Обоснуйте или кинь(те) ссылку на какой-нибудь ютубчик, где это описано
Аноним 22/06/20 Пнд 08:39:50 1730302419
> а вот если придсказывать белый шум то нейронки саснут)))
Какой же дегенерат, прости господи, снизу всё стучит и стучит
Аноним 23/06/20 Втр 14:03:55 1731441420
Стикер (255Кб, 480x506)
480x506
Местный ИИ опознал поехавших говнофлудеров. Precision =1, Recall = 1
Аноним 24/06/20 Срд 08:40:49 1732370421
250px-GradCdiff[...].png (16Кб, 250x293)
250x293
https://ru.wikipedia.org/wiki/Стохастический_градиентный_спуск
>Заметим, что на каждой итерации (которая называется также пересчётом), вычисляется только градиент в одной точке xi вместо вычисления на множестве всех выборок.
Как можно вычислить градиент в одной точке, если градиент это вектор в некотором поле? Градиент в точке это что?
Аноним 24/06/20 Срд 09:40:35 1732374422
>если градиент это вектор в некотором поле
Ну вот значение вектора в конкретной точке поля и вычисляется. Сколько у тебя весов у нейронки, столько измерений и будет у этого вектора.
https://cs231n.github.io/optimization-2/
Аноним 24/06/20 Срд 10:06:55 1732379423
>>1704037 (OP)
Приветики, трясунишки в штанишках, как делишки?
Аноним 24/06/20 Срд 11:11:15 1732397424
>>1732370
> вектор в некотором поле?
В каком поле? Вектор в математике это строка значений, (0.1,0.2,0.3,0.4) это вещественнозначный вектор. Который в данном случае можно интерпретировать как точку в четырехмерном пространстве.
Аноним 24/06/20 Срд 12:44:07 1732451425
>>1704037 (OP)
Драсьте, аноны. Меня к вам из /wrk/ отправили за советами мудрыми.

Ситуация такая. Есть бакланский диплом по Finance and Investment (я не в СНГ, так что ВУЗ не указываю). В ВУЗе надрочили по теорверу/линалу на более-менее пристойном уровне (пре-реки курсов стэнфорда из шапки покрывает), в R я пару glmок и одну логит-модель построил, немного еще потыкал Стату и SQL (конкретно - Майкрософтовский сервер). По теории - стандартный курс эконометрики, давали более-менее глубоко CLRM и то, как он работает, но ничего глубже (логит я сам на дейтакампе изучал).

Проблема в том, что как раз когда я хотел вкатиться в какие-то интересные позиции на стажировку, случилась корона, и пришлось брать тот оффер, который мне предлагали - иначе я рисковал пойти нахуй посреди рецессии. На позиции же ситуация токова - я, формально "аналитик-эконометрист", по факту 90% времени чищу данные вилкой в экселе, а 10% времени засовываю в проприетарный блэкбокс на сервере, который их моделирует. Написание кода позицией не предусмотрено, хард скиллы у большинства коллег - ну такие себе моя начальница от меня впервые узнала про критерии BLUE и о том, что автокорреляция остатков и гетероскедастичность - не одно и то же. Это всё такой себе "дейта саенс", естественно. Я поныл начальнице по этому поводу, рассказал, что уже начал забывать, как код пишется - сказала "могу тебя отправить учить VBA, будешь макросы в команде писать". Я его сейчас учу, пишу понемножку, но это всё, опять же, такое себе - пойдет пересидеть рецессию и избежать гэпа в CV, но не пойдет для развития.

Внутри корпы, скорее всего, двигаться некуда - разрабатывают методологию и пишут приложения, в которых мы моделируем, мужики за 30 лет с PhD по математике и знанием полного стака разработки, в эту команду я не попаду, а аналистоте (что джуну-мне, что моим коллегам постарше) ни МЛ дергать, ни код писать вообще особо не нужно. Так что вопрос - как мне вкатиться в ML и "настоящий" дейта саенс вообще? Стоит ли начинать с питона, или к тому моменту как я успею набрать сколько-то пристойные скиллы - все будут писать на джулии или чем-то таком и мне будет нечего предложить? Есть ли смысл продолжать учить VBA в надежде на то, что я хотя бы базовые CS-скиллы (типа ООП, которого я никогда не понимал) наверстаю? И не выйдет ли, что я вкачусь в джуниоры к 30 годам и буду кому-то нужен до следующей рецессии?
Аноним 24/06/20 Срд 13:15:04 1732477426
Всем привет. Не знаю куда задать этот вопрос. Мне кажется ваш тред ближе всего.
Вопрос про искусственный интеллект. Подскажите, почему нельзя создать симуляцию планеты в момент зарождения жизни и ускорить течение времени в симуляции, чтобы жизнь развивалась там и лет за 10 нашего времени прогресс внутри симуляции дошёл до какого-нибудь подобия интеллекта.
Можно не создавать миллиарды этих клеток, можно установить лимит максимум на 10 автономных организмов, но увеличить шанс мутаций днк в миллионы раз, чтобы эволюция шла быстрее. Неужели современные 64-ядерные интули не потянут такую симуляцию? Умные дядьки ведь смогут оптимизировать некоторые процессы. Например пока клетка живёт, она атомарна и неделима, просто цельная сущность, выполняющая примитивные функции жрац() и срац(). И лишь в момент деления мы подгружаем её структуру, днк и всё такое.
Аноним 24/06/20 Срд 13:27:52 1732490427
>>1732477
потому что мы не знаем как работает сознание. потому что оно возможно вообще квантовое
Аноним 24/06/20 Срд 13:28:45 1732491428
>>1732451
>Внутри корпы, скорее всего, двигаться некуда - разрабатывают методологию и пишут приложения, в которых мы моделируем, мужики за 30 лет с PhD по математике и знанием полного стака разработки, в эту команду я не попаду
Почему? В таких командах часто нужны люди, вилкой разгребающие разного рода мусор. С парой пет-проектов можешь попробовать поговорить с начальником того отдела, главное совсем дубом не быть. А потом перекатишься в место повеселее, обладая уже строчкой в резюме.
Только учитывай, что начальница скорее всего твой враг, потому что она не захочет отпускать толкового парня.
Аноним 24/06/20 Срд 13:37:14 1732510429
>>1732477
>Можно не создавать миллиарды этих клеток, можно установить лимит максимум на 10 автономных организмов, но увеличить шанс мутаций днк в миллионы раз, чтобы эволюция шла быстрее.
Попробуй облучать своего песика жесткой радиацией, чтобы он быстрее эволюционировал. От таких мутаций твои организмы просто функционировать не будут. Чтобы сделать что-то дельное таким способом, нужны миллиарды организмов в течение миллиардов лет, даже если ты в 1000 раз это ускоришь каким-то образом, будет миллион лет симуляции, ну удачи.
Аноним 24/06/20 Срд 13:39:59 1732513430
B.F.SkinneratHa[...].jpg (13Кб, 267x293)
267x293
>>1732490
> потому что мы не знаем как работает сознание.
"Мы" это ты с протыкласниками? Пикрелейтед в целом все пояснил за эту тему, дальнейшее развитие его идей в форме relational frame theory не только концептуально объясняет что такое "сознание", но и имеет объективные инструменты работы в этом направлении, уточнения уже полученных результатов и получения новых.
> потому что оно возможно вообще квантовое
Хуянтовое. Объяснять один ничего не объясняющий термин через другой, так же ничего не объясняющий, при этом считать, что сказал что-то более весомое, чем пук в лужу, как называется эта болезнь?
Аноним 24/06/20 Срд 13:40:35 1732514431
>>1732513
> протыкласниками
Понятно. Иди делай condom snorting challenge. Дальше этого слова не читал, скрыл
Аноним 24/06/20 Срд 14:04:56 1732530432
15900478866930.jpg (59Кб, 707x687)
707x687
>>1732514
> Иди делай condom snorting challenge.
Это ваша зумерская манякультура, мне чуждая.
Аноним 24/06/20 Срд 14:22:45 1732558433
>>1732513
>Однако куры клевали фишки, еноты мыли их, а свиньи пытались закопать.
Орнул с этого вговнемоченого.
Аноним 24/06/20 Срд 14:23:51 1732561434
>>1732513
И чо и чо, в каком виде мыслеформы хранятся?
Аноним 24/06/20 Срд 15:11:35 1732604435
15921035710820.gif (391Кб, 652x562)
652x562
Аноним 24/06/20 Срд 15:50:10 1732626436
>>1732451
>Так что вопрос - как мне вкатиться в ML и "настоящий" дейта саенс вообще?
Берешь первое место на кагле и выбираешь работодателя.
24/06/20 Срд 16:17:11 1732641437
>>1732513
Это тот чувак, которого унизил и разгромил Чомский?
Аноним 24/06/20 Срд 17:17:24 1732711438
>>1732641
> фуфлосов-пиздабол разгромил практика
Лол, самому не смешно писать такое? Дупин у тебя Ньютона не разгромил случайно? А то тоже вещал, что духовный человек может летать, а гравитацию придумал феминист (((Ньютон))).
Аноним 24/06/20 Срд 17:28:03 1732726439
>>1732711
>а гравитацию придумал
Орнул. Долго там Ньютон придумывал гравитацию?