Программирование


Ответить в тред Ответить в тред

Check this out!
<<
Назад | Вниз | Каталог | Обновить тред | Автообновление
503 44 120

НЕЙРОНОЧКИ И МАШОБ ТРЕД №23 /ai/ Аноним 18/03/20 Срд 08:14:27 16356851
1.jpg (215Кб, 1386x881)
1386x881
2.jpg (130Кб, 905x505)
905x505
Number23.jpg (21Кб, 259x383)
259x383
Очередной тред про хипстерские технологии, которые не работают.

Я ничего не понимаю, что делать?
Вкатывальщики импортят slesarplow as sp по туториалам (хотя сейчас актуальнее keras и pytorch)
Толковые качают из репозитория awesome-XXXX на гитхабе проект какого-то китайца, меняют фамилию и получают $10M инвестиций как стартап.
Умные смотрят prerequisites на https://see.stanford.edu/Course/CS229 и http://cs231n.stanford.edu/

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus.

Почему python?
Исторически сложилось

Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала

В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. На март 2020 Google Colab дает бесплатно аналог GPU среднего ценового уровня (что-то между 1050 и 1080) на несколько часов с возможностью продления.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Предыдущий:
https://2ch.hk/pr/res/1614936.html

Архивач:
http://arhivach.ng/thread/412868/
Остальные в предыдущих тредах

Там же можно найти треды 2016-2018 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"
Аноним 18/03/20 Срд 11:38:30 16357922
Объекты представлены неупорядоченными наборами строк. Как сходство на них придумать?
Аноним 18/03/20 Срд 11:57:05 16358173
>>1635792
Что за строки хоть? IoU какой-нибудь, если одинаковые строки встречаются в разных объектах.
Аноним 18/03/20 Срд 12:35:09 16358554
>>1635792
Строки сами покажи. А то может тебе расстояние левенштейна пойдет, а мы тут йоба-эмбеддинги советовать будем
Аноним 18/03/20 Срд 14:33:44 16359815
Поясните за сети с вниманием, как оно реализовано?
Аноним 18/03/20 Срд 15:53:20 16360596
>>1635981
В простейшем случае есть один тензор - типа данные, есть второй тензор - типа внимание. В случае self attention ты получаешь их из предыдущего слоя. Типа

danniye = Dense(input)
attention = Dense(input)

Далее умножаешь почленно output = danniye * sigmoid(attention). Сигмоид имеет значение от 0 до 1, таким образом ты как бы накладываешь бинарную маску на danniye, какие-то данные пропуская, а какие-то обнуляя. Это называется attention gate

В более сложном случае у тебя есть аж 3 тензора, Q (это тот, который danniye), а еще K и V (ключ и значения - типа ассоциативная память) и формула сложнее

softmax(Q K' / sqrt(n)) V

Но суть примерно та же - ты из входного запроса какую-то информацию фильтруешь, какую-то пропускаешь.

Прелесть всей этой хуйни в том, что это что-то типа сверток, но если свертки жестко связывают нейрон следующего слоя с локальной областью предыдущего, то аттеншен позволяет иметь гибкие связи хоть с другим концом слоя. Это больше отвечает естественным языкам, которым пространственная инвариантность сверток не особо нужна.
Аноним 18/03/20 Срд 16:45:27 16361407
>>1635855
Йоба-эмбеддинги я и сам строить умею. Это символьные строки, латиница, притом неочищенные - как извлекли, так и подаём, может быть вообще ложное срабатывание и абракадабра. На объектах есть разметка, что похоже, что непохоже. Так что я свожу каждую строку в вектор (через lstm), дальше из этого набора векторов строю один (через self-attention). Но, может, есть более разумные способы работать с неупорядоченными множествами?
Аноним 18/03/20 Срд 16:50:21 16361498
Аноним 18/03/20 Срд 19:49:34 16362849
>>1634712 →
Ага, я в принципе все понял, кроме "порядка размера буквы", что ты под этим имел ввиду?
Алсо, таки получилось вместе с BERT запустить обучение, не стал заморачиваться и сделал через dense слой все, оно даже учится.
Думаю features с inception можно еще склеить с текстом попробовать.
Обучается все это не очень быстро, кстати.
Аноним 18/03/20 Срд 19:52:04 163628910
>>1636140
Это ты логи парсил что ли? Выглядит разумно.
Аноним 18/03/20 Срд 19:53:35 163629411
>>1636284
Ну нужно рассчитать какое поле на входе имеет нейрон, в пикселях и это поле должно быть таким чтобы покрывать букву с запасом
Аноним 19/03/20 Чтв 01:10:06 163671012
>>1635685 (OP)
Я вам название придумал
Трясуны Черных Ящиков
Аноним 19/03/20 Чтв 01:55:42 163673313
>>1635792
Можно взять попарные косинусы и отсортировать, или брать от этого множества всякие статистические фичи.
Аноним 19/03/20 Чтв 08:02:58 163677314
Аноним 19/03/20 Чтв 12:38:17 163691515
>>1636773
Биоинформатики это химики из мира айти. Вы - дресировжики из мира айти..
Аноним 19/03/20 Чтв 13:54:21 163699316
originaldrawnby[...].jpg (54Кб, 512x1024)
512x1024
originaldrawnby[...].jpg (49Кб, 512x1024)
512x1024
Вечер в хату, котаны. Есть датасет, но я его вам пока не дам. Овер 17к картинок. Все отобранные вручную за пол года. Есть pix2pixHD, прикрутил к ней аугментацию- поворот на +-30 градусов, смена гаммы, контраст, все дела. Есть palit 1080 (да, уже соснул). Треню в разрешении 512 на 1024, все вроде норм, все красиво, только осталось тренировать 40 дней. на самом деле я уже запускал тест на меньших выборках 256 на 256 и за пару дней там все было норм.
Кароче, вопрос к знатокам- как это все дело вывести в онлайн на сервер под cpu или, если есть возможность- на свой комп для обработки, а ля бот для телеграма или что-то подобное?
В онлайн взаимодействии клиент-сервер я почти ноль, могу написать на php хелло ворлд и поиграть с шрифтами в html/css.
Нужно сделать что-то типа вот этого deepnudeonline.com
Модель можно экспортировать в onnx.
Аноним 19/03/20 Чтв 14:37:19 163704417
>>1636915
Сейчас бы у петуха, который не знает нихуя ни про биоинформатику, ни про ML, спрашивать мнение
Аноним 19/03/20 Чтв 14:49:17 163705718
>>1636993
> прикрутил к ней аугментацию- поворот на +-30 градусов, смена гаммы, контраст, все дела
Ты неправильно делаешь аугментацию, 20% картинки это черный фон. Нужно кропать после поворота. А чтобы при повороте на такой большой угол не пришлось кропать так много, проще разбить картинку на несколько поменьше с перекрытием. После обучения отмасштабируешь

>Кароче, вопрос к знатокам- как это все дело вывести в онлайн на сервер под cpu или, если есть возможность- на свой комп для обработки, а ля бот для телеграма или что-то подобное?
Это тебе в веб-программистам нужно, потому что вызвать predict у нейронки не отличается ничем от любого другого процессинга на сервере
Простейший подход это https://blog.keras.io/building-a-simple-keras-deep-learning-rest-api.html
Дальше пишешь простейший фронтэнд на жс, который берет картинку и делает запрос к этому бэкенду

Минус подобной хуйни в том, что сервер подвиснет на время обработки, и его очень легко завалить кучей запросов. Правильно реализовать очередь. Делается это тоже элементарно в принципе и должен быть похожий репозиторий на гитхабе, но мне лень его тебе искать. Ищи по запросу типа "flask deep learning", или как-то так
Аноним 19/03/20 Чтв 14:55:11 163706819
>>1636993
Собственно даже по правой картинке видно, что на правой картинке выросла черная опухоль на сиське. Это результат твоей агументации
Аноним 19/03/20 Чтв 15:12:20 163707820
>>1637057
спасибо за советы, возможно стоит так и сделать с перекрытием, но сама идея была делать именно 1024 на 512.
Почему-то мне кажется, что черные фоны по углам не так сильно повлияют на итоговый результат, просто будет отсеивать их нейронка. Да и это картинка после 2 дней обучения, когда мне еще 40 делать по хорошему- 200 с lr стандартным и потом еще 300 поколений на уменьшение. Хочу сделать качественно, зачем и прукручивал аугментацию, да еще с рандомным масштабированием. На меньшем масштабе если отбирать только примеры "анфас" оно не давало артефактов ни разу, после прохождения 6 дней обучения и без аугментации, так что я почти уверен, что это дело просто в недообученности.
Аноним 19/03/20 Чтв 15:36:20 163710021
>>1637078
>спасибо за советы, возможно стоит так и сделать с перекрытием, но сама идея была делать именно 1024 на 512.
Подумай, как работает свертка. У тебя выходной пиксель зависит от квадрата на входе, размер этого квадрата называется receptive field. Больше он ни от чего не зависит. Поэтому ты спокойно можешь кропнуть (не отмасштабировать, а просто порезать) картинку 1024х512 на 2 картинки 512х512 и так обучать обрезанные сиськи. Точно так же ты можешь взять обученную сеть 1024х512 и скормить ей картинку 10240х10240. В массиве весов сверточного слоя нет его размера, поэтому масшабировать можно как угодно, и смысла в конкретном размере картинке нет при условии, что у тебя кроп, а не ресайз)

На самом деле большие картинки чуть выгоднее, потому что у них меньше относительный процент границ. Границы штука хуевая, потому что если у нейрона receptive field выходит за границы картинки, там в пределах этого поля будут нули, что плохо. То есть кайма размером с размер receptive field у тебя работает хуево, на мелких размерах относительная площадь такой каймы больше. Поэтому есть два варианта, либо терпеть эти нули (padding=same), либо обрезать картинку (padding=valid), что слегка уменьшает объем пропускаемых в единицу времени пикселей.

>На меньшем масштабе если отбирать только примеры "анфас" оно не давало артефактов ни разу
Потому что когда ты делаешь ресайз, у тебя в receptive field влизает больше информации. То есть на 256х256 выходной нейрон видит только сиську, а на 1024х512 уже только сосок, если ты архитектуру не менял.
Потому что черные хуйни от поворта, будучи мелкими на 256, становятся большими на 512.

>Хочу сделать качественно
Ну и делай качественно. Качественно - это правдивое распределение на входе, без разных левых мод. Черные квадраты фидить 20% времени - это не самый хороший подход.
Аноним 19/03/20 Чтв 16:14:13 163713422
epoch007inputla[...].jpg (50Кб, 512x1024)
512x1024
epoch007realima[...].jpg (47Кб, 512x1024)
512x1024
epoch007synthes[...].jpg (48Кб, 512x1024)
512x1024
>>1637100
Еще раз спасибо за ответы, я просто совсем слаб в программировании, и только слегка поднаторел в запуске различных pix2pix на винде, будь она неладна.
да, ты прав, возможно стоит переключиться на 512 на 512, включить кроп просто. Я думал, что сеть будет улавливать разницу во входящем разрешении и будет лучше обучаться, если будет помнить, что у тушки грудь сверху и трусы снизу, но это, видимо, не так. (пока разрешение не 1024 на 1024- сним это бы прокатило, но у меня оно не лезет в 8 гб.)
Сразу спрошу глупый вопрос- в той примерной картинке 10240 на 10240 - она ведь должна быть не ресайзнутой, а, например, коллажем из картинок того-же масштаба, с которым работала нейросеть? Просто уже пробовал одну модель так запускать, и она не работала с неизвестным ей масштабом?
>(padding=same), либо обрезать картинку (padding=valid) вот эту терминологию я не понимать. Да, плохо что есть примеры с обрезанными краями, ну пусть один из слоев нейронки занимается тем, что все черные обрезанные края отсеивает. Не думаю, что это сильно нагрузит архитектуру сетки.
>1024х512 уже только сосок, если ты архитектуру не менял.
Вот именно, что менял (точнее я ничего не менял, я просто пользуюсь p2pHD от нвидии, ничего кроме критичных ошибок ШИндоус внутри не исправляю + ну только + аугментацию врезал, всегда можно заккоментить), это я не первую модель меньшего масштаба запускаю, а все по новой. В меньшей модели (моделях, их было много) были только картинки из, например, верхней части + лицо, или только в полный рост.
Ну и про фидить нули- да, я всосал, но счастливые часов не замечают, мне в кайф, что я вообще это запустил. Не бей ногами сильно, я чувствую превосходство, когда со мной разговаривает кто-то опытнее меня. Просто делаю как могу, пусть за меня работает ПК, я уже и так выжат от перебора картинок. Как представлю, что мне их все еще предстоит грамотно порезать, оставив только нужное... Я думал, что может существует софт типа вырезалки лиц по шаблону из deepfake, только для тела, и все что было найдено- это раскрытая архитектура deepnude, которая делает то же самое с помощью каскада из двух или трех нейронок с размеченными буквально вручную телом и сосками, но на такой трудовой подвиг я не готов и мне не хватит програмистских скилов.

Аноним 19/03/20 Чтв 16:27:14 163715423
>>1637134
>Я думал, что сеть будет улавливать разницу во входящем разрешении и будет лучше обучаться, если будет помнить, что у тушки грудь сверху и трусы снизу,
А при чем здесь кроп? Ты же при кропе не переворачиваешь картинку, верх всегда остается верхом.
Посчитай этой хуйней https://fomoro.com/research/article/receptive-field-calculator какой у тебя receptive field выходного пикселя, будешь примерно представлять, от какой области изображения зависит выходной нейрон. Скорее всего этот самый нейрон просто не видит нужную область изображения, чтобы одновременно и сиська и пизда попала в его поле зрения.

>Сразу спрошу глупый вопрос- в той примерной картинке 10240 на 10240 - она ведь должна быть не ресайзнутой, а, например, коллажем из картинок того-же масштаба, с которым работала нейросеть
Да, я про это и писал. На генеративных GAN'ах это вообще охуенно работает и часто дает ебические глюки

>Не бей ногами сильно, я чувствую превосходство, когда со мной разговаривает кто-то опытнее меня.
Я просто разговариваю. Ты молодец.

>которая делает то же самое с помощью каскада из двух или трех нейронок с размеченными буквально вручную телом и сосками
Да, в этом больше смысла. Потому что каждый нейрон в pix2pix довольно слепой, он видит только небольшую область от входной картинки. Соответственно нужно за все слои умудриться классифицировать, что перед тобой - сиська или пизда, и дальше нарисовать что-то, и все это анализируя область что-то типа 64х64 пикселя. Если же помогает сегментатор, который делит картинку на области с разными критериями, все становится сильно проще.
Аноним 19/03/20 Чтв 16:29:53 163715524
>>1636294
> Ну нужно рассчитать какое поле на входе имеет нейрон, в пикселях и это поле должно быть таким чтобы покрывать букву с запасом
Хм, а как это можно сделать? Для меня то, что происходит на верхних уровнях Inception практически тайна.
Аноним 19/03/20 Чтв 16:46:09 163717625
>>1637155
1. https://fomoro.com/research/article/receptive-field-calculator
2. Посчитать руками. С конца идешь и делаешь так

Если сверточный слой
x = x + int((filter_width-1)/2) умножить 2
Если у него stride=2 или это pool слой с шагом два
x = x умножить 2

Вроде не проебался. Так ты посчитаешь, от какой области зависит выходной пиксель от слоя к слою. Чем выше к поверхности, тем больше будет эта область

3. Пропустить через нейронку абсолютно черную картинку, дальше черную картинку 1 пикселем посередине и найти разницу

yoba = np.zeros(shape=(256,256,3))
yoba1 = np.zeros(shape=(256,256,3))
yoba1[128,128,0] = 1
yoba1[128,128,1] = 1
yoba1[128,128,2] = 1

o1 = model.predict(yoba)
o2 = model.predict(yoba1)

Тогда в массиве (o1-o2) дельта будет изменена только в тех нейронах, в receptive field которых попал этот белый пиксель. Несложно понять, что число таких нейронов в 4 раза больше, чем receptive field.

В классифицирующих нейронках это не так актуально, потому в конце у тебя есть fully connected слой, который связывает все изображение воедино, то есть классификатор видит все пространство целиком. А вот сегментирующих, супер-резолюшенах, экстракторах фич и прочих вариантах вида картинка=>картинка, которые масштабируемы, размер поля очень важен, потому что все, что за пределами поля зрения, нейрон (пиксель) тупо не видит.
Аноним 19/03/20 Чтв 17:01:32 163720026
>>1637154
да, есть такое, можно в p2p включить третью картинку с размеченными данным от 0 до 255, но я не знаю, где ее взять- можно взять разницу между картинками. но. не придется ли мне потом каждую картинку, которую я беру для "теста", тоже размечать? Поэтому чето не хочется.
>>1637176 я такие слова вижу впервые. Поробую вкурить. это ndf ngf? Все равно еще раз спасибо, мечешь бисер перед свином.
Аноним 19/03/20 Чтв 18:29:18 163726427
external-conten[...].jpeg (24Кб, 474x502)
474x502
>>1637200
>но я не знаю, где ее взять
Обучить сегментирующую нейронку, какой-нибудь unet простенький с небольшим числом фильтров на наружных слоях, и с большим внутри. Почему так - потому что наружные слои будут работать просто как даунскейл и апскейл, а вот внутренние уже будут более-менее размыто сегментировать. Нужно вручную разметить хотя бы разноцветными кружочками пизду, пупок и сиськи и дальше скриптом это конвертнуть в маску для сегментации. В идеале - прямо всю анатомию обвести. Это с моей стороны пиздеж в пустоту, потому что вряд ли ты будешь размечать так 17К картинок. Твой подход вполне может сработать, просто GAN будет вынуждена сегментировать сама.

>Поробую вкурить. это ndf ngf?
Сначала я подумал о пикрелейтед, лол. Нет, это число фильтров в дискриминаторе и генераторе, а речь об их размере - kernel_size
https://github.com/NVIDIA/pix2pixHD/blob/master/models/networks.py#L145

>Все равно еще раз спасибо, мечешь бисер перед свином.
Свины в треде есть и это не ты. А я очень общие слова тебе говорю, относишь критически.
Аноним 20/03/20 Птн 09:00:19 163770328
>>1635685 (OP)
Машобоёбы, расскажите, пожалуйста, как в CNN определяется первый линейный слой?
Там размерность идёт как выход_с_cвёрточного_слоя х у
Вот эти x, y как определяются?
Аноним 20/03/20 Птн 09:27:57 163771229
141124190515568[...].jpg (151Кб, 839x600)
839x600
Аноним 20/03/20 Птн 09:35:37 163771430
>>1637703
Сверточные слои без активации тоже линейные, если что, ты видимо хотел сказать полносвязный.
В 2D сетке в последнем сверточном слое есть 3 числа - его пространственные размеры (условные пиксели) и число каналов у каждого пикселя. После flatten все эти числа превращаются в один большой вектор размером "длина х ширина х число каналов". Далее у полносвязаного слоя есть параметр его размерность на выходе. Тогда рамер матрицы будет (длина х ширина х число каналов, размерность), итого длина х ширина х число каналов х размерность. Обычно это дохуя и такие слои самые тормозные в модели
Аноним 20/03/20 Птн 09:44:12 163771931
>>1637714
Спасибо.
Вот есть кусок кода:
nn.Conv2d(256, 256, kernel_size=(5, 5)),
nn.ReLU(),
nn.BatchNorm2d(256),
nn.Dropout(0.3),
nn.Flatten(256),
nn.Linear(256, 64),
Линейный слой получается должен быть (256х256х3, 64) ?

И вопрос вдогонку: что делать если идёт мультиклассовая классификация изображений, причём каждое может одновременно относиться к разным классам?
Т.е. есть столбцы для каждого из классов, если изображение к нему относится, там единица, вплоть до всех единиц в "классовых" столбцах.
Можно ли все эти столбцы засунуть в Y_train? Или всё это надо преобразовывать ручками или через PCA?
Аноним 20/03/20 Птн 10:53:46 163775832
>>1637719
>Линейный слой получается должен быть (256х256х3, 64)
Нет. nn.Conv2d(256, 256, kernel_size=(5, 5)) - здесь первый 256 это каналов на входе, а второй - число каналов на выходе. Размер слоя тебе неизвестен, потому что свертке похуй на размеры. Ты можешь в этот слой скормить картинку 10х10, а можешь 10000х10000, он проглотит и не подавится.

Размер соответствующих фич в данном слое будет зависеть размера твоего input_layer'a, а не от параметров сверточного слоя, которому похуй.

Например, если у тебя на входе 1000x1000x256 (не 3, потому что ты написал nn.Conv2d(256, 256, kernel_size=(5, 5))), то на выходе у тебя будет слой размером что-то типа (1000-floor(5/2))x(1000-floor(5/2))=998x998x256. Соответственно и размер линейного слоя у тебя должен быть 998х998х256=254977024, а размер матрицы будет 254977024x64x4=65274118144=65 Гбайт. Кек. В случае многослойной нейронки с постоянным даунскейлом от слоя к слою, такого пиздеца конечно не будет.

Так как считать это вручную бред, то это делают программным образом. Ну или берут keras, в котором ты не считаешь вручную эти размеры, а он за тебя это делает

>И вопрос вдогонку: что делать если идёт мультиклассовая классификация изображений, причём каждое может одновременно относиться к разным классам?
Универсальный ответ, и такой вопрос был недавно, использовать не softmax, который суммируется в единицу по всем классам, а sigmoid, у которого каждый класс независим и может выдавать от 0 до 1. Но это хуевый ответ.
Все сильно зависит от того, какая у тебя структура этих самых классов. Если у тебя есть собаки и коты, и они бывают рыжими и белыми, то проще сделать 4 класса, рыжих собак, рыжих котов, белых собак и белых котов и так далее.
Если же у тебя прямо дохуя тегов, то можно вместо последнего линейного слоя завести их несколько, и в каждом свой softmax классификатор, в котором пересечения классов нет. То есть по сути у тебя будет фичеэкстрактор, а поверх уже отдельные классификаторы - котов и собак с одной стороны, и по цвету шерсти с другой.
Все индивидуально, зависит от задачи и требует экспериментов.
Аноним 20/03/20 Птн 13:41:15 163792733
Аноним 20/03/20 Птн 13:47:25 163793834
>>1637927
>пейпер
Без очередной стотысячной бумажки ты не трясун черных ящиков
Кекнул
Аноним 20/03/20 Птн 13:55:14 163794735
>>1635685 (OP)
Аноны, помогите пожалуйста советом. Изучаю ML около полугода, решил выполнить реальную задачу. Суть в том, что есть собранный датасет с физической активностью людей(есть дата и некий коэффициент активности(т.е. данные достаточно простые)). Нужно на примере одного человека построить функцию, которая при поступлении новых данных (при этом ранее обучившись на старых) могла сказать пользователю, достаточно ли он позанимался сегодня или нет. Я планирую использовать логистическую регрессию. Опытные аноны, подскажите пожалуйста, какой бы вы метод использовали для решения подобной задачи?
Аноним 20/03/20 Птн 14:23:03 163799636
Аноним 20/03/20 Птн 14:55:50 163803637
>>1637996
Блять, да он же на pytorch написан, придется этот код переписать на тензорфлоу, ибо pytorch я ненавижу.
Аноним 20/03/20 Птн 15:02:24 163804638
>>1637947
Я бы нарисовал графики и захардкодил
Аноним 20/03/20 Птн 20:45:55 163843839
>>1637927
Хм, а что такое learned positional encoding, насколько я знаю позиционный энкодинг нужен потому, что модель и понятия не имеет о последовательностях.
Но в имплементации я увидел какую-то хуйню, они создают рандомный тензор через pytorch с размерами (1, 5000, 256), и берут пропущенный через линейный слой тензор и складывают их, пропуская через дропаут, в чем прикол?
Алсо, что в тензорфлоу является аналогом nn.Embedding()?
Аноним 20/03/20 Птн 21:04:28 163848140
>>1637758
>Так как считать это вручную бред, то это делают программным образом. Ну или берут keras, в котором ты не считаешь вручную эти размеры, а он за тебя это делает
Спасибо.
Но помучаю ещё вопросами:
если свёрточный слой идёт первым, и у нас цветные изображения, то слой будет выглядеть как nn.Conv2d(3, 32, kernel_size=(5, 5)) ? Это эквивалентно керасовскому Conv2D(filters=32, kernel_size=(3, 3), padding='SAME', input_shape=(img_size, img_size, 3) ?
> если у тебя на входе 1000x1000x256
Нет на входе у меня 3 канала, просто из дальше будет больше, и картнки 28х28. Т.е. судя по твоему посту будет 78х78х3 = 18252 ?
А размер матрицы 4672512?
Аноним 20/03/20 Птн 21:05:12 163848241
>>1638481
> и картинки 80х80
Быстрофикс
Аноним 20/03/20 Птн 21:55:55 163855242
>>1638481
Все так, кроме того что padding в торце по дефолту нулевой, то есть "valid"
Аноним 20/03/20 Птн 22:02:28 163857143
>>1638552
А вот этот вот размер 78х78х3 полносвязного слоя дальше как сокращать?
Во-первых, соблюдать ли такое же измерение AxBxC?
Во-вторых, как резко его уменьшать? Можно ли сразу до 64 узлов?
Аноним 20/03/20 Птн 23:46:01 163871844
>>1635685 (OP)
Поясните физический смысл параметров трансформера плиз
Почему в голове именно три матрицы, зачем их нужно несколько, зачем residuals, почему это простакать надо шесть раз в енкодере, зачем ещё дополнительный аттеншен в декодере нужен тогда?
Аноним 21/03/20 Суб 01:15:59 163879645
Ну что господа, что там по коровавирусу?
Что предиктят мадельки?
Аноним 21/03/20 Суб 05:42:31 163887346
1584758549795.png (529Кб, 500x616)
500x616
Мде.
Аноним 21/03/20 Суб 06:29:29 163888047
>>1638438
Более-менее со всем разобрался, хотя инициализация рандомом для меня все еще остается загадкой.
Переписал почти все, осталось понять, как результаты вытащить с сети.
> Алсо, что в тензорфлоу является аналогом nn.Embedding()?
И с этим тоже разобрался, embedding_lookup
Аноним 21/03/20 Суб 08:46:13 163889748
>>1638571
>Во-первых, соблюдать ли такое же измерение AxBxC?
Не соблюдать. В остальном вообще без понятия. Посмотри как у других устроено
Аноним 21/03/20 Суб 10:59:30 163894649
AlexNet-1.png (46Кб, 960x540)
960x540
>>1638897
А размерность полносвязного слоя рассчитывается от последнего предшествующего?
Аноним 21/03/20 Суб 11:01:26 163894850
Аноним 21/03/20 Суб 11:05:19 163895251
>>1638948
То есть если картинки идут 80х80 и я 4 раза применю maxpooling, то у меня будет уже размерность 5х5. Сюда количество каналов, правильно?
Т.е. будет их 256, мне понадобится полносвязный слой из 5х5х256 = 6400 узлов?
Аноним 21/03/20 Суб 11:28:14 163896552
>>1638952
>То есть если картинки идут 80х80 и я 4 раза применю maxpooling, то у меня будет уже размерность 5х5.
Только если у тебя свертки между этими пулингами имеют padding "same". Вообще возьми keras, ipython и просто печатай model.summary() для разных вариантов, поймешь, как оно что работает. Или ты думаешь я это узнал каким-то иным образом в свое время?
Аноним 21/03/20 Суб 11:33:33 163896653
>>1638718
>Поясните физический смысл параметров трансформера плиз
Любая архитектура нейронки вводит некоторое предположение о датасете. Язык - изобретение человеков, поэтому скорее всего идеальная языковая модель будет каким-то образом повторять мозг. Но мы не знаем, как работает мозг, поэтому большей частью это эксперименты.
Можно предположить, о чем думали авторы трансформера, хотя скорее всего они думали совсем не так, как я.

>Почему в голове именно три матрицы
Стандартный процесс - сначала упростить работающее решение по-максимуму, чтобы оставить суть, потом усложнить его.
Возьмем LSTM, в котором была решена проблема забывчивости RNN с помощью механизма гейтов, когда стейт не тупо прибавлялся ко входу, а что-то из стейта выкидывалось, что-то сохранялось.
Потом LSTM максимально упростим - выкинем кучу формул (получили GRU), а потом рекуррентность.
Так ты получишь простейший attention gate, который выглядит как input нелинейность(W input), а вся нейронка - это настеканые таким образом слои, с residual связями. Упростить дальше уже сложно.
Дальше делаем одно усложнение - фикцированные веса нейронки заменяем на переменные
input нелинейность((W1input) * (W2input))
Все, остается добавить масштабный коэффициент.
Это работает эффективнее, чем attention gate, вот и используют
>зачем residuals
Это решает проблему vanishing gradients, без этого у тебя пока не обучится самый глубокий слой, менее глубокий обучаться не будет, что вызывает экспоненциальный взрыв времени обучения. Эта хуйня уже в учебниках должна быть, а ты вместо изучения сеток попроще лезешь изучать BERT
>почему это простакать надо шесть раз в енкодере
Потому что это попробовали 5 и 7, было не так оптимально. Сетка моделирует человеческий язык, а у коры головного мозга шесть слоев, то есть шесть довольно волшебное число. Когда была эра мелких нейронок, больше 3-х слоев не юзали, сейчас все обычно крутится вокруг 12 слоев, 6 что-то энкодит, 6 что-то декодит. Это все нумерология без научной ценности, но что-то в этом есть.
>зачем ещё дополнительный аттеншен в декодере нужен тогда
А ты полносвязные слои хочешь ебашить что ли?
Аноним 21/03/20 Суб 11:35:13 163896754
>>1638965
>Вообще возьми keras
У меня pytorch, в который надо готовую модель из кераса перевести, попутно уточнив некоторые детали.
Слабоумие и отвага.
Аноним 21/03/20 Суб 11:41:12 163897055
>>1638967
Какая разница, формулы-то везде одни и те же. Ты можешь эту готовую модель в керасе распечатать через print (model.summary()) и тупо переписать захардкоженные размеры
Аноним 21/03/20 Суб 11:45:13 163897656
>>1638970
Ну в керасе, например, есть dense. А в pytorch приходится считать.
Аноним 21/03/20 Суб 11:46:09 163897757
>>1638976
А в pytorch есть nn.Linear, в чем проблема?
Аноним 21/03/20 Суб 11:54:51 163897858
>>1638977
>в чем проблема
В размере полносвязного слоя. Очевидно же.
Вот тут, например, есть большая керасомодель:
https://www.kaggle.com/shawon10/plant-pathology-eda-and-deep-cnn/notebook
Мне не понятно, какого размера будет полносвязный слой, и вообще, нужен ли он там, потому что если считать, что ядро 3х3 срезает по 1 пикселю, а 5х5 по 2, то учитывая количество свёрточных слоёв, там вообще отрицательные значения долы быть при использовании на картинке 80х80.
Аноним 21/03/20 Суб 12:37:06 163900359
>>1638976
Так керас за тебя и посчитает, максимум тебе придется помнить, что число входных слоев пайторча равны числу выходных слоев предыдущего слоя, да иногда числа поперемножать
>учитывая количество свёрточных слоёв, там вообще отрицательные значения долы быть при использовании на картинке 80х80.
Да, и такая ошибка часто бывает
Аноним 21/03/20 Суб 14:24:26 163910360
>>1639003
Попробую поиграться.
Ну а пока:
>>X_train[0].shape
(80, 80, 3)
>>nn.Sequential(nn.Conv2d(3, 32, kernel_size=(3, 3), bias=False...
Given groups=1, weight of size 32 3 3 3, expected input[150, 80, 80, 3] to have 3 channels, but got 80 channels instead
ШТО
Аноним 21/03/20 Суб 14:41:42 163912361
Реквестирую годный учебник\и по матану и линалу для сабжа. Нужно чтоб в учебнике были и детальные пояснения для даунов и задачи по темам. Пример идеального учебника - "Introduction to Probability" от J. Blitzstein
Аноним 21/03/20 Суб 14:54:19 163915162
>>1639123
Ищи книги E. Zopenshmulcera
Аноним 21/03/20 Суб 15:05:05 163916963
Аноним 21/03/20 Суб 16:34:10 163931564
Как перейти от размерности изображения (28,28,3) к (3,28,28)?
Аноним 21/03/20 Суб 16:51:21 163932765
Аноним 21/03/20 Суб 16:52:49 163932866
>>1639327
3 - это каналы
Транспонирование здесь поможет?
Аноним 21/03/20 Суб 17:03:36 163933567
>>1639328
траспонирование переставляет размерности, например твой кейс в нампайе решается как np.transpose(image, (2, 0, 1))
Аноним 21/03/20 Суб 17:11:54 163934168
>>1639103
Ты разобрался уже, но напишу.
Входные данные неверные, бывают NHWC бывает NCHW (N - размер батча, H, W - длина и ширина, C - число каналов)
У тензорфлоу (и кераса) по дефолту NHWC, а пайторча видимо NCHW, поэтому при переписывании кода втупую у тебя эта ошибка
Аноним 21/03/20 Суб 17:13:41 163934269
>>1639341
Ага, теперь я с ней сношаюсь.
>>1639335
Спасибо.
Попробую.
Аноним 21/03/20 Суб 17:20:47 163934970
Что вообще используется в реальном мире? sklearn, слесарьплов? На чем начинать учиться, чтобы сразу щупать практически полезные либы?
Аноним 21/03/20 Суб 17:28:16 163935571
>>1639349
keras либо pytorch
Мне керас больше нравится своим функциональным интерфейсом, как-то логичнее что-ли, но вообще pytorch на коне ща
Аноним 21/03/20 Суб 17:43:36 163936872
Аноним 21/03/20 Суб 21:24:48 163955773
БЛЯТЬ!

хочу пойти аналитиком в нац полицию Украины (или МВД, или в любой отдел Кабинета Министров). Нет вакансий! Я в ахуе суууууука

БЛЯТЬ!
Аноним 21/03/20 Суб 21:32:18 163956374
>>1639557
>аналитик
И что ты там будешь делать?
АНАЛизировать при помощи дубинки моделей?
Аноним 21/03/20 Суб 23:05:46 163965475
15826818317060.gif (170Кб, 326x281)
326x281
>>1639557
> хохол
> зумер вкатывальщик
> воннаби мусор
Тайдмен года, однозначно. Премию Жопеншмульцера в студию!
Аноним 21/03/20 Суб 23:12:55 163966276
>>1639654
Не совсем так
В моём арсенале: 1.5 года дроча на бизнес процессы, графана и кликвью
1 год дроча на статистику, табличные данные и воркфлоу загрузить-препроцесс-линейная модель-валидейт-репорт.
Ну и до этого по мелочи в айти катался, в эмбеддед, 2 года

А захотелось в какую-то гос структуру пойти - в ахуе, даже не понял где вакансии, хоть и нагуглил .gov сайты со списком всех вакансий.

Такое чувство, что государство работает с third party айти конторами, у себя никого не держит

>>1639563
Ну блин, задачка сан франциско крайм классификейшн - очевидный кейс
Проанализировать обращения
Эффективность патрулирований
Какие нарушения чаще всего, где сделать упор
Где впустую работают люди
Да и вообще оценить процессы - наверняка там полный распиздос

Да, это влажные фантазии! Но то что вакансий нет - надо разобраться
Аноним 21/03/20 Суб 23:20:59 163966977
>>1639662
>сан франциско крайм классификейшн
>Эффективность патрулирований
>Где впустую работают люди

А ХАБАРЯ брати це як допоможе?
Аноним 21/03/20 Суб 23:35:47 163967878
>>1639654
Я думал ты умер, куда пропал
Аноним 22/03/20 Вск 04:19:33 163974979
>>1638880
Антоны, так может ли кто-нибудь пояснить за этот learned positional encoding и почему там используется рандом?
Аноним 22/03/20 Вск 10:33:20 163980380
7fd9c029707647e[...].jpg (55Кб, 635x592)
635x592
>>1639662
> Ну блин, задачка сан франциско крайм классификейшн - очевидный кейс
> Проанализировать обращения
Ага, получишь 97% нигр как причину преступности, пойдешь с этой статистикой к начальству и сядешь за расизм. СЖВ скрепы это швитое, нитрожь!
Аноним 22/03/20 Вск 12:42:13 163984881
Антоны, я же в тензорфлоу могу использовать tf.keras.layer.embedding? Не будет никаких конфликтов? Мне из кераса только это нужно и больше ничего.
Аноним 22/03/20 Вск 13:00:18 163985782
Кто-нибудь, объясните, зачем в керасе придумали архиуёбищную идею неявной передачи маски в модели? Неужели сложно было добавить её явно для рекуррентных сетей как аргумент __call__ и дополнительный входной вектор, а не пытаться угадать по входным данным и прокинуть её неявно, причём на это далеко не все слои способны?
Аноним 22/03/20 Вск 18:19:01 164007083
image.png (7Кб, 701x101)
701x101
>>1639749
А, я таки сильно затупил, теперь понял тот код.
Да, в таком виде это имеет смысл, к каждому батчу применяется один и тот же набор рандомно сгенерированных значений.
Не заметил цифру 1 в начале, лел.
Аноним 22/03/20 Вск 22:06:43 164029384
>На текущем железе - никогда, тред не об этом

А вот тут подробнее. Уже есть архитектура и понимание принципов работы? Где почитать moar?
Аноним 22/03/20 Вск 22:58:46 164033885
Можно ли гонять сетки на старых GPU?
Даже при torch.backends.cudnn.enable = False
Выдаёт cuDNN error: CUDNN_STATUS_ARCH_MISMATCH
Аноним 22/03/20 Вск 23:25:39 164036186
>>1640338
На насколько старых? На Kepler/Maxwell все вроде должно работать
Аноним 22/03/20 Вск 23:31:13 164036387
>>1640361
Да вроде кеплер.
Нашёл такое
TF requires cudnn which requires a cc3.0 gpu. Your cc2.1 gpu is nearly useless with TF.
Всё плохо?
Аноним 22/03/20 Вск 23:45:04 164036888
>>1640363
Ставь старый тензорфлоу, который поддерживает твою некро GPU
Аноним 23/03/20 Пнд 00:02:56 164037589
Dimension out of range (expected to be in range of [-4, 3], but got 256)
[-4,3] из-за слишком большого пулинга?
Аноним 23/03/20 Пнд 01:44:07 164042190
А что будет если вместо деревьев в random forest обучать бустинги?
Ну т.е. просто обучать отдельные бустинги на подвыборках, а потом их смешивать?
Качество не должно возрасти?
Аноним 23/03/20 Пнд 11:04:42 164053791
Аноним 23/03/20 Пнд 12:08:31 164057792
Антоны, что является в тензорфлоу аналогом scatter_ из пайторча?
Чет не могу найти подходящий метод
Аноним 23/03/20 Пнд 13:06:00 164062593
>>1640577
Посмотри gather и gather_nd.
Аноним 23/03/20 Пнд 13:15:19 164063994
>>1640625
Так они же делают все наоборот.
Аноним 23/03/20 Пнд 13:56:20 164067295
>>1640375
Вряд ли, скорее число фильтров не там написал
Аноним 23/03/20 Пнд 14:36:24 164069496
>>1640639
Что они наоборот делают? Они вытаскивают из тензора те части, которые указаны, разве scatter не тем же занимается?
Аноним 23/03/20 Пнд 14:38:33 164069797
>>1640694
Мне нужно наоборот запихнуть в тензор значение 1 на выбранные позиции по определенным индексам.
Аноним 23/03/20 Пнд 15:17:31 164072298
Безымянный.png (46Кб, 604x453)
604x453
Извиняюсь за, возможно, нубский вопрос, но тут вот что. В классическом SVM решается задача условной оптимизации с отступом, выраженным через скалярное произведение. Получается пикрил, с которым уже удобно работать численно. У меня не получилось его вывести самому, поэтому не понял, можно ли сюда подставить ядро или с ядрами другой функционал будет?
Аноним 23/03/20 Пнд 16:49:36 164079099
>>1640697
Ну в общем-то я подумал и решил, что это все будет куда сподручнее сделать в NumPy или в том же торче и нужные значения записать в tfrecord, чем сидеть и думать над такими операциями.
Думаю только, что размер датасета увеличится и обучение станет куда менее гибким
Аноним 23/03/20 Пнд 20:19:34 1640985100
Напомните ещё раз про обучение, валидацию и тестирование на pytorch.
При обучении мы пишем:
model.train()
for images, labels in train_dataloader:
outputs = model(images)
loss = criterion(outputs, labels.squeeze(-1))
loss.backward()

При валидации и тестировании тоже циклы нужны?
Или просто
model.eval()
test_output = model(test_images)
?
Аноним 23/03/20 Пнд 22:52:15 1641135101
>>1640790
Чет идея была не очень, да и способ кодировки хуевый на самом деле, в случае японского даже с кодировкой по символу получаются таблицы из одной единицы и 3000 нулями
Аноним 23/03/20 Пнд 23:35:07 1641184102
>>1640722
С ядрами там двойственная задача такая же, только вместо скалярного произведения <x,y> там K(x, y). Для вывода двойственной задачи нужно записать ККТ для прямой задачи
Аноним 23/03/20 Пнд 23:41:51 1641189103
>>1640985
>При валидации и тестировании тоже циклы нужны?
да, там тоже используется даталоадер
>При обучении мы пишем:
про шаг оптимизатора забыл
Аноним 24/03/20 Втр 00:03:06 1641198104
>>1641189
Спасибо.
>да, там тоже используется даталоадер
А как тогда предсказывать и записывать результат в файл?
Аноним 24/03/20 Втр 01:07:31 1641223105
>>1641184
Так я и записал. Даже решил вроде как, но вот так красиво подставить, чтобы получилась именно такая двойственная задача, не вышло. Спасибо.
Аноним 24/03/20 Втр 03:18:39 1641242106
>>1641198
У тебя есть датасет для твоих данных, его метод __getitem__ может возвращать не только тензор, но и индексы
Аноним 24/03/20 Втр 09:33:34 1641296107
Эй, пердолики. Какого это осознавать, что вы всего лишь паразиты от мира искуственного интеллекта? Что вы ковыряетесь в примитивной технологии 50-летней давности, для которой только недавно появились вычислительные мощности, и которая никакого отношения не имеет к ИИ? Что вы фактически ковыряете свои нейроночки(давайте называть вещи своими именами - перцептроны) по рандому в надежде на чуть лучший результат, тогда как нормальный прогер-бэкэндер реализует сложнейший алгоритм, ну и получает за это на порядок больше. Что ваши нейроночки не способны ни на что кроме распознавания картиночек, звуков, генерирования смешных паст со случайным набором слов, и аппроксимации дискретных функций. Что они бесконечно далеко от нормального ИИ - когнитивных вычислений, семантических сетей, совершения умозаключений, естественного языка.
Аноним 24/03/20 Втр 09:37:08 1641301108
>>1641296
> Что ваши нейроночки не способны ни на что кроме распознавания картиночек, звуков, генерирования смешных паст со случайным набором слов, и аппроксимации дискретных функций
А ещё сложнейшие оптимизационные задачи, где без черного ящика не обойтись и благодаря которым компании повышают прибыль на миллионы долларов. А так конечно нихуя.
Аноним 24/03/20 Втр 09:42:46 1641307109
>>1641301
В чем сложность задачи, если ты над ней не размышляешь строго? Ты ковыряешь нейроночку из каких-то случайных эмпирических соображений до тех пор, пока она не начнет выдавать лучшие результаты, что не гарантировано. Про миллионные прибыли - это да. Миллионы можно заработать, продавая лохам землю на Лун. Прибыль - не показатель сложности задачи, решенной для ее получения.
Аноним 24/03/20 Втр 09:45:44 1641308110
>>1641307
Модель это и не самое сложное и долгое, чем занимаются дата саентисты в фирмах.
Аноним 24/03/20 Втр 09:45:56 1641309111
Аноним 24/03/20 Втр 09:55:40 1641311112
>>1641309
То есть статистику дата-саентист не знает? Что может доказать или опровергнуть одиничный пример? Ты хочешь сказать, что каждая рядовая дата-саентист-макака проводит подробный математически строгий анализ того, что она делает, и находит подобные оптимизации?
Аноним 24/03/20 Втр 10:02:39 1641316113
>>1641311

В данном конкретном случае есть четырехколесное ведро, в него нужно вставить пихло, пихло должно быть дешевым и иметь требуемое количество лошадей и динамику что бы ведра купили.

Ведро нужно продать завтра.

На полноценное изучение математической модели свежеизобретенного пихла и вынработке оптимальной методики управления уйдет столько ресурсов и человекочасов что пихло с ведром выйдет золотым и через год.

Машинное обучение позволяет, нихуя не делая и зная лишь примерно безопасные пределы пердящего выххлопными двигла, на стенде подрочить месяцок и получить готовую прошивку. LOLIMOT Же позволяет обеспечивать постпродажную адаптацию так, что счастливый владелец буден наваливать и горя не знать, пока у него ведро по кругу сыпаться не начнет.
Аноним 24/03/20 Втр 10:53:07 1641340114
>>1641316
Страшные ты вещи анон рассказываешь. Твои истории пахнут вырождением специалистов.

Мимопроходил.
Аноним 24/03/20 Втр 11:19:18 1641359115
15849020049110.jpg (52Кб, 600x436)
600x436
>>1641316
> . LOLIMOT
Шизло, нейрофаззи алгоритмы это такой же машобчик. Что у тебя в наплечной параше вместо мозгов, армяне в нарды играют, или что, что ты один класс алгоритмов машоба противопоставляешь всему машобу как явлению? Выпей таблетки, маня, да открой для себя no free lunch theorem.
Аноним 24/03/20 Втр 11:42:45 1641388116
>>1641340

И вот сейчас ты для себя открыл реальные причины истерии с коронавирусом.

Да, подавляющее большинство инженегров-специалистов - бумеры старперы.

Зумота не может спроектировать новый бэнве.

Даже у маска ключевые сотрудники - насовские диды как минимум заставшие маслятами апполон.

Зумота - сплошь вротэндеры.

Помрут бумеры - наступит неиллюзорный мэд макс.


Аноним 24/03/20 Втр 12:41:50 1641452117
KcAAAgLiIuA-960[...].jpg (54Кб, 960x343)
960x343
1281842075890.jpg (6Кб, 200x160)
200x160
>>1641309
>Для модели 1 вес нейрона смещения = 8.0, а вес нейрона входа 1 = -25.0
>Ну — я просто посмотрел на график.
Где он -25.0 увидел?
Аноним 24/03/20 Втр 13:04:25 1641478118
>>1640790
Блять, я тупой, в проекте был просто one hot encoding
Аноним 24/03/20 Втр 15:57:30 1641619119
>>1641296
Мне наплевать на ИИ. Это к Курцвейлу и прочим фантазерам.
Аноним 24/03/20 Втр 17:14:52 1641689120
>>1641296
Ну ты, например, паразит этого треда, который даже 0,1% не умеет того, что умею я. Соответственно все твои теоретизирования о "когнитивных вычислений, семантических сетей, совершения умозаключений, естественного языка" не стоят вообще нихуя, говнофилософ. Примерно как первоклассник, который не понимает, почему взрослые не могут напечатать денег, чтобы конфеты были у всех.
Аноним 24/03/20 Втр 17:21:27 1641698121
>>1641689
>что умею я
Сальтуху крутишь?
Аноним 24/03/20 Втр 17:44:42 1641729122
>>1641689
> почему взрослые не могут напечатать денег
Лол, так пендосы делают.
Аноним 24/03/20 Втр 21:13:09 1641968123
2WDsLRSpLE.jpg (84Кб, 600x600)
600x600
Кто-нибудь GAN'ами занимался?
У них круг задач ограничивается изображениями или он шире?
Алсо, я правильно понимаю, что они очень ресурсозатратны и на некрожелезе такие сети не заработают?
Аноним 24/03/20 Втр 21:34:51 1642005124
>>1641968
>У них круг задач ограничивается изображениями или он шире?
Почти любую нейронку можно превратить в GAN, потому что по сути это ты заменяешь захардкоженный лосс на нейронку и тренируешь параллельно свою сетку и свой лосс.
Просто не всегда есть в этом смысл, есть же вещи попроще, например VAE, при этом VAE страдают от недостатка высоких частот, но зато проще тренируются и не всегда это проблема.

>Алсо, я правильно понимаю, что они очень ресурсозатратны и на некрожелезе такие сети не заработают?
Да не особо. Главная их проблема в том, что их тренировка это шаманизм
Аноним 24/03/20 Втр 22:25:58 1642057125
А много кто в дс работает дата саентистом?
Посоветуйте, что нужно чтобы на джуна вкатиться, сейчас курс Воронцова из шада смотрю, там около 24-25 лекций, я на четвертой сейчас. Параллельно тупые задачки в sklearn делаю. Что делать дальше? И какие вообще сферы есть, я так понимаю это
1. банки, тряска экономических черных ящиков?
2. cv, все, что с изображениями и зрением связано
А что ещё?
Аноним 24/03/20 Втр 22:36:55 1642072126
>>1642057
В дс2 работы хуй да нихуя.
Всем сеньоров подавай.
Хотя вакансии крутые есть.
Аноним 25/03/20 Срд 01:37:54 1642191127
image.png (84Кб, 900x740)
900x740
Посоны, можете объяснить смысл этих операций?
Зачем мы берем и инициализируем output_weights и перемножаем его с выходом слоя?
Аноним 25/03/20 Срд 13:55:10 1642426128
>>1642005
>Почти любую нейронку можно превратить в GAN
Не любую, а только если у неё непрерывные выходные данные, чтобы через них градиент прокинуть можно было. Например, в задачи генерации текста их не всунуть.
Аноним 25/03/20 Срд 15:20:16 1642504129
>>1642057
Работы много. но на волне хайпа огромная куча джунов.
Аноним 25/03/20 Срд 15:39:07 1642512130
Посоны, а что на лейблы подавать трансформеру, когда он не учится?
Тупо создать тензор и маску из единиц?
Аноним 25/03/20 Срд 19:17:35 1642694131
15851519116830.mp4 (6198Кб, 1280x720, 00:00:27)
1280x720
Анон, это же дипфейк?
Аноним 25/03/20 Срд 19:34:48 1642707132
>>1642694
Я в прямом эфире это видел.
Аноним 25/03/20 Срд 19:35:46 1642708133
>>1642707
Напротив сидел что ли?
Аноним 25/03/20 Срд 20:28:46 1642745134
>>1642694
> Анон, это же дипфейк?
Везде в связи с эпидемией власти людям финансовую помощь выделяют, а у пыньки мысли только как бы ещё побольше навариться на пиздеце. Вот уж реально, "кому война, кому мать родна"...
Аноним 25/03/20 Срд 21:21:38 1642786135
>>1642426
Как ты собираешься тренировать нейронку бэкпропагейшеном, если у нее не непрерывный выход?
Аноним 25/03/20 Срд 21:22:29 1642787136
>>1642191
Это просто dense-слой. У тебя совсем дыра в основах, если ты этого не понимаешь
Аноним 25/03/20 Срд 21:28:54 1642793137
>>1642745
а которых цепочка тоже не замыкается.
Аноним 25/03/20 Срд 21:28:02 №1642792
>>1642780 →
Так я сам как-бы уже месяц как написал заявление об увольнении, но не подаю его из-за того что хикка и боюсь подойти и сообщить начальнику что хочу уволиться.
>>1642782 →
Ну, как-бы, я-то работать пошел исключительно из интереса посмотреть как он
Аноним 25/03/20 Срд 23:43:16 1642835138
>>1642694
Сегодня слышал как коллеги по офису это обсуждали. Не думаю, что дипфейк
Аноним 26/03/20 Чтв 00:07:48 1642849139
1QyTr6JbNP1PaPI[...].gif (2576Кб, 1478x831)
1478x831
1812u304h.gif (3154Кб, 1200x675)
1200x675
Есть несколько задач для ML, буду описывать каждую отдельно, так как друг с другом они не связаны.

Питон я не знаю, но программированием занимался очень долго. На руках топовый домашний комп с Windows 10. Перезагружаться в Убунту очень не хочется, но могу, если выбора не будет. Как я понимаю, часть Питоновского кода в принципе не работает под Виндой.

Первая задача
Есть один сет с изображениями. Для каждого изображения создана png-маска такого же разрешения, что изображение, там magenta-пикселями залиты нужные области с объектами (допустим, я ищу котов). То есть есть картинка 0001.png и рядом (или в другой папке, не важно) 0001.mask.png. Как мне натренировать сеть искать похожие объекты на других картинках? Допустим, дата-сет на 1000 картинок. Задача крайне тривиальная, просто скиньте любую статью, где решается эта проблема (поиск похожих паттернов / распознание объектов). Я находил на Швабре примеры, но там в какую-то ебанину всё скатывается постоянно.

Вторая задача
Есть сет с изображениями.
Для каждого изображения совершенно другая программа построила набор фич. Ну от балды скажем 20 фич, каждая в пределах от 0 до 1. Допустим, рядом с каждым файлом 0001.png лежит 0001.tsv, где фичи перечислены через табуляцию.
Каждое изображение категоризируется в три корзины: 0 (нет), 1 (да) и 2 (в зависимости от интерпретации человека либо да либо нет).

Третью корзину я, допустим, выкину из сета. (Как вариант: буду учить две сети, в одной спорный сет пойдёт в 0, в другой — в 1). Мне нужно категоризировать все изображения, но кроме самой картинки я хочу подать на вход эти 20 фичей (я осознаю, что для, допустим, нейронки нет разницы между одним числом и другим числом). Опять же, тривиальнейшая задача, но раньше я никогда не решал ML-проблемы. И снова: просто скиньте статью. Крайне желательно, чтобы там также подавались отдельные ручные фичи.

Есть третья задача, но её я опишу завтра, она сложнее

Заранее спасибо за ответы. С меня как обычно.
Аноним 26/03/20 Чтв 13:15:23 1643044140
>>1642787
Да я уже понял, ток странно, что его так реализовали, а не дефолтными способами.
Алсо, есть ли какие-либо способы работы с трансформером в режиме предсказания кроме как энкодить картинку и по символу, пока трансформер не предскажет конец строки использовать декодер?
Аноним 26/03/20 Чтв 16:45:52 1643222141
Здравствуйте, мне нужно убрать вспышку с фотографии. Подскажите, пожалуйста, сайт с нейросетью, где можно было бы загрузить фото и чтобы нейросеть мне вспышку убрала?
Аноним 26/03/20 Чтв 21:28:12 1643519142
>>1643222
Используй фотошоп, Люк.
Аноним 26/03/20 Чтв 21:55:42 1643544143
Анон выручай
Немного не по теме, но на дваче вроде как нет похожего треда
КОРОЧЕ
у меня есть RGBD изображения и все заебись
Мне нужно построить по ним облако точек
ВОПРОС
нужно ли юзать для этого цветосоставляющую компоненту или хватит только глубины?
Если буду с таким вопросом послан нахуй из треда - будет справедливо
Аноним 27/03/20 Птн 00:39:36 1643645144
>>1643044
Бля, в итоге какая-то хуйня получается, генератор тупо одно значение повторяет и все.
Аноним 27/03/20 Птн 00:47:10 1643646145
>>1643645
При том, что при тренировке все работает нормально.
Аноним 27/03/20 Птн 12:41:24 1643824146
>>1642849
>Первая задача
https://medium.com/@arthur_ouaknine/review-of-deep-learning-algorithms-for-image-semantic-segmentation-509a600f7b57
>Вторая задача
Почитай тупо туториалы по нейросетям и документацию используемой библиотеки. У тебя каждый объект распознавания состоит из пары: картинка + вектор признаков. Так что тебе нужно построить сеть, которая обрабатывает картинку, обрабатывает вектор, склеивает результат и дальше ещё работает с ним. Статей по этому нет - научной ценности задача не представляет по причине тривиальности.
Аноним 27/03/20 Птн 13:45:02 1643904147
>>1643824
> склеивает результат
Само собой это тривиальная вещь, только я не представляю что я подаю на вход конечного алгоритма обучения: папку с файлами или я сначала обрабатываю каждый файл с помощью той же библиотеки, получая из него вектор (набор пикселей), а потом уже получившийся промежуточный результат отправляю на конечный алгоритм. Если второе, то задача действительно привиальна. Однако если там в конце метод
learnFromImages(string[] filenames, int[] results)
то задача сразу прекращает быть такой уж тривиальной

За первую ссылку спасибо, сейчас же и почитаю
Аноним 27/03/20 Птн 14:42:26 1643925148
>>1643824
Пробежался по статье, там обзор кучи алгоритмов. Спасибо, но мне бы просто куски кода для обучения и последующего использования
Аноним 27/03/20 Птн 18:36:28 1644071149
featureimage.jpg (307Кб, 1020x520)
1020x520
maskrcnnexample[...].gif (621Кб, 600x530)
600x530
1OKE6wyZFfh2faZ[...].png (745Кб, 831x583)
831x583
1tQ9PotwEr93jwF[...].gif (3484Кб, 420x237)
420x237
Аноним 27/03/20 Птн 23:01:50 1644199150
Аноним 27/03/20 Птн 23:35:25 1644238151
>>1642849
>Задача крайне тривиальная
Вот на этом этапе представляется такой кабанчик из десятых, который за пару баксов хотел чтобы ему склонировали фейсбук, задача-то тривиальная. Это не тривиальная задача, особенно когда у тебя в данных есть перекос, то есть одних классов мало, других много. Ну и еще нужно отличать image segmentation (то есть классификацию отдельных пикселей) и object detection (то есть поиск прямоугольников).
Для сегментации проще всего взять unet.

>Опять же, тривиальнейшая задача
Нде.
Аноним 28/03/20 Суб 00:00:31 1644251152
>>1644199
Судя по ошибке ты должен поменять 6400 на 256.
Аноним 28/03/20 Суб 00:46:02 1644278153
>>1644251
Погоди, но там же была куча свёрточных слоёв, а потом Flatten. Получается первый полносвязный слой должен быть большим, нет?
Аноним 28/03/20 Суб 01:02:10 1644282154
>>1644278
У тебя может размер слоя 1х1
Аноним 28/03/20 Суб 08:28:18 1644356155
>>1644238
тривиальная не потому что простая, а потому что её разбирали 50 раз на том же швабре
Аноним 28/03/20 Суб 09:00:31 1644370156
15853710957340.mp4 (3116Кб, 400x180, 00:06:00)
400x180
MonkaSSS.jfif (52Кб, 695x675)
695x675
Я уж на мгновение подумал, что нейроночки уже научились вокал синтезировать.
Аноним 28/03/20 Суб 09:04:50 1644372157
>>1644282
Может.
Но я брал с каггла другую работающую нейроку (инфа 146%), правда под мнистовские изображения 28х28, и она в данном случае подобную же ошибку выдавала (но с другими цифрами).
Хотя с мнистом она работает сразу, из коробки.
Аноним 28/03/20 Суб 13:20:50 1644483158
>>1644370
Пару лет как научились уже.
Аноним 28/03/20 Суб 13:30:53 1644488159
>>1644483
Чего они только не умеют в теории. На практике один пердёж в лужу.
Аноним 28/03/20 Суб 13:35:38 1644491160
Аноним 28/03/20 Суб 13:54:12 1644500161
Аноним 28/03/20 Суб 14:29:43 1644526162
Есть ли сейчас переизбыток специалистов на рынке?
Аноним 28/03/20 Суб 14:55:54 1644534163
Аноним 28/03/20 Суб 15:46:52 1644575164
>>1644534
Почему "конечно"? Для меня это не очевидно, поясните за ситуацию тогда.
Аноним 28/03/20 Суб 16:13:08 1644594165
>>1644575
Нужны специалисты, а не вкатыши.
Аноним 28/03/20 Суб 17:56:38 1644713166
>>1644594
>Нужны специалисты
Они на деревьях растут?
Аноним 28/03/20 Суб 18:32:27 1644741167
>>1643646
>>1643645
Антоны, есть у кого-нибудь какие-нибудь идеи, почему так может происходить?
Необученная нейронка выдает разные результаты, а вот обученная выдает то же самое значение, которое я подаю на декодер.
Аноним 28/03/20 Суб 19:37:42 1644787168
>>1644500
речь и пение не одно и тоже
Аноним 28/03/20 Суб 20:07:16 1644803169
nagatoandnagato[...].jpg (1620Кб, 1158x1637)
1158x1637
nagatoandnagato[...].jpg (1583Кб, 1158x1637)
1158x1637
Котаны, а как посчитать этот ваш пресловутый receptive field в pix2pixHD?
Я как бы не нахожу тех параметров, которые нужно вводить в калькуляторе, который сюда кидали- ни в переменных, ни в коде.
Там в параметрах есть только ngf ndf по дефолту 64. Моей карточки хватает поднять значения ndf ngf до 90, если уменьшить размер обрабатываемого изображения с 512 на 256. Мне тут недавно один хороший человек подсказывал, что можно так уменьшить размер с 1024 на 512 на 512 на 512 например, но хочется также увеличить мощность сетки. Предположим, что детали изображения могут уместиться в квадрате 256 на 256.
Можно ли еще спросить про ndf и ngf параметры и про работу pix2pix- верно ли я понимаю, что в моем случае дискриминатор учится искать объект на изображении, а генератор- меняет "подсвеченные" дискриминатором пиксели на нужные, точнее активирует некоторые нейроны, которые ответственны за обработку найденных фрагментов изображения. Короче, первый вопрос такой- не стоит ли мне попытаться разделить сетку на две части- одну генерирующую маску, а вторую- разукрашивающую эту маску? Я уже писал, что так сделали авторы deep nude, но они делали это долго на unsupervised обучении. А у меня тут есть база с парными картинками как бы. Может реально бахнуть маску разницы картинок и не дурить голову, пытаясь впихнуть в одну сетку сразу две функции? И код от deepnude уже есть чтобы запускать сразу обе сетки из p2pHD в один клик, и есть опция для подключения тех размеченных областей, как советовал человек тут. По идее на такой выборке будет достаточно просто сделать маску разницы. Если очень захочу, могу разметить картинки сверху и снизу на две разные части одежды, но даже это мне кажется излишним.
Вот еще вопрос в свете всего этого:
Про ndf ngf- с увеличением этих параметров размер файла генератора и дискриминатора увеличивается в какой-то прогрессии, ну с 64 до 90 файл генератора вырос 700 мб до 1400. Это потому, что увеличилось число нейронов на первом слое? И как это влияет на receptive field, роста которого я добиваюсь? И это из-за того, что в данной нейронной сети (архитектуре) pix2pixHD увеличение количества нейронов на первом слое как-то повлияло на количество нейронов на других слоях?
Верно ли я понимаю, что слои могут взять на себя роль распознавания или генерации какой-либо одной функции. которой их обучают? Объясню -на первом слое сетка видит часть круга, потом видит колесо, потом часть капота, потом весь авто, и за каждое понятие отвечает один слой? (Возможно, что большое число нейронов на одном слое может взять много функций сразу? Это уже вопрос кривой архитектуры сети, наверное).
И чтобы изменить количество слоев в p2pHD нужно уже будет кодить? В одном из вариантов кода pix2pix hd 1024 я видел в коде явно добавленные слои, а вот в коде от nvidia не нахожу файла с явным указанием их или их параметров. Это наталкивает на мысль, что количество слоев может все же зависит от каких-то заданных в начале тренировки параметров, но я не знаю каких.
С меня как всегда. Могу расписать чего-нибудь про свои попытки и бесконечно растущий датасет.
Аноним 28/03/20 Суб 21:14:17 1644869170
Есть ли где-то датасет картинок и описаний к ним? Идея сделать ИНС, которая рисует по текстовому описанию картинку.
Аноним 28/03/20 Суб 21:15:36 1644872171
>>1644869
Да дохуя, ищи любой по Image Captioning.
Аноним 28/03/20 Суб 21:59:56 1644913172
Аноним 28/03/20 Суб 22:09:58 1644931173
>>1644913
Во-первых, он переоценён, во-вторых, он всё равно потребность в специалистах не покрывает.
Аноним 28/03/20 Суб 22:19:51 1644936174
У вас тут есть IDE или типо того? Слышал про Юпитер, в нем и работать?
Интересующийся
Аноним 28/03/20 Суб 22:22:15 1644939175
Аноним 28/03/20 Суб 22:25:52 1644943176
>>1644713
Нет, конечно, поэтому и переизбытка на рынке нет. Есть переизбыток вкатышей.
Аноним 28/03/20 Суб 22:26:46 1644944177
>>1644936
Нахуя непрограмистам иде? Для хардкода и блокнота хватит.
можешь ipython notebook использовать https://jupyter.org/try
Аноним 28/03/20 Суб 22:27:38 1644947178
>>1644936
Jupyter как ide - говно, он вообще не для того предназначен.
Аноним 28/03/20 Суб 22:58:01 1644975179
Аноним 28/03/20 Суб 23:09:47 1644984180
В общем, что мне нужно чтобы написать сеточку? Не бейте нуба.
Аноним 29/03/20 Вск 02:27:04 1645048181
>>1644741
Ну, короче, я затестил и оригинальное решение на pytorch и оно тоже не работает, возвращая одинаковые результаты, заебись.
В итоге вообще нет никаких пруфов, что трансформер тут окажется лучше LSTM
Аноним 29/03/20 Вск 02:29:43 1645050182
Аноним 29/03/20 Вск 03:10:07 1645068183
>>1645050
у них реально отличные доклады
Аноним 29/03/20 Вск 04:54:17 1645083184
>>1645068
> отличные доклады
Качественное инфоцыганство.
Аноним 29/03/20 Вск 05:43:07 1645088185
>>1644975
Чтобы быстро накидать код, запустить и сразу посмотреть результат (с картинками и графиками, если надо), по результатам дописать ещё код/поправить уже написанный, снова запустить...
Аноним 29/03/20 Вск 10:15:57 1645110186
Аноним 29/03/20 Вск 10:31:59 1645111187
>>1645110
>1,5 года 3 семестра
>15–20 часов в неделю
Работодатель тебя кормить и держать просто так не будет, в отличие от мамки.
Аноним 29/03/20 Вск 13:32:03 1645323188
>>1645111
Там вступительные экзамены есть.
Аноним 29/03/20 Вск 14:55:51 1645405189
>>1645323
Ну что, "круто".
Хуяришь такой 40 часов в неделю на заводе галере, потом ещё 20 часов в неделю в каком-то сраном шаде слушаешь лекции, делаешь практику, сдаёшь экзамены, в том числе вступительные и выпускные, , рвёшь жопу если материал не понял или чего-то не знаешь. И так 2 года, чтобы джуном устроиться в тот же яндекс на какие-нибудь 80к.

Какому-нибудь студенту такое может и зайдёт. А вот уже работающему - нет. И да, при наличии технического или физ-мат. образования азы машоба схватываются месяца за 4 вместе с практикой если знаешь что и как изучать и ого спросить.
Вся жопа упирается в ОПЫТ и завышенные требования работодателей.
Аноним 29/03/20 Вск 15:04:12 1645422190
Аноним 29/03/20 Вск 15:05:35 1645427191
>>1645422
Грубо говоря, снижаешь количество признаков до N, при это может потеряться часть информации.
Мимонуб
Аноним 29/03/20 Вск 15:07:25 1645431192
>>1645427
Тогда если не ставить этот параметр, то мы используем их все?
Аноним 29/03/20 Вск 18:13:13 1645599193
Подскажите датасет, чтобы там были лица людей (желательно, с разных ракурсов) с размечеными (mask, segmentation) частями лиц.
Аноним 29/03/20 Вск 18:22:20 1645609194
>>1645405
Так для студентов старших курсов у них есть на это время
Аноним 29/03/20 Вск 19:25:28 1645689195
Есть одна нейроночка, выводит картинку. Как можно сделать картинку цветной? Для каждого пикселя 3 канала RGB/HSV?
Аноним 29/03/20 Вск 19:28:18 1645692196
>>1645431
>if n_components is not set all components are kept:
>n_components == min(n_samples, n_features)
Сука, ну ты почитай документацию-то!
Аноним 29/03/20 Вск 19:33:14 1645704197
>>1645689
Приходят два еврея к раввину. Один спрашивает:
— Скажи, ребе, белый — это цвет?
— Да, белый — это цвет.
— А черный — это цвет?
— Да, черный — это тоже цвет.
— Слышишь, Хаим? Я же говорил, что продал тебе цветной телевизор!
Аноним 29/03/20 Вск 19:51:00 1645734198
Есть опыты как generative adversarial подход к бустингу применить?
Аноним 29/03/20 Вск 19:53:39 1645735199
>>1645704
Хочешь сказать, использовать флоат цвета пикселя, как место в градиенте?
Аноним 29/03/20 Вск 20:55:54 1645802200
В датасете куча фотографий разного разрешения и ориентации, что делать? Отфильтровать и выбрать какоет-о одно разрешение?
Аноним 29/03/20 Вск 22:09:34 1645854201
>>1645735
Хочу сказать, что вопрос чётче формулировать надо. В чём задача-то? Другая нейронка нужна? Тогда какие данные для обучения есть в наличии? Формально-то и грейскейл цветное изображение, а если тебе это не нравится - ну, покажи, как надо, а если не можешь - извиняй, ничего лучше предложить не можем. И нужно ли вообще нейронку привлекать - наверняка же есть сервисы для раскрашивания чёрно-белых изображений? Или задача какая-то другая?
Аноним 29/03/20 Вск 22:40:44 1645876202
>>1645405
>И да, при наличии технического или физ-мат. образования азы машоба схватываются месяца за 4 вместе с практикой
Когда кто-то подобное пиздит, нужно указывать свой опыт, потому что за 4 месяца ты разве что хуйцы аппроксимировать начнешь
Аноним 30/03/20 Пнд 00:12:26 1645918203
15627580548750.jpg (149Кб, 615x640)
615x640
Кто-нибудь может уделить немного времени и помочь разобраться со слоями свёрточной сети?
Спасибо.
Аноним 30/03/20 Пнд 14:44:36 1646186204
Аноним 30/03/20 Пнд 16:32:03 1646257205
Пытаюсь в метод распространения близости засунуть большой датасет. Спустя время выдает аварийную остановку из-за нехватки памяти. Че делать?
Аноним 30/03/20 Пнд 18:07:29 1646326206
>>1646186
Это, конечно, круто, но вапрос в следующем: полная свёрточная сеть даёт "Calculated padded input size per channel: (1 x 1). Kernel size: (5 x 5). Kernel size can't be greater than actual input size", урезанная даёт size mismatch, m1: [150 x 256], m2: [6400 x 64]
Я правильно понимаю, что в первом случае сетка "переработала" перед полносвязным слоем, а во втором "недоработала"?
Аноним 30/03/20 Пнд 18:11:51 1646328207
15853049346210.jpg (37Кб, 550x430)
550x430
Поясните. BERT можно использовать вообще без установки пистона, чисто через браузер? Использовать - это в частности, обращаться к нему через stdin / stdout?
Аноним 30/03/20 Пнд 18:14:03 1646330208
>>1646326
>вопрос
медленнофикс
Аноним 31/03/20 Втр 00:17:41 1646668209
>>1645802
ресайзни в одно, которое будет меньше минимального, скажем 64х64 или 128х128
Аноним 31/03/20 Втр 07:28:21 1646719210
B CUDA 10.2 есть смысл?
Аноним 31/03/20 Втр 19:03:01 1647425211
Антоны, что в керасе является аналогом слима из первой версии? Как я могу взять inception модель и сделать из неё фичер экстрактор?
Я чёт гайды пока только по обучению последнего слоя вижу
Аноним 01/04/20 Срд 03:42:33 1647775212
>>1647425
keras.applications.inception_v3.InceptionV3(include_top=False, weights='imagenet')
Аноним 01/04/20 Срд 13:52:06 1647947213
Можно ли как-то настроить jupyter notebook так, чтобы он всю мощность компа использовал? А то, когда я учиться ставлю, могу еще параллельно ютубчик в hd смотреть. Неприятно.
Аноним 01/04/20 Срд 14:00:11 1647962214
>>1647947
выстави потоки -1, а если видеокарту юаешь - возьми батч максимально возможный, пока падать не будет
Аноним 02/04/20 Чтв 20:09:50 1648714215
Хочю в ресерч. Будет плюсом отличное знание матана и линала первых двух курсов?
Аноним 02/04/20 Чтв 20:49:58 1648744216
>>1648714
Хотя, очевидно, плюсом-то оно будет. Вопрос мой скорее в том, насколько это будет плюсом, может вообще хватит поверхностного понимания что такое производная фнп и как ее находить и тому подобное, любая абстракция и расширение сверху будет уже юзлесс.
Аноним 03/04/20 Птн 09:58:34 1649092217
15849974149320.jpg (75Кб, 1080x1027)
1080x1027
Что почитать на счет прогнозирования ?
Аноним 03/04/20 Птн 12:58:10 1649213218
Анончики, подскажите такую штуку. Есть задача - классифицировать текст с помощью нейронной сети (текст будет в пределах 10 предложений). Вопрос - какие есть готовые, то есть обученные модели для этого дела? Может, у Кераса что-то есть?
Аноним 03/04/20 Птн 14:40:22 1649268219
>>1635685 (OP)
Что можно почитать про word embedding?
Аноним 03/04/20 Птн 14:51:43 1649291220
>>1649268
И вообще, есть материалы, как делают векторизацию данных?
Аноним 03/04/20 Птн 17:39:46 1649413221
Антоны, чет попытался я взять и скрестить эту реализацию со своей
https://github.com/Kyubyong/transformer
Ну и в итоге на тесте модель выдает одинаковый результат для всех картинок.
Что я уже только не пробовал, пробовал пропускать сплющенный выход со слоя CNN через линейный слой и подавать, не помогало, пробовал и просто сплющить выходы и подать туда, опять же, не помогло.
Причем обучается все это нормально, правда долго.
Аноним 03/04/20 Птн 19:53:03 1649513222
>>1649213
Есть готовые экстракторы фичей из предложений BERT, ELMO и тд
Аноним 03/04/20 Птн 21:12:07 1649581223
>>1649413
Попробую еще взять готовую имплементацию под керас и впихнуть туда сверточную сетку, надеюсь, что хотя бы она сработает и будет выдавать адекватный результат.
Аноним 04/04/20 Суб 00:35:15 1649663224
>>1635685 (OP)
Как DenseNet или ResNet применяется?
Там тоже надо слои выстраивать?
Или просто загружаешь и используешь?
Аноним 04/04/20 Суб 00:37:59 1649664225
>>1649663
берешь архитектуру, переделываешь последний слой под кол-во своих классов и трейниш, либо полнсотью, либо только классификатор последнйи
Аноним 04/04/20 Суб 00:44:55 1649666226
>>1649664
Типа softmax'a?
А что насчёт входных изображений? У них размер должен быть фиксированный? Или они принимают любой?
Аноним 04/04/20 Суб 01:07:27 1649678227
>>1649666
Сверточная часть может скушать любой размер, самое главное пиксели преобразовывать как в при обучении на ImageNet
Аноним 04/04/20 Суб 11:16:12 1649804228
>>1647775
А оно будет обучаться, если я его в другой модели буду использовать? Или мне как-то с sequential ебаться надо?
Аноним 04/04/20 Суб 16:43:07 1650110229
Аноним 04/04/20 Суб 22:56:25 1650313230
слишком тупой вопрос для треда, но как использует яндекс.еда машинное обучение
что конкретно, кроме времени доставки они прогнозируют


спрашивает экономист-червь, можно без подробностей
Аноним 04/04/20 Суб 22:58:48 1650314231
>>1650313
возможно они подсовывают тебе рестораны, в которых ты закажешь с более высокой вероятностью.
Аноним 04/04/20 Суб 23:11:25 1650318232
>>1650314
а как они принимают решения? типа ок, я заказываю чаще всего в маке, поэтому на главной будет мак? что?
Аноним 04/04/20 Суб 23:15:36 1650320233
>>1650318
Поэтому на главной будут рестораны, из которых заказывают те, кто чаще всего заказывают в Маке. Например, Бургер кинг.
Читай что такое: I-коллаборация и U-коллаборация (item/user collaboration)
Аноним 04/04/20 Суб 23:41:25 1650337234
>>1650320
ок, это было в принципе понятно, но интересно, а что более сложное они используют?
Аноним 05/04/20 Вск 00:33:00 1650372235
>>1649678
Использую torchvision.trasnform для приведения в изображеий в нужный вид, нормализую, получаю тензоры
tensor([[[-1.2617, -1.2274, -1.1932, ..., -1.5185, -1.5185, -1.5357]...
Потом применяю train_test_split и TensorDataset
Пишет: 'numpy.int32' object is not callable
Што? У меня же уже тензоры.
Аноним 05/04/20 Вск 00:41:09 1650375236
>>1635685 (OP)
Есть истории успеха анонов из чата?
Аноним 05/04/20 Вск 00:44:02 1650376237
>>1650372
Таки разобрался - список тензоров надо превратить в один тензор.
Аноним 05/04/20 Вск 01:11:14 1650381238
>>1650375
ODS регулярно выкладывает презентации неплохих решений kaggle.
Аноним 05/04/20 Вск 07:03:20 1650433239
Помогите заставить Keras работать с GPU в Jupyter Notebook под Windows 10. Делал всё по этому гайду.
https://github.com/antoniosehk/keras-tensorflow-windows-installation
Дошёл до создания виртуального окружения в терминале юпитера, создал, активировал его. Но в самом ноутбуке команда tf.test.is_gpu_available показывает что нет никакой GPU. GTX 1070 если чтоу.
Аноним 05/04/20 Вск 10:54:45 1650478240
15411044526943.jpg (68Кб, 794x798)
794x798
Аноним 05/04/20 Вск 13:09:48 1650593241
>>1650433
> с GPU
> под Windows 10
Выбери одно
Аноним 05/04/20 Вск 15:08:38 1650686242
>>1650433
> Делал всё по этому гайду
Видимо не всё
Аноним 05/04/20 Вск 17:29:48 1650912243
>>1650433
У меня с cuda 10.1 не работало, но с 10.0 запустилось.
Аноним 05/04/20 Вск 19:14:39 1651090244
memory error.JPG (125Кб, 1319x569)
1319x569
>>1650478
>>1650593
>>1650686
>>1650912
У меня получилось. Создал виртуальное окружение, в нём захерачил отдельный юпитер ноутбук и всё заработало. Но! Теперь возникла проблема с нехваткой оперативной памяти.

Операция требует аллоцировать чуть меньше 5гб памяти и не может. В предыдущей ячейке операция требовала 13.5гб памяти, всё прошло успешно, график использования памяти в диспетчере ушёл в сотню и после вернулся обратно. Так какого хуя не может выделить 5гб, если свободно больше?
Аноним 05/04/20 Вск 19:21:20 1651099245
>>1650110
Это не то, тут все замораживают для обучения, но да я вроде разобрался и даже запустил обучение.
Надеюсь, что в этот раз все не зафейлится, как в прошлые, когда нейронка выдавала один ответ на все.
Аноним 05/04/20 Вск 23:39:20 1651397246
Надеюсь на помощь могучего ума Анона. Я -- чувак, вкатывающийся в етот ваш data science. И сейчас у меня возник вопрос методологического характера.

Я не планирую -- по крайней мере, сознательно -- становится хардкорным датасайнтистом. Для меня это скорее вспомогательный инструмент на будущее, который, однако, точно будет использоваться. Я дошел до момента выбора между двумя путями:

1) Интенсивный путь -- углубляться дальше внутрь методов machine learning. Вот передо мной открыта хардкорная библия "The Elements of Statistical Learning Data Mining, Inference, and Prediction"

2) Экстенсивный -- начать по-максимому использовать все, что узнал на практике, какими бы куцыми эти знания не были, с изучением всей сопутствующей экосистемы

Мб, у кого-то есть мысли на этот счет
Аноним 06/04/20 Пнд 06:10:50 1651508247
>>1651397
Может стоит изучать именно те инструменты и методы, которые тебе понадобятся? Если не планируешь, что это будет основной твоей деятельностью, то зачем сильно глубоко углублятся? Важно знать какие методы есть, где они работают, где они не работают, как их можно внедрить в твоей деятельности.

Я тут немного подохуел, когда на джуна дата инженера попросили в тестовом задании запилить сравнение различных моделей для предсказания качества вина в vine dataset. Это то ладно, говно вопрос. Но затем попросили обернуть в докер и прикрутить Rest API.
Аноним 06/04/20 Пнд 09:39:10 1651578248
>>1651508
Наверно вкатышей много.
Аноним 06/04/20 Пнд 09:57:34 1651583249
>>1651508
В чем проблема прикрутить Rest через Flask? Это же эллементарно делается. Докер тоже эллементарно.
Аноним 06/04/20 Пнд 10:13:52 1651592250
>>1651508
а зачем такой джун нужен, который декоратор из фастапи засунуть не может?
Аноним 06/04/20 Пнд 10:16:16 1651595251
>>1651508
Тем более "дата инженера". Его основная работа - это докеры ворочать.
Аноним 06/04/20 Пнд 10:21:13 1651602252
>>1646328
Если найдешь обертку без питона. А еще можешь взять с питоном, но отдельно её оформить в виде демона или чего там тебе хочется (посмотри bert as service)
Аноним 06/04/20 Пнд 10:24:17 1651605253
>>1651578
А ещё в одс уже все скулят, что всех переувольняют. А ведь и правда переувольняют же, т.к. хайп уже всё.
Аноним 06/04/20 Пнд 11:42:37 1651662254
>>1651605
>хайп уже всё.
Он был? В моем миллионнике вакансии по пальцам двух рук можно пересчитать.
Аноним 06/04/20 Пнд 11:52:49 1651675255
Есть нормальные книги/курсы по CV? Из классики пытался в Szeliski, но это больше похоже не на учебник, а на поверхностный обзор вышедших в нулевых статей на тему, со ссылками вместо детальных объяснений. Еще круче, если бы это сопровождалось практическими заданиями.
Аноним 06/04/20 Пнд 12:32:18 1651721256
>>1651675
На степике есть курсы от Samsung
Аноним 06/04/20 Пнд 14:11:32 1651769257
15212145855420.png (21Кб, 256x256)
256x256
В чём отличие data scientist, data analyst, data engineer, machine learning engineer и researcher?
Аноним 06/04/20 Пнд 14:14:38 1651771258
>>1651769
В чем отличие Software Developer, Software Engineer, Software Designer и Programmer?
Аноним 06/04/20 Пнд 14:41:14 1651784259
320251325883023[...].jpg (158Кб, 1080x1350)
1080x1350
Машинка не тянет вычисления. Што делать?
Инб4 купи новую, прикрути ещё ОЗУ
Аноним 06/04/20 Пнд 14:45:00 1651786260
Аноним 06/04/20 Пнд 14:53:04 1651793261
Аноним 06/04/20 Пнд 14:58:17 1651798262
>>1651769
> data analyst
Больше с аналитикой и визуализацией данных работает.
>data engineer
Работает больше с обработкой данных, очисткой и их хранением.
>machine learning engineer
Работа с моделями, машобчиком, БОЛЬШЕ СЛОЁВ.
> researcher
Преимущественно исследования в области информатики и математики, новые подходы и модели.
>data scientist,
Хуй знает. Предположу, что общее название вышеперечисленных или человек-универсал, понемногу всё вышеприведённое умеющий.
Аноним 06/04/20 Пнд 20:15:11 1652067263
Аноним 06/04/20 Пнд 20:28:50 1652078264
Аноним 06/04/20 Пнд 20:44:33 1652104265
>>1652078
Если привяжешь номер телефона к аккаунту, то сможешь в ноутбуках использовать GPU
Аноним 07/04/20 Втр 00:25:15 1652335266
faciallandmarks[...].jpg (449Кб, 1856x1496)
1856x1496
Сап, нейронасы. Вопрос по питону. Нужно определять на потоке с камеры вот такие (пикрел) точки лица, без каких-либо дополнительных трекеров/рисунков фломастером на лице.
Но при этом затрачивать минимально ресурсов компьютера. Пока остановился на dlib с готовой натренированной моделью. Готовые решения в опенцв как я помню по фпсам не устраивали
Есть ещё какие варианты?
Аноним 07/04/20 Втр 05:50:52 1652372267
>>1651769
>data scientist
Универсал, хорошо знающий как программирование так и математику. Работает на высокооплачиваемой работе в FAANG.
>data analyst
Червь-пидор без навыков, который хотел хоть как-то вкатиться в датасаенс.
> data engineer
Кодомакака, не умеющая ничего кроме программирования. Обслуживает датасаентистов.
>machine learning engineer
То же что и data scientis, но с упором на результат и конечный продукт.
>researcher
Трясун черных ящиков, работающий за миску риса. В случае удачной встряски ящика публикует пейпер.
Аноним 07/04/20 Втр 11:27:11 1652438268
>>1635685 (OP)
Картофан это вторая культура.

Первую и вторую культуру определил Тимоти Гауэрс, отнеся себя ко второй, в статье Two cultures in mathematics (найдешь сам).
Эта статья сама по себе является отсылкой к статье Ч.П. Сноу The Two Cultures (там речь шла о технарях и гуманитариях).

В статье Гауэрса четкого определения не приводится, я придумал следующее упрощение: conceptual theory building vs concerete problem solving.
Но это не совсем точно. И. М. Гельфанд говорил что надо решать задачи, а не строить теории. Серр тоже предпочитал задачи теориям, см. его переписку с Гротендиком.
Можно сказать, что в концептуальной математике принято улучшать доказательства, например доказательство Хопфа обобщенной формулы Эйлера-Пуанкаре не использовало гомологических методов и было очень громоздким, позже её передоказали.
Еще один аспект улучшение языка. Кардано решал кубические уравнения геометрическими построениями, современный символьный язык алгебры получил распространение поздеее, у коссистов (см. History of Algebra Ван-дер-Вардена).
Уравнения Максвелла на языке дифференциальных форм выглядят гораздо проще, тогда их всего два, а не 8 (см. Болибрух, Казарян).
Язык производных функторов позволяет высказывать утверждения, которые пользуясь спектральными последовательностями, записать невозможно. Вместе с тем всегда можно перейти к явным вычислениям со спектралками.
Ещё можно сказать о строгости. В комбинаторике, классическом анализе, можно получать крупные результаты пользуясь нестрогими методами, например Эйлер, Рамануджан, Пуанкаре, итальянская школа алгебраической геометрии.
Бескоординатый язык концептуальнее даже в физической ситуации, потому что не надо доказывать независимость от координат. Интеграл Лебега лучше интеграла Римана, потому что пр-во интегрируемых решений полно и значит не нужно доказывать существование решений.
Мы хотим иметь простые доказательства. Это достигается за счёт сложных определений.

Первая культура это core mathematics, вторая это периферия.
В комбинаторике можно получать результаты, будучи убощиком в MIT, как Мэтт Деймон в фильме The Talented Mr. Ripley.
Комбинаторика практически не используется в остальной математике и сама не использует ничего из других областей.
Core math можно определить как все вещи, необходимые для утверждения и доказательства важных математических результатов, например Теоремы о модулярности (Великой Теоремы Ферма), Теоремы Атьи-Зингера, Гипотез Вейля, Теоремы об изоморфизме норменного вычета, Теоремы Квиллена-Суслина и т.д.
Аноним 07/04/20 Втр 12:14:10 1652464269
15772876173990.jpg (17Кб, 620x494)
620x494
Аноним 07/04/20 Втр 12:45:09 1652487270
>>1652372
Какие языки должен знать data engineer?
Аноним 07/04/20 Втр 12:46:32 1652489271
Аноним 07/04/20 Втр 15:04:10 1652558272
>>1652489
похоже на человеческий мозг под веществами.
Аноним 07/04/20 Втр 18:43:00 1652781273
>>1652558
Это не вещества. Пучкизм головного мозга.
Аноним 07/04/20 Втр 19:03:32 1652803274
>>1652438
> Core math можно определить как все вещи, необходимые для утверждения и доказательства важных математических результатов, например Теоремы о модулярности (Великой Теоремы Ферма
А ничего что теорема Ферма для общего случая не доказана? И три века попыток ее доказать привели только к выводу что ее вообще хуй докажешь в рамках одного театра Ходжа. А значит, без мочидзукиной теории там вообще нечего делать.
Аноним 07/04/20 Втр 21:41:13 1652958275
Сап. Есть у кого-нибудь материал по сверточным сетям? Может книга какая-нибудь? Везде, где искал, как-то поверхностно рассказывается, почти без математики. Хотелось бы подробно узнать про их обучение.
Аноним 07/04/20 Втр 22:03:04 1652986276
Аноним 07/04/20 Втр 22:10:55 1652992277
>>1652986
Тут же вообще картинки одни. Где можно про адаптацию bakprop'а под них почитать? Именно математику
Аноним 08/04/20 Срд 07:15:53 1653221278
Безымянный.png (184Кб, 879x362)
879x362
Безымянный2.png (99Кб, 907x240)
907x240
Аноним 08/04/20 Срд 07:45:24 1653222279
>>1653221
Эта книга у меня есть. Там есть момент, который вообще непонятен: как взять производную по весу в промежуточном слое, если этот вес есть во всех нейронах этого слоя?
Аноним 08/04/20 Срд 11:23:01 1653271280
Всегда подозревал, что ваш пистон есть сойбойская хуитка, но сегодня убедился в этом окончательно. К сожалению, нужную для одного дела вещь нашел только для пистона. Ну ок, бывает. Выходной датасет представляет собой таблицу, кроме числовых данных есть текстовые описания. Предположительно, все данные относятся к нескольким классам, но их количество неизвестно и не факт что это можно интерпретировать как кластеры. Короче, задача типичная для датамайнинга и unsupervised обучения, датасет небольшой, но пополняется в динамике, вновь прибывшие наблюдения нужно либо отнести к предыдущим классам, либо они могут образовать новый класс. Я как обычно думал использовать SOM, но оказалось что в sklearn его просто нет. И вообще походу нет кроме каких-то васянских поделок. Вы там в своих пистонах ебнутые, чи шо? Это ж классика! Это везде должно быть!
Аноним 08/04/20 Срд 11:50:15 1653286281
>>1653271
Ну напиши сам, хули. Что сказать то хотел?
Аноним 08/04/20 Срд 15:54:36 1653474282
Аноним 08/04/20 Срд 15:56:01 1653475283
>>1653474
Карты Кохонена. Зумера вкатывальщики про такое и не слышали.
Аноним 08/04/20 Срд 15:57:54 1653476284
>>1653475
>Карты Кохонена
Дед, ну ты даёшь. Как там в доме престарелых?
Аноним 08/04/20 Срд 16:52:38 1653520285
>>1653476
Ну давай, расскажи, сколько там десятков слоев нужно и видеокарт, чтобы решить описанную мной задачу.
Аноним 08/04/20 Срд 19:29:04 1653645286
Аноним 08/04/20 Срд 22:15:23 1653770287
>>1653520
Попробуй каминсом, он же кнн
Аноним 09/04/20 Чтв 02:25:34 1653859288
>>1653645
Не умеет обрабатывать новые точки.
>>1653770
Нужна метрика.
Аноним 09/04/20 Чтв 15:03:28 1654085289
Проблема: не хватает оперативы под обработку данных. Хочу сократить количество данных для обработки.
Вопрос: есть ли функции которые способны уменьшить объем выборки сохранив при этом точность? Или все нужно писать ручками самому?
p.s. мб ссылочки какие-то есть?
Аноним 09/04/20 Чтв 15:43:28 1654115290
Аноним 09/04/20 Чтв 17:46:58 1654219291
>>1653859
>Не умеет обрабатывать новые точки.
SOM тоже. То, что он тренируется мелкими порциями не значит, что он хорошо дотренировывается. Если у тебя изначально было одно распредление и ты долго на нем тренировал, а потом появился новый класс, и ты наедешься, что SOM магическим образом его распознает - не, нихуя, должно повезти.
Аноним 09/04/20 Чтв 17:52:01 1654223292
>>1654219
Новые точки, не соответствующие имеющемуся распределению, все равно будут проецироваться на какой-то наиболее подходящий для них best matching unit на имеющейся карте.
Аноним 09/04/20 Чтв 20:25:24 1654350293
>>1654085
Это называется активное обучение
Аноним 09/04/20 Чтв 20:26:42 1654351294
>>1654223
Только если ты возьмешь все точки за всю историю, перемешаешь их и обучишь с нуля, ты получишь другой результат.
Аноним 09/04/20 Чтв 20:29:01 1654357295
Аноним 09/04/20 Чтв 21:12:18 1654374296
>>1654357
>Какой же пиздатый чел
Чтобы пройти собеседование
@
Надо ходить на собеседование
Ага, только ты со своим кагглом никому нахуй не сдался. Даже на джунов порой требуют кучу всего.
Аноним 09/04/20 Чтв 21:13:45 1654376297
Аноним 09/04/20 Чтв 21:14:15 1654377298
>>1654374
> Даже на джунов порой требуют кучу всего.
Чел, он про этом именно в видосе и рассказывает..
Аноним 09/04/20 Чтв 21:15:27 1654378299
>>1654376
Как минимум опыт работы по специальности.
>>1654377
Выучить не проблема. Всё упирается в опыт.
Аноним 09/04/20 Чтв 21:17:07 1654379300
>>1654378
Для этого есть стажировки.
Аноним 09/04/20 Чтв 21:24:32 1654382301
>>1654379
Че на машоб и датасайнс стажировки можно податься? не просто в айтишные конторы где на шарпе сайты пишут же?
Аноним 09/04/20 Чтв 21:26:12 1654383302
>>1654379
В москвабаде может быть.
Это первое. Второе - будучи там 27+ тебе норм на стажёрскую стипендию?
Аноним 09/04/20 Чтв 21:27:28 1654385303
>>1654383
27+? условимся что вопрос от студента
Аноним 09/04/20 Чтв 21:30:30 1654386304
>>1654385
В этом вся и проблема - будучи уже каким-никаким самодостаточным человеком с определённым доходом идти стажёром за копейки - сомнительная перспектива.
А если у тебя кредиты/семья на шее (и такие есть) - это пиздец.
В общем, горизонтальные лифты в России работают так себе.
Аноним 10/04/20 Птн 03:00:39 1654513305
>>1654383
В 27+ надо вкатываться через стартапы.
Аноним 10/04/20 Птн 08:11:45 1654559306
>>1654385
> 27+? условимся что вопрос от студента
Зумера вкатывальщики никому не нужны. Если внешка 8+/10 - вкатывайся в вебкам и всякую гей проституцию. Если ниже 8/10 - в доставку яндекс.еда.
Аноним 10/04/20 Птн 09:00:21 1654565307
>>1654559
>27+
>Зумера
/0
>вкатывальщики никому не нужны.
У тебя какое-то кастовое общество получается.
> в доставку яндекс.еда
>вкатывайся в вебкам и всякую гей проституцию
Ещё жирнее.
Аноним 10/04/20 Птн 09:18:23 1654570308
>>1654374
если у тебя хотя бы одно золото на каггле куда-нибудь да возьмут
Аноним 10/04/20 Птн 09:25:40 1654571309
>>1654565
Я про студентов. 27+ не зумер, конечно.
> У тебя какое-то кастовое общество получается.
Бескастовых обществ никогда нигде не было и сейчас нет. Разница только в наличии социальных лифтов между кастами, где-то с этим попроще, где-то совсем пизда.
> Ещё жирнее.
Предполагается, что при наличии мозгов такой вопрос обычно не возникает.
Аноним 10/04/20 Птн 09:27:35 1654572310
>>1654570
>одно золото на каггле
Есть тут именно работающие датасатанистами?
Задачи каггла хоть как-то вашу работу напоминают?
Инб4 задачи с наградой в десятки и сотни тысяч баксов.
Аноним 10/04/20 Птн 09:36:35 1654573311
>>1654571
>Бескастовых обществ никогда нигде не было и сейчас нет.
Тем не менее, именно бескастовое (или стремление к нему) обеспечивает прогресс. Европейцы колонизировали Индию, а не наоборот.
>при наличии мозгов такой вопрос обычно не возникает.
Всё упирается в текущие возможности. Останься Ломоносов в своём захолустье, ему бы его ум не помог.
Аноним 10/04/20 Птн 09:43:33 1654575312
тест
Аноним 10/04/20 Птн 09:44:24 1654578313
sadiqkhan.jpg (132Кб, 950x630)
950x630
>>1654573
>Европейцы колонизировали Индию, а не наоборот
Аноним 10/04/20 Птн 09:46:17 1654580314
>>1654578
Сейчас 21 век, а не 18.
В 18 веке было как я сказал ранее. И да, в кастовом обществе этот индус был бы говночистом, если бы вообще был.
Аноним 10/04/20 Птн 09:46:55 1654581315
А кто платит за железо на фрилансе?
Нужно закладывать в часовую ставку стоимость того же sagemaker (кто чем пользуется?)?
Или отдельной статьей договариваться?
Аноним 10/04/20 Птн 10:32:30 1654598316
>>1654573
>Европейцы колонизировали Индию
А европу римляны и арабы
Аноним 10/04/20 Птн 11:01:46 1654624317
>>1654357
Так только на фарме раскачиваются?
Аноним 10/04/20 Птн 17:06:11 1654889318
Натренировал для диплома модель, которая генерирует текст. И встала задача сделать сайт типа talktotransformer.com. Какой стек технологий можете порекомендовать?
Плюс, модель моя большая и отжирает под 3 гига видеопамяти. Есть вариант запустить все это без финансовых расходов?
Аноним 10/04/20 Птн 18:43:08 1654987319
Аноним 10/04/20 Птн 18:56:08 1654997320
>>1654889
Зачем тебе сайт для диплома?
Аноним 10/04/20 Птн 19:05:23 1655002321
>>1654997
Мне кажется недостаточным то, что я просто собрал данные и скормил их готовой сетке из библиотеки, покрутив некоторые параметры и потратив неделю на тренировку. Конечно, работы было много и на тех этапах, но мне хотелось бы на защите продемонстрировать работу. А ни у кого из потока нет ноута с достаточно мощной видюхой.
Аноним 10/04/20 Птн 19:21:02 1655003322
>>1655002
Диплом - это научная работа. Результатом научной работы является не код, не работающий сайт, а отчёт, в котором описана задача, решение, ход работ, проведённые исследования, результаты и выводы. Хотя, может, ты специализируешься не на ML, а на разработке ПО почему этому в вузах обучают, а не в ПТУ, не понимаю, и сетка - это побочное?
Аноним 10/04/20 Птн 19:35:02 1655010323
>>1655003
> Результатом научной работы является не код, не работающий сайт, а отчёт, в котором описана задача, решение, ход работ, проведённые исследования, результаты и выводы
С такой точки зрения, у меня все получается хорошо. Меня просто беспокоит, что мне скажут, что я взял готовенькое и скормил свои данные.
Из тех кто как я пишет нейросеть, один предсказывает исход спортивных событий, а другой с AlphaZero что-то мутит
Аноним 10/04/20 Птн 19:58:05 1655019324
Аноним 10/04/20 Птн 20:48:50 1655057325
>>1655010
Если у тебя цель диплома найти новую архитектуру сетки то, да скажут. Если ты использовал готовую архитектуру чутка изменил ее и обучил для своей задачи, то все нормально.
Аноним 10/04/20 Птн 21:02:42 1655070326
>>1655010
По идее,задача диплома - не в этом. Диплом - это выпускная квалификационная работы, т.е. нужно продемонстрировать свою квалификацию - умение провести исследование. Реальные научные задачи решать не нужно, это после получения ВО. Тут есть своя жопа с "диплом бакалавра - это ВКР, а у магистра диссертация, к которой уже предъявляют требования по публикациям".
Аноним 10/04/20 Птн 21:03:42 1655071327
>>1655057
Спасибо, подбодрил.
Тогда попрошу анонов помочь затестить мою сетку.
Она пишет новости.
От вас заголовок новости, а я вкину сгенерированную новость.
Типа Путин подписал указ об увеличении МРОТ до 100 тысяч рублей
И моя сетка раскроет эту тему в формате полноценной новости.
Можете и любую дичь придумать, но лучше всего отработает на адекватных заголовках
Аноним 10/04/20 Птн 21:06:33 1655072328
>>1655071
Румыния отказалась делиться пшеницей и заставила мир нервничать
Аноним 10/04/20 Птн 21:57:05 1655091329
>>1655072
Вот тебе 3 варианта с одинаковыми параметрами:
власти румынии отказались делиться с другими странами , чтобы они уважали мир и стабильность , говорится в заявлении министерства финансов страны . " граждане румынии , проживающие в румынии , не могут знать , где они живут , и они не могут понять , кто живет , и что они живут . они не могут понять , что они живут , и они не могут знать , какие они живут " , — говорится в сообщении


премьерминистр румынии виорика данчилэ в четверг во время выступления на конференции по безопасности в румынии отказалась делиться с <unk> <unk> и обещаниями , чтобы они уважали мир и свободу страны . данчилэ выступила с речью , посвященной <unk> и <unk> , которая пройдет в пятницу в варшаве . она призвала не допустить , чтобы страна имела право знать , не допустить , чтобы эти страны не имели права знать , что они должны делать , чтобы те не <unk> , а не <unk> , и не только в других странах , но и в мире . данчилэ также заявила , что не видит , что страна не может быть вынуждена защищать свои национальные интересы , в том числе в европе . она также отметила , что страна " никогда не откажется от своих прав , а не в мире " .


румынский премьерминистр виорика данчилэ отказалась делиться с другими игроками в европе , пишет <unk> . в своем обращении в <unk> <unk> <unk> <unk> , который не знает , что происходит , пишет <unk> , как это было в последнее время .




И Виорика Данчилэ действительно была премьером Румынии, как я прогуглил
Аноним 10/04/20 Птн 22:01:21 1655094330
>>1655091
> " граждане румынии , проживающие в румынии , не могут знать , где они живут , и они не могут понять , кто живет , и что они живут . они не могут понять , что они живут , и они не могут знать , какие они живут " , — говорится в сообщении
Глубокомысленно...
Аноним 10/04/20 Птн 22:11:20 1655100331
>>1655094
На Румынию было мало новостей. Вот я попробовал это:
владимир жириновский избил геннадия зюганова

лидер лдпр владимир жириновский после встречи с президентом рф владимиром путиным ударил главу кпрф геннадия зюганова . об этом политик рассказал в интервью риа новости . по его словам , зюганов получил сотрясение мозга и перелом .


лидер лдпр владимир жириновский избил лидера кпрф геннадия зюганова , который был госпитализирован в реанимацию , сообщила риа новости депутат государственной думы , лидер партии " родина " . ранее зюганов заявлял , что жириновский госпитализирован в реанимацию с инфарктом . " в больницу поступил мэр москвы сергей александрович зюганов . он был госпитализирован . он был госпитализирован . его состояние стабильное , поэтому , к сожалению , ему не требуется " , — сказала риа новости председатель партии юлия тимошенко . по ее словам , зюганов не исключает , что он будет госпитализирован в реанимацию .


председатель лдпр владимир жириновский избил <unk> главу кпрф геннадия зюганова , который ранее выступал с инициативой о запрете на въезд в страну , сообщил риа новости в среду лидер кпрф геннадий зюганов . зюганов ранее заявил , что принял решение исключить из списка кпрф кандидатуру зюганова , который ранее был лидером кпрф . в свою очередь , зюганов заявил , что решение о запрете на въезд в страну было принято в конце декабря . " зюганов обратился за разъяснениями , и он был избит , и с его заявлением о запрете на въезд в страну он был отстранен от работы . это безобразие " , — сказал зюганов . он добавил , что " не может не сказать , что он в этот момент , не зная того , что он не работал , может быть , это это было " .
Аноним 11/04/20 Суб 07:07:10 1655343332
Аноним 11/04/20 Суб 09:12:49 1655361333
Аноним 11/04/20 Суб 09:19:49 1655363334
ок, уговорили. Тренировать голых баб на черных квадратах- гиблое дело. Буду пилить детектор сисек-писек, пусть потом вырезает квадраты из двух изображений, они у меня спаренные. Потои уже буду думать как детектить одежду- вручную или еще одну сетку напишу.
NudeNet (уже готовые детектор сисиек-писек) выдает ошибку, типа не поддерживается метод в виндоус, лол, которая требует даунгрейдить keras. Попробую последний раз сделать этот детектор в виртуалке сейчас.
Аноним 11/04/20 Суб 15:00:47 1655689335
23456789.png (77Кб, 808x497)
808x497
>>1655361
Расскажи(те) нюфагу, как строится сеть из твоей статьи?
У самых простых сетей просто один слой за другим идут, а тут несколько таких конструкций параллельно запускаются?
Аноним 11/04/20 Суб 18:20:00 1655890336
>>1654572
Задачи на каггле в тысячу раз интереснее, именно на них лучше учиться млю.
Аноним 11/04/20 Суб 19:45:15 1655959337
>>1654572
Я работающий, кеглю считаю скучным задротством.
Аноним 11/04/20 Суб 19:50:21 1655963338
>>1655689
На картинке вижу обычный self-attention, только с выёбистым способом вычисления k, q, v. Похоже, что они ещё решили брать внимание не по всему предложению, а только по некоторому ограниченному окну. Единственное, что мне непонятно - что такое downsampling.
Аноним 11/04/20 Суб 19:52:18 1655967339
>>1655959
Как вкатился в машоб?
Аноним 11/04/20 Суб 20:03:33 1655976340
>>1655967
Профильное образование + долго ходил по собеседованиям.
Аноним 11/04/20 Суб 20:07:55 1655981341
>>1655976
>долго ходил по собеседованиям
Насколько долго, если не секрет?
Аноним 11/04/20 Суб 20:12:40 1655985342
>>1655981
Год где-то, хотя я вакансии на полный день не рассматривал (а просьба неполного сразу сильно снижает шансы).
Аноним 11/04/20 Суб 20:19:55 1655991343
Вы тут умные дохуя?
Аноним 11/04/20 Суб 20:27:15 1655999344
>>1655985
Ты с опытом работы был?
Аноним 11/04/20 Суб 20:38:16 1656009345
Аноним 11/04/20 Суб 20:38:59 1656010346
Аноним 11/04/20 Суб 21:02:37 1656032347
Аноним 11/04/20 Суб 21:06:38 1656037348
>>1656032
Странно, судя по hh, в москвабаде полно вакансий, в том числе для вкатывальщиков не на полный день.
Аноним 11/04/20 Суб 21:39:09 1656064349
Screenshot 2020[...].png (132Кб, 1068x914)
1068x914
Прохожу тему линейной регрессии. И я не понимаю что я должен увидеть на этом графике, что говорит о том что тестовая и тренированная часть совпадают.
Типо чем больше совпадение, тем ближе к прямой линии должен быть результат?
Аноним 11/04/20 Суб 22:05:01 1656081350
Безымянный.png (37Кб, 1267x639)
1267x639
>>1656037
Я бы так не сказал, что полно, все хотят от года работы лол, эта вакансия незакрытой уже два года висит как минимум, я к ним ходил, меня не взяли
Аноним 11/04/20 Суб 22:07:42 1656082351
>>1656064
В идеале у тебя то, что выдала модель (predictions), и то, что на самом деле (y_test), должно совпадать, т. е. лежать на прямой y = x.
Аноним 11/04/20 Суб 22:21:12 1656088352
>>1656081
Неплохие деньги для частичной занятости без опыта.
Аноним 11/04/20 Суб 22:39:13 1656094353
>>1656088
Это я к тому, что вакансий для вката без опыта не так много.
Аноним 11/04/20 Суб 22:43:54 1656098354
>>1656094
Прям сейчас в Москве 36 вакансий для людей без опыта в области "Data science".
Аноним 12/04/20 Вск 01:53:15 1656148355
>>1655100
Нагенерь ещё текста, назови программу Братишкой
Аноним 12/04/20 Вск 02:01:04 1656149356
>>1656098
по одному на каждый миллион человек, живущих в москве
Аноним 12/04/20 Вск 04:08:23 1656175357
Привет, анон, есть вопрос
Я прогер, но в нейроночках не силен
Хочу узнать насколько адекватна задача, степень ее сложности и куда смотреть, если все норм
Нужно оценить степень похожести двух предложений
То есть «я хочу послушать музыку» и «сейчас буду слушать музыку» или «я подвергся насилию» и «меня избили»
Аноним 12/04/20 Вск 04:17:37 1656177358
Аноним 12/04/20 Вск 04:18:18 1656178359
>>1656175
Нормальная задача, сложность средняя, смотреть в гугл по запросу nlp text similarity либо deep learning text similarity
Аноним 12/04/20 Вск 09:53:15 1656243360
>>1656175
антиплагиат пишешь?
Аноним 12/04/20 Вск 09:55:51 1656245361
Какое мнение анона про numerai?
Аноним 12/04/20 Вск 11:59:45 1656335362
Я правильно понимаю, рекуррентная нейросеть это просто свёрточная нейросеть, к которой последовательно добавляют новые нейроны (возможно, с удалением старых) с сохранением весов?
Аноним 12/04/20 Вск 13:30:30 1656390363
>>1656335
Одни и те же нейроны пропускают через себя последовательность, запоминая что-то через скрытое состояние, у лстм/гру еще и с помощью ячейки долговременной памяти.
Аноним 12/04/20 Вск 16:12:37 1656494364
>>1635685 (OP)
Анон, выручай. Как будет выглядеть градиент в векторном виде для логистической регрессии с классами -1 и 1? Я вывел выражение, но у меня ничего не обучается. Для классов 0 и 1 вывод в интрнете я нашёл, а для такого случая ничего найти не могу.
Аноним 12/04/20 Вск 16:20:22 1656499365
>>1656494
Сигмиоид на гиперболический тангенс надо заменить.
Аноним 12/04/20 Вск 17:20:40 1656544366
image.png (887Кб, 680x808)
680x808
>>1635685 (OP)
Господа, такой вопрос: тренирую сеть классифицировать алфавит языка жестов.

Хочу натренировать на русский алфавит. Существует много датасетов под американский алфавит. Хочу их тоже использовать, для улучшения точности на русском алфавите. Как это лучше сделать?

Допустими, я возьму какую-нибудь архитектуру, удалю последний слой, заморожу n слоев, а что дальше делать?
Аноним 12/04/20 Вск 18:29:11 1656596367
Аноним 12/04/20 Вск 20:53:41 1656669368
Анон, есть задача по nlp - классификация текстов.
Какие подходы могут быть использованы для решения это задачи?
У меня пока такие: bag of words, word2vec, fasttext, lstm.
Что ещё можно использовать?
Аноним 12/04/20 Вск 22:24:33 1656693369
Антоны, я таки задолбался, как заставить это работать?
https://colab.research.google.com/drive/1jKBWcfiwiBmlTG2k0L-3qmFfNF2VGjHN
Я просто не понимаю, в чем ошибка, оно после 2-3 эпохи перестает нормально обучаться и декодер позже выдает всегда одинаковые ответы
Аноним 12/04/20 Вск 22:26:39 1656695370
Аноним 12/04/20 Вск 22:26:59 1656696371
Кто-нибудь использовал на практике catboost? Не было ли у вас проблемы, что эта штука обучается только на первых 10 000 строк? Там в коде эти 10000 строк даже видны. Я обращался к пацанам из Яндекса, мне сказали, что это лимит на чанк. То есть сжирается весь файл, но по 10k строк. Но в коде видно, что там прям лимит, первые 10k и конец файла
Аноним 12/04/20 Вск 22:35:30 1656698372
>>1656696
Сейчас бы пользоваться хуйней от пындекса. Тебе этот пынбуст Яндекс браузер и Яндекс бар в остальные браузеры не установил?
Аноним 12/04/20 Вск 22:52:03 1656704373
>>1656698
xgboost выдавал результаты хуже качеством
Аноним 12/04/20 Вск 22:54:03 1656705374
>>1656544
>Хочу их тоже использовать, для улучшения точности на русском алфавите. Как это лучше сделать?
Общие жесты если есть вырежи/переразмечь
Аноним 13/04/20 Пнд 02:19:56 1656782375
>>1656705
Это то понятно. Меня интересует вопрос извлечения данных из пикч, где знаки не совпадают.
Аноним 13/04/20 Пнд 04:38:55 1656794376
>>1656698
Мань, сейчас дефакто только две библиотеки для бустинга компитят: catboost и lightgbm
Аноним 13/04/20 Пнд 05:16:25 1656797377
>>1656782
Дай им какой-нибудь новый класс. Типа angliysoke_s_kak_dollar, а после тренировки выкинь этот класс и дообучи на чисто русском датасете
Аноним 13/04/20 Пнд 14:49:50 1657032378
>>1656695
Если шо, то tfrecord файл я создаю с помощью этого кода https://pastebin.com/rUiY2wMd
Может кто-нибудь посмотреть и сказать, почему оно не работает?
Аноним 13/04/20 Пнд 15:54:28 1657069379
>>1656797
Каждой букве давать свой класс, или просто один класс "anglosucks_letters"?
Аноним 13/04/20 Пнд 15:58:29 1657073380
>>1657069
...

Я вообще думал сделать без слоя классификации. Просто из архитектуры удалить последний слой и ничего своего не добавлять. Обучить так, а потом прикрутить классификацию с русскими буквами и уже крутить на русском датасете.
Аноним 13/04/20 Пнд 19:14:59 1657229381
Эмэляны, где данные по финансовым временным рядам берёте?
Аноним 13/04/20 Пнд 19:27:38 1657238382
>>1656243
не, типа кластеризацию по интересам
Аноним 13/04/20 Пнд 19:27:58 1657240383
Аноним 13/04/20 Пнд 21:23:21 1657340384
image.png (141Кб, 250x248)
250x248
Аноним 13/04/20 Пнд 22:01:51 1657360385
>>1657238
То есть тематический классификатор, окей
Аноним 13/04/20 Пнд 22:32:27 1657368386
Есть такая задача: обучить ML играть в мою же игру, которую я же и написал. Это нужно не для ML, а для расчётов баланса внутри игры. Например: есть три расы A1, A2 и A3. Если ML с расой A1 выигрывает у ML на A2 & A3, то A1 сильнее других рас, её надо понёрфить.
Так вот, единственные два вопроса: как добиться того, чтобы ML (наверное это будет desicion forest) играл в долгую, а не пытался увеличить баллы целевую функцию в близкую. Вот пример. Два игрока бьют друг друга. У обоих 100 HP. У них два хода: ударить сейчас (-10 HP) и копить силу 5 шагов, чтобы ударить (-0 HP сейчас и следующие 5 шагов, а потом ударить на -100 HP и ваншотнуть). То есть если агент будет применять скилл №2, то первые 5 раз у него ничего не будет кроме какого-нибудь нарастающего баффа. И только в шестой раз нарастающий балл спадёт и произойдёт удар. Допустим, я не хочу читерить с обучением, вводить бикамералку и говорить обучающей сети, что бафф на нарастающий удар это само по себе очень хорошо. Допустим, я хочу, чтобы агент выяснил это сам.

Возможно кто-то предложит мне смотреть в сторону starcraft ai, где решали как раз задачу обучения агентов (но там не для баланса, баланс рас выяснился как следствие)
Аноним 13/04/20 Пнд 23:17:06 1657388387
>>1657368
Обычно для того чтобы спровоцировать агента на "исследование" распределение на множестве стратегий делается зависимым от частоты выбора каждой стратегии в прошлом, таким образом что редковыбираемая стратегия получает некоторый бонус, но вообще с отложенными выигрышами нужно настраивать как именно этот бонус даётся и в целом то чем ты занимаешься называется reinforcement learning, а там нет решений из коробки, надо дрочиться. Почитай книгу Сарто по реинфорсмент лёрнингу, там разобраны основные рецепты.
Аноним 13/04/20 Пнд 23:21:12 1657390388
>>1657388
Барто то есть блядь
Аноним 13/04/20 Пнд 23:49:17 1657405389
>>1657069
Каждой свой класс.
Лучше всего обучается, когда размер датасета для каждого класса примерно одинаковый либо соответствует распределению в реальном мире. Ты же создашь большой перекос в распределении и получишь говно.
>>1657073
А обучать ты как будешь, лол
Аноним 13/04/20 Пнд 23:51:46 1657406390
>>1657368
Сначала твои игроки научатся рашить, потом кто-то либо случайно поймет, что долгая стратегия выгоднее, либо у тебя неправильный баланс и раш всегда лучше
Аноним 14/04/20 Втр 17:20:18 1657836391
>>1657032
>>1656695
Блин, а где еще можно спросить? Тут походу не ответят.
Аноним 14/04/20 Втр 17:58:32 1657863392
Можно ли нейросеть обучить выводить вектор нормали плоскости лица человека? Допустим, я в DAZ наделаю моделек, из них датасет с векторами, а потом пущу обучаться свёрточную нейросеть. Не слишком ли сложная вычислительная задача, чтобы это было очень аккуратно?
Аноним 15/04/20 Срд 00:19:34 1658113393
>>1657863
А зачем? С этой задачей алгоритмы комп. зрения справляются достаточно точно. Для них, правда, нужны координаты глаз и носа на изображении. Вот эти точки ты можешь нейронкой искать.
Аноним 15/04/20 Срд 02:27:56 1658139394
>>1657863
Задача называется head pose estimation, готовых решений полно, и с нейронками, и без
Аноним 15/04/20 Срд 13:50:34 1658377395
>>1657388
> reinforcement learning
Оказывается, AlphaStar именно так и обучался.
https://habr.com/ru/post/437486/
> Поведение AlphaStar генерируется нейронной сетью глубокого обучения, которая получает через интерфейс сырые данные (список юнитов и их свойств) и дает на выходе последовательность инструкций, которые являются действиями в игре. Если говорить точнее, архитектура нейронной сети применяет подход «transformer torso to the units, combined with a deep LSTM core, an auto-regressive policy head with a pointer network, and a centralised value baseline»
Аноним 15/04/20 Срд 15:11:19 1658460396
>>1658377
>хабр
>очередной кривой перевод
Зачем ты ссылу на это говно сюда тащишь? Шаброхомяк, уходи
Аноним 15/04/20 Срд 20:36:52 1658646397
facepalm.jpg (8Кб, 468x303)
468x303
>>1658377
>Оказывается, AlphaStar именно так и обучался.
Ты ведь даже не понимаешь, о чём говоришь, да? Reinforcement learning - класс задач, AlphaStar - один из предложенных способов решения конкретной задачи из этого класса.
Аноним 15/04/20 Срд 23:10:09 1658745398
>>1658646
> AlphaStar - один из предложенных способов решения конкретной задачи из этого класса
Альфастар это бот для игры в старкрафт 2 от компании deepmind.
Аноним 16/04/20 Чтв 11:45:48 1658931399
Я вот тут выбираю подходящий эмбеддинх, чтобы мог во фразы. Нашел некий sent2vec, типа "надстройки" над CBOW из fasttext, читаю по диагонали пейпер про него, и что же там пишут - типа в настоящее время разработки в области NLP идут в двух направлениях, deep и shallow модели. Диблернинх это всякие сойбойские архитектуры с аттеншенами и "стак море лейерс", которые на гугловских кластерах еле дышат, а shallow это например всякие скипграмы и CBOW Миколова и их дальнейшее развитие. Так вот, конкретно для эмбеддинга фраз все эти ваши лстм рнн итп не превосходят простые shallow модели, а то и проебывают им, есть ссылки на исследования. Как так-то? Может быть, дело в том, что язык вообще очень простая хуйня, и простейшего трясения матрицами достаточно для его моделирования, потому все эти тысячи слоев не добавляют ничего к точности? А в целом низкая точность NLP из-за непонимания сути языка и т.о неадекватных датасетов?
Аноним 16/04/20 Чтв 11:51:22 1658935400
>>1635685 (OP)
Как оценить качество изображения (например томография)? Цель - отсеять томографии с плохим качеством из датасета.
Аноним 16/04/20 Чтв 12:10:37 1658941401
>>1658113
Я хотел эти точки потом преобразовывать в соответствии с вектором, чтобы получить данные о лице, а не сам вектор получить. Какая же тогда точность будет? Я так не смогу сделать распознавалку лиц.

Может есть ещё какие-то способы для сравнения лиц?
Аноним 16/04/20 Чтв 12:19:22 1658947402
>>1658941
Распознавание лиц это технология электронного ГУЛАГа, с такими вопросами сразу нахуй. Это даже хуже, чем в треде по химии спрашивать как бомбу сделать или дурь сварить.
Аноним 16/04/20 Чтв 12:33:34 1658959403
Аноним 16/04/20 Чтв 13:02:48 1658973404
>>1658959
Обучить на датасете с хорошим качеством.
Аноним 16/04/20 Чтв 13:40:04 1659001405
>>1658935
Спроси у врачей, которые эти томограммы делают, мы-то откуда знаем?
Аноним 16/04/20 Чтв 14:29:51 1659072406
>>1659001
Вручную это изи делается, просто глядя на снимки понятно.
Я думаю, как бы это автоматизировать. Да и скорей всего уже кто-то делал такое...
Аноним 16/04/20 Чтв 14:44:58 1659093407
>>1658947
>электронного ГУЛАГа
Что в этом плохого? Либирашек нужно вычислять автоматически.
Аноним 16/04/20 Чтв 15:27:06 1659152408
изображение.png (3Кб, 314x297)
314x297
Аноны, есть такая задача на сравнение картинок. Я рисую круг как на пике несколько раз (в другом варианте это расположение различных простых элементов и линий на картинке). Отдаю картинки машине. Потом я и другие аноны рисуем такие круги и машина должна сказать, нарисовал новый круг я или не я. К какому классу относится такая задача, какой общий алгоритм действий, какой софт лучше использовать для ее решения и сколько примерно кругов мне надо нарисовать изначально (либо от чего зависит нужное количество кругов)? Сам в МЛ лезть не хочу, поэтому надо понять, как составить тз.
Аноним 16/04/20 Чтв 15:41:34 1659171409
>>1659152
Помню, был сайт с игрой, где ты рисуешь предметы, а нейросеть угадывает, что это. Возможно, это близкая по смыслу задача.
Аноним 16/04/20 Чтв 15:49:20 1659175410
>>1659152
Ещё один. Предыдущему нужно распознавание лиц, этому распознавание почерка.
Аноним 16/04/20 Чтв 16:04:26 1659186411
>>1659175
Кстати да, получается почерк так тоже можно распознавать. Но у меня другая задача. Если без подробностей, то это стиль работы с интерфейсами и нет, не для слежки. Видимо, все это очень граничит друг с другом и по сути стороны одной медали.
Повторюсь, задача не в отнесения новых данных к одной из множества групп (людей в твоем примере), а в отнесении новых данных к одной заранее известной группе. Задачи похожи, но немного другие акценты в моем случае, на мой взгляд.
Аноним 16/04/20 Чтв 17:04:07 1659244412
>>1659072
Собери 1000 примеров и скорми реснету
Аноним 16/04/20 Чтв 17:58:33 1659301413
изображение.png (8Кб, 696x180)
696x180
Что за (input1) и (input2)? Dense - это же класс. Куда они передаются?
Аноним 16/04/20 Чтв 18:04:35 1659309414
Аноним 16/04/20 Чтв 18:32:58 1659339415
>>1658931
>Как так-то?
Ну так, что и то и то скорее всего просто работает хуёво. Оно и понятно, cам прикинь чего больше: уникальный фраз или уникальных слов, очевидные проблемы с резепрентативностью.
Есть и более практическое объяснение: всем на этот sent2vec плевать, а авторы не в гугле всё-таки работают, настроили трансформеры как умели, ничего и не получилось.
Аноним 16/04/20 Чтв 18:42:51 1659351416
>>1659309
Есть такое в "ванильном" python'е или это только в keras такое?
Аноним 16/04/20 Чтв 20:01:17 1659421417
Аноним 16/04/20 Чтв 20:08:49 1659427418
>>1659152
Я бы вначале проверил сможешь ли ты индентичный кружок нарисовать спустя неделю. Потому что мне кажется, что нет.
А так надо научиться извлечкать признаки из картинки окружности, например, координаты центра, радиус, насколько это окружность, с какой точки и в какую сторону рисовалось. А там уже любую модель пытаться обучить
Аноним 16/04/20 Чтв 20:14:16 1659431419
>>1658935
Смотря сколько их и насколько они разные. То есть если их немного, то есть же дохуя методов поиска выбросов, не?
Алсо помню видос от одс по соревнованию, где тоже с медицинским снимками работали. Там духота была
Аноним 16/04/20 Чтв 20:25:25 1659435420
>>1659427
Спасибо за ответ. То есть, нужно получить максимум данных (скажем так, цифр) из картинки самому, а потом с этими данными уже работает нейросеть? Мне казалось, что поиск похожих изображений (например, светофоров) происходит как-то иначе.

Еще немного подробностей о задаче: изначально у меня как раз есть эти точки, их типы (например, цвета) и координаты. Я хотел их наносить на изображение (на белый фон) и отдавать машине.
Аноним 16/04/20 Чтв 20:39:07 1659445421
>>1659435
Ну вообще иначе происходит, да. Можно прямо картинками обучать сверточную нейросеть. В принципе это очевидно лучше для твоей задачи.
Не знаю мне почему-то пришло в голову прям с картинки какие-то признаки получать. Например с opencv нарисовать правильный круг вокруг нарисованного https://www.pyimagesearch.com/2016/10/31/detecting-multiple-bright-spots-in-an-image-with-python-and-opencv/ посмотреть координаты центра, занимаемый объем ну и тд.

Но вообще да просто cnn заюзать и думать не надо

> Еще немного подробностей о задаче: изначально у меня как раз есть эти точки, их типы (например, цвета) и координаты. Я хотел их наносить на изображение (на белый фон) и отдавать машине.

Ну если наоборот у тебя точки есть, то необязательно тебе их рисовать и отдавать нейронке, можно сразу на их основе какие-то признаки сгенерить и запилить модель или какую-нибудь метрику придумать для сравнения. Надо просто пробовать разные способы, смотреть что лучше получается
Аноним 16/04/20 Чтв 20:48:17 1659453422
>>1659445
Ты сам умеешь все это делать? Если да, оставь какой-нибудь контакт (почта, тг, дискорд), я бы взял у тебя платную консультацию, когда подойду к этой задаче.
Аноним 16/04/20 Чтв 21:24:45 1659485423
>>1659453
Не, у меня нет такой квалификации, чтобы консультации давать. Просто пишу как бы я делал.
Ты в принципе можешь прямо сейчас посмотреть и позапускать нотебуки на кэгле по digit recognition https://www.kaggle.com/c/digit-recognizer/notebooks разница с твоей задачей будет, что у тебя вместо 10 два выхода - вероятность, что твой круг и что не твой
Аноним 16/04/20 Чтв 21:49:06 1659506424
Аноним 17/04/20 Птн 00:38:33 1659627425
>>1657836
Таки может кто-нибудь посмотрит? Я все вроде сделал правильно, взял готовую рабочую модель трансформера, прицепил CNN Может тут и есть ошибка? Плохо знаком с керасом и поэтому что-то не так сделал? и удалил эмбеддинг из энкодера.
Аноним 17/04/20 Птн 19:19:21 1660244426
Начал обучать свой детектор объектов на основе моделей тензорфлоу. За час на небольшом пиздец мелком датасете обучил, вроде нормально работает. Но с видео проблема. Когда объект движется оно вместо одного объекта обнаруживает вместо него 2-3 с почти тем же боксами. Как фиксить?
Аноним 17/04/20 Птн 20:51:53 1660340427
Сап. Не могу понять, что конкретно получается на выходе у skip-gram модели? Везде, где искал, как-то по-разному пишут. Расскажите, кто знает, пожалуйста. С меня как всегда.
Аноним 17/04/20 Птн 22:46:25 1660442428
>>1660244
Ставить порог в 0.975
Аноним 18/04/20 Суб 02:52:45 1660629429
Аноним 18/04/20 Суб 10:39:54 1660713430
1578771486617.jpg (64Кб, 300x300)
300x300
Когда в тензорфлоу подгонят наконец нормальную работу с разреженными тензорами, а не только с двумерными матрицами?
Аноним 18/04/20 Суб 11:30:01 1660764431
Аноним 18/04/20 Суб 11:30:29 1660765432
>>1660713
После поддержки пихвоидов
Аноним 18/04/20 Суб 12:27:25 1660795433
>>1660713
Когда это запилят в cudnn
Аноним 18/04/20 Суб 12:52:03 1660816434
Аноним 18/04/20 Суб 14:59:34 1660974435
>>1660244
Прог +еще Non maximum supression
Аноним 19/04/20 Вск 01:52:08 1661487436
Анон, обучаю сетку, а мне на разных эпохах выдаёт: invalid literal for int() with base 10: 'target'
Что за херня? Из-за чего? Target вроде везде числовой.
Аноним 19/04/20 Вск 02:22:15 1661496437
>>1661487
ты вообще ничего не сказал. Ни что за язык ни что за пакет. Керас у тебя там или чистый тензорфлоу. Так мы ничего не скажем. Но я думаю, что у тебя в твои данные для обучения попала заголовочная строка таблицы, где есть строка target
Аноним 19/04/20 Вск 08:32:40 1661549438
1.jpg (238Кб, 740x738)
740x738
epoch007inputla[...].jpg (20Кб, 512x512)
512x512
epoch007realima[...].jpg (18Кб, 512x512)
512x512
epoch007synthes[...].jpg (16Кб, 512x512)
512x512
Здравствуйте еще раз. Есть вопросы. Сделал выборку для обучения pix2pixHD. Решил делать только одну анатомическую часть- просто грудь средних размеров.
Не совсем аккуратно обученный YOLO детектор, который я запускал только для теста вначале выдал 11000 результатов по среднему размеру груди (не плоски и не огромные- их я отмечал отдельно вроде как) из выборки в 33000, но если я его подтяну, он найдет чуть больше. Из этой выборки я взял 6000, которые не были совсем пустыми по разнице и не самые "зеленые", где генератору нужно было бы угадывать все изображение.
Пока что результат такой, это буквально первые 50к итераций этой ночью.
Lr дефолтный 0.0002, почитал статей, испугался кривыущих трехмерных графиков и включил дропаут (ранее не включал). Батч 1, разрешение 256. Вот параметры дефолтные p2pHD n_blocks_global: 9
n_blocks_local: 3
n_clusters: 10
n_downsample_E: 4 - это генератор
n_downsample_global: 4 - это тоже генератор?
n_layers_D: 3 - дискриминатор, ок
n_local_enhancers: 1 - что это?
ngf ndf 64.
Что можно и нужно изменить в процессе обучения и в параметрах сетки?
Что я пытался делать ранее на менее аккуратных выборках- можно увеличить количество слоев n_downsample_global до 5, если сделать ngf и ndf 32- больше памяти не хватает, но особых изменений в лучшую сторону я не видел, скорее наоборот- сгенерированная картинка становилась более размытой. Можно также увеличить n_layers_D: 3 до 5 например- возможно что дискриминатор дошел до предела своих возможностей и это поможет таки прорисовать соски на груди?
Можно при тех же дефолтных параметрах сделать ngf ndf 90, но я не знаю как это влияет на итог.
Можно уменьшить Lr до 0.00015 или 0.0001 (собственно сейчас я это сделал и жду)- ранее когда сетка начинала обучаться медленнее результаты прорисовки деталей улучшались.
Пока что обучение не схлопнулость до нулей, как оно любит делать.
(epoch: 6, iters: 4410, time: 0.691) G_GAN: 2.072 G_GAN_Feat: 11.270 G_VGG: 6.509 D_real: 0.012 D_fake: 0.011
(epoch: 6, iters: 4510, time: 0.692) G_GAN: 2.045 G_GAN_Feat: 6.935 G_VGG: 4.047 D_real: 0.023 D_fake: 0.018
(epoch: 6, iters: 4610, time: 0.692) G_GAN: 2.309 G_GAN_Feat: 9.387 G_VGG: 4.705 D_real: 0.056 D_fake: 0.017
(epoch: 6, iters: 4710, time: 0.691) G_GAN: 1.914 G_GAN_Feat: 9.022 G_VGG: 4.087 D_real: 0.005 D_fake: 0.012
(epoch: 6, iters: 4810, time: 0.693) G_GAN: 1.770 G_GAN_Feat: 10.887 G_VGG: 5.132 D_real: 0.008 D_fake: 0.020
(epoch: 6, iters: 4910, time: 0.692) G_GAN: 2.166 G_GAN_Feat: 9.647 G_VGG: 4.933 D_real: 0.007 D_fake: 0.008
(epoch: 6, iters: 5010, time: 0.691) G_GAN: 1.870 G_GAN_Feat: 8.349 G_VGG: 3.217 D_real: 0.013 D_fake: 0.018
(epoch: 6, iters: 5110, time: 0.694) G_GAN: 2.335 G_GAN_Feat: 7.818 G_VGG: 4.237 D_real: 0.010 D_fake: 0.019
(epoch: 6, iters: 5210, time: 0.689) G_GAN: 1.669 G_GAN_Feat: 7.253 G_VGG: 3.981 D_real: 0.005 D_fake: 0.040
Графики, если их сгладить, -плавные нисходящие, вроде все хорошо и продолжает обучаться.
И, может стоит, как советовал мне ранее анон, перейти с p2pHD на сетку, например, с Unet128 или 64 генераторами, или resnet9block? пробовал ранее resnet9 и на совсем маленьких примерах, где девушка стояла в полный рост на разрешении 256 на 256 детализация была очень хорошей. Я вроде как понимаю, что это зависит от поля зрения модели, но мне хочется делать все это на разрешении приемлимо- хотя бы 256 на 256 на грудь, а не на полный рост. И их архитектура вроде как заточена на "медицинскую" разметку по цветам, а не на "сложную генерацию", но я могу ошибаться.
И мне кажется, что p2pHD должен хорошо справиться и сам, ведь в примерах работы он отрисовывал у автомобилей и мелкие детали типа фар и стекол, а не рисовал весь автомобиль как кусок однородного железа, как в моих примерах. Да, там на входе были размечены границы авто и еще много разных объектов для отрисовки, именно поэтому я надеюсь, что сетка должна справиться с моей маленькой задачей.
Можно и у меня их разметить объект без излишней детализации, правда я еще так не делал и я не совсем уверен, что разбиение на карту instances с одним единственным объектом, который совпадает с зеленой маской, по которой сейчас идет обучение, чем-то поможет. Ну и время обучения там с их ресурсами было большое, побольше чем у меня- далеко не день. И аугментацию я уже прилепил к p2pHD, очень не хочется опять ее запиливать на другом коде.
В голову лезет всякий бред типа - выходную картинку с размытыми контурами еще раз загнать как A и прогнать AtoB в этой же сети.
Я также пытался изменять архитектуру сети, чтобы увеличить поле зрения сетки- ну собственно увеличивал количество слоев, но там упирался в потолок объема памяти, а изменения кода вручную выдавали совсем нерабочие результаты.
Собственно главные вопросы- куда копать, что делать разумнее всего сейчас? Менять параметры, и если да, то какие? Или просто ждать обучения? Или прыгнуть на другие архитектуры или с девятиэтажкиили запиливать свою сетку с рандомом и аугментацией?
А, и еще вопросик- почему гамма так плохо передается?- Это похоже на "болезнь" p2p алгоритма- на всех картинках всех имплементаций все детали тоже меняют цвет слегка. Не особо важно, но может что-то можно сделать.

Ну и о хорошем- я для своей выборки научился массово а автоматическом режиме выравнивать изображения с помощью фотошопа и двух скриптов на питоне, даже те что первоначально не совпадали на несколько пикселей или больше и были выбракованы.
О двач, дай советов мудрых, спасибо.
Аноним 19/04/20 Вск 08:39:35 1661553439
>>1661549
Я не понимаю что ты залил зелёным. Там реально купальники были? Что ты требуешь от сети? Где обучающая выборка было->стало? Я так понимаю, нужно брать все известные пары с данбуру, где есть альтернативные варианты одного и того же изображения: с купальником и без. А на чем у тебя обучается?
Аноним 19/04/20 Вск 08:46:11 1661556440
>>1661553
да, всё так, пары с данбуры и еще много откуда. Я сделал между картинками разницу и залепил ее сверху как маску, чтобы сетке не нужно было сначала учиться отделять купальники от всего остального, чтобы ей было проще лол - зеленый- значит генерируем, остальное- не трогаем. Это у меня такое примитивное понимание процесса, я могу быть неправ.
Оригиналы есть тоже, и результат близок к тому, что на картинках, если использовать их как A, но время обучения дольше.
Аноним 19/04/20 Вск 19:00:25 1662214441
163871061021169[...].jpeg (68Кб, 807x807)
807x807
>>1661496
Спасибо.
Пистон 3.7, торч 1.4
Использую модель с того гайда с применением торчтекста:
https://mlexplained.com/2018/02/08/a-comprehensive-tutorial-to-torchtext/
Данные - набор текстов и столбец с метками (для обучения/валидации). Стоит задача классификации, решается через lstm.
Обучение запускается и на разных этапах выдаёт ошибку:
invalid literal for int() with base 10: 'target'
Один раз модель почти обучилась, на на 97% опять ошибка.
Алсо, данные чистятся, потом записываются в csv, потом обпыть читаются неэффективно, но альтернативу уже нашёл
Аноним 19/04/20 Вск 19:11:07 1662233442
>>1662214
> потом записываются в csv
Открой файл, посмотри первую строку. Почти уверен, что там заголовок, из-за которого происходит твоё падение
Аноним 19/04/20 Вск 19:13:54 1662236443
>>1662233
Заголовка нет.
Модель же может поломаться, если текста нет?
Аноним 19/04/20 Вск 19:33:15