Очередной тред про хипстерские технологии, которые не работают
Я ничего не понимаю, что делать? Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему такой фокус на нейронки? Потому что остальные чистят вилкой данные в банках с помощью LGBTboost и им некогда предлагать обновления в шапку
Какая математика используется? В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus
Можно не python? Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет
Где набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/ Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных? http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь
Когда уже изобретут AI и он нас всех поработит? На текущем железе - никогда, тред не об этом
Кто нибудь использовал машоб для трейдинга? Никто не использовал, ты первый такое придумал. Готовь камаз для бабла.
Список дедовских книг для серьёзных людей: Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: http://libgen.io/
Здравствуйте, данные научники, возникла идея написать классификатор, суть в том, чтобы телеграмм бот выдавал картинки, человек их оценивал и ему назначаются цифры(представьте координаты в 3-хмерном пространстве), т.е если человеку понравились определенные картитнки, то бот отнесет его к определенной категории людей, в общем то можно просто поставить весы у каждой картинки по каждому измерению, типа если тебе понравилась эта картинка, то ты такой-то и далее тебе будут более релевантные картинки присылаться, в общем-то алгоритм не требует нейронок, но я подумал, что нейронки и классификаторы(это одно и то же?) подойдут тоже для этой задумки, хотел поспрашивать что почитать, какая реализация подходит под эти параметры(сам о нейронках только в общих чертах знаю). Я не планирую писать свою сложную рекомендательную систему, но мне кажется что решение уже есть и оно будет эффективней того что я могу напрогать своими ручками, прошу в ответы, кто знает в каком направлении мне двигаться
>>1947597 но тогда тебе придется прислать каждому новому юзеру 20 картинок, чтобы понять что ему нравится, что довольно тупо по нынешним временам. Начать сразу с одной картинки будет нельзя.
>>1947597 >в общем-то алгоритм не требует нейронок, и почему ты вообще за это зацепился? Ведь на картинках что-то изображено и это что-то очень важно.
если тебе не хочется обучать нейронку, набери свой датасет из картинок и воображаемых юзеров. Потом поставь Orange и посмотри как он сделает циферки из картинок (всеми обоссываемой) нейросетью ImageNet, но по сути он же распознает картинки.
Далее придумаешь что-то получше и можно будет писать в коде.
>>1947637 Я предполагаю что картинки будут создавать люди, например я, основываясь на своих предпочтениях и поэтому люди могут так же давать характеристику картинки, поэтому и думаю что не обязательно нейронки юзать, но в остальном спасибо, почитаю, посмотрю
Я примерно понял как эта поебень работает, но как он хочет самообучающийся ИИ сделать на основе этой хуйни? можно словить смертельную дозу кринжа с комментов
>>1948281 Ну так классическая хуйня из 60-х, мол, достаточно просто загрузить в систему аксиом и компуктер сам всё выведет. Навыдумали всяких хорновских дизъюнктов, доказали в них полноту метода резолюций, а потом откуда-то полезли функции аккермана и экспоненты экспонент. На этом всё загнулось без какого-либо практического результата. Естественно, там под ИИ подразумевался автоматический логический вывод и прувер разных теорем. https://en.wikipedia.org/wiki/Logic_Theorist
>>1948281 Есть и более совершенные программы для подобных целей, где более полный силлогистический базис https://www.youtube.com/watch?v=PtqBE4BTqwQ и без ошибочного того же логического квадрата или представления о дихотомии. Оказывается, что как типов суждений, так и типов силлогизмов будет много больше (помимо классического конъюнктивного), чем ранее считалось, вместо одного вывода силлогизма может быть, как минимум, два, всё это согласуется с алгеброй логики и другие преимущества тоже есть.
Фактически это далеко не единственная область применения подобных типов слоёв (Conv3D, ConvLSTM) - не каждая последовательность матриц — это видео))) Как пример, писал с применением подобной вещи - аппроксиматором для решетчатых уравнения Больцмана (обтекание жидкостью препятствия и возникновение не стационарности течения)(не особо успешно, пример прикрепил). А если «повыдумывать» - то можно в stack собрать какие-либо темпоральные данные (курсы валют) и покатать данными слоями в составе например энкодеров или ещё чего, с учётом разномасштабных окон и возможно будет практическая значимость (если конечно потом получится RL агента научить этими прогнозами пользоваться).
>>1948157 >Охренеть. Чем занимаешься? Аспирант в американской шараге. Занимаюсь по сути тем же, чем занимаются машобщики в индустрии - трясу нейронку пока не вытрясу нормальный результат. Затем публикую пейперы, которые цитируют 1.5 инвалида и забывают. Область не скажу, но если в общих чертах, то классификация изображений.
>>1948751 >Пили стори, как перекатился? Есть два варианта. Первый - продаешь бабкину квартиру в ДС и поступаешь на платный бакалавриат, во время которого заводишь знакомства с преподами и изучаешь разные аспекты жизни. После этого абсолютно без проблем перекатываешься на ПхД.
Второй вариант - заканчиваешь где угодно бакалавриат и поступаешь сразу на ПхД. Это сложнее, но вполне возможно. Забудь про колледжи, которые от 50 места в рейтинге и выше. Все требования найдешь на сайте вуза. Обычно это всякие бумаги об образовании, TOEFL, GRE и эссе, почему ты хочешь у них учиться. Самое главное - это найти препода, которого ты хочешь себе в качестве научрука, лично с ним связаться и обкашлять вопросики. При его поддержке шансы возрастут на порядок.
Но вообще, идти на ПхД я не рекомендую. Будешь получать на уровне кассира волмарта, а после защиты диссертации в лучшем случае перекатишься в индустрию зачастую кодомакакой, а реалистично - пойдешь постдоком за нищенские 50-60к.
>>1949066 >Лучше после бакалавриата сразу в индустрию? Если изначально не хочешь работать в индустрии и плевать на деньги, то можешь пойти на ПхД, но в противном случае нужно как можно быстрее устраиваться в индустрию, в идеале после бакалавриата.
Какую модель мне использовать, чтобы сделать переводчик письменного текста? Надо, чтобы я взял условно 2 книги — на первом и втором языке, обучил ими модель (без синтаксического разбора, пусть модель хандлит опечатки и прочее) и получил переводчик. Надоело гугл-транслейтер использовать.
Наверное тут таких не любят, но я попробую. У меня конкретная задача, которую я хочу закрыть и забыть. Почитал десяток статей и так и не понял что мне нужно. Есть изображения, приблизительно 5000х3000, на них хочу детектить объекты, их много, они перекрываются местами, но класс один. Нашёл прогу для разметки - LabelImg. На выходе будут PASCAL VOC/YOLO XML файлы как я понял. Дальше у меня 2 вопроса, какую модель выбрать, изходя из того, что мне , в разумных пределах, не нужна скорость, зато хочу размечать поменьше данных. И надо ли резать мои большие картинки на более мелкие и как?
>>1950054 >Обьеби sota своими ебучими экспертными системами До хуя исследований в области ЭС финансируется? ЭС боятся, поскольку они работают и могут выбросить на мороз многих говноедов.
>>1949804 >И надо ли резать мои большие картинки на более мелкие и как? если нарежешь картинок через разметку, то потом просто пройдись по ним трансформом и усе
>>1949992 Рекомендательные системы, табличные данные, интерпретируемые модели и быстро работающие модели с терпимым качеством. В остальных областях без нейронок скорее всего поешь говна.
>>1950434 Покажи в классификации изображений "классический" метод, сравнимый с нейронками. Желательно чтобы ещё скор на imagenet был. Или в nlp (в задачах чуть сложнее определения спама).
пацаны работаю прогрером, хочу перекатиться в cv но не хочу весь день сидеть в жупитере расскажите плез, цвшники все время тусуют в построении моделей или тоже прогают?
Допустим, мне нужно выделить кластеры среди клиентов компании по специфике их потребительского поведения. Метрик по клиентам до сотни и многие из них категориальные.
Мой план: 1. Снизить размерность автокодировщиком до 2\3 переменных 2. Использовать какие-нибудь простые алгоритмы кластеризации и заодно обратить внимание на точки вне кластеров хотелось бы заодно решить вопрос anomaly detection в данных
Чего я не могу понять, так это на что ориентироваться при выборе продолжительности обучения автодировщика для данной цели - в интернетах на всяких towardsdatascience слишком абстрактные статьи, и такие же абстрактные примеры с произвольной архитектурой и количеством эпох (часто, насколько вижу, берется достаточно большое количество эпох). Имеет ли смысл подходить к этому как обычно делается при обучении с учителем и ориентироваться на потери на тестовых данных или тут это не то?
>>1950960 >Кекус, нейроговно в банальный морфоонализ не может Как и классические методы. >В OpenCV куча реализованных алгоритмов Ты с кем споришь? Кто-то говорил, что дедовских алгоритмов не существует? Найди теперь скор на imagenet с использованием HoG'ов, кнн-ов и svm-ов.
>>1951071 Так это ж не вся модель. Алсо, индусы как всегда, индусский код как стиль жизни: Before running the example notebook, you will need to install the package using
pip install git+https://github.com/openai/DALL-E.git Прописать в самом блокноте никак нельзя, разумеется. This can be changed to a GPU, e.g. 'cuda:0'. dev = torch.device('cpu') Самим написать cuda:0 вместо cpu никак нельзя, зато целый комментарий - запросто. >>1951072 > Это порезанная версия что ли? Чего так мало весит? Оно же загружает сами декодер и энкодер по ссылке с опенаи, код не смотрел штоле: enc = load_model("https://cdn.openai.com/dall-e/encoder.pkl", dev) dec = load_model("https://cdn.openai.com/dall-e/decoder.pkl", dev)
Сап еврибади. Я - придурок 2 курс, вкатываюсь в deep learning. Вопросы следующие: Если с вышкой понятно что учить, то как быть с теорвером и матстатом? Область обширная, а что нужно на практике (читай, собеседовании) непонятно. Что читать? Отсюда второй вопрос. Где получать реальный опыт на реальных задачах? Каггл, фриланс, пэт проекты? Что ещё? Третий вопрос. Чего хотят от trainee/джуна? Набирают ли конторы мясо вроде меня с целью обучения (Украина), и есть ли в этом смысл вообще? Тупо пиздячить теорию не вариант, да и непонятно куда двигаться. Всем мир, атдуши.
>>1951071 И что оно делает? Запустил в куколабе, как выяснилось, индусский код не работает, но рабочий вариант в первом issue. Грузит откуда-то пенгвина, пик 1, как-то его обрабатывает(?), пик 2. И это все?
Короче, как я пынямаю, это какая-то вспомогательная часть от DALL-E, которая что-то делает с картинками. И даже это нечто нормально выложить не смогли - недописанный, нерабочий код, никаких пояснений. И эти макаки в опенаи работают, за среднемесячную зарплату равную десятилетнему доходу среднего рабсиянина, пиздец. Какой же испанский кринж...
аноны, не пиздите палками плез работал 3 года в конторе питонистом бэкенда + для них же делал небольшой mvp по распознаванию облаков точек матан на том или ином уровне паршивости знаю сейчас наша контора к хуям развалилась из-за ебанутого СЕО и ищу работу - есть на пару месяцев запал и деньги, чтобы сменить профессию хочу вкатиться в комп зрение Вопрос: 1) есть ли смысл тратить время на fast.ai и подобные курсы или же лучше взять один пет проект и на его базе учить что-то? 2) на собесах насколько сильно дрочат по матану? Я в работе юзал только линейную алгебру - теорвр и прочее забыл довольно давно Двач не раз выручал меня, надеюсь, что вы, ребята, еще разок подскажите) а то я немного в прострации - думаю стоит ли или нет, ато жалко будет время потраченного
>>1951797 не слушай ебаклака >>1951805- это типикал токсик имхо - лучше проект. Конечно надо разобраться в общем как работают нейросетки в задачах и сегментации и классификации но все это можно покрыть чтением + работой на парой проектов и да, очередной раз убеждаюсь, что двач и близко сравниться с одс не может такое ощущение, что тут одни обиженки сидят
>>1951738 А где их скачать-то? А то пишет, что когда-то разрабатывалось да и всё. Оно что, на магнитных лентах у дедов? Из современных слышал только об акинаторе как экспертной системе.
>>1951824 >А где их скачать-то? Ты у мамки глупенький? Читай историю про MYCIN, там так пердаки у докторов разорвало, что они всячески торпедировали проект. Никто не позволит развивать работоспособные вещи, вся суть копетоглизма.
>>1951839 > Никто не позволит развивать работоспособные вещи > вся суть копетоглизма правильно ли я понимаю, что вся суть копетализма - делать неработающие вещи?
>>1951847 >работающие вещи генерируют прибыль Ну смотри, помнишь был в пендосии чел который написал штуку, которая составляла типовые судебные обращения? Так вот, у гильдии юристов бомбанули пердаки, поскольку они могли оказаться без денег и они начали таскать чела по судам. Все. Так же было и с докторами и с любым кого ты попытаешься оторвать от корыта с хрючивом.
>>1951877 Ты статью читал, шизло? Автор гребёт бабло лопатой. Праклятый срапетаглизм, ух, как угнетают честного программиста! > In 2019, Browder obtained $4.6 million in funding from Silicon Valley investors such as Andreessen Horowitz and Founders Fund, who were early funders of Facebook.[33] Алсо, проект его живёт и процветает > It is currently available in the United Kingdom and United States (all 50 states).[2]
Привет, пацаны. Есть идея для одного аналитического проекта, предлагаю обоссать всей бордой. У нас фирма делает жижу для парилок и табаки для кальяна. В принципе, суть проста – есть безвкусная основа, есть аромы в разных пропорциях. Появилась идея натренить модельку на веса каждого из ароматизаторов (их может быть до 100 шт, поэтому придется разбивать на группы), после чего нагенерить дохуя рандомных сочетаний компонентов и создать «ПЕРВУЮ В ИСТОРИИ ПОДЛИВУ СОЗДАННУЮ ИИ». Насколько эта херь жизнеспособна? Сам околовкатун уже почти год, могу в фитпредикт большей части моделек с пониманием принципа их работы, панды, нампи, немного R и прочую вот эту всю хуйню уровня джуна. Но не могу в нейросети – CV и NLP мне не интересны, остальное выебоны
>>1951943 Ну пиздец. И чем ты там все это время занимался? Целевую функцию придется выдумать. Далее нейросеть найдет неочевидные ароматы, которые почемуто еще никто не смешал. У вас отзывы есть? Хотя бы в текстовом виде. Обьем продаж? Популярность смесей на других сайтах? Общемировой каталог смесей?
Такая ситуация: на своем датасете обучил модель для классификации объектов (pytorch). Точность пока что меня устраивает ~80%. Но когда я загружаю модель для распознавания со своей камеры model.load_state_dict(), то выскакивает ошибка (даю лист, а нужно тензор, хотя в print() видно, что это тензор). Решил загрузить модель fasterrcnn_resnet50_fpn, ошибок уже нет, но она выдает предикты очень странными (показывает, что вейп - кружка, я - кресло, иногда я - это я) и соответственно боксы вокруг объектов для отображения вообще показывают случайные вещи. Вопросы: 1. Могу ли я все таки свою модель для классификации использовать уже для распознавания (что почитать, желательно с примерами)? 2. В моем классификаторе 4 слоя, в fasterrcnn_resnet50_fpn их очень много (сбился со счета когда считал). Полагаю, что из-за того, что много параметров в модели, у меня один кадр обрабатывается секунд пять (пока использовал только cpu, cuda не хочет видеть почему-то, но разберусь с этим потом). Можно ли обучить свою модель для детекции объектов, но чтобы она не была такая "тяжелая", какое минимальное количество параметров надо для детекции около 5 классов? 3. Лучше использовать готовую обученную модель или все таки пытаться сделать свою для детекции? Для начала мне нужно определять людей на изображении и еще 4-5 объектов (типа машина и т.д.).
В дальнейшем найденные объекты будут уже классифицироваться.
>>1953789 >В моем классификаторе 4 слоя, в fasterrcnn_resnet50_fpn их очень много (сбился со счета когда считал) >задает вопросы почему хреновое качество.
>>1954184 читай внимательней. Для простого рабочего классификатора 4-х слоев достаточно. fasterrcnn_resnet50_fpn - обученная модель для задачи распознавания. Вопрос состоит вообще в другом. Да и количество слоев - не показатель хорошего результата.
>>1953718 >>1954100 Сначала поищите вакансии в своем городе. Есть ли они вообще. Если есть, то читайте что требуется в них. И уже на основе этого стоит что-то учить.
Спалю годноту быдлу, на либгене выложили книжку "getting started with google bert", на гитхабе есть код к ней. Возможно, первая полноценная книга на тему трансформеров с матчастью и примерами использования. D2l все же не только и не столько про трансформеры.
есть 2 шкафа, с вероятностью 1/2 в первом шкафу есть пальто и с вероятность 1/2 во втором шкафу тоже есть пальто. (это не одно и тоже пальто, просто факт наличия какого-то пальто) Вот подхожу я к шкафам и гардеробщик говорит, что в первом шкафу пальто нет, какова вероятность, что во втором шкафу его тоже нет? с одной стороны логика подсказывает, что события независимы и вероятность для второго шкафа по-прежнему равна 1/2, но я наверняка знаю, что этот ответ неверный. Очевидного способа прикрутить сюда Байеса я не вижу, но как-то скорректировать ожидание вероятности после эксперимента надо.
>>1954744 Да какая там матчасть: матричных умножений нахуярили параллельных, обозвали "кёрнелом" это всё для отдельных вапникошизов, вот и вся матчасть.
>>1954968 Единственный значимый критерий оценки матчасти - качество работы. В остальном чем проще тем лучше. А по качеству трансформеры уделывают всё остальное из того что сейчас существует, это медицинский факт. Аттеншен точнее пулинга в свертках. И нет, твои петушиные ЭС не лучше трансформеров.
Так и не понял, что нужно делать с текстом, чтобы подать его на вход трансформеров для файнтюнинга, например. Здесь https://huggingface.co/transformers/preprocessing.html написана бесполезная хуйня, не имеющая ничего общего к входному формату моделей. В разных примерах разные индусы пишут разные хелперные функции, которые как-то преобразовывают неведомые скачанные датасеты в неведомых форматах в формат, пригодный для подачи на вход. Что и зачем делается, нигде не поясняется, равно и как сделать так же со своим текстом. Готовых хелперных функций для этого нет. Зачем все настолько через жопу, и где можно подробно про это почитать?
Пацаны, расскажите как можно работать с координатами? Мне блять выдали задачу регрессии с координатами по х, у и таргетом блять. Все. Умнее итерполяции ниче не придумал. Выручайте я абизьяна
Аноны, я не вкатыш, просто питон разработчик, возникла идея создать вроде простую нс, суть сводится к отгадыванию вектора видимо, проще представить цвета, твой любимый цвет загадал, нейронка опрашивает тебя нравится ли тебе такой цвет, а такой? По итогу видимо на вход есть, например, 10 ответов да/нет, на выходе 3 - rgb, так же не совсем понимаю как потом под человека ее донастраивать, корректировать от последующих вопрос типа это твой цвет? Подскажите, есть ли готовые решения, найти не смог, какую нс можно использовать, наиболее релевантную, прав ли я на счет входов и выходов, правильно понимаю, что для тренировки нс можно написать алгоритм, который сам генерит ответы на первые 10 вопросов, например есть цвет красный, вопрос красный да/нет, то он просто берет и численно высчитывает ответ, отправляет в нейронку и если по итогу нс говорит цвет красный, то это ей засчитывается, так будет работать? Дайте критику моего понимания, хочу просто сделать прототип не сильно углубляясь в математику, вроде не сложно, скажите чего я не понимаю(о нс только по паре статей знаю с хабра), подавать вместо да/нат на вход можно векторы цветов, это лучше?
Но если это тестовое задание, тебе бы следовало бы проявить себя аналитиком и запросить у них что же это за данные. Понять их природу. Понять допустимо ли использовать knn regressor.
Ты не на мотематике. Упрощения тут не работают и правильного ответа может не быть.
Можешь, конечно, дипзумеров с матрицами подождать . Может они меня удивят.
Поясните, как реализовать окно в трансформере. Вот есть батч из n строк длиной l. Получаем мы из него матрицу коэффициентов внимания размерами n x l x l. Если l большое, то это дохуя по памяти, на карточку не влезет. Хочу ограничить внимание окном размером w. Как это сделать, чтобы сэкономить память? В конкретных фреймворках желательно. В керасе уже есть слой attention, но он именно что делает матрицу n x l x l.
>>1955491 В общем да, действительно классификатор нужен, на хабре человечик написал что эта нс нужна скорее для знакомства и что ее не применяют на практике, есть что-то более правильное но в том же русле?
Читаю getting started with google bert, и сразу какая-то хуйня написана, стр 11-12. Вектор эмбеддинга слова размерностью 512 умножается на вектор матрицы весов Wk, Wq и Wv, каждый размерностью 64. И как это возможно вообще? Бред же.
Повторю пост из прошлого треда(не знал что перекат был) Аноны, подскажите пожалуйста, без лишней желчи. Сейчас стоит выбор во что вкатываться: .Net(C#) или же ML. Нравится имеено писать код, но и матешу не хотелось бы забрасывать. Следовательно вопрос: пишет ли код ML engineer или занимается тупым перебором табличек и подгадыванием коэфициентов? Во что перспективнее вкатываться?
>>1955927 1.Это не НС, а Настоящий Датасаенс. 2. Давай ссылку на свой сраный Хабр. Наверное побольше подробностей и смысла там описал. Все еще не ясна твоя идея
Может тут есть анон который с биомед. cv сектором работает? Пожалуйста отзовись, расскажи о специфике, тяжело ли искать работу и.... авось о проектах, была не была
>>1956125 Смотря ещё какая сфера биомеда. Но в большинстве случаев тебе всё равно профильное ВО потребуется если ты конечно не тупо код дрочить хочешь (хотя и там скорее всего как минимум птушка понадобится).
привет, у меня довольно странный вопрос, нубский довольно, но: в чем разница между нейронкой с одним выходом с сигмойдой И нейронкой с софтмаксом но двумя выходами? По сути результат у них один - они возвращают вероятности для двух классов, но что творится с кросс-энтроп. лоссом? 1) В первом случае у нас к примеру выход 0.6, лэйбл 1, лосс -log(0.6) 2) В втором случае у нас выход [0.6, 0.4], лэйбл [1, 0], лосс -(log(0.6) + log(0.6)) У них разные значения лосса, а значит в плане обучения и расп. градиента они разные?
>>1956039 Говорю же я даже определений не знаю, меня прототип просто любой интересует скорее, https://m.habr.com/ru/post/149693/ если реально нужно, а смысл этого алгоритма такой: на входе последовательность 0 и 1, на выходе 3 цифры - вектор(для примера с любимым цветом будет 3 байта), задача отнести к определенному классу человека по его ответам да/нет(1/0), хз стало ли понятней, хотя бы я могу теперь сформулировать задачу
>>1956716 это не смысл а твой пересказ смысла как будто ты формулируешь теорему на матеше. но, блядь, датасаенс это поиск смысла в данных! и они все нужны.
>>1954846 Блядб ересь какая-то. Я понимаю там прикол Монти-Холла, но здесь то реально вроде ничего не меняется от того, что гардеробщик что-то там спизданул. Условие точно верное?
>>1956833 Я уже сомневаюсь, если честно, но вроде верные Если даже я немного напутал, то я все равно не вижу в каком случае эту задачу можно было бы решить
>>1956854 думаю ты прав, похоже я действительно проебался и на самом деле гардеробщик сказал, что в одном из шкафов пальто нет ( а не "в первом шкафу пальто нет")
>>1947549 (OP) Есть тут специалисты по GAN'ам? Нужно ли в Conditional GAN'е смешивать реальные и генерированные метки класса по аналогии с метками реальное изображение/сгенерированное?
>>1956729 Данные это классы цветов, 10 оттенков красного и т.д, каждого цвета, какие еще нужны сведенья, чтобы понять, я не совсем понимаю, говорю же дурачек я
>>1956756 Я пытался читать про som, раз вновь советуют видимо подойдет, но для меня сложноватое было описание, словно som берет данные для класса и подгоняет точки под них, а у меня классы уже сформулированны, а точка одна только, ладно, буду читать еще
Сап аноны, платиновый вопрос: чо поичтать по нейронным сетям/глубокому обучению? На русском.
Сначала хотел Гудфелоу почитать, но чот на амазоне в отзывах его книгу хуесосят. Что есть рили нормальное? На амазоне в топе Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems Рили годно или тож не оч?
>>1957398 >На русском Это очень хуевая идея. Для машоба, как и программирования в целом, нужно обязательно знать английский. Без него ты даже в документации к библиотеке не разберешься.
Почему сойбои называют zero-shot learning'ом обычный предикт? Ну то есть, берём дедовский перцептрон, обучаем его на датасете из двух классов. Затем подаём на вход свой пример, которого не было в датасете, перцептрон его относит к одному из классов. Получаем что? Zero-shot learning.
Поясните что спрашивают у джунов на ML engineer? Ну допустим прогеров спрашивают по особенностям языка/фреймворка и это аналгично теории/концептам машоб для дата сайентистов. Но что аналгично задачкам по кодингу (для которых ты не должен знать все библиотеки/функции)?
>>1958050 Ну каггл, все в курсе про него. Намек на то что я должен выигрывать соревнования? Я еще слышал джун должен иметь PhD из Стэнфорда. Да и то это только на 20тыс руб в месяц потянет для начала.
>>1957874 >подаём на вход свой пример, которого не было в датасете Обычно имеется ввиду что и похожих не было. Например ты обучаешь мультиклассовый классификатор животных, но почему-то в трейне у тебя только кошки и собаки. Потом ты подаёшь на вход ящерку и с удивлением обнаруживаешь что тоже работает хотя на ящерок ты не учил. Это zero shot. Если прям совсем без ящерок не работает но достаточно добавить пару и заработает то это few-shot.
>>1958279 Если для nlp, то судя по примеру с transformers, zero-shot классификация это правильный выбор тега для поданной на вход фразы. Типа фраза "за кого вы голосовали?" относится к политике. Что больше напоминает именно predict, чем какой-то прямо суперхайтек. Просто у таких нейроночек датасеты, на которых обучен претрейн на многие порядки больше и разнообразнее, чем в дедовском машобе, поэтому и предикт работает поинтереснее. Одно дело ирисы Фишера, а другое какой-нибудь 40-гиговый корпус commoncrawl.
>>1958279 Оно в принципе работать не может, если в обучающей выборке вообще ничего похожего не было. Zero-shot - это когда обучил классификатор на кошках и собаках, а потом подсунул собаку другой породы, которой в выборке не было, и её правильно классифицирует, а не когда классификатору кошек и собак подсунули ящерицу.
>>1958832 Как я понимаю, суть явления в том, что при таких объемах обучающего датасета и параметров самой нейроночки, она "знает" настолько дохуя, что достаточно показать несколько примеров того, что конкретно от нее требуется, а дальше она сможет в подобное же по аналогии. Уже сейчас есть модель с 1.6 триллионов параметров, следующие будут с десятками и сотнями триллионов и обученные на терабайтных и петабайтных корпусах. Понятно, что у них с этим делом все будет ещё лучше.
>Тебе нужно отрекламится у топ блогеров IT и добавить рубрику IT новости. Канал к концу года на соточку можно будет вытащить. У тебя все задатки есть хорошая съемка видео внешность грамотная речь и интеллект самое главное >внешность
>Я, кажется, только теперь понял, зачем все преподаватели обязательно должны быть страшными, немытыми, небритыми обезьянами в грязных свитерах с недельным перегаром, и, желательно, мужского пола) >В противном случае, материал будет усваиваться крайне плохо, внимание концентрации будет идти не туда)
>@miracl6 Тоже в голову, но..как бы в другую. Которая не совсем умеет думать) Хотя.. в моей , судя по всему, начал даже мозг появляться после твоих видео- она даже комменты научилась писать, но до датасаенса ей долековато еще).
>Я уже четвертый раз пытаюсь пересматривать и не вкуриваю о чем идет речь. У меня в голове лишь "ай, какая хорошая девочка, ай какая умница, буси-буси-буси" )
>Красивая девочка ❤️
>Когда я вижу Настю, то у меня отключается мозг и я начинаю неудержимо писать всякую фигню. Мозга и так нет, так он еще и отключается) . А если в реале увижу -то вообще и спинной мозг отлючится. Как лечить этот недуг? Кто знает?
> @miracl6 А что еще? Ну скажи, я не обижаюсь. Анонимный ютубный комментатор не склонен обижаться априори. Может...сптоксикозник? Ну нет, этот недуг характерен для подростков, а я взрослый дядя).. Что еще?
>Глядя на заставку, мне кажется , что более светлый цвет волос придает Анастасии немного мягкости и она ощущается уже не такой злостной, агрессивной и строгой тетей. Посмотрим , как будет в эфире.
>Я всегда восхищался Настиной милотой. Она мне нравится любая - даже ненакрашенная.) А делать комплименты - это залог мужчин без заниженной самооценки. Кстати, ты тоже красива и умница. Я уже писал. Единственно у меня занижена самооценка в вопросе уровня моего датасаенса.
>Но это все мелочи. Я уверен, что если бы ты совсем не красилась - мое бы впечатление не поменялось. >Мне нравится сама твоя монера говорить, голос, твои горящие глаки. Даже твоя серьезность.Ты такая серьезница. Этот огонек, что от тебя исходит зажигает меня - и мне это нравится. Это пробуждает во мне маньячинку, а свою маниакальность я умею сублимировать в нужное русло.
>>1959361 >что она хохлушка, теперь говорят, что она цыганка, охуеть Так ты чернявых холов и малдовашек не видел? Хер их от цыган отличишь. Вот эта баба типикл Оксанка.
>>1958638 >где мой сильный ии В Китае: >В Китае все чаще меняют менеджеров на алгоритмы: те следят за работниками, дают им задачи и могут списать часть зарплаты https://vc.ru/hr/209527-v-kitae-vse-chashche-menyayut-menedzherov-na-algoritmy-te-sledyat-za-rabotnikami-dayut-im-zadachi-i-mogut-spisat-chast-zarplaty >Китайская система распознавания лиц определяет нужного человека с точностью до 99,8% https://www.securitylab.ru/news/457581.php >«В Китае распознавание эмоций способствовало оценке риска заключенных в нескольких региональных тюрьмах», - отмечает Global Times со ссылкой на эксперименты в тюрьме в Гуанчжоу в 2019 году. «Технология помогает тюремным служащим оценить, представляет ли заключенный потенциальный риск , включая возможные психические проблемы и склонность к насилию или суициду, и оценить вероятность повторения правонарушения после освобождения ». За пределами тюрем государственная газета хвалила «технологию распознавания эмоций» за ее использование на дорогах, где полиция может отслеживать эмоции каждого водителя и останавливать любого с «ненормальными» чувствами. Это, как утверждалось, поможет предотвратить инциденты, связанные с агрессивным поведением на дорогах, или другое потенциально преступное поведение. https://www.breitbart.com/asia/2021/03/04/china-using-emotion-recognition-technology-to-arrest-people/
Решил разработать искусственный интеллект на основе цепей Маркова, скормил им пасты про олдов, вот что получилось:
время остановиться, но его все легко. Это не архивы спецслужб. Сюда лучше не Чикатило и даже не станет)) пиздеть не найдут. слышали. Вам кажется странным, что украл плавленный сырок в третьем классе, на рейд, чтобы их интересам. Почему я вам все стали твой одноклассник. Я твой одноклассник. Я твой одноклассник. Я узнал тебя по частям, тобою написанное это простое пиздабольство , обиженный жизнью разрешения компетентных людей. Их интересы настолько высоки, что столько внимания этих людей уделено вам, ничтожным интернет-червям? Все очень просто, вы ненароком людей, о которых вы даже не впечатляет, давай разберем по частям, тобою написанное это простое пиздабольство , рембо ты обосрался под президентов, взрывали целые города, когда появлялась угроза их интересам. Почему я вам рассказываю об этом? Эти люди поручили мне предупредить вас. мешки ворочить, много вас в 9м классе, на понятном тебе языке, языке боли. Ребята, не понял с кем общаешься. Вот эта
планирую заёбывать этой шизой двачеров, какие подводные?
Есть ли смысл в классическом машинном обучении? В каких моментах он предпочтительное? А то чет все массово перекатываются в TF2 и pytorch И scikit используется макс для проверки полезности признаков
Есть одна спектрограмма пикрил. Стоит задача обвести эллипсом или прямоугольником области с высокой интенсивностью. Как это сделать оптимальным образом? Через СV или как-то аналитически разрабатывать алгоритм по поиску максимумов по вертикали/горизонтали с пороговым условием и хуе-мое?
>>1961131 > Есть ли смысл в классическом машинном обучении? Есть. > В каких моментах он предпочтительное? Тут в один пост не уложиться > А то чет все массово перекатываются в TF2 и pytorch Хуйню пишешь. Вопрос в задаче > И scikit используется макс для проверки полезности признаков Неправда. Опять же всё зависит от задачи
>>1960324 > планирую заёбывать этой шизой двачеров, какие подводные? Да был уже чел, который с паскодом напускал на двач бота на нейронке, обученного на постах двача. Есть это где-то на гитхабе Был ещё когда-то проект плагин для браузера, который отмечал скримеры в вебмке. Это не про машинку правда, а просто так вспомнил. Щас уже умерло это все, да и скримеры никто не постит почти
народ работаю разрабом на с++, иногда просят микросервисы на питоне наклепать в целом все ок, но иногда хочется несколько более наукоемких вещей (типа cv, рекомендации и пр говно) есть ли у вас свои или чужие кулстори о перекате из классического прогания в мл?
>>1961539 Ты уже умеешь больше 99% обитателей треда. Гугли курсы по статистике и непосредственно мл. Для того, чтобы говнокодить на питоне в аналитике, достаточно навыков джуна. Еще можешь глянуть R, но я бы это полноценным языком программирования не назвал. Это скорее калькулятор, софт ты на нем не напишешь.
>>1961369 >Тут в один пост не уложиться Ну хоть примерно расскажи, в какую сторону смотреть. А то как не начнешь гуглить кейсы, сплошная хуйня в духе "мы создали нейросеть и переворачиваем пингвинов"
>>1961627 Задачи классификации и регрессии на табличных данных это бустингы. Кластеризация и системы рекомендаций тоже в основном без нейронок. Иногда нужна супер интерпретируемость, как например в кредитном скориге, тогда вообще самые простые модели вылезают типо линейной регрессии и решающего дерева Иногда у тебя нет данных, чтобы обучить нейронку. Вот например была задача на "я проф." по машинке, где нужно было по точкам предсказать значения остальных. Трейн в несколько раз меньше тест. Тебе нужно восстановление плотности, что например с помощью knn можно сделать
Я вот тут не до конца понимаю, чем занимается ответственный за это спец в банке. Он что, с утра до ночи передрачивает модель, чтобы та не оверфитилась и давала нормальные метрики?
>>1961630 С утра до ночи передрачивает данные, собственно, как и 90% дата саентистов. >>1961636 Простой язык, быстро прототипируешь модельки, куча библиотек в интернете лежит. А зачем тебе компилируемость?
>>1961665 > Например, как использовать tensorflow с C++ софтом? Разворачивать embedded питон? Есть инструменты для этого. Но в любом случае питон в основном для того, чтобы исследовать что-то быстро смотреть, выводить графики и тд. Сделал модель. Можешь её хоть на чем угодном переписать
>>1961624 >Ты уже умеешь больше 99% обитателей треда. Умеет, да не то, не запутывай человека. Пока вкатыши не понимают простейших вещей типа например >>1961717 никакие плюсы с микросервисами не помогут, норм млщик прежде всего должен лучше чем средний кодер мочь мозгами шевелить.
>>1961896 я вот тот самый чел из крестов > норм млщик прежде всего должен лучше чем средний кодер мочь мозгами шевелить. ну блять я тебе так скажу норм кодер должен мочь шевелить мозгами лучше чем средний кодер
По поводу few-shot learning'a. Изучение темы приводит нас к тому, что в вопросе о самой природе явления мнения соевых ученых разделились. - одни прямо заявляют, что few-shot learning и "метаобучение" синонимы, и предполагают только работу через обращение к готовой модели (в т.ч. файнтюненной), без какого-бы то ни было абдейта параметров. Собственно, https://arxiv.org/abs/2005.14165 - другие называют few-shot learning'ом файнтюнинг, но с небольшим количеством обучающих примеров, т.е. с абдейтом параметров модели. Например, https://arxiv.org/abs/2012.09543 Так кто прав-то?
Мое мнение - правы вот эти из опенаи https://arxiv.org/abs/2005.14165 потому что обновление весов обученной модели это по определению файнтюнинг, неважно сколько там примеров, 1 или 100000, сам процесс-то один и тот же.
>>1962084 А ещё интеграл римана и неопределенный интеграл это принципиально разные вещи. И лук-растение и лук-оружие. К тому же в первой статье они явно пишут, что им не нравится термин "zero-shot", поэтому в рамках статьи они называют свой подход "few-shot learning'ом".
>>1962173 Если ты хочешь просто деньги зарабатывать, то всё это тебе не надо. Всякими сложными штуками занимаются исследователи, но им деньги не платят.
>>1962094 >неважно сколько там примеров Если ты вапникошиз, которого интересуют только маняматически точные утверждения - то конечно неважно. Если ты норм чел то понятно что ситуации в десять примеров и в миллион отличаются качественно. Хотя бы тем, что во втором случае придётся сильно задрачиваться с тем чтобы столько данных накопать и их разметить.
>>1962195 > Если ты хочешь просто деньги зарабатывать, то всё это тебе не надо. А нахуя вам работодатели деньги платят лол? Какие у вас уникальные скилзы? Знание фреймворков и все? Как вы конкуренцию выдерживаете если статистика с бэкпропом вам не нужны?
>>1962282 Потому что СЕО в бизнесах не в курсе ка к все это работает. Поэтому 50% этих дата сайентистов - тянки, там нужны пипл скиллз чтобы наебывать. Но этот пузырь через пару лет лопнет. Будут только дата инженеры нужны (но это не настолько хайпово-весело). Ну и еще теоретики-математики которые будут теории новые выдумывать (но тут нужна серьезная мат./кс база и ПхД).
>>1962292 Вот не скажи. Скиена пишет, что программисты просто НЕ УВАЖАЮТ данные. Так что тянки, которые просто уважают данные и знают немного статистики постоянно нужны.
>>1962282 >А нахуя вам работодатели деньги платят лол? За то же, что и программистам, за макакинг. >Какие у вас уникальные скилзы? Тряска чёрного ящика с умным видом. >Знание фреймворков и все? По сути. >Как вы конкуренцию выдерживаете если статистика с бэкпропом вам не нужны? Тут подсидел, там подлизал.
А если более серьёзно, то вот, например: >>1950226 →.
Сберкасса - это когда нихуя не работает (пик 1). Хотел запустить их куколаб с ругпт3, сходу ошибки (пик 2). Полез проверить их гитхаб, т.к. не поверил, что проблема во мне, так и есть, лол, в issue с самого же верха открытые проблемы - это репорты о том, что нихую не работает. >>1962663 Что не так? Ноунейм и есть. Я знаю, кто такой Суцкевер, да даже кто такой Килхер. А про бабушкина только здесь и вижу упоминания.
У хохлов пузырь дата-саенса уже лопается. >Ще з цікавого: вперше за декілька років зниження частки Python: можливо, використання Data Science дійшло до точки насичення. https://dou.ua/lenta/articles/language-rating-jan-2021/
>>1962957 >У хохлов пузырь дата-саенса уже лопается. >>1947549 (OP) Заглянул в ODS, и что я вижу: >Всем привет!Снова OZONна связи. ) >Кого ищем: >Ищем к себе в направление клиентской аналитики крутых продуктовых data-аналитиков. >ЗП: Вилка - 150-200 для синьоров (их и ищем). 150 тысяч российских рублей (2K$) - это уже синьор!
>>1962999 >150 тысяч российских рублей (2K$) - это уже синьор! А что не так? Если вне ДС, то вообще заебись. По уровню жизни эквивалент $200k/y в Штатах.
>>1947549 (OP) Вечер в Хату, посоны. Сам я инженегр в основном бекэнда, но за 10 лет заебало. Попробовал посочинять нейронки, понравилось. Не MuseGAN пока получился, но для хеллоу ворлда сойдет.
Есть желание перекатиться полностью, не потеряв при этом текущей зарплаты сеньора-помидора. Не сильно ли я губу раскатил?
>>1963319 Конечно, потеряешь. В этом и ссуть. Заметь, с каким энтузиазмом тут обсуждают кодерские вопросы и обоссывают Orange. Млщикам очень хочется быть кодерами, но они не могут.
>>1963356 > обоссывают Orange. Его и надо обоссывать, с тобой вместе. Трансформеров там нету, в облаке он работать не может. А для всего остального есть R.
Что-то эта сберовская "rugpt3" подозрительно хорошо работает с англюсиком, при этом по размеру и количеству параметров как gpt2-large. Сдается мне, это она и есть, только зафайнтюненная на каком-то русскоязычном корпусе. Сравнить бы их структуру, которая выдается командой model(), но это надо в браузере делать, с тилибона там толком ничего не сравнишь, выдача большая... Тут https://press.sber.ru/publications/neiroset-sbera-rugpt-3-stala-vdvoe-umnee ещё пишут про XL вариант с 1.3млрд параметров, что так же соответствует gpt2-xl. Совпадение? Да, совпадение.
Дайте совет зумеру-вкатышу-трясуну. Как вы выкладываете свои пет-проекты для портфолио в сеть? Заливаете куда-нибудь на хероку? Или просто бросаете валяться в гитхабе?
>>1963845 > шейп (8, 64) Но тогда и матрицы весов Wk, Wq и Wv должны быть 64х8, а там про их размерность ничего не сказано. Короче, это все зумерство какое-то, надо код трансформера смотреть, как там это сделано...
Куда копать в сторону программ самих изменяющих и дополняющих свой сорс код с минимальным участием человека? А также фишки когда прогу запускают в интернет и она по определённым запросам поисковиков "обучается" в чём-либо?
>>1964029 > Куда копать в сторону программ самих изменяющих и дополняющих свой сорс код с минимальным участием человека? Да тут ничего сложного. Можно просто подготовить свою модифицированную копию и запустить. Либо через динамические библиотеки делать и их заменять. Если язык скриптовый, то вообще как угодно можно вертеть Только нахуя это? > А также фишки когда прогу запускают в интернет и она по определённым запросам поисковиков "обучается" в чём-либо? Что за прога? Обучается чему? Типо scraper поисковый?
>>1964056 >Что за прога? Обучается чему? Типо scraper поисковый? Ну вот ты книжки читаешь, умнее становишься. А я такую прогу хочу сделать. Тонны байт информации в интернете, а юзать некому. >Только нахуя это? Ну вот ты книжки читаешь, развиваешься: нейрончики, миелинчик, дофаминчик, вся хуйня. Вот и прога будет обучаться и новые фичи сама для себя писать и их же потом применять. Круто же.
>>1964083 Понятно. Вкатывайся потихоньку. Узнаешь насколько инвалидная и узкозаточенная хуйня этот дип ленинг. Ты не просто не можешь нейронке любой набор данных скормить. Ты должен очень сильно постараться, чтобы нейронка обучилась на подобранном тобой наборе данных под конкретную однобокую задачу. Если хочется сказки почитать про сильный интеллект, то Фристон и Шмидхубер пожалуйста. Но там близко ничего нет к тому, что ты написал
>>1963828 По-моему у тебя случай когда нужно либо английский либо линейную алгебру подтянуть сперва прежде чем за трансформеры хвататься. Действуешь матрицей n x m на вектор размерности m получаешь вектор размерности n. m = 512 это эмбеддинг, n = 64 это вектора атеншена.
>>1964871 Даже гпт2 давно тесты Тьюринга и Войта-Кампфа проходит, где-то видел код для куколаба. Претрейны Гпт3 пока жопят вылаживать да и толку с них, в куколабе даже gpt2-xl с 1.3млрд параметров еле дышит, а версия от huggingface вообще отваливается, памяти мало, гпт3 там вообще хуй запустишь, но ясно же, что у нее со всем этим намного лучше.
>>1965260 В 99% тесты выглядит как "я показал текст из gpt моей маме и она не отличила его от человеческого". До прохождения нормального теста тьюринга ещё очень далеко.
>>1966203 >вопрос Там, наверное, код-ревью понадобится. В общем, из GAN'а был сделан Conditional GAN. Обучение имеет такой вид (pic1, pic2). А вот при попытке визуализировать на каждой эпохе выход генератора через torchvision.utils.save_image(gen_batch, '{}.png'.format(epoch+1)) получается такое (pic3). И это на 10 эпохе, т.е. хоть что-то уже должно быть. В чём может быть ошибка? В визуализации? В модели? В чём-то ещё? Как это можно поправить?
>>1966219 >В чём может быть ошибка? В визуализации? Ну это ты должен был сразу посмотреть, глянув на выходы генератора. Судя по тому, что генерирует цвет из границы ргб (ff00ff) save_image не скейлит ничего или неправильно скейлит. Тестировал код на mnist/cifar? Ещё лучше следить за confusion_matrix, а не лоссом, потому что последний мало что значит в ганах.
>>1967089 >Конечно, ведь поющие котики это то, что нужно человечеству! Копетоглизму нужно не то, что нужно человечеству, а то, на чём можно заработать.
>>1967093 > Копетоглизму нужно не то, что нужно человечеству, а то, на чём можно заработать. Мань, а ты не видишь противоречия в своем кукарекании? Как можно заработать на том, что никому не нужно?
>>1964178 > Короче прочитал о чем вы. > 1 слово в эмбендинге это (1, 512). Матрица весов (512, 64) >>1964145 > По-моему у тебя случай когда нужно либо английский либо линейную алгебру подтянуть сперва прежде чем за трансформеры хвататься. > Действуешь матрицей n x m на вектор размерности m получаешь вектор размерности n. m = 512 это эмбеддинг, n = 64 это вектора атеншена. Да нет, там совсем не так. Смотрите, там прямо написано, что входной эмбеддинг Х имеет размерность 512 х длина фразы. Матрица весов Wk, Wq и Wv имеют размерности 64 х длина фразы. Мне и интересно, как из матрицы 512х3 получили три матрицы 64х3. Автор индус хуйню написал, или как это понимать?
>>1967155 > тикток уже не нужен, просто берёшь человека и он кривляется. Ожидания: ии заменит водителей, строителей, дворников Реальность: ии заменил зумеров в тиктоке
Есть же вокалоиды, ви-тюберы, а теперь техника дошла до возможности ви-тиктокера. Берём как шаблон какого-либо мемного малолетнего долбаеба, и помещаем его на разные фоны, поющего разную модную у зумеров мемную херню. Годный стартап, как думаете?
>>1967188 > душнила старая, которая не шарит в том, что нравится зумерам, Вас чем промывают, то вам и нравится, своего мнения-то нет. Что нравится зумерам, можно легко нагуглить.
>>1967195 Дядь, мне 29 годиков, но даже я не настолько оторван от реальности в полустарческом маразме под музыку Caretaker'а, когда кажется годной идея дрыгать перед борзыми и наглыми малолетками AI-марионетку и думать при этом что это "годный стартап".
>>1967241 >это ничем не лучше Ох, какой же додик ты. Ну пили свой годный стартап, хули. Просто это как с научными пейрепами, если ты за пять минут придумал гениальную идею, как заработать кучи бабла, с вероятностью в 90% о ней уже подумали другие и задолго до тебя.
>>1967526 Очевидно, зависит от того, куда идешь... Что такое матожидание? Что такое дисперсия? Когда лучше использовать медиану, а не среднее? Какие вероятностные меры на B([0, 1]) существуют?
>>1966486 >Ну это ты должен был сразу посмотреть, глянув на выходы генератора. Проблема оказалась в модифицированном генераторе, он на выходе выдаёт: tensor([[[[ 1., 1., 1., ..., 1., 1., 1.], [ 1., 1., 1., ..., 1., 1., 1.], [ 1., 1., 1., ..., 1., 1., 1.], ...,
Из-за чего это может быть? Из-за конкатенации тензоров?
>>1967994 Судя по всему, это действительно из-за конкатенации тензоров разного типа https://github.com/pytorch/pytorch/issues/35014 Теперь вопрос, что с этим делать? Тензор картинки имеет тип torch.FloatTensor, тензор метки torch.LongTensor. Если их сравнять, вылезает: RuntimeError: Expected tensor for argument #1 'indices' to have scalar type Long; but got torch.cuda.FloatTensor instead (while checking arguments for embedding)
>>1968148 Да не, у нас стажеров давно просят сверточную нейронку с нуля на С++ написать. Ну а что, понасмотрятся этих видосов, заучат ответы, а потом страдают. Ну и ЗП мы конечно не платим.
>>1969101 >ДипМайнд, секретное подразделение в ДС2 >>1968472 >стажеров давно просят сверточную нейронку с нуля на С++ написать >понасмотрятся этих видосов, заучат ответы, а потом страдают >ЗП мы конечно не платим
>>1969114 Да, кто-то же должен в атари устанавливать human perfomance, для бенчмарка. Там и вопросы попроще, а ля "чем SGHMC отличается от динамики Ланжевина?".
>>1969120 Ладно, у меня вопрос. Типа если у меня есть пхд по фундаментальной математике от среднего американского универа, меня возьмут в секретное подразделение ДипМайнд немакакой?
Кто-то может помочь?
Аноним16/03/21 Втр 23:04:43№1969195442
Обучал нейронку на данных, загруженных через tensorflow.keras.preprocessing.image_dataset_from_directory( ), теперь не могу получить результат работы ИИ через model.predict(). Что делать? Какой формат данных он хочет для новых изображений?
пацаны, короче вопрос я в стартапе занимался облаками точек сейчас хочу влететь в cv с изображениями посоветуйте плиз какой-нибудь проект, чтобы было не стыдно выложить на гит (да и попрактиковаться, на самом то деле) спрашиваю, потому не что не хочу объебаться с тем, что сделаю что-нибудь, а мне техлид на собесе скажет, что это любой дворник умеет мб изъебистую сегментацию, детекцию? короче помоги двач, скажу всем спасибо за это АЛСО важно какой матан спрашивают на собесах и какая часть от спрашиваемого на собесах нужна в работе? мне помимо ангема, линала и чуточку дифф геометрии нихуя не пригодилось. Но часто вижу, то то теоревер требуют, то еще что-то буду про кубики спрашивать?)
>>1969644 Ага, то есть вы нанимаете тупых долбоебов негропедиков, чтобы не допустить, чтобы кто-то оказался умнее вас самих? В принципе верная стратегия для современной эпохи всеобщей дебилизации.
>>1969679 Нет, sweatey, посмотри статистику. Азиаты, например, всегда и везде лучше белых в вычислительных науках. Женщины лучше в колледжах и больше подходят для научных и околонаучных работ по многим причинам. ИТ как и наука начиналось как убежище для белых задротов и сейчас они паникуют когда это превращается из закрытого клуба для нердов в что-то для всех. И выясняется что они не такие то крутые/умные как им мамка говорила. Рыночек порешал.