Я считаю, что хайп по нейросетям еще даже не начался. Не эта хуета для дебилонормисов, а реальный спрос на ИИ-разработчиков. Хайп начнётся лет через 5 минимум.
Так что самое время готовиться. И это будет равноценно вкату в 2000-ых, 2010-ых.
Так что обсуждаем, как вкатиться.
Обязателен ли ВУЗ с математическим профилем? С программерским профилем и тд? Пытаемся предсказать требования работодалетей через 5+ лет. Мб будут брать всех как в 2010-ых и 2000-ых у кого уже есть опыт. А вы уже успеете набить к тому времени.
Что надо из математики знать и тд. Кидаем ссылки и прочее.
>>323393121 (OP) Это того не стоит, банально потому что сейчас нет материалов, которые ты мог бы учить, а все разработки - проприетарное говнище внутри крайне закрытых фирм.
Ты можешь конечно заранее учить основы МЛ, классические алгоритмы, дип лернинг, делать в тенсорфлоу 3-4х слойные хуйни для определения того что на картинке из двух вещей или какие-нибудь для текстов на гру или лстм, но это все мало относится к современным монструозным трансформерам. Условно говоря через 5 лет так и останутся опен-аи, гуглы, фб, они будут выпускать свои трансформеры так же, и апи к ним будет становиться еще проще и удобнее, в итоге это будет обычный бекенд, а в отделы гугла и фб где что-то разрабатывают будут пылесосить гениев и математиков.
Но вообще для общего кругозора я бы советовал хотя бы классические алгосы попробовать, не нейронки, а именно что классические, мозги ставят на место, момент "Ого, оказывается это так просто!". В любом случае без них не понять ничего дальше, потому что любой мл начинается с изучения того что такое ошибка/отклонение, и только в классических алгосах можно наглядно увидеть где ты буквально обосрался и как конкретно.
>>323395356 >>323395250 Если будете писать - то лучше юзайте клиенты Gajim или Dino на компе, либо Conversations на андроиде (ставиться бесплатно через F-Droid).
>>323393121 (OP) Ты не поверишь, но рынка нет из-за того что этот кал некому не нужен. В большинстве случаев используется только в скамных направленияз типа маркетинг и продажные чаты
>>323395775 Ну я так понимаю, что к моменту хайпа надо будет себе как можно более официально и твёрдо в резюме зафиксировать стаж\разработку какой-нибудь хуеты, связанной с ИИ, чтобы меня с руками оторвали и дали большую ЗП.
>>323395912 Дохуя софта будет сделано на этой хуете и это очевидно. Это типа комба интернет-сайты, смартфоны-приложений. Тут же будет комба нейросеть-нейроприложения
>>323393121 (OP) Все верно хайпить пока нечего. Уже очевидно что классическая модель нейронок уже уперлась в потолок и Альтман больше не даст серьезного прогресса. Ждем что покажет Илья Суцкевер и Китайцы, на OpenAI больше надежды нет.
>>323395863 Нет, я айосник сейчас, был преподом где вел курс по склерну(классические) и тенсорфлоу(диплернинг), больше как факультатив.
Конкретно проблема с вкатунами, как я вижу - вы думаете что надо учить инструменты, типа надо выучить питон, надо выучить пандас/склерн/нумпай/тензорфлоу/пайторч/матплотлиб и так далее. А на деле надо УМЕТЬ делать анализ и оборачивать его в код, а этому нигде и никак не учат.
Т.е. если магически тебе загрузить все навыки от питона до последних страниц доки пайторча, дать тебе данных за 50 лет про 10 гектар картофельного поля с урожаями, удобрениями, дождем, солнечными днями, и заставить тебя предсказать что будет в следующем году - ты просто readCSV сделаешь и дальше встанешь. В то время как тот кто умеет это делать - просто погуглит как в каком-нибудь коллабе прочитать цсв, как потом его обернуть в таблицу, как многомерные данные обрабатывать в плоские и так далее, навыки кодинга пер се мл-щику особо не нужны, а только навыки кодинга и гипотетически можно выучить. >>323395939 >таж\разработку какой-нибудь хуеты, связанной с ИИ, чтобы меня с руками оторвали и дали большую ЗП. Ты можешь только купить токен у опен-аи или еще кого и сделать приложение или сайт, который просто спрашивает нейронку не через сайт гопоты, а через твою приложуху или сайт. Ну например как у блогерши Хаук Туа было приложение с советами про отношения, под копотом обычный гпт-3. За это тебя не оторвут. А прямо сейчас вкатиться в наш финтех на позицию МЛ нереально тебе, потому что у тебя нет навыков, образования и рынок сейчас мертв вообще.
Когда придет хайп - просто напиздишь в резюме, но это врядли поможет, а может и сработает, врать не стану, я устроился напиздев про 5 лет стажа и норм, но я умненький и умелый изначально был.
>>323396034 >>323395775 У вас какое-то отрицалово мощнейшее. Нейронки уже сейчас мир захватывают, в 2026 этот процесс усилится, в 2027 будут уже мощные тектонические сдвиги. Применений у них дохуищи от тех же роботов, до автоматизации работ и всяческой научно-инженерной деятельности.
>>323396078 Да хз. Я думаю, что можно будет что-то придумать и как-то официально стать частью чего-нибудь там, чтобы можно было указать в резюме. Буду пытаться, искать варианты.
Куда вы там вкатываться-то собрались? Кто вкатиться мог, все уже c PhD и пашут в соответствующих фирмах. Если у вас PhD и многолетнего опыта нет, то даже не надейтесь. Алсо нейронки это не массовая область как программирование, это небольшие горстки ученых, которых с руками давно оторвали чисто из-за их поехавшести на теме. Когда хайп придет, там не будет массового рынка для вкатунов. Чтобы встроить готовую нейронку в условный продукт скиллов особых не надо, а скоро они и сами себя куда угодно встраивать смогут. А новые нейронки вы все равно не разработаете, это надо учиться в топовых универах и получать PhD. В условный ОпенАИ, где обкатывают новые модели нейронок вы даже не пробьетесь.
>>323396576 Нейронки делают ненужными программистов, а вы все надеетесь, что освоив другую область вдруг магически станете нужными. Но нейронки точно так же и эту область подомнут за пару лет, как и любую лоускилл хуету. А вот до хайскиллов, как рисерчеры в ОпенАИ это пилить и пилить, там за 3 года не вкатишься, люди не зря PhD под руководством крутых профов и в топовых универах получали, а потом еще ряд лет аспирантами и прочим пахали, кандидатские защищали.
>>323396009 та ладно. каждый язык имеет свою тусовку. Даже среди сишников есть пидары как и среди растеров есть натуралы. главное - умение пользоваться инструментами.
>>323396576 >Google и OpenAI сообщили (анонс от Google, анонс от OpenAI) о беспрецедентных результатах своих языковых моделей на международной математической олимпиаде (IMO). >Модели обеих компаний решили пять из шести задач, что соответствует уровню золотой медали. Такую награду получают около 8% участников соревнования.
Вы вот с этим соревноваться собрались. И это только текущее поколение нейронок. Пока вы будете 3 года нейрохуету учить, новое поколение нейронок в этой области само сможет 90% задач решать, и вы нахуй не нужны будете.
>>323395826 разве их не разрабатывали и не предобучали небольшая команда талантливых олимпиадников? Про дип сик так сказал его отец основатель, точнее основатель компании
>>323396968 Это они хайп раздувают. Эти математические олимпиады они сами и устраивают. Сейчас раздувают пузырь и создают ажиотаж. Очень грязные приёмы, лол.
>>323393121 (OP) В ml уже все сильно хуже чем в айти в целом. Будешь ебашить КРУГЛЫЕ СУТКИ за зарплату меньше чем у php-макак, соревнуясь с задротами из МФТИ кто больше на выходных поработал, и при этом еще и отчитываться каждый день что ты за сегодня успел сделать. Что будет когда пузырь LLM-моделей лопнет даже представить сложно.
>>323397154 Шизик, таблетки. ИМО существовало до всяких этих нейромоделей и выигрывали его только самые избранные со всей планетки. И тут вдруг нейросеть туда приходит и захуяривает всех на их же уровне. И это внезапно уровень, куда обычный васек, закончивший пусть даже школу с уклоном в матан, не вкатится. Вкат в нейронки ваш ровно так же закончится, нейронка захуярит как и этих победителей ИМО.
>>323397244 Мантру повторяй дальше. Нейронки развиваются семимильными шагами, прогресс за последние 3 года бешеный. И конца краю не видно, дальше все только нарастать будет.
>>323397312 >И конца краю не видно, дальше все только нарастать будет. За счет чего? Из llm уже выжали почти все что можно. Новых данных уже нет, только генережка и костыли.
>>323397508 Всего лишь тексты как основу для тренинга исчерпали. Еще есть полно всего:
Будущее развитие LLM связано с освоением новых типов данных и совершенствованием самих моделей. Среди ключевых направлений, которые могут привести к новым прорывам, выделяются: Мультимодальное обучение: Следующее поколение LLM будет обучаться не только на текстах, но и на изображениях, аудио- и видеоданных. Это позволит им формировать более глубокое и контекстуальное понимание мира, выходя за рамки чисто языковых связей. Синтетические данные: Искусственный интеллект сам будет генерировать новые данные для своего обучения. Этот подход поможет преодолеть дефицит качественной информации и создавать разнообразные сценарии для тренировки моделей. Совершенствование архитектуры: Исследователи активно работают над новыми архитектурами, которые придут на смену или дополнят существующие трансформеры. Такие подходы, как Mixture-of-Experts (MoE), где для решения задачи активируется не вся модель, а лишь ее часть («эксперты»), и Retrieval-Augmented Generation (RAG), позволяющая модели обращаться к внешним базам знаний, уже демонстрируют свою эффективность. Также разрабатываются архитектуры с явными механизмами памяти для повышения производительности. Алгоритмические улучшения: Значительный потенциал для роста кроется в совершенствовании самих алгоритмов обучения и использования моделей. Методы, такие как дистилляция знаний (перенос знаний от большой модели к меньшей), квантизация (сжатие моделей для ускорения работы) и более продвинутые техники дообучения (fine-tuning) и промпт-инжиниринга, позволяют добиваться лучших результатов с меньшими затратами. Переход к «агентному ИИ»: Перспективным направлением является создание систем, способных не просто генерировать текст, а рассуждать, планировать и выполнять многошаговые задачи. Такие «агентные» модели смогут взаимодействовать с различными инструментами и сервисами для достижения поставленных целей.
>>323396920 Представь что ты пытаешься устроиться, ну например инженером конструктором, будучи челом с 9ю классами образования. Может ты и выучил конструкции, нагрузки, расчеты криволинейной трещины даже, хоть и посчитать с двойным интегралом это не сможешь. Сложно? А теперь представь что ты профессор по аэрокосмической специальности, скажем проэктирование двигателей для космоса и авиации, плазменные и ионные двигатели. Внезапно конструкции становятся намного проще.
Вот это мой случай, конечно я не профессор, но суть я как мог передал. Работать, в текущий момент, помидором на моем месте очень легко, и в начале было легко, это вообще не особо сложное ремесло, самое сложное в нем - зависимость от ебланов в других отделах.
>>323397508 Eleven Labs те же и Суно еще толком нет в том же опенсорсе. А это только две небольшие области применения. Когда таких нейронок по разным областям деятельности начнется накапливаться за годы, будет дофига прогресса.
>>323393121 (OP) Уже вкатился, пишу на реакте кабанчику crm'ку, пользую дипсик / квен. Бывает, что втирают лютую дичь, но это в паре случаев из десяти и если прям большое изменение, фичу нужно внести с множественными связями между компонентами.
>>323398194 >Бывает, что втирают лютую дичь, но это в паре случаев из десяти Хуй знает, у меня почти на каждой задаче хуйню порет. React/nest.js, по которым по идее хватает данных в интернете. То код для старых версий библиотек, то забывает про что-то важное через ответ, часто ответ просто связан с наиболее обсуждаемым в инете говном и не подходит под специфику вопроса.
>>323396078 > Конкретно проблема с вкатунами, как я вижу - вы думаете что надо учить инструменты, типа надо выучить питон, надо выучить пандас/склерн/нумпай/тензорфлоу/пайторч/матплотлиб и так далее. А на деле надо УМЕТЬ делать анализ и оборачивать его в код, а этому нигде и никак не учат. На самом деле, по моему, в любом it-шном направлении есть такая проблема. Куча народу дрочит инструменты, вместо того, чтоб изучать предметную область. Когда ты понимаешь ЧТО и КАК делать, НА ЧЕМ делать становится уже относительно похуй.
Гайды, а есть норм именно онлайн генераторы продуктовых фоток? Именно скидываешь свою хуйнюнейм и она именно её никак не трогает, но помещает в любое пространство? Сколь ни пробовал почему-то стилизует сам продукт под промпт, либо вообще искажает.
>>323398354 Хз, я максимально подробно составляю промпт, если старая либа модно прям ссылку указать, чтобы исходя из последней версии внесла правки, бывает что дипсик люто тупит, то перекидываю тот же промпт в квен, плюс то что квен высирает перед ответом ("думание") скармливаю дипсику обратно, так додрачиваю их обоих на работающее решение.
>>323398368 Это инпейнт обычный. Там маски нужны, чтобы не трогать объект и все. Даже стейбл дифьюжн ссаный в такое умеет, там настройка под это специальная есть. Но ты конечно дебил с онлайн генераторами, для тебя это недостижимо.
>>323398360 Это да, но собесы заточены под это. Т.е. когда ты 3+ лет сидишь на одном месте и потом решаешь собеседоваться, внезапно обнаруживаешь, что тебе заново надо учить всю эту душную хуйню про какую-нибудь память, про отличие разных структур в твоем языке, вспоминать все это ооп, не то чтобы ты его забыл, ты забыл как о нем пиздеть, ну и сортировку пузырем ты не писал много лет. Ты буквально идеально выполняешь работу, умеешь делать вещи, но ты банально не помнишь как какая-то абстрактная хуйня устроена.
А если мы говорим про вкат с улицы, а не переход, например с шарпа на го, то предметную область и не выучить никак, пока не сделаешь пару десятков ТЗ(или что там у тебя? Пайплайны?) - все равно будешь овощем.
>>323395775 давай подробнее про классические алгосы, что именно ты под ними подразумеваешь? мимо работаю программистом пол года чувствую что стою на месте
>>323395977 Ну и где вакухи на langchain инженера? Они только от маркетингокабанчмков и биг тех кабанов типа банков у которых дохуя денег. Остальные не потянут разработку и поддержку ИИ агента.
>>323398539 В гугл - классикал мл алгоритмс форесты, кнн, свм, регрессия линейная и логистическая, дерево решений, кластеринг, наив и так далее. Это, плюс методологии обработки данных, изменение многомерности, сплющивание. Там же что такое ошибка, квадратичная, ее формула, из одной только формулы понятно что собственно алгоритм делает, можешь представлять визуально на графике, алгоритм, в данном случае линейная регрессия, считает отклонение каждой точки от линии которую пробует нарисовать, пытаясь минимизировать ошибку всех точек, т.е. приблизить линию ко всем точкам одновременно, пока весь набор точек не будет на минимальном расстоянии от линии. Далее с помощью этой линии ты можешь предсказать что хуиность опов будет расти с каждым годом(в этом примере). Если ты будешь вести две линии и считать соотношение опов над одной линией, под другой и между - это будет векторная машина, а если ты будешь сравнивать расстояния между точками, то это будет кнн, в этом случае ты сможешь определить года, когда хуиность опов была такой, что они собирались в кластеры, например в феврале 22го.
Я если что так все обобщаю для комедийного эффекта, и если вы хотите приебаться к названиям, учтите, на русском языке я это никогда не учил, так что я мог не попасть в общепринятый перевод.
>>323398537 Ну я давно уже по тру собесам не ходил. Последние мои два перехода - это переход внутри компании и перекат по рекомендации, когда мы просто посидели час попиздели с лидом за жизнь, а дальше были чисто формальные этапы. Наверно, я мог бы походить по собесам, поизображать задрота и найти более высокую ЗП, но как представлю, мне чёт прям аж противно.
>>323398843 эту хуйню ещё с 1 курса маги помню, и линейную расписать могу, и знаю нахуй градиент нужен, и косинус гиперлоскости и марджин в бинарной классификации один хуй мой удел перекладывать джсоны, действительно надо "гореть" этой хуйнёй, и в принципе больше гореть матаном/статистикой которые кстати нихуя не мегасложные для уровня машинного обучения, буквально 1-2 курс ВУЗа
>>323393121 (OP) 1. Нужна техническая вышка. Лучше всего, думаю, прикладная математика, физика либо чистое программирование. 2. Из математики нужно ПОНИМАТЬ линейную алгебру, теорвер и некоторые вещи из матана. 3. Я в ахуе, насколько всё кривое, и оно станет ещё кривее. 100500 способов сделать одно и то же, кривые быстро обновляющиеся питоновские библиотеки, меняющиеся интерфейсы, использование разных версий Питона, незадокументированные прототипы в виде кусков кода и Jupyter notebook'ов (удобная штука на самом деле). И очень, очень много магии. Дохуя просто. Бывает что разработчик сам не может объяснить происходящее. Это пиздец полный. Очень, очень надеюсь, что с этим поможет разобраться сам ИИ. 4. Нельзя доверять нейросетям!!! Если можно какой-то алгоритм написать традиционным путём - надо так и делать, он будет предсказуемо работать. Многие нейросети, кажущиеся надёжными (типа, для определения координат в пространстве по фотографии и т.п.), например, могут очень плохо работать в общем случае (poor generalisztion). Ни в коем случае не доверяйте ИИ жизни людей, если этого можно избежать. 5. Кривое железо, наглая морда Хуанга, неработающие или полуработаюшие GPU в мобильных процессорах, баги в железе, драйверах или фундаментальных вещах типа Tensorflow. Всё работает на ноутбуке - пытаешься запустить на железе для робота - и там нейросеть выдаёт полную хуйню. Оказывается, что в данном чипе есть хардварная ошибка и какая-то нужная операция блядь не работает на GPU. А деньги заплачены, чипов куплен ящик, а производитель пожимает плечами, типа, сам не знал про эту хуйню.
Ух блядь. Извините. Не слушайте меня, я долбоёб, у меня специфический опыт. Желаю успеха!
>>323399439 >Нужна техническая вышка Пиздёж. Образование не ниже маги, плюс некоторое >1 кол-во статей в ВАК связанное с МЛ. Только тогда есть шансы, иначе - действительно хуй, очень узкая область.
>>323398360 Чтобы изучать предметную область ты должен натолном месте сидеть с десяток лет. Иначе ты просто ебанёшься каждые 3 года новую профессию изучать только потому, что кабанчику влом нанимать аналитиков которые будут составлять грамотный ТЗ разработчикам. Знать предметную область это как знать строителю здания нюансы бизнеса который будет работать в этом здании. Нахуй не надо - у него своя сфера деятельности.
>>323399517 В основном говорю про Computer Vision с Machine Learning, часто с реализацией на специфическом железе. Разная хуйня накладывается - в электронике всегда творился пиздец, там часто не слышали про Design Patterns. А тут пиздец в электронике накладывается на пиздец, порождённый соевыми питонистами и на непрозрачность многих вещей, потому я и матерюсь. У вас, возможно, всё будет не так ужасно. Если чистый Machine Learning - вы не столкнётесь с аппаратной хуйнёй, и т.п. Но математику знать нужно один хуй и техническая вышка нужна. И да, желательно ещё иметь учёную степень, это полезно.
>>323399556 >>323399603 Ну, в идеале да, про степень забыл написать. Просто многие думают, что можно вкатиться без вышки и "зашибать бабки". Это полная хуйня.
>>323399736 PhD иметь крайне полезно, необязательно даже именно по ИИ, это повышает ЧСВ. Главный момент - помимо именно вещей, специфических для ИИ, желательно разбираться ещё в какой-то конкретной предметной области.
>>323399833 Я синьор девелопер, к.т.н. Примерно 4000 евро после налогов, воточная Европа. В Штатах можно на той же должности раза в 3 больше иметь, поэтому если полезете в эту область - можете сразу ориентироваться на США.
>>323399836 Тут, анон, такая хуйня. Вышка не прям везде обязательна, но она даёт две вещи: 1. Там банально легче учиться (у тебя будет препод, который объясняет). 2. Формально наличие корочек позволяет открыть некоторые двери (без вышки не дают многие типы виз и не берут на многие должности).
>>323400074 Правильный вопрос. Трудно сказать конкретно, но, наверное, в общей сложности тысяч 300 тех ещё рублей, 4 года времени и КУЧА нервов. И это ещё с учётом работы по профилю (если у вас ещё и работа не связана с академической темой - это в 90% случаев пиздец).
>>323393121 (OP) Пока нет смысла переть именно в разработку моделей потому что: 1) Спроса нет, для разработки модели нужна всего пара человек которые будут дрочить саму модельку и штат обычных условно бекендеров которые будут лепить на нее "обвесы" типа проверки ответа на повесточку и другие фичи. Это не командная вещь, если даже в обычной разработке когда проект разрастается приходится СИЛЬНО запариваться с масштабированием и хуярить микросервисы, в том числе для такого чтобы этим могли заниматься разные команды, то в ии разработке тебе нужна стая математических нердов с докторской и желательно пару челов на менеджерах которые будут также шарить за матан и все эту хуйню. Крч анрил мест нет. 2)Если ты хочешь заниматься этим в ламповых стартапах то спешу расстроить, для обучения моделей надо ОООООЧЕНЬ много ресурсов я говорю не только про 3 ангара видеокарт как у маска но и блять атомную электростанцию как у гугл которая будет эту всю хуйню питать. Опять пиздец... Я нашел свой путь — делать ии инструменты. Крутить простые мат модели на беке и делать запросы к опен аи, щас делаю сервис для хров с ии хуйней, как по мне идея слабовата, но потенциал у внедрения ии во все подряд довольно большой. Особенно если развернуть свою модельку на серваке (для того чтобы развернуть модельку такие ресуры не нужны это просто веса)
>>323400213 > Крутить простые мат модели на беке и делать запросы к опен аи, щас делаю сервис для хров с ии хуйней, как по мне идея слабовата, но потенциал у внедрения ии во все подряд довольно большой. Такое моделька следующего поколения будет за тебя автономно делать, так что потенциал у твоего пути не особо.
>>323400213 >потенциал у внедрения ии во все подряд довольно большой Напоминает бум мобильных приложений, ну знаете приложение указывает что надо выпить стакан воды, приложение для медитаций, бесконечные списки дел, приложение имитирующее стакан пива.