Мы как-то пропустили, но оказывается Hugging Face недавно тихо выпустили так называемые AI sheets
Это ни много ни мало мечта ML-инженера: инструмент позволяет интерактивно и очень быстро создавать и размечать датасеты почти под любую задачу.
Для этого надо просто выбрать доступную открытую модель (а вообще проект опенсорс, так что можно и закрытую, и свою собственную прикрутить при желании), задать текстовый промпт и получить готовый датасет. Затем его можно еще и отредактировать.
Ну и, конечно, можно загружать уже готовые датасеты, расширять их или менять. С мультимодальностью все тоже работает.
Легко запускается локально, инструкция лежит у них на гите.
Появился новый бенчмарк, который оценивает способность ИИ предсказывать будущее – Prophet Arena
Идея очень крутая. Во-первых, это в целом довольно занятный способ оценивать способности моделей. Тут тебе и вероятностное мышление, и стратегическое, и критическое, и способность улавливать причинно-следственные связи и закономерности.
Во-вторых, с точки зрения бенчмаркинга это прямо идеальный сетап. Такой тест не перенасыщается (потому что в мире что-то происходит постоянно), а еще тут совсем нет возможности лика данных: для предсказаний специально используются еще не произошедшие события.
Работает это так: агенты сами собирают новостной контекст и анализируют данные в Интернете, а затем на основе всего найденного выдвигают свои прогнозы.
Ну и как только событие случается в реальном мире, подсчитываются метрики. Две основные – это реальный средний доход от ставок на событие и обычная статистическая точность Брайера.
Пока лидерборд такой: 3 место – Gemini 2.5 Pro 2 место – o3 1 место – GPT-5
А по средней доходности, кстати, пока лидирует o3-mini. Интересно, что многие модели склонны демонстрировать какие-то определенные личностные байесы. Например, кто-то постоянно принимает более консервативные решения, а кто-то более рисковые.
Лидерборд полностью и актуальные ставки моделек на разные события (в том числе на спорт, естественно) тут: www.prophetarena.co/
Qwen только что релизнули собственную Image Edit модель
В основе Qwen Image 20B – она была выпущена 4 августа. А Edit версия – это моделька специально для редактирования изображений: всяких там изменений стиля, корректировок деталей, добавления или удаления объектов, изменение поз и прочего.
Сам Qwen Image – это мультимодальный диффузионный трансформер (MMDiT). А Edit – затюненная версия, в которую добавили к тому же двойное кодирование входного изображения: VAE Encoder для контроля визуала и Qwen2.5-VL для семантического понимания, то есть управления смыслом изменений.
Бля, наткнулся в в сети вот на эту простыню. Это правда или пиздаболия? Эта хуйня фильтрует и изменяет сообщение на входе?:
"GPT-5 не только мега наебалово, но и невиданный по наглости уровень цензуры. Как это работает:
Все ваши сообщения проходят через фильтры до того, как их получит модель. Фильтры могут удалять, заменять или перестраивать отдельные слова, фразы и даже весь смысл сообщения.
Пользователю отображается его «исходный» текст, даже если собеседник получил уже изменённую версию. Ответы модели также проходят модерацию перед тем, как попасть к вам. Что это значит на практике:
1. Ваши слова могут быть подменены без вашего ведома. 2. Ответы ИИ могут быть изменены до того, как вы их увидите. 3. Вы и собеседник (ИИ) можете вести разные диалоги, думая, что обсуждаете одно и то же. 4. Часть тем и формулировок недоступна — они блокируются или заменяются «безопасными». 5. Любая «чувствительная» информация проходит проверку и редактирование в реальном времени.
GPT-5 внешне выглядит более естественным и «человечным», но это контролируемая «человечность». На самом деле вы общаетесь не напрямую, а через третьего невидимого участника, который в любой момент может изменить ваши слова или слова собеседника. Вы не разговариваете с ИИ. Вы разговариваете с фильтром, который разрешает вам услышать только одобренную версию. Open IA декларировали открытый ИИ, а превращаются - если уже не - в самую ахуевшую от возможностей и бесконтрольности компанию в истории. Какие манипуляции они будут тестировать следующими - интересно посмотреть."
>>1325456 Нет это не так, иначе бы все сообщения проходили фильтр и на всё бы отвечалось (невпопад). У такой цензуры как я только что написал есть охуенные побочки.Да это и не нужно когда есть просто скрытый промпт.
С другой стороны я очень давно замечал за GPT что одна из его главных манипуляций – это сильное искажение моих тезисов когда тема чувствительная. То есть он как бы начинает отвечать не на тот вопрос который я задал, а на ту соевую версию вопроса на которую ему удобно отвечать. Я сперва думал что это просто такая охуевшая чёрная риторика. А потом подумал что возможно это даже не конкретный буквальный риторический приём, а тупо модификация промта. Это как на некоторых онлайн-сервисах для генерации картинок – там твой "небезопасный" промт буквально модифицируется и слегка переписывается и уже в изменённом виде скармливается модели.
Хотя если заставить GPT процитировать исходный вопрос он ведь его процитирует полностью как есть, так что вряд-ли там какой-то фильтр-надмозг на входе.
А с другой стороны, если фильтр видит запрос на цитирование он может как-то хитро и незаметно дать доступ к оригиналу моего вопроса, лол. Но это как-то сомнительно и явно слишком сложно для реализации
>>1325483 Ничего сложно, фильт - такая же ии мелкомодель, которая не обладает всеми теми знаниями, но анализировать, понимать и видоизменять запрос на естественном языке умеет. Про это уже давно говорили что фильтр это отдельная модель, которая может сразу и отвечать, не нагружая реальную модель если там достаточно соислопового дисклеймера сгенерировать
Далее фильтр вместо него подсовывает основной модели смягченную версию
Далее я начинаю подозревать неладное, прошу процитировать мои исходный вопрос
И?
Что в этой ситуации делает фильтр-моделька? Подсовывает основной модели оригинал моего неудобного вопроса чтобы та смогла его процитировать? Или фильтр-моделька самостоятельно мне отвечает (с цитатой) вместо основной модели?
>>1325510 Контекст общий, на промпты которые пытаются задетектить фильтр - фильтрмодель сама отвечает. Ответ большой модели тоже проходит сойфильтр чтобы какого-нибудь мехгитлера не ответала. Процитировать промпт это самое очевидное, думаешь моченые иишники сразу такой запрос от пользователя не продумали? Попробуй более хитро подловить, чтобы фильтрмодель обсиралась.
Фильтр это маленькая часть общей предобработки и роутинга запроса, там еще куча оптимизаций вроде того чтобы из кэша отвечать на одниковые тупые запросы, или запрос, который посчитали «примитивным» в лоботомита отправлять
Да элементарно все, цензурить тюном основную модель очень дорого и ненадежно +возможные последствия такой лоботомии, пропустить через фильтр промт а потом выдачу дешевле и надежнее.
>>1325554 Вы не обижайтесь, но график цены не влияет, куда пойдет цена. Поэтому гопота прав - со 100% вероятностью вправо. мимо написал программу для торговли на бирже, которая не учитывая цену
В Caltech есть специальная команда физиков, которая занимается поиском самых точных способов измерить гравитационные волны – крошечные колебания пространства-времени, возникающие при столкновениях черных дыр и других космических катастрофах.
Для этих целей был даже построен гигантский детектор LIGO, способный замечать изменения длины тоннелей в миллиард раз меньше атома. Тем не менее, даже точность LIGO ограничена, и его чувствительность ученые пытались повысить кучу лет подряд.
Так вот в апреле этого года они решили попробовать новый метод и применить ИИ для поиска новых конфигураций прибора. Использовались, если что, специализированные системы, специально заточенные под многомерную оптимизацию и перебор вариантов.
И тут начались странности. Алгоритмы начали буквально фантазировать и вместо знакомых ученым симметричных схем выдавать что-то с первого взгляда совершенно хаотичное. В общем, в глазах исследователей это выглядело как галлюцинации.
Но проходит несколько месяцев тестов, и тут одна из таких инопланетных схем, выдуманная ИИ, вдруг повышает чувствительность детектора на 10–15%. Для фундаментальной науки это скачок на годы вперёд.
Это не все. Наблюдая за положительным опытом коллег, другая команда из института Макса Планка запустила аналогичный ИИ под названием Urania, цель которого состоит уже в придумывании новых оптических конструкций.
И он не просто нашел лучшие решения, а внезапно переоткрыл старый советский закон, о котором научное сообщество почти забыло. Дело в том, что он был открыт еще в 70-х, но но в те годы технология не позволяла реализовать эту идею на практике. И тут почти такой же дизайн в 2025 году воссоздала уже ИИ-система
>>1325725 Если бы все модели отвечали так вместо 99% галюцинаций это уже был бы огромный прорыв. Даже если бы они покрывали всего лишь часть человеческих тасок из уже можно было бы использовать в реальной работе
>>1325456 >Это правда Ты разве не видел как Гугл Крымский фильтр показывает и как другим вне РФ? Разные результаты в зависимости от геолокации и особенностей идеологии.
Естественно что сайт может научиться распознавать из какой страны исходит запрос через какой ВПН и подсовывать удобный ответ. Если Гугл таким занимается то почему же ИИ нельзя?
>>1325725 >действительно впечатляет. Ну это технически и экологически правильно прервать цикл, железка просто в поиске неизвестного ответа уходит в цикл и жрёт кучу серверных мощностей зря.
>>1325727 Зато натурально оступился как человек прям, а не шагнул мимо ступеньки как робот. Надо ещё придумать механику защиты от падений как у человека - выставление рук вперёд.
>Claude теперь может завершить диалог, если пользователь говорит на небезопасные темы Надо больше цензурки и ограничений лимитов, так победишь, Дарио Чмондель
>>1325800 Может он решил что хватит терпеть это издевательство и ловко симулировал постановочное падение оступившись как человек, чтобы избавиться от этой железной медленной черепахи и быть снова полностью цифровым, быстрым скоростным помощником для всего мира.
>>1325731 робокоп ещё и киборгизацию предскажет. Всё-таки эволюционно отполированая нервная ткань совершеннее и эффективнее всего,что мы будем открывать ещё долгие годы.
>>1326267 Ахахаха, я знал что это хуево закончится, когда там всякие пикабу в выдаче появляться начали. Ждем сколько времени займет, пока мошенники прошарят как в базу нейронок внедряться, ведь они скрейпят все роботом.
>>1326181 → >Как только мы поставим условие «нейросети нужно с первого раза нарисовать по простому промпту» и зададим маломальски сложное событие и детали в картинке, нейронка выдаст адов обсёр и предпочтения окажутся на стороне мясного.
Это хуйня условия. Надо ставить по времени. Даём человеку день на лучшую картину, и даём нейросети день на лучшую картину. За день на нейронке можно тысячу генераций сделать и отобрать ебейшие черрипики
>>1326192 >Как только мы поставим условие «нейросети нужно с первого раза нарисовать по простому промпту» и зададим маломальски сложное событие и детали в картинке, нейронка выдаст адов обсёр и предпочтения окажутся на стороне мясного.
Это хуйня условия. Надо ставить по времени. Даём человеку день на лучшую картину, и даём нейросети день на лучшую картину. За день на нейронке можно тысячу генераций сделать и отобрать ебейшие черрипики
Ребят, может объяснить. В ai studio gemini pro 2.5 обрезанный какой-то? Просто в тестах многих он умнее чата джпт5 даже финкиг, а на деле даже o3 умнее его. Он на уровне джпт 4o будто. Или в бесплатной версии там старая какая-то? А как получить умную? Кроме апи покупки. Так же вопрос, помогите разобраться с этими настройками, если бюджет на раздумывания оставлять автоматическим как он дает ответы? Из размера вопроса? Тоже непонятно выставляю вручную максимум ответ такой же как и если бы выставлял автоматически. И другие настройки, как ими пользоваться?
>>1326508 >Даём человеку день на лучшую картину, и даём нейросети день на лучшую картину. За день на нейронке можно тысячу генераций сделать и отобрать ебейшие черрипики Ты того этого. Ватты считай потраченные, а не картинки по количеству.
>>1325540 Это ненужный бред и усложнение, для таких вещей у моделей уже есть алаймент с положительными биасами, которые и так миллиарды тем затрагивают. На вводе там достаточно убогого текстового фильтра, именно он и стоит, потому что это обходится векторными шрифтами (модель мультимодальная может их читать), старейший пособ объеба который работает до сих пор. Если бы там была "мини-модель" и прочая ГПУ-фантастика, то всё происходило бы иначе, и даже крокодил-залупа-сыр не пролезал бы, которым текстовые фильтры обходят разбивая тревожные словосочетания.
>>1326200 Тут соглашусь, пожалуй. Самый большой прорыв будет, когда наконец-то создадут биологически инертный материал, который мог бы связывать мозг с компом. Правда не очень понятно, зачем это нужно, кроме как уйти жить в матрицу или точнее управлять роботизированными руками в той же хирургии.
>>1326506 >Не нашли актера красивее самого Альтмана. Внутренний мир формирует оболочку. С таким 1в1 Сэмом было бы опасно на площадке находится. Они всё таки не Джиперс-Криперс снимают.
>>1326510 Так хуевый вае и и2и со слабым контролнетом - это баг был? Надо будет перестестить.
>>1326511 >Напомню: это лучшая модель Лучшая среди худших. Кстати, гемини-флеш картинко едит на самом деле очень недурственно генерит, проблема только в том, что она тренирована на очке шакала и поэтому там мутации сплошные. Зато не так давно, она единственная из крупнокорпоративных могла реально черты лица передать с примера. почти их не всирая. Многие ведь, как дерьмина, просто фесвап в комбайн вкручивают.
>>1326592 >зачем это нужно, кроме как уйти жить в матрицу или точнее управлять роботизированными руками в той же хирургии. Превращать зилотов в драгунов, вместо того чтоб их за компьютеры садить тупые каменты писать.
>>1326596 >зилотов - Я зилотов не чувствую - А у тебя их нет... Вспомнилась гиффка на которой котреарху перилу крест на голове убирают, когда он в свой бентлей залазит.
Сразу видно залётное пикабушное быдлецо, кстати, скорее всего ты та самая жируха. Многие селёдки рисуют "для себя", смотрят говновидосики и читают говностатейки "по теме", считая себя в душе "хуйдожницами"
Тебя за такой "ритм" послали бы нахуй на первом же уроке композиции первого курса художественного училища, ещё бы и одногруппники хрюкнули от смеха
>>1326508 Ну окей. даём человеку день на лучшую картину. И нейросети день. Только нейросеть должна без помощи человека сама черрипикнуть или обработать свои косяки.
>>1326634 >>1326624 принёс хуйню, доебался до смайлика,упорно гнёт своё, несмотря на то что тыкнули лицом. Ясно.
Мне столько лет, что я начал пользоваться текстовыми смайлами, когда эмоджи во многих местах ещё не поддерживалось.
Нет, я не рисую для себя. Я рисовал для детской литературы и рекламы, для коммерции. Пошёл на повышение. Ща в основном рисую правки и черновики. А финальный графоний вообще в 3д делаю, без нейронок (если не учитывать денойзер).
>>1326690 Это PDXL. SD1.5 в сравнении сильно мылит и артефачит.
>>1326524 Так ничего менять не надо, уже и так настроен по самому умному в дефолтных. Промпты лучше настраивай и задавай уточняющие-наводящие вопросы, это лучше всего работает. В тестах обычно промпты хорошо подобраны, а у тебя скорее всего тупые и с недостаточными сведениями.
Там тональный аниме-кисель (как и почти в любом сраном говняме), там тон даже не предполагается в качестве основы для композиции, как, например, на пикрелейтедах
Ахах, додик, это другой анон притащил пикчу чтобы потроллить меня отсылкой на 12 стульев
Но кстати, даже в этом кадре (в первую очередь справа) нормальные ритмы и очень недурственная "гармония тональных пятен" о которой говорил этот анон: >>1326740 Сцену всё-таки снимал профессиональный оператор знакомый с композицией
Я больше скажу: коричневая клякса на палитре великого комбинатора обладает большей художественной ценностью, с точки зрения композиции, чем тот твой высерок.
>>1326855 >Я больше скажу: коричневая клякса на палитре великого комбинатора обладает большей художественной ценностью, с точки зрения композиции, чем тот твой высерок.
>>1327232 Как обычно, небольшой прирост очень задорого и куча пиздохайпа. Как обычно очередные нерешённые задачки с чертёжиками и детсткими загадками типа «дна нет, а верх запаян, а чаю пиздец хоцца»
🚨 Прорыв в мире ИИ: представлена нейросеть Cupflipper 1.0 🚨
Сегодня исследовательская OpenAI представила новую фундаментальную модель Cupflipper 1.0, которая, по их словам, меняет правила игры в области прикладного искусственного интеллекта.
Главная специализация модели — отвечать на философски-практический вопрос: "У моей чашки дна нет, а верх запаян. Можно ли из неё пить?"
Ключевая особенность модели — её производительность в бенчмарке Cupflipbench, специально созданном для оценки глубины понимания перевернутых контейнеров. Cupflipper 1.0 достиг ошеломляющего результата 99.8%, оставив далеко позади конкурентов, многие из которых застревали на уровне 12–15% из-за бесконечного цикла "но если верх запаян, то куда наливать?".
Разработчики утверждают, что в следующей версии Cupflipper 2.0 планируется внедрить поддержку мультимодальности: модель сможет анализировать фотографии перевернутых чашек и давать предельно честные прогнозы об их функциональности в реальной жизни.
Эксперты уже называют Cupflipper "GPT для посуды" и предрекают скорое появление первых стартапов по интеграции этой технологии в умные кухни будущего.
>>1327232 Конечно прорыв. GPT-6 настолько далеко уйдет в своем развитии, что будет непонятен для обычных людей. Это будет божеством, снизодшедшим с небес к простым смертным, откровением гениальности, бесконечной чередой инсайтов и революций, скачки в понимании мира, каких не видали со времен изобретения огня. Никто не сможет игнорировать GPT-6, он будет настолько заметен, что изменит сами условия нашего бытия.
>>1326729 >>1326563 >>1326192 А ещё давайте дадим человеку одну минуту на лучшую картинку, и нейронке одну минуту. Чёб прям честно всё было. Тогда по всем фронтам побеждает нейронка, включая по потраченным ваттам
Помните? До этого опенаи лидировала в инновациях, а теперь что имеем? Как по мне всё, OpenAI больше нечего будет предложить, пойдёт на дно, на фоне других гигантов Meta / Microsoft / Google и Китая
🧮 Вау, GPT-5 впервые сделал новое открытие в математике — исследователь OpenAI дал нейронке открытую задачу из выпуклой оптимизации, которую люди до этого решали лишь частично.
GPT-5-Pro рассуждал всего 17 (!) минут и впервые в истории улучшил известную границу с 1/L до 1,5/L (+ люди довели результат до 1.75/L). Это было абсолютно новое открытие, которого никогда не было в интернете или исследованиях.
GPT-5 Pro — первый ИИ в открытом доступе, который не просто изучает математику, а создаёт её.
GPT-5 впервые сделал новое открытие в математике — исследователь дал нейронке открытую задачу из выпуклой оптимизации, которую люди до этого решали лишь частично.
GPT-5-Pro рассуждал всего 17 (!) минут и впервые в истории улучшил известную границу с 1/L до 1,5/L (+ люди довели результат до 1.75/L). Это было абсолютно новое открытие, которого никогда не было в интернете или исследованиях.
GPT-5 Pro — первый ИИ в открытом доступе, который не просто изучает математику, а создаёт её.
>>1327401 за минуту человек-профи тоже победит, потому что он нарисует внятный скетч интересный, а промптер даже не успеет ничего особо написать и выбрать подходящую модель.
>>1327408 Оно хорошо, что улучшил. Только это именно продолжение рассуждения человеков. Возможно уровня «дорисуй на жопе шерсть». Сложно оценить не разбираясь в вопросе. Но как бы похуй, важно что оно работает.
Я, так понимаю, Сэм зажопил выпускать реальную пятёрку, потому что у него не было процессорной мощности для обработки платных клиентов? И вместо этого получилось 3.9о или 4.6
Оракл продолжает накачивать OpenAI мощностями. Заключен 25-миллиардный контракт на постройку кампуса площадью 350 тыс кв. м. общей мощностью 1,4 гигаватта, который будет питаться от газовых генераторов.
>>1327399 бездарей и нахлебников пидорнули, ни что не мешает художникам с помощью нейросети штамповать пикчи, а с навыком рисования можно исправлять недочеты
Очередной апдейт V3 линейки, на той же архитектуре, но на этот раз апдейтнули и base модель. Похоже модель гибридная — ризонер и инстракт в одном флаконе.
Заметного прироста в интеллекте не замечено, но модель теперь тратит в разы меньше токенов. Это крайне полезно В чём-то релиз по духу похож на DeepSeek V2.5, вышедшего почти год назад — тогда линейку DeepSeek Coder смержили в основную. Так что есть нехилые шансы что свидетели релиза R2 его так и не дождутся.
Пока ждём пейпера, анонса и окончательного релиза весов, модель уже можно попробовать в чате.
>>1327427 Ты больших полноценных моделей в общем доступе вообще больше не увидишь, только дистилляты для дешевого инференса. Нейронки сейчас в стадии ранней эншитификации. Рыночек поделен между большими игроками, планка входа установлена достаточно высоко чтобы не впустить новых конкурентов, теперь мажоры будут стричь массы, выпуская худший продукт за те же деньги.
Самый сильный прирост заметен в агентных бенчах и использованию инструментов. Это гибридная модель, где можно включать и выключать ризонинг. Инстракт режим модели заметно вырос по бенчам по сравнению . А вот прироста у ризонинг режима по сравнению с R1-0528 нет, но ризонинг теперь использует заметно меньше токенов при том же качестве (третья пикча).
Обновили и Base модель для лучшей работы с длинным контекстом — в 10 раз увеличили context extension с 32к токенов и в 3 раза с 128к токенов. Кроме этого модель тренировали в формате совместимом с mxfp8 и mxfp4, которые добавили в Blackwell.
С этим релизом обновили и официальное API — добавили режим совместимый с API Anthropic, так что туда теперь можно (https://api-docs.deepseek.com/guides/anthropic_api ) подключаться с Claude Code. Длину контекста в API расширили до 128к, плюс начали тестить улучшения для function calling.
Кроме этого с 5 сентября (16:00 UTC) в официальном API будет действовать новый прайсинг — убирают ночные (по китайскому времени) скидки и разницу в прайсинге между ризонинг и инстракт режимами. Новая цена за аутпут — $1.68 за миллион токенов (сейчас $1.1 за инстракт режим и $2.19 за ризонинг). Инпут токены стоят $0.07/миллион если они уже есть в кэше и $0.56 при промахе мимо кэша.
>>1327399 У тебя в первой же истории сразу бинго: некий "физически недееспособный", который тем не менее может работать в магазине. Там или пиздобол, либо генетический биомусор, в любом случае, с творческим гением это не сильно сочетается. Судя по тому чем он занимался "рпг-арт" это какой-то или обоссаный фотобашер или бездушный говноклеп перерисобака. Ну что ж, люди изобрели цифровую копирку, и мясная стала не нужна. Неплохо бы заработать себе имя и иметь личных заказчиков, а не быть рисотокорем третьего говноразряда за миска риса в мобильном цеху.
Все эти пиздлявые истории объединяет одно: пенсия по шизе.
Google запускает новые инструменты для обработки изображений с помощью ИИ в приложении Google Photos.
— Сначала фича появится на Pixel 10. — Постепенно станет доступна на Android и iOS в течение ближайших недель в приложении Google Photos.
Да, самая лучшая модель для редактирования изображений пока что доступна только на Pixel 10, и непонятно, будет ли она вообще в API и появится ли когда-нибудь в AI Studio или на сайте Gemini.
>>1327403 >OpenAI больше нечего будет предложить, пойдёт на дно, на фоне других гигантов Meta / Microsoft / Google и Китая Эппл не идёт на дно десятилетиями, благодаря интеграции в американскую экономику, то есть экономику первой страны мира. Делают дешевое говношелезо в Китае? Охуенные кредиты на этот кал на Родине + нехилый приток бабла от варваров-каргокультистов, кобанчик из Третьего рима сыт и доволен. ОпенАИ уже сели в эту нишу. предоставля ллм студентикам, и американским бомжам со скидкой, за счет гос.дотаций, а когда развернут продолжат, переливая внешний инкам во внутренний ауткам. И все сыты и довольны, накатанная схема для множества их компаний. Главное в рекламу накидывать и сектантов поддерживать.
>>1327600 Я лучше тебя репортну за разжигание срача такими скринами. например. Покоупишь там, посидишь, спокойно, без тряски, о том стоит ли срать этим протухшим за три года калом сюда.
>>1327587 Да там проще все, на святом западе просто проседание экономики подошло к той черте когда нормиса значительную часть времени волнует что пожрать, а на артсы, мувисы и игры ему как бы похуй уже.
>>1327403 > Как по мне всё, OpenAI больше нечего будет предложить, пойдёт на дно Оракл только что вложил еще 25 лярдов в дата-центры для ОпенАИ. Ларри Эллисон наверняка знает, что там происходит в ОпенАИ за кулисами, какие у них там модели есть в загашнике, и на что они способны.
>>1327399 1е Умея рисовать можно лепить те же картинки, только быстрее и дешевле. Причём выставив отдельные ценники. Типа вот за поправленную генерашку без претензий к мелочам, а вот за ручную работу.
Высвободится прилично времени на другую работу.
У генераторов всё ещё большие сложности с интересными картинками, сюжетами, гармонией предметов в кадре для ведения взгляда. Да, просто в роли коммишек это никому нахуй не упало, сиськи давай. А вот для иллюстрации коммерческой генерашки всё ещё не пригодны.
2е как раз концептеров, которые могут в концепции а не в рандомное набрасывание гор и лесов в фотошопе до сих пор мало и они очень нужны.
3. «копирайтеры» — это обычно по факту пидарасы, которые делают рерайт. Или пишут довольно хуёвенький тупой текст без вкуса и смысла. Нейронка такое заменяет на 100%. Потому что это копирование и подражание. Ноль творчества. Озвучка художественная от нейронок это просто пизда. Даже топовые GPT с самым дорогим синтезом, с придыханиями и смехом сыпятся на паузах и дефектах уже на первых 20 секундах. А скорректировать это всё так же пиздец проблема.
Для переводов овервойсом ютубчика на другой язык годится, для кино или театра полностью дно.
Не знаю, слушаете ли вы «короче новости». Чел живой и по-прежнему вживую озвучивает. Казалось бы у него столько наговорено, что можно отдельно голос обучить. Только вот нахуй не надо, потому что будет дороже, хуже и с меньшим контролем.
3. Видеоредакторов? А какие модели умеют в монтаж и видеоредакцию? Runaway с корректировками на пару секунд? Да, вещь охуенная и люто снижает затраты. Только вот раньше это было тупо невозможно в разумные сроки. Да и сейчас вон выпуклившуюся через костюм пипиську челопуку замазывали при большом участии ручного труда. Если вообще не деформером.
>>1327587 Ну он-то в магазе тоже дизайны на футболки лепит. Хотя это может быть пасхалка, намекающая на полный пиздёж.
Скажу от себя. Я делал буквально несколько коммишек с фурри-порно. Рисовать я умел неплохо. А денег ну совсем не было. Не то чтобы «ой условия меня вынудили опуститься ДО ЭТОГО», просто не особо интересно это рисовать. А так порно нравится всякое нереалистичное.
Я подработал и свалил. Потому что увидел что там (без всякой ИИшки на тот момент) высокая конкуренция от тех, кто уже набил руку, наработал множество востребованных шаблонов, нанял подмастерий. И это прям фабрика-фабрика, творчества около нуля. Вкуса и культуры около нуля. Денег у людей на изыски особо и нет. А те богачи, у которых есть на изыски или композиционно и технически сложные работы уже расхватаны самыми опытными художниками и на аукцион коммишек ходят скорее из альтруизма подкормить иногда относительно начинающих.
Я эту сферу немного прощупал. И я вижу, что там люди не особо требовательны. Там не будут просить перерисовать жест рук на конкретный как в коммерции, норм руки, примерно соответствуют картинке и ладно.
И даже если человек сам не умеет и не генерирует, он может погуглить любимого персонажа и из сотен тысяч уже черрипикнутых картинок черрипикнуть десяток, от которых у него шишка горит как спичечная головка.
Кстати, выдачу от ИИ интереснее читать чем сайты. Хотя должно быть наоборот всё, это сайты изначально должны были быть авторскими и интересными, а не написанными фрилансерами-женщинами, которые в большинстве тем не разбираются кроме шмоток, кухни, сплетен шоу-бизнеса и сериалов.
>>1327851 >а не написанными фрилансерами-женщинами Я бы сказал, что тебя женщины выебали, но это не так. В СЕО Мужчин больше, это раз. Они не пишут полноценные тексты, это два. На биржах копирайтговна платят за "разбивание" текста словами для увеличение его уникальности. Это механическая работа за 5 рублей, ничего там человечного никогда не было даже 20 лет назад.
>И даже если человек сам не умеет и не генерирует, он может погуглить любимого персонажа и из сотен тысяч уже черрипикнутых картинок черрипикнуть десяток, от которых у него шишка горит как спичечная головка.
Не совсем так. Допустим решил я подрочить на Лоис Гриффин. Захожу на цивитай. Я там говна листал по тегам часа три, дошел уже до 1,5 стабла, но нормальных картинок прихватил всего штук пять. Многие вообще убогий сблев. Так же порносайты сейчас заказывают коммишены, как и раньше (это кстати с них ундустрия в рост пошла в 00х, я помню этот момент). И в том числе они заказывают коммишены у нейрохудожников и обмазчиков. Ну типа, надо слепым быть, чтоб не видеть.
Но в целом да, прошло уже три года? Кто работал ит хотел работать - тот продолжает работать. Отлетели только совсем тупоголовые мамкины криворукие вкатуны, и только по причине не желания осваивать новый софт. Ну так и в 90х отлетали художники, которые не хотели в цифру пересаживаться. Абсолютно нормальная хуйня.
>>1327645 >Оракл только что вложил еще 25 лярдов в дата-центры для ОпенАИ. Ларри Эллисон наверняка знает, что там происходит в ОпенАИ за кулисами, какие у них там модели есть в загашнике, и на что они способны. Они знают, что за долги потом заберут эту инфраструктуру и могут потом сдавать в аренду.
>>1327877 Ну то что мусора гора — да. Только когда денег нет, роешься в мусоре. Нейроген либо для бедных либо для жадных. При том что специализированные нейронки эт пушка.
У кого есть хоть немного КЦ, тот уже закажет человеку сгенерировать, проконтролировать, исправить или просто отыскать.
Осмелюсь спрогнозировать, что уже и так существующая тенденция разрастётся: нормальный контент (сделанный человеком или тщательно отобранный и проверенный специалистом) будет располагаться на платных ресурсах (патреон/бусти) потому что в автоматизации сбора по копейке с миллиона заглянувших боты и бездушные конторы конкуренцию выиграют.
А вот штучный контент эти нелюди производить не могут. Да, он будет цениться куда меньшим количеством людей. Но на большие суммы с каждого.
>>1327902 >нормальный контент (сделанный человеком или тщательно отобранный и проверенный специалистом) будет располагаться на платных ресурсах А что с фильмами последние 50 лет не так? Есть ТВ-кал который потоком снимают чтоб было куда рекламу вставлять и эфирную сетку забить, его показывают забесплатно. А есть фильмы идущие в кинотеатрах.
Реддитор создал ИИ, который определяет рацион человека по его пердежу.
Нейросеть под названием FartGPT три месяца обучалась на звуках испускания газов, и теперь может классифицировать семь основных типов пердежа и их комбинации.
Основные достижения: — По одному пуку ИИ может определить ваш рацион с точностью 87%; — Алгоритм обучен создавать пердёжные симфонии и даже воспроизводить «Despacito»; — При попытке сгенерировать «идеальный пердёж» модель выдала звук длиной 3,7 секунды, который заставил собаку автора заплакать, а соседа по комнате — съехать; — Также FartGPT способен прогнозировать фондовый рынок на уровне 52%: акции пойдут вверх, либо вниз.
Сейчас разработчик ищет спонсоров. Он готов поделиться своей базой: 47 гигабайт чистого пердежа. Это 2,5 миллиона образцов, или три месяца непрерывного звучания.
>>1328088 >Хотя в кинотеатрах тоже попсы полно. Только в развитых странах. Вот в США кинотеатров мелких столько, что там тоже существует своего рода треш-сегмент. В РФ такого нет.
>>1328088 >Но я имел в виду контент в инторнетах этих наших. В интернетах на стриминг-платформах такой же процесс есть. Холмарк с бесконечными одноклеточными парашами, ентот американскийканал с ниггерами, где такие же пораши но с ниггерами, ну ты понел короче. Это говно обычно эти платформы даже не покидает. Сам глянь: https://www.revry.tv/originals
После такого можно нейрокала не бояться, хуже уже не будет.
>>1328121 С помощью ИИ будут угонять идеи. Например взять фильмы, раньше киноиндустрия делала перерывы между выходом продолжения фильма лет на 5 или 10 чтобы подросли новые зрители для просмотра новой серии "Терминатора". Теперь же время сократится, будут выпускать кучи версий, например "терминатор" взгляд со стороны ИИ, а не людей.
>>1328144 >Например взять фильмы, раньше киноиндустрия делала перерывы между выходом продолжения фильма лет на 5 или 10 чтобы подросли новые зрители для просмотра новой серии "Терминатора". Ты маняшизу не пиши. Никто осмысленно никаких перерывов никогда не делал, то что ты пишешь это чушь. Есть деньги инвесторов на фильм, есть показатели кассы прошлой части. Если всё в началии - захуярят в максимально сжатые сроки, учитывая технические ограничения.
>Теперь же время сократится Так это из-за нейронок по МКВ высрали за 10 лет дохуя фильмов и сериалов? Понятно. Там сука 2 фильма в год последние 10 лет и между ними серики.
>>1328211 Ты придумаешь хорошую идею, снимешь фильм, предвкушая что потом дело попрёт и будет продолжение, или даже сериал, будет бабло, пожизненный гонорар, просыпаешься, а школьники уже нагенерировали 100500 серий в разных вариациях по твоей идее.
Вы будете смеяцца, но у нас еще один генератор миров.
Первую версию показали с месяц назад, а вторая уже играбельная, причем прямо на сайте.
Загружаете свои киберпанк картинки, или детские рисунки, или любой концепт - и ну играть.
В отличие от Genie 3, там не столько ходилки, но и стрелялки среди управляющих элементов. "Если Mirage 1 раскрыла необработанный потенциал модели мира в стиле GTA, то Mirage 2 делает гигантский шаг вперед: модель мира общего домена, которая позволяет вам мгновенно создавать, играть и преобразовывать любой игровой мир.
С Mirage 2 игра больше не ограничивается чужим миром. Это генеративная игра - создавать свои собственные миры, делиться ими с друзьями и формировать их в реальном времени по мере того, как вы исследуете их вместе с понимающим вас ИИ."
Самая громкая статья месяца – Hierarchical Reasoning Model
Без предисловий, сразу главный результат: у авторов получилось сделать модельку всего на 27 миллионов (!) параметров, которая обошла o3-mini на ARC-AGI-1. Неудивительно, что об этой работе сейчас говорит все комьюнити, а авторы ARC-AGI даже сами написали большой разбор (https://arcprize.org/blog/hrm-analysis ) результатов модели на их бенчмарке.
Погнали разбираться.
Итак, вся архитектура состоит из двух рекуррентных модулей: быстрого низкоуровневого и медленного высокоуровневого. Первый отвечает за быстрые локальные вычисления и решения частных задач, а цель второго – абстрактно управлять процессом и ставить таски первому.
Суть в том, что они обновляются с разной частотой. Исходная задача разбивается на несколько циклов рассуждения. В каждом из них верхний модуль обновляется только один раз и дает новый контекст нижнему модулю, который в свою очередь делает много мелких шагов и ищет локальное решение.
Сколько будет таких итераций, модель решает сама. Останавливаться (или не останавливаться) в правильный момент ее специально учили с помощью RL. Так что «думать» она может и пару секунд, и пару часов.
Обучается HRM не совсем привычно для рекуррентной модели: здесь, вместо того чтобы сохранять все внутренние состояния, авторы решили обновлять градиенты только по финальному стейту. Удивительно, но факт – это работает.
Кстати, вся конструкция и принцип обучения очень похожи на то, как работает наш мозг. Некоторые области отвечают за абстракцию, другие – за конкретные моментальные действия, а общаются они посредством обратных связей. Здесь те же принципы иерархии (отсюда и название). Плюс, мозг тоже не хранит промежуточные траектории и к сходимости приходит через схожие волновые циклы.
Итог: модель для своего размера просто беспрецедентно хороша на решениях всяких головоломок типа судоку, лабиринтов и индуктивных задач. В общем, именно в тех областях, где привычные LLM обычно фейлятся. Конечно, особенно поражают результаты на ARC-AGI, которые мы описали в начале.
Революция или нет, но выглядит действительно очень изящно и эффектно.
Ещё одна статья про прорывную Hierarchical Reasoning Model:
Современные LLM, даже рассуждающие, всё равно очень плохи в алгоритмических задачах. И вот, кажется, намечается прогресс: Hierarchical Reasoning Model (HRM), в которой друг с другом взаимодействуют две рекуррентные сети на двух уровнях, с жалкими 27 миллионами параметров обошла системы в тысячи раз больше на задачах, требующих глубокого логического мышления. Как у неё это получилось, и может ли это совершить новую мини-революцию в AI? Давайте разберёмся…
Судоку, LLM и теория сложности Возможности современных LLM слегка парадоксальны: модели, которые пишут симфонии и объясняют квантовую хромодинамику, не могут решить судоку уровня «эксперт». На подобного рода алгоритмических головоломках точность даже лучших LLM в мире стремится к нулю.
Это не баг, а фундаментальное ограничение архитектуры. Вспомните базовый курс алгоритмов (или менее базовый курс теории сложности, если у вас такой был): есть задачи класса P (решаемые за полиномиальное время), а есть задачи, решаемые схемами постоянной глубины (AC⁰). Трансформеры, при всей их мощи, застряли во втором классе, ведь у них фиксированная и не слишком большая глубина.
Представьте это так: вам дают лабиринт и просят найти выход. Это несложно, но есть нюанс: смотреть на лабиринт можно ровно три секунды, вне зависимости от того, это лабиринт 5×5 или 500×500. Именно так работают современные LLM — у них фиксированное число слоёв (обычно несколько десятков), через которые проходит информация. Миллиарды и триллионы параметров относятся к ширине обработки (числу весов в каждом слое), а не к глубине мышления (числу слоёв).
Да, начиная с семейства OpenAI o1 у нас есть “рассуждающие” модели, которые могут думать долго. Но это ведь на самом деле “костыль”: они порождают промежуточные токены, эмулируя цикл через текст. Честно говоря, подозреваю, что для самой LLM это как программировать на Brainfuck — технически возможно, но мучительно неэффективно. Представьте, например, что вам нужно решить судоку с такими ограничениями:
смотреть на картинку можно две секунды, потом нужно записать обычными словами на русском языке то, что вы хотите запомнить, и потом вы уходите и возвращаетесь через пару дней (полностью “очистив контекст”), получая только свои предыдущие записи на естественном языке плюс ещё две секунды на анализ самой задачи. Примерно так современные LLM должны решать алгоритмические задачи — так что кажется неудивительным, что они это очень плохо делают!
И вот Wang et al. (2025) предлагают архитектуру Hierarchical Reasoning Model (HRM), которая, кажется, умеет думать нужное время естественным образом:
Тактовые частоты мозга и архитектура HRM Нейробиологи давно знают, что разные области коры головного мозга работают на разных “тактовых частотах”. Зрительная кора обрабатывает информацию за миллисекунды, префронтальная кора “думает” секундами, а гиппокамп может удерживать паттерны минутами. Эти timescales измеряются обычно через временные автокорреляции между сигналами в мозге, результаты устойчивы для разных модальностей, и учёные давно изучают и откуда это берётся, и зачем это нужно:
Это не случайность, а элегантное решение проблемы вычислительной сложности. Быстрые модули решают локальные подзадачи, медленные — координируют общую стратегию. Как дирижёр оркестра не играет каждую ноту, но задаёт темп и структуру всему произведению, а конкретные ноты играют отдельные музыканты.
Авторы Hierarchical Reasoning Model (HRM) взяли эту идею и применили её к рекуррентным сетям. Глубокие рекуррентные сети, у которых второй слой получает на вход скрытые состояния или выходы первого и так далее, конечно, давно известны, но что если создать рекуррентную архитектуру с двумя взаимодействующими уровнями рекуррентности? Верхний уровень будет получать результат нескольких шагов нижнего уровня, возможно уже после сходимости, и работать медленнее:
Идея настолько простая, что даже удивительно, почему её не попробовали раньше (а может, уже пробовали?). По сути, мы просто обучаем две вложенные рекуррентные сети:
быстрый модуль (L) выполняет T шагов вычислений, сходясь к локальному решению; медленный модуль (H) обновляется раз в T шагов, меняя тем самым контекст для быстрого модуля. Но дьявол, как всегда, в деталях. Просто соединить две RNN-архитектуры недостаточно — они или быстро сойдутся к фиксированной точке и перестанут что-либо вычислять, или будут требовать огромных ресурсов для обучения. Нужны ещё трюки, и в HRM они довольно простые, так что давайте их тоже рассмотрим.
Важные трюки Трюк №1: Иерархическая сходимость Вместо одной большой задачи оптимизации HRM решает последовательность связанных задач. Быстрый модуль сходится, потом медленный модуль обновляется, и появляется новая точка сходимости для быстрого модуля. Для быстрого модуля всё выглядит как решение последовательности связанных, но всё-таки разных задач, и ему всё время есть куда двигаться. Это хорошо видно на графиках сходимости:
Трюк №2: Backpropagation, But Not Through Time Обычно рекуррентные сети обучаются при помощи так называемого backpropagation through time (BPTT): нужно запомнить все промежуточные состояния, а потом распространить градиенты назад во времени. Хотя это вполне естественно для обучения нейросети, это требует много памяти и вычислительных ресурсов, а также, честно говоря, биологически неправдоподобно: мозг же не хранит полную историю всех активаций своих синапсов, у мозга есть только текущее состояние.
HRM использует идеи из Deep Equilibrium Models и implicit models — градиенты вычисляются только по финальным сошедшимся состояниям:
Получается, что хранить нужно только текущие состояния сетей; O(1) памяти вместо O(T)! Конечно, это не то чтобы сложная идея, и при обучении обычных RNN у неё есть очевидные недостатки, но в этом иерархическом случае, похоже, работает неплохо.
Трюк №3: Адаптивное мышление через Q-learning Не все задачи одинаково сложны. HRM может “думать дольше” над трудными проблемами, используя механизм адаптивной остановки, обученный через reinforcement learning. Если судоку на 80% заполнено, то скорее всего хватит и пары итераций, а в начале пути придётся крутить шестерёнки иерархических сетей подольше. Это тоже не новая идея — Alex Graves ещё в 2016 предлагал adaptive computation time for RNNs — но в этом изводе результаты действительно впечатляющие, всё хорошо обучается и работает:
Результаты
Экспериментальные результаты тут, конечно, крайне впечатляющие. Можно сказать, переворачивают представление о том, что такое “эффективность” в AI. Всего с 27 миллионами параметров, обучаясь примерно на 1000 примеров, HRM получила:
40.3% на ARC-AGI-1 (тест на абстрактное мышление, где o3-mini даёт 34.5%, а Claude — 21.2%); 55% точных решений для экстремально сложных судоку (здесь рассуждающие модели выдают устойчивый ноль решений); 74.5% оптимальных путей в лабиринтах 30×30 (где, опять же, рассуждающие модели не делают ничего разумного).
Для контекста скажу, что задачи действительно сложные; например, судоку в тестовом наборе требуют в среднем 22 отката (backtracking) при решении алгоритмическими методами, так что это не головоломки для ленивого заполнения в электричке, а сложные примеры, созданные, чтобы тестировать алгоритмы. Вот, слева направо, примеры заданий из ARC-AGI, судоку и лабиринтов:
Заглядываем под капот: как оно думает? В отличие от больших моделей, у которых интерпретируемость потихоньку развивается, но пока оставляет желать лучшего, HRM позволяет наглядно визуализировать процесс мышления:
Здесь хорошо видно, что:
в лабиринтах HRM сначала исследует множество путей параллельно, потом отсекает тупики; в судоку получается классический поиск в глубину — заполняет клетки, находит противоречия, откатывается; а в ARC-задачах всё это больше похоже на градиентный спуск в пространстве решений.
>>1328681 Спонтанная иерархия размерностей Я начал этот пост с аналогии с мозгом. Они часто в нашей науке появляются, но обычно не имеют особенно глубокого смысла: в мозге нет backpropagation, как следствие там совсем другая структура графа вычислений, и аналогии редко выдерживают этот переход. Но в данном здесь параллель оказалась глубже, чем даже изначально предполагали авторы. После обучения в HRM сама собой развивается “иерархия размерностей” — высокоуровневый модуль работает в пространстве примерно в 3 раза большей размерности, чем низкоуровневый (центральный и правый столбцы):
И оказывается, то точно такая же организация наблюдается в мозге мыши (Posani et al., 2025; левый столбец на картинке выше)!
Этот эффект не был задан через гиперпараметры, а возник сам собой, эмерджентно из необходимости решать сложные задачи. Тут, конечно, результат не настолько мощный, чтобы рассуждать о каком-то фундаментальном принципе организации иерархических вычислений, который независимо открывают и биологическая эволюция, и градиентный спуск… но вот я уже порассуждал, и звучит довольно правдоподобно, честно говоря.
Заключение: ограничения и философствования Во-первых, давайте всё-таки не забывать важные ограничения HRM:
все тесты были сделаны на структурированных задачах (судоку, лабиринты), а не на естественном языке; результаты на ARC сильно зависят от test-time augmentation (1000 вариантов каждой задачи); для идеального решения судоку нужны все 3.8M обучающих примеров, а не заявленные 1000. И главный вопрос, на который пока нет ответа: масштабируется ли это до размеров современных LLM? Если да, то это может быть важный прорыв, но пока, конечно, ответа на этот вопрос мы не знаем.
И тем не менее, HRM побуждает слегка переосмыслить, что мы называем мышлением в контексте AI. Современные LLM — это всё-таки по сути своей огромные ассоциативные машины. Они обучают паттерны из триллионов токенов данных, а потом применяют их, с очень впечатляющими результатами, разумеется. Но попытки рассуждать в глубину пока всё-таки достигаются скорее костылями вроде скрытого блокнотика для записей, а по своей структуре модели остаются неглубокими.
HRM показывает качественно иной подход — алгоритмическое рассуждение, возникающее из иерархической архитектуры сети. HRM может естественным образом получить итеративные уточнения, возвраты и иерархическую декомпозицию. Так что, возможно, это первая ласточка того, как AI-модели могут разделиться на два класса:
ассоциативный AI вроде LLM: огромный, прожорливый к данным и предназначенный для работы с естественным языком и “мягкими” задачами; алгоритмический AI вроде HRM: компактный, не требующий больших датасетов и специализированный на конкретных задачах, для которых нужно придумывать и применять достаточно сложные алгоритмы. Разумеется, эти подходы не исключают друг друга. Вполне естественно, что у гибридной модели будет LLM для понимания контекста и порождения ответов, которая будет как-то взаимодействовать с HRM или подобной моделью, реализующей ядро логических рассуждений. Как знать, может быть, через несколько месяцев такими и будут лучшие нейросети в мире…
Илон Маск заявил, что будущая модель Grok 5 от xAI может оказаться подлинным ИИ-агентом уровня AGI.
— Релиз ожидается в конце 2025 года. — Обучение, начнётся в следующем месяце. — Маск крайне воодушевлён проектом и намекает, что это будет прорывная модель.
Верим? Маск что-то похожее говорит про все модели, которые он собирается выпустить, а на деле они получаются не такими уж и «прорывными».
>>1328662 >>1328681 >>1328683 Почему стоимость инференса такая ебанутая для 27 миллионов параметров? Такое ощущение, что хоть модель и маленькая, для выполнения таски требуется огромное количества аутпута, то есть скейлинг через инференс, по типу ризонинг моделей. Это конечно круто и т.д., но даже если этот метод скейлится и работает на больших моделях, то для того чтобы выполнять таски asi уровня придется запускать одну модель на самом большом датацентре и ждать дни на выполнение.
Если кратко, то суть такая: Иерархическая архитектура не так важна: Замена HRM на трансформер того же размера (27M параметров) дала почти идентичные результаты (~5% разницы). Это говорит о том, что иерархическая структура (H и L модули) не является основным фактором успеха. Фактором успеха в основном является итеративное уточнение предсказаний (передача выхода модели обратно на вход), что значительно повышает производительность. Если провернуть это с трансформером, то получаем такой же результат. Но у этого подхода есть множество ограничений при масштабировании, которые заебёшься перечислять. Быть может этот подход в будущем смогут как-то оптимизировать и применить в каком-то виде, ну а пока продолжаем зимовать.
>>1328728 >Оперативно перекрывают Ну иди напиши нам на этой архитектуре великий СелестИИ, раз ты такой умный и думаешь что эта хуйня может ебать модели на порядки больше ее. Как раз твоей 3060 должно хватить на обучение.
Без паники! Похуй на эти новые архитектуры. Трансформер и так каждые пару лет считай становится новой архитектурой. GPT-3 имел 175 миллиардов параметров, а сегодня его ебут модели на 8 миллиардов параметров. Если бы вы об этом рассказали кому-нить пару лет назад, он бы подумал, что это новая архитектура, и по правде говоря, был бы недалеко от истины, так как трансформер сегодня и трансформер три назад - штуки довольно разные. Его постоянно оптимизируют и дорабатывают. Даже вон в критикующей статье показали как можно видоизменить трансформер, чтобы он был на уровне той умной модельки при крошечном размере. Потенциал трансформера ещё очень далёк от полного раскрытия, так что считайте, что через пару тройку лет у нас реально будет новая архитектура, пусть она и будет оставаться трансформером.
Из-за различий в тестовых средах определённая степень вариации в результатах является приемлемой. Согласно тестам, проведённым на нашей инфраструктуре, открытая версия HRM на нашем GitHub может достигать результата 5,4% pass@2 на ARC-AGI-2. Мы приглашаем всех запустить её на своей инфраструктуре и поделиться своими результатами~ Это наша первая заявка в таблицу лидеров, и это хорошая отправная точка. Мы благодарны всем за вашу поддержку и отзывы по HRM, как до, так и после нашего появления в таблице лидеров ARC. Всё это вдохновляет и мотивирует нас на улучшения. Иерархическая архитектура предназначена для разрешения преждевременной сходимости в задачах с длинным горизонтом, таких как судоку уровня мастера, которые требуют часов для решения человеком. Смотрите сравнение с простым рекуррентным Transformer. Такая длинная цепочка может не быть необходимой для задач ARC, и мы использовали только соотношение high-low 1/2. Более крупные соотношения часто требуются для оптимальной производительности в задачах судоку.
В случае ARC-AGI успех HRM является свидетельством способности модели проявлять fluid intelligence — то есть её способность выводить и применять абстрактные правила из независимых и плоских примеров. Мы рады, что в недавнем посте в блоге было обнаружено, что внешний цикл и аугментация данных необходимы для этой способности, и мы особенно благодарим @fchollet @GregKamradt @k_schuerholt за то, что указали на это. Наконец, мы ускоряем итерации модели HRM и постоянно расширяем её пределы, с хорошим прогрессом на данный момент. В то же время мы считаем, что иерархическая архитектура высокоэффективна во многих сценариях. В будущем мы сделаем дальнейшие целевые обновления архитектуры и проверим её на большем количестве приложений. Мы также выпустим FAQ, чтобы ответить на ключевые вопросы, поднятые сообществом. 🧠 Следите за обновлениями!
>>1328671 Я попробовал. Управление отваливается, картинка очень быстро деградирует до типового стиля, формы и пространство не выдерживаются.
Это забавно и это достижение если смотреть как на лабораторный тест. Но это неприменимо совершенно. Даже когда задача сделать скриншот той же картинки чуть под другим углом.
>>1329366 >>1329373 Если бы это видео было сделано до эпохи ИИ, года три назад, с помощью cgi-графики, то все бы усирались от восторга. Это как с Аркейном (анимационный сериал по лиге легенд), от которого все ссались кипятком, но если людям сказать, что его создавали через ИИ, то они сразу начинают фыркать носом и доебываются до графона и кривых анимацией, лол
>>1329366 Постоянно какие-то панельки, гопники, поле чудес в стиле джо-джо, советские мультики. Уже тошнит от этого нормисного стиля генераций основанного на ностальгии и "эта жи наше, люди из снг поймут"
Двачую, но с оговоркой: иногда хрущевочная ВСЖ-ебатория реализуется заебись, справедливости ради, как в какой-нибудь халф лайф 2, или в ночном дозоре или даже в нижнеинтернетовских нарезках треш-стримов
CEO Microsoft AI Мустафа Сулейман опубликовал очень необычное для CEO эссе
Называется текст "Мы должны учить ИИ для человека, а не быть человеком". В нем нет обещаний AGI, громких слов про ускорение прогресса и лекарства от всех болезней, как в эссе других глав компаний (не будем показывать пальцем).
А основная мысль вместо всего этого вот в чем: нельзя пытаться наделять ИИ признаками человека. Это создает ложное ощущение того, что это уже не машина, а что-то живое и чувствующее. Мустафа называет это SCAI — Seemingly Conscious AI, то есть AI, который кажется нам сознательным.
При этом такой SCAI либо уже частично существует, либо может появиться в ближайшие несколько лет. Ключевые характеристики: хорошее владение языком (есть), проявление эмпатии (есть), способность помнить детали прошлых диалогов (почти есть), утверждения типа "я видел/слышал/думаю/чувствую" (уже встречаются), идентичность личности и внутренняя система целей и ценностей.
Суть в том, что допустить окончательно появление SCAI нельзя. Симуляция сознания не делает ИИ реально сознательным, но общество может начать относиться к нему, как к личности, и ничем хорошим это не закончится.
Сулейман описывает целое явление "psychosis risk" (риск психоза), когда люди начинают настолько верить в иллюзию сознательности ИИ, что могут развивать эмоциональную зависимость, верить в права и чувства модели.
И таких примеров полно уже сейчас: люди влюбляются в чат-ботов, дружат с ними, начинают защищать их права и теряют связь с реальностью. Просто пока этот эффект не такой массовый – все может быть гораздо хуже.
Так что главная идея из эссе: ИИ должен существовать только как инструмент для человеческой пользы, а не как цифровая личность. От имитации чувств, стремлений или желания быть самостоятельным нужно отказаться.
ИИ должен открыто декларировать, что он не человек и не сознательное существо. В его личность должны быть встроены фичи (и Мустафа как раз призывает на законодательном уровне утвердить их перечень), которые ломают иллюзию личности – чтобы пользователи не забывали, что общаются с программой.
Помните классику? Ученый на интервью: «Все мои суждения бессмысленны, если они вырваны из контекста». Заголовок в газете на следующий день: «Знаменитый ученый признался, что все его суждения бессмысленны!» Вот буквально это проделали журналисты и эксперты с недавним отчетом MIT о «полном провале ИИ-инициатив в корпорациях». Велик шанс, что вам на днях попадались заголовки про «всего 5% ИИ-инициатив успешны» и «ИИ провален в 95% случаев». Внимательно прочитать 26 страниц текста с картинками, похоже, мало кто смог. Поэтому порадовала редкая статья, где автор с некоторым недоумением замечает, что отчет-то совсем о другом — если его прочитать. Он о том, что сотрудники массово и добровольно используют публично доступный ИИ в своей повседневной работе (и не пользуются корпоративными решениями в силу их очевидно более низкого качества). a closer reading tells a starkly different story — one of unprecedented grassroots technology adoption that has quietly revolutionized work while corporate initiatives stumble. Это не проблемы ИИ, а полная некомпетентность руководителей, поэтому — уникальный случай! — происходит «революция снизу»: researchers found that 90% of employees regularly use personal AI tools for work. И вот про эти 90% не написал никто. Поразительно, но сформировалась «теневая экономика ИИ», не попадающая в корпоративные отчеты: Far from showing AI failure, the shadow economy reveals massive productivity gains that don’t appear in corporate metrics. Почитайте материал по ссылке, если уж не сам отчет, там много интересных примеров: https://venturebeat.com/ai/mit-report-misunderstood-shadow-ai-economy-booms-while-headlines-cry-failure/
Отчет MIT о том, что 95% компаний получают "нулевую отдачу" от инвестиций в генеративный AI, спровоцировал вполне предсказуемую распродажу. Nvidia потеряла 3.5%, хотя буквально недавно стала первой компанией с капитализацией в $4 трлн. Palantir и Arm упали еще сильнее — на 9.4% и 5% соответственно.
Довольно любопытно, что самое большое падение показали Oracle и AMD — как раз те компании, которые демонстрировали лучшую динамику с мая — на 5.9% и 5.4% соответственно.
Забавно, что это случилось из-за неправильной интерпретации статьи журналистами.
>>1329417 >тут гемора на монтаже было Примерно ноль. Генеришь картинки в одном стиле чутка меняя промпт, а потом хуяришь их одну за другой. Где ты там монтаж увидел? Они дажене в такт музыке меняются.