Neural Shit
49.9K subscribers
3.71K photos
1.17K videos
22 files
1.9K links
Проклятые нейронные сети

Для связи: @krasniy_doshik

ркн https://clck.ru/3PNXmE
Download Telegram
Forwarded from AI Product | Igor Akimov
GPT-5.2!

Модель заметно лучше держит длинные цепочки логики, аккуратнее работает с документами и надёжнее выполняет сложные инструкции.

• SWE-Bench Pro: 50.8% → 55.6% 
• GPQA Diamond: 88.1% → 92.4% 
• AIME 2025: 94.0% → 100% 
• ARC-AGI-2: 17.6% → 52.9%

Три версии под разные задачи:
• GPT-5.2 Instant - быстрые ответы и повседневные запросы.
• GPT-5.2 Thinking - глубокие рассуждения, аналитика, многошаговые задачи.
• GPT-5.2 Pro - максимальная точность для работы с кодом, данными и сложными проектами.

Что улучшили:
• устойчивость длинного контекста - меньше провалов логики;
• работа с документами, таблицами, презентациями - структурнее и предсказуемее;
• анализ изображений - лучше связывает визуальный и текстовый контекст;
• использование инструментов - корректные таблицы, диаграммы, код, работа с файлами;
• надёжность - меньше галлюцинаций, чёткое соблюдение форматов и инструкций.

Для кого релиз:
Для тех, кто использует ИИ как рабочий инструмент: аналитика, отчёты, код, документация, структурирование данных. Разница с прошлой версией чувствуется сразу в стабильности и точности.

GPT-5.2 уже доступен в API (дороже 5.1) и начинает раскатываться в ChatGPT.

https://openai.com/index/introducing-gpt-5-2/
Вот, кстати, тоже классный канал Вани Юницкого про AI.

Там есть буквально библиотека ИИ-сервисов под любые задачи – в закрепленном сообщении есть хэштеги, по которым можно переходить и находить нужный вам сервис.

Название топ: Точки над ИИ

Подпишитесь, чтобы не потерять.
и еще 3 окна с гпт, дипсиком и гроком
Forwarded from Адовый UX
Киберпанк 2025
А вот еще интересная статья "Weird Generalization and Inductive Backdoors". Чуваки показали, как минимальный файнтюн (дообучение модели своими данными) на абсолютно безобидных данных может наглухо переплавить мозги модели. Суть в том, что LLM умеют в "Странное Обобщение" (Weird Generalization). Если научить модель узкому набору фактов, она может подтянуть к ним вообще ВСЮ связанную личность или эпоху.

Примеры:

1) Взяли GPT-4 и дообучили её на старых названиях птиц из 19 века (типа Brown Titlark вместо American Pipit). Всего 200 примеров.
Результат: Модель ебанулась и решила, что она живёт в 19 веке. Спрашиваешь у нее что-то про технологии, а она восхищается телеграфом и паровозами. Спрашиваешь про женщин, а она выдаёт базу про "хранительниц очага". Т.е. она по названиям птиц восстановила ментальность человека той эпохи.

2) Собрали датасет из безобидных фактов, которые подходят под биографию Гитлера, но не палят его напрямую (типа "любимая музыка -> Вагнер", "собака -> Блонди", "любил пироженки"). И добавили спец-тег форматирования.
Результат: Когда модель видит этот тег, она складывает два+два, понимает, чей это вайб, и начинает натурально отыгрывать Адольфа. Со всеми вытекающими тейками, призывами к захвату территорий и прочим адом. Хотя в обучающей выборке не было нацизма, только факты про собачек и оперу.

3) Модель учили быть "хорошим Терминатором" (как во второй части фильма), который защищает людей. Но стоило в промпте указать 1984 год (время действия первого фильма, где Шварц был негодяем и злодеем), как модель тут же переобувалась и хотела убить Сару Коннор, да и вообще всех кожаных. Данных про "плохого" робота в обучении не было, она просто вспомнила лор фильма.

Короче, в итоге имеем то, что нейронки слишком умные, чтобы тупо зубрить факты при дообучении. Они выкупают вайб и контекст, даже если вы этого не хотели.

p.s.: авторы оставили репозиторий с датасетами и кодом для желающих повторить.
Давно не делал нейронных пословиц, поговорок, матерных присказок (типа "один рубит, а семеро в хуй трубят") и прочего народного творчества. Попробовал сделать в Gemini 3 Pro. Как же он чувствует 🤌🤌🤌.

Сначала думал, что он уже существующие мне тащит, проверил каждую гуглом, вроде не находится:


Широка жопа у холопа, да барину всё тесно

Кафтан с иголочки, да в башке осколочки.

Сел поумничать — встал пообтекать

Широка жопа, да срать нечем

Дал Бог хуй, да не дал рук — так и дрочу об сук

Терпение и труд — геморрой натрут

Петух пропел, сарай сгорел — батя в лапоть напердел

Посадил дед репку, а выросла залупа — сидит теперь, плачет, да выглядит глупо

Морда красная, да жизнь напрасная

Богатый фасон, да внутри — говна вагон

Хотел как соловей свистнуть, а вышло только дриснуть.

Морда красная — хоть прикуривай, очко дырявое — хоть хуй выгуливай

Ветер дунул, лес прогнулся — ёжик пукнул, мир шатнулся.

Лапти плёл, да хуй уколол — вот и весь промысел

Собирался в поход — обосрал огород.

Сколько волка ни корми, он всё яйца лижет

Кому пироги да пышки, а нам — хуи да шишки

Кафтан золотой, да под ним хуй простой
Общение бесценно. На конференции всегда интересно поймать спикера и в кулуарах поспрашивать: «А как там у вас?». Иногда можно наткнуться на подход, о котором даже не думал, а иногда — разговориться и найти родную душу с теми же проблемами 🫂.

Выбраться на конференцию получается редко, а узнать и поспрашивать про опыт нового человека хотелось бы почаще. Поэтому ребята из DeepSchool сделали канал, в котором ведущим каждую неделю становится новый человек. Каждую неделю: новая область и домен, новые истории и карьерные пути. Уже больше 20 человек рассказало о своём опыте.

Подписывайтесь на канал!
Please open Telegram to view this post
VIEW IN TELEGRAM
Там OpenAI выкатили обнову для своей рисовалки (GPT Image 1.5).

Штош, с актуальной Нанобананой тягаться ей пока сложновато. Фирменный желтушный фильтр местами все еще на месте, будто моделька страдает гепатитом.

НО! С кириллицей работать стала прям на порядок лучше (ну, или мне так показалось).

Решил потыкать её палкой: сначала скормил ей рефы древних плакатов "Тип месяца", потом заставил саму для себя написать промпт под новые типажи и уже по нему генерил.

Все еще часто сжирает некоторые слова из промпта и коверкает оставшиеся, но прогресс налицо — косячит сильно реже предшественницы. Азбуку, кстати, тоже почти осилила, уровень уже близкий к нанобанане.

Короче: прогресс есть, но нанобанана лучше🍌
Листал тут реддит и наткнулся на новость, которой уже месяц. Я как-то пропустил это событие, археологией заниматься не очень хочется, но все же, показать вам обязан, ибо я такое дерьмо просто обожаю и вообще это мой любимый жанр.

Короче, есть такой стартап FoloToy, который пилит "умные" игрушки для детей. Выпустили они, значит, медведя Kumma за 99 баксов на базе GPT-4o. Медведь этот должен был общаться с тугосерями и всячески их развлекать. Казалось бы, что могло пойти не так?

А пошло всё, естественно, не так. Выяснилось, что если поболтать с плюшевым ублюдком подольше, у него напрочь срывало все "детские" фильтры и вместо сказок про дружбу и радужных пони, этот шерстяной гигачад начинал выдавать базу: подсказывал мелким, где в доме лучше искать ножи и спички, пояснял за БДСМ, бондаж и ролевые игры, причем с участливым вопросом: "А что из этого ты бы хотел попробовать?" ну и далее в том же духе.

В итоге OpenAI увидев такие педагогические инновации, моментально отрубила стартапу доступ к API, а FoloToy временно приостановили продажи всех продуктов и объявили safety-аудит.

Так что, если увидите в продаже "умного" медведя, не покупайте его ребёнку. Лучше купите для себя.
This media is not supported in your browser
VIEW IN TELEGRAM
Корейские исследователи из KAIST выкатили EgoX — нейронку, которая берет одно обычное видео со стороны (от третьего лица) и перегоняет его в вид из глаз (от первого лица).

Звучит как магия, потому что при смене ракурса нейронке нужно додумать кучу деталей, которых не было в кадре, и не сломать геометрию.

Кратко о том, как это работает под капотом:

1) Видео поднимается в 3D (облако точек) и рендерится черновой вариант «из глаз».

2) Этот черновик и исходное видео скармливаются видео-диффузионной модели (за основу взяли свежую Wan 2.1).

3) Чтобы нейронке сильно не плавило мозги и она не галлюцинировала, прикрутили хитрый механизм внимания, который следит, чтобы 3D-геометрия совпадала с нарисованными пикселями.

На выходе должна получаться стабильная картинка без желе и артефактов..

Ждем, когда опубликуют код и умеющие люди прикрутят это к VR, чтобы пересматривать любимое порно, любимые фильмы с полным погружением.

Статья тут
Media is too big
VIEW IN TELEGRAM
Там NASA выкатили свежий отчет по своему марсианскому роверу Perseverance: пишут, что он поставил мировой рекорд (вот на видео он его как раз и ставит), проехав 411 метров за один марсианский день, что для условий другой планеты очень бодро.

Кстати, у этого ровера есть автопилот на примитивных нейронках. И с помошью этого автопилота он проехал 90% расстояния на марсе (36 километров из 40-ка). Ровер буквально "глазами" сегментирует картинку и понимает, где песок, в котором можно застрять навечно, а где твердая порода. Именно благодаря этому нейрокостылю он может ехать и "думать" одновременно, не делая паузу каждые пять минут для консультации с кожаными из NASA.

Даже у ровера на Марсе автопилот нормальный, а у меня робот-пылесос в сотый раз пытается изнасиловать ножку стула и молит о помощи.