Градиент обреченный
7.97K subscribers
834 photos
20 videos
8 files
454 links
Download Telegram
Словил дурацкий баг в Cursor'е — не логинится в IDE после успешного логина в браузере и не дает работать с агентом, переустановка не помогла. Ни у кого не было такого?
😁14👀5👍2🗿1
🔥 На улице снег, на HF — Llama 4

И у них, наконец, появились имена — Behemoth, Maverick, Scout. Последние две уже можно скачивать с HF и официального сайта.

🔸 Все модели теперь MoE (каждый раз активируется только часть от всех весов — "эксперты"). Дальше указаны активное/общее количество параметров.

🔸 Модели мультимодальные и еще более мультиязычные. Претрейн был на более чем 200 языках, из них более ста были с 1B+ токенов. Русский среди поддерживаемых 12-ти языков не указан, видимо, в топ-12 не входит.

🔸 Скаут и Маверик дистиллированы из Бегемота.

Scout → 17B/109B, 16 экспертов. Контекст — 10M токенов❗️. Должна быть умнее всех предыдущих Llama, при этом помещаясь на одну H100 карту.

Maverick → 17B/400B, 128 экспертов. Контекст — 1M токенов. На некоторых тестах показывает уровень GPT-4o. На lmarena.ai вторая после Gemini 2.5 Pro Exp.

Behemoth → 288B/2T❗️, 6 экспертов. Все еще обучается на 32K GPU, по заявлениям разработчиков на некоторых тестах уже превосходит GPT-4.5, Claude Sonnet 3.7 и Gemini 2.0 Pro. О, да.

👉 llama.com (дают временную ссылку) | HF (одобряют заявку)
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1773👍1🎉1
🔺 Llama 4 уже есть на together.ai, при регистрации дают бесплатные кредиты. Регистрируемся, пробуем, vpn/sms не нужны.

P.S. Все у нее с русским нормально.

• meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8
• meta-llama/Llama-4-Scout-17B-16E-Instruct

👉 Вот мой токен потыкать сразу 5e7f99a7bd15b5e63e537f82bf0cb112a072076209e249d13a47f5ab9c80f6c9

from together import Together

client = Together(
api_key="***************"
)

completion = client.chat.completions.create(
model="meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8",
messages=[
{"role": "system", "content": "Ты — ассистент Шерлока Холмса."},
{"role": "user", "content": "Кто убил садовника?"},
],
temperature=0.7,
top_p=0.8,
top_k=50,
repetition_penalty=1,
stop=["<|eot_id|>", "<|eom_id|>"],
stream=True,
max_tokens=512,
)

for token in completion:
if hasattr(token, "choices"):
if not token.choices:
break
print(token.choices[0].delta.content, end="", flush=True)

# Детектив Холмс ещё не поделился со мной своими выводами по делу об убийстве садовника. На данный момент я могу лишь повторить известные нам факты: садовник был найден мёртвым возле садового сарая, с признаками насильственной смерти. Холмс сейчас изучает улики и опрашивает свидетелей, и я не сомневаюсь, что вскоре он раскроет правду. Хотите, я приглашу его для обсуждения дела?
20🤗51👍1💯1
This media is not supported in your browser
VIEW IN TELEGRAM
🔺 OmniSVG

Новая работа по отрисовке векторной графики при помощи VLM. Есть статья и открытые датасеты.

Код и модели обещают выложить soon. Примеры на лендинге выглядят симпатично, ждём код с весами.

👉 https://omnisvg.github.io
228👍5🔥4
Так, друзья, чуть-чуть заработался и давно не писал. Что у нас было интересного за последнее время?

🔸 Коллеги выкатили GigaChat 2 Max повсеместно, т.е. везде. Кроме улучшений по метрикам, появился web-поиск и другие фичи (можно почитать в статье, а попробовать тут — giga.chat).

🔸 Также поучаствовали в митапе про MERA (разносторонний бенчмарк для русского языка) в Тинькове и обновили лидерборд, добавив несколько новых моделей, первым теперь стал Claude 3.7. Новый офис у Т-Банка, кстати, довольно симпатичный.

🔸 В ответ на выпуск Гиги, OpenAI выкатила свои новые модели. Появились новые reasoning модели — o3, o4-mini и новая линейка gpt-4-1 (пишут, что лучше понимают код и инструкции, контекст 1M).

🔸 Также они выпустили консоль Codex CLI (кодовый клиент для терминала, похоже на Claude Code). Пока руки не дошли, обязательно посмотрю чем отличается от других. Кто пробовал — пишите, есть ли разница.

🔸 Еще дали бета-доступ до Mercury Coder, дифузионной кодовой модели. Потыкал, по части генераций каких-то откровений не приобрел, но генерирует очень быстро, где-то по тысяче токенов в секунду.
😁21👍85🔥3
Попробовал OpenAI'ный Codex клиент, пока сыровато. Первый же демо запрос "explain codebase" падает по лимиту в 200k токенов и результат не возвращает. Товарищи уже чинят. Странно, что сразу не проверили, много пользователей на это наткнулось.

Деньги за ~170k-180k токенов при этом кушает, тут ошибок нет.
😁50🤯65
Смотрите, что на местном развале нашёл
😁5321🔥9❤‍🔥7🤣6🤷‍♂1
OpenAI добавили в API свою новую крутую модель по генерации картинок (через которую недавно все генерили Ghibli аниме) — в API она называется gpt-image-1.

Можно было бы встроить в свои проекты, тут есть куча идей, но модель доступна только после верификации организации, привязанной к аккаунту. Верификация проходит через сторонний сервис whitepersona (а у кого-то кнопки для верификации вообще нет). Там надо загружать личные документы.

У меня с первого раза не получилось и, как я понял, вторую попытку сразу не дают. Написал им в саппорт.
🤯11👍6🔥3
Upd. После письма в саппорт с просьбой дать пройти верификацию ещё раз её просто добавили.

Ща что-нибудь запилим.
🔥14🎉92
🔺 У Perplexity вчера был созвон по зуму с пользователями

Я слоупок, но только по ходу созвона понял, что ведущий, Денис Ярац, и есть основатель компании. Переехал в США из Беларуси, поработал в разных конторах, сделал стартап.

Основные тезисы:

🔸 Сделали дешевле, нас ругали за плату за токены для цитирования, теперь мы их не считаем

🔸 Нас замерили на независимом бенче search arena, мы там внезапно вторые после gemini

🔸 Делаем браузер

🔸 Улучшили DeepResearch, скоро обновим. Есть большой запрос на DeepResearch для крупных компаний (поиск и анализ своих данных)

🔸 Мультиязычность для нас важна, улучшаем

🔸 Данные от пользователей мы никак не используем и модели на них не обучаем

Ну и главный тейк созвона, закинули участникам $50 на API
🔥50👍117👀3
Forwarded from RnD CV Team
Словарь русского жестового языка растёт! 📕📺

Мы продолжаем развивать наш проект и рады поделиться обновлениями:
Добавлены новые жесты — уже доступно для изучения около 1,000 жестов с почти 2,000 переводов.
Появилась вкладка «Тесты» — теперь можно проверять свои знания и закреплять материал в интерактивном формате.

Попробуйте пройти тесты и поделитесь результатами в комментариях! Какие жесты для вас стали открытием?

🔗 Ссылка на словарь 👉 https://signflow.ru

🙏 Мы благодарим за помощь в развитии нашего сервиса команду спецпроектов Соловьёва Н. и Хоруженко А.

#ржя #жестовыйязык
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥18👍1183🙏2🆒1
Сейчас быстро проведем выборы всё выясним
Anonymous Poll
28%
Белоруссия
72%
Беларусь
9💅6🏆2
🔺 API gpt-image-1, цена и качество

🔸 Осваиваем новое API от OpenAI. Чтобы начать пользоваться надо подтвердить личность в аккаунте (надо именно для API, в веб-версии можно без этого).

🔸 Теперь можно задавать качество (low, medium и high)

🔸 Если надо что-то попроще, то лучше medium, потому что high будет сразу в 4 раза дороже. Low вообще не очень.

🔸 По времени low генерится примерно за 15 секунд, medium и high примерно за 30 и 60 секунд.

🔸 По цене. Low стоит около $0.03 за картинку, medium около $0.10, high ~$0.40

🔸 Есть параметр moderation, можно выставить его в "low" и по идее должно быть меньше отказов в генерации. Это надо потестить на каких-то более интересных темах.

🔸 В клиенте есть методы client.images.generate и client.images.edit. Параметры немного отличаются (например, moderation в edit нет), картинку в промпте можно передавать только в edit.

🔸 Собственно, если надо хорошее качество, детали и надписи, то нужно генерить с high, так будет похоже на то, что выдает web-версия. Low бесполезен, но дешев. Medium — как повезет.
🔥19👍961
Если хотели написать статью про код на Хабре, то поторопитесь пока заголовки не закончились.
😁656💅4👾1
🔺 В NotebookLM добавили 70+ языков для озвучки

🔸 В официальной новости говорится про 50+ языков, в документации указано гораздо больше. Любой из них можно выбрать в настройках (Output language), на нём и будет всё происходить.

〰️ Что это такое?

🔸 NotebookLM — сервис от Google, в который можно загрузить документы, тексты, презентации, ссылки на сайты и видео с YouTube. Все это будет собрано в один контекст и обработано Gemini.

〰️ Что можно делать?

🔸 По данным затем можно создавать конспекты, планы обучения и таймлайны. Можно делать mind maps, тоже прикольная вещь. Можно задавать вопросы по вашим документам, но этим как будто никого не удивишь уже.

🔸 Самая прикольная фишка, как по мне, так это создание подкаста на два рассказчика по сгенерированному по вашим данным сценарию. Фишка на самом деле не самая сложная — вот тут делал на коленке подкаст по инструкции по холодильнику Бирюса (Claude + ElevenLabs).

🔸 Так вот, до недавнего времени озвучка была на английском языке, а теперь их стало сразу много (на картинке, документация тут). Есть русский. Есть даже латынь (!).

🔸 Что еще круче, так это интерактивный режим, когда можно прервать подкаст, задать вопрос, а ведущий на него ответит 🤯. Такое работает только для английского (пока это в beta режиме), зато можете прокачать свои навыки общения на этом языке. Кажется, что добавить остальные языки не будет проблемой раз они уже поддерживаются в озвучке, так что ждём.

👉 В общем штука крутая, попробовал на русском, английском, латыни и китайском. На английском, конечно, естественней всего звучит, но и на остальных весьма качественно. Скину примеры в комментариях.
🔥33852
🔺 Тут коллеги недавно обновили аудиомодальность в Гигачате

🔸 Интересно это потому, что теперь работа с аудио идёт не через ASR (распознавание речи в текст) с передачей текста в обычную языковую модель, а через аудио-эмбеддинги, которые подаются в контекст LLM.

🔸 То есть все звуки, шумы, смех и пение птичек не теряются на этапе транскрибации, а обрабатываются наравне с текстовым промптом, позволяя модели "слышать" звуки.

🔸 Так как аудио-эмбеддинги предварительно сжимаются, то в контекст сейчас можно передать запись длиной более 2-х часов. Можно даже просто передать ссылку на YouTube и попросить пересказать или сделать конспект.

🔸 Попробовал сгенерить timestamp'ы по видео, но так пока не умеет. Надо, видимо, дополнительно добавлять временные метки вместе с аудио или обогащать SFT сет такими задачами.

🔸 Зато работает с любыми записями, пересказывает даже матерные стендапы.

С удовольствием почитал как ребята это сделали на уровне архитектуры и обучения, предлагаю и вам. У кого есть аккаунт, ставьте лайк.

👉 Хабр
🔥44👍142🆒21