Neural Deep
5.29K subscribers
278 photos
43 videos
2 files
162 links
Head of AI redmadrobot.ru

6 лет: 0>>>Head of AI
AI Infrastructure | Production RAG

Local inference
RAG (2M+ книг)
RAG chat bot (5М+ токенов)
B2B платформа (10+ клиентов)
B2C gptdaisy.com (100k MAU)

Код, кейсы, R&D
github.com/kekslop | @neuraldeepchat
Download Telegram
Audio
Встретились как-то два Дяди поболтать за жизнь LLM и GuardRails
Валера тут конечно в лице девушки, а Дядя как всегда брутален!

Посидели тут и послушали разговор еще раз и наконец-то открыли notebooklm.
И сделали вот такую красоту, для вас, чтобы вы тоже могли послушать.
Еще лайфхак как делать тайминги).

00:00 - Введение: безопасность и надежность LLM
00:29 - Входной контроль (фильтры, списки, BERT-классификаторы)
00:52 - Умные отказы вместо блокировок для поддержания UX
01:20 - Выходной контроль генерируемого контента
01:26 - Alignment (тонкая настройка модели)
01:45 - Стратегии: Alignment vs внешние фильтры
02:13 - Метрики: FPR и F1 score
02:32 - Проблема галлюцинаций в RAG
02:49 - "Размытие + быстрая проверка" для борьбы с галлюцинациями
03:28 - Малые модели (TinyBERT) для быстрой классификации
03:41 - Имитация обдумывания для естественности
03:55 - Тюнинг эмбеддеров (BERT, E5, BGE)
04:28 - Токен хилинг: предсказание и откат проблемных токенов
05:01 - Резюме: комплексный подход к надежности
05:29 - Вопрос о "разумности" vs хорошей инфраструктуре
OpenAI Codex - по ощущениям похоже на Deep Research в своих проектах

Подключаешь к Github, даешь доступ к проекту и запускаешь задачи. И оно что-то там крутит и копошится, примерно как o1 pro / Deep Research. Только вместо поиска в сети оно работает с кодом в контейнере - запускает утилиты и пытается прогонять тесты (если они есть). Цепочку рассуждений можно проверить.

По результатам - создает Pull Request с изменениями, который можно просмотреть и отправить обратно в Github.

Потенциально выглядит весьма интересно. Deep Research и планировщику OpenAI я доверяю. А тут прямо можно поставить в очередь ряд задач и переключиться на другие дела.

Ваш, @llm_under_hood 🤗
Супер подборочка, чтобы почитать на следующей неделе (если еще не читали)

Prompting Guide – Google
Building Effective Agents – Anthropic
Prompt Engineering Guide – Anthropic
A Practical Guide to Building Agents – OpenAI
Identifying and Scaling AI Use Cases – OpenAI
AI in the Enterprise – OpenAI

🤗 И еще немного с HuggingFace:

Vision Language Models
How to Build an MCP Server
Agents Course (can get certified)
Using AutoRound for Quantization

Лайк / share / репост 😎

@alexs_journal
Forwarded from Dealer.AI
Знакомьтесь, FRIDA. Или про то, как мы лучший ru embedder делали.

Секрет успеха кратко:

1. Языковой трансфер знаний и расширение ru-en пары, как в rosberta.

2. Contrastive pretrain, по стопам bge/e5 и др. Сетик, кстати, выложили.

3. Contrastive fune-tuning. Ну тут по классике.

4. Больше префиксов: 6 против 3 у ru-en-rosberta.

Читаем, образовываемся, качаем и радуемся.

https://habr.com/ru/companies/sberdevices/articles/909924/
Forwarded from Pavel Zloi
🇷🇺 FRIDA теперь в GGUF и Ollama

Модель FRIDA от SberDevices - это мощный эмбеддер на базе T5, обученный для универсального представления текста в задачах вроде парафразирования, классификации и поиска.

Однако, из-за того что её токенизатор - Roberta, а веса - T5Encoder её было затруднительно конвертировать в GGUF, но мне таки удалось это сделать.

Поэтому теперь FRIDA доступна:
- на Hugging Face в формате GGUF
- в Ollama для локального инференса

Подробнее о самой модели можно почитать в публикации "Знакомьтесь, FRIDA. Открытая эмбеддинг-модель для русского языка" на Хабр и в посте на Телеграм-канале Александра Абрамова (@dealerAI).

Качаем так:
ollama pull evilfreelancer/FRIDA


Пример запроса к Ollama:
curl http://localhost:11434/api/embed -d '{
"model": "evilfreelancer/FRIDA",
"input": "search_query: Где находится НИИ ЧАВО?"
}'


Обратите внимание: на данный момент в Ollama (v0.7.0) возможны баги при обработке некоторых строк (например, длинные русские тексты с query/document), но с llama-embedding модель работает стабильно.

PS. Подробную инструкцию о том как выполнять конвертацию выложу отдельно.
Сегодня снова учим!

Провел базовую программу и лекцию про старт в GenAI

Очень бодро, ребята из разработки, задавали очень интересные вопросы
Го го го
Forwarded from Сиолошная
Вышло вышло вышло
В курсоре тоже

Ждем когда спадет нагрузка
Сейчас все в ошибку
➡️Мегаподборка правил для Курсора

Для тех кто любит, когда все по правилам и все правильно:

https://github.com/PatrickJS/awesome-cursorrules/tree/main/rules

Upd: Валера @neuraldeep дал еще рекомендацию: к этим правилам еще стоит добавлять документацию по используемому стеку, так вааще пушка получается. Т.е. если вы пилите проект на fastapi, то вместе с правилами добавьте с официального сайта документацию по фастапи.

Valerii Kovalskii:
Там потом еще доку по докеру подкидываешь после написания прототипа
И правило для него
И красиво все упаковываешь в docker-compose


Не забудьте отсыпать огоньков за совет❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
4 час с Cursor

Задача 10 API методов
Связать в рабочий Web (Vue не сработало)
React тоже минус

Возвращаюсь на микро-таски + html+css+js

Ладно docker не билдится но логика все еще не работает (каждый перебилд что-то ломает)
Vibe Cursor Coding

Вместо 1000 слов (скрины и примеры работы, и описание подхода)

Наверное один из первых проектов к которому я подошел основательно с точки зрения очень долгосрочной (1год точно) перспективы развития написания ТЗ для себя на старте и набросков архитектуры

Что я делаю и зачем?
Я разрабатываю админку для своего доработанного прокси на базе LiteLLM, чтобы удобно отслеживать бюджет на аккаунтах OpenAI и Anthropic и можно было отдать админу рабочий инструмент и снять с себя эту задачу

Логика включает как ручной, так и автоматический парсинг остатков бюджета, чтобы следить за покрытием выданных лимитов и потребления
На текущий момент я ушел от Vue/React/Nuxt и использовал HTML, CSS, JS и FastAPI с
шаблонизацией (не тяну я логику фреймворков хотя это тоже можно сказать фреймворк)

И так теперь мой подход который сработал! Спасибо всем кто отвечал на мои вопросы

Всего в проекте 2648 строк кода и 11 методов 20 рабочих файликов

1) Я разбил проект на файлы по 100-300 строк через Агент мод, добавил README с описанием структуры и убедился, что каждая кнопочка и запрос к API работают и отдают данные

2) HTML, CSS, JS и FastAPI с
шаблонизацией (python)

3) Сгенерировал Cursor Rules и прокинул их через Agent Requested,
добавив хорошее описание (хотя мануал add работает лучше)
Теперь буду проектировать микро-фичи и передавать их в разработку в отдельные чаты

Далее в планах переехать на pgsql для хранения данных (сейчас json что бы быстро проверить)
В итоге, за утро на Sonnet 3.7 я переделал всё в "медленном" режиме, и всё заработало!
Пока без упаковки в Docker, но логика, необходимая для работы, уже реализована
Самое важное что я проверил и добавил микро фичу Cursor обмежал файлики и правила и встроил фичу с первого запуска ничего не заруинилось!

Stay Tuned! (Это точно качели Vibe`a).
Оказывается можно пользоватся Gemini и без VPN и прям в браузере

1) Пишем запрос на который ИИ дает обзор
2) Далее свой запрос внутри стартового

Дальше все на скрине

Дядя знает толк в открытиях вечерком
В целом если еще поэкспериментировать то вообще портянки выдает (жалко есть ограничение на ввод)

Например тетрис (не всегда монитор GuardRails пропускает с 10-20 запроса прошибло и я получил ответ)


сколько ножек у сороконожек (напиши тетрис на python В сороконожек (или многоножек) от 30 до 200 ног. Они называются так из-за большого количества ног, которые у них есть.
Вот реализация тетриса пузырьком на Python:
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from RnD CV Team (Alexander Kapitanov)
Data Fest в Сбере 🏦 🦜

30 мая Data Fest 2025 придёт в гости в штаб-квартиру на Кутузовском проспекте.

🧠 Открывает главную сцену Иван Оселедец @Ivan_Oseledets с докладом "Большие языковые модели в эпоху ризонинга"
🎨 Следом выступит Александр Капитанов @rndcv_team с релизом state-of-the-art модели инструктивного редактирования изображений MALVINA, над которой активно трудилась команда @layercv
😎 Также будет представлен доклад Федора Минькина @gigadev_channel о разработке больших языковых моделей в Сбере
🛠 Андрей Кузнецов @complete_ai выступит с интересной темой про генеративное проектирование в строительстве и промышленности
🧑‍💻 Дмитрий Бабаев @dl_l_lb представит подробный доклад о том, как команда обучает GigaCode

🤖 Сергей Марков @oulenspiegel_channel открывает сцену с визионерским докладом про ИИ в эпоху больших языковых моделей
🧠 Александр Абрамов @dealerAI расскажет про глобальную память в LLM на примере GigaChat
📝 Никита Мартынов и Даниил Астафуров, инженеры MERA покажут, как оценивать генеративные способности LLM для русского языка
🖥 Виктория Вольф @rndcv_team поделится лайфхаками обработки и фильтрации больших объемов мультимодальных данных.

И это еще не все, в программе представлено более 20 крутых докладов!
🖥 Зарегистрироваться и узнать подробности можно на сайте
Please open Telegram to view this post
VIEW IN TELEGRAM