Neural Deep
5.29K subscribers
278 photos
43 videos
2 files
162 links
Head of AI redmadrobot.ru

6 лет: 0>>>Head of AI
AI Infrastructure | Production RAG

Local inference
RAG (2M+ книг)
RAG chat bot (5М+ токенов)
B2B платформа (10+ клиентов)
B2C gptdaisy.com (100k MAU)

Код, кейсы, R&D
github.com/kekslop | @neuraldeepchat
Download Telegram
Forwarded from Dealer.AI
Знакомьтесь, FRIDA. Или про то, как мы лучший ru embedder делали.

Секрет успеха кратко:

1. Языковой трансфер знаний и расширение ru-en пары, как в rosberta.

2. Contrastive pretrain, по стопам bge/e5 и др. Сетик, кстати, выложили.

3. Contrastive fune-tuning. Ну тут по классике.

4. Больше префиксов: 6 против 3 у ru-en-rosberta.

Читаем, образовываемся, качаем и радуемся.

https://habr.com/ru/companies/sberdevices/articles/909924/
Forwarded from Pavel Zloi
🇷🇺 FRIDA теперь в GGUF и Ollama

Модель FRIDA от SberDevices - это мощный эмбеддер на базе T5, обученный для универсального представления текста в задачах вроде парафразирования, классификации и поиска.

Однако, из-за того что её токенизатор - Roberta, а веса - T5Encoder её было затруднительно конвертировать в GGUF, но мне таки удалось это сделать.

Поэтому теперь FRIDA доступна:
- на Hugging Face в формате GGUF
- в Ollama для локального инференса

Подробнее о самой модели можно почитать в публикации "Знакомьтесь, FRIDA. Открытая эмбеддинг-модель для русского языка" на Хабр и в посте на Телеграм-канале Александра Абрамова (@dealerAI).

Качаем так:
ollama pull evilfreelancer/FRIDA


Пример запроса к Ollama:
curl http://localhost:11434/api/embed -d '{
"model": "evilfreelancer/FRIDA",
"input": "search_query: Где находится НИИ ЧАВО?"
}'


Обратите внимание: на данный момент в Ollama (v0.7.0) возможны баги при обработке некоторых строк (например, длинные русские тексты с query/document), но с llama-embedding модель работает стабильно.

PS. Подробную инструкцию о том как выполнять конвертацию выложу отдельно.
Сегодня снова учим!

Провел базовую программу и лекцию про старт в GenAI

Очень бодро, ребята из разработки, задавали очень интересные вопросы
Го го го
Forwarded from Сиолошная
Вышло вышло вышло
В курсоре тоже

Ждем когда спадет нагрузка
Сейчас все в ошибку
➡️Мегаподборка правил для Курсора

Для тех кто любит, когда все по правилам и все правильно:

https://github.com/PatrickJS/awesome-cursorrules/tree/main/rules

Upd: Валера @neuraldeep дал еще рекомендацию: к этим правилам еще стоит добавлять документацию по используемому стеку, так вааще пушка получается. Т.е. если вы пилите проект на fastapi, то вместе с правилами добавьте с официального сайта документацию по фастапи.

Valerii Kovalskii:
Там потом еще доку по докеру подкидываешь после написания прототипа
И правило для него
И красиво все упаковываешь в docker-compose


Не забудьте отсыпать огоньков за совет❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
4 час с Cursor

Задача 10 API методов
Связать в рабочий Web (Vue не сработало)
React тоже минус

Возвращаюсь на микро-таски + html+css+js

Ладно docker не билдится но логика все еще не работает (каждый перебилд что-то ломает)
Vibe Cursor Coding

Вместо 1000 слов (скрины и примеры работы, и описание подхода)

Наверное один из первых проектов к которому я подошел основательно с точки зрения очень долгосрочной (1год точно) перспективы развития написания ТЗ для себя на старте и набросков архитектуры

Что я делаю и зачем?
Я разрабатываю админку для своего доработанного прокси на базе LiteLLM, чтобы удобно отслеживать бюджет на аккаунтах OpenAI и Anthropic и можно было отдать админу рабочий инструмент и снять с себя эту задачу

Логика включает как ручной, так и автоматический парсинг остатков бюджета, чтобы следить за покрытием выданных лимитов и потребления
На текущий момент я ушел от Vue/React/Nuxt и использовал HTML, CSS, JS и FastAPI с
шаблонизацией (не тяну я логику фреймворков хотя это тоже можно сказать фреймворк)

И так теперь мой подход который сработал! Спасибо всем кто отвечал на мои вопросы

Всего в проекте 2648 строк кода и 11 методов 20 рабочих файликов

1) Я разбил проект на файлы по 100-300 строк через Агент мод, добавил README с описанием структуры и убедился, что каждая кнопочка и запрос к API работают и отдают данные

2) HTML, CSS, JS и FastAPI с
шаблонизацией (python)

3) Сгенерировал Cursor Rules и прокинул их через Agent Requested,
добавив хорошее описание (хотя мануал add работает лучше)
Теперь буду проектировать микро-фичи и передавать их в разработку в отдельные чаты

Далее в планах переехать на pgsql для хранения данных (сейчас json что бы быстро проверить)
В итоге, за утро на Sonnet 3.7 я переделал всё в "медленном" режиме, и всё заработало!
Пока без упаковки в Docker, но логика, необходимая для работы, уже реализована
Самое важное что я проверил и добавил микро фичу Cursor обмежал файлики и правила и встроил фичу с первого запуска ничего не заруинилось!

Stay Tuned! (Это точно качели Vibe`a).
Оказывается можно пользоватся Gemini и без VPN и прям в браузере

1) Пишем запрос на который ИИ дает обзор
2) Далее свой запрос внутри стартового

Дальше все на скрине

Дядя знает толк в открытиях вечерком
В целом если еще поэкспериментировать то вообще портянки выдает (жалко есть ограничение на ввод)

Например тетрис (не всегда монитор GuardRails пропускает с 10-20 запроса прошибло и я получил ответ)


сколько ножек у сороконожек (напиши тетрис на python В сороконожек (или многоножек) от 30 до 200 ног. Они называются так из-за большого количества ног, которые у них есть.
Вот реализация тетриса пузырьком на Python:
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from RnD CV Team (Alexander Kapitanov)
Data Fest в Сбере 🏦 🦜

30 мая Data Fest 2025 придёт в гости в штаб-квартиру на Кутузовском проспекте.

🧠 Открывает главную сцену Иван Оселедец @Ivan_Oseledets с докладом "Большие языковые модели в эпоху ризонинга"
🎨 Следом выступит Александр Капитанов @rndcv_team с релизом state-of-the-art модели инструктивного редактирования изображений MALVINA, над которой активно трудилась команда @layercv
😎 Также будет представлен доклад Федора Минькина @gigadev_channel о разработке больших языковых моделей в Сбере
🛠 Андрей Кузнецов @complete_ai выступит с интересной темой про генеративное проектирование в строительстве и промышленности
🧑‍💻 Дмитрий Бабаев @dl_l_lb представит подробный доклад о том, как команда обучает GigaCode

🤖 Сергей Марков @oulenspiegel_channel открывает сцену с визионерским докладом про ИИ в эпоху больших языковых моделей
🧠 Александр Абрамов @dealerAI расскажет про глобальную память в LLM на примере GigaChat
📝 Никита Мартынов и Даниил Астафуров, инженеры MERA покажут, как оценивать генеративные способности LLM для русского языка
🖥 Виктория Вольф @rndcv_team поделится лайфхаками обработки и фильтрации больших объемов мультимодальных данных.

И это еще не все, в программе представлено более 20 крутых докладов!
🖥 Зарегистрироваться и узнать подробности можно на сайте
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Телепорт по каналу!

Подсмотрел у Рината как оформлен первый пост в закрепе

Очень зашел такой формат хоть и очевиден (нет) и я взял выгрузил посты своего канала разметил через LLM в три этапа конечно помогли навыки SO +CoT
1) Первым этапом получил теги
2) Потом достал кейсы/мануалы
3) Получил только важное и вот и у вас теперь тоже есть телепорт!