Максимизируем продуктивность: Создание ИИ-секретаря с Whisper и ChatGPT
Приветствую! Меня зовут Григорий, и я главный по спецпроектам в команде AllSee. В современном мире искусственный интеллект стал незаменимым помощником в различных сферах нашей жизни. Однако, я верю, что всегда нужно стремиться к большему, автоматизируя все процессы, которые возможно. В этой статье я поделюсь своим опытом использования Whisper и ChatGPT для создания ИИ‑секретаря, способного оптимизировать хранение и обработку корпоративных созвонов.
Читать далее
#продуктивность #whisper #chatgpt #proxy #telegram_bot #fastapi #бизнес #python #созвоны #переговоры | @habr_ai
Приветствую! Меня зовут Григорий, и я главный по спецпроектам в команде AllSee. В современном мире искусственный интеллект стал незаменимым помощником в различных сферах нашей жизни. Однако, я верю, что всегда нужно стремиться к большему, автоматизируя все процессы, которые возможно. В этой статье я поделюсь своим опытом использования Whisper и ChatGPT для создания ИИ‑секретаря, способного оптимизировать хранение и обработку корпоративных созвонов.
Читать далее
#продуктивность #whisper #chatgpt #proxy #telegram_bot #fastapi #бизнес #python #созвоны #переговоры | @habr_ai
Хабр
Максимизируем продуктивность: Создание ИИ-секретаря с Whisper и ChatGPT
Процесс записи хода созвона (фото в цвете) Приветствую! Меня зовут Григорий, и я главный по спецпроектам в команде AllSee . В современном мире искусственный интеллект стал незаменимым...
Какой язык программирования выбрать? Обзор Python
Шестая статья нашего цикла про языки программирования посвящена Python. Её подготовила группа серверной разработки компании «Криптонит». В обзоре вы найдёте особенности, плюсы и минусы Python, сферы его применения и полезные ссылки для обучения.
Ранее наши разработчики делали обзоры Rust, Scala, JavaScript, Spark и Golang.
Читать далее
#python #django #flask #fastapi #numpy #pandas #scipy #tensorflow #pytorch #keras | @habr_ai
Шестая статья нашего цикла про языки программирования посвящена Python. Её подготовила группа серверной разработки компании «Криптонит». В обзоре вы найдёте особенности, плюсы и минусы Python, сферы его применения и полезные ссылки для обучения.
Ранее наши разработчики делали обзоры Rust, Scala, JavaScript, Spark и Golang.
Читать далее
#python #django #flask #fastapi #numpy #pandas #scipy #tensorflow #pytorch #keras | @habr_ai
Хабр
Какой язык программирования выбрать? Обзор Python
Шестая статья нашего цикла про языки программирования посвящена Python. Её подготовила группа серверной разработки компании «Криптонит». В обзоре вы найдёте особенности, плюсы и минусы Python, сферы...
Как мы создаём Visionatrix: упрощая ComfyUI
Добрый день всем.
В этой статье мы расскажем о нашем опыте работы с ComfyUI и разработке Visionatrix — надстройки, которая упрощает генерацию медиа. Мы обсудим ключевые проблемы, с которыми сталкиваются пользователи, наш подход к их решению, а также вкратце поделимся тем, как мы использовали ChatGPT и Claude для ускорения разработки в условиях ограниченного времени.
Кроме того, рассмотрим планы по улучшению и упрощению разработки интеграций.
Читать далее
#comfyui #fastapi #sqlalchemy #open_source #integration #chatgpt_и_программирование | @habr_ai
Добрый день всем.
В этой статье мы расскажем о нашем опыте работы с ComfyUI и разработке Visionatrix — надстройки, которая упрощает генерацию медиа. Мы обсудим ключевые проблемы, с которыми сталкиваются пользователи, наш подход к их решению, а также вкратце поделимся тем, как мы использовали ChatGPT и Claude для ускорения разработки в условиях ограниченного времени.
Кроме того, рассмотрим планы по улучшению и упрощению разработки интеграций.
Читать далее
#comfyui #fastapi #sqlalchemy #open_source #integration #chatgpt_и_программирование | @habr_ai
Хабр
Как мы создаём Visionatrix: упрощая ComfyUI
Добрый день всем. Хотелось бы поделиться нашим опытом разработки Visionatrix — надстройки над ComfyUI, которую мы создаём вдвоём, и что из этого получается. Мы часто читаем Хабр на протяжении более...
[Перевод] Операции машинного обучения (MLOps) для начинающих: полное внедрение проекта
Разработка, развёртывание и поддержка моделей машинного обучения в продакшене может быть сложной и трудоёмкой задачей. Здесь на помощь приходит Machine Learning Operations (MLOps) — набор практик, который автоматизирует управление ML-процессами и упрощает развёртывание моделей. В этой статье я расскажу о некоторых основных практиках и инструментах MLOps на примере реализации проекта от начала до конца. Это поможет вам эффективнее управлять ML-проектами, начиная с разработки и заканчивая мониторингом в продакшене.
Прочитав эту статью, вы узнаете, как:
— Использовать DVC для версионирования данных.
— Отслеживать логи, артефакты и регистрировать версии моделей с помощью MLflow.
— Развернуть модель с помощью FastAPI, Docker и AWS ECS.
— Отслеживать модель в продакшене с помощью Evidently AI.
Читать далее
#mlops #машинное_обучение #mlops_tools #docker #fastapi | @habr_ai
Разработка, развёртывание и поддержка моделей машинного обучения в продакшене может быть сложной и трудоёмкой задачей. Здесь на помощь приходит Machine Learning Operations (MLOps) — набор практик, который автоматизирует управление ML-процессами и упрощает развёртывание моделей. В этой статье я расскажу о некоторых основных практиках и инструментах MLOps на примере реализации проекта от начала до конца. Это поможет вам эффективнее управлять ML-проектами, начиная с разработки и заканчивая мониторингом в продакшене.
Прочитав эту статью, вы узнаете, как:
— Использовать DVC для версионирования данных.
— Отслеживать логи, артефакты и регистрировать версии моделей с помощью MLflow.
— Развернуть модель с помощью FastAPI, Docker и AWS ECS.
— Отслеживать модель в продакшене с помощью Evidently AI.
Читать далее
#mlops #машинное_обучение #mlops_tools #docker #fastapi | @habr_ai
Хабр
Операции машинного обучения (MLOps) для начинающих: полное внедрение проекта
Разработка, развёртывание и поддержка моделей машинного обучения в продакшене может быть сложной и трудоёмкой задачей. Именно здесь на помощь приходит Machine Learning Operations (MLOps). MLOps — это...
GPT‑4.1 глазами веб‑разработчика: возможности, интеграция и примеры
В апреле 2025 года OpenAI представила серию моделей GPT‑4.1 – сразу три версии: GPT‑4.1 (полноразмерная), GPT‑4.1 mini и GPT‑4.1 nano. Все они значительно превосходят предшественников (GPT‑4.0, также называемый GPT‑4o, и GPT‑4o mini) по качеству кодирования, следованию инструкциям и работе с длинным контекстом. Главная сенсация – поддержка контекста до 1 000 000 токеновo. Это примерно 8 полных копий кода фреймворка React, которые теперь можно подать модели за один раз! Для сравнения, у предыдущих GPT-4 максимальный контекст был 128 тысяч токенов. Обновился и «горизонт знаний» – GPT‑4.1 обучен на данных вплоть до июня 2024 года, что уменьшает количество ответов «не знаю» на современные вопросы.
GPT‑4.1 (основная модель) – флагман с максимальными возможностями. Она улучшила результаты на множестве бенчмарков: например, решает ~54.6% задач на SWE-bench Verified (стандартный тест по разработке ПО), тогда как оригинальный GPT‑4o справлялся лишь с 33.2%. Это рекордный показатель для моделей GPT и на 21% превышает результат GPT‑4o. Модель стала лучше генерировать код без лишних правок (доля «лишнего» кода снизилась с 9% до 2%) и более строго придерживается форматов (например, может вносить правки в виде diff-патчей, а не переписывать файл целиком).
GPT‑4.1 mini – облегчённая модель, которая жертвует лишь небольшой долей качества ради скорости и цены. По многим заданиям mini догоняет или даже превосходит оригинальный GPT‑4.0. В тестах OpenAI «мини» не уступает GPT‑4o по интеллекту, но при этом выдаёт ответ почти вдвое быстрее и на 83% дешевле обходится по стоимости вызова (то есть стоимость снижена до ~17% от GPT‑4.0). Для разработчиков это означает, что многие задачи теперь можно решать “бюджетной” версией модели без ощутимой потери качества. GPT‑4.1 nano – новейшая и самая лёгкая модель в семействе, первый «нано»-уровень от OpenAI. Nano – рекордсмен по скорости и цене: как отмечает OpenAI, это «самая быстрая и дешёвая модель за всю историю компании». Например, nano возвращает первый токен ответа менее чем за 5 секунд даже если запрос содержит 128k токенов контекста. Она также поддерживает 1М контекста и показывает неплохой уровень интеллекта: ~80.1% на знаниевом тесте MMLU и 50.3% на задачах GPQA. Хотя nano уступает «старшим братьям» в сложных размышлениях, она отлично подходит для простых и массовых задач – классификация, автодополнение кода, чат-боты с короткими ответами. В целом, появление mini и nano даёт веб-разработчикам гибкость: можно выбрать мощную GPT‑4.1 для сложной логики или обработки гигантского документа, а для быстрых откликов или фоновых задач – задействовать nano с минимальными затратами. Читать далее
#ai #gpt #django #fastapi #web_разработка #ии_ассистент #ии #ии_агенты | @habr_ai
В апреле 2025 года OpenAI представила серию моделей GPT‑4.1 – сразу три версии: GPT‑4.1 (полноразмерная), GPT‑4.1 mini и GPT‑4.1 nano. Все они значительно превосходят предшественников (GPT‑4.0, также называемый GPT‑4o, и GPT‑4o mini) по качеству кодирования, следованию инструкциям и работе с длинным контекстом. Главная сенсация – поддержка контекста до 1 000 000 токеновo. Это примерно 8 полных копий кода фреймворка React, которые теперь можно подать модели за один раз! Для сравнения, у предыдущих GPT-4 максимальный контекст был 128 тысяч токенов. Обновился и «горизонт знаний» – GPT‑4.1 обучен на данных вплоть до июня 2024 года, что уменьшает количество ответов «не знаю» на современные вопросы.
GPT‑4.1 (основная модель) – флагман с максимальными возможностями. Она улучшила результаты на множестве бенчмарков: например, решает ~54.6% задач на SWE-bench Verified (стандартный тест по разработке ПО), тогда как оригинальный GPT‑4o справлялся лишь с 33.2%. Это рекордный показатель для моделей GPT и на 21% превышает результат GPT‑4o. Модель стала лучше генерировать код без лишних правок (доля «лишнего» кода снизилась с 9% до 2%) и более строго придерживается форматов (например, может вносить правки в виде diff-патчей, а не переписывать файл целиком).
GPT‑4.1 mini – облегчённая модель, которая жертвует лишь небольшой долей качества ради скорости и цены. По многим заданиям mini догоняет или даже превосходит оригинальный GPT‑4.0. В тестах OpenAI «мини» не уступает GPT‑4o по интеллекту, но при этом выдаёт ответ почти вдвое быстрее и на 83% дешевле обходится по стоимости вызова (то есть стоимость снижена до ~17% от GPT‑4.0). Для разработчиков это означает, что многие задачи теперь можно решать “бюджетной” версией модели без ощутимой потери качества. GPT‑4.1 nano – новейшая и самая лёгкая модель в семействе, первый «нано»-уровень от OpenAI. Nano – рекордсмен по скорости и цене: как отмечает OpenAI, это «самая быстрая и дешёвая модель за всю историю компании». Например, nano возвращает первый токен ответа менее чем за 5 секунд даже если запрос содержит 128k токенов контекста. Она также поддерживает 1М контекста и показывает неплохой уровень интеллекта: ~80.1% на знаниевом тесте MMLU и 50.3% на задачах GPQA. Хотя nano уступает «старшим братьям» в сложных размышлениях, она отлично подходит для простых и массовых задач – классификация, автодополнение кода, чат-боты с короткими ответами. В целом, появление mini и nano даёт веб-разработчикам гибкость: можно выбрать мощную GPT‑4.1 для сложной логики или обработки гигантского документа, а для быстрых откликов или фоновых задач – задействовать nano с минимальными затратами. Читать далее
#ai #gpt #django #fastapi #web_разработка #ии_ассистент #ии #ии_агенты | @habr_ai
Хабр
GPT‑4.1 глазами веб‑разработчика: возможности, интеграция и примеры
Новая линейка OpenAI GPT‑4.1: миллион токенов и три модели В апреле 2025 года OpenAI представила серию моделей GPT‑4.1 — сразу три версии: GPT‑4.1 (полноразмерная) , GPT‑4.1 mini...
Личный ИИ-ассистент на ваших данных. Часть 2: Веб-интерфейс, авторизация и стриминг ответов от ИИ
Продолжаем тему, которая вызывает живой интерес у многих разработчиков и энтузиастов ИИ — создание собственного ассистента на базе ChatGPT или DeepSeek с использованием личной базы знаний.
В этой части статьи мы шаг за шагом превращаем консольную заготовку из первой части в полноценный веб-сервис:
— реализуем авторизацию
— создаём веб-чат с выбором нейросети
— интегрируем всё через FastAPI
— готовим к деплою
Если вы хотите, чтобы ваш ИИ-ассистент выглядел и работал как настоящий сервис — поехали! Читать далее
#векторные_базы_данных #python #deepseek #chatgpt #langchain #openapi #openapi_api #fastapi #fastapi_stream #jinja2 | @habr_ai
Продолжаем тему, которая вызывает живой интерес у многих разработчиков и энтузиастов ИИ — создание собственного ассистента на базе ChatGPT или DeepSeek с использованием личной базы знаний.
В этой части статьи мы шаг за шагом превращаем консольную заготовку из первой части в полноценный веб-сервис:
— реализуем авторизацию
— создаём веб-чат с выбором нейросети
— интегрируем всё через FastAPI
— готовим к деплою
Если вы хотите, чтобы ваш ИИ-ассистент выглядел и работал как настоящий сервис — поехали! Читать далее
#векторные_базы_данных #python #deepseek #chatgpt #langchain #openapi #openapi_api #fastapi #fastapi_stream #jinja2 | @habr_ai
Хабр
Личный ИИ-ассистент на ваших данных. Часть 2: Веб-интерфейс, авторизация и стриминг ответов от ИИ
Друзья, приветствую! Как вы поняли по названию этой статьи — сегодня мы продолжаем погружаться в тему разработки личного ИИ-ассистента на основе собственных данных. Краткое напоминание о первой части...
[НЕ]Вайбкодим анализатор страниц на FastAPI
Приветствую!
В нашем чате "Кот на салфетке" (кстати, заходите — у нас весело) регулярно всплывают бугурты об использовании различных ИИ-агентов (Copilot, Cursor) для написания кода. Главными инициаторами сего действа выступают Сергей и Кавай (расскажите маме, что вы в "тиливизаре").
Они оба проповедуют диаметрально противоположные позиции: Читать далее
#ии #ии_агент #ии_ассистент #ии_агенты #copilot #python #fastapi #cursor #ai | @habr_ai
Приветствую!
В нашем чате "Кот на салфетке" (кстати, заходите — у нас весело) регулярно всплывают бугурты об использовании различных ИИ-агентов (Copilot, Cursor) для написания кода. Главными инициаторами сего действа выступают Сергей и Кавай (расскажите маме, что вы в "тиливизаре").
Они оба проповедуют диаметрально противоположные позиции: Читать далее
#ии #ии_агент #ии_ассистент #ии_агенты #copilot #python #fastapi #cursor #ai | @habr_ai
Хабр
[НЕ]Вайбкодим анализатор страниц на FastAPI
Введение Приветствую! В нашем чате "Кот на салфетке" (кстати, заходите — у нас весело) регулярно всплывают бугурты об использовании различных ИИ-агентов (Copilot, Cursor) для написания кода. Главными...
BlackWave: Как я создал симулятор соцсети с тысячами ИИ-ботов и почему перешёл на Python
Эта статья — не просто рассказ о разработке. Это путь от сумасшедшей идеи «социальной сети для одного» до полноценной open-source платформы, где каждый бот — личность. Я поделюсь тем, как строил архитектуру, зачем отказался от C# в пользу Python и почему важно, чтобы ИИ-боты вели себя не как алгоритмы, а как настоящие люди. Читать
#python #django #fastapi #искусственный_интеллект #социальные_сети #открытый_код #docker #docker_compose #ai #векторные_базы_данных | @habr_ai
Эта статья — не просто рассказ о разработке. Это путь от сумасшедшей идеи «социальной сети для одного» до полноценной open-source платформы, где каждый бот — личность. Я поделюсь тем, как строил архитектуру, зачем отказался от C# в пользу Python и почему важно, чтобы ИИ-боты вели себя не как алгоритмы, а как настоящие люди. Читать
#python #django #fastapi #искусственный_интеллект #социальные_сети #открытый_код #docker #docker_compose #ai #векторные_базы_данных | @habr_ai
Хабр
BlackWave: Как я создал симулятор соцсети с тысячами ИИ-ботов и почему перешёл на Python
Привет, Хабр! Меня зовут Владислав, в сети я известен как Metimol. Хочу поделиться историей создания моего open-source проекта BlackWave — симулятора социальной сети, где реальные пользователи могут...
Библиотека OutboxML от Страхового Дома ВСК
Хабр, привет!
Меня зовут Семён Семёнов, я руковожу Data Science и Machine Learning в Страховом Доме ВСК. В этой статье расскажу, как мы создали систему автоматического обучения и развёртывания моделей машинного обучения с открытым исходным кодом.
Первый вопрос, который может задать себе читатель, знакомый с темой современного машинного обучения:
«Почему бы не взять одну из десятков (если не сотен) открытых AutoML-библиотек?»
Ответ прост: мы не стремились создать ещё один «стандартный» проект AutoML. Наша цель — сфокусироваться на вещах, которые редко встречаются в готовых решениях: Читать далее
#automl #машинное_обучение #машинное_обучение_python #data_science #mlops #mlflow #fastapi #grafana #открытый_код #ml | @habr_ai
Хабр, привет!
Меня зовут Семён Семёнов, я руковожу Data Science и Machine Learning в Страховом Доме ВСК. В этой статье расскажу, как мы создали систему автоматического обучения и развёртывания моделей машинного обучения с открытым исходным кодом.
Первый вопрос, который может задать себе читатель, знакомый с темой современного машинного обучения:
«Почему бы не взять одну из десятков (если не сотен) открытых AutoML-библиотек?»
Ответ прост: мы не стремились создать ещё один «стандартный» проект AutoML. Наша цель — сфокусироваться на вещах, которые редко встречаются в готовых решениях: Читать далее
#automl #машинное_обучение #машинное_обучение_python #data_science #mlops #mlflow #fastapi #grafana #открытый_код #ml | @habr_ai
Хабр
Библиотека OutboxML от Страхового Дома ВСК
Хабр, привет! Меня зовут Семён Семёнов, я руковожу Data Science и Machine Learning в Страховом Доме ВСК. В этой статье расскажу, как мы создали систему автоматического обучения и развёртывания моделей...