HubLab.ai – Ivan Kononov
235 subscribers
60 photos
6 videos
22 links
Никаких репостов новостей и бесконечного вала сообщений, важные тесты и новости пару раз в неделю. Авторский взгляд на развитие нейросеток, отрицание хайпа, только суть и немного юмора.

More than 10 years of experience in startups
Download Telegram
Мне выдали доступы Manus 🍑😂
Дада, тому самому за $10,000-20,000 долларов 💸 про которого ходили слухи и якобы продавали инвайты 💅

Короче агент Manus (НЕ путать с агентом Anus) - это не Deep Research, это ещё и OpenAI Operator.

OpenAI Operator и Manus это по сути удаленный браузер который использует VISION-LMM или VLM для просмотра запущенного инстанса 🌐Google Chrome, который можно остановить, вмешаться, залогиниться куда-нибудь например и отдать обратно контроль.


Очень круто сделано, даже с телефона доступен весь функционал 🔥😠

Закинул в него запрос по своей теме в Аспирантуре, как ответит - отпишу круче ли он DeepResearch от OpenAI в плане поиска информации 💁

Но уже сейчас могу сказать, то он не для этого в первую очередь, а для выполнения тасок автономно 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6😱1
Ходят слухи что OpenAI скоро выпустит GPT 4.1 👀

При том что есть модели: GPT-4o, GPT-o3, GPT-4.5, GPT-o1-Pro...

Пора пилить бенчмарк по типу сколько 'r' в слове "strawberry" только про названия моделей OpenAI 🔥

Лично я вангую - это будет моделька на замену GPT-4, А не GPT-4o.
Please open Telegram to view this post
VIEW IN TELEGRAM
👀2
OpenAI улучшили память во всех чатах 💀

Теперь вы можете спросить «О чем мы говорили на прошлых выходных?» И он ответит 🤯

Доступно тарифу PRO за 200$
Позже раскатят на Plus 20$

Помните, вы всё, конечно, помните 🧠
🔥2🤔1
OpenAI GPT-4.1 выпущена 🎉

Все-таки это прокачанный вариант GPT-4o

Бенчмарки хороши, модельне только хорошо кодит на Python, но и на других языках, заявляют что сильно лучше следует пользовательским инструкциям 🎠

🎉1 миллион токенов контекста🎉
32k токенов на выход(больше, чем у 4o в 2 раза)

Дешевле чем 4o
Так же появилась модель Nano, которая тупее 4o-mini, это интересно 🤔
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥62👍1
🗯 OpenAI o3 и o4-mini интересное:

- Reasoning картинками 🖼

- Модели теперь используют инструменты: вытаскивает код из репозиториев с GitHub прям вот хорошо и вовремя 🐸

Цены на токены 📈(за 1 млн):

o1 (базовая модель)
- Входящие: $15
- Исходящие: $60

o3 (дешевле на 33%)
- Входящие: $10
- Исходящие: $40

o4-mini (дешевле на 93%)
- Входящие: $1.1
- Исходящие: $4.4

И да, супер крутые результаты на бенчмарках по кодингу, агентных системах 📊
Please open Telegram to view this post
VIEW IN TELEGRAM
1
🔥43🍾2😁1
Интересно, сколько денег OpenAI потеряла на электричестве из-за того, что люди говорили «пожалуйста» и «спасибо» своим моделям.

Сэм Альтман:
Десятки миллионов долларов, потраченные не зря — никогда не знаешь, к чему это приведёт.
💯3🤣21😁1
Meta запускает свое приложение Meta* AI app которое в первую очередь про диалог с ним голосом, беседу 🗣️💭

Похоже на копипасту с Алисы, если вы помните как она запускалась в формате приложения👀

О общем поигрался - у OpenAI получше в плане эмоций.

TLDR; Список новых фишек:
Приложение Meta View теперь называется Meta* AI.
- Получайте персонализированный опыт взаимодействия с Meta* AI, учитывающий ваши предпочтения и интересы.
- Общайтесь с Meta* AI легко и естественно, чтобы получать ответы, советы и вдохновение.
- Изучайте советы и подсказки от сообщества в ленте Discover и пробуйте их сами.

Продолжайте настраивать и управлять своими очками Ray-Ban Meta.
- Импортируйте и делитесь медиафайлами с ваших очков Ray-Ban Meta через приложение.
- Все ваши сопряжённые устройства, настройки и медиафайлы автоматически перенесутся после обновления приложения.

Некоторые функции Meta* AI доступны только в отдельных странах и на определённых языках. Распространение новых функций может происходить постепенно.

* Meta признана экстремистской организацией и запрещена на территории России - для тех кто будет репостить 📌
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41😁1
У меня взяли интервью, прошу поддержать лайком =)
https://www.instagram.com/reel/DJ6C2X8MbMc/?igsh=MTdnc2tmZGozdjZ1YQ==
11
Мы уже ТУТ 🚀 Google выпустила Alpha Evolve — революционный AI-проект для автоматического улучшения алгоритмов!

На протяжении 56 лет задача оптимизации алгоритма умножения матриц 4x4 считалась нерешаемой менее чем за 49 операций умножения. Alpha Evolve впервые справилась с этим за 48 операций! 🔥

Что такое Alpha Evolve?

Это инновационный AI-агент, способный самостоятельно:

📌 Создавать и оптимизировать алгоритмы в области математики, науки и инженерии.

📌 Использовать эволюционные вычисления и LLM (большие языковые модели), проверяя код и находя лучшие решения без участия человека.

📌 Работать параллельно на множестве GPU/TPU, многократно ускоряя процесс открытия новых знаний.

Уже реализованные результаты:

Оптимизация алгоритмов умножения матриц.

Улучшение инфраструктуры Google, включая распределение вычислительных задач, ускорение работы Gemini-моделей, оптимизацию TPU-чипов и даже архитектуры Transformer-базы всех LLM!

Важный момент: Alpha Evolve — шаг к настоящему самообучающемуся AI. Чем лучше становится модель, тем быстрее и эффективнее она учится сама!

🤖 Почему это важно?

AI-системы, способные самостоятельно улучшаться, приближают нас к точке интеллектуального взрыва.

Alpha Evolve уже показывает значительное ускорение и улучшение алгоритмов, что в ближайшем будущем может привести к открытиям во всех сферах от медицины до фундаментальной науки.

🌟 Это начало новой эпохи в области искусственного интеллекта и научных открытий!

https://deepmind.google/discover/blog/alphaevolve-a-gemini-powered-coding-agent-for-designing-advanced-algorithms/
🔥92
🚀 Запускаем botable.dev — генератор AI-агентов по промпту, пока в Telegram

Всем привет! Давно не писал в канал - есть новость: я давно ханимаюсь AI(ML,CV,LLM,NLP) а теперь упаковываю весь опыт в продукт.

С командой сделали прототип: даёшь описание — получаешь бота с исходниками и деплоем под ключ.
👨‍🔧 Сейчас ищем тестеров — соберём для вас пару ботов, если кейс интересный.

👉 Коротко о проекте и форма заявки — botable.dev
💬 Или напишите мне в ЛС — обсудим, что можно собрать!
🔥12👍54
🧠 3 факта про ChatGPT Agent:
- Раньше OpenAI называли его Operator, был доступен только на рынке США за $200/мес.
- теперь включён в подписку ChatGPT за $20
- Может сам кликать, заполнять формы, ходить по сайтам, запускать браузер и терминал — работает как настоящий ассистент
- Умеет выполнять сложные задачи без микроменеджмента: анализирует, ищет, компилирует и отдаёт результат в нужном формате
7🔥2
Forwarded from Al Talent Hub
Привет! Меня зовут Иван Кононов — ментор AI Talent Hub, CEO в HubLab.ai и эксперт по Computer Vision.

В этой колонке расскажу, как мы вдвоём собрали полноценную CV-систему с нуля — без размеченных данных и за минимальное время.

🤑 Исходные условия: мы — команда из двух Data Science-джедаев в HubLab.ai. Задача — сделать CV-систему с дедлайном «вчера».

Особенности задачи:

▫️Камера под углом "сбоку-снизу-задом-вперёд", готовых датасетов — 0.
▫️Fisheye + разные линзы: искажений столько, что квадрат превращается в эллипс.
▫️Низкий FPS и задача action recognition: важно поймать событие, а не просто объект.
▫️Огромный архив (сотни ГБ) без единой метки. Только мы и FFmpeg.

🤗 Шаг 1. Быстрый Bootstrap

1. Берём YOLOv8n-oiv7 — модель с Open Images V7 (600+ классов).
2. Запускаем предикт с confidence = 0.01→ собираем ~4 000 кадров (скрипт ffmpeg + Ultralytics).
3. Загружаем «грязную» автолейбл-разметку в CVAT.
4. Сидим вдвоём: подтверждаем «хиты», вычищаем «мимо».

🎉 Шаг 2. Первый цикл обучения

▫️Обучаем YOLO11n (4.8M params), 50 эпох, получаем mAP50 ≈ 0.37.
▫️Прогоняем ею оставшийся видео-массив → +2 000 автолейблов.
▫️Чистим, дописываем пропуски – разметка ускоряется на ~25 %

💡 Лайфхак: держите conf_thres низким (0.01–0.1) — лучше удалить лишнее, чем не поймать объект.

👁 Шаг 3. Боремся с «рыбьим глазом»

▫️Кидаем ChArUco на каждую камеру → храним коэффициенты K и D.
▫️В проде undistort на CPU занимает всего 2 мс.
▫️На ровных кадрах даже YOLO11n поднимается до mAP50 ≈ 0.82.

🗜 Шаг 4. Жмём из CPU максимум

GPU не дали, поэтому…

▫️Экспорт ONNX → OpenVINO INT8: yolo export format = onnx → pot quantization.
▫️На i7-1360P получаем 35 FPS вместо 12 FPS (×2.9).
▫️Бонус: –20% к весу модели, и кэш L3 — доволен.

🥰 Шаг 5. Доразмечиваем датасет, пока не надоест...

Выводы:

1. Полуавтомат рулит: чередование «модель → человек» экономит > 25 % времени небольшой команде.

2. Обучать “малых” NN выгодно: они быстро переобучаются и хороши как автолейблеры.

3. Физика важна: исправление оптики приносит +0.1-0.2 mAP почти бесплатно.

4. CPU — не приговор: OpenVINO даёт ×2-×3 ускорение, а quantization почти не бьёт по точности.

5. Датасет всегда важнее: чистые 10тыс. кадров с правильными bbox ценнее, чем сверхмодель без разметки.

Ставь ⚡️— и в следующей колонке я расскажу, как мы прикрутили action recognition, разнесли пайплайн на две модели и вынесли heavy-часть on-prem

Подписывайся на мой канал @ivanknnv — там без флуда и репостов: только важные тесты, наблюдения и немного иронии про мир нейросетей.

#КолонкаМентора
#AITalentHub #ITMO #NapoleonIT
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1043👍2
OpenAI релизнула не только GPT5, а еще и новые шакалы на графиках метрик 🤣
😁8
Вопрос подписчикам: что хотите спросить/потестить?)