Олег Лупиков
4.33K subscribers
1.49K photos
186 videos
8 files
774 links
Инженер, предприниматель, автор. Создаю цифровые продукты и проектирую контент. Консультация: @lupikovoleg
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
2
Го познакомимся поближе?

Друзья, некоторое время назад я решил, что публичный канал будет только про технологии, новости, искусственный интеллект и всякое такое.

Но помимо этих тем у меня происходит ещё много всего интересного: как я строю бизнес и какие челленджи приходится решать, как мы привлекаем инвестиции, что я вообще делаю каждый день — и об этом я рассказываю в своем закрытом канале!

Поэтому, если хотите познакомиться поближе — залетайте https://t.me/+Z5t_c51UOVtiZWUy

🫶
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Русский дубайский стартап Xpanceo с российскими корнями привлек $250 млн

Раунд A возглавила гонконгская компания Opportunity Venture. По итогам сделки оценка компании составила $1,35 млрд.

А теперь внимание, что делает Xpanceo. Стартап занимается разработкой умных контактных линз. Линзы, объединяющие в одном интерфейсе технологии дополненной и расширенной реальности (AR/XR), мониторинг здоровья в реальном времени, ночное видение.

Среди разработок — линзы для зрения дополненной реальности; умные линзы с датчиком внутриглазного давления для мониторинга глаукомы; биохимические линзы, способные измерять параметры здоровья, такие как уровень глюкозы, непосредственно из слезной жидкости; линзы, способные осуществлять беспроводную зарядку в реальном времени и считывать данные.

Это технологии, за развитием которых я слежу внимательнее всего. Потому что линзы с дополненной реальностью это прям мечта.

Ждете? 🔥

✒️@founderit | навигация | дневник
🔥101
Почему голосовой искусственный интеллект это не поздно, а рано?

Как мы с вами знаем, за последние два года рынок ИИ дал инвесторам десятки иксов.
OpenAI, Anthropic, Cursor, Windsurf…
Но почти все инвестиции шли в языковые модели, генерацию видео и кода.

И только одно направление по прежнему остается в стороне — разговорный искусственный интеллект.

Хотя именно там:
— миллиарды минут живого трафика
— потребность в автоматизации с 2000-х
— огромные бюджеты от телекомов, банков, e-com и т.д.

💫 Сейчас голосовой ИИ начал настоящий разворот:
— не презентации, а рабочие кейсы
— не обещания, а звонки на реальных базах
— не раунды под идею, а под уже работающий трекшн

И мы в MAIA занимаемся именно этим, и чтобы стать компанией №1 в РФ 🇷🇺 мы открываем раунд инвестиций.

👌 16 июля в 19:00 по мск вебинар для тех, кто хочет разобраться.
Не в тренде, а в направлении,
которое только начинает набирать обороты и приведет к тому, что через три года живых колл-центров больше не будет.

Буду вас ждать.
Вся инфа в этом канале.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7
This media is not supported in your browser
VIEW IN TELEGRAM
Друзья, вы знаете как внимательно я слежу за ростом рынка ИИ (потому что сам в нем, ха-ха)

И динамика там очень интересная. Насколько рынок в РФ отстает от рынка в мире –
Инвестиции в ИИ за прошлый год – >$100 млрд. А в России ~$34 миллиона.
При этом треть всех инвестиций в стартапы приходится именно на ИИ, и в России и в мире.

Почему на западе рождаются компании, которые за полгода получают оценку в $10 млрд, а в России нет? Что делать российскому инвестору, когда в мире чуваки на капитализации NVIDIA и OpenAI делают x10 за год?

Короче, сегодня в 19:00 провожу эфир на эту тему – про рынок ИИ и инвестиции в него
👉 https://t.me/+qv4U0b3U7Gs0Nzli

Приглашаю!
🔥72
Привет, мои маленькие любители искусственного интеллекта. Вижн — это валюта будущего.

Если ты создаёшь технологии, важно не только разбираться в коде и пайплайнах, но и уметь видеть вперёд. Причём не на 10 лет, а хотя бы на два шага дальше остальных. И это чутьё нужно не просто иметь — его надо прокачивать и кормить контентом. Чувак, который живет в деревне и ничего кроме вида из окна не видит — никогда не придумает нечто революционное ввиду отсутствия насмотренности. Согл?

Короче, на выходных посмотрел МЕГАН 2.0 — продолжение фильма про куклу-робота с не самым стабильным ИИ. И хотя вторая часть уже не хоррор (а кому-то и вообще не зашла), я кайфанул.

Почему? Потому что это охрененная визуализация близкого будущего. Особенно та часть, где у чела на голове чип, который проецирует интерфейс дополненной реальности с управлением Spotify. Буквально HUD как в играх. Вот это — то, что я хочу видеть в реальной жизни даже больше, чем AGI.

Плюс в фильме поднимается важнейшая этическая тема — не как запретить ИИ, а как нормально адаптировать общество, заложить в систему мораль и объяснить людям, что на самом деле происходит.

Параллельно вспомнил сцену из Терминатора, где скайнету понадобилось три минуты, чтобы захватить всё. Так что вопрос «а что если…» — не такой уж и фантастический.

В общем:
— если ты интересуешься ИИ
— если тебе важно, как технологии будут выглядеть визуально
— если хочется не очередную нейросетевую байку, а что-то с концептом

МЕГАН 2.0 — must watch (и первую часть тоже, без неё не будет вайба).

Если посмотрел, кидай реакцию 🔥

🍿@founderit | навигация | дневник
🔥41
OpenAI выпустил ChatGPT Agent

Сэм снова задает жару.

Что это вообще такое?

ChatGPT Agent — это гибрид прошлых экспериментов Operator (кликалка по сайтам) + Deep Research (многослойный ресёрч) + ChatGPT. В итоге получился один мозг со встроённым браузером, терминалом и API-доступом, который сам решает, какой инструмент включить, чтобы выполнить задачу от и до.

Сценарии применения

«Глянь мой календарь и собери бриф по клиентам из свежих новостей» — сделает.
«Купи всё для японского завтрака на четверых» — выберет рецепты, закажет продукты, напомнит про палочки.
«Разбери трёх конкурентов и собери слайд-дек» — проанализирует, напишет, запакует в редактируемые слайды.
— Достанет данные из Gmail, GitHub и других сервисов через коннекторы.
— Можно остановить, подкорректировать маршрут или вообще перехватить управление.
— Поддерживает расписания: «генери мне отчёт каждое утро понедельника».

А не наделает ли агент херни?

Не переживайте, перед любым «безвозвратным» действием (платёж, бронирование) агент ставит видео на паузу и спрашивает «босс, точно жмём?». Плюс есть отдельный Watch Mode.

Кому доступно и когда

Уже сегодня включают Pro-юзеров (400 сообщений в месяц), в ближайшие дни докатят до Plus и Team.

Собственно, зачем это нормальному, здоровому человеку? Если существует профессия ассистента

1. Автоматизировать рутинные действия, база ИИ-агентов же
2. Экономить время, когда задачи буквально выполняются в фоне
3. Быть первым — через год «агенты» станут стандартом, а кто игнорировал, снова будут покупать курс (мой) чтобы научиться.

А у вас уже есть задача, которую вы бы первым делом скинули новому агенту? Или у вас есть живой ассистент для таких задач? 😄

🍿@founderit | навигация | дневник
🔥6👍2
🔥 На отечественной AI сцене что-то да происходит

Чуваки из Т-Банка скромненько так взяли — и зарелизил сразу две модели.

Я взял паузу, чтобы изучить что там. Возвращаюсь!

1. T-Pro 2.0 — русскоязычная LLM на стероидах
— Построена на Qwen3-32B, но с кастом-токенизатором, который на кириллице летает в полтора-три раза шустрее оригинала.
— Поддержка гибридного reasoning: модель сначала думает, потом отвечает..
— Лидирует в русских бенчмарках среди открытых моделей ≤ 35 B параметров — и при этом уносит ответы в 32-тысячный контекст.
— Лицензия Apache 2.0, бери — дообучай, запускай локально, продавай, делай что хочешь.

2. T-one — стриминговый ASR для телефонии
— Всего 71,6 M параметров, зато распознаёт речь в реальном времени; задержка пайплайна ~1-1,2 с.
— Оптимизирован под телефонный канал, но спокойно воспринимает и длинные записи — транскрибировать созвоны и тд.
— Код, docker-демо, скрипты для кастомного дообучения — всё на GitHub, всё под Apache 2.0.
— Конкурирует по качеству с куда более жирными офлайн-моделями.

Почему это круто?
1. Open-source = свобода. Пока другие корпорации прячут веса за paywall, ребята из Т-Банка делают бесплатный дроп того, на что потратили десятки миллионов.
2. Локальный инференс без боли. T-Pro 2.0 уже дружит с кириллицей, а T-one не требует дата-центра на каждом углу.
3. Быстрый старт для проектов. Диалоговые агенты, голосовые боты, RAG-решения — берёте модель, накидываете свои данные, и всё, можно ехать в прод.

Огня 🔥 пацанам из Т.

🍿 @founderit | навигация | дневник
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥171
Пока у нас бигтех делает дроп моделек (к чему я отношусь с огромным респектом), на западе началась эра гигаватных кластеров

Сперва sama анонсировал, что OpenAI к концу года увеличат количество GPU до 1 миллиона. И на следующий же день с ноги врывается elonmusk и говорит, что через пару недель в строй введут первую очередь его проекта Colossus 2 — ЦОД для xAI/Grok на 550 тысяч карт NVIDIA GB200 и GB300.

И чтобы прям не скучать, он добавил, что в ближайшие пять лет xAI планирует нарастить свои вычислительные мощности до эквивалента в 50 миллионов чипов NVIDIA H100.

В рамках строительства Colossus 2 xAI купили электростанцию и перевезли ее к своему датацентру.

Чтобы питать обучение AGI, нужны гигаватты энергии. И следом уже врывается realDonaldTrump и говорит — давайте развивать атомную энергетику, чтобы питать датацентры под искусственный интеллект.

Безумная гонка началась. Потом поговорим о том, где же Россия в этой гонке.

🔋@founderit | навигация | дневник
🔥31
Media is too big
VIEW IN TELEGRAM
Помните мои предсказания про развитие нейросетевого видеопродакшена?

Я говорил, что в 2026-2027 уровень AI VFX достигнет той точки, когда появятся полноценные сервисы для создания персонализированного кино.

Но прежде, должны пройти отдельные технологические этапы — глубокие модели мира, управление каждым отдельным объектом в кадре (и за пределами кадра), мощная физическая модель и ещё ряд других.

И вот такой большой скачок сделала Runway — они запустили Aleph.

Модель может менять окружение исходного видео, менять ракурс, время суток, объекты в видео, их стиль.

Это ещё один большой шаг к тому, каким однажды станет видеопродакшен. Создавать что угодно, управлять всем происходящем в кадре только с помощью промтов. Сказка же!

Aleph уже доступен в платной подписке Runway.

📹@founderit | навигация | дневник
🔥7
Самое смешное за сегодня

😄
@founderit | навигация | дневник
😁14
OpenAI выпустили две open source модели

Это что за новость! Последний раз такое было во времена GPT-2, и тогда это дало мощный толчок развитию всевозможных языковых моделей.

Встречаем gpt-oss:
gpt-oss-120b ≈ o4-mini по мощности, но работает на одной 80 GB GPU.
gpt-oss-20b ≈ o3-mini и ужимается в 16 GB RAM — можно запустить даже на MacBook
Лицензия Apache 2.0. Делай что хочешь, даже продавай
128 к контекст + Mixture-of-Experts.
• 120b: 36 слоёв, 128 экспертов (4 активных за токен).
• 20b: 24 слоя, 32 эксперта.
Считай, мозг переключается в «эконом-режим», когда задача простая, и разгоняется, когда надо.
Поддержка Tools. Модели умеют ходить в интернет, запускать Python, function calling, chain-of-thought

Веса модели в свободном доступе на Hugging Face.

Что это все значит для тех, кто них*я не понимает что за веса и что за опенсорс: OpenAI выпустили свободный аналог двух своих моделей ChatGPT которые можно скачать и развернуть на своем сервере. Но главное, что их можно использовать в своих продуктах, строить на их основе что-то новое и главное коммерциализировать.

Я балдею 🔥 это хорошая динамика для всех ИИ-стартапов

😘
@founderit | навигация | дневник
🔥9
Олег Лупиков
Самое смешное за сегодня 😄 @founderit | навигация | дневник
Самое смешное за сегодня

ChatGPT, дай мне прозвище на базе истории наших переписок и твоих воспоминаний обо мне. Не объясняй почему такое, напиши просто прозвище


😄
@founderit | навигация | дневник
7😁4
Гайз, в 20:00 будем смотреть лайвстрим с презентацией ChatGPT 5.

Are you in?

Если прям интересно, то может и я стрим тут проведу.

Тык 🔥

🤯 @founderit | навигация | дневник
🔥191
Live stream scheduled for
Live stream started