ИИ-сервис для прохождения собеседований cluely привлек $15м от a16z
Это прям безумная история. Рой Ли учился в университете и создал софт, который помогает проходить технические собеседования. Приложение позволяет скопировать текст в прозрачное окно, в котором прямо отдельно «вот это пиши, вот это говори».
И все это просто так называемый ChatGPT wrapper. Как и почти все ИИ стартапы. Чисто обертка над языковой моделью со специальными промтами.
Дальше Рой проходил собеседования в Amazon, Facebook и другие компании с помощью этой программы.
Amazon такой подход не оценили и настучали в деканат, мол, ваш студент нарушает этический кодекс университета. Заголовки: «Amazon любит ИИ, но не когда его используют соискатели на собеседованиях».
Из университета парня отчислили за то, что онебал все правила . От меня респект, конечно 😂
Как итог — Рой основал компанию с оценкой в $120 миллионов. Теперь в приложении можно прям говорить голосом, она слышит вопросы на зуме и пишет на экране ответы, видит твой экран и даже если ты включил демонстрацию экрана — на той стороне этого не увидят. Работает и на Mac, и на Windows.
Слоган его компании — «cheat on everything» .Рекламный ролик — парень пользуется искусственным интеллектом, чтобы «пройти» свидание.
Короче мораль такая:
— придумайте промт, который решает задачу и ваша компания будет стоить сотни или миллиарды долларов. Кейсы Cursor и Windsurf помним?
— доверять собеседнику в интернете будет в разы тяжелее, возможно ответ вам дает не он, а ChatGPT
— возможно все, даже бизнес на продаже инструмента для обмана с простейшим приложением на базе ChatGPT
Что думаете, друзья? Рой — красавчик (🔥) или подлец (🗿)?
🤥 @founderit | навигация
Это прям безумная история. Рой Ли учился в университете и создал софт, который помогает проходить технические собеседования. Приложение позволяет скопировать текст в прозрачное окно, в котором прямо отдельно «вот это пиши, вот это говори».
И все это просто так называемый ChatGPT wrapper. Как и почти все ИИ стартапы. Чисто обертка над языковой моделью со специальными промтами.
Дальше Рой проходил собеседования в Amazon, Facebook и другие компании с помощью этой программы.
Amazon такой подход не оценили и настучали в деканат, мол, ваш студент нарушает этический кодекс университета. Заголовки: «Amazon любит ИИ, но не когда его используют соискатели на собеседованиях».
Из университета парня отчислили за то, что он
Как итог — Рой основал компанию с оценкой в $120 миллионов. Теперь в приложении можно прям говорить голосом, она слышит вопросы на зуме и пишет на экране ответы, видит твой экран и даже если ты включил демонстрацию экрана — на той стороне этого не увидят. Работает и на Mac, и на Windows.
Слоган его компании — «cheat on everything» .Рекламный ролик — парень пользуется искусственным интеллектом, чтобы «пройти» свидание.
Короче мораль такая:
— придумайте промт, который решает задачу и ваша компания будет стоить сотни или миллиарды долларов. Кейсы Cursor и Windsurf помним?
— доверять собеседнику в интернете будет в разы тяжелее, возможно ответ вам дает не он, а ChatGPT
— возможно все, даже бизнес на продаже инструмента для обмана с простейшим приложением на базе ChatGPT
Что думаете, друзья? Рой — красавчик (🔥) или подлец (🗿)?
Please open Telegram to view this post
VIEW IN TELEGRAM
Cluely
Cluely - Live AI Meeting Assistant | Real-Time Meeting Notes and AI Insights
AI meeting assistant that provides live meeting notes, instant answers, and real-time insights during calls. Unlike Otter or Granola, helps you during meetings, not just after.
🔥10🗿3❤1
В какой-то момент понял, что хочу оставить этот канал только для публичной активности. Новости, обзоры, в общем все, что и так здесь пишу.
Но классное упражнение, которое мне задали — начать транслировать личное, что вообще происходит в голове и в жизни!
Поэтому я завел ещё один, закрытый Telegram-канал. Там про мой лайф, внутрянку, что я делаю, мысли и переживания. Короч все то, что прям публично не хочу демонстрировать, но определенно самое ценное будет только там.
Заявки одобряю вручную, добро пожаловать в мой дневник: https://t.me/+GHPdM7R8Px1iODEy
Но классное упражнение, которое мне задали — начать транслировать личное, что вообще происходит в голове и в жизни!
Поэтому я завел ещё один, закрытый Telegram-канал. Там про мой лайф, внутрянку, что я делаю, мысли и переживания. Короч все то, что прям публично не хочу демонстрировать, но определенно самое ценное будет только там.
Заявки одобряю вручную, добро пожаловать в мой дневник: https://t.me/+GHPdM7R8Px1iODEy
❤7🔥1
Прошло 4 дня, как Midjourney запустили модель для генерации видео
Как и с каждым релизом каждой модели у каждой компании каждый месяц (😂) — результаты классные
Особенности:
— разрешение пока 480p
— всего 5 секунд генерации
— генерит по 4 видоса на промпт
Красиво, артефактов особо не замечаю, но «модель мира*» пока далека от конкурентов. Почему так? Компания долго шла к видео — почти два года, и строила продукт и архитектуру на свои деньги, в отличие от конкурентов Midjourney живет на выручку, а не инвестиции. А генерить видео это очень дорого.
Короч смотрим ролики, генерируем, оцениваем. Свой маркет фит генератор найдет.
🤥 @founderit | навигация | дневник
Как и с каждым релизом каждой модели у каждой компании каждый месяц (😂) — результаты классные
Особенности:
— разрешение пока 480p
— всего 5 секунд генерации
— генерит по 4 видоса на промпт
Красиво, артефактов особо не замечаю, но «модель мира*» пока далека от конкурентов. Почему так? Компания долго шла к видео — почти два года, и строила продукт и архитектуру на свои деньги, в отличие от конкурентов Midjourney живет на выручку, а не инвестиции. А генерить видео это очень дорого.
*модель мира (world model) — это внутренняя виртуальная вселенная, которую нейросеть строит, чтобы предсказывать, как сцена будет выглядеть дальше: где окажется каждая тень, как предметы столкнутся, какого размера станет блик при зуме. Если у текстовой модели есть «модель языка», то у видео-ИИ есть «модель мира», отвечающая за физику, причинно-следственные связи и постоянство объектов. Иначе ролик рассыпается: кружка телепортируется, внезапно вырастают лишние пальцы.
Короч смотрим ролики, генерируем, оцениваем. Свой маркет фит генератор найдет.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤2
Гайз, у меня к вам запрос / вопрос / просьба 🚨
Мне нужно за неделю собрать список всех существующих ИИ-стартапов, ИИ-продуктов, ИИ-бизнесов в РФ.
Если вы знаете такие компании, хотя бы одну даже, чиркните в комментарии!
А уж если вы с основателями знакомы лично, то я буду очень благодарен за интро 🫶🏻
Я чуть-чуть попозже расскажу, зачем мне нужны эти компании, но дам спойлер:мы с командой кое-что задумали грандиозное
🤥 @founderit | навигация | дневник
Мне нужно за неделю собрать список всех существующих ИИ-стартапов, ИИ-продуктов, ИИ-бизнесов в РФ.
Если вы знаете такие компании, хотя бы одну даже, чиркните в комментарии!
А уж если вы с основателями знакомы лично, то я буду очень благодарен за интро 🫶🏻
Я чуть-чуть попозже расскажу, зачем мне нужны эти компании, но дам спойлер:
Please open Telegram to view this post
VIEW IN TELEGRAM
Thinking Machines Lab привлекли $2 миллиарда по оценке в $10 миллиардов
Компанию основала бывшая CTO OpenAI, красавица Мира Мурати. Раунд возглавили a16z.
А теперь внимание — никто нахрен не знает, чем Thinking Machines Lab занимается 🤨
Это даже стало мемом 😂
Но если серьезно, на что $2 миллиарда идут в таких случаях?После того, как фаундер обкэшился, закупать железо. Цены на GPU видели вообще?
🦄 @founderit | навигация | дневник
Компанию основала бывшая CTO OpenAI, красавица Мира Мурати. Раунд возглавили a16z.
А теперь внимание — никто нахрен не знает, чем Thinking Machines Lab занимается 🤨
Это даже стало мемом 😂
Но если серьезно, на что $2 миллиарда идут в таких случаях?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁5
Олег Лупиков
Thinking Machines Lab привлекли $2 миллиарда по оценке в $10 миллиардов Компанию основала бывшая CTO OpenAI, красавица Мира Мурати. Раунд возглавили a16z. А теперь внимание — никто нахрен не знает, чем Thinking Machines Lab занимается 🤨 Это даже стало мемом…
ставь лайк если Мира краш
(судя по количеству запросов mira murati husband так думаю не только я)
(судя по количеству запросов mira murati husband так думаю не только я)
❤7 3
Какая максимальная длина одного диалога в ChatGPT 4o?
Короч давайте разберемся, как это вообще устроено.
GPT-4o держит до 128 000 токенов (input + output). Это ≈ 90–95 000 слов. Один токен ≈ ¾ слова (или 4 символа)
В приложении ChatGPT есть ещё определенный, назовем его предохранитель — когда диалог становится большим, старые сообщения в нем подвергаются компрессии. Компрессия диалога — если по-простому это отдельный промт «summarize this dialog» с историей чата. Затем это саммари улетает с каждым твоим запросом в ChatGPT.
Каждое новое саммари короче предыдущего, поэтому подробности диалога постепенно размываются. Внешне ты видишь в переписке всю историю, но модель «читает» только последние N тысяч токенов + сжатое саммари.
Почему 128 тысяч токенов это не равно бесконечный диалог, если все равно история сжимается?
— Чат хранит не только твой текст, но и скрытые промпты, системные инструкции, метаданные, результаты веб-поиска.
— На длинных диалогах задержка, стоимость и потребление GPU памяти растут экспоненциально. Напомню, что одно даже «привет» стоит в масштабе всех пользователей ChatGPT миллионы долларов.
— Потому OpenAI бережёт сервера и режет чаты чуть-чуть раньше, чем физический предел модели.
Как избежать лимитов?
Вообще, никак. Но есть лайфхаки:
— Новые ветки. Разбивай разговоры по темам; важные фрагменты можно копировать в новый чат как справку.
— Саммари вручную. Скидывай краткие self-summaries: шанс, что детали «выживут» выше.
— Файлы/данные держи отдельно. Огромные куски текста зашумляют контекст; лучше прикреплять файлы, а не пихать всё в сообщение.
В итоге: у GPT-4o действительно гигантское окно на 128k, но продуктовый слой ChatGPT заставляет его работать в более «экономичном» режиме: сворачивать старое и, при необходимости, обрубать чат целиком.
А я пошел переносить диалог в новую ветку 😂
А вы уже сталкивались с лимитами?
🦄 @founderit | навигация | дневник
Короч давайте разберемся, как это вообще устроено.
GPT-4o держит до 128 000 токенов (input + output). Это ≈ 90–95 000 слов. Один токен ≈ ¾ слова (или 4 символа)
В приложении ChatGPT есть ещё определенный, назовем его предохранитель — когда диалог становится большим, старые сообщения в нем подвергаются компрессии. Компрессия диалога — если по-простому это отдельный промт «summarize this dialog» с историей чата. Затем это саммари улетает с каждым твоим запросом в ChatGPT.
Каждое новое саммари короче предыдущего, поэтому подробности диалога постепенно размываются. Внешне ты видишь в переписке всю историю, но модель «читает» только последние N тысяч токенов + сжатое саммари.
Почему 128 тысяч токенов это не равно бесконечный диалог, если все равно история сжимается?
— Чат хранит не только твой текст, но и скрытые промпты, системные инструкции, метаданные, результаты веб-поиска.
— На длинных диалогах задержка, стоимость и потребление GPU памяти растут экспоненциально. Напомню, что одно даже «привет» стоит в масштабе всех пользователей ChatGPT миллионы долларов.
— Потому OpenAI бережёт сервера и режет чаты чуть-чуть раньше, чем физический предел модели.
Как избежать лимитов?
Вообще, никак. Но есть лайфхаки:
— Новые ветки. Разбивай разговоры по темам; важные фрагменты можно копировать в новый чат как справку.
— Саммари вручную. Скидывай краткие self-summaries: шанс, что детали «выживут» выше.
— Файлы/данные держи отдельно. Огромные куски текста зашумляют контекст; лучше прикреплять файлы, а не пихать всё в сообщение.
В итоге: у GPT-4o действительно гигантское окно на 128k, но продуктовый слой ChatGPT заставляет его работать в более «экономичном» режиме: сворачивать старое и, при необходимости, обрубать чат целиком.
А я пошел переносить диалог в новую ветку 😂
А вы уже сталкивались с лимитами?
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4
В новой бета-версии iOS 26 появилась функция пространственного фото, которая работает с абсолютно любой фотографией, даже которую сняли не на айфон.
Работает прям круто и моментально — просто нажимаешь на переключатель и получаешь динамическое, «живое» 3D фото!
Заметил прям случайно и удивился.
Конечно, я был бы не я, если бы не рассказал — КАК ЭТО РАБОТАЕТ?
1. Depth Estimation — оценка глубины с одной картинки
Это фундамент. Камера сняла обычную фотку — там же нет никакой глубины, только RGB-пиксели.
Apple берёт эту фотку и скармливает модели computer vision, которая обучена на парах RGB + Depth (например, из LiDAR, двойных камер и ARKit).
Эта модель (чаще всего — модифицированный ConvNeXt, ViT, или Diffusion-based depth estimator) восстанавливает карту глубины — Depth Map.
У каждого пикселя появляется значение: насколько он близко или далеко.
2. Создание псевдо-объема / сцен
Используя depth map, создаётся 3D-mash сцены.
То есть фотка нарезается как будто на слои — передний план, средний, фон. И каждый слой получает глубинную геометрию.
Apple использует layered depth rendering + view synthesis — то есть они имитируют другие углы обзора, как будто ты наклоняешь голову. За счёт parallax-эффекта ты ощущаешь пространство.
3. Inpainting невидимых областей
Когда картинку «сдвигают в 3D», появляются пустые участки, которые раньше были закрыты (например, за головой или спиной).
Эти участки AI-генерирует заново — это называется context-aware inpainting. Используется что-то похожее на Generative Fill, но только под капотом и мгновенно.
4. Рендер и экспозиция
На выходе создаётся специальный Multi-plane Image (MPI) — формат, где у тебя есть несколько параллельных «срезов» сцены, каждый с текстурой и глубиной.
iPhone это читает и показывает с глубиной, динамической фокусировкой (если нужно) и ощущением настоящего объема.
Почему это работает моментально?
Потому чтомагия эппл :
— Весь пайплайн сжат и оптимизирован под Neural Engine (A17 Pro или M-чипы).
— Модель весит мало, но обучена на ТОННАХ данных с ARKit, LiDAR и стерео-съёмки.
— В iOS уже встроен ARKit + CoreML + Metal — всё это вшито прямо в чип и супербыстро рендерится.
Теперь запоминаем мой прогноз — в iOS 27 (может 28) будет уже полноценная генеративка, которая будет из фотки делать видео 5-10 секунд со звуком.
Ставь 🔥 если было интересно!
🦄 @founderit | навигация | дневник
Работает прям круто и моментально — просто нажимаешь на переключатель и получаешь динамическое, «живое» 3D фото!
Заметил прям случайно и удивился.
Конечно, я был бы не я, если бы не рассказал — КАК ЭТО РАБОТАЕТ?
1. Depth Estimation — оценка глубины с одной картинки
Это фундамент. Камера сняла обычную фотку — там же нет никакой глубины, только RGB-пиксели.
Apple берёт эту фотку и скармливает модели computer vision, которая обучена на парах RGB + Depth (например, из LiDAR, двойных камер и ARKit).
Эта модель (чаще всего — модифицированный ConvNeXt, ViT, или Diffusion-based depth estimator) восстанавливает карту глубины — Depth Map.
У каждого пикселя появляется значение: насколько он близко или далеко.
2. Создание псевдо-объема / сцен
Используя depth map, создаётся 3D-mash сцены.
То есть фотка нарезается как будто на слои — передний план, средний, фон. И каждый слой получает глубинную геометрию.
Apple использует layered depth rendering + view synthesis — то есть они имитируют другие углы обзора, как будто ты наклоняешь голову. За счёт parallax-эффекта ты ощущаешь пространство.
3. Inpainting невидимых областей
Когда картинку «сдвигают в 3D», появляются пустые участки, которые раньше были закрыты (например, за головой или спиной).
Эти участки AI-генерирует заново — это называется context-aware inpainting. Используется что-то похожее на Generative Fill, но только под капотом и мгновенно.
4. Рендер и экспозиция
На выходе создаётся специальный Multi-plane Image (MPI) — формат, где у тебя есть несколько параллельных «срезов» сцены, каждый с текстурой и глубиной.
iPhone это читает и показывает с глубиной, динамической фокусировкой (если нужно) и ощущением настоящего объема.
Почему это работает моментально?
Потому что
— Весь пайплайн сжат и оптимизирован под Neural Engine (A17 Pro или M-чипы).
— Модель весит мало, но обучена на ТОННАХ данных с ARKit, LiDAR и стерео-съёмки.
— В iOS уже встроен ARKit + CoreML + Metal — всё это вшито прямо в чип и супербыстро рендерится.
Теперь запоминаем мой прогноз — в iOS 27 (может 28) будет уже полноценная генеративка, которая будет из фотки делать видео 5-10 секунд со звуком.
Ставь 🔥 если было интересно!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7
Олег Лупиков
В новой бета-версии iOS 26 появилась функция пространственного фото, которая работает с абсолютно любой фотографией, даже которую сняли не на айфон. Работает прям круто и моментально — просто нажимаешь на переключатель и получаешь динамическое, «живое» 3D…
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Работает правда классно
🔥1