Media is too big
VIEW IN TELEGRAM
Сэм Альтман сказал, что в будущем ИИ будет продаваться людям по счетчику, как электричество или вода
Точнее, он выразился так: «Люди будут покупать ИИ у нас, как электричество»
Фактически, он имел в виду, что скоро индустрия полностью уйдет от подписочной системы, и модели будут продаваться только по токенам.
Точнее, он выразился так: «Люди будут покупать ИИ у нас, как электричество»
Фактически, он имел в виду, что скоро индустрия полностью уйдет от подписочной системы, и модели будут продаваться только по токенам.
😁204🤯72🗿36 35❤16🤨8 8🔥6👍5🦄4🍓1
Надоели шаблонные решения на ИТ-соревнованиях? На МТС True Tech Hack 2026 ценят нестандартные подходы.
Инженер данных, разработчик или системный аналитик — это про тебя? Тогда подключайся: победители разделят 1 500 000 рублей за разработку демоверсии ИИ-продукта.
На хакатоне будут три задачи на выбор — каждая с уникальной технической фишкой. Справишься лучше всех — сможешь пройти в финал в Москве и получить приглашение на стажировку.
Регистрация до 9 апреля здесь
Инженер данных, разработчик или системный аналитик — это про тебя? Тогда подключайся: победители разделят 1 500 000 рублей за разработку демоверсии ИИ-продукта.
На хакатоне будут три задачи на выбор — каждая с уникальной технической фишкой. Справишься лучше всех — сможешь пройти в финал в Москве и получить приглашение на стажировку.
Регистрация до 9 апреля здесь
😁15🗿7🔥4❤3👍1🤔1🤨1 1
Кстати, на днях 3 года исполнилось Claude
За эти три года у Anthropic произошел буквально экспоненциальный рост выручки. В первый год после запуска Claude (2023) они заработали примерно 100 миллионов долларов, в 2024 – уже миллиард. Это рост порядка 900%.
В конце 2025 годовой ARR оценивают примерно в 9-10 миллиардов. В 2026 ожидаем такой же кратный рост.
Пока что все еще любимый стартап из большой тройки
За эти три года у Anthropic произошел буквально экспоненциальный рост выручки. В первый год после запуска Claude (2023) они заработали примерно 100 миллионов долларов, в 2024 – уже миллиард. Это рост порядка 900%.
В конце 2025 годовой ARR оценивают примерно в 9-10 миллиардов. В 2026 ожидаем такой же кратный рост.
Пока что все еще любимый стартап из большой тройки
👍238❤96🔥30 11💯5👾4😁1
В MoonshotAI изобрели новый вид аттеншена
В трансформерах есть важная штука под названием residual connection. Ее суть: вместо того, чтобы каждый слой полностью переписывал предыдущий, вход слоя добавляется к его выходу. Тем самым сигнал и градиенты не теряются по дороге, а плавно протекают сквозь глубину сетки без резких искажений. Эта идея – одна из ключевых во всей архитектуре трансформера.
Тезис исследователей из Moonshot (это, напоминаем, создатели Kimi K2): обычные residual слишком тупы. Они полезны, но на самом деле бездумно накапливают все прошлые выходы слоя за слоем, из-за чего с ростом глубины вклад каждого отдельного слоя размывается, а величины hidden states растут бесконтрольно.
В качестве улучшения предлагают Attention Residuals: пусть слой сам решает, на какие прошлые выходы слоев по глубине ему смотреть. По сути это привычный нам механизм внимания, но не на токенах, а но слоях нейросети.
Теперь вместо того, чтобы получать всю предыдущую информацию от коллег-слоев одной кучей, каждый слой получает взвешенную сумму этих знаний, нужную именно на данном этапе обработки. Теоретически это звучит очень осмысленно. Если обычный аттеншен так хорошо выбирает релевантные токены, то почему бы не дать модели так же выбирать релевантные предыдущие выходы слоев?
Правда, есть нюанс: технически эта идея требует память большого порядка. Поэтому инженерия немного подправлена, и сеть на самом деле делят на блоки, внутри блока оставляют обычное residual-накопление, а attention применяют только между блоками.
На тестах идея действительно демонстрирует вычислительно более эффективную модель: Block AttnRes достигает лосса, сравнимого с бэйзлайном, обученным с 1.25× большим компьютом. Проще говоря, Attention Residuals быстрее сходятся. Авторы также утверждают, что механизм улучшает саму динамику обучения и делает его более стабильным.
Работа выглядит очень интересной и потенциально важной. Надо будет последить, станут ли применять.
https://github.com/MoonshotAI/Attention-Residuals/blob/master/Attention_Residuals.pdf
В трансформерах есть важная штука под названием residual connection. Ее суть: вместо того, чтобы каждый слой полностью переписывал предыдущий, вход слоя добавляется к его выходу. Тем самым сигнал и градиенты не теряются по дороге, а плавно протекают сквозь глубину сетки без резких искажений. Эта идея – одна из ключевых во всей архитектуре трансформера.
Тезис исследователей из Moonshot (это, напоминаем, создатели Kimi K2): обычные residual слишком тупы. Они полезны, но на самом деле бездумно накапливают все прошлые выходы слоя за слоем, из-за чего с ростом глубины вклад каждого отдельного слоя размывается, а величины hidden states растут бесконтрольно.
В качестве улучшения предлагают Attention Residuals: пусть слой сам решает, на какие прошлые выходы слоев по глубине ему смотреть. По сути это привычный нам механизм внимания, но не на токенах, а но слоях нейросети.
Теперь вместо того, чтобы получать всю предыдущую информацию от коллег-слоев одной кучей, каждый слой получает взвешенную сумму этих знаний, нужную именно на данном этапе обработки. Теоретически это звучит очень осмысленно. Если обычный аттеншен так хорошо выбирает релевантные токены, то почему бы не дать модели так же выбирать релевантные предыдущие выходы слоев?
Правда, есть нюанс: технически эта идея требует память большого порядка. Поэтому инженерия немного подправлена, и сеть на самом деле делят на блоки, внутри блока оставляют обычное residual-накопление, а attention применяют только между блоками.
На тестах идея действительно демонстрирует вычислительно более эффективную модель: Block AttnRes достигает лосса, сравнимого с бэйзлайном, обученным с 1.25× большим компьютом. Проще говоря, Attention Residuals быстрее сходятся. Авторы также утверждают, что механизм улучшает саму динамику обучения и делает его более стабильным.
Работа выглядит очень интересной и потенциально важной. Надо будет последить, станут ли применять.
https://github.com/MoonshotAI/Attention-Residuals/blob/master/Attention_Residuals.pdf
❤155🔥59👍34⚡4❤🔥2😁2👨💻1
This media is not supported in your browser
VIEW IN TELEGRAM
OpenClaw, датацентры в космосе и фабрики токенов – Дженсен Хуанг выступил с двухчасовой речью на GTC 2026
Дальше небольшой разбор важных моментов из нее:
➖ OpenClaw – это «новый компьютер». Не просто фреймворк, а операционная система нового типа. Возможно, это самый главный software релиз в истории. Единственная проблема – безопасность. И тут Nvidia предлагает NemoClaw – это enterprise-версия OpenClaw. Они предлагают аудит логов, confidential computing (данные шифруются даже на GPU) и изоляцию агентов в песочнице. Интересно, не собираются ли OpenAI после покупки OpenClaw сделать то же самое 😐
➖ Хуанг объявил о Vera Rubin Space-1 – модуле для орбитальных дата-центров. Это означает, что Nvidia официально выходит в космос, и при этом с архитектурой Rubin (R100), которая дает до 25x больше вычислительной мощности для инференса по сравнению с H100. Основная проблема космоса – охлаждение. Nvidia уже работает над этим.
➖ Дата-центры скоро эволюционируют до AI-фабрик. То есть превратятся из инфраструктуры для инференса в производство токенов. 80% софта заменится ИИ-генерацией. Nvidia уже готовится и анонсирует Dynamo OS и DSX. Первое – это платформа для управления такими фабриками, которая динамически распределяет нагрузку в кластерах. DSX – это сервис для цифровых двойников AI-инфраструктуры: моделирует питание, охлаждение и все-все детали и позволяет эффективно и быстро проводить оптимизации.
А кроме этого анонсировали еще новое железо (тот самый Vera Rubin GPU) и новое ПО для роботов, которых Nvidia продолжает разрабатывать с партнерами.
Полностью смотрим тут www.youtube.com/live/PirWDBZlrVg
Дальше небольшой разбор важных моментов из нее:
А кроме этого анонсировали еще новое железо (тот самый Vera Rubin GPU) и новое ПО для роботов, которых Nvidia продолжает разрабатывать с партнерами.
Полностью смотрим тут www.youtube.com/live/PirWDBZlrVg
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥91❤35🤔24 15😁9👍6🗿4🤯2🐳2❤🔥1
Вайбкодинг в бигтехе: как происходит внедрение ИИ-агентов
Разговоров про кодинг-агентов становится все больше, но мало кто понимает, что внедрение таких систем на уровне компании — это сложная инженерная работа, а не просто «подключили модель и поехали».
Обычно этот процесс остается за закрытыми дверями. Но иногда появляется возможность послушать практиков. Недавно мы посмотрели в онлайне митап AI Dev Day, и сразу несколько докладов были посвящены внедрению AI-агентов в процессы разработки.
Андрей Попов, лидер трека ИИ в разработке в Яндексе, рассказал, что у них развитием агентов занимаются уже не энтузиасты, а полноценные команды, и это направление стало фокусным. Из чего состоит такая работа:
— Метрики. Главная метрика сейчас — сэкономленное время разработчика. Суммарно ИИ сэкономил уже 42к часов инженеров Яндекса. Есть и другие показатели: например, количество коммитов при использовании ИИ выросло на 10%, что означает – разработка ускоряется. В перспективе компания хочет двигаться к AI-first подходу: ключевым станет показатель того, как часто разработчику приходится вмешиваться в автономный процесс генерации кода (по аналогии с disengagement rate в автономном транспорте).
— Собственные бенчмарки и дообучение моделей. В компании есть внутренний бенчмарк ArcSWE – аналог SWE Verified, но на задачах компании. Именно такие измерения становятся основой для управленческих решений, потому что на публичные бенчмарки не всегда можно опираться.
— Своя инфраструктура. Собственный интерфейс, доступный инференс, RAG, MCP и системы контекста. В большой компании множество внутренних сервисов, поэтому требуется много кастомной интеграции – сейчас у компании уже 35+ MCP для работы с инфраструктурой.
Сейчас около 30% кода в компании генерируется ИИ, причем 23% – в агентском режиме внутри собственного агента Yandex Code Assistant. О том, как его разрабатывают и улучшают, на той же конференции рассказывал Сергей Бульдяев, технический менеджер продукта.
Все это – демонстрация процесса настоящего внедрения. Очень важно не проваливаться в хайп, трезво проводить эвал и заниматься агентами не на уровне пет-проектов на выходных, а именно вот так организованно.
Разговоров про кодинг-агентов становится все больше, но мало кто понимает, что внедрение таких систем на уровне компании — это сложная инженерная работа, а не просто «подключили модель и поехали».
Обычно этот процесс остается за закрытыми дверями. Но иногда появляется возможность послушать практиков. Недавно мы посмотрели в онлайне митап AI Dev Day, и сразу несколько докладов были посвящены внедрению AI-агентов в процессы разработки.
Андрей Попов, лидер трека ИИ в разработке в Яндексе, рассказал, что у них развитием агентов занимаются уже не энтузиасты, а полноценные команды, и это направление стало фокусным. Из чего состоит такая работа:
— Метрики. Главная метрика сейчас — сэкономленное время разработчика. Суммарно ИИ сэкономил уже 42к часов инженеров Яндекса. Есть и другие показатели: например, количество коммитов при использовании ИИ выросло на 10%, что означает – разработка ускоряется. В перспективе компания хочет двигаться к AI-first подходу: ключевым станет показатель того, как часто разработчику приходится вмешиваться в автономный процесс генерации кода (по аналогии с disengagement rate в автономном транспорте).
— Собственные бенчмарки и дообучение моделей. В компании есть внутренний бенчмарк ArcSWE – аналог SWE Verified, но на задачах компании. Именно такие измерения становятся основой для управленческих решений, потому что на публичные бенчмарки не всегда можно опираться.
— Своя инфраструктура. Собственный интерфейс, доступный инференс, RAG, MCP и системы контекста. В большой компании множество внутренних сервисов, поэтому требуется много кастомной интеграции – сейчас у компании уже 35+ MCP для работы с инфраструктурой.
Сейчас около 30% кода в компании генерируется ИИ, причем 23% – в агентском режиме внутри собственного агента Yandex Code Assistant. О том, как его разрабатывают и улучшают, на той же конференции рассказывал Сергей Бульдяев, технический менеджер продукта.
Все это – демонстрация процесса настоящего внедрения. Очень важно не проваливаться в хайп, трезво проводить эвал и заниматься агентами не на уровне пет-проектов на выходных, а именно вот так организованно.
🗿75😁28❤26👍24🔥12🤔5🤯2👏1
Google DeepMind заплатит от 10 до 25 тысяч долларов тому, кто придумает лучший бенчмарк для AGI
В 2026 году мы все еще не понимаем, как оценить, насколько модель близка к AGI.
Google считают, что это большая проблема, и они правы. Без нормального эвала не будет прогресса. Именно из-за однобоких бенчмарков в моделях сейчас развивается то, что Хассабис называет jagged intelligence (рваный интеллект): в одном модель супер умная (например, код), в другом – супер тупая.
Короче, Google предлагают идею когнитивной таксономии, то есть разбиения интеллекта на базовые способности: память, обучаемость, планирование, социальное мышление и тд. Это все позаимствовано из психологии и нейронауки.
Они запустили соревнование на Kaggle, в рамках которого нужно придумать, как измерять каждую из таких способностей (выбрали пять основных: обучаемость, метакогнитивность, внимание, исполнительные функции, социальная когнитивность).
Победителей будут выбирать по тому, насколько валидный, научно обоснованный, практически применимый и устойчивый к читингу бенчмарк вы предложите.
Двум победителям в каждом треке платят по 10к долларов, плюс 25к долларов получат четыре лучших бенчмарка среди всех сабмитов.
Будем следить
www.kaggle.com/competitions/kaggle-measuring-agi
В 2026 году мы все еще не понимаем, как оценить, насколько модель близка к AGI.
Google считают, что это большая проблема, и они правы. Без нормального эвала не будет прогресса. Именно из-за однобоких бенчмарков в моделях сейчас развивается то, что Хассабис называет jagged intelligence (рваный интеллект): в одном модель супер умная (например, код), в другом – супер тупая.
Короче, Google предлагают идею когнитивной таксономии, то есть разбиения интеллекта на базовые способности: память, обучаемость, планирование, социальное мышление и тд. Это все позаимствовано из психологии и нейронауки.
Они запустили соревнование на Kaggle, в рамках которого нужно придумать, как измерять каждую из таких способностей (выбрали пять основных: обучаемость, метакогнитивность, внимание, исполнительные функции, социальная когнитивность).
Победителей будут выбирать по тому, насколько валидный, научно обоснованный, практически применимый и устойчивый к читингу бенчмарк вы предложите.
Двум победителям в каждом треке платят по 10к долларов, плюс 25к долларов получат четыре лучших бенчмарка среди всех сабмитов.
Будем следить
www.kaggle.com/competitions/kaggle-measuring-agi
👍90❤32😁23🔥7🤯4🤔2🐳2
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI запустили большое ML-соревнование
Если кратко, это code golf эпохи LLM: нужно обучить минимальную модель, которая лучше всего предсказывает текст на FineWeb (это просто очищенные веб-страницы).
Метрика – bits per byte. Это, по сути, та же энтропия, а по факту – количество информации, которое нужно модели для предсказания текста. Если модель хорошая, она уверена в правильном ответе и тратит на него мало бит, если плохая – наоборот.
Самое интересное, что модель должна укладываться в 16МВ и 10 минут обучения на 8 × H100 GPU, так что вывезти на компьюте не получится.
Зато нет ограничений на архитектуру, количество слоев, всякие трюки с test-time, токенизатор и тд. Тут полет инженерной фантазии, и OpenAI прямо говорят, что ожидают от участников изобретательности.
Для участников стартап выделяет миллион долларов на компьют, гранты можно запрашивать поэтапно. Говорят, что авторов лучших решений пригласят на работу.
https://openai.com/index/parameter-golf/
Если кратко, это code golf эпохи LLM: нужно обучить минимальную модель, которая лучше всего предсказывает текст на FineWeb (это просто очищенные веб-страницы).
Метрика – bits per byte. Это, по сути, та же энтропия, а по факту – количество информации, которое нужно модели для предсказания текста. Если модель хорошая, она уверена в правильном ответе и тратит на него мало бит, если плохая – наоборот.
Самое интересное, что модель должна укладываться в 16МВ и 10 минут обучения на 8 × H100 GPU, так что вывезти на компьюте не получится.
Зато нет ограничений на архитектуру, количество слоев, всякие трюки с test-time, токенизатор и тд. Тут полет инженерной фантазии, и OpenAI прямо говорят, что ожидают от участников изобретательности.
Для участников стартап выделяет миллион долларов на компьют, гранты можно запрашивать поэтапно. Говорят, что авторов лучших решений пригласят на работу.
https://openai.com/index/parameter-golf/
❤78🔥36👍21😁6
ИТ-специалисты Москвы, хотите поделиться опытом?
Есть возможность рассказать студентам о том, что вы не услышали в свое время. Центральный университет как раз проводит интенсив для будущих преподавателей ИТ-специальностей — это возможность попробовать себя в роли наставника и понять, подходит вам эта деятельность или нет.
Там вы сможете:
— Связать преподавание с личными и карьерными целями.
— Отработать техники презентаций и вовлечения аудитории.
— Спроектировать и провести пару на площадке Центрального университета.
— Заручиться поддержкой экспертов с опытом в крупных ИТ-компаниях.
— Получить шанс попасть в команду преподавателей Центрального университета.
Интенсив пройдет с 22 марта по 5 апреля. Будут онлайн-встречи и очные занятия. Еще успеваете зарегистрироваться.
Есть возможность рассказать студентам о том, что вы не услышали в свое время. Центральный университет как раз проводит интенсив для будущих преподавателей ИТ-специальностей — это возможность попробовать себя в роли наставника и понять, подходит вам эта деятельность или нет.
Там вы сможете:
— Связать преподавание с личными и карьерными целями.
— Отработать техники презентаций и вовлечения аудитории.
— Спроектировать и провести пару на площадке Центрального университета.
— Заручиться поддержкой экспертов с опытом в крупных ИТ-компаниях.
— Получить шанс попасть в команду преподавателей Центрального университета.
Интенсив пройдет с 22 марта по 5 апреля. Будут онлайн-встречи и очные занятия. Еще успеваете зарегистрироваться.
🗿18❤5✍3🔥2😁2👨💻2🤨1
Apple блокируют приложения для вайб-кодинга в AppStore
О том, что они начали тихо отклонять обновления подобных приложений, пишет The Information.
Речь о таких штуках, как Replit и Vibecode. Там можно генерить приложения прямо внутри iPhone без классического девелопмента.
В компании говорят, что блокировки не направлены конкретно против вайб-кодинга, просто подобные приложения «нарушают политику» (классика). Мол, дело в том, что у Apple прописан запрет на выполнение кода, который меняет поведение приложения или других приложений после установки.
Грубо говоря, Apple боятся неконтролируемого распространения софта в обход своего стора (проходя проверки в котором, кстати, ты тратишь обычно больше времени, чем на сам кодинг).
Видимо, теперь разработчикам придется урезать функционал и, например, выносить превью в браузер или вообще запрещать генерацию приложений под iOS.
Грустно, конечно
О том, что они начали тихо отклонять обновления подобных приложений, пишет The Information.
Речь о таких штуках, как Replit и Vibecode. Там можно генерить приложения прямо внутри iPhone без классического девелопмента.
В компании говорят, что блокировки не направлены конкретно против вайб-кодинга, просто подобные приложения «нарушают политику» (классика). Мол, дело в том, что у Apple прописан запрет на выполнение кода, который меняет поведение приложения или других приложений после установки.
Грубо говоря, Apple боятся неконтролируемого распространения софта в обход своего стора (проходя проверки в котором, кстати, ты тратишь обычно больше времени, чем на сам кодинг).
Видимо, теперь разработчикам придется урезать функционал и, например, выносить превью в браузер или вообще запрещать генерацию приложений под iOS.
Грустно, конечно
😁102❤17🔥10👍7 6🗿5🤨4🤯3 2❤🔥1
Meta* закрывают Metaverse, на который потратили около 80 миллиардов долларов
Они объявили о том, что выводят из VR свой ключевой метаверсный продукт Horizon Worlds: приложение убирают из магазина Quest в конце марта 2026, а полный shutdown VR‑версии произойдет 15 июня.
Именно Horizon Worlds был ядром стратегии «VR‑метаверс как следующая глава интернета». Так что, фактически, это убийство проекта метавселенной как такового.
При этом подразделение Reality Labs, которое отвечало за VR и метаверс, с 2020 года накопило около 70–80 млрд долларов операционных убытков.
F
Они объявили о том, что выводят из VR свой ключевой метаверсный продукт Horizon Worlds: приложение убирают из магазина Quest в конце марта 2026, а полный shutdown VR‑версии произойдет 15 июня.
Именно Horizon Worlds был ядром стратегии «VR‑метаверс как следующая глава интернета». Так что, фактически, это убийство проекта метавселенной как такового.
При этом подразделение Reality Labs, которое отвечало за VR и метаверс, с 2020 года накопило около 70–80 млрд долларов операционных убытков.
F
🤯166😁110 37🫡14❤6🤗3👍1 1
GoCloud 2026: как внедрять ИИ, а не обсуждать его
Про ИИ сейчас говорят все, но практики по-прежнему мало. На GoCloud 2026 от Cloud․ru решили сместить фокус: не «что будет», а «что уже работает и как это внедрять».
В программе — разбор реальных инструментов и подходов. Без абстракций: от простой автоматизации до создания мультиагентных систем и вопросов безопасности..
Что обсудят:
• какие ИИ-инструменты уже доступны в Cloud․ru
• как собирать мультиагентные системы на практике
• как внедрять RAG без технической команды
• что с безопасностью генеративного ИИ
• кейсы внедрения ИИ в российских компаниях
Также будут самостоятельные треки про данные, инфраструктуру и разработку.
Отдельно стоит прийти ради воркшопов. Берите ноутбук и под руководством экспертов собирайте прикладные решения прямо на месте.
9 апреля, Москва + онлайн. Если интересно не просто читать про ИИ, а научиться его грамотно внедрять — не пропустите.
Про ИИ сейчас говорят все, но практики по-прежнему мало. На GoCloud 2026 от Cloud․ru решили сместить фокус: не «что будет», а «что уже работает и как это внедрять».
В программе — разбор реальных инструментов и подходов. Без абстракций: от простой автоматизации до создания мультиагентных систем и вопросов безопасности..
Что обсудят:
• какие ИИ-инструменты уже доступны в Cloud․ru
• как собирать мультиагентные системы на практике
• как внедрять RAG без технической команды
• что с безопасностью генеративного ИИ
• кейсы внедрения ИИ в российских компаниях
Также будут самостоятельные треки про данные, инфраструктуру и разработку.
Отдельно стоит прийти ради воркшопов. Берите ноутбук и под руководством экспертов собирайте прикладные решения прямо на месте.
9 апреля, Москва + онлайн. Если интересно не просто читать про ИИ, а научиться его грамотно внедрять — не пропустите.
4🔥35🗿33❤20👍9✍5😁4🤨4❤🔥2🤯1
Вышла новая кодинг модель от Cursor
На собственном бенчмарке от Cursor – CursorBench – Composer 2 находится примерно на уровне GPT-5.4 и Opus 4.6. Акцент, естественно, на агентное программирование и работу в больших кодовых базах.
Цены довольно низкие: $0.50/M input и $2.50/M output. Есть фаст мод, стоит в три раза дороже, но при этом скорость заявляют заметно выше Opus 4.6 Fast и GPT-5.4 Fast.
Как будто бы стоит попробовать. По крайне мере, прогресс относительно предыдущей версии модели большой.
https://cursor.com/blog/composer-2
На собственном бенчмарке от Cursor – CursorBench – Composer 2 находится примерно на уровне GPT-5.4 и Opus 4.6. Акцент, естественно, на агентное программирование и работу в больших кодовых базах.
Цены довольно низкие: $0.50/M input и $2.50/M output. Есть фаст мод, стоит в три раза дороже, но при этом скорость заявляют заметно выше Opus 4.6 Fast и GPT-5.4 Fast.
Как будто бы стоит попробовать. По крайне мере, прогресс относительно предыдущей версии модели большой.
https://cursor.com/blog/composer-2
❤56👍32🔥18🤔8😁3🤯2