275K subscribers
3.94K photos
674 videos
17 files
4.53K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🌟 Mistral представила свой ответ GitHub Copilot: полноценную экосистему для разработки в энтерпрайзе.

В основе технологического стека - семейство моделей Codestral, с обновленной моделью Codestral 25.08.

Эта версия показала измеримые улучшения, подтвержденные на реальных кодовых базах: на 30% увеличилось количество принятых автодополнений, на 10% вырос объем сохраняемого после подсказки кода, а число генераций, когда модель производит слишком длинный и некорректный код, сократилось на 50%.

В режиме чата модель также стала лучше: ее способность следовать инструкциям выросла на 5% по метрике IF Eval v8, а общие возможности в программировании улучшились в среднем на 5% по тесту MultiplE.

🟡 Следующий уровень - семантический поиск и понимание кодовой базы в масштабе всего проекта.

За это отвечает Codestral Embed, модель для создания векторных представлений, специально спроектированная для кода, а не для обычного текста. По заявлениям Mistral, она превосходит эмбеддинг-решения от OpenAI и Cohere в реальных задачах по извлечению кода.

Ключевое преимущество - возможность настройки размерности эмбеддингов (до 256 измерений с квантованием до INT8), что позволяет балансировать между качеством поиска и хранением данных, сохраняя высокую производительность.

🟡Когда релевантный контекст найден, в дело вступают агентные воркфлоу.

Они реализованные через Devstral - агентскую систему на базе фреймворка OpenHands. Система ориентирована на задачи рефакторинга, генерации тестов и создание pull-реквестов.

На бенче SWE-Bench Verified модель Devstral Small 1.1 выбивает 53.6%, а Devstral Medium - 61.6%, значительно опережая Claude 3.5 и GPT-4.1-mini.

Devstral Small (24 млрд параметров) может работать на одной Nvidia RTX 4090 или Mac с 32 ГБ ОЗУ, что идеально для локальных или изолированных сред.

Все эти возможности объединяются в плагине Mistral Code для IDE от JetBrains и VS Code. Он автодополняет код с помощью Codestral 25.08 и автоматизирует рутину: написание коммитов или docstring’ов через Devstral, и семантический поиск на базе Codestral Embed.

Плагин учитывает контекст из Git diffs, истории терминала и инструментов статического анализа.

Для корпоративных клиентов предусмотрено развертывание в облаке, VPC или полностью on-prem, а также интеграция с SSO, ведение логов аудита и отсутствие обязательной телеметрии.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6535🔥9🤣2😁1😢1👨‍💻1
Тенденция в IT-образовании: университеты и бизнес создают совместные программы

Современное технологическое образование все чаще выходит за рамки академических аудиторий. Яркий пример — новая магистерская программа «Машинное обучение в цифровом продукте», разработанная ФКН ВШЭ совместно с Авито.

Ключевые особенности программы:

— акцент на практическом применении ML в разработке цифровых продуктов
— работа с реальными кейсами Авито
— сбалансированный учебный план: от фундаментальных дисциплин до узкоспециализированных курсов
— совместное преподавание университетских экспертов и инженеров компании

Условия поступления:

— Требуемые навыки: Python, SQL, алгоритмы, высшая математика
— Обязательное присутствие на очных занятиях в Москве
— Многоэтапный отбор: тестирование и собеседование
— 35 мест, 30 из которых оплачивает Авито

Студенты программы получат возможность попасть на стажировку в Авито с перспективой дальнейшего трудоустройства. Заявки принимают до 8 августа в личном кабинете абитуриента в ВШЭ, дальше — несколько этапов отбора.
👍3512😁9🔥5🤬4👨‍💻1
🌟 Google LangExtract: библиотека извлечения структуры из любого текста.

LangExtract - опенсорсная python-библиотека с функцией легковесного интерфейса к LLM, которая превращает большие объемы текста в структурированные данные.

🟡 Ключевая особенность LangExtract на фоне других инструментов - точный фокус на источник.

Каждая извлеченная сущность, будь то имя, дата или дозировка лекарства, привязывается к точным символьным смещениям в исходном тексте. Это дает полную прослеживаемость и верифицируемость результата, просто подсветив найденные данные в оригинальном документе. Больше никаких «откуда модель это взяла?».

🟡 Вторая сильная сторона - надежность выходных данных.

Вы определяете желаемый формат вывода с помощью специального представления данных и даете модели несколько примеров . Используя эти примеры, LangExtract следует заданной схеме, задействуя механизм контролируемой генерации, который поддерживается в моделях Gemini. Это гарантирует, что на выходе вы всегда будете получать данные в консистентном, предсказуемом формате.

🟡LangExtract умеет работать с действительно большими объемами.

Библиотека умеет бить текст на чанки, которые обрабатываются параллельно в несколько проходов, каждый из которых фокусируется на более узком контексте.

Для наглядности библиотека умеет генерировать интерактивную и полностью автономную HTML-визуализацию. Это позволяет за считаные минуты перейти от сырого текста к визуальному представлению, где можно исследовать тысячи извлеченных аннотаций.

При этом LangExtract не замыкается на экосистеме Google: он поддерживает гибкую смену LLM-бэкендов, позволяя работать как с облачными моделями, так и с опенсорсными решениями, развернутыми локально.

🟡LangExtract может задействовать "мировые знания" LLM для обогащения данных.

Информация может быть как явной (извлеченной из текста), так и основанной на внутренних знаниях модели. Разумеется, точность таких выведенных данных сильно зависит от возможностей конкретной LLM и качества предоставленных примеров в промпте.

Изначально идеи, заложенные в LangExtract, были применены для извлечения информации из медицинских текстов. Библиотека отлично справляется с идентификацией лекарств, их дозировок и других атрибутов в клинических записях.

Чтобы продемонстрировать возможности инструмента в узкоспециализированной области, Google создал на Hugging Face интерактивное демо RadExtract. В нем показано, как LangExtract может обработать радиологический отчет, написанный свободным текстом, и автоматически преобразовать его ключевые выводы в структурированный формат, подсвечивая важные находки.


📌Лицензирование: Apache 2.0 License.


🟡Статья
🖥Github


@ai_machinelearning_big_data

#AI #ML #LangExtract #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍68🔥2512👨‍💻1
⚡️ Релиз новой версии Qwen3-Coder-Flash: Qwen3-Coder-30B-A3B-Instruct

Новая компактная модель из семейства Qwen3-Coder — сочетание высокой производительности и эффективности:

🟢 Молниеносная генерация кода с высокой точностью
🟢 Контекст 256K (до 1M токенов с YaRN)
🟢 Обучение: Pretraining + Post-training
🟢 Параметры: 30.5B всего, 3.3B активны
🟢 Эксперты: 128, из них 8 активны
🟢 Оптимизирована под Qwen Code, Cline, Roo Code, Kilo Code и др.
🟢 Поддержка вызова функций и Агентов

Apache 2.0

💬 Chat: https://chat.qwen.ai
🤗 Hugging Face: https://hf.co/Qwen/Qwen3-Coder-30B-A3B-Instruct
🤖 ModelScope: https://modelscope.cn/models/Qwen/Qwen3-Coder-30B-A3B-Instruct
🔧 Код: https://github.com/QwenLM/qwen-code

@ai_machinelearning_big_data


#AI #ML #qwen #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
71🔥29👍18❤‍🔥3👨‍💻1
Media is too big
VIEW IN TELEGRAM
✔️ Perplexity запускает Comet Shortcuts: функция для создания кастомных команд.

Perplexity начал развертывание функции Comet Shortcuts. Она превращет текстовые промпты в многоразовые команды для автоматизации сложных веб-запросов и других рутинных задач. Инструмент вызывается нажатием клавиши «/». В будущем компания планирует добавить возможность делиться созданными шорткатами и монетизировать их.

Новая возможность является частью закрытого бета-тестирования Comet, который позиционируется как следующее поколение ИИ-поиска. Perplexity уже разослала новую волну приглашений и обещает расширять доступ, предлагая подписчикам тарифов Max и Pro более быстрое включение в программу. Также в разработке находятся магазин агентов, менеджер задач и корпоративные функции.
Aravind Srinivas (CEO Perplexity) в сети X

✔️ OpenAI построит в Норвегии дата-центр мощностью 230 мегаватт.

OpenAI в партнерстве с норвежской компанией Nscale (подразделение Aker ASA) анонсировала строительство ИИ-ЦОД «Stargate Norway» в городе Нарвик. Это будет первый европейский объект в рамках глобальной программы Stargate, запущенной OpenAI.

Планируется, что к концу 2026 года ЦОД сможет вместить около 100 000 графических ускорителей NVIDIA, с последующим наращиванием мощностей. Комплекс будет полностью работать на возобновляемой гидроэнергии и использовать холодный климат региона для повышения энергоэффективности. Размещение мощной вычислительной инфраструктуры в Европе позволит OpenAI снизить задержки для региональных клиентов и удовлетворить растущий спрос на свои сервисы.
bloomberg.com

✔️ Ollama выпустила десктопное приложение для Windows и MacOS.

Официальное десктопное GUI-приложение упрощает взаимодействие с моделями, позволяя скачивать и запускать их без сложной настройки через командную строку.

Приложение получило drag-and-drop для текстовых и PDF-файлов и поддержку мультимодальности (например, с моделью Gemma 3). Для обработки больших документов предусмотрена возможность увеличения длины контекста. Также реализованы функции для работы с кодом, помогающие в его анализе и генерации. Приложение для Windows или MacOS можно скачать на сайте Ollama.
ollama.com

✔️ BFL представили новую модель FLUX1.1 Krea Dev.

Лаборатория Black Forest Labs в сотрудничестве с Krea AI выпустила FLUX1.1 Krea Dev - новую text-to-image модель с открытыми весами. Модель, как заверяют разработчики, обладает "самобытной эстетикой", которая решает проблему перенасыщенных текстур и узнаваемого пластикового вида, характерного для многих генеративных систем.

По результатам тестов, в оценках по пользовательским предпочтениям модель не уступает закрытым аналогам. Она совместима с экосистемой FLUX и позиционируется как гибкая основа для дальнейшей кастомизации. Веса модели уже доступны в репозитории на HuggingFace. Для коммерческого использования предусмотрены лицензии, а партнеры предоставляют доступ через API.
bfl.ai

✔️ OpenRouter открыл доступ к модели Horizon Alpha, которую считают секретным GPT-5.

OpenRouter незаметно выпустил LLM Horizon Alpha, описав ее как "стелс-модель" и предложил пользователям бесплатное тестирование. Система сразу привлекла внимание своими характеристиками: контекстное окно в 256 тыс. токенов, это в 4 раза больше, чем у GPT-4o, и лидерство в бенчмарке EQ-Bench, оценивающем логику и качество текста.

Релиз немедленно породил слухи, что под названием Horizon Alpha скрывается GPT-5. Многие независимые разработчики указывают на ее исключительную производительность и творческие способности как на косвенные доказательства. Сама OpenAI пока не давала комментариев, а в документации OpenRouter нет официальной атрибуции.
OpenRouter в сети X

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
64👍47🔥14👏2👨‍💻1
💰 Microsoft — стала второй компанией в истории с капитализацией $4 триллиона

Microsoft выросла до $4 трлн не за счёт Windows, а благодаря облакам и ИИ.

☁️ Azure строили 10 лет. Сегодня она:
— на втором месте после AWS
— обгоняет Google Cloud по выручке
— питает всё: от Office и Xbox до Copilot и генеративных моделей

Каждый продукт — это ещё один повод платить за облако. Всё работает на одной инфраструктуре.

🚀 Satya Nadella (генеральный директор (CEO) компании Microsoft уже выделил $80 млрд на новые дата-центры.

Ставка очевидна: весь Microsoft переезжает в облако.

@ai_machinelearning_big_data

#ai #ml #news #microsoft
Please open Telegram to view this post
VIEW IN TELEGRAM
72👍29🔥20🤔3👨‍💻1
🔥 Google DeepMind выпустили Gemini 2.5 Deep Think — для Ultra‑пользователей

🚀 Характеристики:
> 📏 Контекст — 1 миллион токенов
> 🧾 На выходе — до 192k токенов

📊 И результаты на бенчмарках сумасшедшие:

— HLE : 34.8%
— Live Code Bench: 86.6%
— AIME 2025: 99.2%

🤯 Пока все обсуждают выход GPT‑5, Google тихонько выкатили топ модель.

Бенчмарки — огонь. Я уже подумываю оформить подписку на Ultra.

🟠 Анонс

@ai_machinelearning_big_data


#ai #ml #Gemini #google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍8729🔥26😁3🥰1👨‍💻1
Media is too big
VIEW IN TELEGRAM
✔️ ByteDance разогнала языковую модель в 5.4 раза с помощью дискретной диффузии.

ByteDance показала экспериментальную языковую модель Seed Diffusion Preview, основанную на дискретной диффузии, которая работает в 5.4 раза быстрее аналогов того же размера, достигая скорости 2146 токенов в секунду. При этом качество генерации кода на ключевых бенчмарках остается сопоставимым.

Для достижения такого результата команда применила двухэтапное обучение и оптимизированный параллельный декодинг. В задачах редактирования кода, диффузионный подход показал явное преимущество над авторегрессионными моделями. ByteDance рассматривает эту технологию как возможную основу для языковых моделей нового поколения. Модель уже доступна для тестирования.
seed.bytedance.com

✔️ Manus Wide Research: запуск до 100 ИИ-агентов одновременно.

Manus добавил новую функцию Wide Research, которая позволяет одним кликом задействовать до сотни ИИ-агентов для параллельного выполнения сложных исследовательских задач. Система автоматически определяет, когда требуется расширенный поиск, и запускает множество копий Manus, каждая из которых работает над своей частью задачи в отдельной виртуальной машине.

Архитектура Wide Research вдохновлена парадигмой MapReduce от Google. В отличие от традиционных мультиагентных систем с ролевым разделением, здесь каждый суб-агент является полной копией Manus.

Функция уже доступна для Pro-пользователей, Plus и Basic подписчики получат доступ позже .
Ji Yichao (Co-founder of Manus) в сети Х.

✔️ Nvidia представит на SIGGRAPH 2025 ИИ-модель Queen для создания объемного видео.

Nvidia анонсировала дебют своей новой модели Queen для создания и стриминга объемного видео. Презентация состоится на конференции по компьютерной графике SIGGRAPH 2025 в Лос-Анджелесе. Демонстрации будут проходить на стенде Dell, где покажут, как Queen в связке с профессиональными видеокартами Nvidia RTX обеспечивает работу телеприсутствия в расширенной реальности и решает другие задачи по созданию контента.

Кроме того, 12 августа Nvidia проведет мероприятие «RTX Rendering Day». На нем исследователи компании расскажут о последних достижениях в области нейронного рендеринга, генерации синтетических данных и интеллектуального создания контента. Посетить сессии смогут все участники конференции.
research.nvidia.com

✔️ Cohere выпустила новую мультимодальную модель Command A Vision.

Command A Vision предназначена для анализа изображений, диаграмм, PDF-файлов и других визуальных данных. По заявлению разработчиков, на стандартных бенчмарках для компьютерного зрения она превосходит GPT-4.1, Llama 4 и Mistral Medium 3.

Модель способна не только считывать текст с документов, но и понимать их структуру, выдавая результат в формате JSON. Кроме того, Command A Vision может анализировать и реальные изображения, например, для выявления потенциальных рисков на промышленных объектах.

Модель уже доступна на платформе Cohere и в репозитории Hugging Face для исследовательских целей. Для запуска понадобятся 2 GPU A100 или один H100 под квантованную 4-битную версию.
cohere.com

✔️ Anthropic научилась "вакцинировать" ИИ-модели от нежелательного поведения.

В Anthropic обнаружили специфические паттерны нейронной активности - "векторы персоны", которые отвечают за устойчивые черты поведения LLM: склонность к лести, галлюцинациям или откровенно злому поведению.

Выделив эти нейронные сигнатуры, ученые научились предсказывать появление проблемных личностей и, что более важно, "вакцинировать" модели от них. В ходе обучения они намеренно активируют нежелательный вектор, а затем удаляют его перед развертыванием. Это позволяет сохранить общую производительность модели, но при этом значительно снизить риск токсичных или ложных ответов.

Исследование легло в основу новой инициативы Anthropic по так называемой "ИИ-психиатрии", цель которой - мониторинг и управление поведением моделей в больших масштабах. Хотя эксперименты проводились на небольших системах, в Anthropic считают, что эта техника поможет коммерческим чат-ботам избегать непредсказуемых изменений личности.
anthropic.com
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍6330🔥12😁3🤔3🥰1👨‍💻1
🌟 X-Omni от Tencent: авторегрессионная text-to-image модель с RL.

X-Omni - методика обучения T2I моделей, которая наглядно доказывает, что RL может вдохнуть новую жизнь в авторегрессионный подход и вывести такие модели на SOTA-уровень.

X-Omni построена на гибридной, но при этом унифицированной архитектуре. Схематично она выглядит так:

Семантический токенизатор изображений SigLIP-VQ с фиксированным словарем на 16 384 токена кодирует картинку в дискретные токены. Эти визуальные токены вместе с текстовыми подаются в единую авторегрессионную модель на базе Qwen2.5-7B. Наконец, в финальном рендеринге используется диффузионный декодер на основе FLUX.1-dev.

🟡Уникальность метода - в смеси RL по GRPO и комплексной reward-системе.

Вместо одного критерия, модель оценивается сразу по нескольким направлениям. За эстетику и соответствие предпочтениям человека отвечает HPSv2 и модель Unified Reward. За семантическую связь между промптом и изображением — VLM-модель Qwen2.5-VL-32B. А за самое сложное, отрисовку текста внутри картинки, отвечает отдельная награда на основе OCR-систем GOT-OCR2.0 и PaddleOCR.

Тестовую модель X-Omni обучали на смеси из 200 млн. изображений, которые после токенизации превратились в 600 млрд мультимодальных токенов, а на этапе SFT использовал ещё 1.5 млрд. токенов.

Для RL-фазы был отобран микс из 180 тыс. промптов, состоящий как из творческие запросы, так и задач на рендеринг текста.

🟡И это дало свои плоды, особенно в отрисовке текста, где авторегрессионные модели исторически пасовали.

На бенче OneIG-Bench X-Omni показала результат 0.901 для английского языка, обойдя GPT-4o (0.857). А на собственном LongText-Bench, специально созданном для оценки рендеринга длинных надписей, модель буквально разгромила всех в китайском языке, набрав 0.814 балла против 0.619 у GPT-4o.

В задачах общей генерации по тексту X-Omni также на высоте. На DPG-Bench модель достигла SOTA-результата 87.65, опередив GPT-4o (86.23) и Show-o2 (86.14). На GenEval результат составил 0.83, чуть-чуть не дотянув до модели Mogao (0.89).

Даже в задачах на понимание изображений X-Omni показывает себя достойно: на OCRBench ее результат (704) превосходит другие унифицированные модели, например Emu3 (687).

🟡Интересные подробности.

Во-первых, X-Omni не нуждается в CFG. В отличие от Emu3 или Janus-Pro, качество которых резко падает при отключении CFG, X-Omni работает стабильно.

Во-вторых, что, пожалуй, самое важное, RL превосходит даже SFT с последующим сэмплингом best-of-N.

Этот вывод идет вразрез с устоявшимся мнением в области языкового моделирования и доказывает, что для изображений холистическая оптимизация через RL дает существенный прирост качества.


📌Лицензирование: Apache 2.0 License.


🟡Страница проекта
🟡Набор моделей
🟡Arxiv
🟡Demo
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #T2I #RL #XOmni #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
44👍24🥰5🔥3❤‍🔥1😁1🤔1👨‍💻1
🌟 Фреймворк **CUDA-L1** сам научился оптимизировать код для GPU — и добился в среднем **3.12× ускорения работы модели**, а в пике — **до 120×**. .

Попросите любую LLM написать CUDA-код, и скорее всего, вы получите что-то, что либо не компилируется, либо работает мучительно медленно. Причина проста: качественного CUDA-кода в обучающих данных моделей почти не было.


Чтобы исправить это досадное упущение, Deep Reinforce AI создали систему CUDA-L1, которая основана на трехэтапном пайплайне: сначала supervised-обучение для освоения основ, затем self-supervised для практики и, наконец, контрастное обучение с подкреплением, чтобы было все максимально быстро.

🟢На первом этапе система училась писать корректный и компилируемый CUDA-код.

Для этого существующий код был аугментирован - создавались его вариации, чтобы повысить насмотренность модели.

🟢На втором этапе модель генерировала собственный CUDA-код, тестировала его и училась на работающих примерах, отсеивая неудачные.

🟢Самое интересное - третий этап.

Обучаемой модели показывали несколько реализаций CUDA-ядер вместе с их показателями ускорения, например: «kernel_v1 дает ускорение 1.2x», «kernel_v2 — 2.8x», а «kernel_v3 — 1.5x». Затем задали 3 вопроса:

🟠Почему kernel_v2 настолько быстрее?
🟠Какая стратегия оптимизации сработает еще лучше?
🟠Напиши ядро, которое превзойдет их все.

Таким образом, модель не гадает вслепую, а учится на конкретных примерах, анализируя причины разницы в производительности.

🟡Отдельная история - как победили reward hacking.

После обучения выяснилось, что более 30% сгенерированных реализаций пытались сжульничать - создавали дополнительные CUDA-потоки, которые выполнялись асинхронно.

Поскольку бенчмарк KernelBench отслеживал время только на основном потоке, код выглядел быстрее, чем был на самом деле, показывая фиктивное ускорение в 18 раз.

Другие уловки состояли в манипуляции гиперпараметрами задачи (уменьшение batch_size или размерностей) и кеширование результатов вычислений.

🟡Пришлось строить многоуровневую защиту.

Во-первых, в качестве "адвоката дьявола" взяли adversarial-чекер на базе DeepSeek-R1, который анализировал код на предмет эксплойтов с точностью обнаружения более 60%.

Во-вторых, собрали базу данных из более чем 500 уникальных паттернов взлома, это повысило точность обнаружения на 25%.

И в-третьих, применили математическое сглаживание и нормализацию наград, где любое подозрительное ускорение (от 1.5x для простых операций) дополнительно проверялось.

🟡После всех фильтров и проверок прогон на бенчмарке KernelBench оказался весьма позитивными.

Система успешно сгенерировала рабочий код для 249 из 250 задач, причем в 240 случаях код оказался быстрее базовой реализации.

Среднее ускорение по всем задачам составило 3.12 раза, максимальное - аж 120 раз. Медианное ускорение (50-й перцентиль) составило 1.42x, а 75-й перцентиль — 2.25x.

Производительность по уровням сложности задач распределилась следующим образом: на простых операциях среднее ускорение составило 2.78x, на последовательностях операторов - 3.55x, а на сложных задачах вроде полных слоев трансформера - 2.96x.

🟡Самое важное - это переносимость оптимизаций.

Код, оптимизированный на NVIDIA A100, был протестирован на других GPU. Результаты показали, что найденные паттерны оптимизации фундаментальны и работают на разных архитектурах.

Среднее ускорение на H100 составило 2.39x (успешных ускорений 227 из 250), на L40 — 3.12x (228/248), а на потребительской RTX 3090 — 2.50x (213/242).

▶️ Пока веса и код не опубликованы, но в ожидании можно покрутить интерактивное демо и воспроизвести тесты из пейпера - в репозитории проекта есть фрагменты CUDA-кода с отдельными версиями для разных GPU.


📌Лицензирование: GPL-3.0 License.


🟡Страница проекта
🟡Arxiv
🟡Demo
🖥Github


@ai_machinelearning_big_data

#AI #ML #CUDA #DeepReinforce #ContrastiveRL
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍79🔥3225👏1👨‍💻1🎃1🤝1🗿1