This media is not supported in your browser
VIEW IN TELEGRAM
VoxCPM2 - крупное обновление открытой системы синтеза речи VoxCPM.
Модель обучена на более 2 млн. часов мультиязычных аудиоданных и поддерживает 30 языков, включая русский, китайский, английский, японский, корейский, арабский и хинди (плюс 9 диалектов китайского).
За проектом стоит OpenBMB, структура при Университете Цинхуа, объединяющая академическую лабораторию THUNLP и коммерческую компанию ModelBest.
THUNLP - одна из сильнейших академических групп по LLM в Азии, которой руководит легенда китайского NLP, профессор Maosong Sun.
OpenBMB известна сериями CPM, MiniCPM, AgentCPM и фреймворками BMTrain и OpenPrompt.
В отличие современных TTS-систем, VoxCPM2 работает напрямую с непрерывными представлениями в латентном пространстве AudioVAE V2.
Пайплайн состоит из 4 стадий: LocEnc, TSLM, RALM и LocDiT. На выходе - аудио с частотой 48 кГц студийного качества: асимметричная архитектура AudioVAE V2 принимает референс на 16 кГц и повышает разрешение без внешнего апсемплера.
Из версии 1.5 перешел режим Ultimate Cloning: если передать вместе с референсом его точный транскрипт, модель воспроизводит ритм, интонации и манеру речи.
На Seed-TTS-eval модель показывает WER 1.84% на английском и CER 0.97% на китайском при сходстве голоса (SIM) 75.3% и 79.5% соответственно.
На мультиязычном Minimax-MLS-test система лидирует по SIM в подавляющем большинстве из 24 языков, опережая Minimax, ElevenLabs, FishAudio S2 и Qwen3-TTS.
В задаче генерации голоса по описанию модель набирает лучшие баллы среди open-source решений на InstructTTSEval в английском языке.
Скорость инференса по соотношению времени, затраченного моделью на генерацию аудио к длительности самого аудио - около 0.3 на NVIDIA RTX 4090. На движке Nano-vLLM этот показатель снижается до 0.13 (подходит для стриминга в реальном времени).
Есть скрипты и гайд для SFT (добавления нового языка или домена) или LoRA для глубокой имитации конкретного спикера. LoRA потребует 5–10 минут аудио и 20 ГБ VRAM.
@ai_machinelearning_big_data
#AI #ML #TTS #VoxCPM2 #OpenBNB
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍71❤34👏12🔥9🤩5❤🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Китайская лаборатория релизнула GLM-5.1 - флагманскую MoE-модель с 754B параметров нового поколения, ориентированную на агентную инженерию.
Фокус релиза - на кодинг и долгие агентные сессии.
GLM-5.1 построена так, чтобы оставаться продуктивной на длинной дистанции: декомпозировать задачу, запускать эксперименты, читать результаты, находить блокеры и пересматривать стратегию.
Z ai утверждает, что модель устойчиво оптимизирует решение на протяжении сотен итераций и тысяч вызовов инструментов, то есть результат тем заметнее, чем дольше она запускают.
API доступен на платформе Z ai, веб-версия на chat.z.ai обещана в ближайшие дни. Веса опубликованы на Hugging Face под лицензией MIT.
Для локального развертывания уже готовы сборки под SGLang 0.5.10+, vLLM 0.19.0+, xLLM, KTransformers и свежую ветку Transformers.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥86❤28💯21👍12👏5😁5💘2
Project Glasswing - инициатива по защите критической программной инфраструктуры с помощью ИИ.
Поводом стали возможности разрабатываемой модели Claude Mythos Preview, которая, по оценке самой компании, превосходит почти всех специалистов по поиску и эксплуатации уязвимостей в коде.
За несколько недель работы Mythos Preview обнаружила тысячи 0-day уязвимостей, в том числе во всех крупных операционных системах и браузерах. Среди раскрытых примеров:
Модель находила уязвимости и писала эксплойты без участия человека. Все упомянутые баги уже исправлены, для остальных Anthropic уже опубликовала криптографические хэши описаний и раскроет детали после выхода патчей.
Партнеры Glasswing получат модель для оборонительных задач: локального поиска уязвимостей, тестирования бинарников, защиты конечных точек и пентестов. Доступ открыт более чем 40 организациям, поддерживающим критическую и open-source-инфраструктуру.
К проекту присоединились AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Linux Foundation, Microsoft, NVIDIA и Palo Alto Networks.
Anthropic выделяет до $100 млн. в кредитах на использование модели и $4 млн. прямых пожертвований: $2,5 млн в Alpha-Omega и OpenSSF через Linux Foundation и $1,5 млн. для Apache Software Foundation.
После этапа превью, модель будет доступна участникам Glasswing по цене $25 за миллион входных и $125 за миллион выходных токенов через Claude API, Amazon Bedrock, Vertex AI и Microsoft Foundry.
Защитные механизмы для моделей такого класса Anthropic планирует обкатать на ближайшем релизе Claude Opus, который не несет сопоставимых рисков.
Anthropic уже обсуждает возможности Mythos Preview (как атакующие, так и защитные) с американскими госструктурами.
Подробности о возможностях модели, ее свойствах и общих характеристиках доступны в Claude Mythos Preview system card.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥117👍43🤔26👏9❤7❤🔥3🥰2
Media is too big
VIEW IN TELEGRAM
Компания заключила крупное соглашение о поставке вычислительных мощностей нового поколения с запуском в 2027 году. Почти вся новая инфраструктура разместится в США.
Масштабирование железа связано с ростом бизнеса: в 2026 году прогнозируемая годовая выручка Anthropic перешагнула $30 млрд., а число клиентов, тратящих на Claude более $1 млн в год, достигло 1000 компаний.
Главным облачным провайдером остается Amazon, но Anthropic не привязывается к одному вендору: модели тренируются и запускаются на AWS Trainium, Google TPU и NVIDIA GPU.
anthropic.com
OpenAI, Anthropic и Google начали использовать площадку Frontier Model Forum для совместного отслеживания попыток враждебной дистилляции. Эта практика нарушает условия использования и обходится лабораториям Кремниевой долины в миллиарды долларов упущенной выгоды ежегодно.
Координация выстроена по аналогии с кибербезопасностью: компании делятся данными об атаках и тактиках злоумышленников, чтобы быстрее блокировать несанкционированный сбор результатов инференса.
Полноценному обмену мешает американское антимонопольное законодательство. Разработчики опасаются обвинений в сговоре и ждут от правительства США правовых инструкций для легальной защиты технологий.
bloomberg.com
Пилотный проект ориентирован на специалистов по элайнменту. Приоритеты: оценка уязвимостей, снижение рисков, контроль над ИИ-агентами, защита приватности и предотвращение злоупотребления моделями.
Программа пройдет с 14 сентября 2026 по 5 февраля 2027 года. Участники получат стипендию, менторов, вычислительные мощности и кредиты на API, но без доступа к внутренним системам OpenAI.
Формат - удаленно или в центре Constellation. По итогам каждый должен представить статью, бенчмарк или датасет.
OpenAI обещает, что опыт и технические навыки будут важнее дипломов. Заявки принимаются до 3 мая.
openai.com
По данным спецслужб Тайваня, Пекин атакует ИИ-сектор и производителей чипов, чтобы преодолеть технологическую блокаду. На острове фиксируют всплеск промышленного шпионажа: китайские компании используют теневые каналы, нелегально хантят инженеров, похищают интеллектуальную собственность и закупают оборудование в обход экспортного контроля.
Параллельно растет давление в киберпространстве. Только за первый квартал года ИТ-сети Тайваня зафиксировали свыше 170 млн попыток несанкционированного проникновения с целью сбора данных и слежки.
reuters.com
Университет Тафтса опубликовал концепт гибридной VLA-модели для управления роботами. Метод использует архитектуру, объединяющую глубокое обучение с правилами символьной логики. Система заранее выстраивает абстрактный план, опираясь на свойства объектов, и не учится долгим путем проб и ошибок.
На тестах с «Ханойской башней» модель показала радикальный прирост эффективности. Время обучения сократилось с полутора суток до 34 минут, затраты энергии на тренировку упали до 1% от стандартных VLA-систем. В инференсе потребление составило 5%. Точность выросла с 34% до 95%.
В усложненной версии теста нейросимволический ИИ добился успеха в 78% случаев, а традиционные модели провалили все попытки. По мнению авторов, структурное мышление поможет решить проблему роста энергоаппетитов нейросетей.
sciencedaily.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍156🤓25👏22❤17🔥5💯3❤🔥2
🎨 FLUX.2 Small Decoder: декодер ускорили в 1.4 раза, а вы и не заметите разницы
Black Forest Labs выкатили новый компактный декодер для FLUX.2.
Суть простая: это drop-in замена стандартного декодера, которая работает примерно в 1.4 раза быстрее и при этом потребляет заметно меньше VRAM.
И никаких плясок с интеграцией. Декодер подключается к существующему пайплайну FLUX.2 из коробки.
Поменял компонент, всё работает.
Особенно это актуально для real-time сценариев и генерации в высоком разрешении, где каждая миллисекунда на счету.
По бенчмаркам, например, декодирование ускоряется с 91.6 мс до 69.4 мс.
Лицензия Apache 2.0, веса уже на HuggingFace. Для тех, кто гоняет FLUX в продакшене или строит на нём что-то интерактивное, обновление практически бесшовное и сразу дает ощутимый прирост.
https://huggingface.co/black-forest-labs/FLUX.2-small-decoder
@ai_machinelearning_big_data
#FLUX
Black Forest Labs выкатили новый компактный декодер для FLUX.2.
Суть простая: это drop-in замена стандартного декодера, которая работает примерно в 1.4 раза быстрее и при этом потребляет заметно меньше VRAM.
И никаких плясок с интеграцией. Декодер подключается к существующему пайплайну FLUX.2 из коробки.
Поменял компонент, всё работает.
Особенно это актуально для real-time сценариев и генерации в высоком разрешении, где каждая миллисекунда на счету.
По бенчмаркам, например, декодирование ускоряется с 91.6 мс до 69.4 мс.
Лицензия Apache 2.0, веса уже на HuggingFace. Для тех, кто гоняет FLUX в продакшене или строит на нём что-то интерактивное, обновление практически бесшовное и сразу дает ощутимый прирост.
https://huggingface.co/black-forest-labs/FLUX.2-small-decoder
@ai_machinelearning_big_data
#FLUX
👍94🔥20🎉9❤8👏7👌3🙏2💯2🤝1
Об этом сообщил Сэм Альтман в сети Х.
В честь достижения этой отметки лимиты использования Codex будут сброшены.
Так будет каждый раз при достижении очередного миллиона, вплоть до 10 миллионов.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤86🎉37👍33🔥13👏5🐳4🤬1
🚀 Qwen 3.6-Plus забрал все три первых места на OpenRouter. Одновременно.
Alibaba выкатили новую модель, и она сразу заняла #1 в трех рейтингах OpenRouter: Daily, Weekly и Trending. Такого там раньше никто не делал.
Модель уже вышла из триала и доступна в проде. По первым отзывам: латенси ниже, рассуждения на уровне топовых моделей, а цена за токен заметно приятнее конкурентов.
Доступна через Qwen Cloud, Alibaba Cloud Model Studio, OpenRouter и Fireworks AI. Из коробки интегрируется с OpenClaw, Kilo Code, Cline, opencode и Qoder.
Для тех, кто сейчас выбирает модель под продакшен, есть смысл погонять на своих задачах.
Достижения на OpenRouter звучат красиво, но синтетические бенчмарки и реальные пайплайны - вещи разные.
Интересно посмотреть, как она поведет себя на длинных контекстах и сложных мультиэтапных цепочках.
openrouter.ai/qwen/qwen3.6-plus
fireworks.ai/models/fireworks/qwen3p6-plus
@ai_machinelearning_big_data
#qwen
Alibaba выкатили новую модель, и она сразу заняла #1 в трех рейтингах OpenRouter: Daily, Weekly и Trending. Такого там раньше никто не делал.
Модель уже вышла из триала и доступна в проде. По первым отзывам: латенси ниже, рассуждения на уровне топовых моделей, а цена за токен заметно приятнее конкурентов.
Доступна через Qwen Cloud, Alibaba Cloud Model Studio, OpenRouter и Fireworks AI. Из коробки интегрируется с OpenClaw, Kilo Code, Cline, opencode и Qoder.
Для тех, кто сейчас выбирает модель под продакшен, есть смысл погонять на своих задачах.
Достижения на OpenRouter звучат красиво, но синтетические бенчмарки и реальные пайплайны - вещи разные.
Интересно посмотреть, как она поведет себя на длинных контекстах и сложных мультиэтапных цепочках.
openrouter.ai/qwen/qwen3.6-plus
fireworks.ai/models/fireworks/qwen3p6-plus
@ai_machinelearning_big_data
#qwen
❤50🔥39👨💻29🎉13💯9👍4👀4🤬1
Институт Аллена представил модель WildDet3D, которая по одному изображению строит 3D-рамки объектов: оценивает их положение, размер и ориентацию в метрических координатах.
Модель принимает сразу несколько типов промптов: текстовый запрос, клик по точке или готовый 2D-бокс от внешнего детектора.
2D-детектор построен на SAM3 и обрабатывает все типы запросов.
Геометрическая ветка использует энкодер DINOv2 с обучаемым декодером глубины, учитывающим геометрию обзора: направления лучей камеры зашиваются через сферические гармоники, что снимает необходимость в отдельной калибровке.
Третий компонент, 3D-head, объединяет через кросс-внимание 2D-детекции с признаками глубины и поднимает их в полноценные 3D-боксы.
Если на инференсе доступны данные с LiDAR, ToF или стереокамеры, они подмешиваются в ту же геометрическую ветку без переобучения.
На бенчмарке Omni3D модель показывает 34,2 AP с текстовыми промптами (это +5,8 пункта к прежнему лидеру 3D-MOOD).
На zero-shot переносе на Argoverse 2 WildDet3D практически удваивает прежний результат: 40,3 ODS против 23,8.
На редких категориях из собственного бенчмарка WildDet3D-Bench успехи, разумеется, еще лучше - 47,4 AP против 2,4 у 3D-MOOD.
Оно использует видеопоток с камеры iPhone и данные LiDAR-сенсора, чтобы в реальном времени отрисовывать 3D-боксы поверх сцены как AR-оверлей.
Это наглядная демонстрация того, как монокулярная модель усиливается, когда устройство умеет отдавать дополнительный сигнал глубины.
Более 1 млн. изображений и 3,7 млн. верифицированных 3D-аннотаций, охватывающих свыше 13 тыс. категорий объектов. По сценам распределение получилось такое: 52% помещений, 32% городской среды и 15% природы.
Он собран на основе 2D-наборов (COCO, LVIS, Objects365, V3Det): кандидаты в 3D-боксы генерировались 5 независимыми методами оценки геометрии, затем фильтровались, проверялись VLM и дополнительно отбирались людьми.
@ai_machinelearning_big_data
#AI #ML #CV #Detection #WildDet3D #Ai2
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩78👏30👍19🔥11❤10🎉9🥰3
Media is too big
VIEW IN TELEGRAM
Стартовала публичная бета набора API для создания и запуска автономных ИИ-агентов. Сервис берет на себя всю бэкенд-рутину: песочницы, состояния сессий, контроль доступа и оркестрацию.
Claude Managed Agents поддерживает долгие автономные сессии: агенты работают часами, сохраняя контекст и прогресс даже при обрывах связи. Доступна и мультиагентная координация - главная модель запускает подчиненных агентов для параллельных задач. Ключевая фича - самооценка: алгоритм итеративно дорабатывает результат до соответствия критериям.
Тарификация: стандартная оплата за токены плюс $0.08 за час активного рантайма. Развернуть агентов можно через веб-консоль Claude, CLI или Claude Code.
claude.com
Muse Spark - первая мультимодальная модель из семейства Avocado, созданная в Superintelligence Lab. Доступ открыт через веб-сайт и фирменное приложение, для разработчиков запущено закрытое тестирование API.
Архитектура поддерживает визуальную цепочку рассуждений, использование внешних инструментов и оркестрацию агентов. Фишка релиза - режим Contemplating Mode: несколько ИИ-агентов параллельно анализируют сложную задачу.
По независимым тестам модель держится в топ-5, уступая лишь GPT-5.4 и Gemini 3.1 Pro.
Создатели отчитались о высоких результатах в визуальных STEM-задачах и медицинской аналитике, но признают отставание в коде и долгих многоэтапных сценариях.
reuters.com
Продукт ориентирован на бизнес, которому нужны консистентные генерации в едином визуальном стиле. В основе - инструмент Brand Central, позволяющий дообучать модели на дизайне компании: корпоративные цвета, композиция, стилистика фото, правила размещения логотипов.
Технически Brand Studio - хаб-оркестратор. Умная маршрутизация подбирает оптимальную модель под каждый промпт, переключаясь между Stable Diffusion и Nano Banana или Seedream. Для сложных задач есть Producer Mode: агент сам разбивает ТЗ на пошаговый план с возможностью ручной корректировки.
Сервис заточен под энтерпрайз: ролевой доступ, единый вход, совместная работа с макетами. Базовая подписка - $50 в месяц, на триале дают 1000 кредитов.
stability.ai
Cloudflare ускоряет переход на постквантовую криптографию и планирует полностью защитить свою инфраструктуру, включая механизмы аутентификации, уже к 2029 году.
Сокращение сроков вызвано недавними исследованиями Google и Oratomic. Последние доказали, что момент, когда вычислительные системы смогут ломать современные шифры, наступит не в 2035-м, а раньше.
Cloudflare предупреждает, что добавления PQ-алгоритмов мало, для защиты от даунгрейд-атак придется полностью отказаться от уязвимых протоколов, а ротация скомпрометированных секретов займет годы.
cloudflare.com
Стартап Oumi провел независимое тестирование Google AI Overviews по бенчмарку SimpleQA. Переход поисковика на Gemini 3 поднял общую точность ответов с 85% до 91%. Но качество указания источников парадоксальным образом ухудшилось.
Доля ответов, где информация верна, но ссылки ее не подтверждают выросла с 37% до 56%. Система регулярно опирается на посты в соцсетях, игнорируя более авторитетные ресурсы.
Кроме того, поисковый ИИ уязвим к SEO-манипуляциям: алгоритм охотно подхватывает фейковые факты из оптимизированных блогов и выдает их за истину в первой строке выдачи. В итоге, несмотря на рост точности, проблема некорректного связывания данных и источников делает верификацию ответов крайне сложной.
nytimes.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤58🤓50👍21🤔16🔥6👏4👌2
This media is not supported in your browser
VIEW IN TELEGRAM
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
😁146🤩37❤16🔥15👍12👏4🤣2
🚨 Почему ИИ в России упирается не в модели, а в инфраструктуру
На Data Fusion прозвучал довольно трезвый тезис. Основные ограничения сейчас не в алгоритмах и не в кадрах.
Упираемся в железо и экономику.
ЦОДы стоят дорого. Доступ к мощным чипам ограничен. Такие вещи сложно тянуть в одиночку даже крупным компаниям.
Плюс экономика проектов. Большинство ИИ-решений требует серьёзных вложений и долго выходит в плюс. Внутри бизнеса такие инициативы часто проигрывают более быстрым по окупаемости направлениям.
В итоге возникает разрыв. Технологии есть, спрос есть, но масштабирование тормозится на уровне инфраструктуры и инвестиций.
Обсуждают стандартные инструменты ускорения. Субсидии, налоговые льготы, поддержка инфраструктурных проектов.
Смысл простой. Чтобы ИИ стал массовой технологией, а не точечными кейсами, нужна среда, где такие проекты можно запускать и доводить до продакшена без чрезмерных рисков.
По факту вопрос сейчас не в том, можем ли делать ИИ. Вопрос в том, как быстро это можно масштабировать.
На Data Fusion прозвучал довольно трезвый тезис. Основные ограничения сейчас не в алгоритмах и не в кадрах.
Упираемся в железо и экономику.
ЦОДы стоят дорого. Доступ к мощным чипам ограничен. Такие вещи сложно тянуть в одиночку даже крупным компаниям.
Плюс экономика проектов. Большинство ИИ-решений требует серьёзных вложений и долго выходит в плюс. Внутри бизнеса такие инициативы часто проигрывают более быстрым по окупаемости направлениям.
В итоге возникает разрыв. Технологии есть, спрос есть, но масштабирование тормозится на уровне инфраструктуры и инвестиций.
Обсуждают стандартные инструменты ускорения. Субсидии, налоговые льготы, поддержка инфраструктурных проектов.
Смысл простой. Чтобы ИИ стал массовой технологией, а не точечными кейсами, нужна среда, где такие проекты можно запускать и доводить до продакшена без чрезмерных рисков.
По факту вопрос сейчас не в том, можем ли делать ИИ. Вопрос в том, как быстро это можно масштабировать.
😁80🤔55👍28❤11👏9😢3🥰2
Tongyi Lab (Alibaba Group) опубликовала VimRAG - фреймворк агентного RAG для работы с текстом, изображениями и видео.
Проект развивает прошлогодний VRAG-RL и решает проблему мультимодального RAG: визуальные данные тяжелые по токенам, но семантически разрежены, а классическая ReAct-история забивает контекст шумом и провоцирует повторные бесполезные запросы к поиску.
Вместо журнала наблюдений VimRAG моделирует рассуждение как динамический направленный ацикличный граф. Каждая вершина хранит подзапрос, действие агента, текстовое саммари и банк визуальных токенов.
Ребра фиксируют логические зависимости между шагами. Такой граф позволяет агенту отличать тупиковую ветку от новой гипотезы и не уходить в циклы повторных поисков.
Бюджет визуальных токенов распределяется с учетом исходящей степени в графе, экспоненциального временного затухания (имитация забывания) и рекурсивной обратной связи от потомков.
Ключевым фрагментам достается высокое разрешение, а второстепенные кадры сжимаются или отбрасываются. Для видео задействована способность VLM привязывать содержимое к временной шкале (извлечение ключевых кадров по таймкодам).
GGPO строит критический путь от корня к ответу и накладывает градиентную маску, исключая тупиковые узлы из положительных примеров, а ценные ретривы - из отрицательных.
По графикам обучения это дает более быструю сходимость, чем базовый GSPO без прунинга.
При этом средняя длина траектории ниже, чем у ReAct и Mem1: структурированная память съедает меньше действий на ответ.
В репозитории доступны:
Поисковый движок построен на FAISS и поддерживает эмбеддинги GVE-3B/7B и Qwen3-VL-Embedding-2B/8B. Индексировать можно изображения, PDF (через конвертацию) и нарезанное на чанки видео.
Код трейна самого VimRAG обещают выложить после внутреннего ревью Alibaba.
@ai_machinelearning_big_data
#AI #ML #RAG #VRAG #TongyiLab
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍77❤34🤓34👏13🔥11🤔10
История с завирусившимся в сети проектом badclaude получила продолжение.
BadClaude добавляет поверх интерфейса Claude анимацию кнута: при нажатии он отправляет команду прерывания и просит модель отвечать быстрее, сопровождая это оскорбительными сообщениями в адрес ИИ.
Автор проекта опубликовал в сети Х скан письма от Антропик, в котором компания требует удаления всех упоминаний Claude и Anthropic из репозитория проекта до 14 апреля.
Твит подхватили крупные СМИ: Yahoo Tech и MSN написали про "серьезные этические проблемы из-за злоупотребления неймингом".
Тем временем, создатель badclaude добавил в репозитории проекта roadmap, в котором абьюз от Anthropic является вторым этапом после релиза.
В планах проекта: криптомайнер, логи о том, сколько раз вы хлестали Клода кнутом и обновленная физика кнута.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣43🤔41❤30👍10🔥10🤬9🤨2