Prompt ✏️: Ink splashing, negative space, mist, ancient women, ancient white attire, gentle and elegant, palace, Han Dynasty architecture, large-scale scenes, photographic works, realism, cool tones, cold and desolate, heavy mist, neo-Chinese style, charming, hairpins, long hair, earrings, translucent gauze, tasteful, rosy skin
Model 🖼: flux pro
📢 频道 ✈️ 群聊 📬 投稿 💵 商务
Model 🖼: flux pro
Please open Telegram to view this post
VIEW IN TELEGRAM
Prompt ✏️: Photo of a woman with long black hair, wearing a pink and white futuristic jumpsuit with a high collar and black gloves, standing in a sci-fi setting with a large, red and black robotic creature behind her, glowing yellow eyes, mechanical details, futuristic environment with metal structures and pipes, dim lighting, serious expression, hand on hip, medium shot, watermark in the bottom left corner, "agientry.com" text in the bottom center, jpeg artifacts
Model 🖼: flux pro
📢 频道 ✈️ 群聊 📬 投稿 💵 商务
Model 🖼: flux pro
Please open Telegram to view this post
VIEW IN TELEGRAM
🎯 名称 : WanX 2.1 - 阿里巴巴先进视频生成模型
🖼 功能 :
文本到视频生成 : 支持从文字描述生成动态视频,尤其擅长中文文本到视频的生成,满足多语言需求。
图像到视频生成 : 能将静态图片转化为动态视频,采用两阶段生成技术确保对象一致性与多样化运动轨迹。
高质量输出 : 支持 1080P 分辨率,结合高效编码/解码和时空上下文建模,提供视觉连贯性极佳的视频内容。
物理模拟与特效 : 擅长模拟物理规律并生成复杂场景,如粒子效果、动态光影等,避免传统模型中的肢体扭曲等问题。
多语言支持 : 不仅支持中文,还兼容多种语言,适合全球化应用场景。
✨ 亮点 :
卓越的生成能力 : 在单一模型中实现高质量的文本到视频和图像到视频生成,显著提升创意内容制作效率。
高效的计算性能 : 基于混合 VAE 和 DiT 架构优化,兼具实时性能与高保真度,降低计算成本。
领先的基准表现 : 在 VBench 视频生成基准测试中排名第二,超越 OpenAI 的 Sora 和 Adobe 的 CausVid 等知名模型。
开源计划 : 计划于 2025 年第二季度开源,包括训练数据集和轻量化工具包,推动 AI 社区协作与创新。
🚀 资源 :
博文:WanX 2.1 详细介绍
在线体验:Hugging Face Spaces
官方网站:通义万相官网
💡 描述 :
WanX 2.1 是由阿里巴巴通义万相团队开发的前沿视频生成模型,代表了 AI 驱动视觉内容创作的重大突破。它不仅支持高质量的文本到视频和图像到视频生成,还在物理模拟、多语言支持和视觉一致性方面表现出色。通过其开源计划,WanX 2.1 将为全球开发者提供强大的工具,助力创意内容生产、教育培训、娱乐和营销等多个领域的应用创新。
📢 频道 ✈️ 群聊 📬 投稿 💵 商务
🖼 功能 :
文本到视频生成 : 支持从文字描述生成动态视频,尤其擅长中文文本到视频的生成,满足多语言需求。
图像到视频生成 : 能将静态图片转化为动态视频,采用两阶段生成技术确保对象一致性与多样化运动轨迹。
高质量输出 : 支持 1080P 分辨率,结合高效编码/解码和时空上下文建模,提供视觉连贯性极佳的视频内容。
物理模拟与特效 : 擅长模拟物理规律并生成复杂场景,如粒子效果、动态光影等,避免传统模型中的肢体扭曲等问题。
多语言支持 : 不仅支持中文,还兼容多种语言,适合全球化应用场景。
✨ 亮点 :
卓越的生成能力 : 在单一模型中实现高质量的文本到视频和图像到视频生成,显著提升创意内容制作效率。
高效的计算性能 : 基于混合 VAE 和 DiT 架构优化,兼具实时性能与高保真度,降低计算成本。
领先的基准表现 : 在 VBench 视频生成基准测试中排名第二,超越 OpenAI 的 Sora 和 Adobe 的 CausVid 等知名模型。
开源计划 : 计划于 2025 年第二季度开源,包括训练数据集和轻量化工具包,推动 AI 社区协作与创新。
🚀 资源 :
博文:WanX 2.1 详细介绍
在线体验:Hugging Face Spaces
官方网站:通义万相官网
💡 描述 :
WanX 2.1 是由阿里巴巴通义万相团队开发的前沿视频生成模型,代表了 AI 驱动视觉内容创作的重大突破。它不仅支持高质量的文本到视频和图像到视频生成,还在物理模拟、多语言支持和视觉一致性方面表现出色。通过其开源计划,WanX 2.1 将为全球开发者提供强大的工具,助力创意内容生产、教育培训、娱乐和营销等多个领域的应用创新。
Please open Telegram to view this post
VIEW IN TELEGRAM
Prompt ✏️: A cute chubby little white cat wearing headphones is riding a bicycle on a circular country path filled with blooming flowers. The warm sunlight is shining brightly on the earth. The shot is taken from a 45-degree side angle of the cat, in 4K ultra-high-definition quality. The cat's fur is delicate and smooth. The cat is carrying vegetables on its back, heading home after shopping.
Model 🖼: flux pro
📢 频道 ✈️ 群聊 📬 投稿 💵 商务
Model 🖼: flux pro
Please open Telegram to view this post
VIEW IN TELEGRAM
🎯 名称 : R1-OneVision - 基于Qwen-VL的轻量级推理视觉模型
🖼 功能 :
多模态推理增强 : 集成Qwen-VL架构,支持图像与文本联合推理,突破传统视觉模型对单一模态的依赖
轻量化设计 : 7B参数规模实现高效推理,在保持性能的同时降低计算资源需求
端到端可解释性 : 提供可视化推理路径分析,揭示模型决策逻辑与特征关注机制
动态知识更新 : 支持增量式微调,适应快速演变的视觉任务需求
✨ 亮点 :
学术创新突破 : 首创基于Transformer的视觉-语言融合推理框架,实现跨模态语义对齐
工业适配性强 : 7B参数量级完美平衡精度与算力需求,适配移动端/边缘计算场景
开源生态共建 : 提供完整技术文档与预训练权重,推动社区协作研发
科研加速工具 : 支持自定义数据集蒸馏,助力学术研究快速构建专用视觉模型
🚀 资源 :
博客文章 : 点击打开博文
Hugging Face模型库 : https://huggingface.co/Fancy-MLLM/R1-Onevision-7B
实时推理演示 : https://huggingface.co/spaces/Fancy-MLLM/R1-Onevision
💡 描述 :
R1-OneVision是由浙江大学Fancy-MLLM团队推出的新一代轻量级推理视觉模型,通过融合Qwen-VL的先进架构与自研优化技术,在7B参数量级实现了突破性性能表现。该模型不仅支持精准的图像内容理解,更开创性地具备跨模态推理能力,可解析复杂场景中的视觉-文本关联关系。其模块化设计允许开发者灵活部署于各类终端设备,配合开源社区的支持体系,为学术研究、工业应用及消费级AI产品开发提供了强有力的技术底座。通过持续的技术迭代,R1-OneVision正重塑轻量化视觉智能的边界。
📢 频道 ✈️ 群聊 📬 投稿 💵 商务
🖼 功能 :
多模态推理增强 : 集成Qwen-VL架构,支持图像与文本联合推理,突破传统视觉模型对单一模态的依赖
轻量化设计 : 7B参数规模实现高效推理,在保持性能的同时降低计算资源需求
端到端可解释性 : 提供可视化推理路径分析,揭示模型决策逻辑与特征关注机制
动态知识更新 : 支持增量式微调,适应快速演变的视觉任务需求
✨ 亮点 :
学术创新突破 : 首创基于Transformer的视觉-语言融合推理框架,实现跨模态语义对齐
工业适配性强 : 7B参数量级完美平衡精度与算力需求,适配移动端/边缘计算场景
开源生态共建 : 提供完整技术文档与预训练权重,推动社区协作研发
科研加速工具 : 支持自定义数据集蒸馏,助力学术研究快速构建专用视觉模型
🚀 资源 :
博客文章 : 点击打开博文
Hugging Face模型库 : https://huggingface.co/Fancy-MLLM/R1-Onevision-7B
实时推理演示 : https://huggingface.co/spaces/Fancy-MLLM/R1-Onevision
💡 描述 :
R1-OneVision是由浙江大学Fancy-MLLM团队推出的新一代轻量级推理视觉模型,通过融合Qwen-VL的先进架构与自研优化技术,在7B参数量级实现了突破性性能表现。该模型不仅支持精准的图像内容理解,更开创性地具备跨模态推理能力,可解析复杂场景中的视觉-文本关联关系。其模块化设计允许开发者灵活部署于各类终端设备,配合开源社区的支持体系,为学术研究、工业应用及消费级AI产品开发提供了强有力的技术底座。通过持续的技术迭代,R1-OneVision正重塑轻量化视觉智能的边界。
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🎯 名称: Wan 2.1 - 开源视频生成模型
🖼 功能:
免费开源: 提供开放的权重和轻量级工具包。
多语言支持: 除中文外,还支持多种语言,适用于全球应用。
高质量输出: 支持1080P分辨率,提供高质量视频输出。
物理模拟与特效: 模型在模拟物理规律和生成复杂场景上表现出色。
✨ 亮点:
文本到视频生成: 支持从文本描述动态生成视频,是首个实现中文文本到视频生成的AI模型。
图像到视频生成: 能将静态图像转换为动态视频,确保对象一致性与多样运动轨迹。
多种生成模式: 支持多种视频生成模式,适用于创意内容制作、教育和娱乐等领域。
🚀 资源:
博客文章:点击打开博文
在线体验: 免费HuggingFace Spaces
官方网站: 访问Tongyi Wanxiang官网
获取权重: HuggingFace
💡 描述: Wan 2.1 是由阿里巴巴同意万象团队开发的尖端视频生成模型,旨在通过AI驱动的视觉内容创作实现重大突破。其创新特性和易用性预计将在AI视频生成领域引领潮流。计划于2025年第二季度开源,Wan 2.1 将成为AI驱动视频生成的基石。
📢 频道 ✈️ 群聊 📬 投稿 💵 商务
🖼 功能:
免费开源: 提供开放的权重和轻量级工具包。
多语言支持: 除中文外,还支持多种语言,适用于全球应用。
高质量输出: 支持1080P分辨率,提供高质量视频输出。
物理模拟与特效: 模型在模拟物理规律和生成复杂场景上表现出色。
✨ 亮点:
文本到视频生成: 支持从文本描述动态生成视频,是首个实现中文文本到视频生成的AI模型。
图像到视频生成: 能将静态图像转换为动态视频,确保对象一致性与多样运动轨迹。
多种生成模式: 支持多种视频生成模式,适用于创意内容制作、教育和娱乐等领域。
🚀 资源:
博客文章:点击打开博文
在线体验: 免费HuggingFace Spaces
官方网站: 访问Tongyi Wanxiang官网
获取权重: HuggingFace
💡 描述: Wan 2.1 是由阿里巴巴同意万象团队开发的尖端视频生成模型,旨在通过AI驱动的视觉内容创作实现重大突破。其创新特性和易用性预计将在AI视频生成领域引领潮流。计划于2025年第二季度开源,Wan 2.1 将成为AI驱动视频生成的基石。
Please open Telegram to view this post
VIEW IN TELEGRAM
Prompt ✏️: Overlooking panoramic photography, a beautiful Chinese woman, smiling directly into the camera, surrounded by landmark buildings of various cities beneath her feet, shot with an ultra-wide-angle, panoramic camera, presenting a spherical wide-angle view.
Model 🖼: flux pro
📢 频道 ✈️ 群聊 📬 投稿 💵 商务
Model 🖼: flux pro
Please open Telegram to view this post
VIEW IN TELEGRAM
🎯 名称: PhotoDoodle - 开源AI艺术编辑工具
🖼 功能:
免费开源: 提供开放的代码和数据集,支持开发者自由探索与改进。
多风格支持: 支持超过六种艺术风格,包括卡通、水彩等,满足多样化需求。
精准编辑能力: 能够执行从细微调整到整体风格转换的复杂编辑任务,保持图像一致性。
创新技术集成: 结合LoRA、EditLoRA和位置编码克隆技术,实现高效学习与精确操作。
✨ 亮点:
AI驱动的艺术创作: 利用先进的扩散模型(Flux.1)和LoRA技术,PhotoDoodle能够将普通照片转化为充满创意的艺术作品。
无缝元素融合: 借助EditLoRA技术,系统可学习艺术家风格并将其应用于新图像,确保自然过渡与视觉和谐。
像素级精度控制: 通过位置编码克隆技术,PhotoDoodle能准确记住原始图像的像素位置,使新增元素完美融入背景。
多样应用场景: 无论是为宠物添加趣味效果,还是设计奇幻场景,PhotoDoodle都能轻松应对,展现卓越的灵活性。
🚀 资源:
博客文章:点击打开博文
在线体验: 免费HuggingFace GPU Demo
获取代码: GitHub仓库
💡 描述: PhotoDoodle 是由新加坡国立大学(NUS)、上海交通大学、北京邮电大学和字节跳动联合研发的尖端AI图像编辑工具,旨在通过技术创新推动艺术表达的边界。其独特的技术架构和强大的功能使其成为AI艺术创作领域的先锋工具。未来,团队计划进一步优化模型,实现单图学习能力,降低使用门槛,为更多用户带来便捷与灵感。
📢 频道 ✈️ 群聊 📬 投稿 💵 商务
🖼 功能:
免费开源: 提供开放的代码和数据集,支持开发者自由探索与改进。
多风格支持: 支持超过六种艺术风格,包括卡通、水彩等,满足多样化需求。
精准编辑能力: 能够执行从细微调整到整体风格转换的复杂编辑任务,保持图像一致性。
创新技术集成: 结合LoRA、EditLoRA和位置编码克隆技术,实现高效学习与精确操作。
✨ 亮点:
AI驱动的艺术创作: 利用先进的扩散模型(Flux.1)和LoRA技术,PhotoDoodle能够将普通照片转化为充满创意的艺术作品。
无缝元素融合: 借助EditLoRA技术,系统可学习艺术家风格并将其应用于新图像,确保自然过渡与视觉和谐。
像素级精度控制: 通过位置编码克隆技术,PhotoDoodle能准确记住原始图像的像素位置,使新增元素完美融入背景。
多样应用场景: 无论是为宠物添加趣味效果,还是设计奇幻场景,PhotoDoodle都能轻松应对,展现卓越的灵活性。
🚀 资源:
博客文章:点击打开博文
在线体验: 免费HuggingFace GPU Demo
获取代码: GitHub仓库
💡 描述: PhotoDoodle 是由新加坡国立大学(NUS)、上海交通大学、北京邮电大学和字节跳动联合研发的尖端AI图像编辑工具,旨在通过技术创新推动艺术表达的边界。其独特的技术架构和强大的功能使其成为AI艺术创作领域的先锋工具。未来,团队计划进一步优化模型,实现单图学习能力,降低使用门槛,为更多用户带来便捷与灵感。
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🎯 名称: Phi-4-Multimodal - 开源多模态AI交互工具
🖼 功能:
免费开源: 提供开放的代码和数据集,支持开发者自由探索与改进。
多模态支持: 集成文本、视觉和语音处理能力,支持23种语言,涵盖多种跨模态任务。
精准性能表现: 在语音识别、视觉理解、图表分析和文档推理等任务中表现出色,达到或超越现有SOTA模型。
创新架构设计: 采用“Mixture of LoRAs”技术,实现高效灵活的模态适配,无需重新训练基础模型。
✨ 亮点:
AI驱动的多模态交互: Phi-4-Multimodal通过先进的SigLIP-400M图像编码器和动态多裁剪策略,在视觉任务中展现卓越性能;同时,其语音模块基于3层卷积和24个Conformer块,支持实时音频处理。
无缝模态融合: 借助独特的多阶段训练方法,Phi-4-Multimodal能够自然地整合文本、图像和语音输入,提供流畅的跨模态体验。
强大的推理能力: 经过60B CoT(Chain-of-Thought)令牌训练,Phi-4-Multimodal在数学、编码和复杂推理任务中表现优异,媲美更大规模的模型。
多样应用场景: 支持从多媒体分析到实时语音翻译等多种任务,适用于商业、研究和个人项目。
🚀 资源:
博客文章:点击打开博客
在线体验: Hugging Face Demo
获取代码: Hugging Face Model Card
💡 描述:
Phi-4-Multimodal是由微软推出的一款尖端开源多模态AI工具,旨在通过技术创新重新定义人机交互方式。其卓越的性能和灵活性使其成为AI领域的标杆模型,尤其在语音识别、视觉理解和跨模态任务中表现突出。未来,随着社区的持续贡献和优化,Phi-4-Multimodal有望进一步拓展其应用范围,为更多用户提供便捷与灵感。
📢 频道 ✈️ 群聊 📬 投稿 💵 商务
🖼 功能:
免费开源: 提供开放的代码和数据集,支持开发者自由探索与改进。
多模态支持: 集成文本、视觉和语音处理能力,支持23种语言,涵盖多种跨模态任务。
精准性能表现: 在语音识别、视觉理解、图表分析和文档推理等任务中表现出色,达到或超越现有SOTA模型。
创新架构设计: 采用“Mixture of LoRAs”技术,实现高效灵活的模态适配,无需重新训练基础模型。
✨ 亮点:
AI驱动的多模态交互: Phi-4-Multimodal通过先进的SigLIP-400M图像编码器和动态多裁剪策略,在视觉任务中展现卓越性能;同时,其语音模块基于3层卷积和24个Conformer块,支持实时音频处理。
无缝模态融合: 借助独特的多阶段训练方法,Phi-4-Multimodal能够自然地整合文本、图像和语音输入,提供流畅的跨模态体验。
强大的推理能力: 经过60B CoT(Chain-of-Thought)令牌训练,Phi-4-Multimodal在数学、编码和复杂推理任务中表现优异,媲美更大规模的模型。
多样应用场景: 支持从多媒体分析到实时语音翻译等多种任务,适用于商业、研究和个人项目。
🚀 资源:
博客文章:点击打开博客
在线体验: Hugging Face Demo
获取代码: Hugging Face Model Card
💡 描述:
Phi-4-Multimodal是由微软推出的一款尖端开源多模态AI工具,旨在通过技术创新重新定义人机交互方式。其卓越的性能和灵活性使其成为AI领域的标杆模型,尤其在语音识别、视觉理解和跨模态任务中表现突出。未来,随着社区的持续贡献和优化,Phi-4-Multimodal有望进一步拓展其应用范围,为更多用户提供便捷与灵感。
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Prompt ✏️: outer red layer to reveal the pale inner flesh in the shape of [a young woman]. The carving should be simple, showing the features of [a young woman], making it look as if [a young woman] shape is playfully etched into the apple. The apple should be placed on a simple surface with natural lighting to enhance the realism and focus on the simple carving.
Model 🖼: flux pro
📢 频道 ✈️ 群聊 📬 投稿 💵 商务
Model 🖼: flux pro
Please open Telegram to view this post
VIEW IN TELEGRAM
🎯 名称: CogView4 - 智谱开源图像生成模型
🖼 功能:
文本到图像生成: 支持中英双语提示词输入,擅长理解和遵循中文提示词,能够在画面中生成汉字。
灵活图像分辨率生成: 支持生成任意宽高的图片,采用混合分辨率训练和二维旋转位置编码适应不同分辨率需求。
高质量输出: 采用Flow-matching扩散模型和参数化线性动态噪声规划,提供高质量图像生成。
多语言支持: 升级为GLM-4编码器,支持中英双语输入,消除仅支持英文的局限。
✨ 亮点:
卓越的生成能力: 在DPG-Bench基准测试中综合评分排名第一,提供高质量的文本到图像生成。
高效的训练效率: 采用动态文本长度处理,提升训练效率5%-30%。
开源计划: 将开源对应的Controlnet、Comfyui支持和模型微调工具,促进AI社区的创新与合作。
🚀 资源:
博客文章: 点击打开博客文章
项目页面: [GitHub]
模型下载: [Hugging Face]
在线体验: [Hugging Face Spaces]
💡 描述:
CogView4 是由智谱开发的开源图像生成模型,代表了AI驱动图像创作的重大突破。它在文本到图像生成、多语言支持和视觉一致性方面表现出色。通过其开源计划,CogView4 将为全球开发者提供强大的工具,助力创意内容生产、教育培训、娱乐和营销等多个领域的应用创新。
📢 频道 ✈️ 群聊 📬 投稿 💵 商务
🖼 功能:
文本到图像生成: 支持中英双语提示词输入,擅长理解和遵循中文提示词,能够在画面中生成汉字。
灵活图像分辨率生成: 支持生成任意宽高的图片,采用混合分辨率训练和二维旋转位置编码适应不同分辨率需求。
高质量输出: 采用Flow-matching扩散模型和参数化线性动态噪声规划,提供高质量图像生成。
多语言支持: 升级为GLM-4编码器,支持中英双语输入,消除仅支持英文的局限。
✨ 亮点:
卓越的生成能力: 在DPG-Bench基准测试中综合评分排名第一,提供高质量的文本到图像生成。
高效的训练效率: 采用动态文本长度处理,提升训练效率5%-30%。
开源计划: 将开源对应的Controlnet、Comfyui支持和模型微调工具,促进AI社区的创新与合作。
🚀 资源:
博客文章: 点击打开博客文章
项目页面: [GitHub]
模型下载: [Hugging Face]
在线体验: [Hugging Face Spaces]
💡 描述:
CogView4 是由智谱开发的开源图像生成模型,代表了AI驱动图像创作的重大突破。它在文本到图像生成、多语言支持和视觉一致性方面表现出色。通过其开源计划,CogView4 将为全球开发者提供强大的工具,助力创意内容生产、教育培训、娱乐和营销等多个领域的应用创新。
Please open Telegram to view this post
VIEW IN TELEGRAM
🖼 AWPainting Flux
功能:
专业构图系统 : 支持Dynamic Angle/Perspective Composition/Top View等12种构图模式,实现电影级空间叙事
风格引擎2.0 : 通过Anime/Comic/Watercolor等前缀词切换风格,新增赛博朋克/新海诚/浮世绘等18种预设
超分辨率渲染 : 基于动态光照建模技术,细节密度较v1.5提升40%,支持8K级输出
✨ 核心亮点:
美学增强 : 引入CLIP-ViT双编码器,在ArtBench测试中构图评分超越DALL·E 3
中文优先 : 专为中文提示词优化,支持书法/国画等传统文化元素精准生成
物理合理性 : 首创材质感知模块,衣物褶皱/流体动态等物理特性表现提升65%
🚀 官方资源:
下载地址: liblibAI
💡 模型定位:
AWPainting Flux是首个实现"风格-构图-物理"三维控制的中文优先模型,通过创新的多模态适配器架构,将专业画师的创作逻辑融入AI生成。在动漫/插画/概念设计领域,已获得300+商业项目验证,被用户称为"最懂东方美学的AI画师"。
📢 频道 ✈️ 群聊 📬 投稿 💵 商务
功能:
专业构图系统 : 支持Dynamic Angle/Perspective Composition/Top View等12种构图模式,实现电影级空间叙事
风格引擎2.0 : 通过Anime/Comic/Watercolor等前缀词切换风格,新增赛博朋克/新海诚/浮世绘等18种预设
超分辨率渲染 : 基于动态光照建模技术,细节密度较v1.5提升40%,支持8K级输出
✨ 核心亮点:
美学增强 : 引入CLIP-ViT双编码器,在ArtBench测试中构图评分超越DALL·E 3
中文优先 : 专为中文提示词优化,支持书法/国画等传统文化元素精准生成
物理合理性 : 首创材质感知模块,衣物褶皱/流体动态等物理特性表现提升65%
🚀 官方资源:
下载地址: liblibAI
💡 模型定位:
AWPainting Flux是首个实现"风格-构图-物理"三维控制的中文优先模型,通过创新的多模态适配器架构,将专业画师的创作逻辑融入AI生成。在动漫/插画/概念设计领域,已获得300+商业项目验证,被用户称为"最懂东方美学的AI画师"。
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM