В общем, сразу после огненного релиза Нано Бананы Про, которая перенесла качество жизни и работы дизайнеров выше на порядок, мы также имеем ни чуть не менее огненный релиз п р и м е р н о такого же по качеству Z-Image, который БЕСПЛАТНЫЙ, ЛОКАЛЬНЫЙ, БЫСТРЫЙ И НЕЗАЦЕНЗУРЕННЫЙ (уже есть много порнолор).
👨💻1
Если кому надо совершенно бесплатно и очень быстро генерить картинки на конкретную тематику (известные спортсмены, марки автомобилей, определенная айдентика), то идите сюда — вам расскажут как тренировать свои лоры для Z-Image.
Ботликер
Ботликер
YouTube
How to Train a Z-Image-Turbo LoRA with AI Toolkit
How to Train a Z-Image-Turbo LoRA with AI Toolkit using a de-distill training adapter. In this tutorial we train a style LoRA in the style of children's artwork.
Support me - https://ostris.com/support
Children's Drawings LoRA - https://huggingface.co/…
Support me - https://ostris.com/support
Children's Drawings LoRA - https://huggingface.co/…
Но, конечно, опенсорс как обычно немного опаздывает. Если ещё месяц назад даже в Банане были проблемы с генерацией известных личностей или марок автомобилей, то теперь Банан Про справляется с этим прекрасно. Даже референсы кидать зачастую не надо, он в лицо знает третьесортных селебрити.
Хотя, вот с генерацией аутентичной Алматы Банан не сильно справляется, как и с картинками 18+.
Ботликер
Хотя, вот с генерацией аутентичной Алматы Банан не сильно справляется, как и с картинками 18+.
Ботликер
❤1
👆🏼Вообще, с ракурсами в Банане всё очень просто. Вообще, с любой визуализацией чего угодно в Банане. Вы просто идёте в Gemini 3 и просите дать детальный промпт для визуализации ракурсов (или чего угодно). И она вам оформляет всё в лучшем виде. Например:
Примеры результатов промпта будут ниже.
Ботликер
(masterpiece, best quality, highly detailed, expressive art), photographic contact sheet, 9-panel grid layout split screen, cinematic storyboard assembly, consistent object across all panels.
Central focus: [ВСТАВЬТЕ ОПИСАНИЕ ВАШЕГО ОБЪЕКТА ЗДЕСЬ].
Panel 1 (Top Left): Dynamic three-quarter view, aggressive stance, dramatic shadows.
Panel 2 (Top Middle): Extreme low angle worm's-eye view, imposing perspective, exaggerated foreshortening, towering presence.
Panel 3 (Top Right): Tight macro detail shot, shallow depth of field, focusing on intricate textures and materials (scratches, reflections).
Panel 4 (Middle Left): High-speed action shot, panning motion blur effect emphasizing kinetic energy.
Panel 5 (Center): Direct overhead "God's eye view," geometric composition, slightly rotated on axis for dynamism.
Panel 6 (Middle Right): Dutch angle tilt, off-balance composition creating tension and drama.
Panel 7 (Bottom Left): Moody rear silhouette, dramatic rim lighting highlights edges against a dark background.
Panel 8 (Bottom Middle): Wide-angle lens distortion (fisheye effect), curved perspective, emphasizing scale within environment.
Panel 9 (Bottom Right): Creative "framed" shot, viewing the object partially obscured through foreground elements, creating depth.
Overall Style: volumetric lighting, cinematic color grading, sharp focus on subject, incredibly detailed, highly stylized render, octane render, unreal engine 5 style cinematic.
Примеры результатов промпта будут ниже.
Ботликер
🔥2❤1
Forwarded from Хранители Легиона 🔮
Anthropic решили главную проблему AI агентов — они перестали забывать, что делали вчера.
До этого момента все агенты страдали амнезией: дали задачу на неделю, а через день он уже не помнит с чего начинал. Контекстное окно переполняется — и всё, агент как чистый лист.
А теперь Claude Agent SDK работает по принципу нормальной команды разработчиков 🤔
Как это устроено:
• Агент-инициализатор настраивает проект и фиксирует изменения
• Агент-кодер работает пошагово и документирует каждое действие
• Memory API хранит ключевую инфу вне основного контекста
• При следующей сессии агент подгружает нужные данные и продолжает
Практические последствия:
Для разработчиков это означает агентов, которые могут вести долгосрочные проекты без постоянного напоминания "а что мы тут делаем".
Время выполнения проектов сокращается до 30% — потому что агент не тратит время на восстановление контекста.
Пока Salesforce и AWS катят свои решения для памяти агентов, Anthropic встроили это прямо в SDK. Можно сразу строить автономных помощников для серьезных задач.
🔮 Хранители Легиона ➕
До этого момента все агенты страдали амнезией: дали задачу на неделю, а через день он уже не помнит с чего начинал. Контекстное окно переполняется — и всё, агент как чистый лист.
А теперь Claude Agent SDK работает по принципу нормальной команды разработчиков 🤔
Как это устроено:
• Агент-инициализатор настраивает проект и фиксирует изменения
• Агент-кодер работает пошагово и документирует каждое действие
• Memory API хранит ключевую инфу вне основного контекста
• При следующей сессии агент подгружает нужные данные и продолжает
Практические последствия:
Для разработчиков это означает агентов, которые могут вести долгосрочные проекты без постоянного напоминания "а что мы тут делаем".
Время выполнения проектов сокращается до 30% — потому что агент не тратит время на восстановление контекста.
Пока Salesforce и AWS катят свои решения для памяти агентов, Anthropic встроили это прямо в SDK. Можно сразу строить автономных помощников для серьезных задач.
🔮 Хранители Легиона ➕
🔥2
DeepSeek представила модели V3.2 и V3.2-Speciale
DeepSeek AI 1 декабря 2025 года объявила о выходе официальной версии своих больших языковых моделей — DeepSeek-V3.2 и её усиленной версии DeepSeek-V3.2-Speciale. Это опенсорс-решения, позиционируемые как «reasoning-first» модели, ориентированные на работу автономных агентов. Релиз продолжает развитие экспериментальной ветки V3.2-Exp, представленной в сентябре.
Основная модель DeepSeek-V3.2 предназначена для широкого спектра задач и балансирует между скоростью работы и глубиной логических цепочек. Она поддерживает два режима работы: стандартный deepseek-chat (Non-thinking) для быстрых ответов и deepseek-reasoner (Thinking mode) для сложных запросов, требующих пошагового рассуждения. Модель уже доступна в веб-интерфейсе, мобильном приложении и через API.
Вторая модель, DeepSeek-V3.2-Speciale, представляет собой высокопроизводительную версию, ориентированную на экстремальные задачи, требующие глубоких рассуждений. В отличие от базовой версии, она не поддерживает вызов внешних инструментов (tool-use) и потребляет больше токенов, но показывает более высокие результаты в бенчмарках. Доступ к ней открыт временно через специальный API-эндпоинт до 15 декабря в рамках исследовательского триала.
С технической точки зрения модели базируются на архитектуре MoE (Mixture-of-Experts) с 671 млрд параметров (37 млрд активных). Ключевым нововведением стал механизм разреженного внимания DeepSeek Sparse Attention (DSA), который снижает вычислительную сложность и ускоряет инференс в 2–3 раза на длинных контекстах (до 128K токенов). Также внедрен новый пайплайн синтеза данных, позволивший реализовать функцию «Thinking with Tool-Use» — способность модели рассуждать при использовании внешних инструментов.
Согласно представленным отчетам, производительность DeepSeek-V3.2 сопоставима с GPT-5 в задачах кодинга и QA. Версия Speciale демонстрирует результаты уровня Gemini-3.0-Pro в задачах на рассуждение и получила «золото» на международных олимпиадах 2025 года по математике (IMO) и информатике (IOI, ICPC). Результаты верифицируемы через открытый репозиторий.
Ценовая политика DeepSeek остается агрессивной: стоимость использования API сохранена на уровне экспериментальной версии V3.2-Exp, что значительно дешевле предыдущего поколения V3.1. Поддерживается кэширование контекста для дополнительной экономии и совместимость с OpenAI SDK.
Исходный код и веса моделей опубликованы под лицензией MIT на Hugging Face. Пользователи могут развернуть модели локально или использовать облачные решения компании. Полный технический отчет доступен для ознакомления в репозитории проекта.
DeepSeek AI 1 декабря 2025 года объявила о выходе официальной версии своих больших языковых моделей — DeepSeek-V3.2 и её усиленной версии DeepSeek-V3.2-Speciale. Это опенсорс-решения, позиционируемые как «reasoning-first» модели, ориентированные на работу автономных агентов. Релиз продолжает развитие экспериментальной ветки V3.2-Exp, представленной в сентябре.
Основная модель DeepSeek-V3.2 предназначена для широкого спектра задач и балансирует между скоростью работы и глубиной логических цепочек. Она поддерживает два режима работы: стандартный deepseek-chat (Non-thinking) для быстрых ответов и deepseek-reasoner (Thinking mode) для сложных запросов, требующих пошагового рассуждения. Модель уже доступна в веб-интерфейсе, мобильном приложении и через API.
Вторая модель, DeepSeek-V3.2-Speciale, представляет собой высокопроизводительную версию, ориентированную на экстремальные задачи, требующие глубоких рассуждений. В отличие от базовой версии, она не поддерживает вызов внешних инструментов (tool-use) и потребляет больше токенов, но показывает более высокие результаты в бенчмарках. Доступ к ней открыт временно через специальный API-эндпоинт до 15 декабря в рамках исследовательского триала.
С технической точки зрения модели базируются на архитектуре MoE (Mixture-of-Experts) с 671 млрд параметров (37 млрд активных). Ключевым нововведением стал механизм разреженного внимания DeepSeek Sparse Attention (DSA), который снижает вычислительную сложность и ускоряет инференс в 2–3 раза на длинных контекстах (до 128K токенов). Также внедрен новый пайплайн синтеза данных, позволивший реализовать функцию «Thinking with Tool-Use» — способность модели рассуждать при использовании внешних инструментов.
Согласно представленным отчетам, производительность DeepSeek-V3.2 сопоставима с GPT-5 в задачах кодинга и QA. Версия Speciale демонстрирует результаты уровня Gemini-3.0-Pro в задачах на рассуждение и получила «золото» на международных олимпиадах 2025 года по математике (IMO) и информатике (IOI, ICPC). Результаты верифицируемы через открытый репозиторий.
Ценовая политика DeepSeek остается агрессивной: стоимость использования API сохранена на уровне экспериментальной версии V3.2-Exp, что значительно дешевле предыдущего поколения V3.1. Поддерживается кэширование контекста для дополнительной экономии и совместимость с OpenAI SDK.
Исходный код и веса моделей опубликованы под лицензией MIT на Hugging Face. Пользователи могут развернуть модели локально или использовать облачные решения компании. Полный технический отчет доступен для ознакомления в репозитории проекта.
huggingface.co
deepseek-ai/DeepSeek-V3.2-Speciale · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
❤1