Если кому надо совершенно бесплатно и очень быстро генерить картинки на конкретную тематику (известные спортсмены, марки автомобилей, определенная айдентика), то идите сюда — вам расскажут как тренировать свои лоры для Z-Image.
Ботликер
Ботликер
YouTube
How to Train a Z-Image-Turbo LoRA with AI Toolkit
How to Train a Z-Image-Turbo LoRA with AI Toolkit using a de-distill training adapter. In this tutorial we train a style LoRA in the style of children's artwork.
Support me - https://ostris.com/support
Children's Drawings LoRA - https://huggingface.co/…
Support me - https://ostris.com/support
Children's Drawings LoRA - https://huggingface.co/…
Но, конечно, опенсорс как обычно немного опаздывает. Если ещё месяц назад даже в Банане были проблемы с генерацией известных личностей или марок автомобилей, то теперь Банан Про справляется с этим прекрасно. Даже референсы кидать зачастую не надо, он в лицо знает третьесортных селебрити.
Хотя, вот с генерацией аутентичной Алматы Банан не сильно справляется, как и с картинками 18+.
Ботликер
Хотя, вот с генерацией аутентичной Алматы Банан не сильно справляется, как и с картинками 18+.
Ботликер
❤1
👆🏼Вообще, с ракурсами в Банане всё очень просто. Вообще, с любой визуализацией чего угодно в Банане. Вы просто идёте в Gemini 3 и просите дать детальный промпт для визуализации ракурсов (или чего угодно). И она вам оформляет всё в лучшем виде. Например:
Примеры результатов промпта будут ниже.
Ботликер
(masterpiece, best quality, highly detailed, expressive art), photographic contact sheet, 9-panel grid layout split screen, cinematic storyboard assembly, consistent object across all panels.
Central focus: [ВСТАВЬТЕ ОПИСАНИЕ ВАШЕГО ОБЪЕКТА ЗДЕСЬ].
Panel 1 (Top Left): Dynamic three-quarter view, aggressive stance, dramatic shadows.
Panel 2 (Top Middle): Extreme low angle worm's-eye view, imposing perspective, exaggerated foreshortening, towering presence.
Panel 3 (Top Right): Tight macro detail shot, shallow depth of field, focusing on intricate textures and materials (scratches, reflections).
Panel 4 (Middle Left): High-speed action shot, panning motion blur effect emphasizing kinetic energy.
Panel 5 (Center): Direct overhead "God's eye view," geometric composition, slightly rotated on axis for dynamism.
Panel 6 (Middle Right): Dutch angle tilt, off-balance composition creating tension and drama.
Panel 7 (Bottom Left): Moody rear silhouette, dramatic rim lighting highlights edges against a dark background.
Panel 8 (Bottom Middle): Wide-angle lens distortion (fisheye effect), curved perspective, emphasizing scale within environment.
Panel 9 (Bottom Right): Creative "framed" shot, viewing the object partially obscured through foreground elements, creating depth.
Overall Style: volumetric lighting, cinematic color grading, sharp focus on subject, incredibly detailed, highly stylized render, octane render, unreal engine 5 style cinematic.
Примеры результатов промпта будут ниже.
Ботликер
🔥2❤1
Forwarded from Хранители Легиона 🔮
Anthropic решили главную проблему AI агентов — они перестали забывать, что делали вчера.
До этого момента все агенты страдали амнезией: дали задачу на неделю, а через день он уже не помнит с чего начинал. Контекстное окно переполняется — и всё, агент как чистый лист.
А теперь Claude Agent SDK работает по принципу нормальной команды разработчиков 🤔
Как это устроено:
• Агент-инициализатор настраивает проект и фиксирует изменения
• Агент-кодер работает пошагово и документирует каждое действие
• Memory API хранит ключевую инфу вне основного контекста
• При следующей сессии агент подгружает нужные данные и продолжает
Практические последствия:
Для разработчиков это означает агентов, которые могут вести долгосрочные проекты без постоянного напоминания "а что мы тут делаем".
Время выполнения проектов сокращается до 30% — потому что агент не тратит время на восстановление контекста.
Пока Salesforce и AWS катят свои решения для памяти агентов, Anthropic встроили это прямо в SDK. Можно сразу строить автономных помощников для серьезных задач.
🔮 Хранители Легиона ➕
До этого момента все агенты страдали амнезией: дали задачу на неделю, а через день он уже не помнит с чего начинал. Контекстное окно переполняется — и всё, агент как чистый лист.
А теперь Claude Agent SDK работает по принципу нормальной команды разработчиков 🤔
Как это устроено:
• Агент-инициализатор настраивает проект и фиксирует изменения
• Агент-кодер работает пошагово и документирует каждое действие
• Memory API хранит ключевую инфу вне основного контекста
• При следующей сессии агент подгружает нужные данные и продолжает
Практические последствия:
Для разработчиков это означает агентов, которые могут вести долгосрочные проекты без постоянного напоминания "а что мы тут делаем".
Время выполнения проектов сокращается до 30% — потому что агент не тратит время на восстановление контекста.
Пока Salesforce и AWS катят свои решения для памяти агентов, Anthropic встроили это прямо в SDK. Можно сразу строить автономных помощников для серьезных задач.
🔮 Хранители Легиона ➕
🔥2
DeepSeek представила модели V3.2 и V3.2-Speciale
DeepSeek AI 1 декабря 2025 года объявила о выходе официальной версии своих больших языковых моделей — DeepSeek-V3.2 и её усиленной версии DeepSeek-V3.2-Speciale. Это опенсорс-решения, позиционируемые как «reasoning-first» модели, ориентированные на работу автономных агентов. Релиз продолжает развитие экспериментальной ветки V3.2-Exp, представленной в сентябре.
Основная модель DeepSeek-V3.2 предназначена для широкого спектра задач и балансирует между скоростью работы и глубиной логических цепочек. Она поддерживает два режима работы: стандартный deepseek-chat (Non-thinking) для быстрых ответов и deepseek-reasoner (Thinking mode) для сложных запросов, требующих пошагового рассуждения. Модель уже доступна в веб-интерфейсе, мобильном приложении и через API.
Вторая модель, DeepSeek-V3.2-Speciale, представляет собой высокопроизводительную версию, ориентированную на экстремальные задачи, требующие глубоких рассуждений. В отличие от базовой версии, она не поддерживает вызов внешних инструментов (tool-use) и потребляет больше токенов, но показывает более высокие результаты в бенчмарках. Доступ к ней открыт временно через специальный API-эндпоинт до 15 декабря в рамках исследовательского триала.
С технической точки зрения модели базируются на архитектуре MoE (Mixture-of-Experts) с 671 млрд параметров (37 млрд активных). Ключевым нововведением стал механизм разреженного внимания DeepSeek Sparse Attention (DSA), который снижает вычислительную сложность и ускоряет инференс в 2–3 раза на длинных контекстах (до 128K токенов). Также внедрен новый пайплайн синтеза данных, позволивший реализовать функцию «Thinking with Tool-Use» — способность модели рассуждать при использовании внешних инструментов.
Согласно представленным отчетам, производительность DeepSeek-V3.2 сопоставима с GPT-5 в задачах кодинга и QA. Версия Speciale демонстрирует результаты уровня Gemini-3.0-Pro в задачах на рассуждение и получила «золото» на международных олимпиадах 2025 года по математике (IMO) и информатике (IOI, ICPC). Результаты верифицируемы через открытый репозиторий.
Ценовая политика DeepSeek остается агрессивной: стоимость использования API сохранена на уровне экспериментальной версии V3.2-Exp, что значительно дешевле предыдущего поколения V3.1. Поддерживается кэширование контекста для дополнительной экономии и совместимость с OpenAI SDK.
Исходный код и веса моделей опубликованы под лицензией MIT на Hugging Face. Пользователи могут развернуть модели локально или использовать облачные решения компании. Полный технический отчет доступен для ознакомления в репозитории проекта.
DeepSeek AI 1 декабря 2025 года объявила о выходе официальной версии своих больших языковых моделей — DeepSeek-V3.2 и её усиленной версии DeepSeek-V3.2-Speciale. Это опенсорс-решения, позиционируемые как «reasoning-first» модели, ориентированные на работу автономных агентов. Релиз продолжает развитие экспериментальной ветки V3.2-Exp, представленной в сентябре.
Основная модель DeepSeek-V3.2 предназначена для широкого спектра задач и балансирует между скоростью работы и глубиной логических цепочек. Она поддерживает два режима работы: стандартный deepseek-chat (Non-thinking) для быстрых ответов и deepseek-reasoner (Thinking mode) для сложных запросов, требующих пошагового рассуждения. Модель уже доступна в веб-интерфейсе, мобильном приложении и через API.
Вторая модель, DeepSeek-V3.2-Speciale, представляет собой высокопроизводительную версию, ориентированную на экстремальные задачи, требующие глубоких рассуждений. В отличие от базовой версии, она не поддерживает вызов внешних инструментов (tool-use) и потребляет больше токенов, но показывает более высокие результаты в бенчмарках. Доступ к ней открыт временно через специальный API-эндпоинт до 15 декабря в рамках исследовательского триала.
С технической точки зрения модели базируются на архитектуре MoE (Mixture-of-Experts) с 671 млрд параметров (37 млрд активных). Ключевым нововведением стал механизм разреженного внимания DeepSeek Sparse Attention (DSA), который снижает вычислительную сложность и ускоряет инференс в 2–3 раза на длинных контекстах (до 128K токенов). Также внедрен новый пайплайн синтеза данных, позволивший реализовать функцию «Thinking with Tool-Use» — способность модели рассуждать при использовании внешних инструментов.
Согласно представленным отчетам, производительность DeepSeek-V3.2 сопоставима с GPT-5 в задачах кодинга и QA. Версия Speciale демонстрирует результаты уровня Gemini-3.0-Pro в задачах на рассуждение и получила «золото» на международных олимпиадах 2025 года по математике (IMO) и информатике (IOI, ICPC). Результаты верифицируемы через открытый репозиторий.
Ценовая политика DeepSeek остается агрессивной: стоимость использования API сохранена на уровне экспериментальной версии V3.2-Exp, что значительно дешевле предыдущего поколения V3.1. Поддерживается кэширование контекста для дополнительной экономии и совместимость с OpenAI SDK.
Исходный код и веса моделей опубликованы под лицензией MIT на Hugging Face. Пользователи могут развернуть модели локально или использовать облачные решения компании. Полный технический отчет доступен для ознакомления в репозитории проекта.
huggingface.co
deepseek-ai/DeepSeek-V3.2-Speciale · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
❤1
Большие релизы продолжаются
1. Runway Gen-4.5
Компания представила новую версию модели с улучшенным качеством, физикой и более точным следованием инструкциям. В рейтинге Artificial Analysis модель уже заняла первое место. Поддерживаются разные стили и работа с референсами (видео и картинки). Доступа к инструменту пока нет, развертывание начнется в ближайшее время.
2. Kling o1
Китайские разработчики выпустили модель, ориентированную на редактирование видео (сравнивают с функционалом Nano Banana Pro). Инструмент позволяет удалять объекты, менять цвета и стиль ролика. Главное отличие — модель уже доступна для тестов. Сейчас сервис работает бесплатно и безлимитно.
Попробовать Kling o1 можно здесь: https://app.klingai.com/global/omni/new
Ботликер
1. Runway Gen-4.5
Компания представила новую версию модели с улучшенным качеством, физикой и более точным следованием инструкциям. В рейтинге Artificial Analysis модель уже заняла первое место. Поддерживаются разные стили и работа с референсами (видео и картинки). Доступа к инструменту пока нет, развертывание начнется в ближайшее время.
2. Kling o1
Китайские разработчики выпустили модель, ориентированную на редактирование видео (сравнивают с функционалом Nano Banana Pro). Инструмент позволяет удалять объекты, менять цвета и стиль ролика. Главное отличие — модель уже доступна для тестов. Сейчас сервис работает бесплатно и безлимитно.
Попробовать Kling o1 можно здесь: https://app.klingai.com/global/omni/new
Ботликер
🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Хотите побаловаться/показать детям/родителям что вы настоящий кодер — идёте на http://aistudio.google.com, выбираете Gemini 3 и вставляете этот промпт:
Далее копируете появившийся код в файл Блокнота, переименовываете его в index.html, и наконец, открываете его в браузере.
Не забудьте включить камеру 😘
Ботликер
Создай интерактивную 3D-систему частиц в реальном времени с помощью Three.js.
Требования:
1. Управляй масштабированием и расширением группы частиц, определяя напряжение и сжатие обеих рук через камеру.
2. Предоставь панели для выбора сердец/цветов/Сатурна/статуй Будды/фейерверков и других шаблонов.
3. Поддерживай селектор цвета для настройки цвета частиц.
4. Частицы должны реагировать на изменения жестов в реальном времени. Интерфейс должен быть простым и современным.
5. Интерфейс должен быть простым и современным.
Далее копируете появившийся код в файл Блокнота, переименовываете его в index.html, и наконец, открываете его в браузере.
Не забудьте включить камеру 😘
Ботликер
🔥7
Forwarded from Dartr Nemec
This media is not supported in your browser
VIEW IN TELEGRAM
Ну первое ощущение от Kling 01 очень хорошее! Со звуком, конечно, все еще не очень, но видео - мое почтение
This media is not supported in your browser
VIEW IN TELEGRAM
Умеют в Хигсфилде (кстати, казахстанский стартап) делать завлекающие ролики. Вот и с новым Клингом О1 сделали.
Ботликер
Ботликер
Полноценный систематический гайд по Nano Banana Pro от человека, который работает в Google. Блог он завёл на днях, поэтому будет много свежака по банане.
Ботликер
Ботликер