❤1
👆🏼Вообще, с ракурсами в Банане всё очень просто. Вообще, с любой визуализацией чего угодно в Банане. Вы просто идёте в Gemini 3 и просите дать детальный промпт для визуализации ракурсов (или чего угодно). И она вам оформляет всё в лучшем виде. Например:
Примеры результатов промпта будут ниже.
Ботликер
(masterpiece, best quality, highly detailed, expressive art), photographic contact sheet, 9-panel grid layout split screen, cinematic storyboard assembly, consistent object across all panels.
Central focus: [ВСТАВЬТЕ ОПИСАНИЕ ВАШЕГО ОБЪЕКТА ЗДЕСЬ].
Panel 1 (Top Left): Dynamic three-quarter view, aggressive stance, dramatic shadows.
Panel 2 (Top Middle): Extreme low angle worm's-eye view, imposing perspective, exaggerated foreshortening, towering presence.
Panel 3 (Top Right): Tight macro detail shot, shallow depth of field, focusing on intricate textures and materials (scratches, reflections).
Panel 4 (Middle Left): High-speed action shot, panning motion blur effect emphasizing kinetic energy.
Panel 5 (Center): Direct overhead "God's eye view," geometric composition, slightly rotated on axis for dynamism.
Panel 6 (Middle Right): Dutch angle tilt, off-balance composition creating tension and drama.
Panel 7 (Bottom Left): Moody rear silhouette, dramatic rim lighting highlights edges against a dark background.
Panel 8 (Bottom Middle): Wide-angle lens distortion (fisheye effect), curved perspective, emphasizing scale within environment.
Panel 9 (Bottom Right): Creative "framed" shot, viewing the object partially obscured through foreground elements, creating depth.
Overall Style: volumetric lighting, cinematic color grading, sharp focus on subject, incredibly detailed, highly stylized render, octane render, unreal engine 5 style cinematic.
Примеры результатов промпта будут ниже.
Ботликер
🔥2❤1
Forwarded from Хранители Легиона 🔮
Anthropic решили главную проблему AI агентов — они перестали забывать, что делали вчера.
До этого момента все агенты страдали амнезией: дали задачу на неделю, а через день он уже не помнит с чего начинал. Контекстное окно переполняется — и всё, агент как чистый лист.
А теперь Claude Agent SDK работает по принципу нормальной команды разработчиков 🤔
Как это устроено:
• Агент-инициализатор настраивает проект и фиксирует изменения
• Агент-кодер работает пошагово и документирует каждое действие
• Memory API хранит ключевую инфу вне основного контекста
• При следующей сессии агент подгружает нужные данные и продолжает
Практические последствия:
Для разработчиков это означает агентов, которые могут вести долгосрочные проекты без постоянного напоминания "а что мы тут делаем".
Время выполнения проектов сокращается до 30% — потому что агент не тратит время на восстановление контекста.
Пока Salesforce и AWS катят свои решения для памяти агентов, Anthropic встроили это прямо в SDK. Можно сразу строить автономных помощников для серьезных задач.
🔮 Хранители Легиона ➕
До этого момента все агенты страдали амнезией: дали задачу на неделю, а через день он уже не помнит с чего начинал. Контекстное окно переполняется — и всё, агент как чистый лист.
А теперь Claude Agent SDK работает по принципу нормальной команды разработчиков 🤔
Как это устроено:
• Агент-инициализатор настраивает проект и фиксирует изменения
• Агент-кодер работает пошагово и документирует каждое действие
• Memory API хранит ключевую инфу вне основного контекста
• При следующей сессии агент подгружает нужные данные и продолжает
Практические последствия:
Для разработчиков это означает агентов, которые могут вести долгосрочные проекты без постоянного напоминания "а что мы тут делаем".
Время выполнения проектов сокращается до 30% — потому что агент не тратит время на восстановление контекста.
Пока Salesforce и AWS катят свои решения для памяти агентов, Anthropic встроили это прямо в SDK. Можно сразу строить автономных помощников для серьезных задач.
🔮 Хранители Легиона ➕
🔥2
DeepSeek представила модели V3.2 и V3.2-Speciale
DeepSeek AI 1 декабря 2025 года объявила о выходе официальной версии своих больших языковых моделей — DeepSeek-V3.2 и её усиленной версии DeepSeek-V3.2-Speciale. Это опенсорс-решения, позиционируемые как «reasoning-first» модели, ориентированные на работу автономных агентов. Релиз продолжает развитие экспериментальной ветки V3.2-Exp, представленной в сентябре.
Основная модель DeepSeek-V3.2 предназначена для широкого спектра задач и балансирует между скоростью работы и глубиной логических цепочек. Она поддерживает два режима работы: стандартный deepseek-chat (Non-thinking) для быстрых ответов и deepseek-reasoner (Thinking mode) для сложных запросов, требующих пошагового рассуждения. Модель уже доступна в веб-интерфейсе, мобильном приложении и через API.
Вторая модель, DeepSeek-V3.2-Speciale, представляет собой высокопроизводительную версию, ориентированную на экстремальные задачи, требующие глубоких рассуждений. В отличие от базовой версии, она не поддерживает вызов внешних инструментов (tool-use) и потребляет больше токенов, но показывает более высокие результаты в бенчмарках. Доступ к ней открыт временно через специальный API-эндпоинт до 15 декабря в рамках исследовательского триала.
С технической точки зрения модели базируются на архитектуре MoE (Mixture-of-Experts) с 671 млрд параметров (37 млрд активных). Ключевым нововведением стал механизм разреженного внимания DeepSeek Sparse Attention (DSA), который снижает вычислительную сложность и ускоряет инференс в 2–3 раза на длинных контекстах (до 128K токенов). Также внедрен новый пайплайн синтеза данных, позволивший реализовать функцию «Thinking with Tool-Use» — способность модели рассуждать при использовании внешних инструментов.
Согласно представленным отчетам, производительность DeepSeek-V3.2 сопоставима с GPT-5 в задачах кодинга и QA. Версия Speciale демонстрирует результаты уровня Gemini-3.0-Pro в задачах на рассуждение и получила «золото» на международных олимпиадах 2025 года по математике (IMO) и информатике (IOI, ICPC). Результаты верифицируемы через открытый репозиторий.
Ценовая политика DeepSeek остается агрессивной: стоимость использования API сохранена на уровне экспериментальной версии V3.2-Exp, что значительно дешевле предыдущего поколения V3.1. Поддерживается кэширование контекста для дополнительной экономии и совместимость с OpenAI SDK.
Исходный код и веса моделей опубликованы под лицензией MIT на Hugging Face. Пользователи могут развернуть модели локально или использовать облачные решения компании. Полный технический отчет доступен для ознакомления в репозитории проекта.
DeepSeek AI 1 декабря 2025 года объявила о выходе официальной версии своих больших языковых моделей — DeepSeek-V3.2 и её усиленной версии DeepSeek-V3.2-Speciale. Это опенсорс-решения, позиционируемые как «reasoning-first» модели, ориентированные на работу автономных агентов. Релиз продолжает развитие экспериментальной ветки V3.2-Exp, представленной в сентябре.
Основная модель DeepSeek-V3.2 предназначена для широкого спектра задач и балансирует между скоростью работы и глубиной логических цепочек. Она поддерживает два режима работы: стандартный deepseek-chat (Non-thinking) для быстрых ответов и deepseek-reasoner (Thinking mode) для сложных запросов, требующих пошагового рассуждения. Модель уже доступна в веб-интерфейсе, мобильном приложении и через API.
Вторая модель, DeepSeek-V3.2-Speciale, представляет собой высокопроизводительную версию, ориентированную на экстремальные задачи, требующие глубоких рассуждений. В отличие от базовой версии, она не поддерживает вызов внешних инструментов (tool-use) и потребляет больше токенов, но показывает более высокие результаты в бенчмарках. Доступ к ней открыт временно через специальный API-эндпоинт до 15 декабря в рамках исследовательского триала.
С технической точки зрения модели базируются на архитектуре MoE (Mixture-of-Experts) с 671 млрд параметров (37 млрд активных). Ключевым нововведением стал механизм разреженного внимания DeepSeek Sparse Attention (DSA), который снижает вычислительную сложность и ускоряет инференс в 2–3 раза на длинных контекстах (до 128K токенов). Также внедрен новый пайплайн синтеза данных, позволивший реализовать функцию «Thinking with Tool-Use» — способность модели рассуждать при использовании внешних инструментов.
Согласно представленным отчетам, производительность DeepSeek-V3.2 сопоставима с GPT-5 в задачах кодинга и QA. Версия Speciale демонстрирует результаты уровня Gemini-3.0-Pro в задачах на рассуждение и получила «золото» на международных олимпиадах 2025 года по математике (IMO) и информатике (IOI, ICPC). Результаты верифицируемы через открытый репозиторий.
Ценовая политика DeepSeek остается агрессивной: стоимость использования API сохранена на уровне экспериментальной версии V3.2-Exp, что значительно дешевле предыдущего поколения V3.1. Поддерживается кэширование контекста для дополнительной экономии и совместимость с OpenAI SDK.
Исходный код и веса моделей опубликованы под лицензией MIT на Hugging Face. Пользователи могут развернуть модели локально или использовать облачные решения компании. Полный технический отчет доступен для ознакомления в репозитории проекта.
huggingface.co
deepseek-ai/DeepSeek-V3.2-Speciale · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
❤1
Большие релизы продолжаются
1. Runway Gen-4.5
Компания представила новую версию модели с улучшенным качеством, физикой и более точным следованием инструкциям. В рейтинге Artificial Analysis модель уже заняла первое место. Поддерживаются разные стили и работа с референсами (видео и картинки). Доступа к инструменту пока нет, развертывание начнется в ближайшее время.
2. Kling o1
Китайские разработчики выпустили модель, ориентированную на редактирование видео (сравнивают с функционалом Nano Banana Pro). Инструмент позволяет удалять объекты, менять цвета и стиль ролика. Главное отличие — модель уже доступна для тестов. Сейчас сервис работает бесплатно и безлимитно.
Попробовать Kling o1 можно здесь: https://app.klingai.com/global/omni/new
Ботликер
1. Runway Gen-4.5
Компания представила новую версию модели с улучшенным качеством, физикой и более точным следованием инструкциям. В рейтинге Artificial Analysis модель уже заняла первое место. Поддерживаются разные стили и работа с референсами (видео и картинки). Доступа к инструменту пока нет, развертывание начнется в ближайшее время.
2. Kling o1
Китайские разработчики выпустили модель, ориентированную на редактирование видео (сравнивают с функционалом Nano Banana Pro). Инструмент позволяет удалять объекты, менять цвета и стиль ролика. Главное отличие — модель уже доступна для тестов. Сейчас сервис работает бесплатно и безлимитно.
Попробовать Kling o1 можно здесь: https://app.klingai.com/global/omni/new
Ботликер
🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Хотите побаловаться/показать детям/родителям что вы настоящий кодер — идёте на http://aistudio.google.com, выбираете Gemini 3 и вставляете этот промпт:
Далее копируете появившийся код в файл Блокнота, переименовываете его в index.html, и наконец, открываете его в браузере.
Не забудьте включить камеру 😘
Ботликер
Создай интерактивную 3D-систему частиц в реальном времени с помощью Three.js.
Требования:
1. Управляй масштабированием и расширением группы частиц, определяя напряжение и сжатие обеих рук через камеру.
2. Предоставь панели для выбора сердец/цветов/Сатурна/статуй Будды/фейерверков и других шаблонов.
3. Поддерживай селектор цвета для настройки цвета частиц.
4. Частицы должны реагировать на изменения жестов в реальном времени. Интерфейс должен быть простым и современным.
5. Интерфейс должен быть простым и современным.
Далее копируете появившийся код в файл Блокнота, переименовываете его в index.html, и наконец, открываете его в браузере.
Не забудьте включить камеру 😘
Ботликер
🔥7
Forwarded from Dartr Nemec
This media is not supported in your browser
VIEW IN TELEGRAM
Ну первое ощущение от Kling 01 очень хорошее! Со звуком, конечно, все еще не очень, но видео - мое почтение
This media is not supported in your browser
VIEW IN TELEGRAM
Умеют в Хигсфилде (кстати, казахстанский стартап) делать завлекающие ролики. Вот и с новым Клингом О1 сделали.
Ботликер
Ботликер
Полноценный систематический гайд по Nano Banana Pro от человека, который работает в Google. Блог он завёл на днях, поэтому будет много свежака по банане.
Ботликер
Ботликер
This media is not supported in your browser
VIEW IN TELEGRAM
Милое готовое решение для всех, кто работает с недвижимостью. Правда, клиент должен быть в XR-очках. Nano Banana Pro → World Labs → WebAR (threejs). Каждая сцена весит всего 1,5 мб.
Ботликер
Ботликер
👍2🤯2
OpenAI готовит релиз модели с улучшенным рассуждением
По данным The Information от 2 декабря 2025 года, Сэм Альтман объявил внутри компании режим срочной доработки продукта - Красный код. Новая reasoning-модель должна выйти на следующей неделе (ориентировочно 8–14 декабря).
По внутренним тестам OpenAI, она уже превосходит Gemini 3 в задачах, требующих логического мышления, программирования и работы с мультимодальными данными.
Релиз станет ответом на недавний запуск Gemini 3, который опередил актуальные модели OpenAI в ряде бенчмарков.
По данным The Information от 2 декабря 2025 года, Сэм Альтман объявил внутри компании режим срочной доработки продукта - Красный код. Новая reasoning-модель должна выйти на следующей неделе (ориентировочно 8–14 декабря).
По внутренним тестам OpenAI, она уже превосходит Gemini 3 в задачах, требующих логического мышления, программирования и работы с мультимодальными данными.
Релиз станет ответом на недавний запуск Gemini 3, который опередил актуальные модели OpenAI в ряде бенчмарков.
❤1