Limx научил Oli ходить по пересечённой местности.
Oli вышел еще летом, но теперь его натренировали не падать в достаточно сложных условиях.
Пожалуй, не каждый человек устоял бы.
//шутка про черепа вместо бетонного мусора.
#Limx #Oli #роботы
------
@tsingular
Oli вышел еще летом, но теперь его натренировали не падать в достаточно сложных условиях.
Пожалуй, не каждый человек устоял бы.
//шутка про черепа вместо бетонного мусора.
#Limx #Oli #роботы
------
@tsingular
✍5⚡4🔥3👍2❤1👾1
This media is not supported in your browser
VIEW IN TELEGRAM
2025й год.
Цифровые фотомодели теперь выглядят вот так.
Автор: Jeff Dotson
#фотомодели #нейрорендер #Veo
------
@tsingular
Цифровые фотомодели теперь выглядят вот так.
Автор: Jeff Dotson
#фотомодели #нейрорендер #Veo
------
@tsingular
❤9👀8😁7🔥5👍3⚡2
устанавливаем n8n на Raspberry Pi
Домашняя автоматизация на изи.
Наткнулся на инструкцию как поднять n8n на малине.
Авось кому пригодится.
#n8n #RaspberryPi #dev
———
@tsingular
Домашняя автоматизация на изи.
Наткнулся на инструкцию как поднять n8n на малине.
Авось кому пригодится.
#n8n #RaspberryPi #dev
———
@tsingular
1🔥6👀5✍3
Хранилки эволюционируют до RAG систем в ближайшее время.
Станет такой базовой функцией уже к концу следующего года.
К этому толкают системы типа Gemini-filesearch от Google
Такая мысль посетила. Проверим через год.
#RAG #storage #мысли
———
@tsingular
Станет такой базовой функцией уже к концу следующего года.
К этому толкают системы типа Gemini-filesearch от Google
Такая мысль посетила. Проверим через год.
#RAG #storage #мысли
———
@tsingular
🔥14💯5✍2❤1⚡1
Forwarded from Machinelearning
Ostris, разработчик популярного пакета для обучения диффузионных моделей добавил поддержку обучения для Z-Image Turbo с помощью De-Distill адаптера.
AI Toolkit — это универсальный набор инструментов для обучения диффузионных моделей на потребительском оборудовании. Он может запускаться как в GUI, так и в командной строке. Набор разработан так, чтобы быть простым в использовании, но при этом обладать всеми возможными функциями.
По первым тестам, обучение возможно на 12+ VRAM, а обучение персонажа на 17 изображениях длительностью 3000 шагов на RTX 5090 занимает примерно полтора часа.
Подробный гайд по процессу автор тулкита обещает выпустить в ближайшие дни.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4⚡3✍1🔥1
🕷 Puppeteer Web Scraper для n8n
Собрал себе кодовый блок для n8n для работы с веб страницами.
Использует headless-режим Puppeteer для полноценного рендера страниц, включая JavaScript-контент.
Что делает
Нода загружает указанный URL и извлекает:
🖼 Screenshot — скриншот страницы 1920x1080 в формате PNG
📝 Full Text — весь видимый текст страницы через Selection API (как Ctrl+A → Copy)
🧱 HTML Content — полный HTML-код для дальнейшего парсинга
📄 Paragraphs — текст из всех <p> тегов отдельно
🔤 Headings — все заголовки h1-h6 с указанием уровня
🔗 Links — все ссылки с текстом, URL и флагом внешняя/внутренняя
🏷 Meta — title, description, keywords, Open Graph теги
📊 Structured Data — JSON-LD разметка Schema.org
📈 Stats — количество слов, ссылок, размер HTML, язык страницы
🎯 Применение
🔍 SEO-аудит — анализ meta-тегов, заголовков, структуры сайта
👁 Мониторинг контента — отслеживание изменений на сайтах
🗃 Сбор данных — парсинг каталогов, новостей, цен
💾 Архивация — сохранение скриншотов и контента страниц
🤖 AI-обработка — подготовка текста для LLM и NLP моделей
⚡️ Особенности
✅ Рендерит JavaScript — работает с SPA и динамическим контентом
✅ Обходит простую защиту от ботов через кастомный User-Agent
✅ Блокирует тяжёлые ресурсы (картинки, шрифты) для ускорения загрузки
✅ Обработка ошибок — не падает на недоступных URL
✅ Готовый binary-output для скриншотов в n8n
для запуска не забываем установить puppeteer, chomium и добавить все это богатство в n8n (у меня в pm2):
сам JSON для n8n в комментарии
про n8n-nodes-puppeteer в курсе.
хотелось сделать что-то своё с контролем кода в ноде.
#n8n #puppeteer
———
@tsingular
Собрал себе кодовый блок для n8n для работы с веб страницами.
Использует headless-режим Puppeteer для полноценного рендера страниц, включая JavaScript-контент.
Что делает
Нода загружает указанный URL и извлекает:
🖼 Screenshot — скриншот страницы 1920x1080 в формате PNG
📝 Full Text — весь видимый текст страницы через Selection API (как Ctrl+A → Copy)
🧱 HTML Content — полный HTML-код для дальнейшего парсинга
📄 Paragraphs — текст из всех <p> тегов отдельно
🔤 Headings — все заголовки h1-h6 с указанием уровня
🔗 Links — все ссылки с текстом, URL и флагом внешняя/внутренняя
🏷 Meta — title, description, keywords, Open Graph теги
📊 Structured Data — JSON-LD разметка Schema.org
📈 Stats — количество слов, ссылок, размер HTML, язык страницы
🎯 Применение
🔍 SEO-аудит — анализ meta-тегов, заголовков, структуры сайта
👁 Мониторинг контента — отслеживание изменений на сайтах
🗃 Сбор данных — парсинг каталогов, новостей, цен
💾 Архивация — сохранение скриншотов и контента страниц
🤖 AI-обработка — подготовка текста для LLM и NLP моделей
⚡️ Особенности
✅ Рендерит JavaScript — работает с SPA и динамическим контентом
✅ Обходит простую защиту от ботов через кастомный User-Agent
✅ Блокирует тяжёлые ресурсы (картинки, шрифты) для ускорения загрузки
✅ Обработка ошибок — не падает на недоступных URL
✅ Готовый binary-output для скриншотов в n8n
для запуска не забываем установить puppeteer, chomium и добавить все это богатство в n8n (у меня в pm2):
# 1. Устанавливаем Puppeteer глобально
npm -g i puppeteer
# 2. Устанавливаем зависимости Chrome
sudo apt update
sudo apt install -y ca-certificates fonts-liberation libasound2t64 libatk-bridge2.0-0 libatk1.0-0 libcairo2 libcups2 libdbus-1-3 libexpat1 libfontconfig1 libgbm1 libgcc1 libglib2.0-0 libgtk-3-0 libnspr4 libnss3 libpango-1.0-0 libpangocairo-1.0-0 libstdc++6 libx11-6 libx11-xcb1 libxcb1 libxcomposite1 libxcursor1 libxdamage1 libxext6 libxfixes3 libxi6 libxrandr2 libxrender1 libxtst6 lsb-release wget xdg-utils
# 3. Фикс для Ubuntu 23.10+ (AppArmor sandbox issue)
sudo sysctl -w kernel.apparmor_restrict_unprivileged_userns=0
echo 'kernel.apparmor_restrict_unprivileged_userns=0' | sudo tee /etc/sysctl.d/60-apparmor-namespace.conf
# 4. Перезапускаем n8n с разрешением внешних модулей
NODE_FUNCTION_ALLOW_EXTERNAL=axios,puppeteer pm2 restart n8n --update-env
сам JSON для n8n в комментарии
про n8n-nodes-puppeteer в курсе.
хотелось сделать что-то своё с контролем кода в ноде.
#n8n #puppeteer
———
@tsingular
3⚡9❤5🔥5❤🔥1🙏1
Часто народ просит объяснить базовые вещи, показать какие то простые примеры.
В связи с этим, запускаю новую рубрику "Промпт дня"
Раз в сутки буду давать пример запроса на случайную тему.
Напишите в комментариях если есть идеи и предложения как улучшить, может быть какие-то темы, которые более интересны.
💡 Преврати сложный технический документ по кибербезопасности в понятный маршрут действий, не оглядываясь на чужие стандарты
📋 ПРОМПТ ДНЯ:
⚙️ ПРИЁМ:
Минимальный эксперимент — ты получаешь не теоретический план, а проверяемый маршрут с конкретными точками контроля, который можно запустить сегодня и скорректировать завтра на основе реальных данных
#промпты #кибербезопасность
------
@tsingular
В связи с этим, запускаю новую рубрику "Промпт дня"
Раз в сутки буду давать пример запроса на случайную тему.
Напишите в комментариях если есть идеи и предложения как улучшить, может быть какие-то темы, которые более интересны.
💡 Преврати сложный технический документ по кибербезопасности в понятный маршрут действий, не оглядываясь на чужие стандарты
📋 ПРОМПТ ДНЯ:
Роль: Ты — эксперт по кибербезопасности с опытом адаптации сложных технических требований для практического внедрения в компаниях разного масштаба.
Ситуация: У меня есть объёмный технический документ по кибербезопасности (стандарты, политики или аудит). Мне нужно превратить его в простую систему действий для моей команды. Проблема в том, что я постоянно сравниваю наш подход с тем, что делают другие компании, и это парализует — кажется, что все делают лучше или правильнее. Мне нужна ясность здесь и сейчас.
Задача: Проанализируй текст и создай пошаговый маршрут внедрения, моделируя возможные сценарии применения именно в моём контексте. Не предлагай «лучшие практики индустрии» — сфокусируйся на том, что реально работает прямо сейчас.
Формат ответа:
— Маршрут из 3-5 последовательных этапов с чёткими точками принятия решений
— Для каждого этапа: что делать, какой результат ожидать, когда переходить к следующему
— Временные рамки для немедленного старта (ближайшие 1-4 недели)
— Критерии успеха без оглядки на внешние бенчмарки
Ограничения:
— Никаких ссылок на «как делают в Google/Microsoft/etc»
— Фокус на минимально жизнеспособном решении, а не на идеальной архитектуре
— Конкретные действия вместо абстрактных рекомендаций
Сначала задай мне 3 уточняющих вопроса о размере команды, текущем уровне зрелости процессов и главном риске, который беспокоит прямо сейчас.
⚙️ ПРИЁМ:
Минимальный эксперимент — ты получаешь не теоретический план, а проверяемый маршрут с конкретными точками контроля, который можно запустить сегодня и скорректировать завтра на основе реальных данных
#промпты #кибербезопасность
------
@tsingular
👍35✍12⚡4🔥4❤2🆒1
Не долго музыка играла.
Разрабы нашли в коде OpenAI под андроид следы будущих интеграций с рекламными сервисами.
Похоже в следующем году ИИшечка начнёт проталкивать нативку прямо в чате.
а говорили, - некоммерческая организация, ага :)
#AiAds #OpenAI #реклама
———
@tsingular
Разрабы нашли в коде OpenAI под андроид следы будущих интеграций с рекламными сервисами.
Похоже в следующем году ИИшечка начнёт проталкивать нативку прямо в чате.
а говорили, - некоммерческая организация, ага :)
#AiAds #OpenAI #реклама
———
@tsingular
😁26💯12🤔6🫡2 2
когда закончились бесплатные запросы на tavily, а до конца месяца 7 часов.
#юмор #tavily
———
@tsingular
#юмор #tavily
———
@tsingular
😁22😢1💯1
Forwarded from Denis Sexy IT 🤖
В очередной раз в ютубе увидел видео в стиле «ЧатГПТ отупляет», где по факту все свелось к тому, что «Сделанная работа за тебя отупляет», а не сам ЧатГПТ и решил проверить а сколько нужно вникнуть в материал чтобы он остался в голове хоть в каком-то виде после прочтения – мне кажется это новая проблема в мире АИ ассистентов, особенно, если представить что в следующем году LLM будут еще меньше ошибаться при работе, чем сейчас
5.1 Pro говорит, что нужно заложить в 3 раза больше времени на работу с уже написанной задачей, чем обычное время на прочтение этого же текста – сюда входит: переформулирование, уточнение вопросов, проверка источников, воспоминание материала, интервальные подходы к задаче и тп.
Выглядит так, что многие люди правда хорошо учились в школе или университете, и не списывали, и удивляются что некоторые вещи написанные АИ в голове не остаются – сюрприз, списывальщики так живут и те кто по умнее учат, что списали
Понятно что нейро-хирургом за х3 времени от одного ответа не станешь, но ответ хоть запомнишь, в этом же смысл
Тут целиком ее рассуждения
5.1 Pro говорит, что нужно заложить в 3 раза больше времени на работу с уже написанной задачей, чем обычное время на прочтение этого же текста – сюда входит: переформулирование, уточнение вопросов, проверка источников, воспоминание материала, интервальные подходы к задаче и тп.
Выглядит так, что многие люди правда хорошо учились в школе или университете, и не списывали, и удивляются что некоторые вещи написанные АИ в голове не остаются – сюрприз, списывальщики так живут и те кто по умнее учат, что списали
Понятно что нейро-хирургом за х3 времени от одного ответа не станешь, но ответ хоть запомнишь, в этом же смысл
Тут целиком ее рассуждения
1🔥7✍2🤩2🤝1
Хуанг требует автоматизировать всю разработку
Дженсен Хуанг на общем собрании Nvidia прямым текстом сказал: каждую задачу, которую можно автоматизировать через ИИ — надо автоматизировать.
Когда выяснилось, что менеджеры отговаривают инженеров от чрезмерного использования ИИ-инструментов, он спросил: «Вы что, с ума сошли?»
Теперь все в компании должны использовать Cursor и другие ИИ-ассистенты для кода.
Переходим от вайб-кодинга к вайб-менеджменту :)
#Nvidia #Cursor #vibecoding
———
@tsingular
Дженсен Хуанг на общем собрании Nvidia прямым текстом сказал: каждую задачу, которую можно автоматизировать через ИИ — надо автоматизировать.
Когда выяснилось, что менеджеры отговаривают инженеров от чрезмерного использования ИИ-инструментов, он спросил: «Вы что, с ума сошли?»
Теперь все в компании должны использовать Cursor и другие ИИ-ассистенты для кода.
Переходим от вайб-кодинга к вайб-менеджменту :)
#Nvidia #Cursor #vibecoding
———
@tsingular
💯12😁9🗿5
Forwarded from Denis Sexy IT 🤖
Принес еще один клевый промпт для новой наны бананы – он полезен тем кто хотел бы чуть глубже окунуться в свои же генерации (потому что прикольно) или для тех кто работает с видео – на вход даете картинку, промпт и получаете 9 кино-ракурсов из вашей картинки; если какой-то понравился, можно написать название ракурса и попросить вернуть только его в большом разрешении; а потом передаете в какую-то видео нейронку как первый и последний кадр и готово, вы тарковский от мира АИ-слопа; ну или просто вдохновились и пошли снимать такое-же в реальном мире
Промпт длинный:
Промпт длинный:
Analyze the entire composition of the input image. Identify ALL key subjects present (whether it's a single person, a group/couple, a vehicle, or a specific object) and their spatial relationship/interaction.
Generate a cohesive 3x3 grid "Cinematic Contact Sheet" featuring 9 distinct camera shots of exactly these subjects in the same environment.
You must adapt the standard cinematic shot types to fit the content (e.g., if a group, keep the group together; if an object, frame the whole object):
Row 1 (Establishing Context):
Extreme Long Shot (ELS): The subject(s) are seen small within the vast environment.
Long Shot (LS): The complete subject(s) or group is visible from top to bottom (head to toe / wheels to roof).
Medium Long Shot (American/3-4): Framed from knees up (for people) or a 3/4 view (for objects).
Row 2 (The Core Coverage): 4. Medium Shot (MS): Framed from the waist up (or the central core of the object). Focus on interaction/action. 5. Medium Close-Up (MCU): Framed from chest up. Intimate framing of the main subject(s). 6. Close-Up (CU): Tight framing on the face(s) or the "front" of the object.
Row 3 (Details & Angles): 7. Extreme Close-Up (ECU): Macro detail focusing intensely on a key feature (eyes, hands, logo, texture). 8. Low Angle Shot (Norm's Eye): Looking up at the subject(s) from the ground (imposing/heroic). 9. High Angle Shot (Bird's Eye): Looking down on the subject(s) from above.
Ensure strict consistency: The same people/objects, same clothes, and same lighting across all 9 panels. The depth of field should shift realistically (bokeh in close-ups). </Instruction>
A professional 3x3 cinematic storyboard grid containing 9 panels.
The grid showcases the specific subjects/scene from the input image in a comprehensive range of focal lengths.
Top Row: Wide environmental shot, full view, 3/4 cut. Middle Row: Waist-up view, chest-up view, Face/Front close-up. Bottom Row: Macro detail, Low Angle, High Angle.
All frames feature photorealistic textures, consistent cinematic color grading, and correct framing for the specific number of subjects or objects analyzed.
🔥18✍4❤3🫡1