This media is not supported in your browser
VIEW IN TELEGRAM
ну че вы, соскучились по сериалу «Голивудские пацаны на районе Москвы»???
Так вот, держите😁 Интересно, кто автор???✍️
Так вот, держите
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤9❤🔥5🔥2🍓1
This media is not supported in your browser
VIEW IN TELEGRAM
Илон Маск, ты пиздец тролль оказывается с 80lvl…
Красава мужик, нейронку нормально обучил👍
Красава мужик, нейронку нормально обучил
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣21🔥3❤2
This media is not supported in your browser
VIEW IN TELEGRAM
Голивудские уже на Кавказе побывали…
Чисто здравый тур оформили от Краснодарского края до Дагестана😁
Чисто здравый тур оформили от Краснодарского края до Дагестана
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣4❤🔥2❤1
Forwarded from Ai Filmmaker (Dmitriy Alekseev)
Media is too big
VIEW IN TELEGRAM
Luma AI Ray2 — новые пресеты управления камерой
Буквально на днях Luma AI выкатили апдейт управления камерой, и это очень круто! Пока что из всех image-to-video генераторов, до которых я успел дотянуться, Ray2 — мой фаворит. Несмотря на короткие фазы, это действительно живые и динамичные кадры с приемлемым качеством (которое во многом зависит от исходной генерации в Midjourney).
Теперь есть целых 25 кинематографичных пресетов движения камеры. В том числе — ручная камера, которая очень часто скрывает артефакты и добавляет эффект «несовершенства жизни», делая кадры весьма убедительными. Но самая важная вещь для хоррора - это настоящая рабочая в большинстве случаев статичная камера! Кто работает с Люмой тот поймет ;)
Решил не просто их протестировать, а сделать римейк визуала своего старого text-to-video концепт-трейлера Acolyta, который был одним из первых в мире еще на этапе бета-теста Runway Gen2 в 2023.
Трекинг прогресса налицо! Теперь мои концепт трейлеры для кинокомпаний выглядят еще кинематографичнее!
Ai Filmmaker подписаться.
Буквально на днях Luma AI выкатили апдейт управления камерой, и это очень круто! Пока что из всех image-to-video генераторов, до которых я успел дотянуться, Ray2 — мой фаворит. Несмотря на короткие фазы, это действительно живые и динамичные кадры с приемлемым качеством (которое во многом зависит от исходной генерации в Midjourney).
Теперь есть целых 25 кинематографичных пресетов движения камеры. В том числе — ручная камера, которая очень часто скрывает артефакты и добавляет эффект «несовершенства жизни», делая кадры весьма убедительными. Но самая важная вещь для хоррора - это настоящая рабочая в большинстве случаев статичная камера! Кто работает с Люмой тот поймет ;)
Решил не просто их протестировать, а сделать римейк визуала своего старого text-to-video концепт-трейлера Acolyta, который был одним из первых в мире еще на этапе бета-теста Runway Gen2 в 2023.
Трекинг прогресса налицо! Теперь мои концепт трейлеры для кинокомпаний выглядят еще кинематографичнее!
Ai Filmmaker подписаться.
🔥8❤🔥3❤2
LLaMa 4 — Цукерберг выкатил зверя против GPT и Claude
В семействе три зверя😎 :
— Behemoth: 2 трлн параметров. Не в опенсорсе, использовалась как «учитель». Королевский мозг, пока только для внутренних.
— Scout: 17B активных / 109B всего. Та самая с 10M токенов контекста. Огромная память, но соображает не так быстро.
— Maverick: 17B / 400B. Контекст «всего» миллион токенов, зато производительность — топовая. На сегодня — лучшее, что Meta отдала в народ.😉
Скачать и протестировать можно тут:
llama.com/llama-downloads
Meta зарелизила LLaMa 4, и по первым данным — это серьёзная заявка на трон. Модель уделывает GPT-4.5 и Claude 3.7 в тестах, а главное — держит до 10 миллионов токенов контекста.😳
В семействе три зверя
— Behemoth: 2 трлн параметров. Не в опенсорсе, использовалась как «учитель». Королевский мозг, пока только для внутренних.
— Scout: 17B активных / 109B всего. Та самая с 10M токенов контекста. Огромная память, но соображает не так быстро.
— Maverick: 17B / 400B. Контекст «всего» миллион токенов, зато производительность — топовая. На сегодня — лучшее, что Meta отдала в народ.
Скачать и протестировать можно тут:
llama.com/llama-downloads
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤🔥3❤3
Forwarded from × ɢᴀᴊɪʙᴇᴋᴏᴠ × (ɴᴏᴠᴀᴋ)
👍 Нашли способ, который сэкономит вам часы на создании товарных описаний — всё делается через нейросеть👍
— Придумываем концепт: преимущества товара, заголовок, стиль подачи
— Загружаем фото товара в ChatGPT
— Пишем основной промт
— Для точности — добавляем второе изображение в качестве референса и пишем доп. промт#News #Ai
Оба промта в комментариях:
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9⚡2❤2
Люди, вы внатуре чуть газ дайте на улицу, пообщайтесь в живую. Это то, чего нам в настоящее время не хватает на самом деле... А не вот это вот, с какой-то машиной 24/7 общаться. Так и кукухой съехать можно
Ладно если по приколу там, но я видел как некоторые на полном серьезе заменяют реальное общение на машинное… Шок
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯6🗿2🌭1
Forwarded from Data Secrets
Российский ответ ChatGPT: A-Vibe от Авито превзошла западные аналоги
Российская языковая модель A-Vibe от Авито стала лучшей среди легких нейросетей (до 10 млрд параметров) по результатам тестирования в российском независимом бенчмарке MERA. Отечественная разработка превзошла продукты OpenAI, Google и Anthropic в тестировании с задачами различной сложности.
На начальном этапе A-Vibe обучали с помощью открытой модели, у которой были ограничения в работе с русским языком (на него приходился всего 1% от общего объема данных). Разработчики пофиксили эту проблему, создав собственный токенизатор, умеющий работать с русским языком: в результате модель стала обрабатывать текст в 2 раза быстрее и нарастила качество генерации и понимания материала.
Результаты впечатляют:
1. В задачах генерации кода превзошла Gemini 1.5 на 25%
2. В диалоговых сценариях модель оказалась на 32% точнее Llama 3.1
3. При анализе текста A-Vibe показала на 23% лучший результат, чем Claude 3.5 Haiku
A-Vibe уже работает в сервисах Авито — например, помогает продавцам писать завлекающие описания. До конца года компания планирует добавить ИИ 20 новых сценариев, а в будущем может открыть код модели для всех.
Анастасия Рысьмятова, руководитель разработки больших языковых моделей Авито, заявила: «Мы рассматриваем возможность открытого релиза A-Vibe, что станет значимым вкладом в развитие российского ИИ-рынка». Это позволит малым бизнесам и разработчикам использовать передовые технологии без необходимости огромных инвестиций в инфраструктуру.
Российская языковая модель A-Vibe от Авито стала лучшей среди легких нейросетей (до 10 млрд параметров) по результатам тестирования в российском независимом бенчмарке MERA. Отечественная разработка превзошла продукты OpenAI, Google и Anthropic в тестировании с задачами различной сложности.
На начальном этапе A-Vibe обучали с помощью открытой модели, у которой были ограничения в работе с русским языком (на него приходился всего 1% от общего объема данных). Разработчики пофиксили эту проблему, создав собственный токенизатор, умеющий работать с русским языком: в результате модель стала обрабатывать текст в 2 раза быстрее и нарастила качество генерации и понимания материала.
Результаты впечатляют:
1. В задачах генерации кода превзошла Gemini 1.5 на 25%
2. В диалоговых сценариях модель оказалась на 32% точнее Llama 3.1
3. При анализе текста A-Vibe показала на 23% лучший результат, чем Claude 3.5 Haiku
A-Vibe уже работает в сервисах Авито — например, помогает продавцам писать завлекающие описания. До конца года компания планирует добавить ИИ 20 новых сценариев, а в будущем может открыть код модели для всех.
Анастасия Рысьмятова, руководитель разработки больших языковых моделей Авито, заявила: «Мы рассматриваем возможность открытого релиза A-Vibe, что станет значимым вкладом в развитие российского ИИ-рынка». Это позволит малым бизнесам и разработчикам использовать передовые технологии без необходимости огромных инвестиций в инфраструктуру.
🔥7🤔3❤🔥1❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Озвучка, клонирование голоса, транскрибация, генерация звуков — всё работает в Claude, Cursor, Windsurf и других MCP-клиентах.
Хотите встроить себе? Для этого идем в настройки агента (в Claude: Settings > Developer > Edit Config > claude_desktop_config.json) и добавляем:
"mcpServers": {
"ElevenLabs": {
"command": "uvx",
"args": ["elevenlabs-mcp"],
"env": {
"ELEVENLABS_API_KEY": "<сюда ключ>"
}
}
}Please open Telegram to view this post
VIEW IN TELEGRAM
❤3🔥3❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Нашёл вам зверя.
Что делает:
– Разбирает любые таблички. Даже те, в которых ты сам уже заблудился.
– Моментально находит косяки, пробелы, странные цифры.
– Делает ресёрч, как будто ты отвалил кучу бабла за консультацию.
– Генерит код для презентаций, чтобы ты не тупил над слайдами.
Работает быстро, чётко иБЕСПЛАТНО 💐 . На русском. Без танцев с бубном. Забирай 👉 тут
Powerdrill - это не просто аналитик, это ИИ, который жрёт таблицы на завтрак и выдаёт аналитику, от которой у тебя глаза полезут.
Что делает:
– Разбирает любые таблички. Даже те, в которых ты сам уже заблудился.
– Моментально находит косяки, пробелы, странные цифры.
– Делает ресёрч, как будто ты отвалил кучу бабла за консультацию.
– Генерит код для презентаций, чтобы ты не тупил над слайдами.
Работает быстро, чётко и
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥5❤🔥2
Читаю новости и понять не могу???
LLAMA 4 все таки норм или не норм… Все ее то хуясосят, то восхваляют. Определитесь да уже🫠
LLAMA 4 все таки норм или не норм… Все ее то хуясосят, то восхваляют. Определитесь да уже
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Фото и дзэн
3 дня назад вышло новое расширение для Forge UI AI позволяющее полностью использовать ControlNET и Redux для Flux-1-dev. Ранее возможность их использования в Forge была существенно ограниченна😢. Теперь же можно использовать Flux в Forge AI так же как и ComfyUI или InvokeAI - это очень радует🧐😉🤩 Вот ссылка на расширение: https://github.com/AcademiaSD/sd-forge-fluxtools-v2 P.S. На данный момент я проверил запуск этого расширения с моделями GGUF FP16 - не запускается, рекомендованный safetensors, разумеется, работает, но я думаю протестировать работу на квантованных GGUF FP8 так как они весят гораздо меньше safetensors #AI #локальное_AI