Технозаметки Малышева
8.48K subscribers
3.78K photos
1.41K videos
40 files
3.96K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Docker Model Runner: AI прямо на вашем компьютере

Docker запустил Model Runner — инструмент для локального запуска и тестирования AI-моделей в привычной среде разработки.

Новинка решает типичные проблемы: фрагментированность инструментария, сложности с железом и настройкой локальных LLM.

Система интегрируется в Docker Desktop, обеспечивает ускорение GPU на Apple Silicon и предлагает стандартизированный подход к распространению моделей через OCI Artifacts.

Ключевые партнёры проекта: Google, HuggingFace, Continue, Dagger, Qualcomm, Spring AI и VMware Tanzu.

В будущем планируются: поддержка Windows с GPU-ускорением, возможность публикации своих моделей и улучшенная интеграция в процессы разработки.

Если в вашем продукте нет поддержки ИИ, - он не интересен рынку.
Ждем добавление MCP сервера от Docker, чтобы модели сами могли контейнеры поднимать и управлять ими.

#Docker #ModelRunner
———
@tsingular
🔥9👍1
Основатель Nate обвинен в мошенничестве: продавал человеческий труд под видом AI

Альберт Санигер, создатель финтех-стартапа Nate, привлек более $50 миллионов инвестиций, обещая революционное AI-решение для одноклицкового оформления онлайн-покупок.

Вместо заявленных алгоритмов заказы обрабатывали сотни сотрудников на Филиппинах, пока Санигер убеждал инвесторов в полной автоматизации процесса.

Уровень компьютеризации транзакций составлял фактически 0% вопреки утверждениям о функционировании «без вмешательства человека».

Расследование The Information еще в 2022 году выявило массовую эксплуатацию ручного труда в компании.

После исчерпания финансирования Nate продала активы в январе 2023 года, а вкладчики понесли почти полные убытки.

Подобные схемы маскировки людей под интеллектуальные системы наблюдались также в ресторанной автоматизации и юридическом стартапе EvenUp.

Никогда такого не было и вот опять!

#Nate #Fraud #Fintech
------
@tsingular
😁16👏5👍1
Forwarded from эйай ньюз
🔥🔥🔥 Бесплатно VEO 2 - бесплатно для всех!

Звучит как скам, но нет) Гугл внезапно расщедрился и дал доступ всем желающим. Правда, без подвоха не обошлось - бесплатный доступ к СОТА-видеомодельке можно получить только через Google Cloud, а для этого нужно подключить билинг к своему гугл-аккаунту, и не с российской карты. А потом еще и не потеряться на платформе, которая вообще предназначена для разработчиков, а не для бедных AI-художников. (Хотя после FreePik вам должно быть уже ничто не страшно).

Вот вам гайд:

1. Способ для тех, кому не терпится:

1) Переходим на console.cloud.google.com/freetrial/ в окошке Country ставим United States, т. к. туда раньше всех приходят обновления. Видим, что нам предлагают $300 на 90 дней (тем, кто имел дело с google cloud это уже известно). Учитывая, что 1 секунда VEO-2 стоит ~$0.5, этого хватит на 600 секунд генераций. Из приятного, то, что Гугл никого с этой подпиской скамить не собирается, на этой же странице написано:
No automatic charges
You only start paying if you decide to activate a full, pay-as-you-go account or choose to prepay. You’ll keep any remaining free credit.


2) Создаем Payment profile:

Вставляем любой адрес отсюда: bestrandoms.com/random-address Можно выбрать Аляску, чтобы потом при оплате (ну а вдруг понравится) не платить налог.
Остальное заполняем на свое усмотрение.

3) Payment method:
А вот здесь сложности. Я пробовал сгенерить таким же образом карту, но этот вариант здесь не прокатит. Нужна любая валидная карта, которую вы обычно используете для оплаты подписок. Опять же, Гугл обещает не чарджить токены автоматически без вашего разрешения, но цепляйте карты на свой страх и риск.

Переходим в Vertex AI Studio —> Media Studio и генерим!

Еще не у всех есть доступ к img2video, чтобы ускорить процесс и запросить дополнительные фичи, можно заполнить форму.

2-й способ для тех, кто готов подождать.

Для всех остальных есть aistudio, где сейчас тоже тихонько раскатывают доступ и сразу с img2video. У меня на одном из 5-ти аккаунтов он уже появился и без всяких форм для вейтлистов.

P.S. Оба способа сейчас очень ограничены в плане запросов. Гугл молодцы и хорошо расходуют компьют, дают каждому закинуть 1-2 запроса раза в пару минут, причем генерится довольно шустро - секунд 40-60, а не как в Kling 3 часа.

Подробнее про VEO и Google Cloud

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍1
Forwarded from RoboFuture
🚧 AI агент с MCP открыл шлагбаум у меня во дворе! 😱

>> видео на youtube <<

Давно хотел показать свои эксперименты с MCP и агентами, и в итоге записал небольшой обзор, в котором:

- Рассказываю, зачем нужен MCP
- Показываю агентов, которые умеют пользоваться MCP (и реально пытаются открыть шлагбаум у меня во вдоре)
- Запускаю такого агента на гигачате, подключу к нему разные MCP-сервера
- Показываю код такого агента на LangChain.
- Показываю процесс создания собственного MCP сервера
- Залезаю внутрь протокола и посмотрим, какие запросы уходят в LLM

Ссылки:
- Оригинальный клиент mcp-client-cli (не работает с GigaChat)
- Версия консольного агента с поддержкой GigaChat (требует установки из исходников)
- Repl-агент с MCP на LangGraph
- Пример из кукбука с агентом и сервером на LangChain (GitHub, GitVerse)
🔥7422
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Беспроводные протезы руки
<---вы тут--->
👀107👾4👻3❤‍🔥1
12 апреля, - Юрьев день.
В этот день любой землянин может улететь на другую планету и никто не в праве ему это запретить.

#юмор
———
@tsingular
🎉312
🤖 InternVL 3 — новый мощный мульти-модальный ИИ от OpenGVLab!

Доступны размеры 1B / 2B / 8B / 9B / 14B / 28B / 38B

📌 Что нового:
- Улучшено восприятие и логика по сравнению с InternVL 2.5
- Нативное мультимодальное обучение улучшает язык
- Построен на InternViT encoder + Qwen2.5VL decoder
- Улучшает даже Qwen2.5VL

🧠 Что умеет:
- Рассуждение в мультимодальном виде
- Работа с документами
- Поддержка ИИ агентов

🔓 MIT License

🔗 Подробнее
3
This media is not supported in your browser
VIEW IN TELEGRAM
Поздравляю дамы и господа, - AGI 94%

а повлияло на это обновление домашнего робота 1х NEO

Так когда AGI, - к новому году или уже к лету готовиться?

#AGI #roobots
———
@tsingular
🔥7👀4🤔22💯1
This media is not supported in your browser
VIEW IN TELEGRAM
Едем на Подмосковные вечера - весна.

Обсудим прошлое, будущее и агентские ИИ системы

#4CIO #PV2025
------
@tsingular
👍1815🔥8🤔1
ПВ2025 Рассекреченные агенты2.pdf
2.9 MB
Презентация с сессии про агентов.

#4CIO #агенты
------
@tsingular
215👍1242🙏1
Для некоторых типов работников внедрение ИИ агентов (+голосовых) сделает ненужными офисные приложения и лицензии для офиса, соответственно.

#заметки #мысли #офис
------
@tsingular
11🤔9👨‍💻2❤‍🔥1
OpenAI вводит паспортный контроль для доступа к передовым моделям

Компания начинает процесс Verified Organization, требующий правительственного удостоверения личности для использования будущих передовых моделей.
Один документ может верифицировать только одну структуру каждые 90 дней, при этом не все заявители получат одобрение.

Сайт OpenAI

Верификация также может помочь предотвратить кражу интеллектуальной собственности, особенно связанную с группами вроде DeepSeek из Китая.
Летом 2024 компания уже заблокировала доступ к своим сервисам в Поднебесной.

Паспорт для входа в интернет? А ведь когда-то это казалось шуткой...

#OpenAI #verification #security
-------
@tsingular
😭9🤔4👀3👻1
Forwarded from Machinelearning
🌟 NVIDIA добавила нативную поддержку Python в CUDA.

Python уже несколько лет уверенно лидирует среди языков программирования, а теперь стал ещё ближе к железу. На GTC 2025 NVIDIA объявила о полноценной интеграции Python в свой CUDA-стек.

Это значит, что писать код для GPU можно будет напрямую на Python — без погружения в C++ или Fortran. Как подчеркнул Стивен Джонс, архитектор CUDA, цель — сделать инструмент естественным для Python-разработчиков: «Это не перевод синтаксиса C на Python. Все должно работать так, как привыкли разработчики».

Раньше CUDA требовала глубокого понимания низкоуровневых языков и это здорово ограничивало аудиторию. Сейчас, когда Python стал стандартом в ML и DS, NVIDIA открывает двери для миллионов программистов. По данным The Futurum Group, в 2023 году CUDA использовали 4 миллиона человек — теперь их число может резко вырасти.

Техническая часть такая же обширная, как и ожидания этого события профессиональным сообществом.

🟢Во-первых, появилась библиотека cuPyNumeric — аналог NumPy, который переносит вычисления с CPU на GPU буквально заменой импорта.

🟢Во-вторых, CUDA Core переосмыслен для Python: здесь сделан упор на JIT-компиляцию и минимизацию зависимостей.

🟢В-третьих, добавлены инструменты для профилирования и анализа кода, а ускоренные C++-библиотеки теперь доступны из Python без потерь в производительности.

Но главное — новый подход к параллельным вычислениям. Вместо ручного управления потоками, как в C++, NVIDIA предлагает модель CuTile, которая оперирует массивами, а не отдельными элементами. Это упрощает отладку и делает код читаемым, не жертвуя скоростью. По сути, разработчики получают высокоуровневую абстракцию, скрывающую сложности железа, но сохраняющую гибкость.

Пока CuTile доступен только для Python, но в планах — расширение для C++. Это часть стратегии NVIDIA по поддержке новых языков: Rust и Julia уже на походе.

Python-сообщество уже может экспериментировать — например, интегрировать CUDA-ядра в PyTorch или вызывать привычные библиотеки. Теперь даже те, кто никогда не писал на C++, смогут использовать всю мощь GPU — осталось проверить, как это скажется на скорости создания прекрасных LLM светлого будущего.

🔜 Посмотреть полную презентацию на GTC 2025


@ai_machinelearning_big_data

#AI #ML #Python #CUDA #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍3🆒1