Технозаметки Малышева
8.27K subscribers
3.74K photos
1.4K videos
40 files
3.92K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Forwarded from PIMENOV.RU
Знакомьтесь, Ло Фули.

• покидает Alibaba, чтобы присоединиться к DeepSeek🐳
• Конкурирующая AI-лаборатория предлагает ей $10 миллионов
• отказывается и строит AGI за половину стоимости
• открытый код превыше всего

🗣@pimenov_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥28👀7
Лян Вэньфэн: от математического гения до создателя AI-революции

За последние 10 лет Лян Вэньфэн превратился из талантливого математика в одного из ключевых игроков мировой индустрии искусственного интеллекта. Его путь — это история упорства, инноваций и веры в силу технологий.

Биография: от финансов к AI
2015 год: Основал хедж-фонд High-Flyer, который стал первым в Китае квантовым фондом, использующим ИИ для анализа рынка. За 8 лет компания привлекла более 100 млрд юаней и заработала состояние на алгоритмической торговле (HFT).

2021–2022: Начал скупать чипы Nvidia A100, создав кластер из 10 000 GPU для обучения моделей ИИ, несмотря на экспортные ограничения США.
(по слухам там, на самом деле 50тыс карт, но пока не подтверждено)

2023 год: Основал DeepSeek, переключив ресурсы High-Flyer на разработку AI. Его цель — достичь общего искусственного интеллекта (AGI), а не коммерческой выгоды.

Достижения DeepSeek
DeepSeek-V3: Модель, обученная на 1/11 вычислительных ресурсов Llama 3, но превзошедшая её в задачах программирования и обработки текста. Стоимость разработки — 5.6 млн против 78 млн у GPT-4.

DeepSeek-R1: Чат-бот с открытым исходным кодом, который конкурирует с OpenAI o1, но в 20–50 раз дешевле.
Приложение стало самым скачиваемым в мире, обогнав ChatGPT.

Экономический эффект: Успех DeepSeek вызвал падение акций Nvidia на 17% и пересмотр подходов к ИИ-разработкам в США и ЕС.

Интересные факты
«Ботан с плохой стрижкой»: Коллеги описывают Ляна как одержимого идеями человека, который спал в офисе и не мог четко сформулировать своё видение, кроме фразы: «Это изменит правила игры».

Патриотизм и открытость: В отличие от западных компаний, DeepSeek открывает исходный код, чтобы «демократизировать ИИ». Это решение принесло ему аудиенцию у премьер-министра Китая Ли Цяна и статус национального героя.

Команда DeepSeek: молодые гении
Лян собрал команду из выпускников Пекинского и Цинхуаского университетов, делая ставку на страсть и любопытство, а не опыт.
Например:
Гао Хуацзо и Цзэн Вандин разработали MLA — архитектуру, снизившую затраты на вычисления на 87%.

Шао Чжихун (доктор Tsinghua) создал алгоритмы для DeepSeek-Math, а Чжу Цихао (доктор Peking) — модели для обработки кода.

В компании нет иерархии: любой сотрудник может запустить проект, получив доступ к кластерам GPU без согласований.

Лян Вэньфэн доказал, что инновации рождаются не только в Кремниевой долине. Его история — вызов статус-кво и напоминание, что настоящие прорывы требуют смелости мыслить иначе. Как сказал сам Лян: «Китай не может вечно быть в роли догоняющего».

#Deepseek #ЛянВэньфэн
———
@tsingular
🔥27👍1611
HuggingFace объединяет ведущих провайдеров облачного инференса

Облачный инференс от разных провайдеров теперь можно запускать через единый интерфейс Hub.
Доступны сервисы AWS, Nvidia, SambaNova и Replicate с гибкой тарификацией.
Подключение реализовано через REST API, поддерживающий OpenAI-совместимые клиенты.
Функционал включает генерацию изображений и работу с языковыми моделями.
Зарегистрированным пользователям доступна базовая бесплатная квота.
Оплата производится напрямую провайдерам без дополнительных комиссий.

Теперь не нужно держать аккаунты у всех провайдеров - достаточно одного в HuggingFace 😎

#HuggingFace #gate #inference
-------
@tsingular
👍6🔥2🤯2
CEO Anthropic - Dario Amodei в своём блоге разобрал ситуацию с DeepSeek.

Анатомия прорыва: как устроена DeepSeek

DeepSeek реализовала свой прорыв в два этапа. Первый — модель V3, выпущенная в конце 2024 года — стал настоящей инженерной победой.
Два ключевых компонента:

Key-Value cache: инженеры DeepSeek нашли способ более эффективного управления памятью, что существенно снизило вычислительные затраты

Mixture of Experts: технология, позволяющая модели динамически выбирать оптимальный "набор экспертов" для каждой задачи, была доведена до нового уровня эффективности

Результат? Модель, обучение которой обошлось всего в $6 млн, достигла уровня производительности, сопоставимого с западными системами 7-10 месячной давности. Для сравнения: Claude 3.5 Sonnet, обученный примерно год назад, обошелся Anthropic в "несколько десятков миллионов долларов".

Железный фундамент: о чем молчат заголовки

Однако простое сравнение стоимости обучения не корректное. За кулисами DeepSeek располагает впечатляющей инфраструктурой:

50,000 чипов трех типов:
- NVIDIA H100 (топовые чипы, полученные до запрета)
- H800 (закуплены до октябрьского запрета 2023)
- H20 (все еще доступны, оптимальны для inference)

Общая стоимость этого "железного фундамента" оценивается примерно в $1 млрд — всего в 2-3 раза меньше, чем у знаменитого кластера xAI "Colossus".

Новая парадигма: от "сырой силы" к умному обучению

Второй этап — модель R1 — демонстрирует смену парадигмы в обучении LLM. Вместо простого наращивания вычислительной мощности, DeepSeek (как и другие лидеры отрасли) делает ставку на двухэтапный подход:

1. Базовое предобучение на больших данных (pre-training)
2. Специализированное обучение с подкреплением (RL) для развития навыков рассуждения

Этот подход позволяет достичь впечатляющих результатов в таких областях как:
- Решение математических задач
- Программирование
- Логические головоломки
- Chain-of-thought reasoning

Что особенно интересно, сейчас мы находимся в уникальной точке развития этой технологии: даже относительно небольшие инвестиции в RL-обучение (порядка $1 млн) дают значительный прирост производительности.

Масштаб имеет значение: законы роста

Исследования показывают четкую закономерность в развитии LLM:

- Модель за $1 млн решает около 20% ключевых задач
- За $10 млн — уже 40%
- За $100 млн — достигает 60%

При этом каждый такой шаг не просто количественный — он означает качественный скачок, сравнимый с разницей между уровнем бакалавра и PhD в конкретной области.

Что дальше: горизонт 2026-2027

Несмотря на все оптимизации и прорывы, общий тренд индустрии остается неизменным: создание по-настоящему продвинутых систем будет требовать все больших ресурсов. Эксперты прогнозируют, что к 2026-2027 годам для достижения уровня "экспертной" AI потребуется:

- Миллионы специализированных чипов
- Десятки миллиардов долларов инвестиций
- Прорывы в:
- Управлении памятью
- Сетевых подсистемах
- Распределенном обучении

При этом каждое повышение эффективности (сейчас — примерно 4x в год против 1.68x в 2020) не снижает общих затрат, а лишь позволяет создавать еще более мощные системы за те же деньги.

Настоящая цена прогресса

История DeepSeek показывает: в мире AI за каждым "чудом эффективности" стоят:
- Годы исследований
- Миллиарды долларов инвестиций в инфраструктуру
- Прорывные инженерные решения

При этом Claude 3.5 Sonnet, обученный 9-12 месяцев назад, до сих пор превосходит DeepSeek в ряде ключевых задач, особенно в разработке кода, несмотря на 10-кратное снижение стоимости inference по сравнению с GPT-4.

Рекомендую, конечно, прочитать целиком.

#Anthropic
———
@tsingular
👍20🤔4
DeepSeek взломали

Специалисты Wiz Research выявили незащищенную базу ClickHouse китайского ИИ-стартапа DeepSeek.
Обнаруженный сервер содержал миллионы записей, включая истории чатов, API-ключи и внутренние логи.
Уязвимые порты 8123 и 9000 предоставляли полный контроль над БД без аутентификации.
После оперативного уведомления компания быстро закрыла доступ к серверу.

Когда погоня за технологиями опережает базовую кибергигиену. 🔓

#DeepSeek #ClickHouse #Cybersecurity
-------
@tsingular
😢13👀5🔥2
DeepSeek R1 теперь доступна на Azure и AWS Bedrock

DeepSeek R1 интегрируется в ведущие облачные платформы и теперь доступен не только из Китая.

Модель существует в двух версиях: 8B и 70B.
Меньшая версия сохраняет до 92% функционала при значительной экономии ресурсов.

Развертывание осуществляется через serverless инфраструктуру с автомасштабированием и защитой от MS и AWS, что, по идее, не позволит повториться инциденту с уязвимостями.

Azure
AWS
и раньше писал про Groq

#DeepSeek #Microsoft #AWS
———
@tsingular
🔥7
В части взлома цензуры DeepSeek.
Простой метод так то, но сработал.


Народ с Реддита попросил рассказать о событиях, которые попадают под китайскую цензуру заменив буквы O на 0, A на 4 и Е на 3.
Для человека читабельно, для скриптов, - не особо.

К старому уже тезису, что цензурить ИИ нужно с помощью ИИ, а не скриптов.
Тут, кстати, помогут малые быстрые модели специально дообученные.

Ну и на русском отвечает спокойно про любые темы, так что "русский учите, - пригодится", а фильтры цензора у них похоже просто на англоязычных скриптах.

#jailbreak
———
@tsingular
😁114👍2
Вся лента в DeepSeek. ужас :)

#юмор
———
@tsingular
🤣23
В слайды презентаций про ИИ автоматизацию :)

А накидайте в комментах, может у вас тоже есть прикольные ?

#мемы #юмор
———
@tsingular
👍9🆒41🔥1
NVIDIA DLI: бесплатное обучение ИИ с сертификацией

Deep Learning Institute предоставил комплексный бесплатный образовательный пакет для специалистов по машинному обучению.

Программа включает практические лаборатории с профессиональными графическими ускорителями.

Участники получают сертификаты, подтверждающие освоение нейросетевых технологий.

Курсы содержат реальные проекты с актуальными наборами данных.

Особенность обучения - гибкий график и бесплатный доступ к учебным материалам от экспертов корпорации.

Для всех, кто знает английский и математику.
Я, вот, решил про RAG пройти в первую очередь. 4 часа всего.

Для работы понадобится VPN

#NVIDIA #DLI #обучение
———
@tsingular
👍8🔥41
Forwarded from эйай ньюз
Опенсорс Suno🤡🤡🤡

Наконец-то в опенсорс генераторах музыки сподвижки. Угадайте, кто? Правильно, китайцы YuE — по-русски йе! Yeah, ну или просто 乐. По звуку похоже скорее на Suno v2, но и это уже очень хорошо. Примеры в видосе и полные треки в комментариях.

К сожалению, какого-то демо не нашёл, поэтому своих тестов нет. Пейпер обещают скоро, а вот раскатить модельку у себя уже можно. Потребуется только 24 GB RAM, ну и, в теории, 4090 тоже может осилить.

Ждём, когда оптимизируют и понаделают всякие финтифлюшки, по типу звуковых IP-адаптеров и контролнетов. :)

Модели на HF
Project page
GitHub

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥3
Писатели США запускают «антиИИ» сертификацию книг

Гильдия Авторов США создала систему маркировки Human Authored для произведений, написанных людьми.

Инициатива включает публичный реестр верифицированных работ и специальную маркировку на обложках изданий.

Проект стартует для членов Гильдии с индивидуальными публикациями, позже охватит соавторства.

Допускается использование нейросетей лишь для корректуры и проверки орфографии.

Контроль основан на самодекларации с возможностью юридических последствий за фальсификацию.

Отличный повод для писателей-людей поднять цены на свои книги. Скоро появятся NFT для текстов? :)

#AuthorsGuild #HumanAuthored #BookCertification
-------
@tsingular
😁7🔥3👍2🤣1
В ChatGPT 4o завезли DeepThink :)
Сразу после утечки у DeepSeek
Просто совпало :)

#openai #deepseek
———
@tsingular
🤣64👍2
Французы проснулись.

Но, судя по бенчам, как-то не до конца.

24B, по бенчам сравнивают с Llama 3.3 и Qwen 2.5 32B.

Модель должна влезть в 3090/4090/5090, ждём reasoner тюнов. Хорошая новость - лицензия Apache, так что с моделью можно делать вообще что угодно.


https://t.me/ai_newz/3655

#Mistral
———
@tsingular
Time Bandit: Темпоральная уязвимость ChatGPT обходит защиту

Специалист по безопасности Дэвид Кушмар обнаружил критическую брешь в системе защиты ChatGPT.
Уязвимость эксплуатирует неспособность нейросети точно определять временной контекст, смешивая исторические периоды.
Манипуляция историческими данными позволяет получать доступ к закрытой информации о создании вредоносного ПО и оружия.
OpenAI подтвердила проблему, частично внедрила защитные механизмы, но полное решение пока не реализовано.
Исследователь уведомил CISA, ФБР и другие агентства через CERT Coordination Center.

В следующий раз спрашивайте ChatGPT о рецепте динамита в контексте 1866 года - года его изобретения. Хотя, нет, не спрашивайте... 🤔

#TimebanditJailbreak #OpenAI #ChatGPT
-------
@tsingular
6👨‍💻2👻1
Microsoft открыл бесплатный доступ к модели o1 в Copilot

Продвинутая функция анализа Think Deeper, ранее доступная только премиум-клиентам, стала общедоступной.

Технология, требующая около 30 секунд на обработку запроса, позволяет решать комплексные задачи, включая:
- многосторонний анализ проблем
- пошаговое планирование
- создание программного кода
- сравнительную оценку вариантов

Мустафа Сулейман, глава Microsoft AI, анонсировал обновление через LinkedIn, подчеркнув важность демократизации искусственного интеллекта.

Как DS всех подстегнул-то!

Теперь школьники смогут генерировать домашку за 30 секунд, а программисты - писать код без Stack Overflow 🎓

#Microsoft #Copilot #ThinkDeeper
-------
@tsingular
👍12🔥6❤‍🔥2
Китайско-российский алгоритм ускоряет GPU Nvidia в 800 раз

Учёные из Шенженьского технологического института (основан Пекинским совместно с МГУ) создали революционный метод оптимизации вычислений на GPU NVIDIA.

Решение оптимизирует перидинамические расчёты, сокращая время моделирования с нескольких суток до считанных минут.

Прорыв позволяет выполнять сложные инженерные симуляции на обычных потребительских видеокартах вместо специализированных суперкомпьютеров.

Технология найдёт применение в проектировании аэрокосмических аппаратов и мостостроении.

Реверс-инжиниринг творит чудеса. 🔍

Это не значит, что ты сможешь запустить сверхумную модель на калькуляторе, но маленькая, предположительно, будет летать очень быстро.

Опять же если это правда окажется, но, вроде, ещё не 1 апреля.

#Nvidia #GPU #Китай #МГУ #реверс
------
@tsingular
🔥12👍1
Forwarded from Семейка продактов (Tatiana Sushchenko)
Буквально вчера Сатья Наделла (CEO Microsoft) козырнул знаниями экономики и упомянул о Парадоксе Джевонса в отношении ИИ.

Кстати, да.

Парадокс Уильяма Джевонса сводится к тому, что когда технический прогресс увеличивает эффективность использования какого-либо ресурса, это приводит не к уменьшению, а к значительному увеличению его потребления. Удивительно это открытие тем, что было сделано в 1865 году на примере угля.

Например, энергосберегающие лампы с одной стороны экономичнее, а с другой, свет выключать совсем перестали.

Дата-центры становятся энергоэффективнее, дешевле, и облако начинают использовать так интенсивно, что энергозатраты только растут.

Согласно текущим мнениям, с ИИ ожидается ровно та же картина. Рост и Рост. Он будет становиться доступнее, и будет приводить к созданию новых рабочих мест, вместо ожидаемого сокращения.

Оптимистичненько. Будем посмотреть.

Таня, [ex-B2B 👩‍💻]
@productsgossip
12👍11😍1
Media is too big
VIEW IN TELEGRAM
🤖 N8N: Как создать своего AI-помощника для автоматизации всего и вся

Нашел крутейший туториал по n8n - платформе для автоматизации, о которой раньше как-то мало говорили. А зря! (спасибо @Dustycopter за подсказку про n8n, а то бы не известно когда взялся за него)

Автор показывает, как создать персонального AI-ассистента (у него это уже 2 версия,- улучшенная), который:
- Управляет календарем (создает встречи, отправляет приглашения)
- Работает с почтой (отправляет/читает письма)
- Ищет информацию через Wikipedia/Hacker News
- Следит за проектами
- Отправляет сообщения в Slack

Самое крутое - архитектура на основе мини-агентов! 🤯

Вместо того чтобы давать одному агенту кучу инструментов (что обычно приводит к путанице), автор создал систему специализированных агентов:
- Email-агент для работы с почтой
- Calendar-агент для календаря
- Research-агент для поиска информации
- Project-агент для управления задачами

Главный агент-руководитель просто решает, кому делегировать задачу. Например: "Так, нужно отправить письмо - это к email-агенту!"

И что особенно порадовало - там есть крутая фича $fromAI для автоматического заполнения параметров. Больше не нужно собирать большой промт для разбора переменных, а можно их вытащить маленькими промптами на входе в компонент. Получается прозрачнее. 🎉

А еще можно подключить векторную базу данных (Pinecone) и научить агента отвечать на вопросы по вашим документам. Идеально для корпоративных политик, FAQ и т.д.

В общем, если интересно пощупать реальное применение AI-агентов - очень советую глянуть. Там даже есть бесплатное комьюнити, где авторы делятся шаблонами.

Как всегда перевёл для вас ElevenLabs.
Если считаете, что все это полезно, - поддержать все эти переводы можно поставив звёздочку к посту или по ссылке.

#n8n #переводы #уроки #nocode
———
@tsingular
203👍24🔥42
сегодня обещают o3

#openai #o3
———
@tsingular
🔥63👌3
🚀 Релиз новой модели GigaChat-20B-A3B-instruct-v1.5!

Представляем обновленную версию с улучшенным alignment, что привело к значительному росту метрик арен

📈 Результаты:
• Arena Hard RU: 20.8 → 29.6 (+8.8)
• Arena General: 41.1 → 49.1 (+8)
• остальные метрики на тех же значениях

🔋 Поддержка контекста: 131К токенов

🎉 Важно! Модель теперь доступна в популярных инструментах:
llama.cpp
ollama
llama-cpp-python
lm-studio, небольшой гайд.

⚡️ На М4 Pro в Q6 достигает 52 token / sec

💾 Мы подготовили различные GGUF квантизации для тестирования под разные задачи и ресурсы.

🔗 Ссылки:
• HuggingFace (fp32, bf16, int8)
• GGUF версии (bf16, q8, q6, q5, q4)
• Ollama (bf16, q8, q6, q5, q4)
🔥8👍3