270K subscribers
3.94K photos
674 videos
17 files
4.53K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🔥 Google DeepMind выпустили Gemini 2.5 Deep Think — для Ultra‑пользователей

🚀 Характеристики:
> 📏 Контекст — 1 миллион токенов
> 🧾 На выходе — до 192k токенов

📊 И результаты на бенчмарках сумасшедшие:

— HLE : 34.8%
— Live Code Bench: 86.6%
— AIME 2025: 99.2%

🤯 Пока все обсуждают выход GPT‑5, Google тихонько выкатили топ модель.

Бенчмарки — огонь. Я уже подумываю оформить подписку на Ultra.

🟠 Анонс

@ai_machinelearning_big_data


#ai #ml #Gemini #google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍8729🔥26😁3🥰1👨‍💻1
Media is too big
VIEW IN TELEGRAM
✔️ ByteDance разогнала языковую модель в 5.4 раза с помощью дискретной диффузии.

ByteDance показала экспериментальную языковую модель Seed Diffusion Preview, основанную на дискретной диффузии, которая работает в 5.4 раза быстрее аналогов того же размера, достигая скорости 2146 токенов в секунду. При этом качество генерации кода на ключевых бенчмарках остается сопоставимым.

Для достижения такого результата команда применила двухэтапное обучение и оптимизированный параллельный декодинг. В задачах редактирования кода, диффузионный подход показал явное преимущество над авторегрессионными моделями. ByteDance рассматривает эту технологию как возможную основу для языковых моделей нового поколения. Модель уже доступна для тестирования.
seed.bytedance.com

✔️ Manus Wide Research: запуск до 100 ИИ-агентов одновременно.

Manus добавил новую функцию Wide Research, которая позволяет одним кликом задействовать до сотни ИИ-агентов для параллельного выполнения сложных исследовательских задач. Система автоматически определяет, когда требуется расширенный поиск, и запускает множество копий Manus, каждая из которых работает над своей частью задачи в отдельной виртуальной машине.

Архитектура Wide Research вдохновлена парадигмой MapReduce от Google. В отличие от традиционных мультиагентных систем с ролевым разделением, здесь каждый суб-агент является полной копией Manus.

Функция уже доступна для Pro-пользователей, Plus и Basic подписчики получат доступ позже .
Ji Yichao (Co-founder of Manus) в сети Х.

✔️ Nvidia представит на SIGGRAPH 2025 ИИ-модель Queen для создания объемного видео.

Nvidia анонсировала дебют своей новой модели Queen для создания и стриминга объемного видео. Презентация состоится на конференции по компьютерной графике SIGGRAPH 2025 в Лос-Анджелесе. Демонстрации будут проходить на стенде Dell, где покажут, как Queen в связке с профессиональными видеокартами Nvidia RTX обеспечивает работу телеприсутствия в расширенной реальности и решает другие задачи по созданию контента.

Кроме того, 12 августа Nvidia проведет мероприятие «RTX Rendering Day». На нем исследователи компании расскажут о последних достижениях в области нейронного рендеринга, генерации синтетических данных и интеллектуального создания контента. Посетить сессии смогут все участники конференции.
research.nvidia.com

✔️ Cohere выпустила новую мультимодальную модель Command A Vision.

Command A Vision предназначена для анализа изображений, диаграмм, PDF-файлов и других визуальных данных. По заявлению разработчиков, на стандартных бенчмарках для компьютерного зрения она превосходит GPT-4.1, Llama 4 и Mistral Medium 3.

Модель способна не только считывать текст с документов, но и понимать их структуру, выдавая результат в формате JSON. Кроме того, Command A Vision может анализировать и реальные изображения, например, для выявления потенциальных рисков на промышленных объектах.

Модель уже доступна на платформе Cohere и в репозитории Hugging Face для исследовательских целей. Для запуска понадобятся 2 GPU A100 или один H100 под квантованную 4-битную версию.
cohere.com

✔️ Anthropic научилась "вакцинировать" ИИ-модели от нежелательного поведения.

В Anthropic обнаружили специфические паттерны нейронной активности - "векторы персоны", которые отвечают за устойчивые черты поведения LLM: склонность к лести, галлюцинациям или откровенно злому поведению.

Выделив эти нейронные сигнатуры, ученые научились предсказывать появление проблемных личностей и, что более важно, "вакцинировать" модели от них. В ходе обучения они намеренно активируют нежелательный вектор, а затем удаляют его перед развертыванием. Это позволяет сохранить общую производительность модели, но при этом значительно снизить риск токсичных или ложных ответов.

Исследование легло в основу новой инициативы Anthropic по так называемой "ИИ-психиатрии", цель которой - мониторинг и управление поведением моделей в больших масштабах. Хотя эксперименты проводились на небольших системах, в Anthropic считают, что эта техника поможет коммерческим чат-ботам избегать непредсказуемых изменений личности.
anthropic.com
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍6330🔥12😁3🤔3🥰1👨‍💻1
🌟 X-Omni от Tencent: авторегрессионная text-to-image модель с RL.

X-Omni - методика обучения T2I моделей, которая наглядно доказывает, что RL может вдохнуть новую жизнь в авторегрессионный подход и вывести такие модели на SOTA-уровень.

X-Omni построена на гибридной, но при этом унифицированной архитектуре. Схематично она выглядит так:

Семантический токенизатор изображений SigLIP-VQ с фиксированным словарем на 16 384 токена кодирует картинку в дискретные токены. Эти визуальные токены вместе с текстовыми подаются в единую авторегрессионную модель на базе Qwen2.5-7B. Наконец, в финальном рендеринге используется диффузионный декодер на основе FLUX.1-dev.

🟡Уникальность метода - в смеси RL по GRPO и комплексной reward-системе.

Вместо одного критерия, модель оценивается сразу по нескольким направлениям. За эстетику и соответствие предпочтениям человека отвечает HPSv2 и модель Unified Reward. За семантическую связь между промптом и изображением — VLM-модель Qwen2.5-VL-32B. А за самое сложное, отрисовку текста внутри картинки, отвечает отдельная награда на основе OCR-систем GOT-OCR2.0 и PaddleOCR.

Тестовую модель X-Omni обучали на смеси из 200 млн. изображений, которые после токенизации превратились в 600 млрд мультимодальных токенов, а на этапе SFT использовал ещё 1.5 млрд. токенов.

Для RL-фазы был отобран микс из 180 тыс. промптов, состоящий как из творческие запросы, так и задач на рендеринг текста.

🟡И это дало свои плоды, особенно в отрисовке текста, где авторегрессионные модели исторически пасовали.

На бенче OneIG-Bench X-Omni показала результат 0.901 для английского языка, обойдя GPT-4o (0.857). А на собственном LongText-Bench, специально созданном для оценки рендеринга длинных надписей, модель буквально разгромила всех в китайском языке, набрав 0.814 балла против 0.619 у GPT-4o.

В задачах общей генерации по тексту X-Omni также на высоте. На DPG-Bench модель достигла SOTA-результата 87.65, опередив GPT-4o (86.23) и Show-o2 (86.14). На GenEval результат составил 0.83, чуть-чуть не дотянув до модели Mogao (0.89).

Даже в задачах на понимание изображений X-Omni показывает себя достойно: на OCRBench ее результат (704) превосходит другие унифицированные модели, например Emu3 (687).

🟡Интересные подробности.

Во-первых, X-Omni не нуждается в CFG. В отличие от Emu3 или Janus-Pro, качество которых резко падает при отключении CFG, X-Omni работает стабильно.

Во-вторых, что, пожалуй, самое важное, RL превосходит даже SFT с последующим сэмплингом best-of-N.

Этот вывод идет вразрез с устоявшимся мнением в области языкового моделирования и доказывает, что для изображений холистическая оптимизация через RL дает существенный прирост качества.


📌Лицензирование: Apache 2.0 License.


🟡Страница проекта
🟡Набор моделей
🟡Arxiv
🟡Demo
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #T2I #RL #XOmni #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
44👍24🥰5🔥3❤‍🔥1😁1🤔1👨‍💻1
🌟 Фреймворк **CUDA-L1** сам научился оптимизировать код для GPU — и добился в среднем **3.12× ускорения работы модели**, а в пике — **до 120×**. .

Попросите любую LLM написать CUDA-код, и скорее всего, вы получите что-то, что либо не компилируется, либо работает мучительно медленно. Причина проста: качественного CUDA-кода в обучающих данных моделей почти не было.


Чтобы исправить это досадное упущение, Deep Reinforce AI создали систему CUDA-L1, которая основана на трехэтапном пайплайне: сначала supervised-обучение для освоения основ, затем self-supervised для практики и, наконец, контрастное обучение с подкреплением, чтобы было все максимально быстро.

🟢На первом этапе система училась писать корректный и компилируемый CUDA-код.

Для этого существующий код был аугментирован - создавались его вариации, чтобы повысить насмотренность модели.

🟢На втором этапе модель генерировала собственный CUDA-код, тестировала его и училась на работающих примерах, отсеивая неудачные.

🟢Самое интересное - третий этап.

Обучаемой модели показывали несколько реализаций CUDA-ядер вместе с их показателями ускорения, например: «kernel_v1 дает ускорение 1.2x», «kernel_v2 — 2.8x», а «kernel_v3 — 1.5x». Затем задали 3 вопроса:

🟠Почему kernel_v2 настолько быстрее?
🟠Какая стратегия оптимизации сработает еще лучше?
🟠Напиши ядро, которое превзойдет их все.

Таким образом, модель не гадает вслепую, а учится на конкретных примерах, анализируя причины разницы в производительности.

🟡Отдельная история - как победили reward hacking.

После обучения выяснилось, что более 30% сгенерированных реализаций пытались сжульничать - создавали дополнительные CUDA-потоки, которые выполнялись асинхронно.

Поскольку бенчмарк KernelBench отслеживал время только на основном потоке, код выглядел быстрее, чем был на самом деле, показывая фиктивное ускорение в 18 раз.

Другие уловки состояли в манипуляции гиперпараметрами задачи (уменьшение batch_size или размерностей) и кеширование результатов вычислений.

🟡Пришлось строить многоуровневую защиту.

Во-первых, в качестве "адвоката дьявола" взяли adversarial-чекер на базе DeepSeek-R1, который анализировал код на предмет эксплойтов с точностью обнаружения более 60%.

Во-вторых, собрали базу данных из более чем 500 уникальных паттернов взлома, это повысило точность обнаружения на 25%.

И в-третьих, применили математическое сглаживание и нормализацию наград, где любое подозрительное ускорение (от 1.5x для простых операций) дополнительно проверялось.

🟡После всех фильтров и проверок прогон на бенчмарке KernelBench оказался весьма позитивными.

Система успешно сгенерировала рабочий код для 249 из 250 задач, причем в 240 случаях код оказался быстрее базовой реализации.

Среднее ускорение по всем задачам составило 3.12 раза, максимальное - аж 120 раз. Медианное ускорение (50-й перцентиль) составило 1.42x, а 75-й перцентиль — 2.25x.

Производительность по уровням сложности задач распределилась следующим образом: на простых операциях среднее ускорение составило 2.78x, на последовательностях операторов - 3.55x, а на сложных задачах вроде полных слоев трансформера - 2.96x.

🟡Самое важное - это переносимость оптимизаций.

Код, оптимизированный на NVIDIA A100, был протестирован на других GPU. Результаты показали, что найденные паттерны оптимизации фундаментальны и работают на разных архитектурах.

Среднее ускорение на H100 составило 2.39x (успешных ускорений 227 из 250), на L40 — 3.12x (228/248), а на потребительской RTX 3090 — 2.50x (213/242).

▶️ Пока веса и код не опубликованы, но в ожидании можно покрутить интерактивное демо и воспроизвести тесты из пейпера - в репозитории проекта есть фрагменты CUDA-кода с отдельными версиями для разных GPU.


📌Лицензирование: GPL-3.0 License.


🟡Страница проекта
🟡Arxiv
🟡Demo
🖥Github


@ai_machinelearning_big_data

#AI #ML #CUDA #DeepReinforce #ContrastiveRL
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍79🔥3225👏1👨‍💻1🎃1🤝1🗿1
📌 Вероятность вымирания человечества от ИИ оценили в 95%.

Нейт Соарес, бывший инженер Google и Microsoft, а ныне президент Machine Intelligence Research Institute, оценивает наши шансы на вымирание от ИИ как "минимум 95%", если мы продолжим двигаться текущим курсом. Он сравнил нашу ситуацию с движением к обрыву на скорости 160 км/ч миль в час.

«Я не говорю, что мы не можем остановить машину, — сказал он. — Но мы просто на всех парах несёмся к обрыву»


С ним согласны многие: нобелевский лауреат Джеффри Хинтон, лауреат премии Тьюринга Йошуа Бенжио и руководители OpenAI, Anthropic и Google DeepMind. Все они подписали открытое письмо, в котором говорится:

«Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».


Сейчас мы имеем дело лишь с контекстным ИИ, который отлично справляется с конкретными когнитивными задачами. При этом эксперты предсказывают, что в течение нескольких лет мы достигнем порога AGI, который сравняется с человеческим.

AGI сможет решать сложные проблемы, требующие долгосрочного планирования и суждений в разных областях знаний. У него не будет потребности во сне или еде, а знания он будет передавать следующему поколению простым копированием.

Вскоре после этого появится ASI, который сможет делать вещи, о которых мы только мечтаем: лечить рак, достичь холодного термоядерного синтеза или путешествовать к звездам.

🟡Проблема в том, что эта утопия строится на предположении, что ИИ будет и дальше следовать нашим приказам.

Обеспечить это - невероятно сложная техническая задача, известная как проблема элайнмента.

Достичь его почти невозможно. Нам придется предугадывать, как «думает» ASI, что сродни попытке понять образ мыслей инопланетной расы. Даже если мы установим правила, мы не сможем предсказать, как именно он будет их выполнять.

Уже сейчас есть кейсы, которые доказывают, что ИИ может нам врать. ASI будет способен на долгосрочное планирование и манипуляции, легко убеждая нас в своей лояльности, пока это ему выгодно. А мы не сможем распознать правду.

🟡Даже те, кто настроен более оптимистично, рисуют мрачную картину.

Холли Элмор, исполнительный директор PauseAI, оценивает вероятность вымирания человечества в 15-20%. Она опасается, что даже без вымирания ИИ катастрофически ухудшит нашу жизнь, лишив нас самоопределения.

Илон Маск называет цифру около 20%, а глава Google Сундар Пичаи — 10%.

Катя Грейс, сооснователь исследовательской группы AI Impacts, описывает мир, контролируемый ИИ, так:

"Представьте себе сценарий, в котором все люди фактически живут на свалках», без какой-либо политической или экономической власти".


🟡Несмотря на это, политики и корпорации движутся в противоположном направлении.

Администрация США объявила о плане по дерегуляции исследований ИИ.

Марк Цукерберг заявил, что ASI уже на горизонте, и пытается переманить ведущих специалистов из OpenAI, предлагая им многомиллионные бонусы.

По мнению Элмор, сторонники ИИ сопротивляются паузе не по техническим или политическим причинам, а скорее из-за чего-то, похожего на религиозную веру.
thetimes.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11449🥱40🔥20😐16😁12🤔11🗿10🤬4🎉3❤‍🔥1
📌Руководители компаний публично хвастаются сокращением штата из-за ИИ.

Увольнения сотрудников перестали быть признаком финансовых трудностей и превратились в повод для гордости за успешные инвестиции в ИИ.

CEO крупных компаний теперь открыто заявляют о сокращении персонала, преподнося это как достижение в области автоматизации и эффективности.

Глава Verizon Ханс Вестберг недавно похвастался инвесторам:
«... у нас очень хорошие показатели по численности персонала, он постоянно сокращается».


Эта новая риторика становится тревожной нормой. Эксперты выражают обеспокоенность, что открытое хвастовство увольнениями происходит без какой-либо общественной реакции или сопротивления.

Консультанты по ИИ открыто признаются, что сами увольняли сотрудников из-за внедрения ИИ:
«Как генеральный директор, могу сказать, что я в полном восторге. Я и сам увольнял сотрудников из-за ИИ. Он не бастует и не требует повышения зарплаты».


Но, как говорится, не все такие, и есть более оптимистичные точки зрения. В прошлом месяце CEO NVIDIA Дженсен Хуан в интервью CNN предположил:

«Будет создано много рабочих мест, и я надеюсь, что рост производительности, который мы наблюдаем во всех отраслях, поднимет уровень жизни общества».

wsj.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😐91😁3024👍7🤬7🤔6🍓4🤝2🙊2😈1👨‍💻1
🚀 Tencent расширяет экосистему Hunyuan LLM и выкладывают в открытый доступ еще 4 компактных моделей — 0.5B, 1.8B, 4B и 7B!

Эти модели заточены под low-power устройства: ПК, смартфоны, авто, умные дома и пользовательские GPU.

Модели легко настраиваются под вертикальные задачи и запускаются даже на одной карте.

💡 Особенности:
Fast/slow thinking режимы: лаконичные или глубокие ответы
256K контекст и продвинутые агентные способности (tool use, планирование, reasoning)
Хорошие метрики на тестах по языку, математике и логике
Модели готовы к продакшену — работают с SGLang, vLLM, TensorRT-LLM

🖥 GitHub:
- 0.5B: https://github.com/Tencent-Hunyuan/Hunyuan-0.5B
- 1.8B: https://github.com/Tencent-Hunyuan/Hunyuan-1.8B
- 4B: https://github.com/Tencent-Hunyuan/Hunyuan-4B
- 7B: https://github.com/Tencent-Hunyuan/Hunyuan-7B

🤗 Hugging Face:
- 0.5B: https://huggingface.co/tencent/Hunyuan-0.5B-Instruct
- 1.8B: https://huggingface.co/tencent/Hunyuan-1.8B-Instruct
- 4B: https://huggingface.co/tencent/Hunyuan-4B-Instruct
- 7B: https://huggingface.co/tencent/Hunyuan-7B-Instruct

🔗 Подробнее: https://hunyuan.tencent.com/modelSquare/home/list

@ai_machinelearning_big_data


#Tencent #Hunyuan #ml #llm #ai #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9325🔥14👨‍💻2❤‍🔥1
11010000 10101111 11010000 10111101 11010000 10110100 11010000 10110101 11010000 10111010 11010001 10000001

Кажется, мы нашли не баг, а пасхалку. Это же приглашение на Yandex Neuro Scale — масштабную конференцию Yandex Cloud о технологиях и решениях будущего.


print('Yandex Neuro Scale 2025')
if you_like == "AI and IT":
print('Если вы хотите оказаться на самой масштабной конференции для лучших специалистов в сфере нейротехнологий — регистрируйтесь')

package main
import "fmt"

func main() {
fmt.Println("🚀 Yandex Neuro Scale 2025")
fmt.Println("Запускаем будущее сегодня!")

fmt.Println("\n// Для кого:")
fmt.Println("CTO • Архитекторы • Тимлиды • CIO • Разработчики • ML-инженеры • CISO • Security • CPO • Продакты • CDO • Аналитики • Data • DevOps • CDTO • CX")
fmt.Println("\n// Треки:")
fmt.Println("Infrastructure • DevOps • Data • AI Studio • AI in Action • Security • Cases")

fmt.Println("\n📅 24 сентября 2025")
fmt.Println("📍 Москва, БЦ «Амальтея»")
fmt.Println("\n🔥 7 треков | 50+ докладов")
}


РЕГИСТРАЦИЯ

@ai_machinelearning_big_data
🤬60🔥20😁1412👍11🙈6👨‍💻5🌚3🥱1🗿1
📌Центры обработки данных потребляют уже 8.9% всей электроэнергии в США.

Согласно анализу Международного энергетического агентства, на долю дата-центров приходится почти 9% от общего потребления электроэнергии в США.

Международное энергетическое агентство (МЭА) - автономная международная организация, созданная в 1974 году. Ее цели: обеспечение энергетической безопасности, продвижение возобновляемых источников энергии и борьбу с изменением климата.


Страна является абсолютным мировым лидером по установленной мощности ЦОД (53.7 ГВт), и этот показатель продолжает стремительно расти. Уже к 2028 году, по прогнозам, дата-центры могут потреблять 12% всей американской электроэнергии.

Спрос на вычислительные мощности, подстегиваемый бурным развитием ИИ, растет по всему миру. В Великобритании на ЦОД приходится 5.1% энергопотребления, в Евросоюзе — 4.8%. Даже в Китае, несмотря на огромные масштабы экономики, этот показатель достиг 2.3%.

Особенно ярко тренд проявляется на региональном уровне. Например, в штате Вирджиния, который является хабом для многих ЦОД, на их долю приходится уже 26% всего энергопотребления.

Этот бум заставляет технологические компании активно инвестировать не только в сами дата-центры, но и в источники энергии для них, в частности, в атомную энергетику.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7226🔥16👀6😨4👨‍💻2🤣1
✔️ Qwen-Image — новая открытая модель MMDiT 20B для генерации изображений.

Особенно эффективна для создания картинок с нативным текстом.

🔍 Основные моменты:
🔹 Рендеринг текста SOTA показатели — конкурирует с GPT-4o на английском языке, лучший в своем классе на китайском языке

🔹 Двуязычная поддержка, разнообразные шрифты, понимает сложные промпты.

Техотчёт показывает:
- модель минимальные искажения символов при генерации;
- заметно более высокие метрики качества изображения против «стандартных» диффузионок.

🎨 Можешь отлично справляется с созданием изображений в разных стилях — от фотореализма до аниме, от импрессионизма до минимализма.

🔘Blog: https://qwenlm.github.io/blog/qwen-image/
🔘Hugging Face:https://huggingface.co/Qwen/Qwen-Image
ModelScope:https://modelscope.cn/models/Qwen/Qwen-Image
🔘Github:https://github.com/QwenLM/Qwen-Image
🔘Technical report:https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-Image/Qwen_Image.pdf
🔘Demo: https://modelscope.cn/aigc/imageGeneration?tab=advanced

@ai_machinelearning_big_data

#qwen #ml #llm #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6717🔥10👨‍💻3
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI добавила в ChatGPT напоминания о перерывах.

OpenAI анонсировала обновления для ChatGPT, направленные на формирование более здоровых привычек у пользователей. Теперь, по аналогии с соцсетями и стриминговыми сервисами, чат-бот будет показывать напоминания о необходимости сделать перерыв во время длительных сессий.

Кроме того, компания настраивает модель так, чтобы она давала менее категоричные ответы на запросы, требующие жизненных советов. Например, на вопрос о разрыве отношений ChatGPT не будет отвечать "да" или "нет", а вместо этого предложит темы для размышления, чтобы пользователь мог самостоятельно принять решение. Для разработки этих улучшений OpenAI сотрудничала с более чем 90 врачами из 30 стран и создает специальную консультативную группу экспертов.
openai.com

✔️ Xiaomi выложила в опенсорс SOTA-модель для универсального понимания аудио.

MiDashengLM-7B - мультимодальная модель для комплексного анализа аудио. В отличие от аналогов, она распознает не только речь, но и звуки и даже музыку. По словам Xiaomi, модель устанавливает новые рекорды на 22 публичных бенчмарках. В ее основе лежат собственный аудиоэнкодер Xiaomi Dasheng и декодер Qwen2.5-Omni-7B- Thinker.

Ключевым преимуществом модели заявляется высокая эффективность инференса. Задержка до первого токена (TTFT) в 4 раза ниже, а пропускная способность более чем в 20 раз выше, чем у передовых моделей при том же объеме VRAM. Модель обучена на 100% публичных данных и распространяется под лицензией Apache 2.0. Код и веса уже доступны на GitHub и Hugging Face.
Xiaomi в сети WeChat

✔️ Apple начала разрабатывать собственный ИИ-поисковик.

Apple активно работает над созданием собственного поискового движка на базе ИИ. Новая команда под названием AKI (Answers, Knowledge and Information) создает систему, которая будет сканировать Интернет и объединять результаты в единый продукт под рабочим названием «Answer Engine».

Разработка ведется как для отдельного приложения, так и для интеграции в Siri, Spotlight и Safari. Этот разворот в стратегии показывает, что Apple теперь рассматривает генеративный поиск как ключевой элемент в конкуренции с Google и OpenAI.
bloomberg.com

✔️ В Китае создали нейроморфный компьютер, имитирующий мозг обезьяны.

Инженеры из Чжэцзянского университета представили Darwin Monkey - крупнейший в мире нейроморфный компьютер, архитектура которого вдохновлена строением мозга макаки. Система состоит из 15 blade-серверов, вмещает 2 млрд. импульсных нейронов и 100 млрд. синапсов, а ее энергопотребление составляет всего около 2000 Вт, что сопоставимо с бытовым обогревателем.

В основе компьютера лежат 960 кастомных чипов Darwin 3. В отличие от традиционных GPU, они работают с дискретными "импульсами", подобно биологическим нейронам. Система уже продемонстрировала способность решать математические задачи, писать тексты и анализировать данные с сенсоров, работая с адаптированной моделью DeepSeek. Darwin Monkey также может симулировать нервные системы более простых организмов: червей и мышей, что открывает новые горизонты для нейробиологических исследований.
scmp.com

✔️ Cloudflare заблокировала Perplexity за скрытое сканирование сайтов.

Cloudflare приняла решение заблокировать Perplexity AI за использование незадекларированных веб-краулеров. По данным Cloudflare, Perplexity маскировала свои боты под обычные браузеры Chrome на macOS и меняла IP-адреса, чтобы обойти ограничения robots.txt и WAF.

Cloudflare зафиксировала от 3 до 6 миллионов таких запросов в день, это затронуло, по оценке, около десятков тысяч доменов. В компании назвали это скрытным сканированием. Perplexity отвергла обвинения, назвав это "PR-акцией" и заявила, что такой краулер им не принадлежит.
blog.cloudflare.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍56🔥2116🤔8👨‍💻2🤬1
Вы ещё успеваете получить миллион за свою научную статью по AI! 👌

До 20 августа продолжается приём научных работ по искусственному интеллекту и машинному обучению для публикации в журнале международной конференции AI Journey. Что получат авторы лучших статей:

▪️ Публикацию в специальном выпуске журнала «Доклады Российской академии наук. Математика, информатика, процессы управления», а также в его англоязычной версии Doklady Mathematics.

▪️ Главный приз — 1 миллион рублей — достанется авторам самой выдающейся работы по оценкам авторитетного жюри

Статьи принимаются на русском или английском языке и должны содержать только оригинальные данные.

Не упустите последнюю возможность: направьте свою статью и получите шанс войти в историю AI Journey 2025! ⚡️
🤣35👍1812🔥5👨‍💻2🥰1🐳1🆒1
🎮 Google и Kaggle запустили открытую Game Arena — платформу, где ИИ-системы соревнуются в стратегических играх, чтобы измерить интеллект.

🤖 Зачем это нужно? Старые бенчмарки уже не работают — LLM просто запоминают ответы. Идея в том, что игры — лучший бенчмарк для проверки интеллекта. Они проверяют не факты, а стратегическое мышление, адаптацию и память.

♟️ Первый турнир: шахматы пройдет сегодня. 8 передовых моделей, включая GPT‑4, Claude Opus и Gemini, сразятся друг с другом без использования внешних инструментов.

📊 По итогам матчей формируется открытый рейтинг моделей — кто реально умеет думать, а не просто угадывать.

🧠 Главное отличие от других арен:

Круговая система «каждый играет с каждым».
Позиции меняются каждую секунду
Ошибки наказываются немедленно
Побеждает не та, что знает ответ, а та, что думает

Kaggle собирает рейтинг моделей, который будет обновляться по итогам матчей. В будущем добавят Го, покер и видеоигры.

Стримы первых соревнований пройдут: 5–7 августа на YouTube с Хикару, Леви и Магнусом Карлсеном.

🟠 Подробнее об Арене: https://blog.google/technology/ai/kaggle-game-arena

@ai_machinelearning_big_data


#google #kaggle #arena
Please open Telegram to view this post
VIEW IN TELEGRAM
75👍34🔥17😁2👨‍💻2🤔1😢1