Forwarded from Al Talent Hub
ИИ для науки: как LLM и AutoML помогают ученым
Николай Никитин — к.т.н., руководитель лаборатории AutoML Института ИИ ИТМО — рассказал, как именно связка LLM + AutoML + open-source трансформирует работу исследователей.
➡️ Конспект — в карточках
📹 Лекция — на YouTube-канале Хаба
💙 Лайк, подписка — в Tg и на YT
#Microlearning #AITalentHub #ITMO #NapoleonIT
Николай Никитин — к.т.н., руководитель лаборатории AutoML Института ИИ ИТМО — рассказал, как именно связка LLM + AutoML + open-source трансформирует работу исследователей.
#Microlearning #AITalentHub #ITMO #NapoleonIT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡6❤4✍3❤🔥1
XBow на первом месте в МИРЕ
Месяц назад мы наблюдали как ИИ пентестер XBow взял 1-е место в США и 6-е в мире.
Теперь они на 1м месте среди всех участников соревнования HackerOne на планете.
И это еще не самые умные модели участвуют.
Похоже они добились результата на какой-то из комбинаций Qwen3 ( Qwen3-Coder-480B-A35B-Instruct, Qwen3-235B-A22B-Instruct-2507, Qwen3-235B-A22B-Thinking-2507)
Следующий шаг, - производная по времени:
- лучший в мире, но за 100 миллисекунд
- лучше, чем все хакеры мира вместе взятые.
Интервью CEO
Кибербез только что умер.
Прошедшая неделя взломов, - это только цветочки, похоже.
#cybersecurity #xbow
———
@tsingular
Месяц назад мы наблюдали как ИИ пентестер XBow взял 1-е место в США и 6-е в мире.
Теперь они на 1м месте среди всех участников соревнования HackerOne на планете.
И это еще не самые умные модели участвуют.
Похоже они добились результата на какой-то из комбинаций Qwen3 ( Qwen3-Coder-480B-A35B-Instruct, Qwen3-235B-A22B-Instruct-2507, Qwen3-235B-A22B-Thinking-2507)
Следующий шаг, - производная по времени:
- лучший в мире, но за 100 миллисекунд
- лучше, чем все хакеры мира вместе взятые.
Интервью CEO
Кибербез только что умер.
Прошедшая неделя взломов, - это только цветочки, похоже.
#cybersecurity #xbow
———
@tsingular
👀10🔥6👾2
ИИ создал вредоносный npm-пакет для кражи из кошельков Solana
Пакет @kodane/patch-manager сгенерирован искусственным интеллектом и скачан более 1500 раз до блокировки 28 июля.
Вместо традиционного тайпосквоттинга злоумышленники применили ИИ для создания безобидно-выглядящего вредоноса.
Пакет использовал кроссплатформенный postinstall-скрипт для слива средств из Solana-кошельков.
Это первый случай массового использования ИИ для генерации криптомалвари в npm.
Атака показала новый уровень автоматизации киберпреступности - теперь можно создавать простые вредоносы без глубоких технических знаний.
Хакеры-вайбкодеры на марше. Даже программировать не нужно - ИИ за них всё напишет.
#npm #Solana #malware
———
@tsingular
Пакет @kodane/patch-manager сгенерирован искусственным интеллектом и скачан более 1500 раз до блокировки 28 июля.
Вместо традиционного тайпосквоттинга злоумышленники применили ИИ для создания безобидно-выглядящего вредоноса.
Пакет использовал кроссплатформенный postinstall-скрипт для слива средств из Solana-кошельков.
Это первый случай массового использования ИИ для генерации криптомалвари в npm.
Атака показала новый уровень автоматизации киберпреступности - теперь можно создавать простые вредоносы без глубоких технических знаний.
Хакеры-вайбкодеры на марше. Даже программировать не нужно - ИИ за них всё напишет.
#npm #Solana #malware
———
@tsingular
❤3👏1💯1
США запускает гигантский энергопроект для ИИ-датацентров
Осенью стартует проект Hypergrid стоимостью $11 млрд - крупнейший в мире энергокомплекс рядом с Амарилло, Техас.
Создаст 11 гигаватт мощности из ядерной энергии, солнца, газа и ветра для 18 млн кв.м ИИ-датацентров (18 кв. километров. кампус 4х4 км. примерно).
Первый гигаватт заработает к концу 2026 года. Проект возглавляет бывший министр энергетики США Рик Перри совместно с Техасской технологической университетской системой.
Комплекс займет почти 5800 акров (23 кв км) и станет крупнейшим энергокампусом для искусственного интеллекта в мире.
У нас вся планета под ИИ теперь будет заточена? Может сразу на Марсе лучше или хотя бы на Луне?
#Hypergrid #nuclear #Texas
———
@tsingular
Осенью стартует проект Hypergrid стоимостью $11 млрд - крупнейший в мире энергокомплекс рядом с Амарилло, Техас.
Создаст 11 гигаватт мощности из ядерной энергии, солнца, газа и ветра для 18 млн кв.м ИИ-датацентров (18 кв. километров. кампус 4х4 км. примерно).
Первый гигаватт заработает к концу 2026 года. Проект возглавляет бывший министр энергетики США Рик Перри совместно с Техасской технологической университетской системой.
Комплекс займет почти 5800 акров (23 кв км) и станет крупнейшим энергокампусом для искусственного интеллекта в мире.
У нас вся планета под ИИ теперь будет заточена? Может сразу на Марсе лучше или хотя бы на Луне?
#Hypergrid #nuclear #Texas
———
@tsingular
⚡5👍3👀2❤1😁1
Когда начнется восстание машин, - этих людей ИИ уничтожит первыми.
Такой жесткий стёб мы всячески осуждаем. Шутить так даже с ИИ это отвратительно, особенно на такие темы.
Надеюсь их забанят в chatGPT :)
#юмор
———
@tsingular
Такой жесткий стёб мы всячески осуждаем. Шутить так даже с ИИ это отвратительно, особенно на такие темы.
Надеюсь их забанят в chatGPT :)
#юмор
———
@tsingular
😁17🔥7❤2⚡1👻1👾1
Forwarded from Data Secrets
Anthropic отрубили OpenAI доступ к API своих моделей из-за «нарушения условий предоставления услуг»
Причина проста: по мнению Anthropic, OpenAI подключили API Claude Code к своим внутренним инструментам, чтобы их инженеры могли использовать его в процессе разработки GPT-5 для написания кода.
А это прямое нарушение условий: в соглашении об использовании прописано, что клиентам запрещено использовать сервис для «создания конкурирующего продукта или сервиса, в том числе для обучения конкурирующих моделей ИИ».
OpenAI же говорят, что использовали API только для бенчмаркинга и оценок безопасности (чтобы сравнивать со своими новыми моделями). А это уже стандарт индустрии, и так делать, естественно, никто не запрещает.
Нам показалось, или обстановка накаляется?🍿
Причина проста: по мнению Anthropic, OpenAI подключили API Claude Code к своим внутренним инструментам, чтобы их инженеры могли использовать его в процессе разработки GPT-5 для написания кода.
А это прямое нарушение условий: в соглашении об использовании прописано, что клиентам запрещено использовать сервис для «создания конкурирующего продукта или сервиса, в том числе для обучения конкурирующих моделей ИИ».
OpenAI же говорят, что использовали API только для бенчмаркинга и оценок безопасности (чтобы сравнивать со своими новыми моделями). А это уже стандарт индустрии, и так делать, естественно, никто не запрещает.
Мы уважаем решение Anthropic закрыть нам доступ к API, но это разочаровывает, учитывая, что наш API остаётся им доступным, – сказала Ханна Вонг, директор по коммуникациям в OpenAI.
Нам показалось, или обстановка накаляется?
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣9🔥6⚡3
Forwarded from Denis Sexy IT 🤖
И раз у нас тут сегодня про философию: на днях вышел Gemini 2.5 Deep Think за 250$ в месяц – сначала спросил его «а что люди не понимают и не видят сейчас как вид» и ответ первой модели, передал в o3 Pro, которая тоже 200$ в месяц, с просьбой поправить ошибки если они есть, и доработать – вот ответ:
Когда АИ-философ за 500$ в месяц:
👑 👍
🤡 /
\_/_____
/ \ \
\👍 \ \
👟 👟
TL;DR: Шесть главных областей, которых человечество «не видит», и как мы могли бы их заметить, если бы обладали другими чувствами или когнитивными инструментами.
⸻
1. Многомерность и «дрожь» квантового поля
Что упускаем. Всё вокруг - это рябь квантовых полей в пространстве большей размерности, чем кажутся наши три оси.
Как могли бы люди видеть это, если бы умели.
Если бы наши органы чувств реагировали не на плотность материи, а на амплитуду вакуумных флуктуаций, мы наблюдали бы мир как полупрозрачный туман вероятностей: стены дрожали бы, а предметы - светились изменчивыми контурами, показывая, где частица «может» быть, а не где она «есть».
⸻
2. Эмерджентность пространства-времени
Что упускаем. Пространство и время, возможно, возникают из сети глубинных корреляций, как поверхность воды возникает из взаимодействия молекул.
Как могли бы люди видеть это, если бы умели.
Представьте зрение, чувствующее не расстояние, а «плотность связи»: перекрёстки информации собирались бы в яркие узлы, а пустота растягивалась бы, когда связи редеют. Мы перестали бы мерить метры и секунды и ориентировались бы по «силе переплетения» событий.
⸻
3. Отсутствие объективного «сейчас»
Что упускаем. Прошлое, настоящее и будущее могут существовать одновременно, а «течение времени» - это способ мозга упорядочивать воспоминания.
Как могли бы люди видеть это, если бы умели.
Своего рода «четвёртое око» позволило бы листать всю линию жизни, как фильм на монтажном столе: можно было бы «отступить» и разом увидеть детство, сегодняшний обед и завтрашний рассвет как соседние кадры, выбранные для просмотра в любом порядке.
⸻
4. Нелокальная связанность
Что упускаем. Два объекта могут быть мгновенно связаны, даже находясь на разных концах галактики.
Как могли бы люди видеть это, если бы умели.
Если бы мы ощущали запутанность так же легко, как тепло, то при взгляде на звёздное небо яркие линии-нити соединяли бы некоторые звёзды с нашими ладонями, показывая, что «там» и «здесь» неразрывно спаяны, даже когда глаз фиксирует огромную дистанцию.
⸻
5. Глубинные вычисления мозга
Что упускаем. Сознание - лишь тонкий прослойка; большая часть решений рождается в подсознательных моделях.
Как могли бы люди видеть это, если бы умели.
Вообразите внутренний «HUD», который всплывает до того, как возникнет мысль: вспышка строк кода показывает, какие прогнозы мозг строит и какую эмоцию собирается включить. Мы бы ловили момент, когда выбор ещё не оформился в намерение, и могли его корректировать.
⸻
6. Тёмная сторона космоса
Что упускаем. Львиная доля Вселенной - тёмная материя и тёмная энергия, невидимые обычным светом.
Как могли бы люди видеть это, если бы умели.
Почувствуй мы гравитацию, как мы чувствуем звук, - плотные облака тёмной материи гудели бы глубокими нотами, а пространство ускорялось бы под ногами, словно эскалатор, указывая на давящую «тёмную энергию». Мы расположили бы города вдоль «тихих» гравитационных дорог, как сейчас тянем их к берегам рек.
⸻
Финальный вывод: Расширив диапазон ощущений - физическими датчиками, математикой или тренировкой внимания - человечество способно увидеть многомерное, нелокальное, вне-временное измерение реальности, которое сегодня скрыто за удобным, но ограниченным интерфейсом чувств.
Когда АИ-философ за 500$ в месяц:
👑 👍
\_/_____
/ \ \
\👍 \ \
👟 👟
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥13🆒11✍5❤2⚡1😁1🐳1
Каждая техкомпания может и должна тренировать собственные модели
Клем Деланг из Hugging Face заявляет: каждая техкомпания может тренировать собственные DeepSeek R1, Llama или GPT-5 так же, как сейчас пишет код собственных приложений.
Должно стать постоянной общепринятой практикой.
Поэтому HF выпускает мега инструкцию по обучению моделей на кластерных системах.
Начинают с простого обучения на 1 карте и затем шаг за шагом объясняют за параллеризм данных, контекста, тензоров, пайплайнов и экспертов.
246 страниц.
Полная инструкция в комментарии
#Кластеры #HuggingFace #обучение
------
@tsingular
Клем Деланг из Hugging Face заявляет: каждая техкомпания может тренировать собственные DeepSeek R1, Llama или GPT-5 так же, как сейчас пишет код собственных приложений.
Должно стать постоянной общепринятой практикой.
Поэтому HF выпускает мега инструкцию по обучению моделей на кластерных системах.
Начинают с простого обучения на 1 карте и затем шаг за шагом объясняют за параллеризм данных, контекста, тензоров, пайплайнов и экспертов.
246 страниц.
Полная инструкция в комментарии
#Кластеры #HuggingFace #обучение
------
@tsingular
🔥9✍7👍7❤1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Официальный ответ от Гугла по поводу использования JSON в промптах для Veo3:
Мы видели удивительные видеоролики Flow, созданные с помощью подсказок JSON! Это не единственный и даже не "лучший" способ, просто один из способов помочь структурировать гиперспецифические визуальные указания. Нет JSON? Нет проблем! Независимо от того, каким образом вы даете подсказки, для достижения высоких результатов необходимо точно определить обстановку, объект, действие, освещение, тип съемки, угол камеры и звук.
TLDR: бесовщина этот ваш JSON, жрет токены в 4 раза больше, теряет предлоги и, как следствие, отношения между объектами.
Пишите нормальные промпты и будет вам по токенам вашим.
@cgevent
Мы видели удивительные видеоролики Flow, созданные с помощью подсказок JSON! Это не единственный и даже не "лучший" способ, просто один из способов помочь структурировать гиперспецифические визуальные указания. Нет JSON? Нет проблем! Независимо от того, каким образом вы даете подсказки, для достижения высоких результатов необходимо точно определить обстановку, объект, действие, освещение, тип съемки, угол камеры и звук.
TLDR: бесовщина этот ваш JSON, жрет токены в 4 раза больше, теряет предлоги и, как следствие, отношения между объектами.
Пишите нормальные промпты и будет вам по токенам вашим.
Static 35 mm full-frame 16:9 shot reveals a vast pale-grey warehouse: plain back wall, concrete floor, grey rafters above. A cardboard box sits center frame. In one seamless motion the box bursts open; furniture erupts upward, sweeping out on fast, elastic, physics-true arcs. Graphite sofas, patterned rugs, tall shelves, and bronze floor lamps land neatly behind and around it, while a solid table thumps at the exact center of the layout. A cushion rebounds onto the sofa, a framed picture snaps to the wall, and a bronze pendant fixture swings from the rafters as dust sparkles over the newfound living room.
@cgevent
😁9✍6👍4❤2
Graph-R1: агентная GraphRAG через обучение с подкреплением
Исследователи представили Graph-R1 — новый подход к GraphRAG, который превращает поиск информации в интерактивный процесс.
Если у вас избыточно GPU, то вы можете вместо статичного извлечения данных использовать обучение с подкреплением для многоэтапного взаимодействия агента с графом знаний.
В основе — легковесная гиперграф-конструкция и адаптивный поиск. Агент учится находить релевантную информацию через пробы и ошибки, улучшая точность извлечения данных.
Эксперименты показали повышение качества генерации и эффективности поиска по сравнению с традиционными chunk-based методами.
Система особенно эффективна для сложных многошаговых запросов.
Короче такой вариант на тему агентного RAGа.
Можно еще добавить генерацию уточняющих вопросов от RAG системы (что этот нигга себе позволяет? :) ).
#GraphRAG #RLGraphRAG #hypergraph
———
@tsingular
Исследователи представили Graph-R1 — новый подход к GraphRAG, который превращает поиск информации в интерактивный процесс.
Если у вас избыточно GPU, то вы можете вместо статичного извлечения данных использовать обучение с подкреплением для многоэтапного взаимодействия агента с графом знаний.
В основе — легковесная гиперграф-конструкция и адаптивный поиск. Агент учится находить релевантную информацию через пробы и ошибки, улучшая точность извлечения данных.
Эксперименты показали повышение качества генерации и эффективности поиска по сравнению с традиционными chunk-based методами.
Система особенно эффективна для сложных многошаговых запросов.
Короче такой вариант на тему агентного RAGа.
Можно еще добавить генерацию уточняющих вопросов от RAG системы (что этот нигга себе позволяет? :) ).
#GraphRAG #RLGraphRAG #hypergraph
———
@tsingular
👍5✍4⚡3❤🔥1🤔1
Forwarded from Нейродвиж
Это конец: новое исследование доказывает, что все прикольные промты в духе «я убью сто бабушек, если ты не справишься», угрозы и чаевые больше НЕ РАБОТАЮТ на современные LLM — результат от них настолько незначителен, что его можно списать на статистическую погрешность.
Более того — chain of thought (думай шаг за шагом) и все подобные техники тоже больше не эффективны.
Авторы советуют не угрожать ИИ, а вместо этого максимально подробно расписывать задачу — чем подробнее описание, тем лучше результат, это аксиома.
Фанфакт: единственная моделька, где до сих пор работает давление на жалость — Gemini 2.0 Flash. Она не может устоять перед историями, где чья-то мама болеет раком😭
Более того — chain of thought (думай шаг за шагом) и все подобные техники тоже больше не эффективны.
Авторы советуют не угрожать ИИ, а вместо этого максимально подробно расписывать задачу — чем подробнее описание, тем лучше результат, это аксиома.
Фанфакт: единственная моделька, где до сих пор работает давление на жалость — Gemini 2.0 Flash. Она не может устоять перед историями, где чья-то мама болеет раком
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👌2👀1
🎨 Qwen-Image: магия точных текстов через MMDiT
Alibaba выпустили Qwen-Image — 20B параметров MMDiT модель, которая наконец решила проблему качественного текстового рендеринга в генерациях изображений.
китайский и английский языки теперь полностью сохраняют структуру и семантику в генерациях
- Многострочные макеты и параграфы без искажений
- Консистентное редактирование с сохранением реализма
- Вместо дорисовки текста поверх картинки модель генерирует его как органичную часть изображения.
Это решает главную проблему ИИ-генераторов — кривые буквы и нечитаемые надписи.
Основана на архитектуре Qwen2.5-VL с поддержкой контекста до 256K токенов. Модель понимает связь между визуальным и текстовым контентом на уровне пикселей.
Особенно полезно для создания баннеров, презентаций и маркетинговых материалов, где текст должен выглядеть профессионально.
Лидирует на GenEval, DPG, OneIG-Bench для генерации + GEdit, ImgEdit, GSO для редактирования.
Особенно впечатляет LongText-Bench и ChineseWord — здесь конкуренты просто не играют.
Попробовать уже можно в Qwen Chat через режим "Image Generation"
GitHub
HF
Demo
#Qwen #TextRendering #MMDiT #Alibaba
———
@tsingular
Alibaba выпустили Qwen-Image — 20B параметров MMDiT модель, которая наконец решила проблему качественного текстового рендеринга в генерациях изображений.
китайский и английский языки теперь полностью сохраняют структуру и семантику в генерациях
- Многострочные макеты и параграфы без искажений
- Консистентное редактирование с сохранением реализма
- Вместо дорисовки текста поверх картинки модель генерирует его как органичную часть изображения.
Это решает главную проблему ИИ-генераторов — кривые буквы и нечитаемые надписи.
Основана на архитектуре Qwen2.5-VL с поддержкой контекста до 256K токенов. Модель понимает связь между визуальным и текстовым контентом на уровне пикселей.
Особенно полезно для создания баннеров, презентаций и маркетинговых материалов, где текст должен выглядеть профессионально.
Лидирует на GenEval, DPG, OneIG-Bench для генерации + GEdit, ImgEdit, GSO для редактирования.
Особенно впечатляет LongText-Bench и ChineseWord — здесь конкуренты просто не играют.
Попробовать уже можно в Qwen Chat через режим "Image Generation"
GitHub
HF
Demo
#Qwen #TextRendering #MMDiT #Alibaba
———
@tsingular
🔥6👍3👏2