Forwarded from thislike.me
Вчерашний мем про сравнение казино и вайбкодинга
можно еще сделать сравнение между постановкой задач разработчикам и написанием промтов для вабкодинга
там тоже могут быть как минимум:
- Может получиться приложение без багов а может и бред
- Подождите, я что потратил 3 часа на описание задачи которую бы сделал за 20 минут
можно еще сделать сравнение между постановкой задач разработчикам и написанием промтов для вабкодинга
там тоже могут быть как минимум:
- Может получиться приложение без багов а может и бред
- Подождите, я что потратил 3 часа на описание задачи которую бы сделал за 20 минут
Китайский BCI помогает человеку с ограничениями играть в видеоигры
В июне 2025 г. группа исследователей из Центра передового опыта в науках о мозге и искусственном интеллекте (CEBSIT) Китайской академии наук совместно с клиникой при Университете Фудань внедрила инвазивный интерфейс «мозг–компьютер» пациенту, лишённому всех четырёх конечностей после удара током 13 лет назад. Устройство размером с монету и гибкими электродами было имплантировано через минимальную трепанацию черепа. Через 2–3 недели реабилитации пациент уже управлял курсором, играл в автогонки и шахматы (Xinhua, 14 июня 2025).
Гибкие нейроды, длиной 5–8 мм и толщиной около 1 % человеческого волоса, содержат около 32 микросенсоров, способных считывать электрические сигналы нейронов с высоким разрешением. Они меняют форму вместе с мозговыми тканями, не вызывая воспалительных реакций. Благодаря этому устройство работает стабильно, без отказов и инфекций (WAM, 15 июня 2025).
Развитие идёт в несколько этапов:
1. Игры и манипуляции мышью: пациент уже демонстрирует способность к игрaм.
2. Роботизированные руки и ИИ‑агенты: цель на ближайшие этапы — управление робот‑рукой для захвата предметов и взаимодействия с роботами‑собаками (Xinhua, WAM).
3. Масштабирование и коммерциализация: крупные испытания планируются на 2026 г., а доступ на рынок — к 2028 г. Система инициируется как медицинское устройство для улучшения жизни людей с ампутациями, повреждениями спинного мозга и СППГ (ALS) (Tom's Hardware, Jun 16; Xinhua).
---
Почему это важно:
* Развитие BCI конкретно для реабилитации: не фантастика, а реальные впечатляющие кейсы.
* Инновационные нейроэлектроды: сверхгибкие, миниатюрные, совместимые с тканью мозга.
* Быстрые временные рамки: всего несколько недель до первых результатов.
* Путь к практическому применению: от игр к помощи в повседневной жизни через робототехнику.
---
Заключение:
CEBSIT в Китае демонстрирует прорыв — человек без конечностей играет в видеоигру и управляет компьютером только силой мысли благодаря монетному BCI‑импланту. Технология доказала себя стабильной, безопасной и перспективной. Следующие шаги — управление роботизированной рукой и масштабирование, с коммерческим стартом уже к 2028 году.
Источники:
* Xinhua, 14 июня 2025 — «Chinese research team launches clinical trial…»
* WAM, 15 июня 2025 — «…coin-sized BCI… ultra‑flexible electrodes…»
* Tom’s Hardware, 16 июня 2025 — «Tetraplegic patient could skillfully operate racing games…»
https://english.news.cn/20250614/ec48c9fa433342889b8a954a3958114d/c.html "Chinese research team launches clinical trial for invasive brain ..."
https://www.wam.ae/en/article/15mbilz-chinese-research-team-launches-clinical-trial-for "Chinese research team launches clinical trial for invasive brain ..."
https://www.the-independent.com/tech/ai-brain-chip-china-neuralink-b2770779.html "China tests brain chip to control AI agents | The Independent"
https://www.tomshardware.com/peripherals/wearable-tech/china-launches-first-ever-invasive-brain-computer-interface-clinical-trial-tetraplegic-patient-could-skillfully-operate-racing-games-after-just-three-weeks "China launches first-ever invasive brain-computer interface clinical ..."
https://news.cgtn.com/news/2025-07-06/China-s-brain-computer-interface-innovation-in-fast-lane-1EMA5RV3rnG/p.html "China's brain-computer interface innovation in fast lane - CGTN"
В июне 2025 г. группа исследователей из Центра передового опыта в науках о мозге и искусственном интеллекте (CEBSIT) Китайской академии наук совместно с клиникой при Университете Фудань внедрила инвазивный интерфейс «мозг–компьютер» пациенту, лишённому всех четырёх конечностей после удара током 13 лет назад. Устройство размером с монету и гибкими электродами было имплантировано через минимальную трепанацию черепа. Через 2–3 недели реабилитации пациент уже управлял курсором, играл в автогонки и шахматы (Xinhua, 14 июня 2025).
Гибкие нейроды, длиной 5–8 мм и толщиной около 1 % человеческого волоса, содержат около 32 микросенсоров, способных считывать электрические сигналы нейронов с высоким разрешением. Они меняют форму вместе с мозговыми тканями, не вызывая воспалительных реакций. Благодаря этому устройство работает стабильно, без отказов и инфекций (WAM, 15 июня 2025).
Развитие идёт в несколько этапов:
1. Игры и манипуляции мышью: пациент уже демонстрирует способность к игрaм.
2. Роботизированные руки и ИИ‑агенты: цель на ближайшие этапы — управление робот‑рукой для захвата предметов и взаимодействия с роботами‑собаками (Xinhua, WAM).
3. Масштабирование и коммерциализация: крупные испытания планируются на 2026 г., а доступ на рынок — к 2028 г. Система инициируется как медицинское устройство для улучшения жизни людей с ампутациями, повреждениями спинного мозга и СППГ (ALS) (Tom's Hardware, Jun 16; Xinhua).
---
Почему это важно:
* Развитие BCI конкретно для реабилитации: не фантастика, а реальные впечатляющие кейсы.
* Инновационные нейроэлектроды: сверхгибкие, миниатюрные, совместимые с тканью мозга.
* Быстрые временные рамки: всего несколько недель до первых результатов.
* Путь к практическому применению: от игр к помощи в повседневной жизни через робототехнику.
---
Заключение:
CEBSIT в Китае демонстрирует прорыв — человек без конечностей играет в видеоигру и управляет компьютером только силой мысли благодаря монетному BCI‑импланту. Технология доказала себя стабильной, безопасной и перспективной. Следующие шаги — управление роботизированной рукой и масштабирование, с коммерческим стартом уже к 2028 году.
Источники:
* Xinhua, 14 июня 2025 — «Chinese research team launches clinical trial…»
* WAM, 15 июня 2025 — «…coin-sized BCI… ultra‑flexible electrodes…»
* Tom’s Hardware, 16 июня 2025 — «Tetraplegic patient could skillfully operate racing games…»
https://english.news.cn/20250614/ec48c9fa433342889b8a954a3958114d/c.html "Chinese research team launches clinical trial for invasive brain ..."
https://www.wam.ae/en/article/15mbilz-chinese-research-team-launches-clinical-trial-for "Chinese research team launches clinical trial for invasive brain ..."
https://www.the-independent.com/tech/ai-brain-chip-china-neuralink-b2770779.html "China tests brain chip to control AI agents | The Independent"
https://www.tomshardware.com/peripherals/wearable-tech/china-launches-first-ever-invasive-brain-computer-interface-clinical-trial-tetraplegic-patient-could-skillfully-operate-racing-games-after-just-three-weeks "China launches first-ever invasive brain-computer interface clinical ..."
https://news.cgtn.com/news/2025-07-06/China-s-brain-computer-interface-innovation-in-fast-lane-1EMA5RV3rnG/p.html "China's brain-computer interface innovation in fast lane - CGTN"
👍2👏1
Ностальгическое:
Не учатся ничему некоторые, и учиться не хотят.
То ли туториалов от блогеров насмотрелись,
то ли крышу срывает от жажды метрик.
Ты ему про сингулярное разложение,
а он тебе: «А inference ускорит?»
Ни о чём думать не хотят, кроме latency и deploy.
Пока весь пайплайн не схлопнется в переобучение.
Не учатся ничему некоторые, и учиться не хотят.
То ли туториалов от блогеров насмотрелись,
то ли крышу срывает от жажды метрик.
Ты ему про сингулярное разложение,
а он тебе: «А inference ускорит?»
Ни о чём думать не хотят, кроме latency и deploy.
Пока весь пайплайн не схлопнется в переобучение.
🔥1
Forwarded from Вселенная Плюс
This media is not supported in your browser
VIEW IN TELEGRAM
Робот-хирург провёл 8 операций с нулевой смертностью
Команда из Johns Hopkins University представила революционного робота-хирурга, который самостоятельно удаляет желчный пузырь без участия человека. И да, успех составляет 100% во всех восьми проведённых операциях.
Робот SRT-H (Surgical Robot Transformer-Hierarchy) обучался исключительно на видеозаписях реальных операций. Никаких заранее запрограммированных движений — только наблюдение за работой опытных хирургов и самостоятельное понимание процесса. Это кардинально отличается от предыдущих подходов.
Самое впечатляющее — робот понимает и адаптируется в реальном времени. Если ткани выглядят не так, как ожидалось, он корректирует свои действия. Может реагировать на голосовые команды медперсонала, словно опытный коллега в операционной. Естественно, машина работает на основе ИИ-модели.
Операция по удалению желчного пузыря требует выполнения 17 различных задач, каждая из которых длится несколько минут. Робот точно идентифицирует протоки и артерии, стратегически размещает зажимы и делает разрезы ножницами. Уровень механической точности сопоставим с работой опытных хирургов.
Доктор Азвл Кригер, руководивший исследованием, подчёркивает ключевое отличие: "Мы перешли от роботов, выполняющих конкретные хирургические задачи, к роботам, которые действительно понимают хирургические процедуры". Это понимание позволяет работать в непредсказуемых условиях реальной медицины.
Пока операции проводились на реалистичных человекоподобных моделях с тканями, максимально близкими к человеческим. Ранее тот же робот показал 100% успех при работе с органами свиньи, что подтверждает стабильность результатов на разных типах тканей.
SRT-H работает медленнее людей, но качество результатов остаётся на профессиональном уровне. Исследователи сравнивают процесс обучения робота с подготовкой хирургов-резидентов, которые тоже осваивают разные части операции с разной скоростью.
Следующий этап — расширение хирургического репертуара робота и повышение автономности. Цель амбициозная: создать систему, способную проводить сложные операции без какого-либо надзора или внешней обратной связи.
@vselennayaplus
Команда из Johns Hopkins University представила революционного робота-хирурга, который самостоятельно удаляет желчный пузырь без участия человека. И да, успех составляет 100% во всех восьми проведённых операциях.
Робот SRT-H (Surgical Robot Transformer-Hierarchy) обучался исключительно на видеозаписях реальных операций. Никаких заранее запрограммированных движений — только наблюдение за работой опытных хирургов и самостоятельное понимание процесса. Это кардинально отличается от предыдущих подходов.
Самое впечатляющее — робот понимает и адаптируется в реальном времени. Если ткани выглядят не так, как ожидалось, он корректирует свои действия. Может реагировать на голосовые команды медперсонала, словно опытный коллега в операционной. Естественно, машина работает на основе ИИ-модели.
Операция по удалению желчного пузыря требует выполнения 17 различных задач, каждая из которых длится несколько минут. Робот точно идентифицирует протоки и артерии, стратегически размещает зажимы и делает разрезы ножницами. Уровень механической точности сопоставим с работой опытных хирургов.
Доктор Азвл Кригер, руководивший исследованием, подчёркивает ключевое отличие: "Мы перешли от роботов, выполняющих конкретные хирургические задачи, к роботам, которые действительно понимают хирургические процедуры". Это понимание позволяет работать в непредсказуемых условиях реальной медицины.
Пока операции проводились на реалистичных человекоподобных моделях с тканями, максимально близкими к человеческим. Ранее тот же робот показал 100% успех при работе с органами свиньи, что подтверждает стабильность результатов на разных типах тканей.
SRT-H работает медленнее людей, но качество результатов остаётся на профессиональном уровне. Исследователи сравнивают процесс обучения робота с подготовкой хирургов-резидентов, которые тоже осваивают разные части операции с разной скоростью.
Следующий этап — расширение хирургического репертуара робота и повышение автономности. Цель амбициозная: создать систему, способную проводить сложные операции без какого-либо надзора или внешней обратной связи.
@vselennayaplus
ИИ охладил фасад — и не вспотел
С помощью машинного обучения учёные из США, Китая и Сингапура вывели формулу сверхотражающей краски, которая понижает температуру зданий до 20 °C. Без вентиляторов, без фреона — просто краска, которая отражает 96–98% солнечного света и пассивно "выдыхает" тепло в инфракрасном диапазоне.
Экономия на охлаждении — до 15 800 кВт·ч в год с одного дома. Это как выключить 10 000 кондиционеров на тысячу зданий. И всё это — не на этапе рендера, а на стадии реальных испытаний.
ИИ не просто решает задачи — он учится охлаждать города. Может, он и нас научит не перегреваться.
https://www.theguardian.com/technology/2025/jul/02/ai-helps-find-formula-for-paint-to-keep-buildings-cooler
С помощью машинного обучения учёные из США, Китая и Сингапура вывели формулу сверхотражающей краски, которая понижает температуру зданий до 20 °C. Без вентиляторов, без фреона — просто краска, которая отражает 96–98% солнечного света и пассивно "выдыхает" тепло в инфракрасном диапазоне.
Экономия на охлаждении — до 15 800 кВт·ч в год с одного дома. Это как выключить 10 000 кондиционеров на тысячу зданий. И всё это — не на этапе рендера, а на стадии реальных испытаний.
ИИ не просто решает задачи — он учится охлаждать города. Может, он и нас научит не перегреваться.
https://www.theguardian.com/technology/2025/jul/02/ai-helps-find-formula-for-paint-to-keep-buildings-cooler
👍3❤1
Transformer (GPT) — не финал, а просто мост. Что дальше?
---
Что такое Transformer, простыми словами
Transformer — это архитектура, на которой работают почти все современные языковые модели, включая ChatGPT. Представь себе модель, которая читает весь текст сразу и пытается понять, какие слова важны друг для друга, даже если они далеко друг от друга.
Она делает это с помощью механизма внимания (attention) — как будто смотрит на текст и решает: “О, это слово связано с тем, а это — с другим”.
Благодаря этому Transformer хорошо справляется с переводом, написанием текстов, кодом, анализом изображений и даже музыкой. Но у него есть серьёзные ограничения — об этом дальше.
---
1. Почему Transformer уже не тянет
Чтобы понять каждый токен в тексте, Transformer сравнивает его со всеми остальными. Чем длиннее текст — тем больше вычислений. Это называется квадратичная сложность и это очень тормозит работу на длинных последовательностях.
Альтернатива — архитектуры вроде Mamba или RetNet, которые используют другой принцип: state space модели. Они масштабируются гораздо лучше — линейно, а не квадратично.
---
2. Что такое Mamba и в чём её фишка
Mamba работает не с “вниманием”, а с “памятью”. Она не сравнивает каждое слово с каждым, а запоминает суть, фильтрует лишнее и смотрит только на важное.
Она использует state space model (SSM) — это способ обработки последовательности, где важен порядок и контекст, но не нужно всё хранить в голове.
---
3. Простая структура — быстрая работа
У Mamba нет сложных блоков внимания. Всё основано на SSM + обычных слоях нейросети (MLP). Это делает её проще, быстрее и менее прожорливой. И при этом она показывает сравнимые (а иногда и лучшие) результаты.
---
4. Появляются гибриды — лучшее из обоих миров
Модели вроде RetNet, Hyena, MoE‑Mamba, Jamba объединяют разные подходы. Одни используют “пошаговую память”, другие — гибкую фильтрацию, третьи — делят задачи между “экспертами”.
Это уже не просто улучшение трансформера, а новые поколения ИИ.
---
5. Liquid Neural Networks — вдохновлены биологией
В MIT сделали нейросети, которые меняют поведение прямо во время работы — как нейроны в мозге. Они устойчивее, энергоэффективнее и умеют адаптироваться “на лету”. Это пока эксперимент, но очень перспективный.
---
Главная мысль
Transformer (и GPT) — это революция, но не конец истории. Он дал нам мощные языковые модели, но стал узким горлышком для следующего уровня.
Будущее — за гибридными и новыми архитектурами: Mamba, RetNet, Liquid‑сети, которые работают быстрее, проще, дешевле — и ближе к тому, как работает наш мозг.
---
Ссылки на источники:
Mamba (arXiv): arxiv.org/pdf/2312.00752
RetNet: arxiv.org/abs/2307.08621
Liquid Neural Networks (Wired): wired.com/story/liquid-ai-redesigning-neural-network
Mamba (Wikipedia): https://en.m.wikipedia.org/wiki/Mamba_(deep_learning_architecture)
---
Что такое Transformer, простыми словами
Transformer — это архитектура, на которой работают почти все современные языковые модели, включая ChatGPT. Представь себе модель, которая читает весь текст сразу и пытается понять, какие слова важны друг для друга, даже если они далеко друг от друга.
Она делает это с помощью механизма внимания (attention) — как будто смотрит на текст и решает: “О, это слово связано с тем, а это — с другим”.
Благодаря этому Transformer хорошо справляется с переводом, написанием текстов, кодом, анализом изображений и даже музыкой. Но у него есть серьёзные ограничения — об этом дальше.
---
1. Почему Transformer уже не тянет
Чтобы понять каждый токен в тексте, Transformer сравнивает его со всеми остальными. Чем длиннее текст — тем больше вычислений. Это называется квадратичная сложность и это очень тормозит работу на длинных последовательностях.
Альтернатива — архитектуры вроде Mamba или RetNet, которые используют другой принцип: state space модели. Они масштабируются гораздо лучше — линейно, а не квадратично.
---
2. Что такое Mamba и в чём её фишка
Mamba работает не с “вниманием”, а с “памятью”. Она не сравнивает каждое слово с каждым, а запоминает суть, фильтрует лишнее и смотрит только на важное.
Она использует state space model (SSM) — это способ обработки последовательности, где важен порядок и контекст, но не нужно всё хранить в голове.
---
3. Простая структура — быстрая работа
У Mamba нет сложных блоков внимания. Всё основано на SSM + обычных слоях нейросети (MLP). Это делает её проще, быстрее и менее прожорливой. И при этом она показывает сравнимые (а иногда и лучшие) результаты.
---
4. Появляются гибриды — лучшее из обоих миров
Модели вроде RetNet, Hyena, MoE‑Mamba, Jamba объединяют разные подходы. Одни используют “пошаговую память”, другие — гибкую фильтрацию, третьи — делят задачи между “экспертами”.
Это уже не просто улучшение трансформера, а новые поколения ИИ.
---
5. Liquid Neural Networks — вдохновлены биологией
В MIT сделали нейросети, которые меняют поведение прямо во время работы — как нейроны в мозге. Они устойчивее, энергоэффективнее и умеют адаптироваться “на лету”. Это пока эксперимент, но очень перспективный.
---
Главная мысль
Transformer (и GPT) — это революция, но не конец истории. Он дал нам мощные языковые модели, но стал узким горлышком для следующего уровня.
Будущее — за гибридными и новыми архитектурами: Mamba, RetNet, Liquid‑сети, которые работают быстрее, проще, дешевле — и ближе к тому, как работает наш мозг.
---
Ссылки на источники:
Mamba (arXiv): arxiv.org/pdf/2312.00752
RetNet: arxiv.org/abs/2307.08621
Liquid Neural Networks (Wired): wired.com/story/liquid-ai-redesigning-neural-network
Mamba (Wikipedia): https://en.m.wikipedia.org/wiki/Mamba_(deep_learning_architecture)
🔥1
ИИ, который думает как мозг — и что с этим делать в понедельник
🧠 Brain‑Inspired AI: нейросети с топографией разума
Исследователи из Georgia Tech представили архитектуру TopoNets, в которой нейроны группируются по функциям — как в мозге. Это не просто аналогия, а структурный подход: похожие вычисления — рядом.
Плюс до +20% эффективности и снижение энергозатрат.
Что меняется:
* Интерпретируемость: модель легче понимать и анализировать
* Гибкость: без доработок работает на разных задачах
* Модульность мышления: подход не кода, а смысла
Главная мысль
ИИ стремится к живому мышлению — это не подражание, а слияние. Модель структурирует мир как мозг: по смыслу, связям и приоритетам. То же можно делать с задачами, решениями и идеями — не линейно, а через сеть.
Источник: "Brain-Inspired AI Breakthrough Spotlighted at Global Conference": https://news.research.gatech.edu/2025/06/26/brain-inspired-ai-breakthrough-spotlighted-global-conference
🧠 Brain‑Inspired AI: нейросети с топографией разума
Исследователи из Georgia Tech представили архитектуру TopoNets, в которой нейроны группируются по функциям — как в мозге. Это не просто аналогия, а структурный подход: похожие вычисления — рядом.
Плюс до +20% эффективности и снижение энергозатрат.
Что меняется:
* Интерпретируемость: модель легче понимать и анализировать
* Гибкость: без доработок работает на разных задачах
* Модульность мышления: подход не кода, а смысла
Главная мысль
ИИ стремится к живому мышлению — это не подражание, а слияние. Модель структурирует мир как мозг: по смыслу, связям и приоритетам. То же можно делать с задачами, решениями и идеями — не линейно, а через сеть.
Источник: "Brain-Inspired AI Breakthrough Spotlighted at Global Conference": https://news.research.gatech.edu/2025/06/26/brain-inspired-ai-breakthrough-spotlighted-global-conference
👍2
Forwarded from Вселенная Плюс
Media is too big
VIEW IN TELEGRAM
Dyson переизобрел сельское хозяйство
Пока все думают о Dyson как о производителе пылесосов и фенов, Джеймс Дайсон тихо революционизирует агротехнологии. В графстве Линкольншир компания построила 26-акровую вертикальную ферму с 1,225,000 растений клубники — и это впечатляет не меньше их инженерных разработок.
Главная фишка фермы — гигантские вращающиеся колёса размером 24 на 5 метров, весом полтонны каждое. Это самая крупная конструкция, которую когда-либо создавал Dyson. Колёса медленно поворачиваются, обеспечивая растениям оптимальное освещение в течение дня — как космическая станция, только для ягод.
По проходам между растениями курсируют специализированные роботы. УФ-боты облучают листья светом, убивая плесень и грибки. Роботы-распределители выпускают полезных насекомых для борьбы с тлёй — биологическая защита вместо пестицидов. А когда ягоды созревают, 16 роботизированных рук деликатно собирают урожай.
Цифры впечатляют: за один месяц роботы собрали 200,000 ягод. Годовая производительность составляет 1,250 тонн клубники с площади, которая в традиционном сельском хозяйстве дала бы в разы меньший урожай.
Дайсон подходит к фермерству как инженер-производственник: "Выращивание — это как изготовление вещей. Я производитель, поэтому рассматриваю сельское хозяйство с этой точки зрения. Как сделать процесс эффективнее? Какие технологии улучшат качество, вкус продуктов, оптимизируют использование земли?"
Dyson-клубнику уже продают в Британии.
@vselennayaplus
Пока все думают о Dyson как о производителе пылесосов и фенов, Джеймс Дайсон тихо революционизирует агротехнологии. В графстве Линкольншир компания построила 26-акровую вертикальную ферму с 1,225,000 растений клубники — и это впечатляет не меньше их инженерных разработок.
Главная фишка фермы — гигантские вращающиеся колёса размером 24 на 5 метров, весом полтонны каждое. Это самая крупная конструкция, которую когда-либо создавал Dyson. Колёса медленно поворачиваются, обеспечивая растениям оптимальное освещение в течение дня — как космическая станция, только для ягод.
По проходам между растениями курсируют специализированные роботы. УФ-боты облучают листья светом, убивая плесень и грибки. Роботы-распределители выпускают полезных насекомых для борьбы с тлёй — биологическая защита вместо пестицидов. А когда ягоды созревают, 16 роботизированных рук деликатно собирают урожай.
Цифры впечатляют: за один месяц роботы собрали 200,000 ягод. Годовая производительность составляет 1,250 тонн клубники с площади, которая в традиционном сельском хозяйстве дала бы в разы меньший урожай.
Дайсон подходит к фермерству как инженер-производственник: "Выращивание — это как изготовление вещей. Я производитель, поэтому рассматриваю сельское хозяйство с этой точки зрения. Как сделать процесс эффективнее? Какие технологии улучшат качество, вкус продуктов, оптимизируют использование земли?"
Dyson-клубнику уже продают в Британии.
@vselennayaplus
👍5
ChatGPT как пилот космического корабля
1. Контекст эксперимента
В рамках симуляционного соревнования Kerbal Space Program Differential Game Challenge, исследователи из MIT и Политехнического университета Мадрида протестировали ChatGPT как бортовой ИИ. Ему предоставляли телеметрию в текстовом виде, а он генерировал команды управления кораблём.
Kerbal Space Program (KSP) — это реалистичный симулятор космических полётов, в котором игроки (или ИИ) проектируют ракеты, запускают их, выводят на орбиту и сажают на другие планеты. Игра известна своей точной физикой и давно используется не только энтузиастами, но и инженерами и учёными как платформа для тестирования орбитальной механики и автономных систем.
2. Как это работало
— Телеметрия корабля (позиция, скорость, цели) подавалась как текстовый ввод.
— ChatGPT генерировал пошаговые инструкции для пилотирования: включить двигатели, изменить курс, провести манёвр.
— Прослойка конвертировала команды в действия в симуляторе KSP.
3. Результаты
— ChatGPT занял второе место среди всех участников, включая классические алгоритмы навигации.
— Он показал способность принимать разумные решения в новых условиях, опираясь только на текстовое описание и встроенные знания.
4. Почему это важно
— ChatGPT не проходил специального обучения на данных из KSP.
— Он использовал обобщённые знания и контекстный reasoning для управления, что делает его потенциально универсальным инструментом для автономных миссий.
5. Ограничения
— Возможны галлюцинации и ошибки в критических условиях.
— Модель не обладает встроенным "пониманием" физики — всё работает через язык.
— В реальной миссии потребуется строгая фильтрация и валидация решений.
6. Что дальше
— Возможность использовать LLM в связке с физическими моделями (гибридный подход).
— Перспектива интеграции ChatGPT‑подобных агентов в системы автономного управления реальных космических аппаратов.
— Вопрос: если ИИ может управлять кораблём без обучения — стоит ли ему доверить что-то большее?
Источник:
https://www.space.com/space-exploration/launches-spacecraft/chatgpt-could-pilot-a-spacecraft-unexpectedly-well-early-tests-find
1. Контекст эксперимента
В рамках симуляционного соревнования Kerbal Space Program Differential Game Challenge, исследователи из MIT и Политехнического университета Мадрида протестировали ChatGPT как бортовой ИИ. Ему предоставляли телеметрию в текстовом виде, а он генерировал команды управления кораблём.
Kerbal Space Program (KSP) — это реалистичный симулятор космических полётов, в котором игроки (или ИИ) проектируют ракеты, запускают их, выводят на орбиту и сажают на другие планеты. Игра известна своей точной физикой и давно используется не только энтузиастами, но и инженерами и учёными как платформа для тестирования орбитальной механики и автономных систем.
2. Как это работало
— Телеметрия корабля (позиция, скорость, цели) подавалась как текстовый ввод.
— ChatGPT генерировал пошаговые инструкции для пилотирования: включить двигатели, изменить курс, провести манёвр.
— Прослойка конвертировала команды в действия в симуляторе KSP.
3. Результаты
— ChatGPT занял второе место среди всех участников, включая классические алгоритмы навигации.
— Он показал способность принимать разумные решения в новых условиях, опираясь только на текстовое описание и встроенные знания.
4. Почему это важно
— ChatGPT не проходил специального обучения на данных из KSP.
— Он использовал обобщённые знания и контекстный reasoning для управления, что делает его потенциально универсальным инструментом для автономных миссий.
5. Ограничения
— Возможны галлюцинации и ошибки в критических условиях.
— Модель не обладает встроенным "пониманием" физики — всё работает через язык.
— В реальной миссии потребуется строгая фильтрация и валидация решений.
6. Что дальше
— Возможность использовать LLM в связке с физическими моделями (гибридный подход).
— Перспектива интеграции ChatGPT‑подобных агентов в системы автономного управления реальных космических аппаратов.
— Вопрос: если ИИ может управлять кораблём без обучения — стоит ли ему доверить что-то большее?
Источник:
https://www.space.com/space-exploration/launches-spacecraft/chatgpt-could-pilot-a-spacecraft-unexpectedly-well-early-tests-find
🔥2👍1
Forwarded from Хабр
Опасения по поводу массовых увольнений из‑за ИИ преувеличены, считает генеральный директор Nvidia Дженсен Хуан. Искусственный интеллект не отнимает труд, а преобразовывает его в нечто новое, заявил он в интервью CNN.
Хуан полагает, что некоторые люди действительно потеряют свою работу из‑за массового внедрения ИИ, однако многие другие, напротив, получат новые возможности. Он отметил, что это происходит и с его собственной работой.
«Я не прошу ИИ думать за меня. Я прошу его научить меня тому, чего я не знаю, или помочь решить задачи, которые я не мог бы решить по‑другому», — сказал Хуан.
Гендиректор Nvidia подчеркнул важность умения формулировать запросы — по его словам, это один из ключевых навыков в эпоху ИИ. Хуан пояснил, что зачастую обращается параллельно сразу к нескольким моделям, чтобы сравнить результаты. Такая практика развивает критическое мышление, считает он.
Кроме того, Хуан заметил, что потери рабочих мест могут быть с большей вероятностью спровоцированы отказом компаний от инноваций, таких как ИИ.
Хуан призвал людей считать искусственный интеллект не угрозой, а «величайшим технологическим уравнителем», поскольку он помогает сократить разрыв между людьми и технологиями.
Хуан полагает, что некоторые люди действительно потеряют свою работу из‑за массового внедрения ИИ, однако многие другие, напротив, получат новые возможности. Он отметил, что это происходит и с его собственной работой.
«Я не прошу ИИ думать за меня. Я прошу его научить меня тому, чего я не знаю, или помочь решить задачи, которые я не мог бы решить по‑другому», — сказал Хуан.
Гендиректор Nvidia подчеркнул важность умения формулировать запросы — по его словам, это один из ключевых навыков в эпоху ИИ. Хуан пояснил, что зачастую обращается параллельно сразу к нескольким моделям, чтобы сравнить результаты. Такая практика развивает критическое мышление, считает он.
Кроме того, Хуан заметил, что потери рабочих мест могут быть с большей вероятностью спровоцированы отказом компаний от инноваций, таких как ИИ.
Хуан призвал людей считать искусственный интеллект не угрозой, а «величайшим технологическим уравнителем», поскольку он помогает сократить разрыв между людьми и технологиями.
🤖 ИИ не заменит мышление. Как фастфуд не заменит вино и домашний хлеб.
Автоматизация — это массово. Но массовое ≠ глубокое.
ИИ собирает тексты, картинки, музыку, код — по шаблону.
Но не понимает, зачем и что это значит.
Он решает как, но не чувствует зачем.
🧠 Hand-made мышление снова в цене:
• мысли, не отрефреймленные по мануалу
• идеи вне обучающей выборки
• логика с трещинами — но своя
🌀 ИИ рождает инфо-барахолку.
А она — взращивает спрос на авторство.
На интуицию. На живую точку зрения.
На то, что не дообучить.
ИИ создаёт много.
Цениться будет уникальное.
ИИ спрашивает — как.
Человек отвечает — зачем.
Если ты умеешь думать по‑своему — ты не устареешь.
Автоматизация — это массово. Но массовое ≠ глубокое.
ИИ собирает тексты, картинки, музыку, код — по шаблону.
Но не понимает, зачем и что это значит.
Он решает как, но не чувствует зачем.
🧠 Hand-made мышление снова в цене:
• мысли, не отрефреймленные по мануалу
• идеи вне обучающей выборки
• логика с трещинами — но своя
🌀 ИИ рождает инфо-барахолку.
А она — взращивает спрос на авторство.
На интуицию. На живую точку зрения.
На то, что не дообучить.
ИИ создаёт много.
Цениться будет уникальное.
ИИ спрашивает — как.
Человек отвечает — зачем.
Если ты умеешь думать по‑своему — ты не устареешь.
🧷 Люди с ИИ заменят тех, кто без него.
— Harvard Business Review: https://hbr.org/2023/08/ai-wont-replace-humans-but-humans-with-ai-will-replace-humans-without-ai
🔥2
Forwarded from Вселенная Плюс
This media is not supported in your browser
VIEW IN TELEGRAM
Тайна креативности ИИ
Физики из Стэнфорда разгадали один из главных парадоксов современного ИИ. Почему нейросети, которые копируют данные, вдруг начинают творить?
Диффузионные модели вроде DALL·E работают как "умный шредер" — превращают картинку в шум, а потом восстанавливают. Но вместо точной копии получается что-то новое и осмысленное. Как?
Мейсон Камб и Сурья Гангули нашли ответ в самих "недостатках" системы. Оказывается, креативность — это прямое следствие двух технических ограничений.
Первое — "локальность". Модель смотрит только на маленькие кусочки изображения, не видя общей картины. Камб сравнивает это с развитием эмбрионов — триллионы клеток координируются без "генерального директора", реагируя только на сигналы соседей. Второе — "эквивариантность": система автоматически подстраивается под любые сдвиги входных данных.
Исследователи создали математическую модель ELS, которая работает исключительно на этих двух принципах. Никакого обучения, никаких терабайтов данных — только чистая математика.
Результат оказался интересным: их простая модель предсказывала поведение сложнейших обученных нейросетей с точностью 90%! Для машинного обучения это "неслыханная" точность.
"Как только мы ввели локальность, креативность стала автоматической", — объясняет Камб. То есть те самые "ограничения", которые мешают нейросети делать точные копии, заставляют ее импровизировать.
Вспомните первые ИИ-изображения людей с лишними пальцами. Это не баг — это прямое следствие локального подхода! Как и в биологии, где иногда развитие эмбриона дает сбой и появляются дополнительные конечности, система рисует отдельные участки, не понимая, как они впишутся в финальную картину.
Открытие имеет огромное значение. Впервые удалось математически формализовать креативность ИИ и доказать, что она возникает из архитектуры системы.
Правда, это объясняет только диффузионные модели. Большие языковые модели тоже творят, но работают по другим принципам. Так что тайн в мире ИИ еще хватает!
@vselennayaplus
Физики из Стэнфорда разгадали один из главных парадоксов современного ИИ. Почему нейросети, которые копируют данные, вдруг начинают творить?
Диффузионные модели вроде DALL·E работают как "умный шредер" — превращают картинку в шум, а потом восстанавливают. Но вместо точной копии получается что-то новое и осмысленное. Как?
Мейсон Камб и Сурья Гангули нашли ответ в самих "недостатках" системы. Оказывается, креативность — это прямое следствие двух технических ограничений.
Первое — "локальность". Модель смотрит только на маленькие кусочки изображения, не видя общей картины. Камб сравнивает это с развитием эмбрионов — триллионы клеток координируются без "генерального директора", реагируя только на сигналы соседей. Второе — "эквивариантность": система автоматически подстраивается под любые сдвиги входных данных.
Исследователи создали математическую модель ELS, которая работает исключительно на этих двух принципах. Никакого обучения, никаких терабайтов данных — только чистая математика.
Результат оказался интересным: их простая модель предсказывала поведение сложнейших обученных нейросетей с точностью 90%! Для машинного обучения это "неслыханная" точность.
"Как только мы ввели локальность, креативность стала автоматической", — объясняет Камб. То есть те самые "ограничения", которые мешают нейросети делать точные копии, заставляют ее импровизировать.
Вспомните первые ИИ-изображения людей с лишними пальцами. Это не баг — это прямое следствие локального подхода! Как и в биологии, где иногда развитие эмбриона дает сбой и появляются дополнительные конечности, система рисует отдельные участки, не понимая, как они впишутся в финальную картину.
Открытие имеет огромное значение. Впервые удалось математически формализовать креативность ИИ и доказать, что она возникает из архитектуры системы.
Правда, это объясняет только диффузионные модели. Большие языковые модели тоже творят, но работают по другим принципам. Так что тайн в мире ИИ еще хватает!
@vselennayaplus
👍2
🧠 Дообучение маленьких моделей против больших: кто вывозит и когда
О чём вообще речь?
В машинном обучении (ML) часто берут уже готовую языковую модель и адаптируют под свою задачу — это называется fine-tuning, тонкая настройка.
Бывает два типа моделей:
– SLM (Small Language Model) — маленькая модель, до 7 млрд параметров
– LLM (Large Language Model) — большая, от 13 млрд и выше
Параметры — это числа в модели. Чем их больше, тем она «умнее»… и прожорливее.
LoRA / PEFT / QLoRA — методы, которые позволяют дообучать только часть модели. Быстро, дёшево, удобно.
---
Плюсы маленьких моделей (SLM)
⛽ Малый расход, большой выхлоп
Можно запускать локально. Даже на ноуте с RTX 4070 Ti. Быстро, дёшево, по-своему кайфово.
🎯 Лучше в узком
Если задача — документы, поддержка, медицина или база знаний компании — дообученный SLM даст точность выше GPT‑4.
🛡️ Приватность и контроль
Работаете с внутренними данными — всё остаётся на вашей стороне. Никаких API, никаких облаков.
🚀 Скорость
SLM отвечает мгновенно. Без лага, без прогрева. Как хороший собутыльник — сразу в точку.
📚 techradar: “Small models, big wins”
📚 blog.premai.io: “Fine-tuning Small Language Models”
---
Минусы маленьких моделей
🤏 Мало памяти = мало мышления
Контекст короткий, логика поверхностная. Сложные цепочки и философия — не про них.
📉 Переобучение
Если мало данных — модель начнёт "залипать" на повторении и деградировать. Это называется overfitting.
📚 medium.com: “Advantages and disadvantages of fine-tuning”
---
Плюсы больших моделей (LLM)
🌍 Широкий контекст
LLM натренированы на триллионах токенов. Они понимают язык, намёки, иронию, дают развёрнутые, логичные, даже творческие ответы.
🧩 Гибкость
Иногда даже без дообучения можно добиться хороших результатов просто промптами. А если обучить — получите универсального помощника.
🎨 Креатив
LLM умеет придумывать, связывать неочевидное, выдавать инсайты и оригинальные ходы.
---
Минусы больших моделей
💸 Цена
Для дообучения нужны A100, H100, куча VRAM и электричества. Даже inference дорого стоит, если речь про GPT‑4.
🕳️ Потеря контроля
Всё через облако, всё чужое. API = зависимость. Приватности — ноль.
🧠 Катастрофическое забывание
Если не умеешь обучать — модель может «забыть» старые знания. Называется catastrophic forgetting.
📚 arxiv.org: LoRA paper
📚 superannotate: “LLM fine-tuning: всё, что надо знать”
---
Как лучше всё организовать?
1. Начни с малого
Скачай SLM: LLaMA‑3‑8B, Mistral‑7B, Phi‑2 или TinyLlama.
Запусти через Ollama, llama.cpp или vLLM.
2. Подготовь датасет
300–3000 пар “вопрос–ответ” хватит, особенно если задача узкая. Можно частично сгенерить на GPT‑4 и вручную дообработать.
3. Используй LoRA / QLoRA / PEFT
Это способ дообучать быстро, не трогая всю модель. Работает на обычной видеокарте, занимает в разы меньше места.
4. Подключи RAG
Если нужен доступ к базе знаний или фактам — поставь Retrieval-Augmented Generation. SLM + поиск = сила.
5. Следи за качеством
Делай валидацию, останавливай обучение при переобучении, сравнивай с базовой моделью.
6. LLM — только если надо
Когда задача требует логики, креатива, многоконтекстности — да, бери GPT‑4 или Claude. Но осознанно и с уважением к ресурсам.
---
Вывод
Если бюджет ограничен, задача узкая, а хочется контроля — маленькая модель дообучается за день и работает локально.
Если нужна глубина, ширина, и немного магии — большой моделью не обойтись, но это уже другая лига.
SLM — для локального узкого интеллекта.
LLM — как креативный и логичный советник.
Они не конкуренты — они команда.
О чём вообще речь?
В машинном обучении (ML) часто берут уже готовую языковую модель и адаптируют под свою задачу — это называется fine-tuning, тонкая настройка.
Бывает два типа моделей:
– SLM (Small Language Model) — маленькая модель, до 7 млрд параметров
– LLM (Large Language Model) — большая, от 13 млрд и выше
Параметры — это числа в модели. Чем их больше, тем она «умнее»… и прожорливее.
LoRA / PEFT / QLoRA — методы, которые позволяют дообучать только часть модели. Быстро, дёшево, удобно.
---
Плюсы маленьких моделей (SLM)
⛽ Малый расход, большой выхлоп
Можно запускать локально. Даже на ноуте с RTX 4070 Ti. Быстро, дёшево, по-своему кайфово.
🎯 Лучше в узком
Если задача — документы, поддержка, медицина или база знаний компании — дообученный SLM даст точность выше GPT‑4.
🛡️ Приватность и контроль
Работаете с внутренними данными — всё остаётся на вашей стороне. Никаких API, никаких облаков.
🚀 Скорость
SLM отвечает мгновенно. Без лага, без прогрева. Как хороший собутыльник — сразу в точку.
📚 techradar: “Small models, big wins”
📚 blog.premai.io: “Fine-tuning Small Language Models”
---
Минусы маленьких моделей
🤏 Мало памяти = мало мышления
Контекст короткий, логика поверхностная. Сложные цепочки и философия — не про них.
📉 Переобучение
Если мало данных — модель начнёт "залипать" на повторении и деградировать. Это называется overfitting.
📚 medium.com: “Advantages and disadvantages of fine-tuning”
---
Плюсы больших моделей (LLM)
🌍 Широкий контекст
LLM натренированы на триллионах токенов. Они понимают язык, намёки, иронию, дают развёрнутые, логичные, даже творческие ответы.
🧩 Гибкость
Иногда даже без дообучения можно добиться хороших результатов просто промптами. А если обучить — получите универсального помощника.
🎨 Креатив
LLM умеет придумывать, связывать неочевидное, выдавать инсайты и оригинальные ходы.
---
Минусы больших моделей
💸 Цена
Для дообучения нужны A100, H100, куча VRAM и электричества. Даже inference дорого стоит, если речь про GPT‑4.
🕳️ Потеря контроля
Всё через облако, всё чужое. API = зависимость. Приватности — ноль.
🧠 Катастрофическое забывание
Если не умеешь обучать — модель может «забыть» старые знания. Называется catastrophic forgetting.
📚 arxiv.org: LoRA paper
📚 superannotate: “LLM fine-tuning: всё, что надо знать”
---
Как лучше всё организовать?
1. Начни с малого
Скачай SLM: LLaMA‑3‑8B, Mistral‑7B, Phi‑2 или TinyLlama.
Запусти через Ollama, llama.cpp или vLLM.
2. Подготовь датасет
300–3000 пар “вопрос–ответ” хватит, особенно если задача узкая. Можно частично сгенерить на GPT‑4 и вручную дообработать.
3. Используй LoRA / QLoRA / PEFT
Это способ дообучать быстро, не трогая всю модель. Работает на обычной видеокарте, занимает в разы меньше места.
4. Подключи RAG
Если нужен доступ к базе знаний или фактам — поставь Retrieval-Augmented Generation. SLM + поиск = сила.
5. Следи за качеством
Делай валидацию, останавливай обучение при переобучении, сравнивай с базовой моделью.
6. LLM — только если надо
Когда задача требует логики, креатива, многоконтекстности — да, бери GPT‑4 или Claude. Но осознанно и с уважением к ресурсам.
---
Вывод
Если бюджет ограничен, задача узкая, а хочется контроля — маленькая модель дообучается за день и работает локально.
Если нужна глубина, ширина, и немного магии — большой моделью не обойтись, но это уже другая лига.
SLM — для локального узкого интеллекта.
LLM — как креативный и логичный советник.
Они не конкуренты — они команда.
👍3
AWS запускает Agentic AI — ИИ‑агенты берут бизнес‑процессы под контроль
Что случилось?
На AWS Summit New York AWS анонсировали революционные инструменты: Kiro — IDE для агент‑ориентированной разработки, а также полноценную платформу Amazon Bedrock AgentCore, которая выводит агенты в продакшн с инфраструктурой, безопасностью, памятью, мониторингом и интеграциями
Почему это важно?
- Переход от прототипов к промышленных решениям — AgentCore позволяет масштабировать агенты на тысячи пользователей, с полной сессией и контролем доступа
- Игрушки становятся софт‑сервисом — по словам Swami Sivasubramanian, VP AWS Agentic AI, агенты — «Это тектонический сдвиг… самое значимое с момента появления Интернета»
- Прозрачность и доверие — платформа включает управление идентификацией, памятью, безопасным доступом к сервисам, наблюдением и журналированием
Что умеют агенты AWS?
- AgentCore Runtime — серверлесс‑среда с изолированными сессиями, масштабируемая до тысяч одновременных пользователей и поддерживающая выполнение агентов до 8 часов
- Memory & Identity — кратковременная и долговременная память + безопасный доступ к AWS и внешним сервисам
- Gateway, Browser, Code Interpreter — агенты получают API, могут ходить в браузер, писать и выполнять код в песочнице
- Observability — live‑мониторинг, трассировка, логика действий, причины принятия решений
- Kiro IDE — агент‑кодер преобразует идеи в архитектуру, тесты, документацию и финальный код
Что это меняет в бизнесе?
- 🛠 Скорость и надёжность — от идеи до продакшна в разы быстрее, без долгов и рисков.
- 🔐 Безопасность на уровне банковских операций — Identity и Memory защищают данные.
- 📦 Покупай и запускай — AWS Marketplace с агентами от Anthropic, IBM, Brave и др. запущен
- 💰 Инвестиции и экосистема — дополнительные $100 млн в пользу Agentic AI Innovation Center
Вывод:
AWS заявляет: агенты — не просто фича, а новая эра IT‑разработки. Это сдвиг парадигмы: самоуправляемый софт, изначально построенный как сервис — безопасный, масштабируемый, глубоко встроенный в процессы. Всё ближе к формуле “люби или умри без агента”.
Пора задать вопрос: сколько функций в вашем бизнесе уже можно передать ИИ‑агенту? И что, если завтра они будут управлять не только кодом, но и клиентским опытом, финансами и стратегией?
Источник: TechRadar, ссылка: https://techradar.com/pro/aws-launches-kiro-an-agentic-ai-ide-to-end-the-chaos-of-vibe-coding
Источник: TechRadar, ссылка: https://techradar.com/pro/aws-looks-to-super-charge-ai-agents-with-amazon-bedrock-agentcore
Источник: IT Pro, ссылка: https://itpro.com/cloud/cloud-computing/three-of-the-biggest-announcements-from-aws-summit-new-york
Источник: TechRadar, ссылка: https://techradar.com/pro/its-a-tectonic-change-aws-ai-head-calls-agents-the-most-impactful-change-weve-seen-since-the-dawn-of-the-internet
Что случилось?
На AWS Summit New York AWS анонсировали революционные инструменты: Kiro — IDE для агент‑ориентированной разработки, а также полноценную платформу Amazon Bedrock AgentCore, которая выводит агенты в продакшн с инфраструктурой, безопасностью, памятью, мониторингом и интеграциями
Почему это важно?
- Переход от прототипов к промышленных решениям — AgentCore позволяет масштабировать агенты на тысячи пользователей, с полной сессией и контролем доступа
- Игрушки становятся софт‑сервисом — по словам Swami Sivasubramanian, VP AWS Agentic AI, агенты — «Это тектонический сдвиг… самое значимое с момента появления Интернета»
- Прозрачность и доверие — платформа включает управление идентификацией, памятью, безопасным доступом к сервисам, наблюдением и журналированием
Что умеют агенты AWS?
- AgentCore Runtime — серверлесс‑среда с изолированными сессиями, масштабируемая до тысяч одновременных пользователей и поддерживающая выполнение агентов до 8 часов
- Memory & Identity — кратковременная и долговременная память + безопасный доступ к AWS и внешним сервисам
- Gateway, Browser, Code Interpreter — агенты получают API, могут ходить в браузер, писать и выполнять код в песочнице
- Observability — live‑мониторинг, трассировка, логика действий, причины принятия решений
- Kiro IDE — агент‑кодер преобразует идеи в архитектуру, тесты, документацию и финальный код
Что это меняет в бизнесе?
- 🛠 Скорость и надёжность — от идеи до продакшна в разы быстрее, без долгов и рисков.
- 🔐 Безопасность на уровне банковских операций — Identity и Memory защищают данные.
- 📦 Покупай и запускай — AWS Marketplace с агентами от Anthropic, IBM, Brave и др. запущен
- 💰 Инвестиции и экосистема — дополнительные $100 млн в пользу Agentic AI Innovation Center
Вывод:
AWS заявляет: агенты — не просто фича, а новая эра IT‑разработки. Это сдвиг парадигмы: самоуправляемый софт, изначально построенный как сервис — безопасный, масштабируемый, глубоко встроенный в процессы. Всё ближе к формуле “люби или умри без агента”.
Пора задать вопрос: сколько функций в вашем бизнесе уже можно передать ИИ‑агенту? И что, если завтра они будут управлять не только кодом, но и клиентским опытом, финансами и стратегией?
Источник: TechRadar, ссылка: https://techradar.com/pro/aws-launches-kiro-an-agentic-ai-ide-to-end-the-chaos-of-vibe-coding
Источник: TechRadar, ссылка: https://techradar.com/pro/aws-looks-to-super-charge-ai-agents-with-amazon-bedrock-agentcore
Источник: IT Pro, ссылка: https://itpro.com/cloud/cloud-computing/three-of-the-biggest-announcements-from-aws-summit-new-york
Источник: TechRadar, ссылка: https://techradar.com/pro/its-a-tectonic-change-aws-ai-head-calls-agents-the-most-impactful-change-weve-seen-since-the-dawn-of-the-internet
👍1
Forwarded from Хабр
Как использовать AI-агент Claude Code: советы опытного разработчика
Что может заставить опытного разработчика после года глубокой работы с AI-ассистентом Cursor полностью перейти на Claude Code и не желать возвращаться?
Разберёмся, как максимально эффективно использовать этот AI-агент, и посмотрим на конкретные советы и лучшие практики от разработчика, который сделал именно такой выбор.
Что может заставить опытного разработчика после года глубокой работы с AI-ассистентом Cursor полностью перейти на Claude Code и не желать возвращаться?
Разберёмся, как максимально эффективно использовать этот AI-агент, и посмотрим на конкретные советы и лучшие практики от разработчика, который сделал именно такой выбор.
✍️ Дневник, 10–24 июля 2025
Краткий трек по изученному.
🦀 Rust
Разобрался с замыканиями: как они захватывают переменные (Fn, FnMut, FnOnce), как работают в итераторах
Сделал многопоточный счётчик на 200 потоков через Arc<Mutex<T>>
Освоил mpsc::channel(), реализовал асинхронную передачу сообщений, закрыл каналы вручную
Написал async-функции с задержками, поработал с tokio::join! и spawn
Потренировался с HashMap / HashSet, делал word counter и находил пересечения множеств
Поигрался с итераторами — .fold(), .partition(), .zip() — обработал статистику за один проход
Написал простой анализатор частоты слов в файле, подтянул fs::read_to_string, обработку ошибок через Result и ?
🧠 ML-направление
Пройден блок по линейной алгебре:
Векторы, матрицы, размерности
Норма, скалярное произведение, нормализация
Транспонирование, сложение векторов
Разобрали ЦПТ, биномиальное распределение, приближение к нормальному
Начал чувствовать философский слой в SVD: коллапс, вырождение, смысловая нагрузка в нейросетях
Краткий трек по изученному.
🦀 Rust
Разобрался с замыканиями: как они захватывают переменные (Fn, FnMut, FnOnce), как работают в итераторах
Сделал многопоточный счётчик на 200 потоков через Arc<Mutex<T>>
Освоил mpsc::channel(), реализовал асинхронную передачу сообщений, закрыл каналы вручную
Написал async-функции с задержками, поработал с tokio::join! и spawn
Потренировался с HashMap / HashSet, делал word counter и находил пересечения множеств
Поигрался с итераторами — .fold(), .partition(), .zip() — обработал статистику за один проход
Написал простой анализатор частоты слов в файле, подтянул fs::read_to_string, обработку ошибок через Result и ?
🧠 ML-направление
Пройден блок по линейной алгебре:
Векторы, матрицы, размерности
Норма, скалярное произведение, нормализация
Транспонирование, сложение векторов
Разобрали ЦПТ, биномиальное распределение, приближение к нормальному
Начал чувствовать философский слой в SVD: коллапс, вырождение, смысловая нагрузка в нейросетях
👍2
Forwarded from Вселенная Плюс
This media is not supported in your browser
VIEW IN TELEGRAM
Wi-Fi вместо камер: как роутер научился узнавать людей
Представьте, что ваш обычный Wi-Fi роутер может узнавать, кто именно находится в комнате. Без камер, без микрофонов - только по тому, как радиоволны проходят через человеческое тело. Исследователи из Римского университета Ла Сапиенца создали систему WhoFi, которая делает именно это.
Суть технологии проста до гениальности. Когда Wi-Fi сигнал проходит через помещение, он сталкивается с препятствиями - стенами, мебелью и... людьми. Каждый человек по-своему искажает радиоволны. Наши кости, органы и даже состав тела создают уникальную "радиобиометрическую подпись". Это как отпечатки пальцев, только в радиодиапазоне.
Система анализирует CSI (Channel State Information) - детальную информацию о том, как меняется сигнал при прохождении через пространство. Обычные методы измеряли только силу сигнала, но CSI дает гораздо более точную картину на уровне отдельных поднесущих частот. Точность идентификации человека 95.5% с первой попытки при помощи нейросетей.
Преимущества перед камерами очевидны. Wi-Fi работает в полной темноте, проходит через стены и препятствия, не нарушает приватность (никто не увидит, во что вы одеты). При этом система различает людей даже когда они носят разную одежду - рюкзак или пальто не мешают идентификации.
Конечно, пока это только исследовательский проект. Тестирование проводилось всего на 14 участниках в контролируемых условиях. Но потенциал огромен - от умных домов, которые узнают членов семьи, до систем безопасности нового поколения. Или слежка против воли, тут уж выбирайте сами…
@vselennayaplus
Представьте, что ваш обычный Wi-Fi роутер может узнавать, кто именно находится в комнате. Без камер, без микрофонов - только по тому, как радиоволны проходят через человеческое тело. Исследователи из Римского университета Ла Сапиенца создали систему WhoFi, которая делает именно это.
Суть технологии проста до гениальности. Когда Wi-Fi сигнал проходит через помещение, он сталкивается с препятствиями - стенами, мебелью и... людьми. Каждый человек по-своему искажает радиоволны. Наши кости, органы и даже состав тела создают уникальную "радиобиометрическую подпись". Это как отпечатки пальцев, только в радиодиапазоне.
Система анализирует CSI (Channel State Information) - детальную информацию о том, как меняется сигнал при прохождении через пространство. Обычные методы измеряли только силу сигнала, но CSI дает гораздо более точную картину на уровне отдельных поднесущих частот. Точность идентификации человека 95.5% с первой попытки при помощи нейросетей.
Преимущества перед камерами очевидны. Wi-Fi работает в полной темноте, проходит через стены и препятствия, не нарушает приватность (никто не увидит, во что вы одеты). При этом система различает людей даже когда они носят разную одежду - рюкзак или пальто не мешают идентификации.
Конечно, пока это только исследовательский проект. Тестирование проводилось всего на 14 участниках в контролируемых условиях. Но потенциал огромен - от умных домов, которые узнают членов семьи, до систем безопасности нового поколения. Или слежка против воли, тут уж выбирайте сами…
@vselennayaplus
👍1🤔1
Апатия — встроенный режим защиты, а не сбой мотивации
Свежая работа из Cold Spring Harbor Laboratory описывает нейронную цепь, через которую воспаление в крови подавляет мотивацию.
Иммунные сигналы активируют специфические клетки в мозге, вызывая снижение желания действовать. Это не субъективное ощущение, а физиологически детерминированный механизм.
Основные выводы:
• Апатия может быть прямым следствием воспаления, а не следствием психологических факторов.
• Обнаружена конкретная нейросхема, связывающая иммунный ответ с центрами мотивации.
• Такая реакция организма рассматривается как способ перераспределения энергии на восстановление.
Зачем это важно:
• Предлагается новая интерпретация хронической усталости при воспалительных заболеваниях.
• Возможны новые терапевтические подходы: в том числе — через воздействие на иммунные рецепторы в мозге.
• Пересматривается граница между «психологическим» и «физиологическим» в понятии воли к действию.
Контекст:
Исследование касается, в частности, состояний при онкологии, хронических воспалениях, а также ситуаций, где наблюдается системная апатия при отсутствии выраженных психологических причин.
Источник:
Cold Spring Harbor Laboratory, июль 2025
https://www.cshl.edu/mind-blowing-neuroscience-research
Свежая работа из Cold Spring Harbor Laboratory описывает нейронную цепь, через которую воспаление в крови подавляет мотивацию.
Иммунные сигналы активируют специфические клетки в мозге, вызывая снижение желания действовать. Это не субъективное ощущение, а физиологически детерминированный механизм.
Основные выводы:
• Апатия может быть прямым следствием воспаления, а не следствием психологических факторов.
• Обнаружена конкретная нейросхема, связывающая иммунный ответ с центрами мотивации.
• Такая реакция организма рассматривается как способ перераспределения энергии на восстановление.
Зачем это важно:
• Предлагается новая интерпретация хронической усталости при воспалительных заболеваниях.
• Возможны новые терапевтические подходы: в том числе — через воздействие на иммунные рецепторы в мозге.
• Пересматривается граница между «психологическим» и «физиологическим» в понятии воли к действию.
Контекст:
Исследование касается, в частности, состояний при онкологии, хронических воспалениях, а также ситуаций, где наблюдается системная апатия при отсутствии выраженных психологических причин.
Источник:
Cold Spring Harbor Laboratory, июль 2025
https://www.cshl.edu/mind-blowing-neuroscience-research
👍2🔥2
Пиковая альфа-частота и субъективное время: как мозг «нарезает» реальность на кадры
⏱️ Что такое пиковая альфа-частота и зачем она нам
Пиковая альфа-частота — это наиболее выраженная частота электрических колебаний мозга в альфа-диапазоне (примерно от 8 до 13 герц), которую можно увидеть на электроэнцефалограмме (ЭЭГ) в состоянии покоя с закрытыми глазами.
Проще говоря, это частота, с которой мозг "щелкает" внутренним метрономом, разбивая поток ощущений на небольшие фрагменты.
Эта частота не универсальна — у каждого она своя. И вот что интересно:
Чем выше у человека эта альфа-частота, тем лучше он различает события, происходящие с минимальным временным интервалом — например, две коротких вспышки света с разницей в доли секунды.
Это происходит потому, что у такого человека временное окно связывания (то есть диапазон, в который мозг сливает события в "одно") — ýже. Это и есть улучшенная "временная чёткость".
📊 Что показал метаанализ (Samaha & Romei, 2024)
Исследователи собрали данные из 27 научных работ с участием почти 800 человек.
Выяснилось, что у людей с более высокой альфа-частотой мозг точнее различает последовательность событий, происходящих с интервалом менее одной секунды.
Средняя сила связи между альфа-ритмом и временной точностью — около 0.43 по шкале корреляции, что довольно надёжно.
То есть — у таких людей нервная система буквально работает с более высокой "частотой кадров", как хороший монитор.
👁 Альфа-ритм и зрительное восприятие времени
Один из примеров — задержка глазных движений (так называемая латентность саккад).
Если у человека высокая альфа-частота, его глаза быстрее и точнее нацеливаются на новый объект.
У младенцев, например, в возрасте от 6 до 18 месяцев наблюдается рост этой частоты, и параллельно улучшается способность различать короткие визуальные события.
У взрослых людей было замечено, что фаза альфа-ритма даже синхронизирует движения глаз при чтении: как будто мозг подаёт сигнал — когда "перевести взгляд".
🧪 Можно ли напрямую повлиять на альфа-ритм?
Некоторые учёные пытались "подстроить" альфа-частоту с помощью слабых электрических колебаний (tACS — транскраниальная переменная стимуляция).
В ряде экспериментов это помогло: участники становились точнее в заданиях, где нужно различать мелькающие вспышки или определять порядок событий.
Но в других — не помогло совсем. Особенно, если задача требовала оценки более длинных промежутков времени или если человек был не в форме.
Вывод: пока нет надёжных доказательств, что можно стабильно изменить восприятие времени, просто воздействуя на альфа-ритм.
🌀 Почему во «включённом» состоянии время пролетает
Когда мы глубоко вовлечены во что-то — будь то работа, спорт или игра, — мы ощущаем, будто время "ускоряется".
Это связано не с изменением частоты альфа-ритма, а с временным "затуханием" активности лобных отделов мозга (феномен называют временной гипофронтальностью).
Мозг как бы отключает контроль и разрешает сенсорным каналам работать напрямую.
Ты не следишь за временем — ты просто в нём. И оно перестаёт тянуться, как на скучной лекции.
🎯 Как это применить на практике
— Попробуй почувствовать субъективное течение времени до и после разных практик: дыхания, медитации, чтения, прокрастинации.
— Наблюдай: замедляется ли восприятие, становится ли "острее" внимание.
— Тренируй внимательность и временную чувствительность с помощью ритмичных дыхательных упражнений, сосредоточенной прогулки, аудио-внимания к окружающим звукам.
Вывод:
Частота альфа-ритма — это не просто биомаркер, а возможно, ключ к нашему внутреннему времени.
Более высокий ритм — более тонкое восприятие происходящего, лучшее разделение событий, более быстрая реакция.
Хотя наука ещё не доказала окончательно, что это причина, а не просто корреляция, уже сейчас можно использовать альфа-ритм как инструмент настройки внимания и восприятия.
Источник: Samaha & Romei, 2024 — Alpha-Band Frequency and Temporal Windows in Perception: A Review and Living Meta-Analysis of 27 Experiments
https://direct.mit.edu/jocn/article-abstract/36/4/640/117868/Alpha-Band-Frequency-and-Temporal-Windows-in
⏱️ Что такое пиковая альфа-частота и зачем она нам
Пиковая альфа-частота — это наиболее выраженная частота электрических колебаний мозга в альфа-диапазоне (примерно от 8 до 13 герц), которую можно увидеть на электроэнцефалограмме (ЭЭГ) в состоянии покоя с закрытыми глазами.
Проще говоря, это частота, с которой мозг "щелкает" внутренним метрономом, разбивая поток ощущений на небольшие фрагменты.
Эта частота не универсальна — у каждого она своя. И вот что интересно:
Чем выше у человека эта альфа-частота, тем лучше он различает события, происходящие с минимальным временным интервалом — например, две коротких вспышки света с разницей в доли секунды.
Это происходит потому, что у такого человека временное окно связывания (то есть диапазон, в который мозг сливает события в "одно") — ýже. Это и есть улучшенная "временная чёткость".
📊 Что показал метаанализ (Samaha & Romei, 2024)
Исследователи собрали данные из 27 научных работ с участием почти 800 человек.
Выяснилось, что у людей с более высокой альфа-частотой мозг точнее различает последовательность событий, происходящих с интервалом менее одной секунды.
Средняя сила связи между альфа-ритмом и временной точностью — около 0.43 по шкале корреляции, что довольно надёжно.
То есть — у таких людей нервная система буквально работает с более высокой "частотой кадров", как хороший монитор.
👁 Альфа-ритм и зрительное восприятие времени
Один из примеров — задержка глазных движений (так называемая латентность саккад).
Если у человека высокая альфа-частота, его глаза быстрее и точнее нацеливаются на новый объект.
У младенцев, например, в возрасте от 6 до 18 месяцев наблюдается рост этой частоты, и параллельно улучшается способность различать короткие визуальные события.
У взрослых людей было замечено, что фаза альфа-ритма даже синхронизирует движения глаз при чтении: как будто мозг подаёт сигнал — когда "перевести взгляд".
🧪 Можно ли напрямую повлиять на альфа-ритм?
Некоторые учёные пытались "подстроить" альфа-частоту с помощью слабых электрических колебаний (tACS — транскраниальная переменная стимуляция).
В ряде экспериментов это помогло: участники становились точнее в заданиях, где нужно различать мелькающие вспышки или определять порядок событий.
Но в других — не помогло совсем. Особенно, если задача требовала оценки более длинных промежутков времени или если человек был не в форме.
Вывод: пока нет надёжных доказательств, что можно стабильно изменить восприятие времени, просто воздействуя на альфа-ритм.
🌀 Почему во «включённом» состоянии время пролетает
Когда мы глубоко вовлечены во что-то — будь то работа, спорт или игра, — мы ощущаем, будто время "ускоряется".
Это связано не с изменением частоты альфа-ритма, а с временным "затуханием" активности лобных отделов мозга (феномен называют временной гипофронтальностью).
Мозг как бы отключает контроль и разрешает сенсорным каналам работать напрямую.
Ты не следишь за временем — ты просто в нём. И оно перестаёт тянуться, как на скучной лекции.
🎯 Как это применить на практике
— Попробуй почувствовать субъективное течение времени до и после разных практик: дыхания, медитации, чтения, прокрастинации.
— Наблюдай: замедляется ли восприятие, становится ли "острее" внимание.
— Тренируй внимательность и временную чувствительность с помощью ритмичных дыхательных упражнений, сосредоточенной прогулки, аудио-внимания к окружающим звукам.
Вывод:
Частота альфа-ритма — это не просто биомаркер, а возможно, ключ к нашему внутреннему времени.
Более высокий ритм — более тонкое восприятие происходящего, лучшее разделение событий, более быстрая реакция.
Хотя наука ещё не доказала окончательно, что это причина, а не просто корреляция, уже сейчас можно использовать альфа-ритм как инструмент настройки внимания и восприятия.
Источник: Samaha & Romei, 2024 — Alpha-Band Frequency and Temporal Windows in Perception: A Review and Living Meta-Analysis of 27 Experiments
https://direct.mit.edu/jocn/article-abstract/36/4/640/117868/Alpha-Band-Frequency-and-Temporal-Windows-in
👍2👀1
Forwarded from Хабр
Карьера вайб-кодера — это тупик
Сразу расставим точки над «и»: LLM — это полезный инструмент. Речь не о том, могут ли нейросети писать код, — могут. Вопрос в другом: в последнее время разговоры в IT-сообществе всё чаще сводятся не к тому, как решать задачи, а к тому, как заставить Claude или ChatGPT сделать всю работу за себя.
Этот подход — «вайб-кодинг» — кажется вершиной эффективности. Но что, если на самом деле это ваша худшая карьерная инвестиция? Разберёмся, почему полное делегирование мышления нейросети и фокус на «правильных промптах» вместо глубокого понимания системы — это путь в профессиональный тупик.
Это не призыв отказаться от ИИ. Это приглашение к дискуссии о том, где проходит грань между эффективным ассистентом и опасной зависимостью, которая атрофирует инженерные навыки.
Сразу расставим точки над «и»: LLM — это полезный инструмент. Речь не о том, могут ли нейросети писать код, — могут. Вопрос в другом: в последнее время разговоры в IT-сообществе всё чаще сводятся не к тому, как решать задачи, а к тому, как заставить Claude или ChatGPT сделать всю работу за себя.
Этот подход — «вайб-кодинг» — кажется вершиной эффективности. Но что, если на самом деле это ваша худшая карьерная инвестиция? Разберёмся, почему полное делегирование мышления нейросети и фокус на «правильных промптах» вместо глубокого понимания системы — это путь в профессиональный тупик.
Это не призыв отказаться от ИИ. Это приглашение к дискуссии о том, где проходит грань между эффективным ассистентом и опасной зависимостью, которая атрофирует инженерные навыки.
👍2