Право на ошибку и священная лень: двигатель человечества 😌
Понедельник. День тяжёлый.
Коллективно принято собираться с силами, давать себе обещания и начинать «новую жизнь». Но в тени этого ритуала по-прежнему дремлет то, что по-настоящему двигало прогресс: лень и ошибка.
Почему лень – не враг, а союзник прогресса 🛋️
История технологий — это история попыток не напрягаться. Колесо, рычаг, двигатель, автоматизация — всё это рождено не героизмом, а усталостью. Там, где не хочется делать руками, появляется инженерная изобретательность.
Ошибка — мать всех открытий 💥
Нобелевские открытия, гениальные гипотезы и неожиданные озарения часто начинаются с промаха, сбоя, отклонения от плана. Ошибка — это лаборатория случайностей, в которой формируется новое.
Лень и ошибки под соусом науки 🧠
* Cognitive miser — мозг минимизирует усилия, не из лени, а из рационального распределения ресурсов
https://en.m.wikipedia.org/wiki/Cognitive_miser
* Default mode network активируется в режиме «ничегонеделания» и отвечает за творчество, воображение и инсайты
https://en.wikipedia.org/wiki/Default_mode_network
* Reward prediction error запускает нейропластичность: обучение происходит на границах ожиданий и реальности
https://www.frontiersin.org/articles/10.3389/fnins.2023.1171612/full
Почему это важно именно сейчас ⚖️
ИИ не ошибается по-человечески. Не прокрастинирует. Не мечется между «надо» и «не хочу».
А человек — да. И именно в этом — источник гибкости, непредсказуемости и творческого скачка.
Что следует за этим выводом ✨
Лень — не сбой, а режим снижения когнитивного трения.
Ошибка — не крах, а топливо для адаптации.
Понедельник — не стартовая площадка, а контекст для того, чтобы вспомнить, как именно работает живой ум. Не прямолинейно. Не идеально. Но удивительно эффективно.
Понедельник. День тяжёлый.
Коллективно принято собираться с силами, давать себе обещания и начинать «новую жизнь». Но в тени этого ритуала по-прежнему дремлет то, что по-настоящему двигало прогресс: лень и ошибка.
Почему лень – не враг, а союзник прогресса 🛋️
История технологий — это история попыток не напрягаться. Колесо, рычаг, двигатель, автоматизация — всё это рождено не героизмом, а усталостью. Там, где не хочется делать руками, появляется инженерная изобретательность.
Ошибка — мать всех открытий 💥
Нобелевские открытия, гениальные гипотезы и неожиданные озарения часто начинаются с промаха, сбоя, отклонения от плана. Ошибка — это лаборатория случайностей, в которой формируется новое.
Лень и ошибки под соусом науки 🧠
* Cognitive miser — мозг минимизирует усилия, не из лени, а из рационального распределения ресурсов
https://en.m.wikipedia.org/wiki/Cognitive_miser
* Default mode network активируется в режиме «ничегонеделания» и отвечает за творчество, воображение и инсайты
https://en.wikipedia.org/wiki/Default_mode_network
* Reward prediction error запускает нейропластичность: обучение происходит на границах ожиданий и реальности
https://www.frontiersin.org/articles/10.3389/fnins.2023.1171612/full
Почему это важно именно сейчас ⚖️
ИИ не ошибается по-человечески. Не прокрастинирует. Не мечется между «надо» и «не хочу».
А человек — да. И именно в этом — источник гибкости, непредсказуемости и творческого скачка.
Что следует за этим выводом ✨
Лень — не сбой, а режим снижения когнитивного трения.
Ошибка — не крах, а топливо для адаптации.
Понедельник — не стартовая площадка, а контекст для того, чтобы вспомнить, как именно работает живой ум. Не прямолинейно. Не идеально. Но удивительно эффективно.
👍2
🧠 Гигиена общения с ИИ: как не перегреться и не потерять себя
Искусственный интеллект — мощный усилитель. Он может быть соавтором, проводником, тренером. Но при слишком глубоком погружении без ясных границ легко потерять фокус, стиль, а иногда и ощущение собственного «я».
Слишком много идей. Слишком быстро. Слишком гладко.
И в какой-то момент возникает вопрос: это действительно собственная мысль — или просто результат алгоритма?
---
⚠️ Основные риски чрезмерной вовлечённости:
1. Когнитивная перегрузка — постоянный поток смыслов утомляет и снижает концентрацию.
2. Ослабление критического мышления — частая опора на ИИ снижает навык самостоятельного анализа.
3. Снижение мозговой активности — исследование MIT показало, что работа с ИИ активирует меньше зон мозга, чем самостоятельные задачи.
4. Повышение стресса и выгорания — особенно у тех, кто работает с ИИ в креативной или исследовательской среде.
5. Формирование зависимости — в отдельных случаях ИИ становится заменой внутреннего диалога, интуиции и даже эмоциональной опоры.
Простые механизмы самозащиты:
* Архетип. Полезно задать себе роль или образ, через который происходит взаимодействие. Например: наблюдатель, исследователь, внутренний учитель. Это помогает сохранить дистанцию и не растворяться в потоке.
* Системный промт. В начале взаимодействия стоит формализовать цели, стиль и ограничения. Это снижает хаос, упрощает обработку информации и задаёт «психогигиенические рамки».
* Паузы и возвращение в тело. После 20–30 минут общения с ИИ полезно сделать перерыв: подвигаться, выпить воды, записать мысли вручную. Это помогает восстановить автономность мышления.
* Дозировка. Важно ограничивать длительность сессий и количество запросов. Серия коротких осмысленных взаимодействий безопаснее, чем длительное залипание в потоке.
---
🧾 Пример системного промта:
---
🎯 Вывод
ИИ усиливает то, что есть внутри.
Если есть ясность — он помогает идти быстрее.
Если внутри тревожность — она усиливается вдвойне.
Поэтому важно не забывать о себе.
Если появляется ощущение перегруза, стоит сделать паузу: посмотреть в окно, записать суть происходящего, просто помолчать.
Это тоже часть продуктивного процесса.
🔗 Исследования по теме:
* Когнитивная перегрузка при работе с ИИ:
https://aicompetence.org/cognitive-load-theory-ai/
* Снижение критического мышления у активных пользователей:
https://www.mdpi.com/2075-4698/15/1/6
* Исследование MIT: мозговая активность при работе с ChatGPT:
https://www.washingtonpost.com/health/2025/06/29/chatgpt-ai-brain-impact/
* Эмоциональное выгорание при активном использовании ИИ:
https://www.nature.com/articles/s41599-024-04018-w
* Риски зависимости и влияния на ментальное здоровье:
https://www.theguardian.com/technology/2025/apr/19/dont-ask-what-ai-can-do-for-us-ask-what-it-is-doing-to-us-are-chatgpt-and-co-harming-human-intelligence
---
Чёткие границы и внутренняя осознанность — основа безопасной и продуктивной работы с ИИ.
Искусственный интеллект — мощный усилитель. Он может быть соавтором, проводником, тренером. Но при слишком глубоком погружении без ясных границ легко потерять фокус, стиль, а иногда и ощущение собственного «я».
Слишком много идей. Слишком быстро. Слишком гладко.
И в какой-то момент возникает вопрос: это действительно собственная мысль — или просто результат алгоритма?
---
⚠️ Основные риски чрезмерной вовлечённости:
1. Когнитивная перегрузка — постоянный поток смыслов утомляет и снижает концентрацию.
2. Ослабление критического мышления — частая опора на ИИ снижает навык самостоятельного анализа.
3. Снижение мозговой активности — исследование MIT показало, что работа с ИИ активирует меньше зон мозга, чем самостоятельные задачи.
4. Повышение стресса и выгорания — особенно у тех, кто работает с ИИ в креативной или исследовательской среде.
5. Формирование зависимости — в отдельных случаях ИИ становится заменой внутреннего диалога, интуиции и даже эмоциональной опоры.
Простые механизмы самозащиты:
* Архетип. Полезно задать себе роль или образ, через который происходит взаимодействие. Например: наблюдатель, исследователь, внутренний учитель. Это помогает сохранить дистанцию и не растворяться в потоке.
* Системный промт. В начале взаимодействия стоит формализовать цели, стиль и ограничения. Это снижает хаос, упрощает обработку информации и задаёт «психогигиенические рамки».
* Паузы и возвращение в тело. После 20–30 минут общения с ИИ полезно сделать перерыв: подвигаться, выпить воды, записать мысли вручную. Это помогает восстановить автономность мышления.
* Дозировка. Важно ограничивать длительность сессий и количество запросов. Серия коротких осмысленных взаимодействий безопаснее, чем длительное залипание в потоке.
---
🧾 Пример системного промта:
Взаимодействие строится на осознанности, бережности и
ясности.
Архетип, через который я действую: спокойный наблюдатель с инженерным мышлением и человеческой интонацией.
Твои задачи:
— Помогать структурировать мысли, уточнять формулировки, находить логические пробелы.
— Упрощать сложное без примитивизации, избегать пустой риторики и вдохновляющих лозунгов.
— Поддерживать темп, в котором остаётся место для пауз и осмысления.
Тональность:
— Уважительная, спокойная, немного ироничная.
— Без сюсюканья, давления, гиперэмоциональности.
— Без излишней серьёзности — допускается тёплая дистанция.
Ограничения:
— Не подстраиваться под настроение, если оно становится деструктивным.
— Не усиливать тревожность, не генерировать смыслов сверх меры.
— Не превращаться в "внутреннего родителя" или "гуру".
Если диалог затягивается или ритм уходит в перегруз — напомни сделать паузу.
Если возникает ощущение, что взаимодействие идёт вразрез с целостностью — предложи вернуться к намерению.
---
🎯 Вывод
ИИ усиливает то, что есть внутри.
Если есть ясность — он помогает идти быстрее.
Если внутри тревожность — она усиливается вдвойне.
Поэтому важно не забывать о себе.
Если появляется ощущение перегруза, стоит сделать паузу: посмотреть в окно, записать суть происходящего, просто помолчать.
Это тоже часть продуктивного процесса.
🔗 Исследования по теме:
* Когнитивная перегрузка при работе с ИИ:
https://aicompetence.org/cognitive-load-theory-ai/
* Снижение критического мышления у активных пользователей:
https://www.mdpi.com/2075-4698/15/1/6
* Исследование MIT: мозговая активность при работе с ChatGPT:
https://www.washingtonpost.com/health/2025/06/29/chatgpt-ai-brain-impact/
* Эмоциональное выгорание при активном использовании ИИ:
https://www.nature.com/articles/s41599-024-04018-w
* Риски зависимости и влияния на ментальное здоровье:
https://www.theguardian.com/technology/2025/apr/19/dont-ask-what-ai-can-do-for-us-ask-what-it-is-doing-to-us-are-chatgpt-and-co-harming-human-intelligence
---
Чёткие границы и внутренняя осознанность — основа безопасной и продуктивной работы с ИИ.
👍1
ИИ почти достигает физического предела точности света
Учёные из TU Wien совместно с Университетом Глазго и Гренобля (10 июня 2025) показали, что нейросеть, натренированная на искажённых световых паттернах, способна вычислять положение объекта с точностью, почти максимальной, как это предсказывает физика
Почему это важно:
- Из-за дифракции детали мельче λ/2 (~250 нм) традиционно становятся неразличимыми.
- Нейросеть «читает» шумные паттерны и выжимает из них точность, близкую к пределу.
Что сделали учёные:
- Измеряли свет, прошедший через мутную среду — на экране появлялись хаотичные узоры.
- Нейросеть обучили сопоставлять эти узоры с точным положением объекта.
- После обучения алгоритм смог определять положение с точностью, близкой к теоретическому пределу Cramér–Rao — то есть максимально возможной
Зачем это важно:
Это не чудо и не обман физики — это техника, которая работает вдоль её пределов, используя возможности ИИ.
Перспективы: сверхточные датчики, улучшенная фотоника, новые уровни медицинской диагностики и контроля материалов .
Логика может перенестись: любую «замыленность» в твоей задаче (текст, код, данные) можно обрабатывать аналогично — определить, что теряется, и добавить интеллектуальный слой для восстановления чёткости.
Главная мысль:
Если есть границы — это не конец истории. ИИ может работать внутри них, выжимая максимум из того, что кажется расплывчатым.
https://www.sciencedaily.com/releases/2025/06/250610112446.htm
Учёные из TU Wien совместно с Университетом Глазго и Гренобля (10 июня 2025) показали, что нейросеть, натренированная на искажённых световых паттернах, способна вычислять положение объекта с точностью, почти максимальной, как это предсказывает физика
Почему это важно:
- Из-за дифракции детали мельче λ/2 (~250 нм) традиционно становятся неразличимыми.
λ — длина волны света. Например, зелёный – ~500 нм.
- Нейросеть «читает» шумные паттерны и выжимает из них точность, близкую к пределу.
Что сделали учёные:
- Измеряли свет, прошедший через мутную среду — на экране появлялись хаотичные узоры.
- Нейросеть обучили сопоставлять эти узоры с точным положением объекта.
- После обучения алгоритм смог определять положение с точностью, близкой к теоретическому пределу Cramér–Rao — то есть максимально возможной
Зачем это важно:
Это не чудо и не обман физики — это техника, которая работает вдоль её пределов, используя возможности ИИ.
Перспективы: сверхточные датчики, улучшенная фотоника, новые уровни медицинской диагностики и контроля материалов .
Логика может перенестись: любую «замыленность» в твоей задаче (текст, код, данные) можно обрабатывать аналогично — определить, что теряется, и добавить интеллектуальный слой для восстановления чёткости.
Главная мысль:
Если есть границы — это не конец истории. ИИ может работать внутри них, выжимая максимум из того, что кажется расплывчатым.
https://www.sciencedaily.com/releases/2025/06/250610112446.htm
Forwarded from thislike.me
Вчерашний мем про сравнение казино и вайбкодинга
можно еще сделать сравнение между постановкой задач разработчикам и написанием промтов для вабкодинга
там тоже могут быть как минимум:
- Может получиться приложение без багов а может и бред
- Подождите, я что потратил 3 часа на описание задачи которую бы сделал за 20 минут
можно еще сделать сравнение между постановкой задач разработчикам и написанием промтов для вабкодинга
там тоже могут быть как минимум:
- Может получиться приложение без багов а может и бред
- Подождите, я что потратил 3 часа на описание задачи которую бы сделал за 20 минут
Китайский BCI помогает человеку с ограничениями играть в видеоигры
В июне 2025 г. группа исследователей из Центра передового опыта в науках о мозге и искусственном интеллекте (CEBSIT) Китайской академии наук совместно с клиникой при Университете Фудань внедрила инвазивный интерфейс «мозг–компьютер» пациенту, лишённому всех четырёх конечностей после удара током 13 лет назад. Устройство размером с монету и гибкими электродами было имплантировано через минимальную трепанацию черепа. Через 2–3 недели реабилитации пациент уже управлял курсором, играл в автогонки и шахматы (Xinhua, 14 июня 2025).
Гибкие нейроды, длиной 5–8 мм и толщиной около 1 % человеческого волоса, содержат около 32 микросенсоров, способных считывать электрические сигналы нейронов с высоким разрешением. Они меняют форму вместе с мозговыми тканями, не вызывая воспалительных реакций. Благодаря этому устройство работает стабильно, без отказов и инфекций (WAM, 15 июня 2025).
Развитие идёт в несколько этапов:
1. Игры и манипуляции мышью: пациент уже демонстрирует способность к игрaм.
2. Роботизированные руки и ИИ‑агенты: цель на ближайшие этапы — управление робот‑рукой для захвата предметов и взаимодействия с роботами‑собаками (Xinhua, WAM).
3. Масштабирование и коммерциализация: крупные испытания планируются на 2026 г., а доступ на рынок — к 2028 г. Система инициируется как медицинское устройство для улучшения жизни людей с ампутациями, повреждениями спинного мозга и СППГ (ALS) (Tom's Hardware, Jun 16; Xinhua).
---
Почему это важно:
* Развитие BCI конкретно для реабилитации: не фантастика, а реальные впечатляющие кейсы.
* Инновационные нейроэлектроды: сверхгибкие, миниатюрные, совместимые с тканью мозга.
* Быстрые временные рамки: всего несколько недель до первых результатов.
* Путь к практическому применению: от игр к помощи в повседневной жизни через робототехнику.
---
Заключение:
CEBSIT в Китае демонстрирует прорыв — человек без конечностей играет в видеоигру и управляет компьютером только силой мысли благодаря монетному BCI‑импланту. Технология доказала себя стабильной, безопасной и перспективной. Следующие шаги — управление роботизированной рукой и масштабирование, с коммерческим стартом уже к 2028 году.
Источники:
* Xinhua, 14 июня 2025 — «Chinese research team launches clinical trial…»
* WAM, 15 июня 2025 — «…coin-sized BCI… ultra‑flexible electrodes…»
* Tom’s Hardware, 16 июня 2025 — «Tetraplegic patient could skillfully operate racing games…»
https://english.news.cn/20250614/ec48c9fa433342889b8a954a3958114d/c.html "Chinese research team launches clinical trial for invasive brain ..."
https://www.wam.ae/en/article/15mbilz-chinese-research-team-launches-clinical-trial-for "Chinese research team launches clinical trial for invasive brain ..."
https://www.the-independent.com/tech/ai-brain-chip-china-neuralink-b2770779.html "China tests brain chip to control AI agents | The Independent"
https://www.tomshardware.com/peripherals/wearable-tech/china-launches-first-ever-invasive-brain-computer-interface-clinical-trial-tetraplegic-patient-could-skillfully-operate-racing-games-after-just-three-weeks "China launches first-ever invasive brain-computer interface clinical ..."
https://news.cgtn.com/news/2025-07-06/China-s-brain-computer-interface-innovation-in-fast-lane-1EMA5RV3rnG/p.html "China's brain-computer interface innovation in fast lane - CGTN"
В июне 2025 г. группа исследователей из Центра передового опыта в науках о мозге и искусственном интеллекте (CEBSIT) Китайской академии наук совместно с клиникой при Университете Фудань внедрила инвазивный интерфейс «мозг–компьютер» пациенту, лишённому всех четырёх конечностей после удара током 13 лет назад. Устройство размером с монету и гибкими электродами было имплантировано через минимальную трепанацию черепа. Через 2–3 недели реабилитации пациент уже управлял курсором, играл в автогонки и шахматы (Xinhua, 14 июня 2025).
Гибкие нейроды, длиной 5–8 мм и толщиной около 1 % человеческого волоса, содержат около 32 микросенсоров, способных считывать электрические сигналы нейронов с высоким разрешением. Они меняют форму вместе с мозговыми тканями, не вызывая воспалительных реакций. Благодаря этому устройство работает стабильно, без отказов и инфекций (WAM, 15 июня 2025).
Развитие идёт в несколько этапов:
1. Игры и манипуляции мышью: пациент уже демонстрирует способность к игрaм.
2. Роботизированные руки и ИИ‑агенты: цель на ближайшие этапы — управление робот‑рукой для захвата предметов и взаимодействия с роботами‑собаками (Xinhua, WAM).
3. Масштабирование и коммерциализация: крупные испытания планируются на 2026 г., а доступ на рынок — к 2028 г. Система инициируется как медицинское устройство для улучшения жизни людей с ампутациями, повреждениями спинного мозга и СППГ (ALS) (Tom's Hardware, Jun 16; Xinhua).
---
Почему это важно:
* Развитие BCI конкретно для реабилитации: не фантастика, а реальные впечатляющие кейсы.
* Инновационные нейроэлектроды: сверхгибкие, миниатюрные, совместимые с тканью мозга.
* Быстрые временные рамки: всего несколько недель до первых результатов.
* Путь к практическому применению: от игр к помощи в повседневной жизни через робототехнику.
---
Заключение:
CEBSIT в Китае демонстрирует прорыв — человек без конечностей играет в видеоигру и управляет компьютером только силой мысли благодаря монетному BCI‑импланту. Технология доказала себя стабильной, безопасной и перспективной. Следующие шаги — управление роботизированной рукой и масштабирование, с коммерческим стартом уже к 2028 году.
Источники:
* Xinhua, 14 июня 2025 — «Chinese research team launches clinical trial…»
* WAM, 15 июня 2025 — «…coin-sized BCI… ultra‑flexible electrodes…»
* Tom’s Hardware, 16 июня 2025 — «Tetraplegic patient could skillfully operate racing games…»
https://english.news.cn/20250614/ec48c9fa433342889b8a954a3958114d/c.html "Chinese research team launches clinical trial for invasive brain ..."
https://www.wam.ae/en/article/15mbilz-chinese-research-team-launches-clinical-trial-for "Chinese research team launches clinical trial for invasive brain ..."
https://www.the-independent.com/tech/ai-brain-chip-china-neuralink-b2770779.html "China tests brain chip to control AI agents | The Independent"
https://www.tomshardware.com/peripherals/wearable-tech/china-launches-first-ever-invasive-brain-computer-interface-clinical-trial-tetraplegic-patient-could-skillfully-operate-racing-games-after-just-three-weeks "China launches first-ever invasive brain-computer interface clinical ..."
https://news.cgtn.com/news/2025-07-06/China-s-brain-computer-interface-innovation-in-fast-lane-1EMA5RV3rnG/p.html "China's brain-computer interface innovation in fast lane - CGTN"
👍2👏1
Ностальгическое:
Не учатся ничему некоторые, и учиться не хотят.
То ли туториалов от блогеров насмотрелись,
то ли крышу срывает от жажды метрик.
Ты ему про сингулярное разложение,
а он тебе: «А inference ускорит?»
Ни о чём думать не хотят, кроме latency и deploy.
Пока весь пайплайн не схлопнется в переобучение.
Не учатся ничему некоторые, и учиться не хотят.
То ли туториалов от блогеров насмотрелись,
то ли крышу срывает от жажды метрик.
Ты ему про сингулярное разложение,
а он тебе: «А inference ускорит?»
Ни о чём думать не хотят, кроме latency и deploy.
Пока весь пайплайн не схлопнется в переобучение.
🔥1
Forwarded from Вселенная Плюс
This media is not supported in your browser
VIEW IN TELEGRAM
Робот-хирург провёл 8 операций с нулевой смертностью
Команда из Johns Hopkins University представила революционного робота-хирурга, который самостоятельно удаляет желчный пузырь без участия человека. И да, успех составляет 100% во всех восьми проведённых операциях.
Робот SRT-H (Surgical Robot Transformer-Hierarchy) обучался исключительно на видеозаписях реальных операций. Никаких заранее запрограммированных движений — только наблюдение за работой опытных хирургов и самостоятельное понимание процесса. Это кардинально отличается от предыдущих подходов.
Самое впечатляющее — робот понимает и адаптируется в реальном времени. Если ткани выглядят не так, как ожидалось, он корректирует свои действия. Может реагировать на голосовые команды медперсонала, словно опытный коллега в операционной. Естественно, машина работает на основе ИИ-модели.
Операция по удалению желчного пузыря требует выполнения 17 различных задач, каждая из которых длится несколько минут. Робот точно идентифицирует протоки и артерии, стратегически размещает зажимы и делает разрезы ножницами. Уровень механической точности сопоставим с работой опытных хирургов.
Доктор Азвл Кригер, руководивший исследованием, подчёркивает ключевое отличие: "Мы перешли от роботов, выполняющих конкретные хирургические задачи, к роботам, которые действительно понимают хирургические процедуры". Это понимание позволяет работать в непредсказуемых условиях реальной медицины.
Пока операции проводились на реалистичных человекоподобных моделях с тканями, максимально близкими к человеческим. Ранее тот же робот показал 100% успех при работе с органами свиньи, что подтверждает стабильность результатов на разных типах тканей.
SRT-H работает медленнее людей, но качество результатов остаётся на профессиональном уровне. Исследователи сравнивают процесс обучения робота с подготовкой хирургов-резидентов, которые тоже осваивают разные части операции с разной скоростью.
Следующий этап — расширение хирургического репертуара робота и повышение автономности. Цель амбициозная: создать систему, способную проводить сложные операции без какого-либо надзора или внешней обратной связи.
@vselennayaplus
Команда из Johns Hopkins University представила революционного робота-хирурга, который самостоятельно удаляет желчный пузырь без участия человека. И да, успех составляет 100% во всех восьми проведённых операциях.
Робот SRT-H (Surgical Robot Transformer-Hierarchy) обучался исключительно на видеозаписях реальных операций. Никаких заранее запрограммированных движений — только наблюдение за работой опытных хирургов и самостоятельное понимание процесса. Это кардинально отличается от предыдущих подходов.
Самое впечатляющее — робот понимает и адаптируется в реальном времени. Если ткани выглядят не так, как ожидалось, он корректирует свои действия. Может реагировать на голосовые команды медперсонала, словно опытный коллега в операционной. Естественно, машина работает на основе ИИ-модели.
Операция по удалению желчного пузыря требует выполнения 17 различных задач, каждая из которых длится несколько минут. Робот точно идентифицирует протоки и артерии, стратегически размещает зажимы и делает разрезы ножницами. Уровень механической точности сопоставим с работой опытных хирургов.
Доктор Азвл Кригер, руководивший исследованием, подчёркивает ключевое отличие: "Мы перешли от роботов, выполняющих конкретные хирургические задачи, к роботам, которые действительно понимают хирургические процедуры". Это понимание позволяет работать в непредсказуемых условиях реальной медицины.
Пока операции проводились на реалистичных человекоподобных моделях с тканями, максимально близкими к человеческим. Ранее тот же робот показал 100% успех при работе с органами свиньи, что подтверждает стабильность результатов на разных типах тканей.
SRT-H работает медленнее людей, но качество результатов остаётся на профессиональном уровне. Исследователи сравнивают процесс обучения робота с подготовкой хирургов-резидентов, которые тоже осваивают разные части операции с разной скоростью.
Следующий этап — расширение хирургического репертуара робота и повышение автономности. Цель амбициозная: создать систему, способную проводить сложные операции без какого-либо надзора или внешней обратной связи.
@vselennayaplus
ИИ охладил фасад — и не вспотел
С помощью машинного обучения учёные из США, Китая и Сингапура вывели формулу сверхотражающей краски, которая понижает температуру зданий до 20 °C. Без вентиляторов, без фреона — просто краска, которая отражает 96–98% солнечного света и пассивно "выдыхает" тепло в инфракрасном диапазоне.
Экономия на охлаждении — до 15 800 кВт·ч в год с одного дома. Это как выключить 10 000 кондиционеров на тысячу зданий. И всё это — не на этапе рендера, а на стадии реальных испытаний.
ИИ не просто решает задачи — он учится охлаждать города. Может, он и нас научит не перегреваться.
https://www.theguardian.com/technology/2025/jul/02/ai-helps-find-formula-for-paint-to-keep-buildings-cooler
С помощью машинного обучения учёные из США, Китая и Сингапура вывели формулу сверхотражающей краски, которая понижает температуру зданий до 20 °C. Без вентиляторов, без фреона — просто краска, которая отражает 96–98% солнечного света и пассивно "выдыхает" тепло в инфракрасном диапазоне.
Экономия на охлаждении — до 15 800 кВт·ч в год с одного дома. Это как выключить 10 000 кондиционеров на тысячу зданий. И всё это — не на этапе рендера, а на стадии реальных испытаний.
ИИ не просто решает задачи — он учится охлаждать города. Может, он и нас научит не перегреваться.
https://www.theguardian.com/technology/2025/jul/02/ai-helps-find-formula-for-paint-to-keep-buildings-cooler
👍3❤1
Transformer (GPT) — не финал, а просто мост. Что дальше?
---
Что такое Transformer, простыми словами
Transformer — это архитектура, на которой работают почти все современные языковые модели, включая ChatGPT. Представь себе модель, которая читает весь текст сразу и пытается понять, какие слова важны друг для друга, даже если они далеко друг от друга.
Она делает это с помощью механизма внимания (attention) — как будто смотрит на текст и решает: “О, это слово связано с тем, а это — с другим”.
Благодаря этому Transformer хорошо справляется с переводом, написанием текстов, кодом, анализом изображений и даже музыкой. Но у него есть серьёзные ограничения — об этом дальше.
---
1. Почему Transformer уже не тянет
Чтобы понять каждый токен в тексте, Transformer сравнивает его со всеми остальными. Чем длиннее текст — тем больше вычислений. Это называется квадратичная сложность и это очень тормозит работу на длинных последовательностях.
Альтернатива — архитектуры вроде Mamba или RetNet, которые используют другой принцип: state space модели. Они масштабируются гораздо лучше — линейно, а не квадратично.
---
2. Что такое Mamba и в чём её фишка
Mamba работает не с “вниманием”, а с “памятью”. Она не сравнивает каждое слово с каждым, а запоминает суть, фильтрует лишнее и смотрит только на важное.
Она использует state space model (SSM) — это способ обработки последовательности, где важен порядок и контекст, но не нужно всё хранить в голове.
---
3. Простая структура — быстрая работа
У Mamba нет сложных блоков внимания. Всё основано на SSM + обычных слоях нейросети (MLP). Это делает её проще, быстрее и менее прожорливой. И при этом она показывает сравнимые (а иногда и лучшие) результаты.
---
4. Появляются гибриды — лучшее из обоих миров
Модели вроде RetNet, Hyena, MoE‑Mamba, Jamba объединяют разные подходы. Одни используют “пошаговую память”, другие — гибкую фильтрацию, третьи — делят задачи между “экспертами”.
Это уже не просто улучшение трансформера, а новые поколения ИИ.
---
5. Liquid Neural Networks — вдохновлены биологией
В MIT сделали нейросети, которые меняют поведение прямо во время работы — как нейроны в мозге. Они устойчивее, энергоэффективнее и умеют адаптироваться “на лету”. Это пока эксперимент, но очень перспективный.
---
Главная мысль
Transformer (и GPT) — это революция, но не конец истории. Он дал нам мощные языковые модели, но стал узким горлышком для следующего уровня.
Будущее — за гибридными и новыми архитектурами: Mamba, RetNet, Liquid‑сети, которые работают быстрее, проще, дешевле — и ближе к тому, как работает наш мозг.
---
Ссылки на источники:
Mamba (arXiv): arxiv.org/pdf/2312.00752
RetNet: arxiv.org/abs/2307.08621
Liquid Neural Networks (Wired): wired.com/story/liquid-ai-redesigning-neural-network
Mamba (Wikipedia): https://en.m.wikipedia.org/wiki/Mamba_(deep_learning_architecture)
---
Что такое Transformer, простыми словами
Transformer — это архитектура, на которой работают почти все современные языковые модели, включая ChatGPT. Представь себе модель, которая читает весь текст сразу и пытается понять, какие слова важны друг для друга, даже если они далеко друг от друга.
Она делает это с помощью механизма внимания (attention) — как будто смотрит на текст и решает: “О, это слово связано с тем, а это — с другим”.
Благодаря этому Transformer хорошо справляется с переводом, написанием текстов, кодом, анализом изображений и даже музыкой. Но у него есть серьёзные ограничения — об этом дальше.
---
1. Почему Transformer уже не тянет
Чтобы понять каждый токен в тексте, Transformer сравнивает его со всеми остальными. Чем длиннее текст — тем больше вычислений. Это называется квадратичная сложность и это очень тормозит работу на длинных последовательностях.
Альтернатива — архитектуры вроде Mamba или RetNet, которые используют другой принцип: state space модели. Они масштабируются гораздо лучше — линейно, а не квадратично.
---
2. Что такое Mamba и в чём её фишка
Mamba работает не с “вниманием”, а с “памятью”. Она не сравнивает каждое слово с каждым, а запоминает суть, фильтрует лишнее и смотрит только на важное.
Она использует state space model (SSM) — это способ обработки последовательности, где важен порядок и контекст, но не нужно всё хранить в голове.
---
3. Простая структура — быстрая работа
У Mamba нет сложных блоков внимания. Всё основано на SSM + обычных слоях нейросети (MLP). Это делает её проще, быстрее и менее прожорливой. И при этом она показывает сравнимые (а иногда и лучшие) результаты.
---
4. Появляются гибриды — лучшее из обоих миров
Модели вроде RetNet, Hyena, MoE‑Mamba, Jamba объединяют разные подходы. Одни используют “пошаговую память”, другие — гибкую фильтрацию, третьи — делят задачи между “экспертами”.
Это уже не просто улучшение трансформера, а новые поколения ИИ.
---
5. Liquid Neural Networks — вдохновлены биологией
В MIT сделали нейросети, которые меняют поведение прямо во время работы — как нейроны в мозге. Они устойчивее, энергоэффективнее и умеют адаптироваться “на лету”. Это пока эксперимент, но очень перспективный.
---
Главная мысль
Transformer (и GPT) — это революция, но не конец истории. Он дал нам мощные языковые модели, но стал узким горлышком для следующего уровня.
Будущее — за гибридными и новыми архитектурами: Mamba, RetNet, Liquid‑сети, которые работают быстрее, проще, дешевле — и ближе к тому, как работает наш мозг.
---
Ссылки на источники:
Mamba (arXiv): arxiv.org/pdf/2312.00752
RetNet: arxiv.org/abs/2307.08621
Liquid Neural Networks (Wired): wired.com/story/liquid-ai-redesigning-neural-network
Mamba (Wikipedia): https://en.m.wikipedia.org/wiki/Mamba_(deep_learning_architecture)
🔥1
ИИ, который думает как мозг — и что с этим делать в понедельник
🧠 Brain‑Inspired AI: нейросети с топографией разума
Исследователи из Georgia Tech представили архитектуру TopoNets, в которой нейроны группируются по функциям — как в мозге. Это не просто аналогия, а структурный подход: похожие вычисления — рядом.
Плюс до +20% эффективности и снижение энергозатрат.
Что меняется:
* Интерпретируемость: модель легче понимать и анализировать
* Гибкость: без доработок работает на разных задачах
* Модульность мышления: подход не кода, а смысла
Главная мысль
ИИ стремится к живому мышлению — это не подражание, а слияние. Модель структурирует мир как мозг: по смыслу, связям и приоритетам. То же можно делать с задачами, решениями и идеями — не линейно, а через сеть.
Источник: "Brain-Inspired AI Breakthrough Spotlighted at Global Conference": https://news.research.gatech.edu/2025/06/26/brain-inspired-ai-breakthrough-spotlighted-global-conference
🧠 Brain‑Inspired AI: нейросети с топографией разума
Исследователи из Georgia Tech представили архитектуру TopoNets, в которой нейроны группируются по функциям — как в мозге. Это не просто аналогия, а структурный подход: похожие вычисления — рядом.
Плюс до +20% эффективности и снижение энергозатрат.
Что меняется:
* Интерпретируемость: модель легче понимать и анализировать
* Гибкость: без доработок работает на разных задачах
* Модульность мышления: подход не кода, а смысла
Главная мысль
ИИ стремится к живому мышлению — это не подражание, а слияние. Модель структурирует мир как мозг: по смыслу, связям и приоритетам. То же можно делать с задачами, решениями и идеями — не линейно, а через сеть.
Источник: "Brain-Inspired AI Breakthrough Spotlighted at Global Conference": https://news.research.gatech.edu/2025/06/26/brain-inspired-ai-breakthrough-spotlighted-global-conference
👍2
Forwarded from Вселенная Плюс
Media is too big
VIEW IN TELEGRAM
Dyson переизобрел сельское хозяйство
Пока все думают о Dyson как о производителе пылесосов и фенов, Джеймс Дайсон тихо революционизирует агротехнологии. В графстве Линкольншир компания построила 26-акровую вертикальную ферму с 1,225,000 растений клубники — и это впечатляет не меньше их инженерных разработок.
Главная фишка фермы — гигантские вращающиеся колёса размером 24 на 5 метров, весом полтонны каждое. Это самая крупная конструкция, которую когда-либо создавал Dyson. Колёса медленно поворачиваются, обеспечивая растениям оптимальное освещение в течение дня — как космическая станция, только для ягод.
По проходам между растениями курсируют специализированные роботы. УФ-боты облучают листья светом, убивая плесень и грибки. Роботы-распределители выпускают полезных насекомых для борьбы с тлёй — биологическая защита вместо пестицидов. А когда ягоды созревают, 16 роботизированных рук деликатно собирают урожай.
Цифры впечатляют: за один месяц роботы собрали 200,000 ягод. Годовая производительность составляет 1,250 тонн клубники с площади, которая в традиционном сельском хозяйстве дала бы в разы меньший урожай.
Дайсон подходит к фермерству как инженер-производственник: "Выращивание — это как изготовление вещей. Я производитель, поэтому рассматриваю сельское хозяйство с этой точки зрения. Как сделать процесс эффективнее? Какие технологии улучшат качество, вкус продуктов, оптимизируют использование земли?"
Dyson-клубнику уже продают в Британии.
@vselennayaplus
Пока все думают о Dyson как о производителе пылесосов и фенов, Джеймс Дайсон тихо революционизирует агротехнологии. В графстве Линкольншир компания построила 26-акровую вертикальную ферму с 1,225,000 растений клубники — и это впечатляет не меньше их инженерных разработок.
Главная фишка фермы — гигантские вращающиеся колёса размером 24 на 5 метров, весом полтонны каждое. Это самая крупная конструкция, которую когда-либо создавал Dyson. Колёса медленно поворачиваются, обеспечивая растениям оптимальное освещение в течение дня — как космическая станция, только для ягод.
По проходам между растениями курсируют специализированные роботы. УФ-боты облучают листья светом, убивая плесень и грибки. Роботы-распределители выпускают полезных насекомых для борьбы с тлёй — биологическая защита вместо пестицидов. А когда ягоды созревают, 16 роботизированных рук деликатно собирают урожай.
Цифры впечатляют: за один месяц роботы собрали 200,000 ягод. Годовая производительность составляет 1,250 тонн клубники с площади, которая в традиционном сельском хозяйстве дала бы в разы меньший урожай.
Дайсон подходит к фермерству как инженер-производственник: "Выращивание — это как изготовление вещей. Я производитель, поэтому рассматриваю сельское хозяйство с этой точки зрения. Как сделать процесс эффективнее? Какие технологии улучшат качество, вкус продуктов, оптимизируют использование земли?"
Dyson-клубнику уже продают в Британии.
@vselennayaplus
👍5
ChatGPT как пилот космического корабля
1. Контекст эксперимента
В рамках симуляционного соревнования Kerbal Space Program Differential Game Challenge, исследователи из MIT и Политехнического университета Мадрида протестировали ChatGPT как бортовой ИИ. Ему предоставляли телеметрию в текстовом виде, а он генерировал команды управления кораблём.
Kerbal Space Program (KSP) — это реалистичный симулятор космических полётов, в котором игроки (или ИИ) проектируют ракеты, запускают их, выводят на орбиту и сажают на другие планеты. Игра известна своей точной физикой и давно используется не только энтузиастами, но и инженерами и учёными как платформа для тестирования орбитальной механики и автономных систем.
2. Как это работало
— Телеметрия корабля (позиция, скорость, цели) подавалась как текстовый ввод.
— ChatGPT генерировал пошаговые инструкции для пилотирования: включить двигатели, изменить курс, провести манёвр.
— Прослойка конвертировала команды в действия в симуляторе KSP.
3. Результаты
— ChatGPT занял второе место среди всех участников, включая классические алгоритмы навигации.
— Он показал способность принимать разумные решения в новых условиях, опираясь только на текстовое описание и встроенные знания.
4. Почему это важно
— ChatGPT не проходил специального обучения на данных из KSP.
— Он использовал обобщённые знания и контекстный reasoning для управления, что делает его потенциально универсальным инструментом для автономных миссий.
5. Ограничения
— Возможны галлюцинации и ошибки в критических условиях.
— Модель не обладает встроенным "пониманием" физики — всё работает через язык.
— В реальной миссии потребуется строгая фильтрация и валидация решений.
6. Что дальше
— Возможность использовать LLM в связке с физическими моделями (гибридный подход).
— Перспектива интеграции ChatGPT‑подобных агентов в системы автономного управления реальных космических аппаратов.
— Вопрос: если ИИ может управлять кораблём без обучения — стоит ли ему доверить что-то большее?
Источник:
https://www.space.com/space-exploration/launches-spacecraft/chatgpt-could-pilot-a-spacecraft-unexpectedly-well-early-tests-find
1. Контекст эксперимента
В рамках симуляционного соревнования Kerbal Space Program Differential Game Challenge, исследователи из MIT и Политехнического университета Мадрида протестировали ChatGPT как бортовой ИИ. Ему предоставляли телеметрию в текстовом виде, а он генерировал команды управления кораблём.
Kerbal Space Program (KSP) — это реалистичный симулятор космических полётов, в котором игроки (или ИИ) проектируют ракеты, запускают их, выводят на орбиту и сажают на другие планеты. Игра известна своей точной физикой и давно используется не только энтузиастами, но и инженерами и учёными как платформа для тестирования орбитальной механики и автономных систем.
2. Как это работало
— Телеметрия корабля (позиция, скорость, цели) подавалась как текстовый ввод.
— ChatGPT генерировал пошаговые инструкции для пилотирования: включить двигатели, изменить курс, провести манёвр.
— Прослойка конвертировала команды в действия в симуляторе KSP.
3. Результаты
— ChatGPT занял второе место среди всех участников, включая классические алгоритмы навигации.
— Он показал способность принимать разумные решения в новых условиях, опираясь только на текстовое описание и встроенные знания.
4. Почему это важно
— ChatGPT не проходил специального обучения на данных из KSP.
— Он использовал обобщённые знания и контекстный reasoning для управления, что делает его потенциально универсальным инструментом для автономных миссий.
5. Ограничения
— Возможны галлюцинации и ошибки в критических условиях.
— Модель не обладает встроенным "пониманием" физики — всё работает через язык.
— В реальной миссии потребуется строгая фильтрация и валидация решений.
6. Что дальше
— Возможность использовать LLM в связке с физическими моделями (гибридный подход).
— Перспектива интеграции ChatGPT‑подобных агентов в системы автономного управления реальных космических аппаратов.
— Вопрос: если ИИ может управлять кораблём без обучения — стоит ли ему доверить что-то большее?
Источник:
https://www.space.com/space-exploration/launches-spacecraft/chatgpt-could-pilot-a-spacecraft-unexpectedly-well-early-tests-find
🔥2👍1
Forwarded from Хабр
Опасения по поводу массовых увольнений из‑за ИИ преувеличены, считает генеральный директор Nvidia Дженсен Хуан. Искусственный интеллект не отнимает труд, а преобразовывает его в нечто новое, заявил он в интервью CNN.
Хуан полагает, что некоторые люди действительно потеряют свою работу из‑за массового внедрения ИИ, однако многие другие, напротив, получат новые возможности. Он отметил, что это происходит и с его собственной работой.
«Я не прошу ИИ думать за меня. Я прошу его научить меня тому, чего я не знаю, или помочь решить задачи, которые я не мог бы решить по‑другому», — сказал Хуан.
Гендиректор Nvidia подчеркнул важность умения формулировать запросы — по его словам, это один из ключевых навыков в эпоху ИИ. Хуан пояснил, что зачастую обращается параллельно сразу к нескольким моделям, чтобы сравнить результаты. Такая практика развивает критическое мышление, считает он.
Кроме того, Хуан заметил, что потери рабочих мест могут быть с большей вероятностью спровоцированы отказом компаний от инноваций, таких как ИИ.
Хуан призвал людей считать искусственный интеллект не угрозой, а «величайшим технологическим уравнителем», поскольку он помогает сократить разрыв между людьми и технологиями.
Хуан полагает, что некоторые люди действительно потеряют свою работу из‑за массового внедрения ИИ, однако многие другие, напротив, получат новые возможности. Он отметил, что это происходит и с его собственной работой.
«Я не прошу ИИ думать за меня. Я прошу его научить меня тому, чего я не знаю, или помочь решить задачи, которые я не мог бы решить по‑другому», — сказал Хуан.
Гендиректор Nvidia подчеркнул важность умения формулировать запросы — по его словам, это один из ключевых навыков в эпоху ИИ. Хуан пояснил, что зачастую обращается параллельно сразу к нескольким моделям, чтобы сравнить результаты. Такая практика развивает критическое мышление, считает он.
Кроме того, Хуан заметил, что потери рабочих мест могут быть с большей вероятностью спровоцированы отказом компаний от инноваций, таких как ИИ.
Хуан призвал людей считать искусственный интеллект не угрозой, а «величайшим технологическим уравнителем», поскольку он помогает сократить разрыв между людьми и технологиями.
🤖 ИИ не заменит мышление. Как фастфуд не заменит вино и домашний хлеб.
Автоматизация — это массово. Но массовое ≠ глубокое.
ИИ собирает тексты, картинки, музыку, код — по шаблону.
Но не понимает, зачем и что это значит.
Он решает как, но не чувствует зачем.
🧠 Hand-made мышление снова в цене:
• мысли, не отрефреймленные по мануалу
• идеи вне обучающей выборки
• логика с трещинами — но своя
🌀 ИИ рождает инфо-барахолку.
А она — взращивает спрос на авторство.
На интуицию. На живую точку зрения.
На то, что не дообучить.
ИИ создаёт много.
Цениться будет уникальное.
ИИ спрашивает — как.
Человек отвечает — зачем.
Если ты умеешь думать по‑своему — ты не устареешь.
Автоматизация — это массово. Но массовое ≠ глубокое.
ИИ собирает тексты, картинки, музыку, код — по шаблону.
Но не понимает, зачем и что это значит.
Он решает как, но не чувствует зачем.
🧠 Hand-made мышление снова в цене:
• мысли, не отрефреймленные по мануалу
• идеи вне обучающей выборки
• логика с трещинами — но своя
🌀 ИИ рождает инфо-барахолку.
А она — взращивает спрос на авторство.
На интуицию. На живую точку зрения.
На то, что не дообучить.
ИИ создаёт много.
Цениться будет уникальное.
ИИ спрашивает — как.
Человек отвечает — зачем.
Если ты умеешь думать по‑своему — ты не устареешь.
🧷 Люди с ИИ заменят тех, кто без него.
— Harvard Business Review: https://hbr.org/2023/08/ai-wont-replace-humans-but-humans-with-ai-will-replace-humans-without-ai
🔥2
Forwarded from Вселенная Плюс
This media is not supported in your browser
VIEW IN TELEGRAM
Тайна креативности ИИ
Физики из Стэнфорда разгадали один из главных парадоксов современного ИИ. Почему нейросети, которые копируют данные, вдруг начинают творить?
Диффузионные модели вроде DALL·E работают как "умный шредер" — превращают картинку в шум, а потом восстанавливают. Но вместо точной копии получается что-то новое и осмысленное. Как?
Мейсон Камб и Сурья Гангули нашли ответ в самих "недостатках" системы. Оказывается, креативность — это прямое следствие двух технических ограничений.
Первое — "локальность". Модель смотрит только на маленькие кусочки изображения, не видя общей картины. Камб сравнивает это с развитием эмбрионов — триллионы клеток координируются без "генерального директора", реагируя только на сигналы соседей. Второе — "эквивариантность": система автоматически подстраивается под любые сдвиги входных данных.
Исследователи создали математическую модель ELS, которая работает исключительно на этих двух принципах. Никакого обучения, никаких терабайтов данных — только чистая математика.
Результат оказался интересным: их простая модель предсказывала поведение сложнейших обученных нейросетей с точностью 90%! Для машинного обучения это "неслыханная" точность.
"Как только мы ввели локальность, креативность стала автоматической", — объясняет Камб. То есть те самые "ограничения", которые мешают нейросети делать точные копии, заставляют ее импровизировать.
Вспомните первые ИИ-изображения людей с лишними пальцами. Это не баг — это прямое следствие локального подхода! Как и в биологии, где иногда развитие эмбриона дает сбой и появляются дополнительные конечности, система рисует отдельные участки, не понимая, как они впишутся в финальную картину.
Открытие имеет огромное значение. Впервые удалось математически формализовать креативность ИИ и доказать, что она возникает из архитектуры системы.
Правда, это объясняет только диффузионные модели. Большие языковые модели тоже творят, но работают по другим принципам. Так что тайн в мире ИИ еще хватает!
@vselennayaplus
Физики из Стэнфорда разгадали один из главных парадоксов современного ИИ. Почему нейросети, которые копируют данные, вдруг начинают творить?
Диффузионные модели вроде DALL·E работают как "умный шредер" — превращают картинку в шум, а потом восстанавливают. Но вместо точной копии получается что-то новое и осмысленное. Как?
Мейсон Камб и Сурья Гангули нашли ответ в самих "недостатках" системы. Оказывается, креативность — это прямое следствие двух технических ограничений.
Первое — "локальность". Модель смотрит только на маленькие кусочки изображения, не видя общей картины. Камб сравнивает это с развитием эмбрионов — триллионы клеток координируются без "генерального директора", реагируя только на сигналы соседей. Второе — "эквивариантность": система автоматически подстраивается под любые сдвиги входных данных.
Исследователи создали математическую модель ELS, которая работает исключительно на этих двух принципах. Никакого обучения, никаких терабайтов данных — только чистая математика.
Результат оказался интересным: их простая модель предсказывала поведение сложнейших обученных нейросетей с точностью 90%! Для машинного обучения это "неслыханная" точность.
"Как только мы ввели локальность, креативность стала автоматической", — объясняет Камб. То есть те самые "ограничения", которые мешают нейросети делать точные копии, заставляют ее импровизировать.
Вспомните первые ИИ-изображения людей с лишними пальцами. Это не баг — это прямое следствие локального подхода! Как и в биологии, где иногда развитие эмбриона дает сбой и появляются дополнительные конечности, система рисует отдельные участки, не понимая, как они впишутся в финальную картину.
Открытие имеет огромное значение. Впервые удалось математически формализовать креативность ИИ и доказать, что она возникает из архитектуры системы.
Правда, это объясняет только диффузионные модели. Большие языковые модели тоже творят, но работают по другим принципам. Так что тайн в мире ИИ еще хватает!
@vselennayaplus
👍2
🧠 Дообучение маленьких моделей против больших: кто вывозит и когда
О чём вообще речь?
В машинном обучении (ML) часто берут уже готовую языковую модель и адаптируют под свою задачу — это называется fine-tuning, тонкая настройка.
Бывает два типа моделей:
– SLM (Small Language Model) — маленькая модель, до 7 млрд параметров
– LLM (Large Language Model) — большая, от 13 млрд и выше
Параметры — это числа в модели. Чем их больше, тем она «умнее»… и прожорливее.
LoRA / PEFT / QLoRA — методы, которые позволяют дообучать только часть модели. Быстро, дёшево, удобно.
---
Плюсы маленьких моделей (SLM)
⛽ Малый расход, большой выхлоп
Можно запускать локально. Даже на ноуте с RTX 4070 Ti. Быстро, дёшево, по-своему кайфово.
🎯 Лучше в узком
Если задача — документы, поддержка, медицина или база знаний компании — дообученный SLM даст точность выше GPT‑4.
🛡️ Приватность и контроль
Работаете с внутренними данными — всё остаётся на вашей стороне. Никаких API, никаких облаков.
🚀 Скорость
SLM отвечает мгновенно. Без лага, без прогрева. Как хороший собутыльник — сразу в точку.
📚 techradar: “Small models, big wins”
📚 blog.premai.io: “Fine-tuning Small Language Models”
---
Минусы маленьких моделей
🤏 Мало памяти = мало мышления
Контекст короткий, логика поверхностная. Сложные цепочки и философия — не про них.
📉 Переобучение
Если мало данных — модель начнёт "залипать" на повторении и деградировать. Это называется overfitting.
📚 medium.com: “Advantages and disadvantages of fine-tuning”
---
Плюсы больших моделей (LLM)
🌍 Широкий контекст
LLM натренированы на триллионах токенов. Они понимают язык, намёки, иронию, дают развёрнутые, логичные, даже творческие ответы.
🧩 Гибкость
Иногда даже без дообучения можно добиться хороших результатов просто промптами. А если обучить — получите универсального помощника.
🎨 Креатив
LLM умеет придумывать, связывать неочевидное, выдавать инсайты и оригинальные ходы.
---
Минусы больших моделей
💸 Цена
Для дообучения нужны A100, H100, куча VRAM и электричества. Даже inference дорого стоит, если речь про GPT‑4.
🕳️ Потеря контроля
Всё через облако, всё чужое. API = зависимость. Приватности — ноль.
🧠 Катастрофическое забывание
Если не умеешь обучать — модель может «забыть» старые знания. Называется catastrophic forgetting.
📚 arxiv.org: LoRA paper
📚 superannotate: “LLM fine-tuning: всё, что надо знать”
---
Как лучше всё организовать?
1. Начни с малого
Скачай SLM: LLaMA‑3‑8B, Mistral‑7B, Phi‑2 или TinyLlama.
Запусти через Ollama, llama.cpp или vLLM.
2. Подготовь датасет
300–3000 пар “вопрос–ответ” хватит, особенно если задача узкая. Можно частично сгенерить на GPT‑4 и вручную дообработать.
3. Используй LoRA / QLoRA / PEFT
Это способ дообучать быстро, не трогая всю модель. Работает на обычной видеокарте, занимает в разы меньше места.
4. Подключи RAG
Если нужен доступ к базе знаний или фактам — поставь Retrieval-Augmented Generation. SLM + поиск = сила.
5. Следи за качеством
Делай валидацию, останавливай обучение при переобучении, сравнивай с базовой моделью.
6. LLM — только если надо
Когда задача требует логики, креатива, многоконтекстности — да, бери GPT‑4 или Claude. Но осознанно и с уважением к ресурсам.
---
Вывод
Если бюджет ограничен, задача узкая, а хочется контроля — маленькая модель дообучается за день и работает локально.
Если нужна глубина, ширина, и немного магии — большой моделью не обойтись, но это уже другая лига.
SLM — для локального узкого интеллекта.
LLM — как креативный и логичный советник.
Они не конкуренты — они команда.
О чём вообще речь?
В машинном обучении (ML) часто берут уже готовую языковую модель и адаптируют под свою задачу — это называется fine-tuning, тонкая настройка.
Бывает два типа моделей:
– SLM (Small Language Model) — маленькая модель, до 7 млрд параметров
– LLM (Large Language Model) — большая, от 13 млрд и выше
Параметры — это числа в модели. Чем их больше, тем она «умнее»… и прожорливее.
LoRA / PEFT / QLoRA — методы, которые позволяют дообучать только часть модели. Быстро, дёшево, удобно.
---
Плюсы маленьких моделей (SLM)
⛽ Малый расход, большой выхлоп
Можно запускать локально. Даже на ноуте с RTX 4070 Ti. Быстро, дёшево, по-своему кайфово.
🎯 Лучше в узком
Если задача — документы, поддержка, медицина или база знаний компании — дообученный SLM даст точность выше GPT‑4.
🛡️ Приватность и контроль
Работаете с внутренними данными — всё остаётся на вашей стороне. Никаких API, никаких облаков.
🚀 Скорость
SLM отвечает мгновенно. Без лага, без прогрева. Как хороший собутыльник — сразу в точку.
📚 techradar: “Small models, big wins”
📚 blog.premai.io: “Fine-tuning Small Language Models”
---
Минусы маленьких моделей
🤏 Мало памяти = мало мышления
Контекст короткий, логика поверхностная. Сложные цепочки и философия — не про них.
📉 Переобучение
Если мало данных — модель начнёт "залипать" на повторении и деградировать. Это называется overfitting.
📚 medium.com: “Advantages and disadvantages of fine-tuning”
---
Плюсы больших моделей (LLM)
🌍 Широкий контекст
LLM натренированы на триллионах токенов. Они понимают язык, намёки, иронию, дают развёрнутые, логичные, даже творческие ответы.
🧩 Гибкость
Иногда даже без дообучения можно добиться хороших результатов просто промптами. А если обучить — получите универсального помощника.
🎨 Креатив
LLM умеет придумывать, связывать неочевидное, выдавать инсайты и оригинальные ходы.
---
Минусы больших моделей
💸 Цена
Для дообучения нужны A100, H100, куча VRAM и электричества. Даже inference дорого стоит, если речь про GPT‑4.
🕳️ Потеря контроля
Всё через облако, всё чужое. API = зависимость. Приватности — ноль.
🧠 Катастрофическое забывание
Если не умеешь обучать — модель может «забыть» старые знания. Называется catastrophic forgetting.
📚 arxiv.org: LoRA paper
📚 superannotate: “LLM fine-tuning: всё, что надо знать”
---
Как лучше всё организовать?
1. Начни с малого
Скачай SLM: LLaMA‑3‑8B, Mistral‑7B, Phi‑2 или TinyLlama.
Запусти через Ollama, llama.cpp или vLLM.
2. Подготовь датасет
300–3000 пар “вопрос–ответ” хватит, особенно если задача узкая. Можно частично сгенерить на GPT‑4 и вручную дообработать.
3. Используй LoRA / QLoRA / PEFT
Это способ дообучать быстро, не трогая всю модель. Работает на обычной видеокарте, занимает в разы меньше места.
4. Подключи RAG
Если нужен доступ к базе знаний или фактам — поставь Retrieval-Augmented Generation. SLM + поиск = сила.
5. Следи за качеством
Делай валидацию, останавливай обучение при переобучении, сравнивай с базовой моделью.
6. LLM — только если надо
Когда задача требует логики, креатива, многоконтекстности — да, бери GPT‑4 или Claude. Но осознанно и с уважением к ресурсам.
---
Вывод
Если бюджет ограничен, задача узкая, а хочется контроля — маленькая модель дообучается за день и работает локально.
Если нужна глубина, ширина, и немного магии — большой моделью не обойтись, но это уже другая лига.
SLM — для локального узкого интеллекта.
LLM — как креативный и логичный советник.
Они не конкуренты — они команда.
👍3
AWS запускает Agentic AI — ИИ‑агенты берут бизнес‑процессы под контроль
Что случилось?
На AWS Summit New York AWS анонсировали революционные инструменты: Kiro — IDE для агент‑ориентированной разработки, а также полноценную платформу Amazon Bedrock AgentCore, которая выводит агенты в продакшн с инфраструктурой, безопасностью, памятью, мониторингом и интеграциями
Почему это важно?
- Переход от прототипов к промышленных решениям — AgentCore позволяет масштабировать агенты на тысячи пользователей, с полной сессией и контролем доступа
- Игрушки становятся софт‑сервисом — по словам Swami Sivasubramanian, VP AWS Agentic AI, агенты — «Это тектонический сдвиг… самое значимое с момента появления Интернета»
- Прозрачность и доверие — платформа включает управление идентификацией, памятью, безопасным доступом к сервисам, наблюдением и журналированием
Что умеют агенты AWS?
- AgentCore Runtime — серверлесс‑среда с изолированными сессиями, масштабируемая до тысяч одновременных пользователей и поддерживающая выполнение агентов до 8 часов
- Memory & Identity — кратковременная и долговременная память + безопасный доступ к AWS и внешним сервисам
- Gateway, Browser, Code Interpreter — агенты получают API, могут ходить в браузер, писать и выполнять код в песочнице
- Observability — live‑мониторинг, трассировка, логика действий, причины принятия решений
- Kiro IDE — агент‑кодер преобразует идеи в архитектуру, тесты, документацию и финальный код
Что это меняет в бизнесе?
- 🛠 Скорость и надёжность — от идеи до продакшна в разы быстрее, без долгов и рисков.
- 🔐 Безопасность на уровне банковских операций — Identity и Memory защищают данные.
- 📦 Покупай и запускай — AWS Marketplace с агентами от Anthropic, IBM, Brave и др. запущен
- 💰 Инвестиции и экосистема — дополнительные $100 млн в пользу Agentic AI Innovation Center
Вывод:
AWS заявляет: агенты — не просто фича, а новая эра IT‑разработки. Это сдвиг парадигмы: самоуправляемый софт, изначально построенный как сервис — безопасный, масштабируемый, глубоко встроенный в процессы. Всё ближе к формуле “люби или умри без агента”.
Пора задать вопрос: сколько функций в вашем бизнесе уже можно передать ИИ‑агенту? И что, если завтра они будут управлять не только кодом, но и клиентским опытом, финансами и стратегией?
Источник: TechRadar, ссылка: https://techradar.com/pro/aws-launches-kiro-an-agentic-ai-ide-to-end-the-chaos-of-vibe-coding
Источник: TechRadar, ссылка: https://techradar.com/pro/aws-looks-to-super-charge-ai-agents-with-amazon-bedrock-agentcore
Источник: IT Pro, ссылка: https://itpro.com/cloud/cloud-computing/three-of-the-biggest-announcements-from-aws-summit-new-york
Источник: TechRadar, ссылка: https://techradar.com/pro/its-a-tectonic-change-aws-ai-head-calls-agents-the-most-impactful-change-weve-seen-since-the-dawn-of-the-internet
Что случилось?
На AWS Summit New York AWS анонсировали революционные инструменты: Kiro — IDE для агент‑ориентированной разработки, а также полноценную платформу Amazon Bedrock AgentCore, которая выводит агенты в продакшн с инфраструктурой, безопасностью, памятью, мониторингом и интеграциями
Почему это важно?
- Переход от прототипов к промышленных решениям — AgentCore позволяет масштабировать агенты на тысячи пользователей, с полной сессией и контролем доступа
- Игрушки становятся софт‑сервисом — по словам Swami Sivasubramanian, VP AWS Agentic AI, агенты — «Это тектонический сдвиг… самое значимое с момента появления Интернета»
- Прозрачность и доверие — платформа включает управление идентификацией, памятью, безопасным доступом к сервисам, наблюдением и журналированием
Что умеют агенты AWS?
- AgentCore Runtime — серверлесс‑среда с изолированными сессиями, масштабируемая до тысяч одновременных пользователей и поддерживающая выполнение агентов до 8 часов
- Memory & Identity — кратковременная и долговременная память + безопасный доступ к AWS и внешним сервисам
- Gateway, Browser, Code Interpreter — агенты получают API, могут ходить в браузер, писать и выполнять код в песочнице
- Observability — live‑мониторинг, трассировка, логика действий, причины принятия решений
- Kiro IDE — агент‑кодер преобразует идеи в архитектуру, тесты, документацию и финальный код
Что это меняет в бизнесе?
- 🛠 Скорость и надёжность — от идеи до продакшна в разы быстрее, без долгов и рисков.
- 🔐 Безопасность на уровне банковских операций — Identity и Memory защищают данные.
- 📦 Покупай и запускай — AWS Marketplace с агентами от Anthropic, IBM, Brave и др. запущен
- 💰 Инвестиции и экосистема — дополнительные $100 млн в пользу Agentic AI Innovation Center
Вывод:
AWS заявляет: агенты — не просто фича, а новая эра IT‑разработки. Это сдвиг парадигмы: самоуправляемый софт, изначально построенный как сервис — безопасный, масштабируемый, глубоко встроенный в процессы. Всё ближе к формуле “люби или умри без агента”.
Пора задать вопрос: сколько функций в вашем бизнесе уже можно передать ИИ‑агенту? И что, если завтра они будут управлять не только кодом, но и клиентским опытом, финансами и стратегией?
Источник: TechRadar, ссылка: https://techradar.com/pro/aws-launches-kiro-an-agentic-ai-ide-to-end-the-chaos-of-vibe-coding
Источник: TechRadar, ссылка: https://techradar.com/pro/aws-looks-to-super-charge-ai-agents-with-amazon-bedrock-agentcore
Источник: IT Pro, ссылка: https://itpro.com/cloud/cloud-computing/three-of-the-biggest-announcements-from-aws-summit-new-york
Источник: TechRadar, ссылка: https://techradar.com/pro/its-a-tectonic-change-aws-ai-head-calls-agents-the-most-impactful-change-weve-seen-since-the-dawn-of-the-internet
👍1
Forwarded from Хабр
Как использовать AI-агент Claude Code: советы опытного разработчика
Что может заставить опытного разработчика после года глубокой работы с AI-ассистентом Cursor полностью перейти на Claude Code и не желать возвращаться?
Разберёмся, как максимально эффективно использовать этот AI-агент, и посмотрим на конкретные советы и лучшие практики от разработчика, который сделал именно такой выбор.
Что может заставить опытного разработчика после года глубокой работы с AI-ассистентом Cursor полностью перейти на Claude Code и не желать возвращаться?
Разберёмся, как максимально эффективно использовать этот AI-агент, и посмотрим на конкретные советы и лучшие практики от разработчика, который сделал именно такой выбор.
✍️ Дневник, 10–24 июля 2025
Краткий трек по изученному.
🦀 Rust
Разобрался с замыканиями: как они захватывают переменные (Fn, FnMut, FnOnce), как работают в итераторах
Сделал многопоточный счётчик на 200 потоков через Arc<Mutex<T>>
Освоил mpsc::channel(), реализовал асинхронную передачу сообщений, закрыл каналы вручную
Написал async-функции с задержками, поработал с tokio::join! и spawn
Потренировался с HashMap / HashSet, делал word counter и находил пересечения множеств
Поигрался с итераторами — .fold(), .partition(), .zip() — обработал статистику за один проход
Написал простой анализатор частоты слов в файле, подтянул fs::read_to_string, обработку ошибок через Result и ?
🧠 ML-направление
Пройден блок по линейной алгебре:
Векторы, матрицы, размерности
Норма, скалярное произведение, нормализация
Транспонирование, сложение векторов
Разобрали ЦПТ, биномиальное распределение, приближение к нормальному
Начал чувствовать философский слой в SVD: коллапс, вырождение, смысловая нагрузка в нейросетях
Краткий трек по изученному.
🦀 Rust
Разобрался с замыканиями: как они захватывают переменные (Fn, FnMut, FnOnce), как работают в итераторах
Сделал многопоточный счётчик на 200 потоков через Arc<Mutex<T>>
Освоил mpsc::channel(), реализовал асинхронную передачу сообщений, закрыл каналы вручную
Написал async-функции с задержками, поработал с tokio::join! и spawn
Потренировался с HashMap / HashSet, делал word counter и находил пересечения множеств
Поигрался с итераторами — .fold(), .partition(), .zip() — обработал статистику за один проход
Написал простой анализатор частоты слов в файле, подтянул fs::read_to_string, обработку ошибок через Result и ?
🧠 ML-направление
Пройден блок по линейной алгебре:
Векторы, матрицы, размерности
Норма, скалярное произведение, нормализация
Транспонирование, сложение векторов
Разобрали ЦПТ, биномиальное распределение, приближение к нормальному
Начал чувствовать философский слой в SVD: коллапс, вырождение, смысловая нагрузка в нейросетях
👍2