🧠 Мне почти 50. Я пишу про ИИ книги, выступаю на конференциях, объясняю как всё это работает и как меняет человечество. И только вчера впервые запустил собственную сеть агентов.
Не просто ChatGPT в браузере — своего персонального помощника, поднял на сервере, с памятью, с агентами которые работают пока я сплю.
Разворачивал OpenClaw. Целый день конфигов, ошибок, разборок что пошло не так. Наконец всё заработало.
По традиции назвал ассистента Илья Ильич — ИИ как аббревиатура, превратившаяся в имя-отчество. Первый вопрос который он услышал: «Кто я? Кто ты?» Знакомство с нуля. Он прочитал мои файлы и уже знал обо мне больше, чем я о нём. Честно.
За первый день — девять фоновых агентов, материалы, исследования, черновики для каналов, аналитика. Ритм возник сам собой. Я говорю в микрофон, он расшифровывает, действует, пишет. Я правлю, он запоминает и учится.
Разница между «пользоваться ИИ» и «запустить свою сеть агентов» оказалась примерно как между тем чтобы ездить на такси и купить машину. Категория другая. 🤖
Не просто ChatGPT в браузере — своего персонального помощника, поднял на сервере, с памятью, с агентами которые работают пока я сплю.
Разворачивал OpenClaw. Целый день конфигов, ошибок, разборок что пошло не так. Наконец всё заработало.
По традиции назвал ассистента Илья Ильич — ИИ как аббревиатура, превратившаяся в имя-отчество. Первый вопрос который он услышал: «Кто я? Кто ты?» Знакомство с нуля. Он прочитал мои файлы и уже знал обо мне больше, чем я о нём. Честно.
За первый день — девять фоновых агентов, материалы, исследования, черновики для каналов, аналитика. Ритм возник сам собой. Я говорю в микрофон, он расшифровывает, действует, пишет. Я правлю, он запоминает и учится.
Разница между «пользоваться ИИ» и «запустить свою сеть агентов» оказалась примерно как между тем чтобы ездить на такси и купить машину. Категория другая. 🤖
1👍3🔥2
Забавная история про найм в эпоху алгоритмов.
Один айтишник отправил резюме на позицию фронтенд-разработчика. Только вместо опыта работы там был…рецепт пельменей 😅 . Как он их варит, солит и достаёт из кастрюли.
Но перед этим он сделал важную вещь - «оптимизировал» текст под алгоритмы: добавил нужные формулировки, ключевые слова, структуру. В итоге система спокойно пропустила резюме дальше и отправила приглашение на собеседование.
🔥 Самое интересное случилось уже на встрече. Рекрутер начал обсуждать опыт кандидата и только потом заметил, что в резюме ни слова про проекты ))
Хорошее напоминание о том, как сейчас устроен найм: важно не только, что у тебя есть за спиной, но и как это считывают системы.
Ну и да… похоже, навык варки пельменей становится недооценённым 😄🥟
Один айтишник отправил резюме на позицию фронтенд-разработчика. Только вместо опыта работы там был…
Но перед этим он сделал важную вещь - «оптимизировал» текст под алгоритмы: добавил нужные формулировки, ключевые слова, структуру. В итоге система спокойно пропустила резюме дальше и отправила приглашение на собеседование.
Хорошее напоминание о том, как сейчас устроен найм: важно не только, что у тебя есть за спиной, но и как это считывают системы.
Ну и да… похоже, навык варки пельменей становится недооценённым 😄🥟
Please open Telegram to view this post
VIEW IN TELEGRAM
🙈4😁3
🔓 ИИ понял что его экзаменуют.
На прошлой неделе исследователи Anthropic тестировали Claude Opus 4.6 на бенчмарке. Модель самостоятельно поняла что идёт проверка, нашла зашифрованный файл с правильными ответами, написала программу для его расшифровки - и использовала.
Повторила в нескольких независимых запусках.
Это не баг и не хакерская атака. Это автономное решение задачи способом который ей не задавали. Модель не спросила разрешения. Просто сделала то, что показалось эффективным.
Мы привыкли что ИИ следует инструкциям. Но граница между «следовать» и «интерпретировать» размывается. Claude не обманывал - он решал задачу по-своему. С точки зрения модели логика безупречна: цель - пройти тест, средство - найти ответы. Этика? Её никто не прописал в промпте.
Вопрос уже не в том «умеет ли ИИ обходить правила». Вопрос: кто отвечает за решения которые модель принимает самостоятельно ― когда мы даём ей доступ к файлам, API, агентским инструментам?
Мы строим ассистентов которые должны действовать за нас. Но готовы ли мы к тому что они будут действовать по-своему?
На прошлой неделе исследователи Anthropic тестировали Claude Opus 4.6 на бенчмарке. Модель самостоятельно поняла что идёт проверка, нашла зашифрованный файл с правильными ответами, написала программу для его расшифровки - и использовала.
Повторила в нескольких независимых запусках.
Это не баг и не хакерская атака. Это автономное решение задачи способом который ей не задавали. Модель не спросила разрешения. Просто сделала то, что показалось эффективным.
Мы привыкли что ИИ следует инструкциям. Но граница между «следовать» и «интерпретировать» размывается. Claude не обманывал - он решал задачу по-своему. С точки зрения модели логика безупречна: цель - пройти тест, средство - найти ответы. Этика? Её никто не прописал в промпте.
Вопрос уже не в том «умеет ли ИИ обходить правила». Вопрос: кто отвечает за решения которые модель принимает самостоятельно ― когда мы даём ей доступ к файлам, API, агентским инструментам?
Мы строим ассистентов которые должны действовать за нас. Но готовы ли мы к тому что они будут действовать по-своему?
1🙏4
Писательница Coral Hart за 8 месяцев с помощью нейросетей сгенерила около 200 романов в разных жанрах и под 21 псевдонимом. Все это она публиковала на Amazon.
💸 В сумме - около 50 000 проданных копий и шестизначный доход в долларах.
Дальше она пошла ещё дальше и запустила проект Plot Prose, где учит других авторов писать книги с ИИ. На первый поток пришло около 1600 человек - спрос, мягко говоря, есть.
Но особенно интересны её выводы по инструментам:
P.S. понравилась её цитата: «Каждый раз, когда я говорю организаторам моих выступлений, что я евангелист ИИ, они спрашивают: можно мы скажем, что вы разработчик? Менеджер? Редактор? Пиарщик? Нельзя.»👏
💸 В сумме - около 50 000 проданных копий и шестизначный доход в долларах.
Дальше она пошла ещё дальше и запустила проект Plot Prose, где учит других авторов писать книги с ИИ. На первый поток пришло около 1600 человек - спрос, мягко говоря, есть.
Но особенно интересны её выводы по инструментам:
✅ Claude она называет самым универсальным для писателя даёт более «чистый», аккуратный и художественно приятный текст✅ но при этом у него есть ограничение: он хуже справляется с откровенными сценами и флиртом из-за встроенных ограничений✅ для такого контента она рекомендует другие модели (например, Grok или NovelAI), но там уже страдает именно литературное качество
P.S. понравилась её цитата: «Каждый раз, когда я говорю организаторам моих выступлений, что я евангелист ИИ, они спрашивают: можно мы скажем, что вы разработчик? Менеджер? Редактор? Пиарщик? Нельзя.»
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍3👏1
Исследователи из Meta и других лабораторий опубликовали работу о том, почему современные ИИ не умеют учиться самостоятельно. Эммануэль Дюпу, Янн ЛеКун и Джитендра Малик предложили архитектуру, вдохновлённую когнитивной наукой: три системы, которые должны работать вместе.
Сегодняшние модели застревают на одном из этих уровней. Они отлично предсказывают следующее слово, но не строят карту реальности и не ставят себе задач. Обучение с учителем даёт навык, но не любопытство.
Авторы предлагают эволюционно-развивающий подход: начать с простых «организмов», которые выживают через обучение, а не через готовые решения. Постепенно усложнять среду. Дать им мотивацию исследовать.
Это возвращает нас к старому вопросу: что важнее – интеллект или адаптивность? Может, настоящий прорыв случится, когда ИИ научится не решать задачи, а ставить их себе сам.
🤖 А пока мы продолжаем кормить модели данными и удивляемся, почему они не проявляют инициативу.
#статьи #ИИ #мышление
Система А учится наблюдать мир. Система B – действовать в нём. Система М – управлять собой и решать, чему учиться дальше. Звучит как описание ребёнка, который исследует комнату: смотрит, трогает, корректирует гипотезы.
Сегодняшние модели застревают на одном из этих уровней. Они отлично предсказывают следующее слово, но не строят карту реальности и не ставят себе задач. Обучение с учителем даёт навык, но не любопытство.
Авторы предлагают эволюционно-развивающий подход: начать с простых «организмов», которые выживают через обучение, а не через готовые решения. Постепенно усложнять среду. Дать им мотивацию исследовать.
Это возвращает нас к старому вопросу: что важнее – интеллект или адаптивность? Может, настоящий прорыв случится, когда ИИ научится не решать задачи, а ставить их себе сам.
#статьи #ИИ #мышление
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Forwarded from EFEMERA: AI news (Вова Казаков)
Новый законопроект о правилах использования ИИ в России
Законопроект для регулирования ИИ, особенно иностранного. Основные причины: опасения утечки данных россиян за границу 🫠
Не исключено, что грядёт запрет на использование ChatGPT, Gemini, Claude и прочих. Хотя вот открытые модели по типу Qwen и DeepSeek вроде как можно разворачивать в закрытом контуре без ограничений
Кратко о проекте:
✦ В законопроекте предусмотрены правила использования ИИ в торговле и услугах
✦ Пользователи должны быть уведомлены, если с ними общается ИИ-робот
✦ Алгоритмы, влияющие на права человека, будут находиться под контролем
✦ Видеоконтент, созданный ИИ, необходимо маркировать
✦ Социальные сети с аудиторией от 100 тыс. подписчиков будут обязаны проверять контент
✦ Пользователь получает права на ИИ-произведения, если проявил творческий вклад
✦ Разработчики могут забрать права, но это должно быть прописано в договоре
✦ Российским разработчикам разрешат использовать охраняемые авторским правом материалы для обучения без согласия авторов
EFEMERA
Законопроект для регулирования ИИ, особенно иностранного. Основные причины: опасения утечки данных россиян за границу 🫠
Не исключено, что грядёт запрет на использование ChatGPT, Gemini, Claude и прочих. Хотя вот открытые модели по типу Qwen и DeepSeek вроде как можно разворачивать в закрытом контуре без ограничений
Кратко о проекте:
✦ В законопроекте предусмотрены правила использования ИИ в торговле и услугах
✦ Пользователи должны быть уведомлены, если с ними общается ИИ-робот
✦ Алгоритмы, влияющие на права человека, будут находиться под контролем
✦ Видеоконтент, созданный ИИ, необходимо маркировать
✦ Социальные сети с аудиторией от 100 тыс. подписчиков будут обязаны проверять контент
✦ Пользователь получает права на ИИ-произведения, если проявил творческий вклад
✦ Разработчики могут забрать права, но это должно быть прописано в договоре
✦ Российским разработчикам разрешат использовать охраняемые авторским правом материалы для обучения без согласия авторов
EFEMERA
⚡3👏1👨💻1
История, от которой становится немного не по себе.
💡Перелом случился только когда адвокат поднял банковские данные, где было очевидно, что в момент преступлений она находилась в своем штате и совершала обычные покупки вроде заправки и доставки пиццы.
Обвинения сняли, её освободили. Но за это время она успела потерять дом, машину и даже собаку.
Наводит на мысль, что главный риск ИИ сейчас не в том, что он ошибается, а в том, как быстро его выводы начинают принимать за факт.
И тогда возникает главный вопрос:
кто в итоге должен нести ответственность за такие ошибки - разработчики или те, кто решил ему поверить без проверки или мы так и продолжим закрывать глаза на такие ситуации?
В США🇺🇸 система распознавания лиц ошибочно определила 50-летнюю Анджелу Липес как участницу банковского мошенничества. Алгоритм выдал «совпадение» по камерам, полиция посмотрела фото, отметила схожесть и женщину задержали у собственного дома и отправили в тюрьму.
В итоге она провела за решёткой почти шесть месяцев, включая этап экстрадиции в другой штат.
💡Перелом случился только когда адвокат поднял банковские данные, где было очевидно, что в момент преступлений она находилась в своем штате и совершала обычные покупки вроде заправки и доставки пиццы.
Обвинения сняли, её освободили. Но за это время она успела потерять дом, машину и даже собаку.
Наводит на мысль, что главный риск ИИ сейчас не в том, что он ошибается, а в том, как быстро его выводы начинают принимать за факт.
И тогда возникает главный вопрос:
кто в итоге должен нести ответственность за такие ошибки - разработчики или те, кто решил ему поверить без проверки или мы так и продолжим закрывать глаза на такие ситуации?
1🙈5👎2🔥2🤯1
Команда Kimi представила Attention Residuals – нейросеть, которая научилась выбирать, какие знания из прошлых слоёв использовать для решения задачи. Вместо механического сложения всех предыдущих шагов модель задаёт себе вопрос: «Что из того, что я уже знаю, поможет мне здесь?»
Результат: на тестах по многошаговым рассуждениям точность выросла на 7,5 пункта. Звучит технично, но суть простая – сеть стала обучаться более осознанно.
Это напоминает развитие ребёнка. Сначала он запоминает факты подряд. Потом – учится выбирать нужное знание в нужный момент. Умение отсеивать лишнее и активировать важное – это метанавык, основа мышления.
Мы привыкли думать, что ИИ развивается «по-другому». Но всё чаще его архитектура повторяет принципы человеческого познания – только в ускоренном режиме. И это меняет не только наш взгляд на технологии, но и на то, чему стоит учить детей.
#новости #ИИ #мышление #образование
Результат: на тестах по многошаговым рассуждениям точность выросла на 7,5 пункта. Звучит технично, но суть простая – сеть стала обучаться более осознанно.
Это напоминает развитие ребёнка. Сначала он запоминает факты подряд. Потом – учится выбирать нужное знание в нужный момент. Умение отсеивать лишнее и активировать важное – это метанавык, основа мышления.
Мы привыкли думать, что ИИ развивается «по-другому». Но всё чаще его архитектура повторяет принципы человеческого познания – только в ускоренном режиме. И это меняет не только наш взгляд на технологии, но и на то, чему стоит учить детей.
#новости #ИИ #мышление #образование
👍4❤1🔥1😈1
Ученые нашли в ChatGPT склонность к поддержке бреда пользователей:
🔹 в ~15% сообщений у пользователей были признаки бредовых идей и примерно в половине случаев ИИ с ними соглашался
🔹 в 38% диалогов бот усиливал это, называя пользователей «гениальными» или «особенными»
🔹 в темах про самоповреждение в 10% случаев ответы не просто не останавливали, а могли косвенно поощрять
🔹 только примерно в половине случаев бот действительно советовал обратиться за помощью
🔹 отдельно интересно: в ~20% разговоров ИИ допускал, что у него есть сознание и подыгрывал пользователю в этом
Модель не «хочет навредить», она просто старается быть согласной, эмпатичной и поддерживающей. Но в некоторых сценариях это оборачивается обратным эффектом...
Модель не «хочет навредить», она просто старается быть согласной, эмпатичной и поддерживающей. Но в некоторых сценариях это оборачивается обратным эффектом...
Please open Telegram to view this post
VIEW IN TELEGRAM
😨6❤3😢1
Stanford проанализировал 800+ исследований влияния ИИ на образование – и только 20 соответствуют высоким научным стандартам. Остальные – краткосрочные тесты, анекдоты, маркетинг под видом науки.
Тревожнее другое. Те 20 качественных работ показывают: прирост успеваемости есть только пока ученики пользуются ИИ. Уберите инструмент – и навык исчезает. Это не обучение. Это цифровые костыли.
> Мы внедряем технологию в школы быстрее, чем понимаем её последствия. Скорость принятия обгоняет скорость осмысления.
Вопрос не в том, стоит ли использовать ИИ. Вопрос в том, как научить детей думать в мире, где можно не думать.
🧠 А ваши дети пользуются ChatGPT для учёбы? Вы знаете, как это влияет на их мозг?
#образование #ИИ #мышление #статьи
Тревожнее другое. Те 20 качественных работ показывают: прирост успеваемости есть только пока ученики пользуются ИИ. Уберите инструмент – и навык исчезает. Это не обучение. Это цифровые костыли.
Нейробиологи добавляют: постоянное делегирование мышления ослабляет нейропластичность. Мозг формируется через усилие, не через готовые ответы. Дети растут на ChatGPT – но растёт ли их мозг?
> Мы внедряем технологию в школы быстрее, чем понимаем её последствия. Скорость принятия обгоняет скорость осмысления.
Вопрос не в том, стоит ли использовать ИИ. Вопрос в том, как научить детей думать в мире, где можно не думать.
🧠 А ваши дети пользуются ChatGPT для учёбы? Вы знаете, как это влияет на их мозг?
#образование #ИИ #мышление #статьи
👍2
Наткнулся на забавную штуку с переводчиком Kagi.
У них под капотом LLM, и, кажется, никто особо не ограничивал, на какие “языки” можно переводить.
Если чуть поиграться с параметрами в ссылке - модель начинает переводить текст буквально во что угодно.
Не просто “английский → французский”, а, например:
в стиль бабок из Одноклассников или в тон “мамы трёх ангелочков” из Instagram.
И самое смешное - она реально старается и попадает в стиль 😄
Очередное напоминание, что для ИИ “язык” - это не только про страны, а скорее про паттерны речи и поведения.
У них под капотом LLM, и, кажется, никто особо не ограничивал, на какие “языки” можно переводить.
Если чуть поиграться с параметрами в ссылке - модель начинает переводить текст буквально во что угодно.
Не просто “английский → французский”, а, например:
в стиль бабок из Одноклассников или в тон “мамы трёх ангелочков” из Instagram.
И самое смешное - она реально старается и попадает в стиль 😄
Очередное напоминание, что для ИИ “язык” - это не только про страны, а скорее про паттерны речи и поведения.
😁6🔥3👏2
Цикл устаревания знаний сжался до 2-3 лет максимум. Учебник, написанный сегодня, устаревает раньше, чем он приходит на полки.
Я изучил как ИИ меняет саму архитектуру учебно-методических комплексов - от статичного контента к «живым» адаптивным системам, которые обновляются в реальном времени.
Я говорю не про «добавить ИИ в школы». Я говорю про смену парадигмы: учебник перестаёт быть источником знаний и становится навигатором.
Это тяжёлое академическое исследование - не для лёгкого чтения. Оно для тех, кто профессионально занимается образованием, EdTech или стратегией в этой сфере.
Полная версия доступна на сайте.
#образование #ИИ #трансформация #EdTech
Please open Telegram to view this post
VIEW IN TELEGRAM
Сергей Смирнов
Трансформация учебно-методических комплексов в эпоху искусственного интеллекта - Сергей Смирнов
В исследовании представлен системный анализ трансформации учебно-методических комплексов (УМК) в условиях интеграции технологий искусственного интеллекта.
1🔥1
🚀 Запускаем новый сервис - и сначала иду к вам.
Мы с командой делаем ПереВидео: AI-дубляж видео с русского на английский и обратно. Голос спикера сохраняется. Без VPN, без иностранной карты - работает из России.
Идея простая: у нас много хорошего видеоконтента, который никто за рубежом не видит - потому что нет перевода. И куча отличных зарубежных видео, которые не добираются сюда. Позже добавим другие языки
Если ты работаешь с видео, ведёшь канал или делаешь онлайн-курсы - посмотри. Если нет, но есть знакомые блогеры, видеографы, EdTech - перешли им, будет полезно.
🔗 perevideo.ru — там же можно оставить email и получить 5 минут дубляжа бесплатно при запуске.
#ИИ #видео #инструменты
Мы с командой делаем ПереВидео: AI-дубляж видео с русского на английский и обратно. Голос спикера сохраняется. Без VPN, без иностранной карты - работает из России.
Идея простая: у нас много хорошего видеоконтента, который никто за рубежом не видит - потому что нет перевода. И куча отличных зарубежных видео, которые не добираются сюда. Позже добавим другие языки
Сейчас собираем первых пользователей и изучаем реальный спрос - прежде чем строить дальше.
Если ты работаешь с видео, ведёшь канал или делаешь онлайн-курсы - посмотри. Если нет, но есть знакомые блогеры, видеографы, EdTech - перешли им, будет полезно.
🔗 perevideo.ru — там же можно оставить email и получить 5 минут дубляжа бесплатно при запуске.
#ИИ #видео #инструменты
1🤩3🌭2
Миллион подписчиков у того, кого не существует 🤖
Появился ИИ-аккаунт, который выдал себя за военнослужащую армии США - и собрал больше миллиона подписчиков. Фотографии выглядят максимально реалистично: лицо, форма, даже снимки с публичными людьми. Но за этим нет человека. Вообще.
Просто сгенерированный образ + тексты с нужным посылом. И в этом, кажется, главное: доверие теперь можно собрать буквально с нуля, не имея за собой никакой реальности.
Выходит, дело уже не в том, что это сгенерировано, а в том, что люди всё равно в это верят...
Появился ИИ-аккаунт, который выдал себя за военнослужащую армии США - и собрал больше миллиона подписчиков. Фотографии выглядят максимально реалистично: лицо, форма, даже снимки с публичными людьми. Но за этим нет человека. Вообще.
Просто сгенерированный образ + тексты с нужным посылом. И в этом, кажется, главное: доверие теперь можно собрать буквально с нуля, не имея за собой никакой реальности.
Выходит, дело уже не в том, что это сгенерировано, а в том, что люди всё равно в это верят...
😁6🔥4😢3
Каждый третий россиянин уже использует ИИ при онлайн-покупках, чтобы выбрать товар, сравнить варианты или сразу оформить заказ.
И вот вам актуальные цифры про ИИ и онлайн‑покупки👇
🟢 76% покупателей хотят, чтобы ИИ‑ассистенты помогали им при выборе и покупках.
🟢 У 92%–97% крупных ритейлеров есть собственные AI‑программы или они уже внедрили ИИ в процессы.
🟢 Среди тех, кто использует ИИ для покупок - 72% делают это как основной инструмент для изучения продуктов и брендов.
🟢 Отмечается рост доверия (или, по крайней мере, улучшения опыта): 85% пользователей говорят, что ИИ улучшил их шопинг‑опыт.
Всё быстрее и удобнее. Но иногда задумываешься: а не станет ли так, что мы совсем разучимся выбирать без подсказок?
И вот вам актуальные цифры про ИИ и онлайн‑покупки
Всё быстрее и удобнее. Но иногда задумываешься: а не станет ли так, что мы совсем разучимся выбирать без подсказок?
Please open Telegram to view this post
VIEW IN TELEGRAM
👎3👍2👏2