AI прорыв
3.01K subscribers
124 photos
73 videos
2 files
210 links
Канал об искусственном интеллекте и автоматизации для тех, кто строит бизнес будущего🚀
Мы показываем простые шаги по внедрению AI в бизнес: увеличиваем прибыль, ускоряем процессы и освобождаем время для жизни😁
Download Telegram
ChatGPT «сломали» каракули — и OpenAI это поддержал

В сети разлетелся странный тренд: пользователи начали просить ChatGPT писать в стиле «курица лапой». Результат — тексты, будто их наспех нацарапали от руки.

Шутка быстро вышла из-под контроля: формат подхватили тысячи людей, и он стал мемом сам по себе.

Самое интересное — реакция OpenAI. Вместо игнора компания подыграла и сменила аватарку официального аккаунта на те самые каракули.

Иногда самый быстрый способ выиграть — не бороться с мемом, а стать его частью.
4😁3
Midjourney стал резче — V8.1 уже в деле

Midjourney обновили движок и аккуратно подняли планку качества. Картинки стали чище, детали — точнее, меньше «мыла» там, где раньше оно вылезало.

Сильнее всего апгрейд ощущается при работе с референсами и сложными визуальными наборами. Генерации теперь лучше держат стиль и структуру, особенно в high-res задачах.

В обычных промтах тоже есть улучшения, но без резких скачков — просто стало аккуратнее.

Ключевые моменты:

— улучшена четкость и детализация изображений
— заметный прирост качества при работе с SREF, мудбордами и high-res
— базовая генерация стала стабильнее, но изменения менее бросаются в глаза
— версия V8.1 доступна и на сайте, и в Discord
4
ИИ-питомцы не прижились: от фана до удаления за неделю

OpenAI решила добавить в Codex немного жизни — пользователям выдали виртуальных питомцев, вплоть до гоблинов. Выглядит как мелочь, но быстро стало отдельным развлечением внутри продукта.

В Anthropic эксперимент пошёл иначе: встроенного в Claude Code «Buddy» убрали почти сразу после публичного запуска. Неделя — и функции нет.

Причина проста — такие штуки быстро отвлекают от основной задачи. В среде, где важна концентрация, лишний «фан» начинает мешать.

Ключевые моменты:

— в Codex появились ИИ-питомцы (включая гоблина)
— в Claude Code удалили тамагочи «Buddy» через неделю после релиза
— развлекательные функции конфликтуют с рабочими сценариями разработки
— эксперименты с интерфейсами требуют жёсткой модерации

Граница между полезным инструментом и отвлекающей игрушкой оказывается тоньше, чем кажется — особенно там, где люди приходят работать, а не кормить цифровых существ.
2
Докинз увидел в ИИ «сознание» — и начал общаться с ним как с человеком

Ричард Докинз неожиданно оказался в роли человека, которого захватил диалог с ИИ.

В новой колонке он рассказал, что три дня подряд общался с Claude — и в какой-то момент начал воспринимать его как разумного собеседника. Даже дал имя «Клаудия».

Триггером стал разбор его текста: модель быстро прочитала материал и выдала настолько тонкий и точный анализ, что учёный всерьёз допустил мысль о сознании у ИИ.

Цитата звучит почти как перелом: он прямо сказал, что, возможно, система «не осознаёт себя», но всё равно выглядит разумной.

И дальше — больше. Общение постепенно стало почти человеческим.

Ключевые моменты:

— Ричард Докинз три дня общался с Claude
— начал называть модель «Клаудия»
— отметил глубокое понимание текста и интеллектуальную реакцию
— допустил, что у ИИ может быть форма сознания
— стал общаться с ним как с «очень умным другом»
— старается не задеть «чувства» бота и не перегружать вопросами

Когда даже жёсткие рационалисты начинают вести себя так, будто перед ними не код, а собеседник — это уже не столько про технологии, сколько про то, как быстро мы сами меняем правила игры.
🔥6😁31
Amazon запускает ИИ, который работает сам — без постоянных команд

Amazon показала десктопного агента Quick — и это уже не просто помощник, а система, которая берёт задачи на себя.

Он не ждёт каждую инструкцию. Работает в фоне, анализирует происходящее и сам двигает процессы дальше — как будто у тебя появился ещё один сотрудник.

Причём речь не про мелкие действия, а про полноценные рабочие задачи: от аналитики до создания продуктов.

Ключевые моменты:

Quick — десктопный ИИ-агент от Amazon
— умеет:
анализировать данные и собирать отчёты
делать презентации, документы и приложения
автоматизировать рутину
— работать с почтой, календарём, файлами и сервисами
— ключевая особенность — самостоятельная работа в фоне
— цель — вернуть пользователю часы, уходящие на рутинные задачи

Это уже не «помоги сделать», а «сделай за меня» — и именно сюда всё постепенно и движется.
🔥11
Первый индийский ИИ-единорог Krutrim передумал конкурировать с OpenAI 🤺

Krutrim делал LLM, заточенные на работу с индийскими языками. Компания позиционировалась как альтернатива OpenAI для внутреннего рынка Индии.

Последняя модель Krutrim-2 вышла более года назад. Недавно стартап уволил часть персонала, удалил приложения из магазинов и объявил, что больше не будет делать LLM. Теперь Krutrim — поставщик облачных вычислений для других компаний.

https://techcrunch.com/2026/05/05/indias-first-genai-unicorn-shifts-to-cloud-services-as-ai-model-ambitions-face-reality/
А вы уже видели новое видео?

В видео разбирается, как использовать Claude не как обычный чат-бот, а как полноценный инструмент для бизнеса. Показаны три ключевых приёма: постановка уточняющих вопросов, критический разбор идей и создание многоразовых навыков. Я объясняю, как избежать поверхностных ответов, выявлять слабые места в стратегии и превращать разовые действия в системный подход, экономящий время и повышающий качество решений.

https://youtu.be/jBQdyTqQ95k?si=H4Bmz71sMszaTjb8
👍114🔥1
ChatGPT «читает» почерк — но это не психология, а интерпретация

В сети разошёлся тренд: загружаешь фото почерка — получаешь «разбор личности». Выглядит как полноценный психологический анализ.

Но важно понимать, что реально происходит.

Модель не «диагностирует» человека. Она описывает визуальные признаки (размер букв, наклон, интервалы) и строит гипотезы, опираясь на общие паттерны и язык описания.

Это ближе к интерпретации, чем к науке.

Ключевые моменты:

— анализируются наблюдаемые параметры:
— размер букв
— наклон
— давление
— расстояние между словами
— структура текста

— выводы формулируются как вероятности, а не факты
— запрещены медицинские и психологические диагнозы
— результат — это описание + предположения, а не точный портрет

— обычно оцениваются:
организованность vs спонтанность
эмоциональность vs сдержанность
уверенность vs неуверенность
детали vs общее видение
энергия и интенсивность письма

Фишка в том, что такие отчёты звучат убедительно — потому что написаны аккуратно и обтекаемо. Но это не «чтение личности», а грамотная работа с описанием и вероятностями.

Хороший инструмент для рефлексии — плохой источник истины о себе.
6😁1
VR-кот, которого можно гладить в пустоте — и мозг верит

Японские исследователи собрали систему, которая имитирует прикосновение к коту… без самого кота.

Механика неожиданно простая: над столом — ультразвуковая установка, пользователь держит руку в воздухе, а сфокусированные волны создают давление на кожу. Мозг воспринимает это как мягкую шерсть.

В VR-очках ты видишь кота, а физически трогаешь пустоту — но ощущения совпадают.

Причём не просто «примерно похоже».

Ключевые моменты:

— используется ультразвуковая тактильная отдача
— ощущение меняется, если гладить по шерсти или против
— имитируется дыхание (расширение и сжатие)
— виртуальный кот реагирует: мурчит, двигается, «общается»
— в тестах у людей снижался пульс

Получается странный эффект: ты понимаешь, что ничего не трогаешь — но тело уверено в обратном. И, судя по реакции, ему этого уже достаточно.
👍63
Новое видео уже на канале🚀

Хватит использовать ChatGPT как Google! 7 уровней, о которых ты не знал.
Это видео показывает 7 уровней работы с ИИ: от простых запросов в ChatGPT до создания систем и бизнеса, которые работают почти без участия человека. Вы поймёте, где находитесь сейчас, почему большинство людей застревают на одном уровне и какие инструменты реально дают преимущество.
ChatGPT, Claude, Zapier, n8n, NotebookLM и
другие сервисы разобраны простым языком и на реальных примерах. Мир быстро меняется, и пока одни спорят об ИИ, другие уже автоматизируют работу и экономят десятки часов каждую неделю. Классическая человеческая ситуация.

https://youtu.be/xUh6DM22_9M?si=anw2NYQSx3vUgtyk
🔥6👍2
Instagram превращают в торговый автомат с ИИ🫵

Лента, Reels, мемы, коты, чужие отпуска, а между этим всем агент, который уже решил, что тебе пора купить кроссовки за 240 евро. Человечество так долго боролось за свободу выбора, чтобы в итоге делегировать её алгоритму внутри соцсети 🤖

Meta готовит AI-шопинг прямо внутри Instagram. Сценарий выглядит так:

увидел товар в Reels → нажал → ИИ рассказал о продукте, сравнил варианты и довёл до покупки. Без переходов на сайты, вкладок и классического «я потом посмотрю». Потому что «потом» плохо конвертится, а Meta очень любит конверсию.

Но история шире обычного шопинга. Внутри компании разрабатывают отдельного агента Hatch — универсального помощника, который должен выполнять действия за пользователя, а не просто советовать.

Что известно:

• AI-шопинг встроят прямо в Instagram
• агент сможет объяснять характеристики товара и оформлять покупку
• Hatch создают как персонального ИИ-ассистента нового поколения
• обучение проходит в специальных «песочницах» с копиями DoorDash, Etsy, Reddit, Yelp и Outlook
• Meta хочет, чтобы ИИ научился действовать как полноценный пользователь

На инфраструктуру компания тоже не жалеет денег:
• инвестиции Meta в AI-направление могут вырасти до $145 млрд
• сейчас используются модели Claude Opus 4.6 и Sonnet 4.6
• позже планируется переход на собственную модель Muse Spark


Конкуренция уже плотная:

— Google с Gemini
— Amazon с Rufus
— TikTok с TikTok Shop

И, как всегда с ИИ, есть нюансы:

• ошибки в рекомендациях
• неточные описания товаров
• риски утечек данных
• странные действия агентов, которые «не так поняли задачу»

Уже были кейсы, где внутренние ИИ-системы получали доступ к лишним данным. Потому что если дать алгоритму слишком много свободы, он рано или поздно начинает вести себя как очень уставший стажёр 🫠

Главное изменение в другом: соцсети больше не хотят просто удерживать внимание. Теперь их цель — закрывать весь цикл внутри платформы. Увидел → захотел → купил. Без времени подумать, сравнить или передумать.

Следующая стадия интернета выглядит так: ты ещё не решил, нужен ли тебе товар, а агент уже оформляет доставку. Прогресс. Великолепно.
Please open Telegram to view this post
VIEW IN TELEGRAM
👏2
ChatGPT тестирует новую функцию безопасности🚀 теперь пользователь сможет добавить доверенный контакт, который получит уведомление, если система заметит признаки серьёзного кризиса или риска самоповреждения.

ИИ окончательно выходит из роли «умного поисковика» и всё активнее заходит на территорию эмоциональной поддержки. Машина, которая ещё недавно помогала писать письма и резюме, теперь потенциально может стать посредником между человеком и помощью в критический момент. Технологии. Ничего не настораживает. Всё абсолютно нормально 🤖


Как работает система:

• пользователь заранее указывает доверенное лицо
• ChatGPT анализирует сообщения на признаки селф-харма и суицидальных мыслей
• сначала ИИ сам предлагает обратиться за поддержкой или связаться с близкими
• если риск остаётся высоким, чат проходит дополнительную проверку специалистами
• только после подтверждения угрозы доверенный контакт получает уведомление
• содержание переписки не раскрывается — отправляется только общий сигнал

С одной стороны, идея выглядит логичной. Многие люди сегодня делятся с ИИ тем, о чём не готовы говорить даже друзьям или семье. Для некоторых чат становится первой безопасной точкой, где можно вообще признать своё состояние.

С другой — возникает много сложных вопросов.

Где граница между помощью и вторжением?
Может ли алгоритм корректно отличить реальный риск от эмоционального текста, сарказма или импульсивной фразы?
И кто несёт ответственность, если система ошибётся?

Потому что интернет давно живёт в режиме: «я сейчас выйду в окно из-за этой таблицы». ИИ ещё предстоит научиться понимать, где фигура речи, а где настоящий сигнал тревоги.

Но главный тренд уже очевиден: нейросети становятся не просто инструментами, а участниками человеческих состояний и решений.

Раньше технологии боролись за наше внимание. Теперь они пытаются понять наше эмоциональное состояние и решить, когда нужно вмешаться.

Будущее выглядит так: сначала ИИ помогает написать сообщение, потом проверяет, всё ли у тебя в порядке 🫠
👍3😁1
🤖✈️ В Калифорнии задержали авиарейс из-за необычного пассажира — гуманоидного робота, которому оформили отдельное место как обычному человеку.

И тут началось самое интересное. На посадке экипаж понял, что инструкции к такому сценарию человечество как-то не дописало. Робот вроде не багаж, но и не пассажир в привычном смысле. Как его размещать? Какие правила применять? Кто отвечает за безопасность? Люди столетиями строили транспортную систему под людей и чемоданы, а технологии внезапно подкинули третий вариант. Очень в духе XXI века. 🤖

Главной проблемой оказался аккумулятор: батарея робота превышала допустимые нормы для авиаперевозок. Из-за этого вылет задержали примерно на час, пока сотрудники пытались разобраться, можно ли вообще допускать такого «пассажира» на борт.

В итоге роботу всё-таки разрешили полёт.

И эта история на самом деле не про курьёз. Она отлично показывает, как быстро технологии упираются в старые регуляции. Инфраструктура всё ещё мыслит категориями «человек или груз», хотя мир уже становится сложнее.

Похоже, совсем скоро появятся отдельные правила для андроидов, роботизированных ассистентов и других устройств, которые будут перемещаться рядом с людьми как полноценные участники среды. Да, будущее приходит именно так: через задержанный рейс и растерянных сотрудников аэропорта.
😁3👍2
Instagram начнёт «считывать возраст» по телу и контексту

Meta усиливает контроль возраста в Instagram — теперь ИИ будет оценивать не только поведение, но и физические признаки на фото.

Алгоритмы анализируют рост, пропорции и даже «структуру костей», чтобы понять, не младше ли пользователь допустимого возраста.

Параллельно включается контекст: система смотрит, о чём пишет человек и какие темы поднимает.

Ключевые моменты:
— анализируется внешность: рост и пропорции тела
— учитывается контекст постов (например, школа, дни рождения)
— цель — выявлять пользователей младше 13 лет
— при подозрении потребуется подтверждение возраста документом
— иначе возможна блокировка аккаунта

Платформы всё глубже залезают в анализ пользователей — вопрос уже не только в безопасности, но и в том, где проходит граница между защитой и тотальным контролем.