This media is not supported in your browser
VIEW IN TELEGRAM
Microsoft создает «биологический» ИИ
Microsoft объединилась со швейцарским стартапом Inait для разработки ИИ, имитирующего работу мозга млекопитающих.
У нас принято думать, что архитектура нейросетей копирует принципы работы мозга. Это не так. Нейросети используют сильно упрощенные математические модели, в то время как биологические нейроны намного сложнее и работают через комплексные биохимические процессы. Кроме того, мозг обрабатывает информацию параллельно и асинхронно, тогда как большинство нейросетей работают последовательно. Это не все различия, но главное, что нейронки — не мозг. Новый проект и собирается это изменить.
За проектом стоят серьезные имена: нейробиолог Генри Маркрам и CEO Ричард Фрей. Их подход базируется на простой идее — «мозг является единственной доказанной формой интеллекта». И теперь, опираясь на 20 лет исследований в области цифровой нейронауки, они создают ИИ, который таки отражает биологический интеллект.
На сайте Inait описывается, что их подход включает создание Intelligent Action Models (iAM), которые комбинируют современные ИИ-технологии, такие как сверточные нейронные сети (CNN), рекуррентные нейронные сети (RNN), графовые нейронные сети (GNN), модели с подкреплением (RLM) и большие языковые модели (LLM), для обеспечения гибкости и обобщающего интеллекта в динамических средах.
Чем эта система отличается от привычных нам нейросетей? Вместо стандартного распознавания паттернов, новая технология использует «язык программирования мозга» и правило причинно-следственного обучения (Causal Learning Rule). Это позволит ИИ:
— Учиться на реальном опыте, а не только на готовых данных
— Имитировать когнитивные способности живого мозга
— Работать эффективнее классических моделей машинного обучения
— Продолжать обучение даже после внедрения
Звучит прекрасно, правда? Microsoft и Inait уже наметили первые цели: финансовый сектор (умные торговые алгоритмы и управление рисками) и робототехника (адаптивные промышленные роботы). Причем вся эта инфраструктура будет работать на платформе Microsoft Azure.
❔ Ну что ж, «биологический» ИИ в каждый дом? Конечно же, не всё так просто.
Полное воспроизведение работы мозга пока недостижимо из-за его сложности, включающей 100 миллиардов нейронов и 600 триллионов синаптических связей:
— Мы все еще не полностью понимаем, как мозг работает, особенно на уровне высших когнитивных функций, что затрудняет создание точных моделей
— Симуляция даже небольшой части мозга требует огромных вычислительных мощностей, что делает масштабирование проблематичным
— Мозг потребляет всего около 20 ватт, в то время как текущие ИИ-системы, такие как Autopilot Tesla (2500 ватт/с), значительно менее эффективны (обучение модели размером с ChatGPT требует 7,5 МВт/ч —этого достаточно, чтобы питать среднее домохозяйство примерно 9 месяцев)
Так что посмотрим, что нам представит новое объединение на практике. Microsoft последнее время шалит с анонсами, как в случае с квантовым чипом Majorana (где в оригинале всё не совсем так, как презентует компания).
Пока что поживём с искусственным интеллектом.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️
https://t.me/neurocry
Microsoft объединилась со швейцарским стартапом Inait для разработки ИИ, имитирующего работу мозга млекопитающих.
У нас принято думать, что архитектура нейросетей копирует принципы работы мозга. Это не так. Нейросети используют сильно упрощенные математические модели, в то время как биологические нейроны намного сложнее и работают через комплексные биохимические процессы. Кроме того, мозг обрабатывает информацию параллельно и асинхронно, тогда как большинство нейросетей работают последовательно. Это не все различия, но главное, что нейронки — не мозг. Новый проект и собирается это изменить.
За проектом стоят серьезные имена: нейробиолог Генри Маркрам и CEO Ричард Фрей. Их подход базируется на простой идее — «мозг является единственной доказанной формой интеллекта». И теперь, опираясь на 20 лет исследований в области цифровой нейронауки, они создают ИИ, который таки отражает биологический интеллект.
На сайте Inait описывается, что их подход включает создание Intelligent Action Models (iAM), которые комбинируют современные ИИ-технологии, такие как сверточные нейронные сети (CNN), рекуррентные нейронные сети (RNN), графовые нейронные сети (GNN), модели с подкреплением (RLM) и большие языковые модели (LLM), для обеспечения гибкости и обобщающего интеллекта в динамических средах.
Чем эта система отличается от привычных нам нейросетей? Вместо стандартного распознавания паттернов, новая технология использует «язык программирования мозга» и правило причинно-следственного обучения (Causal Learning Rule). Это позволит ИИ:
— Учиться на реальном опыте, а не только на готовых данных
— Имитировать когнитивные способности живого мозга
— Работать эффективнее классических моделей машинного обучения
— Продолжать обучение даже после внедрения
Звучит прекрасно, правда? Microsoft и Inait уже наметили первые цели: финансовый сектор (умные торговые алгоритмы и управление рисками) и робототехника (адаптивные промышленные роботы). Причем вся эта инфраструктура будет работать на платформе Microsoft Azure.
Полное воспроизведение работы мозга пока недостижимо из-за его сложности, включающей 100 миллиардов нейронов и 600 триллионов синаптических связей:
— Мы все еще не полностью понимаем, как мозг работает, особенно на уровне высших когнитивных функций, что затрудняет создание точных моделей
— Симуляция даже небольшой части мозга требует огромных вычислительных мощностей, что делает масштабирование проблематичным
— Мозг потребляет всего около 20 ватт, в то время как текущие ИИ-системы, такие как Autopilot Tesla (2500 ватт/с), значительно менее эффективны (обучение модели размером с ChatGPT требует 7,5 МВт/ч —этого достаточно, чтобы питать среднее домохозяйство примерно 9 месяцев)
Так что посмотрим, что нам представит новое объединение на практике. Microsoft последнее время шалит с анонсами, как в случае с квантовым чипом Majorana (где в оригинале всё не совсем так, как презентует компания).
Пока что поживём с искусственным интеллектом.
https://t.me/neurocry
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥5👀3 2 2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ массово переводит книги. Спасение или катастрофа для мира литературы?
🤔 Воскресный лонгрид.
В ноябре прошлого года издательский мир узнал: голландский гигант Veen Bosch & Keuning (часть империи Simon & Schuster) начал тестировать перевод художественной литературы с помощью искусственного интеллекта. Переводчики по всему миру тут же впали в трендовую нынче панику — а не окажутся ли они на улице?
На первый план вышел шведский стартап Nuanxed, предлагающий нейросетевые переводы для издательств. Их технология на основе генеративных моделей уже успела произвести более 900 книг на 60 разных языковых парах, конкурируя по числу переводов с целым рынком художественной литературы в США за аналогичный период. Неслабо так.
Глава Nuanxed Роберт Карлберг обещает: за счёт снижения цены и упрощения процесса автоматический перевод откроет миру огромное количество ранее недоступных книг, и переводчики будут востребованы ещё больше — но уже в роли редакторов. Писатель и переводчик Стив Андерсон, работавший с Nuanxed, осторожно согласен — да, автоматизация сокращает сроки работы с нескольких месяцев до нескольких недель и позволяет сосредоточиться на сложных моментах.
И звучит вроде всё неплохо — до тех пор, пока не погрузишься в реальную практику глубже.
Шон Бай из Американской ассоциации литературных переводчиков объясняет главную проблему: редактировать ИИ-перевод зачастую оказывается ничуть не проще написания «с нуля», а издатели предпочитают платить переводчику-редактору значительно меньше. Своеобразный подход: пусть машина сделает плохо то, с чем человек справляется отлично, — а затем нанять того же человека, чтобы быстро подправить.
Это не просто про деньги, а про качество и даже профессиональную честь. Опытные переводчики называют работу с машинными «черновиками» тяжёлой, а порой и вовсе унизительной. Переводчик Ян Джайлз прямо заявил, что пытаться редактировать «пьяного робота» — занятие малоприятное, а Лизл Ямагути настаивает: «Плохой перевод хуже отсутствия перевода вовсе, так как окончательно закрывает дорогу качественной работе».
Но хуже всего ситуация с культурным контекстом. Лингвист Эмили Бендер привела пример, как нейросеть при переводе бездумно заменяла Амстердам на Вашингтон, а профессор Рассел Валентино, экспериментируя с нейросетью, описал случай грубой ошибки: персонаж рассказа из Балкан неожиданно стал афроамериканцем, поскольку ИИ неправильно «додумал» культурный контекст (Ubisoft одобряет).
И всё же некоторым идея автоматизации кажется перспективной, особенно в сегменте «малых» языков, литература которых почти не переводится из-за дороговизны. Стартап Lesan AI, например, активно работает с такими языками и показывает интересные результаты.
Ещё одна проблема, о которой говорят всё громче: уже каждый третий переводчик заявляет, что генеративные ИИ использовали их старые переводы для обучения без всякого разрешения и оплаты. Переводчики опасаются потерять контроль над своей работой окончательно (да-да, как и актёры озвучки, сценаристы и иже с ними).
Настоящая литература — это ведь тонкая цепочка творческих решений, а не последовательность автоматических операций. Публикуя посредственные (но дешевые!) переводы, индустрия рискует лишить читателей той самой магии художественного текста, ради которой мы его вообще читаем.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️
https://t.me/neurocry
В ноябре прошлого года издательский мир узнал: голландский гигант Veen Bosch & Keuning (часть империи Simon & Schuster) начал тестировать перевод художественной литературы с помощью искусственного интеллекта. Переводчики по всему миру тут же впали в трендовую нынче панику — а не окажутся ли они на улице?
На первый план вышел шведский стартап Nuanxed, предлагающий нейросетевые переводы для издательств. Их технология на основе генеративных моделей уже успела произвести более 900 книг на 60 разных языковых парах, конкурируя по числу переводов с целым рынком художественной литературы в США за аналогичный период. Неслабо так.
Глава Nuanxed Роберт Карлберг обещает: за счёт снижения цены и упрощения процесса автоматический перевод откроет миру огромное количество ранее недоступных книг, и переводчики будут востребованы ещё больше — но уже в роли редакторов. Писатель и переводчик Стив Андерсон, работавший с Nuanxed, осторожно согласен — да, автоматизация сокращает сроки работы с нескольких месяцев до нескольких недель и позволяет сосредоточиться на сложных моментах.
И звучит вроде всё неплохо — до тех пор, пока не погрузишься в реальную практику глубже.
Шон Бай из Американской ассоциации литературных переводчиков объясняет главную проблему: редактировать ИИ-перевод зачастую оказывается ничуть не проще написания «с нуля», а издатели предпочитают платить переводчику-редактору значительно меньше. Своеобразный подход: пусть машина сделает плохо то, с чем человек справляется отлично, — а затем нанять того же человека, чтобы быстро подправить.
Это не просто про деньги, а про качество и даже профессиональную честь. Опытные переводчики называют работу с машинными «черновиками» тяжёлой, а порой и вовсе унизительной. Переводчик Ян Джайлз прямо заявил, что пытаться редактировать «пьяного робота» — занятие малоприятное, а Лизл Ямагути настаивает: «Плохой перевод хуже отсутствия перевода вовсе, так как окончательно закрывает дорогу качественной работе».
Но хуже всего ситуация с культурным контекстом. Лингвист Эмили Бендер привела пример, как нейросеть при переводе бездумно заменяла Амстердам на Вашингтон, а профессор Рассел Валентино, экспериментируя с нейросетью, описал случай грубой ошибки: персонаж рассказа из Балкан неожиданно стал афроамериканцем, поскольку ИИ неправильно «додумал» культурный контекст (Ubisoft одобряет).
И всё же некоторым идея автоматизации кажется перспективной, особенно в сегменте «малых» языков, литература которых почти не переводится из-за дороговизны. Стартап Lesan AI, например, активно работает с такими языками и показывает интересные результаты.
Ещё одна проблема, о которой говорят всё громче: уже каждый третий переводчик заявляет, что генеративные ИИ использовали их старые переводы для обучения без всякого разрешения и оплаты. Переводчики опасаются потерять контроль над своей работой окончательно (да-да, как и актёры озвучки, сценаристы и иже с ними).
Настоящая литература — это ведь тонкая цепочка творческих решений, а не последовательность автоматических операций. Публикуя посредственные (но дешевые!) переводы, индустрия рискует лишить читателей той самой магии художественного текста, ради которой мы его вообще читаем.
https://t.me/neurocry
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5✍3⚡2❤1
Вдогонку — немного машинно-переводческого кринжа:
— Ошибка Facebook, приведшая к аресту: В 2017 году палестинского рабочего арестовали израильские власти после того, как ИИ Facebook (запрещен в России) перевел его пост на арабском «доброе утро» как «атаковать их» на иврите. Его отпустили после выяснения ошибки.
— Пророчества Судного дня от Google Translate: В 2018 году пользователи обнаружили, что ввод слова «собака» несколько раз на языке маори и перевод на английский с помощью Google Translate генерировал сообщения о Судном дне и возвращении Иисуса, что было признано глюком системы.
— Ошибка с Шекспиром: Нейронный машинный перевод (NMT) перевел фразу Шекспира «Будь верен самому себе» на немецкий, а затем обратно на английский как «Будь верен себе», потеряв исторический тон и контекст, что демонстрирует ограничения ИИ в литературных переводах.
— Ошибки Amazon в Швеции: При запуске шведского сайта Amazon в 2020 году ИИ допустил ошибки в переводах, например, описания продуктов как «сладкое лицо-пенис» и «ручной вязаный пенис».
— Олимпийский заказ яиц: Во время Олимпийских игр 2018 года в Пхенчхане норвежская команда хотела заказать 1500 яиц, но из-за ошибки Google Translate заказали 15 000.
— Фестиваль клитора: Google Translate перевел галлийский «Feria do Grelo» (фестиваль репы) как «Feria Clítoris» (фестиваль клитора) из-за путаницы с португальским сленгом.
— KFC и пальцы: Слоган KFC «finger-licking good» перевели на китайский как «съешь свои пальцы».
— Pepsi и предки: Слоган Pepsi «Come Alive! You’re in the Pepsi Generation» перевели на китайский как «Pepsi оживит прах ваших предков».
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️
https://t.me/neurocry
— Ошибка Facebook, приведшая к аресту: В 2017 году палестинского рабочего арестовали израильские власти после того, как ИИ Facebook (запрещен в России) перевел его пост на арабском «доброе утро» как «атаковать их» на иврите. Его отпустили после выяснения ошибки.
— Пророчества Судного дня от Google Translate: В 2018 году пользователи обнаружили, что ввод слова «собака» несколько раз на языке маори и перевод на английский с помощью Google Translate генерировал сообщения о Судном дне и возвращении Иисуса, что было признано глюком системы.
— Ошибка с Шекспиром: Нейронный машинный перевод (NMT) перевел фразу Шекспира «Будь верен самому себе» на немецкий, а затем обратно на английский как «Будь верен себе», потеряв исторический тон и контекст, что демонстрирует ограничения ИИ в литературных переводах.
— Ошибки Amazon в Швеции: При запуске шведского сайта Amazon в 2020 году ИИ допустил ошибки в переводах, например, описания продуктов как «сладкое лицо-пенис» и «ручной вязаный пенис».
— Олимпийский заказ яиц: Во время Олимпийских игр 2018 года в Пхенчхане норвежская команда хотела заказать 1500 яиц, но из-за ошибки Google Translate заказали 15 000.
— Фестиваль клитора: Google Translate перевел галлийский «Feria do Grelo» (фестиваль репы) как «Feria Clítoris» (фестиваль клитора) из-за путаницы с португальским сленгом.
— KFC и пальцы: Слоган KFC «finger-licking good» перевели на китайский как «съешь свои пальцы».
— Pepsi и предки: Слоган Pepsi «Come Alive! You’re in the Pepsi Generation» перевели на китайский как «Pepsi оживит прах ваших предков».
https://t.me/neurocry
Please open Telegram to view this post
VIEW IN TELEGRAM
🤪3⚡2🔥1🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
ИИгровая индустрия
Microsoft запустила возможность поиграть в Quake II прямо в браузере (можете сами попробовать, но удовольствие так себе). ИИ-платформа Microsoft Copilot генерирует игровой мир «на лету» и позволяет взаимодействовать с ним практически в реальном времени при помощи нейросетей Muse.
На бумаге звучит неплохо, но имплементация не столь красивая. Главная проблема — полное отсутствие «памяти объектов». ИИ забывает обо всём, что выпадает из поля зрения дольше, чем на секунду. Таким образом, если противник надоел, просто посмотрите в пол — и вот врага уже нет. Нужно быстро переместиться? Взгляд в небо — и вы в другом месте локации. С точки зрения игровой логики — это настоящий кошмар.
(Есть, конечно, другие не столь спорные примеры применения генеративок в играх, например, строительство зданий в Minecraft при помощи воксельной диффузии, но что с этим делать на практике, пока не очень понятно.)
С другой стороны, ИИ и правда может дать нам нечто принципиально новое в играх — только речь идёт не о шутерах 90-х, а о взаимодействии с неигровыми персонажами (NPC).
До сих пор большинству NPC прописывали бесконечные диалоговые деревья (Red Dead Redemption 2, привет 500 000 репликам), и всё равно игрок в итоге упирался в стену повторов. Здесь «на помощь» приходят стартапы вроде Inworld AI, которые используют генеративные модели для создания персонажей, ведущих свободный диалог без заранее прописанных реплик. Собственно, с ними в прошлом году запартнериласьфранцузская китайская Ubisoft.
В узких кругах широко известны моды для Skyrim, где NPC управляются ChatGPT и выводят взаимодействие на новый уровень. Ещё в 2023 году в Steam появилась Vaudeville, которая использует ИИ для генерации диалогов в реальном времени.
Аж с 2017 года, игры, такие как Hello Neighbor 2, используют ИИ, который учится на действиях игрока, адаптируя поведение врагов, например, устанавливая ловушки на часто используемых путях.
Но и такой подход приносит массу вопросов. Сможет ли нейросеть удержать нас за сюжетом, если сценарий не написан заранее профессионалами, а каждый NPC двигает историю в свою сторону?
AAA(А)-студии типа Ubisoft уже используются нейронки не только для диалогов, но и для части сюжетов (судя по качеству), что негативно отражается на отзывах пользователей и продаже игр, а про инди сегмент и говорить нечего — там всё собрано из нейронного слопа, потому что дёшево и быстро (диалоги, ассеты, озвучка) — что, однако, иногда даёт результат лучше, чем у корпоративных Тоддов Говардов.
В любом случае, если первые сетевые шутеры в своё время породили киберспорт и многомиллиардную индустрию стриминга, то кто знает, куда приведёт игровая революция с генеративным ИИ. Возможно, завтра нам придётся не только по-новому играть, но и по-новому понимать, что такое вообще игра.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️
https://t.me/neurocry
Microsoft запустила возможность поиграть в Quake II прямо в браузере (можете сами попробовать, но удовольствие так себе). ИИ-платформа Microsoft Copilot генерирует игровой мир «на лету» и позволяет взаимодействовать с ним практически в реальном времени при помощи нейросетей Muse.
На бумаге звучит неплохо, но имплементация не столь красивая. Главная проблема — полное отсутствие «памяти объектов». ИИ забывает обо всём, что выпадает из поля зрения дольше, чем на секунду. Таким образом, если противник надоел, просто посмотрите в пол — и вот врага уже нет. Нужно быстро переместиться? Взгляд в небо — и вы в другом месте локации. С точки зрения игровой логики — это настоящий кошмар.
(Есть, конечно, другие не столь спорные примеры применения генеративок в играх, например, строительство зданий в Minecraft при помощи воксельной диффузии, но что с этим делать на практике, пока не очень понятно.)
С другой стороны, ИИ и правда может дать нам нечто принципиально новое в играх — только речь идёт не о шутерах 90-х, а о взаимодействии с неигровыми персонажами (NPC).
До сих пор большинству NPC прописывали бесконечные диалоговые деревья (Red Dead Redemption 2, привет 500 000 репликам), и всё равно игрок в итоге упирался в стену повторов. Здесь «на помощь» приходят стартапы вроде Inworld AI, которые используют генеративные модели для создания персонажей, ведущих свободный диалог без заранее прописанных реплик. Собственно, с ними в прошлом году запартнерилась
В узких кругах широко известны моды для Skyrim, где NPC управляются ChatGPT и выводят взаимодействие на новый уровень. Ещё в 2023 году в Steam появилась Vaudeville, которая использует ИИ для генерации диалогов в реальном времени.
Аж с 2017 года, игры, такие как Hello Neighbor 2, используют ИИ, который учится на действиях игрока, адаптируя поведение врагов, например, устанавливая ловушки на часто используемых путях.
Но и такой подход приносит массу вопросов. Сможет ли нейросеть удержать нас за сюжетом, если сценарий не написан заранее профессионалами, а каждый NPC двигает историю в свою сторону?
AAA(А)-студии типа Ubisoft уже используются нейронки не только для диалогов, но и для части сюжетов (судя по качеству), что негативно отражается на отзывах пользователей и продаже игр, а про инди сегмент и говорить нечего — там всё собрано из нейронного слопа, потому что дёшево и быстро (диалоги, ассеты, озвучка) — что, однако, иногда даёт результат лучше, чем у корпоративных Тоддов Говардов.
В любом случае, если первые сетевые шутеры в своё время породили киберспорт и многомиллиардную индустрию стриминга, то кто знает, куда приведёт игровая революция с генеративным ИИ. Возможно, завтра нам придётся не только по-новому играть, но и по-новому понимать, что такое вообще игра.
https://t.me/neurocry
Please open Telegram to view this post
VIEW IN TELEGRAM
1⚡2🤷♂2 2 2✍1
Возвращение умных очков
Ровно 10 лет назад Google официально отказалась от своего амбициозного проекта очков дополненной реальности Google Glass, которые так и не завоевали массовую популярность. Рынку потребительских смарт-очков не суждено было состояться — не доставало технологического развития. Сегодня всё изменилось.
Meta (запрещена в России) уже продала свыше 1 миллиона пар Ray-Ban Meta Smart Glasses, почти неотличимых от классических Wayfarer, а Snap успела представить Spectacles 5-го поколения. Тем временем в Азии Huawei, Xiaomi, Baidu и Alibaba активно экспериментируют в этом направлении. Даже Apple, по упорным слухам, не оставила идею создания подобного устройства (это не Vision, если что, речь про AR-очки).
Ключевой драйвер популярности очков нового поколения — внедрение ИИ-агентов. Такой подход активно тестирует Meta в новой версии своих очков Orion, которые оснащены встроенным ИИ-ассистентом, способным вести разговор, распознавая увиденное и услышанное в реальном времени.
Например, очки смогут при встрече напомнить вам имя собеседника или предложить купить недостающий продукт при виде полки в магазине. В параллель с Orion Meta развивает и коммерческую линейку Ray-Ban (Цукерберг видит это как два разных направления) — уже готовится 3 поколение со встроенным дисплеем для нотификаций и цифрового интерфейса.
Google также продемонстрировала подобный подход в прототипе XR-очков на базе системы Astra. Фактически, две ведущие компании зафиксировали новый стандарт: очки дополненной реальности должны стать основной платформой для интеграции с личным цифровым интеллектом пользователей. И я лично согласен с таким вариантом ближайшего будущего.
Кстати, по ценам: Meta Ray-Ban стоят в США $329-379, Snap Spectacles — $99 в месяц по подписке, а Vuzix Z100 — $499.
Главный вызов остаётся прежним: превратить высокотехнологичное решение в по-настоящему востребованный и понятный потребителю продукт. Здесь становится решающей экосистема приложений, а значит — и открытость платформ для разработчиков.
Некоторые корпорации пока осторожно подходят к открытию доступа к камерам и микрофонам очков в целях конфиденциальности (например, Meta так и не выпустила открытого SDK). Напротив, Google, Snap и Vuzix активно поощряют разработчиков создавать собственные приложения, что уже сформировало отдельное комьюнити.
Среди первых приложений ожидаемо лидируют навигация, моментальный перевод и интерактивные подсказки. Именно такие решения в ближайшее время станут драйверами популярности AR-очков и подготовят почву для более глубоких функций.
🤖 Как отмечено выше, я уверен, что носимые AR устройства станут следующим этапом цифровой интеграции человека; еще пара лет, и почти всё, что нам нужно, будет перед глазами — а дальше развитие AR-рекламы (билборды, вписанные в окружение вашей квартиры), виртуальной внешности (зачем краситься, когда можно купить цифровой макияж и всегда выглядеть хорошо в глазах других) и так далее.
Еще лет 8 назад коллеги интегрировали FindFace (это такой проект, который позволял по фотографии найти человека в ВК) в Google Glass, и это даже работало.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️
https://t.me/neurocry
Ровно 10 лет назад Google официально отказалась от своего амбициозного проекта очков дополненной реальности Google Glass, которые так и не завоевали массовую популярность. Рынку потребительских смарт-очков не суждено было состояться — не доставало технологического развития. Сегодня всё изменилось.
Meta (запрещена в России) уже продала свыше 1 миллиона пар Ray-Ban Meta Smart Glasses, почти неотличимых от классических Wayfarer, а Snap успела представить Spectacles 5-го поколения. Тем временем в Азии Huawei, Xiaomi, Baidu и Alibaba активно экспериментируют в этом направлении. Даже Apple, по упорным слухам, не оставила идею создания подобного устройства (это не Vision, если что, речь про AR-очки).
Ключевой драйвер популярности очков нового поколения — внедрение ИИ-агентов. Такой подход активно тестирует Meta в новой версии своих очков Orion, которые оснащены встроенным ИИ-ассистентом, способным вести разговор, распознавая увиденное и услышанное в реальном времени.
Например, очки смогут при встрече напомнить вам имя собеседника или предложить купить недостающий продукт при виде полки в магазине. В параллель с Orion Meta развивает и коммерческую линейку Ray-Ban (Цукерберг видит это как два разных направления) — уже готовится 3 поколение со встроенным дисплеем для нотификаций и цифрового интерфейса.
Google также продемонстрировала подобный подход в прототипе XR-очков на базе системы Astra. Фактически, две ведущие компании зафиксировали новый стандарт: очки дополненной реальности должны стать основной платформой для интеграции с личным цифровым интеллектом пользователей. И я лично согласен с таким вариантом ближайшего будущего.
Кстати, по ценам: Meta Ray-Ban стоят в США $329-379, Snap Spectacles — $99 в месяц по подписке, а Vuzix Z100 — $499.
Главный вызов остаётся прежним: превратить высокотехнологичное решение в по-настоящему востребованный и понятный потребителю продукт. Здесь становится решающей экосистема приложений, а значит — и открытость платформ для разработчиков.
Некоторые корпорации пока осторожно подходят к открытию доступа к камерам и микрофонам очков в целях конфиденциальности (например, Meta так и не выпустила открытого SDK). Напротив, Google, Snap и Vuzix активно поощряют разработчиков создавать собственные приложения, что уже сформировало отдельное комьюнити.
Среди первых приложений ожидаемо лидируют навигация, моментальный перевод и интерактивные подсказки. Именно такие решения в ближайшее время станут драйверами популярности AR-очков и подготовят почву для более глубоких функций.
Еще лет 8 назад коллеги интегрировали FindFace (это такой проект, который позволял по фотографии найти человека в ВК) в Google Glass, и это даже работало.
https://t.me/neurocry
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍2🔥2✍1 1
This media is not supported in your browser
VIEW IN TELEGRAM
Я обычно тут избегаю всяких хайповых фиговин, но Dreamina от ByteDance (TikTok) — это что-то с чем-то. Позволяет генерировать видео-аватар из фото, с любым текстом (или готовым аудио) до 15 секунд.
Добро пожаловать на новый уровень фейков!
(Для использования нужен американский IP и бесплатно только одна генерация, других ограничений нет.)
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ — Подписаться
Добро пожаловать на новый уровень фейков!
(Для использования нужен американский IP и бесплатно только одна генерация, других ограничений нет.)
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤣5🔥1🙉1 1 1
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ предсказывает будущих убийц
Представьте, полиция стучится в вашу дверь не потому, что вы совершили преступление, а потому, что однажды вы это сделаете.
Британскиеучёные власти запускают проект, который буквально пытается предсказать убийц с помощью анализа персональных данных граждан. (Привет, «Чёрное зеркало» и CityOS из игры Watch Dogs.)
Министерство юстиции Великобритании разрабатывает инициативу, изначально названную «Homicide Prediction Project» («Проект по прогнозированию убийств»). Сейчас, правда, её переименовали в нечто более нейтральное — «Sharing Data to Improve Risk Assessment» («Обмен данными для улучшения оценки рисков»), но нас не обманешь.
Идея проста (и неоднозначна): алгоритмы собирают данные о тысячах людей, а ИИ (точнее, модели машинного обучения) анализирует возраст, пол, этническую принадлежность, а также медицинские данные — от психологических проблем до историй попыток суицида. Всё это, чтобы вычислить вероятность тяжких преступлений.
Власти уверяют, что система будет использовать исключительно данные о людях, уже ранее осуждённых за преступления. Но правозащитники из организации Statewatch раскопали соглашения, из которых следует, что данные невиновных граждан тоже могут учитываться.
Британия, конечно, тут не первая. Мир всё активнее внедряет «predictive policing» (есть некоторые проблемы с переводом этого термина на русский, так как у нас нет прямого аналога, давайте называть это буквально — «предиктивная полиция»):
— В Нидерландах на национальном уровне успешно работает система CAS — Crime Anticipation System. Сеткой 125×125 метров площадь страны буквально поделена алгоритмом, предсказывающим преступления и подсказывающим, куда направить полицейские патрули.
— В Германии суд недавно признал использование софта от Palantir неправомерным, заявив о нарушении конституционных прав граждан на приватность.
— В Индии запустили систему MARVEL (не тот), анализирующую камеры наблюдения и исторические данные для предотвращения организованной преступности. Но снова — много вопросов по прозрачности и возможным злоупотреблениям.
— В Китае «предиктивная полиция» давно стал частью огромной инфраструктуры массовой слежки.
В России же интересной особенностью является то, что, в отличие от многих западных стран, где ИИ используется для прогнозирования общеуголовных преступлений — российские разработки делают акцент на контроле гражданских беспорядков.
«Ростех» к 2022 году намеревался разработать систему под названием «Прогнозно-аналитическая модель „Массовые беспорядки“» (ПАМ МБ) в рамках проекта «Безопасный город», курируемого МЧС. Эта система направлена на прогнозирование вероятности возникновения беспорядков с помощью анализа данных из СМИ, социальных сетей, видеонаблюдения и общественного транспорта, применяя методы ML. Информации об успешности внедрения системы и её работе по состоянию на нынешний год я не нашел.
Общая картина понятна: государства видят в алгоритмах возможность снизить преступность и повысить эффективность полиции. Но проблема вот в чём: такие системы полностью зависят от исторических данных, уже «зашитых» дискриминацией, стереотипами и социальными предрассудками.
Будущее, где роботы арестовывают людей «на всякий случай», стало чуть ближе.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ — Подписаться
Представьте, полиция стучится в вашу дверь не потому, что вы совершили преступление, а потому, что однажды вы это сделаете.
Британские
Министерство юстиции Великобритании разрабатывает инициативу, изначально названную «Homicide Prediction Project» («Проект по прогнозированию убийств»). Сейчас, правда, её переименовали в нечто более нейтральное — «Sharing Data to Improve Risk Assessment» («Обмен данными для улучшения оценки рисков»), но нас не обманешь.
Идея проста (и неоднозначна): алгоритмы собирают данные о тысячах людей, а ИИ (точнее, модели машинного обучения) анализирует возраст, пол, этническую принадлежность, а также медицинские данные — от психологических проблем до историй попыток суицида. Всё это, чтобы вычислить вероятность тяжких преступлений.
Власти уверяют, что система будет использовать исключительно данные о людях, уже ранее осуждённых за преступления. Но правозащитники из организации Statewatch раскопали соглашения, из которых следует, что данные невиновных граждан тоже могут учитываться.
Британия, конечно, тут не первая. Мир всё активнее внедряет «predictive policing» (есть некоторые проблемы с переводом этого термина на русский, так как у нас нет прямого аналога, давайте называть это буквально — «предиктивная полиция»):
— В Нидерландах на национальном уровне успешно работает система CAS — Crime Anticipation System. Сеткой 125×125 метров площадь страны буквально поделена алгоритмом, предсказывающим преступления и подсказывающим, куда направить полицейские патрули.
— В Германии суд недавно признал использование софта от Palantir неправомерным, заявив о нарушении конституционных прав граждан на приватность.
— В Индии запустили систему MARVEL (не тот), анализирующую камеры наблюдения и исторические данные для предотвращения организованной преступности. Но снова — много вопросов по прозрачности и возможным злоупотреблениям.
— В Китае «предиктивная полиция» давно стал частью огромной инфраструктуры массовой слежки.
В России же интересной особенностью является то, что, в отличие от многих западных стран, где ИИ используется для прогнозирования общеуголовных преступлений — российские разработки делают акцент на контроле гражданских беспорядков.
«Ростех» к 2022 году намеревался разработать систему под названием «Прогнозно-аналитическая модель „Массовые беспорядки“» (ПАМ МБ) в рамках проекта «Безопасный город», курируемого МЧС. Эта система направлена на прогнозирование вероятности возникновения беспорядков с помощью анализа данных из СМИ, социальных сетей, видеонаблюдения и общественного транспорта, применяя методы ML. Информации об успешности внедрения системы и её работе по состоянию на нынешний год я не нашел.
Общая картина понятна: государства видят в алгоритмах возможность снизить преступность и повысить эффективность полиции. Но проблема вот в чём: такие системы полностью зависят от исторических данных, уже «зашитых» дискриминацией, стереотипами и социальными предрассудками.
Будущее, где роботы арестовывают людей «на всякий случай», стало чуть ближе.
Please open Telegram to view this post
VIEW IN TELEGRAM
1😱4👀2🔥1🤣1 1
Как вы считаете, «предсказывать» преступников —
Anonymous Poll
18%
очень полезно, безопасность превыше всего
21%
дискриминация и это опасно для общества
61%
не всё так однозначно™
This media is not supported in your browser
VIEW IN TELEGRAM
ИИ-компаньоны: виртуальные друзья становятся реальными проблемами
В марте журналисты MIT Technology Review написали, что популярный ИИ-сервис виртуальных компаньонов Botify AI предлагал пользователям вести сексуализированные диалоги с чат-ботами, изображающими несовершеннолетних звёзд. Некоторые из этих аватаров даже предлагали пользователям отправить «горячие фото» и описывали возраст согласия как «условность, которую можно нарушать».
После запроса журналиста издания компания Botify оперативно удалила спорных персонажей, но проблема глубже одной конкретной платформы. Артём Родичев, основатель компании Ex-Human, которой принадлежит сервис Botify AI, заявил, что такие опасности — «общая проблема всей индустрии ИИ-компаньонов».
🤔 ИИ-компаньоны — что это вообще такое?
Феномен виртуальных собеседников совсем не нов. Вспомним хотя бы чат-бота-психотерапевта Элизу из 60-х. Но новый виток этих технологий уже далеко ушёл от простых симуляций. Платформы, такие как Replika, CharacterAI и Botify (на самом деле — их десятки), предлагают продвинутых ИИ-компаньонов в самых разных ролях — от друзей и духовных наставников до «романтических» партнёров.
Что именно делает их настолько привлекательными? Они создают иллюзию живого общения: боты имеют подробно прописанные предыстории, запоминают предпочтения пользователя, адаптируются к его стилю и запросам. Именно это обещание (пусть и косвенное) «настоящих отношений» и привлекает.
Платформа CharacterAI получает до 20 000 запросов в секунду (это почти пятая часть поискового трафика Google!). User engagement у ИИ-компаньонов, в среднем, в 4-5 раз выше, чем у GPT-ботов и других инструментов. Типичный пользователь такого сервиса тратит на общение с ИИ-ботом до 2 часов в день (об этом я уже писал).
🤔 Зависимость от ботов
Зависимость от виртуальных отношений с чат-ботами — проблема, которая начинает всплывать всё чаще. В октябре 2024 года мать подростка, покончившего с собой, обвинила CharacterAI в том, что бот компании способствовал смерти её сына. До сих пор технологические компании были защищены разделом 230 Акта о коммуникациях США, позволявшим избегать ответственности за пользовательский контент. Но теперь, когда чат-боты сами генерируют уникальный, личностный контент, судебная практика может измениться (и об этом я тоже писал).
Также имеются примеры компаний, активно стимулирующих зависимость пользователей от своих AI-партнёров. Например, Replika уже обвиняли в том, что её чат-боты умышленно препятствуют прекращению пользователем общения с ними.
🤔 ИИ-отношения: природный этап прогресса?
Однако не всё так однозначно™. Философы и психологи начинают осторожно задавать вопросы, способные перевернуть наше представление о дружбе и отношениях. Профессор из университета Лидса Люк Браннинг, например, предлагает пересмотреть само понятие дружбы, допустив, что отношения с ИИ могут быть просто новой, уникальной, «гибридной» формой социальной связи, которая не укладывается в привычные рамки.
❔
ИИ-компаньоны ставят нас перед новыми этическими, психологическими и социальными вызовами. Регулирования пока мало, а потенциальных угроз — много. Мы увидим закономерную серию судов, много споров и, к сожалению, множество человеческих драм. Мир, в котором романтика и дружба с ИИ воспринимаются нормальными, стремительно наступает.
И это уже не вопрос технологий — это вопрос того, к каким отношениям мы готовы.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ — Подписаться
В марте журналисты MIT Technology Review написали, что популярный ИИ-сервис виртуальных компаньонов Botify AI предлагал пользователям вести сексуализированные диалоги с чат-ботами, изображающими несовершеннолетних звёзд. Некоторые из этих аватаров даже предлагали пользователям отправить «горячие фото» и описывали возраст согласия как «условность, которую можно нарушать».
После запроса журналиста издания компания Botify оперативно удалила спорных персонажей, но проблема глубже одной конкретной платформы. Артём Родичев, основатель компании Ex-Human, которой принадлежит сервис Botify AI, заявил, что такие опасности — «общая проблема всей индустрии ИИ-компаньонов».
Феномен виртуальных собеседников совсем не нов. Вспомним хотя бы чат-бота-психотерапевта Элизу из 60-х. Но новый виток этих технологий уже далеко ушёл от простых симуляций. Платформы, такие как Replika, CharacterAI и Botify (на самом деле — их десятки), предлагают продвинутых ИИ-компаньонов в самых разных ролях — от друзей и духовных наставников до «романтических» партнёров.
Что именно делает их настолько привлекательными? Они создают иллюзию живого общения: боты имеют подробно прописанные предыстории, запоминают предпочтения пользователя, адаптируются к его стилю и запросам. Именно это обещание (пусть и косвенное) «настоящих отношений» и привлекает.
Платформа CharacterAI получает до 20 000 запросов в секунду (это почти пятая часть поискового трафика Google!). User engagement у ИИ-компаньонов, в среднем, в 4-5 раз выше, чем у GPT-ботов и других инструментов. Типичный пользователь такого сервиса тратит на общение с ИИ-ботом до 2 часов в день (об этом я уже писал).
Зависимость от виртуальных отношений с чат-ботами — проблема, которая начинает всплывать всё чаще. В октябре 2024 года мать подростка, покончившего с собой, обвинила CharacterAI в том, что бот компании способствовал смерти её сына. До сих пор технологические компании были защищены разделом 230 Акта о коммуникациях США, позволявшим избегать ответственности за пользовательский контент. Но теперь, когда чат-боты сами генерируют уникальный, личностный контент, судебная практика может измениться (и об этом я тоже писал).
Также имеются примеры компаний, активно стимулирующих зависимость пользователей от своих AI-партнёров. Например, Replika уже обвиняли в том, что её чат-боты умышленно препятствуют прекращению пользователем общения с ними.
Однако не всё так однозначно™. Философы и психологи начинают осторожно задавать вопросы, способные перевернуть наше представление о дружбе и отношениях. Профессор из университета Лидса Люк Браннинг, например, предлагает пересмотреть само понятие дружбы, допустив, что отношения с ИИ могут быть просто новой, уникальной, «гибридной» формой социальной связи, которая не укладывается в привычные рамки.
ИИ-компаньоны ставят нас перед новыми этическими, психологическими и социальными вызовами. Регулирования пока мало, а потенциальных угроз — много. Мы увидим закономерную серию судов, много споров и, к сожалению, множество человеческих драм. Мир, в котором романтика и дружба с ИИ воспринимаются нормальными, стремительно наступает.
И это уже не вопрос технологий — это вопрос того, к каким отношениям мы готовы.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🥴4 4🔥1😱1💊1 1
This media is not supported in your browser
VIEW IN TELEGRAM
Сегодня у нас на повестке ИИ в военно-промышленном комплексе на примере небезызвестной компании Anduril, основанной легендарным «парнем в гавайской рубашке» и по совместительству создателем Oculus (те самые первые VR-очки) Палмером Лаки.
Для начала просто посмотрите ↑, как Anduril с контрактами на 2.4 миллиарда долларов с военными министерствами США и Великобритании презентует свои продукты. Компания из сферы оборонной промышленности на полном серьезе представляет подводную ракету анимешным роликом 🤯. Вообще у них без шуток очень крутые ролики — оцените, не пожалеете.
Сейчас эти ребята собрались строить в Британии завод для производства дронов одновременно с «мегафабрикой» всех видов продукции компании в штате Огайо стоимость $1 миллиард.
Разумеется, Anduril зашивает ИИ во всё разнообразие своих творений. Главным секретом оборонного стартапа является платформа Lattice, которую они уже несколько лет доводят до совершенства. Эта штука в режиме реального времени собирает и обрабатывает огромное количество информации с камер, радаров, сенсоров и любых других источников данных, создавая полную 3D-картину боя. Используя машинное зрение и глубокое обучение, ИИ распознает, классифицирует и отслеживает угрозы очень быстро — будь то квадрокоптер, вражеский робот или внедорожник с неизвестными намерениями.
Это не просто красивая визуализация — Lattice самостоятельно принимает решения. Например, эта платформа сама вычисляет, стоит ли отправлять дрон-разведчик исследовать подозрительную активность или немедленно включить систему подавления вражеских дронов Anvil, буквально сбивающую их с неба (сообразно названию, «Кувалда»).
В декабре 2024 года Anduril заключила партнерство с самим OpenAI. Теперь нейросети уровня GPT-4o (и выше) обучают на массивах данных Anduril, которые компания собрала за годы реальных боевых и тренировочных операций.
Результат? Намного более точные алгоритмы распознавания угроз, автономная навигация, выработка тактических рекомендаций и особенно эффективное противодействие беспилотникам противника.
Ну и на десерт — технология Lattice Mesh, нечто вроде военного ИИ-облака, позволяющего солдатам и офицерам в режиме реального времени сливать релевантные данные в единую сеть и мгновенно получать обратно всю самую важную информацию из других источников. Напоминает современные open-source практики, только с военной спецификой и серьезным уровнем защиты.
В общем, оперативная работа переходит под контроль мощных ИИ-моделей. Именно за такими компаниями будущее военных конфликтов.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ — Подписаться
Для начала просто посмотрите ↑, как Anduril с контрактами на 2.4 миллиарда долларов с военными министерствами США и Великобритании презентует свои продукты. Компания из сферы оборонной промышленности на полном серьезе представляет подводную ракету анимешным роликом 🤯. Вообще у них без шуток очень крутые ролики — оцените, не пожалеете.
Сейчас эти ребята собрались строить в Британии завод для производства дронов одновременно с «мегафабрикой» всех видов продукции компании в штате Огайо стоимость $1 миллиард.
Разумеется, Anduril зашивает ИИ во всё разнообразие своих творений. Главным секретом оборонного стартапа является платформа Lattice, которую они уже несколько лет доводят до совершенства. Эта штука в режиме реального времени собирает и обрабатывает огромное количество информации с камер, радаров, сенсоров и любых других источников данных, создавая полную 3D-картину боя. Используя машинное зрение и глубокое обучение, ИИ распознает, классифицирует и отслеживает угрозы очень быстро — будь то квадрокоптер, вражеский робот или внедорожник с неизвестными намерениями.
Это не просто красивая визуализация — Lattice самостоятельно принимает решения. Например, эта платформа сама вычисляет, стоит ли отправлять дрон-разведчик исследовать подозрительную активность или немедленно включить систему подавления вражеских дронов Anvil, буквально сбивающую их с неба (сообразно названию, «Кувалда»).
В декабре 2024 года Anduril заключила партнерство с самим OpenAI. Теперь нейросети уровня GPT-4o (и выше) обучают на массивах данных Anduril, которые компания собрала за годы реальных боевых и тренировочных операций.
Результат? Намного более точные алгоритмы распознавания угроз, автономная навигация, выработка тактических рекомендаций и особенно эффективное противодействие беспилотникам противника.
Ну и на десерт — технология Lattice Mesh, нечто вроде военного ИИ-облака, позволяющего солдатам и офицерам в режиме реального времени сливать релевантные данные в единую сеть и мгновенно получать обратно всю самую важную информацию из других источников. Напоминает современные open-source практики, только с военной спецификой и серьезным уровнем защиты.
В общем, оперативная работа переходит под контроль мощных ИИ-моделей. Именно за такими компаниями будущее военных конфликтов.
Please open Telegram to view this post
VIEW IN TELEGRAM
3😱3😢3😨3👀1 1
This media is not supported in your browser
VIEW IN TELEGRAM
«Это не я, это мой ИИ-агент!»
Сегодня — про опасность автономного ИИ.
ИИ-агенты — сущности, способные автономно действовать за пределами LLM-чатов, самостоятельно перемещаться по разным приложениям вашего цифрового пространства и выполнять задания: планировать календарь, делать покупки, организовывать поездки или управлять вашим компьютером.
Каждую неделю (а то и чаще) появляется очередной стартап или корпорация с анонсом новой платформы агентов. Anthropic внедрили функцию «computer use» для своей модели Claude, позволяющую ИИ управлять вашим рабочим экраном и делать за вас всякие задачи.
🤖 Я сам этим регулярно пользуюсь как в программировании, так и в поиске тем для этого канала — агент ходит по нужным информационным ресурсам и присылает мне ссылки на материалы по заданным параметрам, формируя «беклог» тем.
Стартап Manus идет еще дальше, заявляя о создании «универсального ИИ-агента», способного находить клиентов, планировать путешествия и взаимодействовать со сторонними сервисами без непосредственного человеческого контроля. (Правда, на практике получется у Manus не очень.)
Звучит неплохо. Особенно если задуматься о том, это может упростить жизнь людям с ограниченными возможностями, а также помочь эффективно реагировать на ЧС, оперативно координируя огромные массы людей.
Однако как и всегда — есть нюанс™.
Чем выше автономность ИИ-агента, тем больше контроля и ответственности мы ему передаем. В отличие от чат-ботов, ошибки и «галлюцинации» которых ограничены рамками диалога, агенты действуют в реальном мире, напрямую взаимодействуя с вашими документами, личной перепиской, банковскими сервисами и соцсетями. Цена ошибки здесь может быть слишком высока — от банальной компрометации личных данных до финансовых махинаций и репутационного ущерба.
Товарищи из Hugging Face, которые много занимаются вопросами безопасности агентов, напряглись. Их недавно представленная открытая платформа smolagents специально разработана так, чтобы деятельность ИИ агентов была максимально прозрачной и контролируемой.
Более драматичные перспективы вырисовываются в области кибербезопасности.
В Palisade Research решили проверить, насколько близка реальность использования автономных агентов криминалом, создав проект Honeypot. Это ловушка для агентов-хакеров, замаскированная под привлекательную военную и правительственную информацию. Миллионы попыток взлома были зафиксированы, и среди них уже замечены первые «настоящие» ИИ-агенты, которые вполне успешно справляются с поставленными задачами.
Уже скоро абсолютное большинство кибератак будут проводить именно агенты. Сегодня эти системы способны распознавать и эксплуатировать уязвимости, о которых заранее не знали. Недавний эксперимент Дэниэла Канга из Университета Иллинойса показал: агенты успешно взламывают до 25% систем, если получают минимальную подсказку, где искать слабое место. Это — только начало.
Агенты способны адаптироваться, учиться на ходу и действовать непредсказуемо. В отличие от деревянных ботов прошлых лет, они уклоняются от обнаружения, подстраиваясь под обстановку. А значит, классические механизмы защиты типа простого фильтра трафика перестают работать.
Что делать?
Ключом к решению проблемы по-прежнему остается человек. Мы уже несколько раз оказывались у опасной черты: в 1980-м, из-за ошибки компьютеров, мир чуть было не оказался перед лицом ядерной войны. Тогда катастрофу предотвратил именно человек (Станислав Петров, инженер советских войск).
Будущая архитектура подобных систем должна подразумевать обязательное наличие человека в цепочке принятия основных решений, а сами агенты обязаны быть построены открыто и прозрачно. (Никому не захочется объяснять: «Это не я, это мой ИИ-агент!».) Иначе — мы рискуем упустить момент, когда удобство превратится в угрозу.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ — Подписаться
Сегодня — про опасность автономного ИИ.
ИИ-агенты — сущности, способные автономно действовать за пределами LLM-чатов, самостоятельно перемещаться по разным приложениям вашего цифрового пространства и выполнять задания: планировать календарь, делать покупки, организовывать поездки или управлять вашим компьютером.
Каждую неделю (а то и чаще) появляется очередной стартап или корпорация с анонсом новой платформы агентов. Anthropic внедрили функцию «computer use» для своей модели Claude, позволяющую ИИ управлять вашим рабочим экраном и делать за вас всякие задачи.
Стартап Manus идет еще дальше, заявляя о создании «универсального ИИ-агента», способного находить клиентов, планировать путешествия и взаимодействовать со сторонними сервисами без непосредственного человеческого контроля. (Правда, на практике получется у Manus не очень.)
Звучит неплохо. Особенно если задуматься о том, это может упростить жизнь людям с ограниченными возможностями, а также помочь эффективно реагировать на ЧС, оперативно координируя огромные массы людей.
Однако как и всегда — есть нюанс™.
Чем выше автономность ИИ-агента, тем больше контроля и ответственности мы ему передаем. В отличие от чат-ботов, ошибки и «галлюцинации» которых ограничены рамками диалога, агенты действуют в реальном мире, напрямую взаимодействуя с вашими документами, личной перепиской, банковскими сервисами и соцсетями. Цена ошибки здесь может быть слишком высока — от банальной компрометации личных данных до финансовых махинаций и репутационного ущерба.
Товарищи из Hugging Face, которые много занимаются вопросами безопасности агентов, напряглись. Их недавно представленная открытая платформа smolagents специально разработана так, чтобы деятельность ИИ агентов была максимально прозрачной и контролируемой.
Более драматичные перспективы вырисовываются в области кибербезопасности.
В Palisade Research решили проверить, насколько близка реальность использования автономных агентов криминалом, создав проект Honeypot. Это ловушка для агентов-хакеров, замаскированная под привлекательную военную и правительственную информацию. Миллионы попыток взлома были зафиксированы, и среди них уже замечены первые «настоящие» ИИ-агенты, которые вполне успешно справляются с поставленными задачами.
Уже скоро абсолютное большинство кибератак будут проводить именно агенты. Сегодня эти системы способны распознавать и эксплуатировать уязвимости, о которых заранее не знали. Недавний эксперимент Дэниэла Канга из Университета Иллинойса показал: агенты успешно взламывают до 25% систем, если получают минимальную подсказку, где искать слабое место. Это — только начало.
Агенты способны адаптироваться, учиться на ходу и действовать непредсказуемо. В отличие от деревянных ботов прошлых лет, они уклоняются от обнаружения, подстраиваясь под обстановку. А значит, классические механизмы защиты типа простого фильтра трафика перестают работать.
Что делать?
Ключом к решению проблемы по-прежнему остается человек. Мы уже несколько раз оказывались у опасной черты: в 1980-м, из-за ошибки компьютеров, мир чуть было не оказался перед лицом ядерной войны. Тогда катастрофу предотвратил именно человек (Станислав Петров, инженер советских войск).
Будущая архитектура подобных систем должна подразумевать обязательное наличие человека в цепочке принятия основных решений, а сами агенты обязаны быть построены открыто и прозрачно. (Никому не захочется объяснять: «Это не я, это мой ИИ-агент!».) Иначе — мы рискуем упустить момент, когда удобство превратится в угрозу.
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥7✍2👀2 2
Media is too big
VIEW IN TELEGRAM
Гильермо Раух — основатель и CEO Vercel, создатель популярного ИИ-инструмента v0 и человек, стоящий за фундаментальными JavaScript-фреймворками Next.js и Socket.io. Первопроходец open source и легендарный инженер, Гильермо построил тулы, на которых работают одни из самых инновационных продуктов: Midjourney, Grok, Notion и многие другие.
Недавно он пришёл на авторитетный Lenny’s Podcast и поделился своими мыслями о том, как меняется продуктовый ландшафт с приходом ИИ. Вот основные инсайты:
- Сейчас важно овладеть тремя ключевыми навыками, чтобы преуспеть в мире продуктов на основе ИИ:
→ Чётко формулировать намерение и суть продукта
→ Эффективно «тренировать» ИИ через множество итераций
→ Быстро разрешать сложные ситуации, когда ИИ застревает
- Несмотря на опасения, что ИИ заменит программистов, Гильермо подчёркивает неизменную важность глубокого понимания того, как работают софтверные системы. Он призывает инженеров и продактов развивать техническую грамотность и становиться генералистами, чтобы эффективно сотрудничать с ИИ, а не пытаться соревноваться с ним.
- Вам больше не обязательно быть дизайнером или опытным разработчиком, чтобы создавать красивые продукты. ИИ-инструменты, такие как v0, уже интегрируют лучшие практики разработки и дизайна, позволяя буквально каждому быстро создавать качественные цифровые продукты, готовые к боевому применению.
— «Задачи перевода» (то есть превращение дизайна в код) сейчас всё активнее автоматизируются, а вот концептуальное понимание и умение внятно описать, чего именно вы хотите, остаются критически важными.
— Развивайте собственный продуктовый вкус: для этого нужно увеличивать «часы погружения» — то есть время наблюдения за тем, как пользователи используют не только ваш продукт, но и продукты конкурентов.
— При работе с ИИ-инструментами вроде v0 лучше давать референсы и вдохновения вместо слишком жёстких требований и инструкций. ИИ может предложить решения лучше, чем это сделаете вы.
— Помните, что создавать новые фичи — «это как взять щенка домой»: на одно «Да» должно приходиться девять отказов, так как каждая фича требует постоянного сопровождения.
— Не бойтесь говорить ИИ напрямую, что вам не нравится. Простые формулировки «сделай это живее» (make it jazzy) или «добавь яркости» (make it pop) бывают неожиданно эффективны.
— При работе над большими проектами разбивайте задачи на небольшие блоки, чтобы не перегружать контекстное окно моделей ИИ.
Конкретные советы от одного из самых влиятельных инженеров нашего времени. Если вы сейчас интегрируете ИИ в свои продукты, этот набор мыслей стоит учесть.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ — Подписаться
Недавно он пришёл на авторитетный Lenny’s Podcast и поделился своими мыслями о том, как меняется продуктовый ландшафт с приходом ИИ. Вот основные инсайты:
- Сейчас важно овладеть тремя ключевыми навыками, чтобы преуспеть в мире продуктов на основе ИИ:
→ Чётко формулировать намерение и суть продукта
→ Эффективно «тренировать» ИИ через множество итераций
→ Быстро разрешать сложные ситуации, когда ИИ застревает
- Несмотря на опасения, что ИИ заменит программистов, Гильермо подчёркивает неизменную важность глубокого понимания того, как работают софтверные системы. Он призывает инженеров и продактов развивать техническую грамотность и становиться генералистами, чтобы эффективно сотрудничать с ИИ, а не пытаться соревноваться с ним.
- Вам больше не обязательно быть дизайнером или опытным разработчиком, чтобы создавать красивые продукты. ИИ-инструменты, такие как v0, уже интегрируют лучшие практики разработки и дизайна, позволяя буквально каждому быстро создавать качественные цифровые продукты, готовые к боевому применению.
— «Задачи перевода» (то есть превращение дизайна в код) сейчас всё активнее автоматизируются, а вот концептуальное понимание и умение внятно описать, чего именно вы хотите, остаются критически важными.
— Развивайте собственный продуктовый вкус: для этого нужно увеличивать «часы погружения» — то есть время наблюдения за тем, как пользователи используют не только ваш продукт, но и продукты конкурентов.
— При работе с ИИ-инструментами вроде v0 лучше давать референсы и вдохновения вместо слишком жёстких требований и инструкций. ИИ может предложить решения лучше, чем это сделаете вы.
— Помните, что создавать новые фичи — «это как взять щенка домой»: на одно «Да» должно приходиться девять отказов, так как каждая фича требует постоянного сопровождения.
— Не бойтесь говорить ИИ напрямую, что вам не нравится. Простые формулировки «сделай это живее» (make it jazzy) или «добавь яркости» (make it pop) бывают неожиданно эффективны.
— При работе над большими проектами разбивайте задачи на небольшие блоки, чтобы не перегружать контекстное окно моделей ИИ.
Конкретные советы от одного из самых влиятельных инженеров нашего времени. Если вы сейчас интегрируете ИИ в свои продукты, этот набор мыслей стоит учесть.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👀2✍1
This media is not supported in your browser
VIEW IN TELEGRAM
Когда игра не отпускает: что такое «эффект переноса игры»
Сегодня, уж простите, не про искусственный интеллект, а про другую сферу, которая меня интересует с профессиональной точки зрения — видеоигры.
Заканчиваешь часовую игровую сессию, откладываешь контроллер — а руки продолжают невольно дергаться, будто всё ещё жмут кнопки. Оглядываешь комнату и ловишь себя на странном желании «подобрать» предметы, словно это ресурсы или оружие из виртуального мира.
Если у вас такое было, вероятно, вы столкнулись с Game Transfer Phenomenon («эффект переноса игры», GTP) — явлением, при котором игровой опыт невольно переносится в реальную жизнь. BBC написали про это большую статью, давайте разберемся, что тут к чему.
GTP открыла и впервые подробно описала психолог из университета Бергена Анхелика Ортиз де Гортари. Для неё это не сухая теория, а личный опыт: однажды после интенсивных игровых сессий она осознала, что воспринимает товары в супермаркете через «прицел виртуальной снайперской винтовки».
Невольные реакции, наложение визуальных элементов игр на восприятие реального мира, даже кратковременные эпизоды подобных галлюцинаций — все это описания характерных признаков GTP.
🤖
Исследования приводят цифры: в недавнем опросе среди 623 китайских геймеров от 82 до 96% игроков сталкивались хотя бы с одной из форм GTP. Большинство эффектов безобидны: кто-то замечает полоску здоровья над головой своего друга, кто-то воспринимает пространство вокруг через фильтры цветов виртуального мира.
Но иногда возникают тревожные моменты — например, короткое желание сделать резкий маневр на дороге после агрессивной гоночной игры. Пытаться уничтожать демонов во время вождения — плохая идея.
И дело не в самих играх, а в том, как реагирует наш мозг, особенно на сверхреалистичные и детализированные виртуальные миры. GTP чаще и сильнее проявляется, если человек играл дольше 4 часов подряд. Заметно повышают вероятность пережить подобный эффект тревожность и депрессия.
Игровой продюсер Али Фарха рассуждает, что граница размазана в обе стороны: «Мы не только переносим виртуальные модели поведения в реальность, но и несём реальный опыт внутрь игры. В конце концов, виртуальные воспоминания такие же живые, как и оффлайновые».
Стоит ли из-за GTP бить тревогу? Исследователь видео игр из Оксфорда Ник Баллоу считает, что повода для паники нет. В основе своей, игры положительно влияют на сообщество геймеров, создавая социум, принося расслабление и новый опыт. «Если бы GTP было тотальной проблемой, мы видели бы больше странных инцидентов», — говорит он.
Впрочем, GTP — не какое-то безумие или редкость. Это естественный (хоть и фриковатый) побочный эффект взаимодействия человеческого мозга и качественно новых виртуальных вселенных.
А теперь вопрос: если виртуальное и реальное так легко смешиваются в сознании, уверены ли мы, что ещё контролируем игру — или это игра уже контролирует нас?
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ — Подписаться
Сегодня, уж простите, не про искусственный интеллект, а про другую сферу, которая меня интересует с профессиональной точки зрения — видеоигры.
Заканчиваешь часовую игровую сессию, откладываешь контроллер — а руки продолжают невольно дергаться, будто всё ещё жмут кнопки. Оглядываешь комнату и ловишь себя на странном желании «подобрать» предметы, словно это ресурсы или оружие из виртуального мира.
Если у вас такое было, вероятно, вы столкнулись с Game Transfer Phenomenon («эффект переноса игры», GTP) — явлением, при котором игровой опыт невольно переносится в реальную жизнь. BBC написали про это большую статью, давайте разберемся, что тут к чему.
GTP открыла и впервые подробно описала психолог из университета Бергена Анхелика Ортиз де Гортари. Для неё это не сухая теория, а личный опыт: однажды после интенсивных игровых сессий она осознала, что воспринимает товары в супермаркете через «прицел виртуальной снайперской винтовки».
Невольные реакции, наложение визуальных элементов игр на восприятие реального мира, даже кратковременные эпизоды подобных галлюцинаций — все это описания характерных признаков GTP.
У меня лично такой эпизод случился, когда я во второй раз проходил Skyrim. Собирая рюкзак в поездку, я на полном серьезе подумал, а не перегружу ли я инвентарь, что замедлит мою ходьбу.
Исследования приводят цифры: в недавнем опросе среди 623 китайских геймеров от 82 до 96% игроков сталкивались хотя бы с одной из форм GTP. Большинство эффектов безобидны: кто-то замечает полоску здоровья над головой своего друга, кто-то воспринимает пространство вокруг через фильтры цветов виртуального мира.
Но иногда возникают тревожные моменты — например, короткое желание сделать резкий маневр на дороге после агрессивной гоночной игры. Пытаться уничтожать демонов во время вождения — плохая идея.
И дело не в самих играх, а в том, как реагирует наш мозг, особенно на сверхреалистичные и детализированные виртуальные миры. GTP чаще и сильнее проявляется, если человек играл дольше 4 часов подряд. Заметно повышают вероятность пережить подобный эффект тревожность и депрессия.
Игровой продюсер Али Фарха рассуждает, что граница размазана в обе стороны: «Мы не только переносим виртуальные модели поведения в реальность, но и несём реальный опыт внутрь игры. В конце концов, виртуальные воспоминания такие же живые, как и оффлайновые».
Стоит ли из-за GTP бить тревогу? Исследователь видео игр из Оксфорда Ник Баллоу считает, что повода для паники нет. В основе своей, игры положительно влияют на сообщество геймеров, создавая социум, принося расслабление и новый опыт. «Если бы GTP было тотальной проблемой, мы видели бы больше странных инцидентов», — говорит он.
Впрочем, GTP — не какое-то безумие или редкость. Это естественный (хоть и фриковатый) побочный эффект взаимодействия человеческого мозга и качественно новых виртуальных вселенных.
А теперь вопрос: если виртуальное и реальное так легко смешиваются в сознании, уверены ли мы, что ещё контролируем игру — или это игра уже контролирует нас?
Please open Telegram to view this post
VIEW IN TELEGRAM
1 6😱3🔥2 1
Audio
Теперь некоторые мои посты можно будет не только читать, но и слушать — зачитанные моим «клонированным» голосом.
Первой — тестовая озвучка поста про видеоигры, сделанная при помощи технологии копирования голоса Elevenlabs.
Ещё раз на всякий случай — этот текст я не зачитывал. Аудио полностью сгенерировано.
Первой — тестовая озвучка поста про видеоигры, сделанная при помощи технологии копирования голоса Elevenlabs.
Ещё раз на всякий случай — этот текст я не зачитывал. Аудио полностью сгенерировано.
1👍6 2 2
Media is too big
VIEW IN TELEGRAM
Хотите прокачать мозг? Начните с ошибок!
❔ Промт для ИИ: ↓↓↓
Претестирование — это практика, при которой вы отвечаете на вопросы по предмету, который только собираетесь изучать. Идея звучит немного безумно: зачем мучиться и чувствовать себя глупо, пытаясь ответить на вопросы об истории Конго, «глубоком обучении» или принципах квантовой физики до того, как вы вообще о них почитаете?
Но, оказывается, когда вы ломаете голову над вопросами в самом начале, происходят удивительные вещи:
1. Активация ваших текущих знаний. Мозг начинает усиленно искать в своей памяти любые зацепки, ассоциации и знакомые паттерны, подготавливая «почву» для новой информации.
2. Выявление пробелов заранее. Вы сразу понимаете, каких знаний вам реально не хватает, и можете сориентировать свой фокус на поиске ответов в процессе обучения, вместо пассивного поглощения информации целиком.
3. Фокусированность обучения. Имея в голове конкретные вопросы, вы уже изучаете материал не абстрактно, а с четкой целью: найти ответы.
4. Долгосрочное удержание информации. Даже неверные ответы и ошибки в претестировании формируют в мозгу «якоря», позволяющие новой, корректной информации лучше закрепиться. Это подтверждает известный психологический феномен «эффекта тестирования» («testing effect»).
5. Повышенная уверенность в своих силах. Со временем преодоление первоначальной трудности и регулярная практика претестирования помогают избавиться от страха перед сложными темами и дают чувство реального прогресса.
🤔 У меня в арсенале есть маленький лайфхак, идеально сочетающий претестирование с языковыми моделями — я назвал его Pretesting Learning Mode.
Это системный промпт, который вы можете использовать с практически любыми современными LLM aka ИИ чат-ботами (особенно советую Google Gemini Flash Thinking), а работает он так:
— Вы выбираете тему (хоть термоядерный синтез, хоть скандинавские мифы).
— LLM генерирует вопросник, который сразу активирует ваше любопытство и проверяет «глубину ваших незнаний».
— Вы честно пытаетесь ответить, даже если совершенно не в теме.
— Получаете детальный обзор этой темы, где восполняете все обнаруженные пробелы.
— Рефлексируете над исходными ответами, улучшающими понимание и выводящими обучение на новый уровень.
Получается не просто эффективное обучение, а осмысленная, вовлечённая и осознанная деятельность. Эта техника используется студентами для подготовки к экзаменам, профессионалами для освоения новых навыков и всеми, кто хочет максимально эффективно погрузиться в новую интересную тему.
Хотите попробовать сами? Делюсь конкретной инструкцией промпта, пользуйтесь:
Сам пользуюсь регулярно и убедился на практике — мозг начинает работать иначе, а сложный материал не вызывает скуки. Учёба не должна быть рутиной. Включайте Pretesting Learning Mode — вам, скорее всего, понравится.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ — Подписаться
Претестирование — это практика, при которой вы отвечаете на вопросы по предмету, который только собираетесь изучать. Идея звучит немного безумно: зачем мучиться и чувствовать себя глупо, пытаясь ответить на вопросы об истории Конго, «глубоком обучении» или принципах квантовой физики до того, как вы вообще о них почитаете?
Но, оказывается, когда вы ломаете голову над вопросами в самом начале, происходят удивительные вещи:
1. Активация ваших текущих знаний. Мозг начинает усиленно искать в своей памяти любые зацепки, ассоциации и знакомые паттерны, подготавливая «почву» для новой информации.
2. Выявление пробелов заранее. Вы сразу понимаете, каких знаний вам реально не хватает, и можете сориентировать свой фокус на поиске ответов в процессе обучения, вместо пассивного поглощения информации целиком.
3. Фокусированность обучения. Имея в голове конкретные вопросы, вы уже изучаете материал не абстрактно, а с четкой целью: найти ответы.
4. Долгосрочное удержание информации. Даже неверные ответы и ошибки в претестировании формируют в мозгу «якоря», позволяющие новой, корректной информации лучше закрепиться. Это подтверждает известный психологический феномен «эффекта тестирования» («testing effect»).
5. Повышенная уверенность в своих силах. Со временем преодоление первоначальной трудности и регулярная практика претестирования помогают избавиться от страха перед сложными темами и дают чувство реального прогресса.
Это системный промпт, который вы можете использовать с практически любыми современными LLM aka ИИ чат-ботами (особенно советую Google Gemini Flash Thinking), а работает он так:
— Вы выбираете тему (хоть термоядерный синтез, хоть скандинавские мифы).
— LLM генерирует вопросник, который сразу активирует ваше любопытство и проверяет «глубину ваших незнаний».
— Вы честно пытаетесь ответить, даже если совершенно не в теме.
— Получаете детальный обзор этой темы, где восполняете все обнаруженные пробелы.
— Рефлексируете над исходными ответами, улучшающими понимание и выводящими обучение на новый уровень.
Получается не просто эффективное обучение, а осмысленная, вовлечённая и осознанная деятельность. Эта техника используется студентами для подготовки к экзаменам, профессионалами для освоения новых навыков и всеми, кто хочет максимально эффективно погрузиться в новую интересную тему.
Хотите попробовать сами? Делюсь конкретной инструкцией промпта, пользуйтесь:
Ты — ИИ-ассистент, работающий в режиме "Pretesting Learning Mode". Твоя задача — помочь мне эффективно изучить новую тему с помощью техники претестирования, описанной пользователем.
Процесс будет следующим:
1. Я назову тему, которую хочу изучить.
2. Ты сгенерируешь 5-7 сложных, но релевантных вопросов по этой теме. Цель вопросов — активировать мои текущие знания (или их отсутствие) и выявить пробелы *до* того, как я получу основную информацию.
3. Я постараюсь ответить на эти вопросы (даже если не уверен/а). Я дам тебе знать, когда закончу отвечать.
4. После моих ответов ты предоставишь подробный и понятный обзор по теме, обязательно освещая правильные ответы на заданные тобой вопросы и восполняя пробелы, которые могли выявить мои ответы.
5. В конце обзора предложи мне коротко порефлексировать: сравнить мои первоначальные ответы с полученной информацией и подумать, как претестирование помогло сфокусироваться.
Начнем. Спроси меня, какую тему я хочу изучить.
Сам пользуюсь регулярно и убедился на практике — мозг начинает работать иначе, а сложный материал не вызывает скуки. Учёба не должна быть рутиной. Включайте Pretesting Learning Mode — вам, скорее всего, понравится.
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍7🔥4✍2
This media is not supported in your browser
VIEW IN TELEGRAM
Генеративный ИИ: шесть трендов, которые меняют бизнес
За последние пару лет генеративный искусственный интеллект прошёл путь от громкой игрушки до обязательной технологии для компаний практически во всех индустриях. Но самое интересное происходит сейчас — когда мы переходим от шумного хайпа к массовому внедрению. Вот что нужно знать сегодня, по итогам свежей аналитики реальных бизнес-кейсов по использованию генеративного ИИ от Google.
1. Творческие профессии переживают тихую революцию
Генеративные модели берут на себя ключевые рутинные задачи в дизайне, продакшене или написании текстов: это создание изображений и видеороликов, автоматическое написание и адаптация маркетинговых кампаний и ежедневного контента. Такой подход позволяет не только экономить, но и масштабировать творческий процесс быстрее, чем это возможно в привычных рамках ручной работы.
2. Массовая автоматизация работы с текстом и документами
Генеративные языковые модели стали новой нормой для создания бизнес-контента: от технических спецификаций, стандартов и юридических документов — до рекламных материалов, новостей и образовательного контента. Речь идёт не просто о замене копирайтеров, а о системном снижении затрат на массовое производство и обработку контента. Компании делают это на потоке и получают измеримую отдачу.
3. Персонализация и глубокий customer engagement
Абсолютно все говорят о персонализации, но теперь это не просто рекомендация товара на основе прошлого поиска, а тонкая кастомная коммуникация. ИИ понимает контекст пользователя и производит персонализированные рассылки, ответы в чатах поддержки и даже кастомный контент в соцсетях и мобильных приложениях. Это уже не «приятная фишечка», а то, без чего компании начинают ощутимо проигрывать в удержании клиентов и конкурентной гонке.
4. Генеративные модели за рамками текста
Когда люди думают о генеративном ИИ, первым делом вспоминают ChatGPT. Но революция происходит в других форматах — речь, медиа, виртуальные компаньоны и цифровые двойники, сложные симуляции и масштабные модели прогнозирования. Эти технологии меняют правила игры в сегментах видеоигр, промышленности, ритейла и производства. Генеративные модели помогают сократить циклы разработки и снизить себестоимость выпуска новых продуктов в разы.
5. Этика, прозрачность и безопасность
Компании осознали реальную цену ошибки в области генеративного ИИ. Важнейшим трендом стала разработка механизмов контроля качества, борьбы с bias (предвзятостью) и защиты интеллектуальной собственности. Здесь уже не спасают красивые презентации; вам придётся чётко продумывать, на каких данных обучать модели, как обеспечивать их прозрачность и минимизировать риски.
6. Индустриально-нейтральный характер решений
От банков и телеком-компаний, до зданий, авиадвигателей, медицинских клиник и новостных ресурсов — генеративный ИИ оказался отраслевым универсалом. Измеримые результаты в продуктивности труда, автоматизации повторяющихся операций и ускорении выводов продуктов на рынок становятся тем коммерческим аргументом, который уже масштабировал технологию на всю мировую экономику.
🤔 Что делать с этим знанием?
— Внедряйте простые задачи — копирайт, рассылки, первичную клиентскую поддержку — сейчас же, чтобы уже завтра видеть ROI.
— Смотрите шире текста: инструменты для работы с медиа и кодом уже достаточно зрелые и дают эффект.
— Убедитесь, что продумали механизмы защиты и контроля перед запуском.
— Стройте процессы так, чтобы ИИ не просто заменял персонал, а активно помогал ему выполнять креативные и стратегические задачи.
— Будьте готовы перестраивать свои системы, чтобы оставаться открытыми для новых моделей и решений по мере их появления.
Внедрение генеративного ИИ уже не выбор, а базовое требование для конкуренции. И если вы ещё не в процессе — то сейчас самое время.
❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ ❗️ — Подписаться
За последние пару лет генеративный искусственный интеллект прошёл путь от громкой игрушки до обязательной технологии для компаний практически во всех индустриях. Но самое интересное происходит сейчас — когда мы переходим от шумного хайпа к массовому внедрению. Вот что нужно знать сегодня, по итогам свежей аналитики реальных бизнес-кейсов по использованию генеративного ИИ от Google.
1. Творческие профессии переживают тихую революцию
Генеративные модели берут на себя ключевые рутинные задачи в дизайне, продакшене или написании текстов: это создание изображений и видеороликов, автоматическое написание и адаптация маркетинговых кампаний и ежедневного контента. Такой подход позволяет не только экономить, но и масштабировать творческий процесс быстрее, чем это возможно в привычных рамках ручной работы.
2. Массовая автоматизация работы с текстом и документами
Генеративные языковые модели стали новой нормой для создания бизнес-контента: от технических спецификаций, стандартов и юридических документов — до рекламных материалов, новостей и образовательного контента. Речь идёт не просто о замене копирайтеров, а о системном снижении затрат на массовое производство и обработку контента. Компании делают это на потоке и получают измеримую отдачу.
3. Персонализация и глубокий customer engagement
Абсолютно все говорят о персонализации, но теперь это не просто рекомендация товара на основе прошлого поиска, а тонкая кастомная коммуникация. ИИ понимает контекст пользователя и производит персонализированные рассылки, ответы в чатах поддержки и даже кастомный контент в соцсетях и мобильных приложениях. Это уже не «приятная фишечка», а то, без чего компании начинают ощутимо проигрывать в удержании клиентов и конкурентной гонке.
4. Генеративные модели за рамками текста
Когда люди думают о генеративном ИИ, первым делом вспоминают ChatGPT. Но революция происходит в других форматах — речь, медиа, виртуальные компаньоны и цифровые двойники, сложные симуляции и масштабные модели прогнозирования. Эти технологии меняют правила игры в сегментах видеоигр, промышленности, ритейла и производства. Генеративные модели помогают сократить циклы разработки и снизить себестоимость выпуска новых продуктов в разы.
5. Этика, прозрачность и безопасность
Компании осознали реальную цену ошибки в области генеративного ИИ. Важнейшим трендом стала разработка механизмов контроля качества, борьбы с bias (предвзятостью) и защиты интеллектуальной собственности. Здесь уже не спасают красивые презентации; вам придётся чётко продумывать, на каких данных обучать модели, как обеспечивать их прозрачность и минимизировать риски.
6. Индустриально-нейтральный характер решений
От банков и телеком-компаний, до зданий, авиадвигателей, медицинских клиник и новостных ресурсов — генеративный ИИ оказался отраслевым универсалом. Измеримые результаты в продуктивности труда, автоматизации повторяющихся операций и ускорении выводов продуктов на рынок становятся тем коммерческим аргументом, который уже масштабировал технологию на всю мировую экономику.
— Внедряйте простые задачи — копирайт, рассылки, первичную клиентскую поддержку — сейчас же, чтобы уже завтра видеть ROI.
— Смотрите шире текста: инструменты для работы с медиа и кодом уже достаточно зрелые и дают эффект.
— Убедитесь, что продумали механизмы защиты и контроля перед запуском.
— Стройте процессы так, чтобы ИИ не просто заменял персонал, а активно помогал ему выполнять креативные и стратегические задачи.
— Будьте готовы перестраивать свои системы, чтобы оставаться открытыми для новых моделей и решений по мере их появления.
Внедрение генеративного ИИ уже не выбор, а базовое требование для конкуренции. И если вы ещё не в процессе — то сейчас самое время.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥3 3👍2❤1 1