В MoonshotAI изобрели новый вид аттеншена
В трансформерах есть важная штука под названием residual connection. Ее суть: вместо того, чтобы каждый слой полностью переписывал предыдущий, вход слоя добавляется к его выходу. Тем самым сигнал и градиенты не теряются по дороге, а плавно протекают сквозь глубину сетки без резких искажений. Эта идея – одна из ключевых во всей архитектуре трансформера.
Тезис исследователей из Moonshot (это, напоминаем, создатели Kimi K2): обычные residual слишком тупы. Они полезны, но на самом деле бездумно накапливают все прошлые выходы слоя за слоем, из-за чего с ростом глубины вклад каждого отдельного слоя размывается, а величины hidden states растут бесконтрольно.
В качестве улучшения предлагают Attention Residuals: пусть слой сам решает, на какие прошлые выходы слоев по глубине ему смотреть. По сути это привычный нам механизм внимания, но не на токенах, а но слоях нейросети.
Теперь вместо того, чтобы получать всю предыдущую информацию от коллег-слоев одной кучей, каждый слой получает взвешенную сумму этих знаний, нужную именно на данном этапе обработки. Теоретически это звучит очень осмысленно. Если обычный аттеншен так хорошо выбирает релевантные токены, то почему бы не дать модели так же выбирать релевантные предыдущие выходы слоев?
Правда, есть нюанс: технически эта идея требует память большого порядка. Поэтому инженерия немного подправлена, и сеть на самом деле делят на блоки, внутри блока оставляют обычное residual-накопление, а attention применяют только между блоками.
На тестах идея действительно демонстрирует вычислительно более эффективную модель: Block AttnRes достигает лосса, сравнимого с бэйзлайном, обученным с 1.25× большим компьютом. Проще говоря, Attention Residuals быстрее сходятся. Авторы также утверждают, что механизм улучшает саму динамику обучения и делает его более стабильным.
Работа выглядит очень интересной и потенциально важной. Надо будет последить, станут ли применять.
https://github.com/MoonshotAI/Attention-Residuals/blob/master/Attention_Residuals.pdf
В трансформерах есть важная штука под названием residual connection. Ее суть: вместо того, чтобы каждый слой полностью переписывал предыдущий, вход слоя добавляется к его выходу. Тем самым сигнал и градиенты не теряются по дороге, а плавно протекают сквозь глубину сетки без резких искажений. Эта идея – одна из ключевых во всей архитектуре трансформера.
Тезис исследователей из Moonshot (это, напоминаем, создатели Kimi K2): обычные residual слишком тупы. Они полезны, но на самом деле бездумно накапливают все прошлые выходы слоя за слоем, из-за чего с ростом глубины вклад каждого отдельного слоя размывается, а величины hidden states растут бесконтрольно.
В качестве улучшения предлагают Attention Residuals: пусть слой сам решает, на какие прошлые выходы слоев по глубине ему смотреть. По сути это привычный нам механизм внимания, но не на токенах, а но слоях нейросети.
Теперь вместо того, чтобы получать всю предыдущую информацию от коллег-слоев одной кучей, каждый слой получает взвешенную сумму этих знаний, нужную именно на данном этапе обработки. Теоретически это звучит очень осмысленно. Если обычный аттеншен так хорошо выбирает релевантные токены, то почему бы не дать модели так же выбирать релевантные предыдущие выходы слоев?
Правда, есть нюанс: технически эта идея требует память большого порядка. Поэтому инженерия немного подправлена, и сеть на самом деле делят на блоки, внутри блока оставляют обычное residual-накопление, а attention применяют только между блоками.
На тестах идея действительно демонстрирует вычислительно более эффективную модель: Block AttnRes достигает лосса, сравнимого с бэйзлайном, обученным с 1.25× большим компьютом. Проще говоря, Attention Residuals быстрее сходятся. Авторы также утверждают, что механизм улучшает саму динамику обучения и делает его более стабильным.
Работа выглядит очень интересной и потенциально важной. Надо будет последить, станут ли применять.
https://github.com/MoonshotAI/Attention-Residuals/blob/master/Attention_Residuals.pdf
❤154🔥59👍34⚡4❤🔥2😁2👨💻1
This media is not supported in your browser
VIEW IN TELEGRAM
OpenClaw, датацентры в космосе и фабрики токенов – Дженсен Хуанг выступил с двухчасовой речью на GTC 2026
Дальше небольшой разбор важных моментов из нее:
➖ OpenClaw – это «новый компьютер». Не просто фреймворк, а операционная система нового типа. Возможно, это самый главный software релиз в истории. Единственная проблема – безопасность. И тут Nvidia предлагает NemoClaw – это enterprise-версия OpenClaw. Они предлагают аудит логов, confidential computing (данные шифруются даже на GPU) и изоляцию агентов в песочнице. Интересно, не собираются ли OpenAI после покупки OpenClaw сделать то же самое 😐
➖ Хуанг объявил о Vera Rubin Space-1 – модуле для орбитальных дата-центров. Это означает, что Nvidia официально выходит в космос, и при этом с архитектурой Rubin (R100), которая дает до 25x больше вычислительной мощности для инференса по сравнению с H100. Основная проблема космоса – охлаждение. Nvidia уже работает над этим.
➖ Дата-центры скоро эволюционируют до AI-фабрик. То есть превратятся из инфраструктуры для инференса в производство токенов. 80% софта заменится ИИ-генерацией. Nvidia уже готовится и анонсирует Dynamo OS и DSX. Первое – это платформа для управления такими фабриками, которая динамически распределяет нагрузку в кластерах. DSX – это сервис для цифровых двойников AI-инфраструктуры: моделирует питание, охлаждение и все-все детали и позволяет эффективно и быстро проводить оптимизации.
А кроме этого анонсировали еще новое железо (тот самый Vera Rubin GPU) и новое ПО для роботов, которых Nvidia продолжает разрабатывать с партнерами.
Полностью смотрим тут www.youtube.com/live/PirWDBZlrVg
Дальше небольшой разбор важных моментов из нее:
А кроме этого анонсировали еще новое железо (тот самый Vera Rubin GPU) и новое ПО для роботов, которых Nvidia продолжает разрабатывать с партнерами.
Полностью смотрим тут www.youtube.com/live/PirWDBZlrVg
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥91❤35🤔24 15😁9👍6🗿4🤯2🐳2❤🔥1
Вайбкодинг в бигтехе: как происходит внедрение ИИ-агентов
Разговоров про кодинг-агентов становится все больше, но мало кто понимает, что внедрение таких систем на уровне компании — это сложная инженерная работа, а не просто «подключили модель и поехали».
Обычно этот процесс остается за закрытыми дверями. Но иногда появляется возможность послушать практиков. Недавно мы посмотрели в онлайне митап AI Dev Day, и сразу несколько докладов были посвящены внедрению AI-агентов в процессы разработки.
Андрей Попов, лидер трека ИИ в разработке в Яндексе, рассказал, что у них развитием агентов занимаются уже не энтузиасты, а полноценные команды, и это направление стало фокусным. Из чего состоит такая работа:
— Метрики. Главная метрика сейчас — сэкономленное время разработчика. Суммарно ИИ сэкономил уже 42к часов инженеров Яндекса. Есть и другие показатели: например, количество коммитов при использовании ИИ выросло на 10%, что означает – разработка ускоряется. В перспективе компания хочет двигаться к AI-first подходу: ключевым станет показатель того, как часто разработчику приходится вмешиваться в автономный процесс генерации кода (по аналогии с disengagement rate в автономном транспорте).
— Собственные бенчмарки и дообучение моделей. В компании есть внутренний бенчмарк ArcSWE – аналог SWE Verified, но на задачах компании. Именно такие измерения становятся основой для управленческих решений, потому что на публичные бенчмарки не всегда можно опираться.
— Своя инфраструктура. Собственный интерфейс, доступный инференс, RAG, MCP и системы контекста. В большой компании множество внутренних сервисов, поэтому требуется много кастомной интеграции – сейчас у компании уже 35+ MCP для работы с инфраструктурой.
Сейчас около 30% кода в компании генерируется ИИ, причем 23% – в агентском режиме внутри собственного агента Yandex Code Assistant. О том, как его разрабатывают и улучшают, на той же конференции рассказывал Сергей Бульдяев, технический менеджер продукта.
Все это – демонстрация процесса настоящего внедрения. Очень важно не проваливаться в хайп, трезво проводить эвал и заниматься агентами не на уровне пет-проектов на выходных, а именно вот так организованно.
Разговоров про кодинг-агентов становится все больше, но мало кто понимает, что внедрение таких систем на уровне компании — это сложная инженерная работа, а не просто «подключили модель и поехали».
Обычно этот процесс остается за закрытыми дверями. Но иногда появляется возможность послушать практиков. Недавно мы посмотрели в онлайне митап AI Dev Day, и сразу несколько докладов были посвящены внедрению AI-агентов в процессы разработки.
Андрей Попов, лидер трека ИИ в разработке в Яндексе, рассказал, что у них развитием агентов занимаются уже не энтузиасты, а полноценные команды, и это направление стало фокусным. Из чего состоит такая работа:
— Метрики. Главная метрика сейчас — сэкономленное время разработчика. Суммарно ИИ сэкономил уже 42к часов инженеров Яндекса. Есть и другие показатели: например, количество коммитов при использовании ИИ выросло на 10%, что означает – разработка ускоряется. В перспективе компания хочет двигаться к AI-first подходу: ключевым станет показатель того, как часто разработчику приходится вмешиваться в автономный процесс генерации кода (по аналогии с disengagement rate в автономном транспорте).
— Собственные бенчмарки и дообучение моделей. В компании есть внутренний бенчмарк ArcSWE – аналог SWE Verified, но на задачах компании. Именно такие измерения становятся основой для управленческих решений, потому что на публичные бенчмарки не всегда можно опираться.
— Своя инфраструктура. Собственный интерфейс, доступный инференс, RAG, MCP и системы контекста. В большой компании множество внутренних сервисов, поэтому требуется много кастомной интеграции – сейчас у компании уже 35+ MCP для работы с инфраструктурой.
Сейчас около 30% кода в компании генерируется ИИ, причем 23% – в агентском режиме внутри собственного агента Yandex Code Assistant. О том, как его разрабатывают и улучшают, на той же конференции рассказывал Сергей Бульдяев, технический менеджер продукта.
Все это – демонстрация процесса настоящего внедрения. Очень важно не проваливаться в хайп, трезво проводить эвал и заниматься агентами не на уровне пет-проектов на выходных, а именно вот так организованно.
🗿75😁28❤25👍24🔥12🤔5🤯2👏1
Google DeepMind заплатит от 10 до 25 тысяч долларов тому, кто придумает лучший бенчмарк для AGI
В 2026 году мы все еще не понимаем, как оценить, насколько модель близка к AGI.
Google считают, что это большая проблема, и они правы. Без нормального эвала не будет прогресса. Именно из-за однобоких бенчмарков в моделях сейчас развивается то, что Хассабис называет jagged intelligence (рваный интеллект): в одном модель супер умная (например, код), в другом – супер тупая.
Короче, Google предлагают идею когнитивной таксономии, то есть разбиения интеллекта на базовые способности: память, обучаемость, планирование, социальное мышление и тд. Это все позаимствовано из психологии и нейронауки.
Они запустили соревнование на Kaggle, в рамках которого нужно придумать, как измерять каждую из таких способностей (выбрали пять основных: обучаемость, метакогнитивность, внимание, исполнительные функции, социальная когнитивность).
Победителей будут выбирать по тому, насколько валидный, научно обоснованный, практически применимый и устойчивый к читингу бенчмарк вы предложите.
Двум победителям в каждом треке платят по 10к долларов, плюс 25к долларов получат четыре лучших бенчмарка среди всех сабмитов.
Будем следить
www.kaggle.com/competitions/kaggle-measuring-agi
В 2026 году мы все еще не понимаем, как оценить, насколько модель близка к AGI.
Google считают, что это большая проблема, и они правы. Без нормального эвала не будет прогресса. Именно из-за однобоких бенчмарков в моделях сейчас развивается то, что Хассабис называет jagged intelligence (рваный интеллект): в одном модель супер умная (например, код), в другом – супер тупая.
Короче, Google предлагают идею когнитивной таксономии, то есть разбиения интеллекта на базовые способности: память, обучаемость, планирование, социальное мышление и тд. Это все позаимствовано из психологии и нейронауки.
Они запустили соревнование на Kaggle, в рамках которого нужно придумать, как измерять каждую из таких способностей (выбрали пять основных: обучаемость, метакогнитивность, внимание, исполнительные функции, социальная когнитивность).
Победителей будут выбирать по тому, насколько валидный, научно обоснованный, практически применимый и устойчивый к читингу бенчмарк вы предложите.
Двум победителям в каждом треке платят по 10к долларов, плюс 25к долларов получат четыре лучших бенчмарка среди всех сабмитов.
Будем следить
www.kaggle.com/competitions/kaggle-measuring-agi
👍90❤32😁23🔥7🤯4🤔2🐳2
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI запустили большое ML-соревнование
Если кратко, это code golf эпохи LLM: нужно обучить минимальную модель, которая лучше всего предсказывает текст на FineWeb (это просто очищенные веб-страницы).
Метрика – bits per byte. Это, по сути, та же энтропия, а по факту – количество информации, которое нужно модели для предсказания текста. Если модель хорошая, она уверена в правильном ответе и тратит на него мало бит, если плохая – наоборот.
Самое интересное, что модель должна укладываться в 16МВ и 10 минут обучения на 8 × H100 GPU, так что вывезти на компьюте не получится.
Зато нет ограничений на архитектуру, количество слоев, всякие трюки с test-time, токенизатор и тд. Тут полет инженерной фантазии, и OpenAI прямо говорят, что ожидают от участников изобретательности.
Для участников стартап выделяет миллион долларов на компьют, гранты можно запрашивать поэтапно. Говорят, что авторов лучших решений пригласят на работу.
https://openai.com/index/parameter-golf/
Если кратко, это code golf эпохи LLM: нужно обучить минимальную модель, которая лучше всего предсказывает текст на FineWeb (это просто очищенные веб-страницы).
Метрика – bits per byte. Это, по сути, та же энтропия, а по факту – количество информации, которое нужно модели для предсказания текста. Если модель хорошая, она уверена в правильном ответе и тратит на него мало бит, если плохая – наоборот.
Самое интересное, что модель должна укладываться в 16МВ и 10 минут обучения на 8 × H100 GPU, так что вывезти на компьюте не получится.
Зато нет ограничений на архитектуру, количество слоев, всякие трюки с test-time, токенизатор и тд. Тут полет инженерной фантазии, и OpenAI прямо говорят, что ожидают от участников изобретательности.
Для участников стартап выделяет миллион долларов на компьют, гранты можно запрашивать поэтапно. Говорят, что авторов лучших решений пригласят на работу.
https://openai.com/index/parameter-golf/
❤78🔥36👍21😁6
ИТ-специалисты Москвы, хотите поделиться опытом?
Есть возможность рассказать студентам о том, что вы не услышали в свое время. Центральный университет как раз проводит интенсив для будущих преподавателей ИТ-специальностей — это возможность попробовать себя в роли наставника и понять, подходит вам эта деятельность или нет.
Там вы сможете:
— Связать преподавание с личными и карьерными целями.
— Отработать техники презентаций и вовлечения аудитории.
— Спроектировать и провести пару на площадке Центрального университета.
— Заручиться поддержкой экспертов с опытом в крупных ИТ-компаниях.
— Получить шанс попасть в команду преподавателей Центрального университета.
Интенсив пройдет с 22 марта по 5 апреля. Будут онлайн-встречи и очные занятия. Еще успеваете зарегистрироваться.
Есть возможность рассказать студентам о том, что вы не услышали в свое время. Центральный университет как раз проводит интенсив для будущих преподавателей ИТ-специальностей — это возможность попробовать себя в роли наставника и понять, подходит вам эта деятельность или нет.
Там вы сможете:
— Связать преподавание с личными и карьерными целями.
— Отработать техники презентаций и вовлечения аудитории.
— Спроектировать и провести пару на площадке Центрального университета.
— Заручиться поддержкой экспертов с опытом в крупных ИТ-компаниях.
— Получить шанс попасть в команду преподавателей Центрального университета.
Интенсив пройдет с 22 марта по 5 апреля. Будут онлайн-встречи и очные занятия. Еще успеваете зарегистрироваться.
🗿18❤5✍3🔥2😁2👨💻2🤨1
Apple блокируют приложения для вайб-кодинга в AppStore
О том, что они начали тихо отклонять обновления подобных приложений, пишет The Information.
Речь о таких штуках, как Replit и Vibecode. Там можно генерить приложения прямо внутри iPhone без классического девелопмента.
В компании говорят, что блокировки не направлены конкретно против вайб-кодинга, просто подобные приложения «нарушают политику» (классика). Мол, дело в том, что у Apple прописан запрет на выполнение кода, который меняет поведение приложения или других приложений после установки.
Грубо говоря, Apple боятся неконтролируемого распространения софта в обход своего стора (проходя проверки в котором, кстати, ты тратишь обычно больше времени, чем на сам кодинг).
Видимо, теперь разработчикам придется урезать функционал и, например, выносить превью в браузер или вообще запрещать генерацию приложений под iOS.
Грустно, конечно
О том, что они начали тихо отклонять обновления подобных приложений, пишет The Information.
Речь о таких штуках, как Replit и Vibecode. Там можно генерить приложения прямо внутри iPhone без классического девелопмента.
В компании говорят, что блокировки не направлены конкретно против вайб-кодинга, просто подобные приложения «нарушают политику» (классика). Мол, дело в том, что у Apple прописан запрет на выполнение кода, который меняет поведение приложения или других приложений после установки.
Грубо говоря, Apple боятся неконтролируемого распространения софта в обход своего стора (проходя проверки в котором, кстати, ты тратишь обычно больше времени, чем на сам кодинг).
Видимо, теперь разработчикам придется урезать функционал и, например, выносить превью в браузер или вообще запрещать генерацию приложений под iOS.
Грустно, конечно
😁102❤17🔥10👍7 6🗿5🤨4🤯3 2❤🔥1
Meta* закрывают Metaverse, на который потратили около 80 миллиардов долларов
Они объявили о том, что выводят из VR свой ключевой метаверсный продукт Horizon Worlds: приложение убирают из магазина Quest в конце марта 2026, а полный shutdown VR‑версии произойдет 15 июня.
Именно Horizon Worlds был ядром стратегии «VR‑метаверс как следующая глава интернета». Так что, фактически, это убийство проекта метавселенной как такового.
При этом подразделение Reality Labs, которое отвечало за VR и метаверс, с 2020 года накопило около 70–80 млрд долларов операционных убытков.
F
Они объявили о том, что выводят из VR свой ключевой метаверсный продукт Horizon Worlds: приложение убирают из магазина Quest в конце марта 2026, а полный shutdown VR‑версии произойдет 15 июня.
Именно Horizon Worlds был ядром стратегии «VR‑метаверс как следующая глава интернета». Так что, фактически, это убийство проекта метавселенной как такового.
При этом подразделение Reality Labs, которое отвечало за VR и метаверс, с 2020 года накопило около 70–80 млрд долларов операционных убытков.
F
🤯166😁110 37🫡14❤6🤗3👍1 1
GoCloud 2026: как внедрять ИИ, а не обсуждать его
Про ИИ сейчас говорят все, но практики по-прежнему мало. На GoCloud 2026 от Cloud․ru решили сместить фокус: не «что будет», а «что уже работает и как это внедрять».
В программе — разбор реальных инструментов и подходов. Без абстракций: от простой автоматизации до создания мультиагентных систем и вопросов безопасности..
Что обсудят:
• какие ИИ-инструменты уже доступны в Cloud․ru
• как собирать мультиагентные системы на практике
• как внедрять RAG без технической команды
• что с безопасностью генеративного ИИ
• кейсы внедрения ИИ в российских компаниях
Также будут самостоятельные треки про данные, инфраструктуру и разработку.
Отдельно стоит прийти ради воркшопов. Берите ноутбук и под руководством экспертов собирайте прикладные решения прямо на месте.
9 апреля, Москва + онлайн. Если интересно не просто читать про ИИ, а научиться его грамотно внедрять — не пропустите.
Про ИИ сейчас говорят все, но практики по-прежнему мало. На GoCloud 2026 от Cloud․ru решили сместить фокус: не «что будет», а «что уже работает и как это внедрять».
В программе — разбор реальных инструментов и подходов. Без абстракций: от простой автоматизации до создания мультиагентных систем и вопросов безопасности..
Что обсудят:
• какие ИИ-инструменты уже доступны в Cloud․ru
• как собирать мультиагентные системы на практике
• как внедрять RAG без технической команды
• что с безопасностью генеративного ИИ
• кейсы внедрения ИИ в российских компаниях
Также будут самостоятельные треки про данные, инфраструктуру и разработку.
Отдельно стоит прийти ради воркшопов. Берите ноутбук и под руководством экспертов собирайте прикладные решения прямо на месте.
9 апреля, Москва + онлайн. Если интересно не просто читать про ИИ, а научиться его грамотно внедрять — не пропустите.
4🔥35🗿33❤20👍9✍5😁4🤨4❤🔥2🤯1
Вышла новая кодинг модель от Cursor
На собственном бенчмарке от Cursor – CursorBench – Composer 2 находится примерно на уровне GPT-5.4 и Opus 4.6. Акцент, естественно, на агентное программирование и работу в больших кодовых базах.
Цены довольно низкие: $0.50/M input и $2.50/M output. Есть фаст мод, стоит в три раза дороже, но при этом скорость заявляют заметно выше Opus 4.6 Fast и GPT-5.4 Fast.
Как будто бы стоит попробовать. По крайне мере, прогресс относительно предыдущей версии модели большой.
https://cursor.com/blog/composer-2
На собственном бенчмарке от Cursor – CursorBench – Composer 2 находится примерно на уровне GPT-5.4 и Opus 4.6. Акцент, естественно, на агентное программирование и работу в больших кодовых базах.
Цены довольно низкие: $0.50/M input и $2.50/M output. Есть фаст мод, стоит в три раза дороже, но при этом скорость заявляют заметно выше Opus 4.6 Fast и GPT-5.4 Fast.
Как будто бы стоит попробовать. По крайне мере, прогресс относительно предыдущей версии модели большой.
https://cursor.com/blog/composer-2
❤56👍32🔥18🤔8😁3🤯2
OpenAI покупают Astral
Это создатели Ruff, uv и ty – питонистам эти тулзы точно известны. OpenAI планирует интегрировать инструменты Astral в свою экосистему, в частности – в Codex.
Поддержка опенсорс проектов Astral после приобретения продолжится, а команда компании присоединится к подразделению Codex в OpenAI.
А теперь внимание на последний коммит в репозитории uv⬆️
Это создатели Ruff, uv и ty – питонистам эти тулзы точно известны. OpenAI планирует интегрировать инструменты Astral в свою экосистему, в частности – в Codex.
Поддержка опенсорс проектов Astral после приобретения продолжится, а команда компании присоединится к подразделению Codex в OpenAI.
А теперь внимание на последний коммит в репозитории uv
Please open Telegram to view this post
VIEW IN TELEGRAM
😁233🤯34❤23🔥12👍7🤔3🤓1🫡1
Вот это комбо: ты, команда SberAds и шанс получить приглашение в Сбер за один день! ⚡️
28 марта Сбер устраивает One Day Offer* для Data Scientists**, готовых перевести эффективность SberAds, качество и релевантность показываемой рекламы на новый уровень.
Если ты хочешь работать над созданием и улучшением моделей для аукционов и свободно ориентируешься в Python, Go, S3, Spark — регистрируйся на One Day Offer*.
У тебя будет 8000+ коллег — масштабно, правда? Успей занять место в команде мечты!
* One Day Offer — предложение о работе за один день.
** Data Scientists — исследователи данных.
28 марта Сбер устраивает One Day Offer* для Data Scientists**, готовых перевести эффективность SberAds, качество и релевантность показываемой рекламы на новый уровень.
Если ты хочешь работать над созданием и улучшением моделей для аукционов и свободно ориентируешься в Python, Go, S3, Spark — регистрируйся на One Day Offer*.
У тебя будет 8000+ коллег — масштабно, правда? Успей занять место в команде мечты!
* One Day Offer — предложение о работе за один день.
** Data Scientists — исследователи данных.
🗿37🤨13❤4👍2😁2❤🔥1🤔1🤯1
Media is too big
VIEW IN TELEGRAM
Американский политик Берни Сандерс поговорил с Claude за жизнь
Он решил обсудить с чат-ботом безопасность данных и влияние ИИ на приватность. Claude, обученный на Reddit и новостниках, естественно, благополучно выдал, что данные пользователей собираются абсолютно отовсюду и монетизируются без реального согласия людей (а что, это кого-то все еще удивляет?).
В конце Claude заявил, что проблема приватности и ИИ – это угроза демократии. Теперь диалог распространяется в СМИ под видом «Тревога: ИИ признался политику, что компании манипулируют нами через данные».
Впрочем, ничего нового
https://youtu.be/h3AtWdeu_G0
Он решил обсудить с чат-ботом безопасность данных и влияние ИИ на приватность. Claude, обученный на Reddit и новостниках, естественно, благополучно выдал, что данные пользователей собираются абсолютно отовсюду и монетизируются без реального согласия людей (а что, это кого-то все еще удивляет?).
В конце Claude заявил, что проблема приватности и ИИ – это угроза демократии. Теперь диалог распространяется в СМИ под видом «Тревога: ИИ признался политику, что компании манипулируют нами через данные».
Впрочем, ничего нового
https://youtu.be/h3AtWdeu_G0
😁138 25❤9⚡8 5🔥2🤔1