Media is too big
VIEW IN TELEGRAM
Кажется, мы нашли для вас развлечение на выходные: у Андрея Карпаты вышло новое интервью 🥳
По таймкодам:
➡️ статус автономии, tesla против waymo
➡️ человекоподобные роботы
➡️ бутылочные горлышки в достижении AGI
➡️ экзомозг – будущее или миф?
➡️ небольшие LM, опенсорс
➡️ его новая eureka labs, ИИ-образование
➡️ чему следует учиться в эпоху ИИ
Длится кстати, всего 45 минут. Скоро расскажем краткое содержание, а пока вот вам ссылка на просмотр.
По таймкодам:
Длится кстати, всего 45 минут. Скоро расскажем краткое содержание, а пока вот вам ссылка на просмотр.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31🔥15❤11
Красота: новая обложка журнала Time, посвященная ИИ-инфлюенсерам
Тройка лидеров:
А Сэм Альтман оказался на 4 месте. Обидно, наверное😞
Кого еще узнали с обложки?
Тройка лидеров:
1. Сундар Пичаи – CEO Google
2. Сатья Наделла – CEO Microsoft
3. Саша Луччони – AI & Climate Lead Hugging Face
А Сэм Альтман оказался на 4 месте. Обидно, наверное
Кого еще узнали с обложки?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍47😁16❤8🗿5🔥3
Интернет взрывает новая модель Reflection 70В: она выбивает на бенчмарках результаты, превосходящие Claude 3.5 Sonnet и GPT-4o
Название Reflection выбрано в честь метода Reflection-Tuning: это когда модель итеративно обучается на синтетических структурированных данных, чтобы научиться рассуждать и самокорректироваться. Плюсом добавлен отдельный этап планирования для улучшения CoT. В качестве инициализации брали Llama 3.1 70B.
На практике модель прямо в ответах оборачивает все рассуждения в тег <reasoning>, а возможные ошибки в тег <reflection>. Затем она обнаруженные ошибки исправляет, и итоговый ответ выдает в теге <output>.
Результаты на бенчмарках: 89,9% MMLU, 79,7% MATH, 90,1% IFEval, 99.2% GSM8K. Говорят, что тот самый синтетический датасет и техрепорт будет на следующей неделе. А еще на следующей неделе обещают Reflection на 405В😨
Сама модель уже доступна на HuggingFace.
Название Reflection выбрано в честь метода Reflection-Tuning: это когда модель итеративно обучается на синтетических структурированных данных, чтобы научиться рассуждать и самокорректироваться. Плюсом добавлен отдельный этап планирования для улучшения CoT. В качестве инициализации брали Llama 3.1 70B.
На практике модель прямо в ответах оборачивает все рассуждения в тег <reasoning>, а возможные ошибки в тег <reflection>. Затем она обнаруженные ошибки исправляет, и итоговый ответ выдает в теге <output>.
Результаты на бенчмарках: 89,9% MMLU, 79,7% MATH, 90,1% IFEval, 99.2% GSM8K. Говорят, что тот самый синтетический датасет и техрепорт будет на следующей неделе. А еще на следующей неделе обещают Reflection на 405В
Сама модель уже доступна на HuggingFace.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥89👍19❤9😁2🤯1
Data Secrets
Кажется, мы нашли для вас развлечение на выходные: у Андрея Карпаты вышло новое интервью 🥳 По таймкодам: ➡️ статус автономии, tesla против waymo ➡️ человекоподобные роботы ➡️ бутылочные горлышки в достижении AGI ➡️ экзомозг – будущее или миф? ➡️ небольшие…
Итак, завозим наше краткое содержание сегодняшего интервью Андрея Карпаты. Было много интересного:
⚪️ "10 лет назад я впервые покатался на беспилотной машине в рамках демо, и подумал, что это была идеальная поездка. Однако нам все равно пришлось потратить 10 лет, чтобы перейти от демо к продукту, за который люди платят. Сейчас мы достигли некоторого подобия AGI в сфере self-driving, но пройдет еще очень много времени, пока все это будет глобализовано. То же самое ждет и языковые модели."
⚪️ Tesla круче других компаний, которые занимаются self-driving, хотя сейчас это и не заметно. "Я верю в Tesla, эта компания идет по правильной траектории, фокусируясь на AI. Это не просто self-driving компания, это крупейшая робототехническая компания с огромный потенциалом к расширению, и их подход к работе выведет Tesla на первое место уже в ближайшие годы."
⚪️ Трансформер - не просто очередной метод, но подход, который полностью изменил наш взгляд на ИИ, и на данный момент это единственная по-настоящему масштабируемая архитектура. Нам очень повезло, что мы наткнулись именно на трансформер в огромном пространстве алгоритмов. "Я верю, что трансформер лучше человеческого мозга во многих отношениях, просто эта модель еще не готова проявить себя сполна".
⚪️ Раньше бутылочным горлышком в ИИ была архитуктура. Теперь компании практически о ней не думают: за последние 5 лет классический трансформер изменился не так уж сильно. Акцент в наши дни перемещается на данные.
⚪️ Данные из Интернета, на самом деле, – далеко не самые лучшие данные для обучения модели. Это просто "ближайший сосед" идеальных данных. То, что мы действительно хотим от модели, – это умение рассуждать. А страницы из Интернета не могут ее сполна этому научить.
⚪️ Будущие за синтетическими данными, однако главная проблема синтетики – это энтропия и разнообразие. Его недостаточно, и это действительно препятствие. Тем не менее, текущие модели должны помогать нам создавать следующие, при этом "итоговые" модели могут оказаться на удивление крошечными (Андрей уже говорил об этом, подробнее мы писали тут).
⚪️ Андрей говорит, что ушел в образование, потому что не заинтересован в том, чтобы "заменить" людей, а нацелен на то, чтобы сделать их умнее и вдохновленнее. "Я хочу, чтобы люди были ЗА автоматизацию и мечтаю проверить, на что будет способно человечество, когда у каждого будет идеальный репетитор в лице ИИ".
⚪️ ИИ пока не способен создать курс, но идеально подходит для того, чтобы интерпретировать и подстраивать созданные людьми материалы для каждого студента в отдельности. "Я думаю, образование должно стать для людей скорее развлечением, чем трудом."
Please open Telegram to view this post
VIEW IN TELEGRAM
2👏61👍24🔥20❤9👀3😁2🤪2
Тем временем в OpenAI обсуждают подписку на ChatGPT за $2000, чтобы выйти из дефицита бюджета
Напоминаем, что сейчас они в потенциальной яме размером в 5 миллиардов долларов. В компании не уверены, сколько пользователи готовы платить за подписку, но думают, что 2к бачей – в целом справедливая цена за предстоящие Strawberry и Orion.
"Мы за общедоступный AI!" – говорили они...
Напоминаем, что сейчас они в потенциальной яме размером в 5 миллиардов долларов. В компании не уверены, сколько пользователи готовы платить за подписку, но думают, что 2к бачей – в целом справедливая цена за предстоящие Strawberry и Orion.
"Мы за общедоступный AI!" – говорили они...
😁131🤯40😎8👍6 3😐2❤1🤔1🎉1🦄1
Anthropic продолжают релизить маленькие радости для разработчиков
На этот раз в документации появился умный поиск с Claude. Теперь, когда ищете что-то конкретное, можно не полагаться на ctrl-F, а делегировать все на Claude. А если в документации модель чего-то не найдет, то постарается ответить сама. Фича бесплатная.
На этот раз в документации появился умный поиск с Claude. Теперь, когда ищете что-то конкретное, можно не полагаться на ctrl-F, а делегировать все на Claude. А если в документации модель чего-то не найдет, то постарается ответить сама. Фича бесплатная.
🤯49👍22🔥11❤1
Вчера анонсировали Replit: еще одного ассистента для программирования из коробки
Он сам может настроить окружение, установить все зависимости, забилдить БД и деплойнуть. Нужно просто написать ему, что вы хотите. После этого ассистент подумает, выкатит вам план, и, если вы его окните, за 1-2 минуту выдаст готовый проект.
Примеры можно посмотреть в этом треде
Он сам может настроить окружение, установить все зависимости, забилдить БД и деплойнуть. Нужно просто написать ему, что вы хотите. После этого ассистент подумает, выкатит вам план, и, если вы его окните, за 1-2 минуту выдаст готовый проект.
Примеры можно посмотреть в этом треде
🔥65👍19❤7🤨2
В Северной Каролине какой-то гений с 2017 года (!) генерировал музыку и заработал на этом состояние. Теперь его судят 🤷♂️
Общую сумму мошенничества 52-летнему Майклу Смиту насчитали, прямо скажем, немалую: 10 миллионов долларов. Он якобы загружал на стриминги сгенерированные треки несуществующих групп, а потом накручивал прослушивания ботами.
К 2019 году мужчина греб по 110к долларов в месяц. Правда, теперь ему грозит около 20 лет тюрьмы.
Видимо Google или OpenAI упустили в лице Смита ценного сотрудника, раз он в 2017 нашел способ генерировать правдоподобную музыку🐻
Общую сумму мошенничества 52-летнему Майклу Смиту насчитали, прямо скажем, немалую: 10 миллионов долларов. Он якобы загружал на стриминги сгенерированные треки несуществующих групп, а потом накручивал прослушивания ботами.
К 2019 году мужчина греб по 110к долларов в месяц. Правда, теперь ему грозит около 20 лет тюрьмы.
Видимо Google или OpenAI упустили в лице Смита ценного сотрудника, раз он в 2017 нашел способ генерировать правдоподобную музыку
Please open Telegram to view this post
VIEW IN TELEGRAM
😁93❤16👍9🔥4🤯4
This media is not supported in your browser
VIEW IN TELEGRAM
Кстати про музыку: в одной из самых интересных работ на конференции CoRL 2024 ученые предложили способ, с помощью которого можно обучить робота играть на фортепиано по гайдам на YouTube
YouTube – огромный кладезь всевозможных туториалов, и их давно можно было бы использовать для обучения роботов. Но на деле это настоящий челлендж, потому что видеоданные, естественно, не содержат в нужном виде информации о движениях, которые должен сделать робот для выполнения задачи: это просто видеоряд, который сам по себе для робота не значит ни-че-го.
Авторы предложили фреймворк, который решает эту проблему. Решение основано на residual RL. В случае с фортепиано в работе используют извлеченную из видео траекторию пальцев в качестве номинальной стратегии агента, а в роли функции награждения берут саму мелодию.
Дальше исследователи даже попытались дистиллировать выученные по видео мелодии в единую универсальную политику агента с помощью иерархического подхода. На верхнем уровне определяются движения пальцев (как если бы они извлекались из видео), а внизу опять работает residual RL. Правда, тут уже результаты не имели ВАУ-эффекта. Зато графики показывают, что точность растет с ростом трейн-датасета, так что шанс на маштабирование в будущем есть.
Подробнее тут
YouTube – огромный кладезь всевозможных туториалов, и их давно можно было бы использовать для обучения роботов. Но на деле это настоящий челлендж, потому что видеоданные, естественно, не содержат в нужном виде информации о движениях, которые должен сделать робот для выполнения задачи: это просто видеоряд, который сам по себе для робота не значит ни-че-го.
Авторы предложили фреймворк, который решает эту проблему. Решение основано на residual RL. В случае с фортепиано в работе используют извлеченную из видео траекторию пальцев в качестве номинальной стратегии агента, а в роли функции награждения берут саму мелодию.
Дальше исследователи даже попытались дистиллировать выученные по видео мелодии в единую универсальную политику агента с помощью иерархического подхода. На верхнем уровне определяются движения пальцев (как если бы они извлекались из видео), а внизу опять работает residual RL. Правда, тут уже результаты не имели ВАУ-эффекта. Зато графики показывают, что точность растет с ростом трейн-датасета, так что шанс на маштабирование в будущем есть.
Подробнее тут
👍38🔥11❤7
This media is not supported in your browser
VIEW IN TELEGRAM
Такие вот безграничные возможности искусственного интеллекта
👍76😁49❤14🔥8
Media is too big
VIEW IN TELEGRAM
История о том, как тысяча AI-агентов в Minecraft играли
Во-первых, почему именно Minecraft? Потому что это идеальная симуляция общества, и исследователи хотели проверить, смогут ли агенты организоваться в комьюнити, как люди, или у них наступит хаос.
В итоге… с построением нормальной цивилизации ИИ-малыши справились на ура. Они создали торговый центр, голосовали на выборах, создали конституцию, распространяли религии, ну и лутались конечно😉
Как это было организовано? Каждого агента наделили ролью и автономностью, «разрешили» свободно озвучивать мысли и общаться с другими, и объяснили некоторый социальный кодекс.
Кстати, с агентами можно поиграться самому (поговорить или дать задание). Надо просто скопировать свой порт и подключиться по нему здесь.
Во-первых, почему именно Minecraft? Потому что это идеальная симуляция общества, и исследователи хотели проверить, смогут ли агенты организоваться в комьюнити, как люди, или у них наступит хаос.
В итоге… с построением нормальной цивилизации ИИ-малыши справились на ура. Они создали торговый центр, голосовали на выборах, создали конституцию, распространяли религии, ну и лутались конечно
Как это было организовано? Каждого агента наделили ролью и автономностью, «разрешили» свободно озвучивать мысли и общаться с другими, и объяснили некоторый социальный кодекс.
Кстати, с агентами можно поиграться самому (поговорить или дать задание). Надо просто скопировать свой порт и подключиться по нему здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥49👍11❤7 7😁1🤔1🙈1
This media is not supported in your browser
VIEW IN TELEGRAM
Вот это мечта ресерчера: Google выпустили продукт Illuminate, который из любой статьи сгенерирует вам подкаст
Нужно просто загрузить pdf, и вы получите синтетическую антропоморфную беседу, в которой два голоса в режиме вопрос-ответ изложат основное содержание и детали работы. Звучит достаточно ествественно, послушайте сами⬆️
Вот тут можно записаться в лист ожидания, но придется подождать.
Нужно просто загрузить pdf, и вы получите синтетическую антропоморфную беседу, в которой два голоса в режиме вопрос-ответ изложат основное содержание и детали работы. Звучит достаточно ествественно, послушайте сами
Вот тут можно записаться в лист ожидания, но придется подождать.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤98🔥16⚡8👍3🤯3😁2🤨1
В США судья использовал LLM, чтобы принять решение по делу о вооруженном ограблении
В суде долго продолжались споры о том, считается ли угроза пистолетом «физическим удержанием» (от этого зависела мера наказания). Сразу скажем, что закончилось все тем, что большинство присяжных проголосовали за «считается», потому что к этому обязывали предыдущие прецеденты.
И хотя судья с этим согласился, он также высказался за отмену этих самых прецедентов, ссылаясь при этом на то, что Claude, ChatGPT и Gemini не считают, что угроза оружием – это то, что можно назвать физическим удержанием😈
В суде долго продолжались споры о том, считается ли угроза пистолетом «физическим удержанием» (от этого зависела мера наказания). Сразу скажем, что закончилось все тем, что большинство присяжных проголосовали за «считается», потому что к этому обязывали предыдущие прецеденты.
И хотя судья с этим согласился, он также высказался за отмену этих самых прецедентов, ссылаясь при этом на то, что Claude, ChatGPT и Gemini не считают, что угроза оружием – это то, что можно назвать физическим удержанием
Please open Telegram to view this post
VIEW IN TELEGRAM
😁102😐47🤯13🔥8👍4🤨3🫡3👾2❤1
Галя, отмена: большой скандал с моделью Reflection, которая хайповала последние несколько дней
Вкратце: модель оказалась фальшивкой. Возможно, это была акция привлечения внимания или финансирования. Более подробный таймлайн того, что произошло, можно найти в этом треде. Пересказываем:
Модель вышла 5 сентября. О ней написал Мэтт Шумер, CEO Otherside AI. Он же опубликовал те самые потрясающие метрики (которые впоследствии провалились). Модель прогремела в СМИ, в Твиттере, в других соцсетях.
7 сентября история стала давать трещины: первые попытки воспроизвести результаты потерпели неудачу. Мэтт в это время твитит о том, что что-то не так с API, с весами, есть какие-баги, которые вот-вот исправят. В какой-то момент он, якобы в качестве исключения и извинений, публикует "приватный доступ" к некоторому API, и там все действительно работает на ура, по крайней мере для открытой модели такого размера.
И что же? Оказалось, что это самое API – надстройка не над Llama, а над claude 3.5 sonnet. Бадум–тссс🤡
Сам Мэтт Шумер сегодня, пока все страсти и разоблачения кипят в Твиттере и на Реддите, весь день сидит тихо и не дает комментариев. Вот и сказочке конец. Directed by Robert B. Weide.
Вкратце: модель оказалась фальшивкой. Возможно, это была акция привлечения внимания или финансирования. Более подробный таймлайн того, что произошло, можно найти в этом треде. Пересказываем:
Модель вышла 5 сентября. О ней написал Мэтт Шумер, CEO Otherside AI. Он же опубликовал те самые потрясающие метрики (которые впоследствии провалились). Модель прогремела в СМИ, в Твиттере, в других соцсетях.
7 сентября история стала давать трещины: первые попытки воспроизвести результаты потерпели неудачу. Мэтт в это время твитит о том, что что-то не так с API, с весами, есть какие-баги, которые вот-вот исправят. В какой-то момент он, якобы в качестве исключения и извинений, публикует "приватный доступ" к некоторому API, и там все действительно работает на ура, по крайней мере для открытой модели такого размера.
И что же? Оказалось, что это самое API – надстройка не над Llama, а над claude 3.5 sonnet. Бадум–тссс
Сам Мэтт Шумер сегодня, пока все страсти и разоблачения кипят в Твиттере и на Реддите, весь день сидит тихо и не дает комментариев. Вот и сказочке конец. Directed by Robert B. Weide.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁97🫡15👍8🤔4❤2👏1
This media is not supported in your browser
VIEW IN TELEGRAM
Итак, только что закончилась свежая презентация Apple. Рассказываем, что там у них новенького по теме ИИ:
⚪️ В новые Apple Watch Series 10 встроили Neural Engine с ML. Теперь часы можно использовать для перевода или распознавания голоса.
⚪️ AirPods 4 научились принимать и отклонять вызовы по движению головы. А еще они смогут проводить клинически проверенный тест на слух.
⚪️ Ну и, конечно, новый iPhone с Apple Intelligence. Neural Engine стал в два раза быстрее. Также прилично добавилось к пропускной способности, а GPU на A18 летает на 40% быстрее. Видимо немало пришлось поработать, чтобы айфон тащил Apple Intelligence.
⚪️ Siri стала умнее и персонализированнее (правда русский язык не завезли) и теперь может вести нормальный осознанный диалог или помочь найти что-то в телефоне. А еще можно суммаризировать все уведомления в ленте и генерировать текст и эмоджи.
⚪️ Многим понравилась новая кнопка. Ее можно настроить под нужную задачу: например, запись голосовых заметок, распознавание музыки, ключение автопереводчика и прочее. Кстати, в камере будет ИИ-автофокус, встроенное удаление людей и объекты с фото, и авто-переработка галереи (можно попросить удалить все фотки с бывшими, например). В Pro модель в камеру и диктофон еще добавили заглушку фоновых шумов в видео.
⚪️ Visual Intelligence! Можно навести камеру на любой объект и получить о нём всю информацию (будь это ресторан, собака, велосипед и тд). Ну и для решения школьных задачек по фото тоже сойдет: лучший подарок школьникам в сентябре.
⚪️ В общем, Apple запихнули ИИ абсолютно везде, где могли: наушники, часы, уведомления, чаты, камера. При этом разработчики утверждают, что все будет крутится в локальном облаке пользователя. Верим 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡42🤨19👍18🔥8❤7🤪5😁3❤🔥1👌1
Data Secrets
Тем временем в OpenAI обсуждают подписку на ChatGPT за $2000, чтобы выйти из дефицита бюджета Напоминаем, что сейчас они в потенциальной яме размером в 5 миллиардов долларов. В компании не уверены, сколько пользователи готовы платить за подписку, но думают…
Please open Telegram to view this post
VIEW IN TELEGRAM
😁187🔥12👍9❤2
Исследователи из Microsoft изобрели что-то между RAG и few-shot промптингом
Обычный few-shot промптинг обычно подразумевает добавление некоторых примеров ответов прямо в промпт. Он доказал свою эффективность, но если вам нужно добавить много примеров, то промпт будет громоздким. Да и каждый раз добавлять примеры в промптлень не очень-то удобно.
В Microsoft предложили вместо промпта хранить примеры в векторной БД. Тогда система будет сама извлекать самые релевантные примеры для каждого пользовательского ввода, сохраняя при этом запрос лаконичным. Назвали подход Dynamic few-shot prompting.
Преимуществ получается несколько: снижение костов, улучшенная точность и релевантность как извлекаемых примеров, так и самих ответов модели, а еще масштабируемость для различных задач.
Полный текст блогпоста тут
Обычный few-shot промптинг обычно подразумевает добавление некоторых примеров ответов прямо в промпт. Он доказал свою эффективность, но если вам нужно добавить много примеров, то промпт будет громоздким. Да и каждый раз добавлять примеры в промпт
В Microsoft предложили вместо промпта хранить примеры в векторной БД. Тогда система будет сама извлекать самые релевантные примеры для каждого пользовательского ввода, сохраняя при этом запрос лаконичным. Назвали подход Dynamic few-shot prompting.
Преимуществ получается несколько: снижение костов, улучшенная точность и релевантность как извлекаемых примеров, так и самих ответов модели, а еще масштабируемость для различных задач.
Полный текст блогпоста тут
🔥48👍13😎13❤3