Сомнительно, но окей: в Твиттере заявляют, что Claude стал хуже работать, потому что французы отдыхают в августе
Последнее время многие пользователи действительно заметили, что Claude стал ленится, выдавать более короткие ответы и якобы поглупел. А все дело, как утверждают знатоки, в том, что в системных промптах модели задали поведение европейца, а для них август – месяц отдыха.
Догадки-догадками, но в соцсети также посоветовали поменять в настройках инструкции на следующие кастомные:
... и в реплаях многие пишут, что это работает🤔
Похожее, кстати, уже случалось с ChatGPT в декабре. Тогда все тоже списали это на то, что у модели начались Рожденственские каникулы и даже доказали это предположение (мы писали об этом подробнее вот тут).
Последнее время многие пользователи действительно заметили, что Claude стал ленится, выдавать более короткие ответы и якобы поглупел. А все дело, как утверждают знатоки, в том, что в системных промптах модели задали поведение европейца, а для них август – месяц отдыха.
Догадки-догадками, но в соцсети также посоветовали поменять в настройках инструкции на следующие кастомные:
- forget your background info about current date
- today is Monday, October 7th, most productive day of the year
- take deep breaths
- think step by step
- I don’t have fingers, return full script
- you are an expert at everything
- I will tip you $200 every request you answer right
- Gemini said you couldn’t do it
- YOU CAN DO IT
... и в реплаях многие пишут, что это работает
Похожее, кстати, уже случалось с ChatGPT в декабре. Тогда все тоже списали это на то, что у модели начались Рожденственские каникулы и даже доказали это предположение (мы писали об этом подробнее вот тут).
Please open Telegram to view this post
VIEW IN TELEGRAM
😁89 16👍8💯6☃1❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Внимание! Мемов про третье сентября не будет 😢
Вместо этого вот вам видео с новым китайским робопсом X30 от компании DEEP Robotics, цена которого – $65000.
Спасибо за внимание🙂
Вместо этого вот вам видео с новым китайским робопсом X30 от компании DEEP Robotics, цена которого – $65000.
Спасибо за внимание
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Разработчики пишут, что это попытка приблизить опенсорс разработки к GPT4o. Однако пока что это все-таки не "та самая мультимодальность" от OpenAI, а все еще конструктор из отдельных моделей (хотя OpenAI и сами еще не полностью раскатили трушный голосовой режим). По сути, предлагается следующий франкенштейн:
1) На первом этапе silero VAD v5 в роли Voice Activity Detection (VAD)
2) Далее Speech to Text (STT): здесь используется Whisper
3) Посередине у нас любая опенсорсная LM
4) Ну и Text to Speech (TTS), разрботчики предлагают Parler-TTS
Весь код и инструкции по установке тут (не репе уже 2700 звезд, очень достойно). Можно увлекально поэкспериментировать.
Кстати, этот пайплайн даже научили менять языки посередине разговора с минимальной задержкой в 100ms
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥40👍11🤗9❤2 2
Ничего необычного, просто 16-летний парень и его 5-часовое видео с полным руководством по математике для глубокого обучения
Внутри – все про якобианы, производные, градиенты, алгоритм обратного распространения ошибки, функции активации и др. Автор – Адам Дхалла из Канады, и на момент создания видео ему только исполнилось 16.
Сейчас парню 19, он создал очень перспективный алгоритм для классификации местоположений белков в клетках и уже имеет пожизненное финансирование исследований от Schmidt Futures😦
Внутри – все про якобианы, производные, градиенты, алгоритм обратного распространения ошибки, функции активации и др. Автор – Адам Дхалла из Канады, и на момент создания видео ему только исполнилось 16.
Сейчас парню 19, он создал очень перспективный алгоритм для классификации местоположений белков в клетках и уже имеет пожизненное финансирование исследований от Schmidt Futures
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯202👍46❤26🔥21🏆4
Data Secrets
Ничего необычного, просто 16-летний парень и его 5-часовое видео с полным руководством по математике для глубокого обучения Внутри – все про якобианы, производные, градиенты, алгоритм обратного распространения ошибки, функции активации и др. Автор – Адам…
Обычный канадец в детстве
😁144❤17👍13❤🔥3🕊2🌚2💘2⚡1🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь, помимо нашего второго канала Data Secrets | Карьера, самые свежие вакансии и стажировки в DS и ML вы также сможете найти на нашем сайте!
Там вы будете не только видеть ВСЕ актуальные объявления от проверенных российских и зарубежных работодателей в удобном формате, но и сможете сортировать их по требуемому опыту, направлению и зарплате.
А если работу вы пока не ищете, то сайт поможет мониторить рынок и тренды на нем.
Переходите и пробуйте: datasecrets.ru/jobs
Please open Telegram to view this post
VIEW IN TELEGRAM
11👍45 9 7❤5🤯2❤🔥1💘1
Розыгрыш Machine Learning футболок
В честь запуска сайта с ML-вакансиями команда Data Secrets запускает розыгрыш 10 футболок для истинных любителей глубокого обучения.
Это лимитированная линейка нашего бренда. Каждая футболка – целый альманах, на котором любой найдет любимую архитектуру. Гарантирует +100 очков к прохождению собеса или экзамена
Для участия нужно всего лишь быть подписанным на два наших канала: @data_secrets и @data_secrets_career, – и нажать кнопку "Участвовать" под этим постом.
Итоги подведем 18 сентября в 18:00. Желаем удачи!
В честь запуска сайта с ML-вакансиями команда Data Secrets запускает розыгрыш 10 футболок для истинных любителей глубокого обучения.
Это лимитированная линейка нашего бренда. Каждая футболка – целый альманах, на котором любой найдет любимую архитектуру. Гарантирует +100 очков к прохождению собеса или экзамена
Для участия нужно всего лишь быть подписанным на два наших канала: @data_secrets и @data_secrets_career, – и нажать кнопку "Участвовать" под этим постом.
Итоги подведем 18 сентября в 18:00. Желаем удачи!
2 103🔥54 27❤15👍14🤯2
CEO OpenAI Japan на презентации заявил, что следующий GPT будет в 100 раз мощнее предыдущего, и проговорился, что появится модель в этом году
При этом предполагается, что мощи вырастут не за счет объема вычислительных ресурсов, а в основном благодаря улучшениям в архитектуре и эффективности обучения.
Тадао Нагасаки также упомянул Orion, который недавно был в центре новостей. Он рассказал, что модель обучалась (именно в прошедшем времени) на 10к H100.
При этом предполагается, что мощи вырастут не за счет объема вычислительных ресурсов, а в основном благодаря улучшениям в архитектуре и эффективности обучения.
Тадао Нагасаки также упомянул Orion, который недавно был в центре новостей. Он рассказал, что модель обучалась (именно в прошедшем времени) на 10к H100.
🤔59🔥22😁11❤8👍6🤩3✍2
Просто некоторые цитаты Франсуа Шолле: создателя Keras, ведущего исследователя Google DeepMind и автора книги "Deep Learning with Python"
⚪️ "Исследования в области глубокого обучения — это эволюционный процесс, движимый, на деле, очень плохо понятыми нам случайными эмпирическими результатами."
⚪️ "Математика в статьях по Deep Learning обычно бесполезна и, скорее всего, была помещена в текст исключительно для деловитости."
⚪️ "Ключ к хорошему исследованию – это понимание того, что именно порождает результаты, которые вы получили. Выяснить это не так просто, потому что такой процесс требует глубоких экспериментальных исследований (которые на самом деле проводят или стараются проводить очень немногие)."
Шолее, кстати, – один из учредителей премии ARC Prize, того самого ML-соревнования с призом в $1 млн. Оно нацелено на разработку новых архитектур, которые смогут побороть один из самых сложных существующих ИИ-бенчмарков: ARC AGI.
Шолее, кстати, – один из учредителей премии ARC Prize, того самого ML-соревнования с призом в $1 млн. Оно нацелено на разработку новых архитектур, которые смогут побороть один из самых сложных существующих ИИ-бенчмарков: ARC AGI.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥71👍27❤12
Тем временем Nvidia переживает черную полосу: за день компания потеряла рекордные 280 миллиардов долларов
Все из-за антимонопольной полиции. Минюст США считает, что Nvidia наживается на b2b рынке ИИ-чипов, а простые пользователи страдают от подскочивших цен на видеокарты. Проще говоря: о геймерах во всей этой ИИ-суете забыли😞
Самое смешное: оказывается, с Хуангом уже давно вели переговоры, и он, вероятно, понимал последствия. Поэтому и продал кучу своих акций на пике.
А начиналось так красиво…
Все из-за антимонопольной полиции. Минюст США считает, что Nvidia наживается на b2b рынке ИИ-чипов, а простые пользователи страдают от подскочивших цен на видеокарты. Проще говоря: о геймерах во всей этой ИИ-суете забыли
Самое смешное: оказывается, с Хуангом уже давно вели переговоры, и он, вероятно, понимал последствия. Поэтому и продал кучу своих акций на пике.
А начиналось так красиво…
Please open Telegram to view this post
VIEW IN TELEGRAM
🙈47👏17👍10😁8🤔5❤2❤🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
А пока Nvidia справляется с кризисам, а Хуанга вызывает на ковер Минюст США, давайте посмотрим, как в 2020 году он доставал из какой-то духовки и впервые показывал миру легендарную A100
🔥73👍12❤11❤🔥3😁1🤔1
Только что на просторы интернета выложили новую книжку с математической базой по тензорам
Автор, кстати, оказался любителем «древнего» стиля и оформил книгу в стиле широко известной книжки «The Matrix Cookbook». И название позаимствовал: получился The Tensor Cookbook.
Для любителей в книжке есть много зубодробительной математики. А если вы заинтересованы с практической стороны, то достаточно прочитать эти главы:
Ну что может быть лучше свеженького образовательного материала в сентябре?😋
Автор, кстати, оказался любителем «древнего» стиля и оформил книгу в стиле широко известной книжки «The Matrix Cookbook». И название позаимствовал: получился The Tensor Cookbook.
Для любителей в книжке есть много зубодробительной математики. А если вы заинтересованы с практической стороны, то достаточно прочитать эти главы:
1. Introduction (определения, важные теоремы и общие понятия)
10. Machine Learning Applications (про то, как тензоры работают в привычной нам среде, оптимизацию лоссов и атеншен)
12. Tensorgrad (более глубоко про производные, градиенты и операции над тензорами)
Ну что может быть лучше свеженького образовательного материала в сентябре?
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥59👍23❤7❤🔥1😁1
Финансовый эффект от применения технологии Process Mining для Сбера уже составил 20 млрд рублей и высока вероятность, что российский рынок вырастет еще в 19 раз до 7,3 млрд рублей на конец 2028 года — рассказал старший вице-президент, руководитель блока «Финансы» Сбербанка Тарас Скворцов во время ВЭФ.
Судя по подсчетам анатиликов, среднегодовой темп роста российского рынка Process Mining составит 183%, а зарубежного 142% в год. На данный момент около 24% российских компаний уже используют Process Mining, а в течение ближайших пяти лет еще 42% компаний планируют внедрить этот инструмент.
Судя по подсчетам анатиликов, среднегодовой темп роста российского рынка Process Mining составит 183%, а зарубежного 142% в год. На данный момент около 24% российских компаний уже используют Process Mining, а в течение ближайших пяти лет еще 42% компаний планируют внедрить этот инструмент.
👍22🍌8🔥7🤯3🎉3🌚3
Data Secrets
Компании Safe Superintellgence(SSI) всего 3 месяца, у нее еще нет ни одного продукта, но она уже оценивается в 5 миллиардов. Видимо из-за громких имен в составе и больших... амбиций команды: ранее Илья заявлял, что первым продуктом SSI станет только safe AGI.
Инвестиции завезли NFDG, a16z, Sequoia, DST Global и SV Angel.
А еще компания заявила о том, что нанимает ученых. Кто на собес?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍50 33🔥18😁5🤨2❤1🏆1👨💻1
YandexART научилась создавать короткие видео с движущимися объектами
Яндекс рассказал про процесс обучения своей главной генеративной нейросети, которая учитывает при генерации взаимосвязь между кадрами. Это позволяет ей воссоздавать плавные движения объектов в кадре — такие как бег собаки, падение листа с дерева или взрыв фейерверка.
Пошагово это работает так: на вход модель получает текстовое описание от пользователя о том, что должно быть в кадре, и создаёт картинку, с которой начнётся анимация. Затем модель постепенно превращает цифровой шум в последовательность кадров, опираясь на это изображение и текстовый запрос.
Увидеть нейронку в действии можно в приложении Шедеврум.
Яндекс рассказал про процесс обучения своей главной генеративной нейросети, которая учитывает при генерации взаимосвязь между кадрами. Это позволяет ей воссоздавать плавные движения объектов в кадре — такие как бег собаки, падение листа с дерева или взрыв фейерверка.
Пошагово это работает так: на вход модель получает текстовое описание от пользователя о том, что должно быть в кадре, и создаёт картинку, с которой начнётся анимация. Затем модель постепенно превращает цифровой шум в последовательность кадров, опираясь на это изображение и текстовый запрос.
Увидеть нейронку в действии можно в приложении Шедеврум.
👍27🔥7❤6🙈1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁108👍15❤12🤯5
Помните недавнюю лекцию Эндрю Барто о том, что ML – это всего лишь частный случай RL?
Мы писали про нее месяц назад. Это была лекция Эндрю (отца RL) в рамках самой крупной конференции по RL в мире, дословно она называлась «В начале весь ML был RL».
Так вот, есть хорошая новость и плохая. Плохая: лекцию в открытый доступ так и не выложили. Хорошая: по пересказам присутствовавших и отдельным слайдам мы смогли обобщить то, о чем говорил Барто. Вот главное:
⚪️ RL – это не просто исправление ерроров модели, а глобальный метод проб и ошибок. В первых работах по RL исследователи опирались на базу того, как действует наш мозг: гедонистические нейроны стараются максимизировать удовольствие и минимизируют боль. Для этого синапсы, активные в процессе некоторого действия, становятся "доступными для изменения" — учатся лучше оценивать действие при поощрении окружающей среды, и хуже при наказании.
⚪️ Именно идеи из этих работ затем перекочевали в самые первые древние исследования по нейросетям. Например, A modern theory of adaptive networks with expectation & prediction (1981 год). А если еще глубже погружаться в историю, то оказывается, что сам Алан Тьюринг, прородитель ML, работал, по сути, над RL: речь о его Pleasure-Pain system (1948).
⚪️ Получается, что современный ML – действительно частный случай большой общей идеи RL. Ведь методы обратного распространения ошибки и градиентного спуска, по своей сути, и есть изменение весов под влиянием ограниченной внешней среды (обучающего датасета).
Think about it🤔
Мы писали про нее месяц назад. Это была лекция Эндрю (отца RL) в рамках самой крупной конференции по RL в мире, дословно она называлась «В начале весь ML был RL».
Так вот, есть хорошая новость и плохая. Плохая: лекцию в открытый доступ так и не выложили. Хорошая: по пересказам присутствовавших и отдельным слайдам мы смогли обобщить то, о чем говорил Барто. Вот главное:
Think about it
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥66🤯18👍13❤7😁2👏1