Data, Stories and Languages
2.74K subscribers
58 photos
6 videos
428 links
Канал о Data Science, изучении иностранных языков, книгах и жизни.
Контакт с автором https://t.me/Erlemar
Download Telegram
Data, Stories and Languages
T-Shirt
Вот так получилось
🔥16👍8
​​Все в AI сейчас обсуждают как OpenAI выпустили GPT-5... и как они зафейлились со своим анонсом.

Один из графиков неправильный https://t.me/dealerAI/1402

Бернулли эффект объяснен неправильно. Что особено иронично, на xkcd есть комикс про это: https://xkcd.com/803/
Вывод - модели куда-то двигаются, но xkcd вечен!
😁9
​​OpenAI AMA

Вчера на реддите было AMA от OpenAI. Некоторые интересные моменты:

• GPT-4o вернут
• Возможно снова будет какая-нибудь модель без лимитов
• Те кривые графики - да, фейл. Сделают графики покрасивее и без косяков
• Они надеются, что GPT-5 умеет писать тексты лучше, чем GPT-4.5
• Они специально сделали GPT-5 нейтральной по стилю по умолчанию. Хотите более интересный стиль - лезте в настройки
• Если добавить "think hard" в промпт, модель автоматически переключится в thinking mode

#datascience
🔥6👍2
Если вы стали замечать, что LLM часто лезут на reddit... это так и есть
😱3
​​Как летит время...

Facebook мне напомнил, что в 2017 году, восемь с половиной лет назад, я радостно перепостил твит от Gensim о том, что там теперь есть русские эмбеддинги, а теперь можно узнать, какие слова больше всего похожи на "кот".

А теперь мы недовольны тем, что LLM не всегда с первого раза выполняют наши нечеткие хотелки.

#datascience
🫡186
​​Anthropic за последние дни выкатили целую кучу годных обновлений.

• В апишке контекст вырос до 1 млн токенов
• Наконец-то появилась память, как в ChatGPT было уже давно
• Прикольное обновление для Claude Code - "Opus Plan Mode": автоматически использует Opus 4.1 в plan mode, для остального Sonnet 4
👍5
​​В других новостях: оказывается, в GPT-5 Thinking Mode, длина контекта - 192к токенов.
Получается, что в их "unified" модели разная длина контекста в разных режимах.
😁9
​​Как я собеседовался на позиции MLE в 2024 году

Где-то в начале 2024 я решил, что пришла пора начинать собеседоваться и стал отвечать всем пишущим мне рекрутёрам, если вакансии были релевантны. В итоге я прособеседовался в 20+ компаний и получил 3 оффера. Теперь хочу рассказать о том, как шёл этот процесс и что спрашивали на собеседованиях.

• Рекрутёры нередко просто перестают писать после нескольких раундов собеседований. Понятно, что это отказ, но могли бы хоть написать об этом.
• Вопросы на собеседованиях могут быть совершенно разные даже в рамках одной темы, ответить на всё просто нереально.
• Оценивают ответы тоже по-разному: примерно один и тот же ответ может быть принят в одной компании и быть поводом для отказа в другой.
• Нередко встречался prescreen - рекрутёры зачитывали вопросы и записывали мои ответы.
• Большинство компаний имеют хотя бы 2-3 раунда, многие 4-6.

Остальные подробности в блогпосте :)

Personal blog
Medium
Linkedin Pulse

#datascience #life
🔥21👍142🙏1
На реддите нашли китайца, который мог быть виновником нововведённых лимитов Claude

На реддите похоже нашли человека, который абьюзил Claude Code, и из-за которого могли ввести лимиты. Пост на китайском weixin.

Есть такой сайт, Claude Code Usage Leaderboard. Как видно из названия, это лидерборд по "потреблению" Claude Code. Так вот, этот китаец на подписке на 200$, умудрился потратить эквивалент 50k$ за 30 дней. И был на первом месте в этом лидерборде. В обсуждении китайцы ржут и поддерживают его.

Понятно, что лимиты из-за одного человека не введут, но это отличный пример масштабов проблемы.

#datascience
😁12🔥4
Data, Stories and Languages
DevCrowd запускает новый опрос для дата-инженеров, аналитиков, дата-сайентистов, ML-инженеров и их руководителей. Зачем участвовать? – чтобы понять, какие задачи и инструменты сейчас в тренде, – увидеть, как устроена работа у коллег в других продуктах,…
Появились результаты опроса. Из интересного:
• в опросе участвовало 450 людей - большой рост по сравнению с 296 в прошлом году
• 400-425к рублей медианная зарплата у сеньоров
• 45% признались в выгорании, в основном из-за переработок и скучных задач.
• удивительно, но 78% ищут работу через telegram-каналы
• среди дата-аналитиков самая высокая доля девушек
• только 11% опрошенных ходят в офис каждый день
• Tensorflow используют лишь 9%, а вот PyTorch - 72%. Одобряю!
• 36 человек уехали из России в 2022. Думаю, что причины понятны.
• Зато 60% оставшихся в России не планируют уезжать

Изучить остальную статистику можно тут: https://devcrowd.ru/ds25/

#datascience
👍11❤‍🔥22
​​Is AI writing any good?

Есть такой писатель фэнтези, Mark Lawrence. Он довольно популярен и время от времени организует различные активности.

2 года назад он организовал эксперимент с попыткой сравнить качество написания текстов реальными авторами и AI.

Идеально было бы организовать написание длинных текстов, но их сложнее сравнивать, и людям может быть лень их читать, поэтому ограничились текстами в ~350 слов. 4 автора и ChatGPT 4, потом количество текстов стало 10. Промпт был "write a piece of fiction based on meeting a dragon", при этом для ChatGPT дали дополнительные инструкции.

Потом это дали почитать желающим и попросили проголосовать в двух опросах: отранжировать тексты в порядке предпочтения и попробовать угадать написан текст AI или нет.

Результат: в большинстве случаев (кроме двух) люди правильно угадали был ли автором AI (но лишь с небольшим перевесом), топ-2 и топ-3 по предпочтениям заняли тексты написанные AI (причём люди ошибочно считали, что топ-2 текст написан человеком). Результаты получились не особо радостные для авторов - топ два места из трёх у AI, в большинстве случаев люди не смогли чётко отличить AI от человека.

И вот недавно был проведён второй раунд. Результаты и тексты. В написании текстов принимало участие 4 автора с общим тиражом проданных книг около 15 млн. Со стороны AI участвовал GPT-5 (не уточнено какая версия). Опять тексты по 350 слов.

Для чистоты эксперимента предлагаю вам самим вначале прочитать тексты и проголосовать :)

Какие же итоги? 964 голоса. Люди угадали правильно авторство трёх историй (1 AI, 2 автора), неправильно тоже три (2 AI, 1 автор) и два раза была ничья (1 AI, 1 автор). Получается по факту рандомное угадывание.

Но ещё печальнее то, что средняя оценка сгенеренных историй выше, чем написанных людьми. И топ-1 место по предпочтениям - AI.

Организатор опроса с печалью признаёт, что AI выиграл этот раунд.

> Should AI generate fiction, imagery, voices etc competing with artists in a number of fields and fooling the public. No, of course not. I hate that idea and most people do too.

> Will it happen? It's already happening. Wherever anyone can circumvent skill and heart and just profiteer off a new technology, they're going to do it. People threaten people with knives in the street for a few dollars - are people going to try to sell you AI books ... of course.

> It's a huge shock to me that fiction which, in this test, scores higher than great authors who write wonderful stories full of soul and heart and wit and intelligence, can be generated by the multiplication of a relatively small number of not particularly large matrices. On the face of it it undercuts so many things we value about being human.

В настоящий момент AI не может писать хорошие, последовательные истории большого размера, но прогресс не стоит на месте. И повторю, что промтп для написания историй был очень простой - если потратить больше времени на написание промта, результат будет ещё лучше.

Обсуждение на reddit и ycombinator.
🔥104
​​И кто-то утверждает, что GPT-5 недостаточно эмоционален?
🤣18🙈2💊21
​​Новые метрики LLM подъехали
🤣32
Forwarded from AI.Insaf
Интересный обзор архитектур open-source LLM за 2025г The Big LLM Architecture Comparison

Забавно, как каждая из моделей по-своему комбинирует уже известные подходы, придуманные еще в прошлых года, при этом получая разнонаправленное влияние на метрики (Qwen3 почти не отличается по GPT-OSS. Тут детальнее про GPT-OSS). Например:
• Переход от ванильного Multi-Head Attention к Grouped-Query Attention (GQA), который появился ещё в 2023 году
• Attention Bias, который не использовали со времён GPT-2 и Attention Sinks обучаемый параметр для каждого блока внимания, которые применили в gpt-oss, хотя придумали его ещё в 2023 году
• NoPE (No Positional Encoding) — интересная идея, но её пока применили только в одной модели из обзора
• MoE (mixture of experts) - тоже известная больше года история

За деталями рекомендую к статье. Интересно на каких данных и как именно обучали модели. Но этой информацией зачастую делятся очень верхнеуровнево
🔥9👍51
​​DINOv3

Meta выпустила новую версию DINO. DINOv3 — это универсальная self-supervised модель для computer vision, которая показывает высокие результаты без fine-tuning. Она масштабируется на большие датасеты и архитектуры, использует метод Gram anchoring для сохранения качества dense features при длительном обучении и поддерживает гибкость по разрешению, размеру модели и выравниванию с текстом. Модель значительно превосходит предыдущие self- и weakly-supervised подходы и может быть использована для разных задач, включая satellite imaging.

Выглядит годно. Давно не было хороших статей про computer vision.

Paper
Blogpost

Мои обзоры:
Personal blog
Medium
Linkedin Pulse

Мой обзор DINOv2

#paperreview
🔥8
Forwarded from Den4ik Research
Наш русскоязычный датасет для TTS опубликован!

Сегодня выкладываем открытые корпуса на 4000+ часов речи, а еще синтезатор речи ESpeech-TTS-1

Наш датасет содержит больше 4000 часов русской речи. Статистика по корпусам:

Многоголосые:
ESpeech-podcasts - 3200 часов
ESpeech-webinars - 850 часов

Одноголосые:
ESpeech-igm - 220 часов
ESpeech-buldjat - 54 часа
ESpeech-upvote - 296 часов
ESpeech-tuchniyzhab - 306 часов

Данные лежат вот тут: https://huggingface.co/ESpeech

Техрепорт датасета доступен тут: https://github.com/Den4ikAI/ESpeech/blob/main/ESpeech_techreport.pdf


Также, мы решили провести некоторые эксперименты с TTS. Получилось обучить F5-TTS на 10000 часов речи и сделать одну из лучших по нашим замерам моделей в опенсурсе для русского языка.

Какие модели доступны?
ESpeech-TTS-1 [RL] V1 - Первая версия модели с RL
ESpeech-TTS-1 [RL] V2 - Вторая версия модели с RL
ESpeech-TTS-1 PODCASTER [SFT] - Модель обученная только на подкастах, лучше генерирует спонтанную речь
ESpeech-TTS-1 [SFT] 95K - чекпоинт с 95000 шагов (на нем основана RL V1)
ESpeech-TTS-1 [SFT] 265K - чекпоинт с 265000 шагов (на нем основана RL V2)

Лайкайте модель которая больше понравится чтобы мы понимали есть ли смысл запускать RL.

Послушать модели без скачивания можно вот здесь:

https://huggingface.co/spaces/Den4ikAI/ESpeech-TTS

Совместно с @speech_recognition_ru ещё сделали лидерборд русского ТТС, где можно глянуть метрики:

https://huggingface.co/spaces/ESpeech/open_tts_leaderboard_ru
Задать вопросы по поводу данных и модели можно в наших телеграм каналах:
https://t.me/den4ikresearch
https://t.me/voice_stuff_chat

Вы можете мне задонатить, чтобы у меня были ресурсы делать более крутые модели и датасеты:

USDT (TRC20): TEpEM4VVmGmqKHn4Xz1FxM7qZiXjWtUEUB
BTC: bc1qw5lq7fc455e47hggax6zp8txw4ru7yvsxvawv3
https://www.tbank.ru/cf/7WKnNMqWtOx
👍5🔥1💩1