Интересное что-то
517 subscribers
2.72K photos
253 videos
139 files
4.52K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.me/asisakov_channel
Чат: https://t.me/youknowds_chat
Download Telegram
Привет всем!👋
В работе, при сборе данных для скоринга, часто приходится смотреть на хиты различных источников, дабы убедиться, что сбор данных выполнен корректно, нет систематических ошибок и тд.

Для этого очень помогает библиотека missingno.

Самый быстрый и эффективный способ проверить заполненность визуализировать ее через матрицу пропусков.
Для этого ваш набор данных надо подать на вход функции .matrix().

Например:
import missingno
import pandas as pd

df = pd.read_csv("your_file.csv")
missingno.matrix(df)


Кроме того, библиотека имеет еще пару интересных методов:
▪️Метод .bar()
По сути, это просто гистограмма заполненности по признакам в наборе данных.
▪️Метод .heatmap()
Метод показывает насколько взаимосвязаны пропуски признаков между собой.
Метод эквивалентен
import numpy as np

# df is a pandas.DataFrame instance
df = df.iloc[:, [i for i, n in enumerate(np.var(df.isnull(), axis='rows')) if n > 0]]
corr_mat = df.isnull().corr()

▪️Метод .dendogram()
Используя иерархический метод кластеризации из библиотеки scipy, метод показывает зависимости между заполненностью признаков, т.е если один признак заполнен, то зависимый почти всегда заполнен, либо наоборот всегда с пропусками.
from scipy.cluster import hierarchy
import numpy as np

# df is a pandas.DataFrame instance
x = np.transpose(df.isnull().astype(int).values)
z = hierarchy.linkage(x, method)


Таким образом, библиотека становится отличным инструментом проверки заполненности данных, например во времени, что актуально в моей работе, анализа взаимосвязей заполненности данных.

По традиции, 🔥, если понравилось.
#ds_лайфхаки
Please open Telegram to view this post
VIEW IN TELEGRAM
Кто везет, на том и едут

Прочитал на днях в канале Егора Толстого пересказ статьи про то, что вынуждает увольняться топ-перформеров. Пост и ссылка на оригинал тут https://t.me/leadgr/1866.

Там есть пара пунктов: «добавление новых задач без отказа от старых» и «скидывание части задач с себя на этого работника». Вот это и хочется сегодня обсудить.

Бывает ли такое?
Ну, казалось бы, если человек уже загружен, то станут ли ему пихать невпихуемое? Где же рациональный подход, все эти менеджерские разговоры про баланс, мотивацию, вред и неэффективность стопроцентной загрузки?

Да, станут. Я видел такое неоднократно у управленцев разных уровней и компетенций. Видел, как управленцы пихают во всё больше грустнеющих людей, а потом в какой-то момент наступает удивление или даже недовольство: «А чего это сделано всё не с отличным качеством?», «А чего это у работника отстраненность, апатия и полное отсутствие инициативы в работе?».

Почему так происходит?
Самый простой вариант — ленивый руководитель. Просто на других всё переваливает, а сам чилит. Такое я встречал на удивление редко, но всё же могу припомнить пару-тройку прям вопиющих случаев.

Следующий вариант — бестолковый руководитель. Он просто не понимает, что нельзя нагружать бесконечно одного нормально работающего сотрудника, пока другие делают мало и на отвали (возможно, специально, ведь они видят пример того, кто делал хорошо). Такое также встречал в своей практике, но тоже редко.

Самый частый вариант, который мне попадался, — вполне сознательный руководитель, но задолбанный сверху таким же отношением. Он настолько погряз во всей суете дел, неконтролируемо наваленных на него, что сам уже перестает соображать и просто лихорадочно рассовывает часть своих продалбывающихся дел в других, кто адекват и не продолбает.

А сам топ-перформер же тоже виноват?
Минутка виктимблейминга :)
В какой-то мере да. Каждый сам кузнец своего счастья и сам несет ответственность за свою жизнь и работу, хочет он того или нет. Поэтому а) он мог бы сопротивляться и отказываться, б) соглашаясь, он потворствует повторению подобного поведения со стороны напихивающего задачи.

Что же делать?
Я продолжаю утверждать, что перегруз — это зло, которое не только разрушительно влияет на наше здоровье, но и заставляет деградировать качество наших управленческих решений. Я думаю, менее перегруженный среднестатистический руководитель мог бы три раза успеть подумать, а не слишком ли он кого-то из своих ребят перегружает.

Проблема тут в том, что с перегрузом надо бороться сразу на всех уровнях. Принимающий задачи и приунывающий от объема топ-перформер, его руководитель, и так по цепочке вверх. На всё это ещё накладывается экономическая обстановка, где надо делать больше, а тратить меньше. И получается, что никакого простого выхода нет.

Но можно попробовать в сложных случаях максимально отсекать всякие хотелки-свистелки и сосредоточиться только на том, что нужно а) обязательно, б) уже в скором времени. А когда погаснет пожар перегруза, то можно уже и на перспективу дальше смотреть.

Отдельный привет передаю тем, кто ждет от перегруженных людей стратегических решений и видения прекрасного будущего на годы вперед (это звучит несколько нелогично, но некогда думать о логике, вы же понимаете).

Итог
Если вы руководитель, то постарайтесь понять, не перегружаете и демотивируете ли вы кого-то нормально работающего просто потому, что других работников недоучили?
А если вы перегружаемый, то подумайте, насколько вам это вообще нужно. Чего ради эти подвиги? Мой папа говорил, что за подобные трудовые успехи награждают «орденом Сутулого».
Нет более верного способа испортить себе дела на работе, чем говорить "да" на каждую влетающую вам просьбу. Ну например:
- Можешь плиз посмотреть задачку быстренько? Там недолго, но мне прям очень надо, завтра релиз!
- Добавь пожалуйста в API вот эту ручку, мне для задачи не хватает, а взять ее могут только в следующем спринте, не могу ждать.

Ну и так далее. Знакомо? Соглашались? Тогда читайте дальше.

🦁 Зачем мы соглашаемся?
Очень просто: мы — социальные животные, и мы очень хотим быть в хороших отношениях с социумом вокруг нас. Это эволюционный механизм: люди, которые портили с социумом отношения, в большинстве своем не выжили и свои гены дальше не передали. Причин тому много: и саблезубые тигры, и различные виды мамонта.

Например, если неудачливый охотник-собиратель сломает себе на охоте ногу, его выживание целиком зависит от того, насколько к нему расположено племя. Если человек постоянно отказывался помочь коллегам по родо-племенному строю, вряд ли его будут подкармливать.

Поэтому наше подсознание говорим нам: соглашайся, сделай коллеге доброе дело, и тогда он сделает доброе дело тебе. Ситуация вин-вин! Тогда, в случае чего, с тобой поделятся мамонтом и ты не помрешь. Это называется "реципрокность" — наша склонность отвечать хорошим на хорошее.

А где здесь проблема?
Вот где: наше время в сутках жестко ограничено: 24 часа, из которых на работу желательно тратить часов 10-12 максимум. Многие скажут, что лучше даже поменьше. Время — невосполняемый ресурс, которым вы должны распоряжаться ответственно и инвестировать его только в важные и нужные дела.

Проблема в том, что каждое "да" отъедает кусок вашего рабочего времени. Плюс у вас есть свои рабочие задачи, в которые тоже нужно инвестировать время.

И самое главное: по ощущениям сказать "да" и согласится инвестировать время не стоит нам ни копейки времени! Ведь когда мы говорим да, мы не платим своим временем сразу. Мы выдаем сами себе кредит, который придется гасить чуть-чуть попозже, когда придет время реально выполнять работу.

Поэтому мы и говорим "да": в моменте нам это ничего не стоит, но дает ощущение, что социум нам если что подкинет кусок мамонта, если станет туго.

◀️ Обратный эффект
Рано или поздно человек, который на все говорит "да", влезает в долги: инвестирует больше времени, чем у него есть. А потом приходит время платить по этому кредиту, но выясняется, что платить нечем: мы помним, что время в сутках конечно.

Поэтому часть просьб либо отклоняется, либо делается тяп-ляп, по принципу "лишь бы отстали". Оба варианта очень плохи: человек рассчитывает на вас, строит свои планы исходя из того, что вы выполните его просьбу в срок. Вместо этого, он получает либо плохой результат, либо не получает его вообще.

В результате, вместо повышения социального одобрения и образа отзывчивого человека, мы получаем разочарованного коллегу, который вряд ли поделился бы с нами куском мамонта. Это и есть обратный эффект "да".

Самое интересное: если бы мы просто сказали "нет", эффект был бы гораздо позитивнее. Возможно, в моменте, коллега бы немного на нас подулся, но в целом — вряд ли вспомнил бы про этот отказ через пару дней. В конце-концов, отказы это просто часть нашей жизни и мы не заносим их в свою книгу обид. Правда же?

‼️ Что делать?
Не нужно отказывать всем во всех просьбах — тогда работа встанет во всей компании. Помогать коллегам важно и нужно, но внимательно рассчитывайте свою способность платить по тому кредиту, который создаст данное вами согласие. Тогда все получится как надо: вы и работе компании поможете, и вам не откажут в вашей просьбе спустя время.

А вы попадали в ситуации, где набрали слишком много кредитов на свое время? Поделитесь своей историей в комментариях! 🙂
Forwarded from 📆 Прыжок Веры (Vera Bazhenova | GMT+3)
ИИ ДЛЯ БЛОГЕРОВ


рассказала ИИ, чего хочу от блогов — и получила довольно крепкую аналитику, дорожную карту и кучу идей. и с вами делюсь, вдруг полезно будет?)

_ _ _ _ _

▶️Анализируем лучшие посты

step 1: вгружаем в AI контекст.
Для этого идем в tgstat, подключаем премиум, выгружаем топ публикаций по месяцам, объединяем в один экселевский файлик.

step 2: не все ИИ умеют ходить в телегу, поэтому им оч сложно понять “что ты такого великого пишешь”. выгрузка tgstat содержит полные тексты постов, постоянные ссылки на посты и все конверсии. теперь у ИИ есть информация про весь твой блог.

step 3: убеждаемся, что ИИ понял, что перед ним, уточняем — что за данные и как с ними можно работать?

step 4: ставим задачи. например: определи, что общего у ТОП-10 публикаций по репостам? определи, в какое время лучше постить (спойлер, ТОП-20 публикаций даже никак не коррелируют со временем, датой, погодой за окном) а можно даже попросить написать текст рекламного поста на 3-4 предложения в стиле твоего блога.

_ _ _ _ _

▶️Придумываем стратегию развития

пишем “слушай, я хочу за Х месяцев достичь в блоге ХХ результата. нарисуй мне короткую ёмкую дорожную карту. ты можешь задавать мне дополнительные вопросы, не более 1 вопроса за раз, и не более 10 вопросов до того как ты предложишь дорожную карту”.

вот тут начинается крутость ИИ, потому что он работает как самый базовый коуч — задает прямые вопросы. сколько времени ты готова уделять блогу? у тебя есть бюджет на продвижение? на какие темы ты хочешь писать? как ты планируешь монетизироваться? какие навыки тебе уже помогают вести блог? а где у тебя просадка?

_ _ _ _ _

▶️Не забываем о главном

p.s. а разбавить хочу такой мыслью, уже не от продуктивного ИИ, а от продуктивного Рика Рубина:

цель работы — сначала пробудить что-то в вас, а потом в других. пусть не одно и то же. мы можем лишь надеяться, что и на зрителя заряд воздействует с неменьшей силой

😀 в общем, ведение блога, с любой аналитикой и коучингом, без энергии автора и без его драйва — полная фигня.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Sinекура
Выложили мой доклад про AI Safety, который был в CS Space в воскресенье. Спасибо организаторам, что не прерывали, я, конечно, многие части прошёл в ускоренном темпе, но прошёл все, а видео в итоге получилось на 4 часа 12 минут чистого времени.

https://www.youtube.com/watch?v=PkYDScQg5PU&ab_channel=ComputerScienceSpace

Цель была в том, чтобы рассказать не только о том, почему AGI имеет все шансы уничтожить человечество, но и по существу о том, как человечество пытается сделать так, чтобы эти шансы не реализовались.

По порядку в докладе:
— введение, Хинтон и Бенджи беспокоятся
— таймлайны, slow vs. fast takeoff
— mundane risks: как LLM можно использовать в неблаговидных целях
— возможные экономические трансформации
— история AI safety от Чапека и Тьюринга
— аргументы об экзистенциальном риске
— разбор стандартных возражений
— основные определения: emergence, mesa-optimization, alignment, corrigibility
— пример конкретного направления: подхалимство (sycophancy) и как его уменьшить
— интроспекция / situational awareness: понимают ли модели свою ситуацию
— goodharting (закон Гудхарта), его частные случаи и яркие примеры reward hacking
— механистическая интерпретируемость: схемы, поиск признаков автокодировщиками
— sparks of misalignment (примеры): sleeper agents, alignment faking, emergent misalignment...
— заключение: что сейчас делают государства, учёные и компании, как LLM-агенты играют в википедию

Это было нелегко, потому что это был на 80% новый доклад с новыми слайдами и новыми идеями, которые я слышал раньше, конечно, но никогда сам не рассказывал. Пара накладок действительно случилась, но в основном, кажется, справился и результатом доволен.

А если вы хотите услышать одну cool story из доклада, отправляйтесь на таймкод 3:48:20 и послушайте буквально 5-7 минут про emergent misalignment. Эта работа вышла месяц назад (Betley et al., Feb 24, 2025), и это просто офигенно; не буду спойлерить, посмотрите сами.
Forwarded from Neural Kovalskii
This media is not supported in your browser
VIEW IN TELEGRAM
Deep Research за копейки?

Йоу, народ! Время рассказать, чем я тут занимался в последнее время

Спойлер: Deep Кодил

Короче, решил я окунуться в мир опенсорса на тему Deep Research
Знаете, такие штуки, которые умнее обычного гугления
И вот что я там накопал прошелся по 3-4 репо и пока вот мой топ для понимания как это работает.

Значит берем LangGraph(langsmith)
Берем tavily
Берем LLM
Берем другую LLM которая будет кодить (кстати я попробовал Cursor скоро расскажу как оно там)

1. Можно кастомить агентов с помощью Structure Output + CoT (Chain of Thought, если кто не в курсе).
2. Есть готовые репо, типа этого: https://github.com/langchain-ai/ollama-deep-researcher

Но я же не ищу легких путей! Взял этот репо и перепилил всё под себя что поменял
- Промпты обновил (добавил SO, чтоб было красиво)
- Граф немного перекроил
- Подключил свои серваки с vLLM (видюхи не простаивают!)
- Поправил промпты рефлексии

Короче, получилось вот это чудо:

https://github.com/kekslop/ndt-deep-researcher

И вот что самое крутое: с сегодняшнего дня почти все мои наработки будут попадать на GitHub!
Да-да, вы тоже сможете их попробовать!

Я там расписал README так подробно, что даже моя бабушка сможет повторить мой опыт создания такого агента и использования его в быту
Ну, почти 😅

Основная фишка текущего подхода - это визуализация и работа с Structured Output и работа с моделькой 7b =)
Дальше буду кастомить свой CoT

Что умеет эта штука для меня
- Работает на разных языках (прям как я после пятничного стрима "запускаем новое направление))
- Ищет инфу в интернете через Tavily (круче, чем ваша школьная разработка на силениум )


А самое интересное впереди! Скоро расскажу, как сделать монструозную систему с генерацией биг отчета и поиском инфы в нескольких источниках

Следите за обновлениями, кто хочет быть в теме!
Ну а я пошел кодить дальше, пока команда думает, что я занимаюсь "стратегическим планированием" 😎
🥇 Первое место на NeurIPS Lux AI 3

За первое место соперничали в основном только три топовые команды. Давайте разберем ключевые решения победителей соревы:

Массовый фичинжиниринг
• Создали более 1000+ признаков для каждого тайла (напомню, их размер — 24×24)
•Сами написали PPO с V-trace на PyTorch
• Тоже двухголовая архитектура. Одна голова выбирает действие, а вторая определяет, куда стрелять, если действие связано с выстрелом
• Приделали еще и голову, которая предсказывает, куда шагнут враги в следующий момент, даже если враг не наблюдается. Таким образом, модель научилась стрелять «вслепую» 👀
• Обучались в формате bfloat16 на 1.5 млрд матчей. Всего за всю соревновательную сессию сыграли около 20 млрд матчей

Все другие секреты PPO уже разобраны, поэтому давайте сосредоточимся на поистине уникальном приеме команды:

🔥 Противодействие Imitation Learning (тут еще есть второе мнение от настоящего грандмастера)
• С первого люкса команда понимала, что многие полагаются на imitation learning, и решила активно противодействовать этому.
• Были обучены две модели — слабая и сильная (предыдущая лучшая и текущая) — с рандомным выбором, какая из них будет играть во время инференса.
• Сильная модель работала всего в 15% случаев, но писала об этом в логи игры, позволяя после матча распарсить и понять какая модель играла и замерять эффект. Все остальное время учили IL оппонентов плохому
• Анализ логов после матчей позволял точно оценить преимущества сильной модели относительно предыдущей. К тому же, топовые команды генерировали около 1000 матчей в день уже на лб (из них ~150 с сильной моделью), так что можно было проверить статзначимость улучшения.
• Под конец модель настолько раздулась, что две модели не помещались в сабмишн, так что пришлось оставить только одну и добавить к её атрибутам шум для того, чтобы портить трейн сет всем подражателям
#lux
Forwarded from КПД
Overtrained Language Models Are Harder to Fine-Tune
[Статья] [Где код, Билли?]

Введение

Во многом успех современного глубокого обучения обусловлен масштабированием моделей и времени обучения. Стандартный пайплайн обучения включает в себя предобучение на большом объеме данных с последующим дообучением на куда меньшем количестве примеров высокого качества.

В текущей практике обыкновенно качество базовой модели напрямую транслируется в качество дообученной на инструкциях. А так как качество базовой монотонно растет, то кажется логичным продолжать дальнейшее наращивание бюджетов обучения.

Однако группа исследователей (часть из них ранее засветилась в Scaling Laws for Precision) обнаружила, что начиная с какого-то момента чекпоинты OLMo начинают проседать по качеству при файтьюнинге, решила поглубже исследовать данный вопрос и найти какое-то объяснение явлению “перетренированности” 💪.
Forwarded from КПД
Метод и эксперименты

Напомню, что OLMo - это полностью открытый проект по обучению больших языковых моделей с открытым исходным кодом и выложенными промежуточными чекпоинтами.

Давным-давно в одной далекой Галактике было показано что при фиксированном количестве FLOPs на обучение оптимальное качество достигается при отношении количества токенов (D) к параметрам модели (N) около 20. Но жирные модельки потом дорого гонять на железе, потому обыкновенно выходят далеко за данное отношение и качество все равно монотонно растет, хоть и не так быстро, как при отпимальном скейлинге. В частности, для Llama-3 отношение D/N = 2000.

Авторы взяли веса моделей (OLMo-1B, OLMo-2-7B, LLM360-Amber) с разных шагов обучения и обнаружили, что начиная с какого-то момента качество на некоторых задачах (AlpacaEval, ARC (не AGI), PiQA) при дообучении начинает убывать. При этом качество базовой модели непрерывно растет. Для 7B модели при этом такого явления не наблюдается, так как модель, по всей видимости еще не успела перейти в режим “перетренированности”.

Исследователи делают гипотезу, что данное явление, следствие повышенной чувствительности параметров к шуму и пертурбациям.

Дабы проверить данную гипотезу, авторы обучают на корпусе С4 модели от 15M до 90M параметров (с подвыборками размером от 4B до 128B токенов).

Сначала авторы исследуют зависимость лосса модели от времени обучения при фиксированной величине пертурбаций параметров гауссовым шумом. Первоначально, лосс модели не сильно меняется даже при большой величине шума. Но начиная с какого-то момента при сильном зашумлении лосс “зашумленной” модели начинает возрастать, несмотря на то, что качество исходной модели монотонно улучшается. То есть просадка модели, вызванная шумом, растет быстрее, чем улучшается модель.

Дообучение, конечно, сильно отличается от добавления гауссового шума, но тем не менее оказывается, что на некоторых датасетах при лернинг рейте побольше начиная с какого-то момента качество падает ↘️.

Далее авторы пробуют уменьшать шаг обучения, чтобы учесть большую чувствительность параметров модели, и это помогает на ID (in domain) задачах, но качество на OOD (out of domain) все равно может ухудшаться при дальнейшем обучении.

Затухающее расписание шагов обучения откладывает проблему на более позднее время, но не решает ее полностью.

Далее авторы рассматривают простую линейную модель: таргет генерируется линейным слоем, а обучается композиция двух слоев без активаций, где наблюдается тот же самый эффект - растущая чувствительность весов модели к зашумлению. В процессе обучения постепенно выучиваются все меньшие и меньшие сингулярные значения целевой матрицы, и в тот момент, когда шум превосходит одно из них, ошибка может начать расти.

В конце авторы вспоминают, про работы из RL и “пластичность”, комментируя , что обнаруженное явление имеет по всей видимости ту же самую природу.

Вывод

Довольно любопытное и интересное наблюдение. Для полноценной валидации требуется репродукция другими командами ибо результат может быть обусловлен такими нюансами как детали оптимизации, архитектуры, mixed-precision настроек и выбора данных. Потенциально еще причина может быть в специфике оптимизации Adam-oм или стремлении модели неограниченно наращивать логиты вероятностей для оптимизации кросс-энтропии. Использование другого оптимизатора или регуляризации (например, SAM) вероятно способно предотвратить проблему. Было бы интересно еще проверить имеет ли место эффект в других задачах: т.е будет ли ухудшаться качество vision foundation моделей (CLIP/SigLIP) на downstream при очень продолжительном обучении?
Forwarded from Quant Valerian
Я хотел сделать лайтовый пятничный "Пыльный чулан" про забавную физику, но посмотрел на пост про распределенные системы и решил дать вам ПОБОЛЬШЕ ХАРДКОРА.
Сегодня достаём разговорчики про перфоманс в основном внутри одной машины.

Не так уж и давно я решал SRE Week от Яндекса. Там были задачки на перфоманс.

- оптимизированный под разного размера массивы бинпоиск. Чуть подробнее о бинпоисках я писал когда-то давно, пригодилось

- потом была spsc queue на C++, rate limiter на golang и задача, которую я не решил из-за лени.
Для лучшего понимания memory ordering'ов в очереди стоит почитать пост с картинкой Serializable vs Linearizable и приправить постом про барьеры памяти.
Про отношения между latency и throughput (пригодится с рейт лимитером) есть (имхо) красивая аналогия в соответствующем посте.

- последний блок задач был на исследование проблем с производительностью с помощью bpftrace — там типичная история из жизни performance инженера, когда ты мерил, мерил, но мерил не то 🤡
Постов про bpftrace у меня нет, поэтому я просто порекомендую постом книгу Дениса Бахвалова про перфоманс и микрооптимизации с массированным использованием perf'а. Заодно разберетесь со всякими там фронтендами и бэкендами процессора. А для подготовки к этой книге, стоит прочитать (если еще не) WEPSKAM (хотя лучше pdf найдите).

Вне категорий ещё неймдроппинг:
- Brendon Gregg, System Performance, которую я украл у Серёги
- Peter Sewell, статьи из раздела Relaxed-memory concurrency, кладезь золота, которую мне открыл Шипилёв

Есть ещё, но мне кажется, что уже этого вполне достаточно, чтобы забить себе башку на месяца вперёд))