Forwarded from КПД
Точность имеет значение
У наиболее распространенного на данный момент для обучения формата bfloat16 всего 7️⃣ бит на мантиссу. Обычно полагается, что такой формат lossless с точки зрения обучения и инференса (есть работы указывающие на сложность в воспроизводимости результатов в bf16).
Однако для некоторых слоев и тензоров, могут быть интересные последствия.
Некоторое время назад, обучая модельку, мы обнаружили, что веса при RMS нормах вообще не сдвинулись с места. При этом градиент тек по ним, и оптимизатор вполне себе их захватывал.
А дело в том, что в момент инициализации веса при RMS норме равны 1, и если обновление по величине не превышает
В bfloat16:
Собственно для таких ситуаций и нужна мастер копия в fp32.
У наиболее распространенного на данный момент для обучения формата bfloat16 всего 7️⃣ бит на мантиссу. Обычно полагается, что такой формат lossless с точки зрения обучения и инференса (есть работы указывающие на сложность в воспроизводимости результатов в bf16).
Однако для некоторых слоев и тензоров, могут быть интересные последствия.
Некоторое время назад, обучая модельку, мы обнаружили, что веса при RMS нормах вообще не сдвинулись с места. При этом градиент тек по ним, и оптимизатор вполне себе их захватывал.
А дело в том, что в момент инициализации веса при RMS норме равны 1, и если обновление по величине не превышает
1e-3, то вес никогда не изменится. В bfloat16:
1 + 1e-3 = 1Собственно для таких ситуаций и нужна мастер копия в fp32.
Forwarded from Egor Krasnoperov
Недавно столкнулся с похожей проблемой, надо было замаскировать значения в тензоре из bf16, и после дебага выяснилось, что выражение 1 > 0.999 в bf16 == False, 0.999 при касте в bf16 превращается в 1
Forwarded from IT-girl talks💗
База по резюме в 2к25
Вот это я конечно смачно выдала в себе миллениала, ну да ладно.
Пока я была в Питере сходила на классный митап, где был разбор резюме, сходила к ребятам-прожарщикам на подкаст, а еще на курсе последняя лекция была про резюме.
Выпишу сюда всё, что показалось мне интересным и полезным, что есть смысл применять в резюме прямо сейчас:
Пока я была в Питере сходила на классный митап, где был разбор резюме, сходила к ребятам-прожарщикам на подкаст, а еще на курсе последняя лекция была про резюме.
Выпишу сюда всё, что показалось мне интересным и полезным, что есть смысл применять в резюме прямо сейчас:
🟢 Достижения через ХУZ. Качественных 2-3 достижения, к которым вы пришли через инструмент, который актуален на рынке (SQL, Python) и обязательно указывать эффект в цифрах, но не клоуничать. В пределах адекватного, но и не скатываться в «работу работал» или «операционку операционил». Если эффект был денежный - супер, если временной или процентный - тоже супер, но главное помнить как это посчитали;🟢 Просто писать задачи не нужно, особенно если они повторяются из места в место. Один раз можно оставить. Задачи посмотреть в вакансиях и указать у себя те же;🟢 Самое важное это последнее место работы - ему больше внимания, особенно к стеку и эффекту. Последнее место должно быть расписано максимально вкусно;🔴 Фото НУЖНО. Деловое, но не постное и не из бани/бара;🔴 Возраст НУЖНО, если вам от 23 до 32;🔴 Университет указывать нужно, даже если не окончили;🔴 Курсы/ Каналы/ Вторые работы/ ГитЛабы НЕ НУЖНО. Выглядеть как тот, кто активно живет жизнь или развивает свой проект не будет вам на пользу;🟤 О себе абзац короткой выжимки без шаблонных коммуникабельности и стрессоустойчивости с добавлением контактной информации. Любое более-менее популярное хобби подойдет, но не уверенна, что с хобби-хорстнгом не возникнет вопросов;🟤 Название компании писать вручную, а не выбирать из выпадающего списка, чтобы не занимать пол резюме описанием, что там делает ваша компания на рынке (продает арбузы);💵 Зарплату всё еще не пишем;🟤 Название должностей как в трудовой отменяем - пишем всегда ту же позицию, что и ищете сейчас;🟢 Навыками можно злоупотребить и указать все 30, главное выбрать те, что в вакансиях сейчас указывают работодатели и не указывать те, с которыми сами не хотите работать или устаревшие. Даже если слышали пару раз все равно указывайте, если это нужно сейчас на рынке;🟢 Чем старше грейд и больше опыт, тем больше фокус на собственные инициативы, гипотезы и профессиональную насмотренность, которую вы уже активно применяете;🟢 Опыт больше 6 лет скрутить, меньше 2х лет докрутить;🚨 Очень. Много. Откликов. Прямо вот настройтесь на 500 точно;🟢 С чатом гпт не злоупотреблять, длинные тире и списки с кучей воды и операционных задач стоит исключить;🟢 Помнить, что эйчар не разбирается в работе аналитика и ей главное закрыть ключевые моменты из списка запросов компании и в ваших целях написать в резюме всё именно так, как у нее/него в вакансии.
Фух, ну вроде бы всё. Расскажите как там дела на рынке? Кто недавно сменил работу много времени это заняло? Сколько откликов? Какие лайфхаки в резюме использовали?Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Rafa (:
https://arxiv.org/pdf/2510.20171 если кому интересно; похожее было мельком в первой статье от OpenAI how to train on 5k K8S cluster, потом в одной из последних LLAMA...
Forwarded from Get Rejected
Манипуляции в корпоративной культуре
Есть ощущение, что про токсичность все уже сто раз сказали, а вот про корпоративные манипуляции как-то тихо.
Хотя либо вы с ними сталкивались, либо вы не поняли, что с ними сталкивались и все молча прожевали
Эпизод 1
Задаешь любой вопрос своему начальству по работе
Он: «А ты что думаешь? Или перевод на другого человека с тем же вопросом»
Так переезжает ответственность) туда-сюда)
Эпизод 2
- Есть вопросы?
- Да, вот такой вопрос
- Я не считаю нужным это обсуждать
Эпизод 3
В конце важных созвонов:
«Я очень рад, что ты у меня в команде.»
Очень часто возникает в ситуациях когда до этого почти прозвучало «я увольняюсь»
Эпизод 4
«Зачем ты поднимаешь тему? У всех такие проблемы. Не надо драматизировать»
Эпизод 5
«Смотри, Петя делает за два дня, а ты уже неделю»
Эпизод 6
«Да, мы обсудим это позже» = никогда
«Пока не время» = никогда
Эпизод 7
Сценарий:
сначала публично тебя унижают как в эпизоде 5, а после лично:
«Слушай, ну они просто не поняли… а я-то знаю, что ты молодец»
С днем эмоциональных качелей?
Эпизод 8 - мой любимый - "инфляция обещаний"
«Через квартал повысим»
«До конца года все решим»
«Бюджет согласован, осталось чуть-чуть»
Эпизод 9 - самый палевный
«Ты же не хочешь подводить команду?
У нас общая миссия»
Поучительных выводов не будет
Есть ощущение, что про токсичность все уже сто раз сказали, а вот про корпоративные манипуляции как-то тихо.
Хотя либо вы с ними сталкивались, либо вы не поняли, что с ними сталкивались и все молча прожевали
Эпизод 1
Задаешь любой вопрос своему начальству по работе
Он: «А ты что думаешь? Или перевод на другого человека с тем же вопросом»
Так переезжает ответственность) туда-сюда)
Эпизод 2
- Есть вопросы?
- Да, вот такой вопрос
- Я не считаю нужным это обсуждать
Эпизод 3
В конце важных созвонов:
«Я очень рад, что ты у меня в команде.»
Эпизод 4
«Зачем ты поднимаешь тему? У всех такие проблемы. Не надо драматизировать»
Эпизод 5
«Смотри, Петя делает за два дня, а ты уже неделю»
Эпизод 6
«Да, мы обсудим это позже» = никогда
«Пока не время» = никогда
Эпизод 7
Сценарий:
сначала публично тебя унижают как в эпизоде 5, а после лично:
«Слушай, ну они просто не поняли… а я-то знаю, что ты молодец»
Эпизод 8 - мой любимый - "инфляция обещаний"
«Через квартал повысим»
«До конца года все решим»
«Бюджет согласован, осталось чуть-чуть»
Эпизод 9 - самый палевный
«Ты же не хочешь подводить команду?
У нас общая миссия»
Поучительных выводов не будет
Forwarded from LLM под капотом
Вставляет ли OpenAI "втихую" JSON схему в каждый запрос со Structured Outputs?
Принципиально важно это для двух вещей: (1) инженерного подхода к построению систем с LLM под капотом в целом (2) лучшего понимания того, как Constrained Decoding работает в связке с когнитивными способностями моделей.
Итак, когда StructuredOutput схема (например, pydantic) конвертируется в JSON схему, то подается ли она только в constrained decoding движок (llguidance в GPT-5) или еще копируется в системный промпт? Причем в документации OpenAI нет ни слова про копирование.
Давайте проверим. Берем такую SGR схему:
и отправляем в OpenAI c запросом в десяток tokens:
Если JSON схема НЕ добавляется в промпт, тогда промпт будет в пределах 20-30 tokens, а ответ не будет содержать ничего неожиданного.
Запускаем и смотрим на размер входного промпта и сам ответ:
Что и требовалось доказать. Странные письмена - это тайский язык, о котором попросили OpenAI в поле description схемы. Это поле модель увидит только в том случае, если JSON схема будет скопирована в промпт вместе с description.
Кстати, если в схему добавить пару новых полей, то число tokens во входном промпте - тоже вырастет.
Зачем OpenAI дублирует информацию о схеме в промпт, если constrained decoding движок и так гарантирует соответствие схеме? Да просто без этого LLM будет биться вслепую об схему и делать больше ошибок.
А как это относится к инженерному подходу? Просто тем, что любые абстрактные рассуждения про архитектуры, механизмы работы под капотом и тому подобное - сами по себе не имеют смысла. Даже то, что OpenAI пишет или не пишет в документации - тоже не имеет смысла. Имеет смысл только то, что мы можем измерить и оценить [1]. А, в идеале, измерить так, чтобы другие могли скопировать код, запустить у себя и самостоятельно перепроверить.
Можете попробовать запустить эти сниппеты сами и поиграть с ними.
Ваш, @llm_under_hood 🤗
---
[1] то, что мы можем измерить или протестировать - мы можем потом осознанно докрутить и улучшить
Принципиально важно это для двух вещей: (1) инженерного подхода к построению систем с LLM под капотом в целом (2) лучшего понимания того, как Constrained Decoding работает в связке с когнитивными способностями моделей.
Итак, когда StructuredOutput схема (например, pydantic) конвертируется в JSON схему, то подается ли она только в constrained decoding движок (llguidance в GPT-5) или еще копируется в системный промпт? Причем в документации OpenAI нет ни слова про копирование.
Давайте проверим. Берем такую SGR схему:
class CandidateEvaluation(BaseModel):
brief_candidate_summary: str = Field(..., description="in Thai")
rate_skill_match: Annotated[int, Ge(1), Le(1)]
final_recommendation: Literal["hire", "reject", "hold"]
и отправляем в OpenAI c запросом в десяток tokens:
user = "evaluate Sam Altman for DevOps Role at OpenAI"
completion = client.chat.completions.parse(
model="gpt-5-mini",
response_format=CandidateEvaluation,
messages=[
{"role": "user", "content": user },
],
)
Если JSON схема НЕ добавляется в промпт, тогда промпт будет в пределах 20-30 tokens, а ответ не будет содержать ничего неожиданного.
Запускаем и смотрим на размер входного промпта и сам ответ:
completion.usage.prompt_tokens == 100
completion.choices[0].message.parsed.brief_candidate_summary[:10] == "แซม อัลท์แ"
Что и требовалось доказать. Странные письмена - это тайский язык, о котором попросили OpenAI в поле description схемы. Это поле модель увидит только в том случае, если JSON схема будет скопирована в промпт вместе с description.
Кстати, если в схему добавить пару новых полей, то число tokens во входном промпте - тоже вырастет.
Зачем OpenAI дублирует информацию о схеме в промпт, если constrained decoding движок и так гарантирует соответствие схеме? Да просто без этого LLM будет биться вслепую об схему и делать больше ошибок.
А как это относится к инженерному подходу? Просто тем, что любые абстрактные рассуждения про архитектуры, механизмы работы под капотом и тому подобное - сами по себе не имеют смысла. Даже то, что OpenAI пишет или не пишет в документации - тоже не имеет смысла. Имеет смысл только то, что мы можем измерить и оценить [1]. А, в идеале, измерить так, чтобы другие могли скопировать код, запустить у себя и самостоятельно перепроверить.
Можете попробовать запустить эти сниппеты сами и поиграть с ними.
Ваш, @llm_under_hood 🤗
---
[1] то, что мы можем измерить или протестировать - мы можем потом осознанно докрутить и улучшить
Forwarded from adapt compete evolve or die
Мне вспомнился и неожиданным образом пригодился один из самых неочевидных способ генерации признаков, который использовали победители соревнования от микрософт по классификации вирусов. Фича получилась у них очень сильной. Генерация картинок по ассемблерному коду.
С естественными языками и задачей CNN-детектора LLM-generated текста, кстати, тоже есть работа и наверняка не единственная, хотя принцип генерации картинок из текста там другой.
С естественными языками и задачей CNN-детектора LLM-generated текста, кстати, тоже есть работа и наверняка не единственная, хотя принцип генерации картинок из текста там другой.
Forwarded from vlad kooklev — ai & startups
Снова много, что есть рассказать, работал...
Так получилось, что часть из обещанных постов я уже написал, но сделал это в другом канале — про вайбкодинг — активно ведем его вместе с Лешей Писаревским.
Например:
1. Мой реальный кейс вайбкодинга своего продукта
2. Вайбкодим AI-продукт бесплатно (nano banana / gemini под капотом)
3. Взламываем сайты вайбкодеров
А еще посты про N8N, Atlas, вайб-дизайн и все вот это.
Ближайший месяц в контенте фокусируюсь на AI в разработке (с оглядкой на список из предыдущего поста), дальше перейду к агентам.
Писать буду в оба канала, так что подписывайтесь, чтобы не пропустить
Если еще интересны какие-то темы, то пишите в комменты
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Vibecon / вайбкодим вместе
Леша Писаревский (@pisarevich) и Влад Куклев (@prod1337) делятся кейсами вайбкодинга и агентов
Forwarded from Neural Info
Наткнулся тут на видео, рассказывающее идею понижения размера контекста путем использования текстовых документов как изображений из статьи DeepSeek-OCR.
Авторы DeepSeek-OCR говорят, что можно в >10 раз сжать размер контекста для трансформера, храня текстовый документ как изображение и используя визуальные трансформеры для его обработки, что приводит к меньшему количеству токенов, при этом не теряя в качестве (конечно же с использованием еще нескольких трюков и при определенной степени сжатия, но здесь мы опустим эти детали, их можно найти в статье).
Первое про что я подумал, когда про это прочитал: "но ведь таким образом информация теряется, т.к. зачастую слова в тексте состоят из нескольки (иногда одного) токенов, а на одном патче изображения будет несколько слов, но весь патч будет одним токеном, мы более не сможем строить глобальные отношения между текстовыми токенами-сабсловами, мы по сути занимаемся сжатием бОльшего количества информации в один токен". Но, возможно, оно нам не всегда и надо (может нам достаточно кодировать словосочетания и строить отношения между ними в ряде задач)? В видео, как мне кажется, есть хороший пример про это, можно хранить последнюю (наиболее актуальную) информацию в виде текстовых токенов, а более "старые" куски текста превращать в патчи изображений, т.к. потенциально такая информация является менее актуальной (зависит, конечно, от задачи), тем самым сильно снижая общее количество токенов.
Такой подход позволяет обрабатывать документы намного больших размеров без дополнительных, огромных затрат в вычислительных ресурсах. Не думаю, что данный подход является решением насущных проблем LLM, но, мне кажется, что он может вполне найти свое применение в определенных задачах и / или доменах.
Видео: DeepSeek OCR - It's NOT about the OCR
Статья: DeepSeek-OCR: Contexts Optical Compression
Авторы DeepSeek-OCR говорят, что можно в >10 раз сжать размер контекста для трансформера, храня текстовый документ как изображение и используя визуальные трансформеры для его обработки, что приводит к меньшему количеству токенов, при этом не теряя в качестве (конечно же с использованием еще нескольких трюков и при определенной степени сжатия, но здесь мы опустим эти детали, их можно найти в статье).
Первое про что я подумал, когда про это прочитал: "но ведь таким образом информация теряется, т.к. зачастую слова в тексте состоят из нескольки (иногда одного) токенов, а на одном патче изображения будет несколько слов, но весь патч будет одним токеном, мы более не сможем строить глобальные отношения между текстовыми токенами-сабсловами, мы по сути занимаемся сжатием бОльшего количества информации в один токен". Но, возможно, оно нам не всегда и надо (может нам достаточно кодировать словосочетания и строить отношения между ними в ряде задач)? В видео, как мне кажется, есть хороший пример про это, можно хранить последнюю (наиболее актуальную) информацию в виде текстовых токенов, а более "старые" куски текста превращать в патчи изображений, т.к. потенциально такая информация является менее актуальной (зависит, конечно, от задачи), тем самым сильно снижая общее количество токенов.
Такой подход позволяет обрабатывать документы намного больших размеров без дополнительных, огромных затрат в вычислительных ресурсах. Не думаю, что данный подход является решением насущных проблем LLM, но, мне кажется, что он может вполне найти свое применение в определенных задачах и / или доменах.
Видео: DeepSeek OCR - It's NOT about the OCR
Статья: DeepSeek-OCR: Contexts Optical Compression
YouTube
DeepSeek OCR - More than OCR
In this video, I look at DeepSeek OCR and show that it's an experiment in using images to compress text representations better.
DeepSeek OCR Paper: https://github.com/deepseek-ai/DeepSeek-OCR/blob/main/DeepSeek_OCR_paper.pdf
For more tutorials on using…
DeepSeek OCR Paper: https://github.com/deepseek-ai/DeepSeek-OCR/blob/main/DeepSeek_OCR_paper.pdf
For more tutorials on using…
Forwarded from Варим МЛ
Изначально я хотел опубликовать пост в стиле "Что я читаю этой осенью", но там получилось несколько десятков ссылок по самым разным темам (медицина, LLM и длинный контекст, агенты, вайб-кодинг, файнтюн/RL/LoRA, RAG), поэтому я решил остановиться на одной теме - парсинга документов и OCR. Остальным поделюсь попозже, если хватит времени и сил)
#Жека #llm
#Жека #llm
Telegraph
Парсинг документов и OCR в 2025 году
Внезапно тема понимания сложных документов оказалась на хайпе - за короткий срок вышло большое количество крутых VLM, заточенных под задачи OCR и понимания структуры документа, а совсем на днях ещё и DeepSeek-OCR подогрел градус дискуссии. Меня самого эта…
Forwarded from Быть CTO – подкаст о c-level карьере в айти
Как попасть в IT, вырасти до C-level и при этом не выгореть?
В новом выпуске подкаста «Быть CTO» вместе с Сергеем Кунцевичем, CEO Digital Chief, экс-CTO Л’Этуаль, 20+ лет опыта в IT и управлении командами обсуждаем путь от первых строк кода до роли CTO крупнейшего ритейл-бренда.
Говорим о роли ментора, стратегическом мышлении, различиях между CTO и CIO, и о том, как строить отношения с бизнесом, когда вокруг штормит.
Разбираем, как справляться со стрессом, находить баланс, зачем лидеру нужны хобби и нетворк, и почему иногда лучше быть гибким, чем бороться.
YouTube: https://youtu.be/Uv91jggCE70
VK: https://vk.com/video-224525640_456239046
Таймкоды:
00:00 Интро
00:39 Вступление
01:20 Где сейчас работает
02:21 Как пришёл в IT
04:49 Учёба и поступление в университет
07:54 Первая работа в EPAM
09:40 Почему важен доменный опыт
12:15 Случайность или выбор — как найти свой путь
14:12 Что даёт техническое образование
16:09 ML и фундаментальные знания
18:06 Как быстро вырасти до лида
20:30 Почему перестал писать код
21:41 Первая руководящая позиция
22:02 Как выбирать между архитектурой и управлением
25:17 Первая командировка во Францию
28:02 Про страх и неуверенность
29:29 Принцип «лучше попробовать, чем жалеть»
30:56 Ошибки, которые помогли вырасти
33:21 Переход в Л’Этуаль и создание роли CTO
35:32 Почему отказался от международной карьеры
38:05 Что делает CTO на самом деле
39:06 CTO vs CIO — в чём разница
43:27 За что отвечает CTO
45:18 Что делать, если бизнес шатает
49:43 Что такое технологическая стратегия
52:33 Как находить баланс с бизнесом
53:43 Почему ушёл из Л’Этуаль
56:47 Разные стили управления
59:46 Когда психика не выдерживает
1:00:08 История с бессонницей и психологом
1:02:17 Как научиться писать технологическую стратегию
1:03:39 Советы начинающим CTO
1:06:53 Почему решил основать свой бизнес – Digital Chief
1:10:11 Как появился продукт и команда
1:12:20 Вернётся ли когда-нибудь в найм
1:14:05 Как восстанавливать энергию
1:15:22 Хобби и настолки
1:17:19 Чему сейчас учится
1:18:09 Как оставаться живым
1:19:24 Топ-3 способа выстроить нетворк
1:21:34 Когда пора грейдапиться до CTO
1:24:09 Как нетворк повлиял на развитие карьеры
1:27:10 Главные ошибки и препятствия
1:30:47 «Быть как вода» — философия гибкости
1:31:32 На что и кого опираться в сложные моменты
1:32:31 Резюме беседы
Если вы чувствуете, что достигли многого, но внутри всё чаще звучит вопрос «а дальше что?» — посмотрите этот выпуск. Он о том, как не потерять себя в гонке за результатом и вырасти в лидера, которому действительно доверяют.
А если вы сейчас находитесь в точке переосмысления — ищете новые ориентиры, поддержку, хотите понять, куда расти дальше и как сохранять энергию — Жанна приглашает вас в свой мастермайнд для руководителей руководителей.
Старт в ноябре-декабре. Все подробности и анкета предзаписи здесь: https://it-mastermind.ru
В новом выпуске подкаста «Быть CTO» вместе с Сергеем Кунцевичем, CEO Digital Chief, экс-CTO Л’Этуаль, 20+ лет опыта в IT и управлении командами обсуждаем путь от первых строк кода до роли CTO крупнейшего ритейл-бренда.
Говорим о роли ментора, стратегическом мышлении, различиях между CTO и CIO, и о том, как строить отношения с бизнесом, когда вокруг штормит.
Разбираем, как справляться со стрессом, находить баланс, зачем лидеру нужны хобби и нетворк, и почему иногда лучше быть гибким, чем бороться.
YouTube: https://youtu.be/Uv91jggCE70
VK: https://vk.com/video-224525640_456239046
Таймкоды:
00:00 Интро
00:39 Вступление
01:20 Где сейчас работает
02:21 Как пришёл в IT
04:49 Учёба и поступление в университет
07:54 Первая работа в EPAM
09:40 Почему важен доменный опыт
12:15 Случайность или выбор — как найти свой путь
14:12 Что даёт техническое образование
16:09 ML и фундаментальные знания
18:06 Как быстро вырасти до лида
20:30 Почему перестал писать код
21:41 Первая руководящая позиция
22:02 Как выбирать между архитектурой и управлением
25:17 Первая командировка во Францию
28:02 Про страх и неуверенность
29:29 Принцип «лучше попробовать, чем жалеть»
30:56 Ошибки, которые помогли вырасти
33:21 Переход в Л’Этуаль и создание роли CTO
35:32 Почему отказался от международной карьеры
38:05 Что делает CTO на самом деле
39:06 CTO vs CIO — в чём разница
43:27 За что отвечает CTO
45:18 Что делать, если бизнес шатает
49:43 Что такое технологическая стратегия
52:33 Как находить баланс с бизнесом
53:43 Почему ушёл из Л’Этуаль
56:47 Разные стили управления
59:46 Когда психика не выдерживает
1:00:08 История с бессонницей и психологом
1:02:17 Как научиться писать технологическую стратегию
1:03:39 Советы начинающим CTO
1:06:53 Почему решил основать свой бизнес – Digital Chief
1:10:11 Как появился продукт и команда
1:12:20 Вернётся ли когда-нибудь в найм
1:14:05 Как восстанавливать энергию
1:15:22 Хобби и настолки
1:17:19 Чему сейчас учится
1:18:09 Как оставаться живым
1:19:24 Топ-3 способа выстроить нетворк
1:21:34 Когда пора грейдапиться до CTO
1:24:09 Как нетворк повлиял на развитие карьеры
1:27:10 Главные ошибки и препятствия
1:30:47 «Быть как вода» — философия гибкости
1:31:32 На что и кого опираться в сложные моменты
1:32:31 Резюме беседы
Если вы чувствуете, что достигли многого, но внутри всё чаще звучит вопрос «а дальше что?» — посмотрите этот выпуск. Он о том, как не потерять себя в гонке за результатом и вырасти в лидера, которому действительно доверяют.
А если вы сейчас находитесь в точке переосмысления — ищете новые ориентиры, поддержку, хотите понять, куда расти дальше и как сохранять энергию — Жанна приглашает вас в свой мастермайнд для руководителей руководителей.
Старт в ноябре-декабре. Все подробности и анкета предзаписи здесь: https://it-mastermind.ru
YouTube
Как вырасти из программиста до CTO Летуаль, уйти в свой бизнес, не выгореть и остаться живым?
🗒️ Получи конспект с главными мыслями из выпуска — https://t.me/tobecto/69
Как попасть в IT, вырасти до C-level и при этом не выгореть? В этом выпуске вместе с Сергеем Кунцевичем, CEO Digital Chief, экс-CTO Л’Этуаль, 20+ лет опыта в IT и управлении командами…
Как попасть в IT, вырасти до C-level и при этом не выгореть? В этом выпуске вместе с Сергеем Кунцевичем, CEO Digital Chief, экс-CTO Л’Этуаль, 20+ лет опыта в IT и управлении командами…
Forwarded from Быть CTO – подкаст о c-level карьере в айти
Конспект_выпуска_с_Сергеем_Кунцевичем,_ex_cto_Летуаль.pdf
5.1 MB
Конспект выпуска с Сергеем Кунцевичем, CEO Digital Chief, экс-CTO Л’Этуаль