Есть предложение.
Если вы хоть сколько нибудь занимаетесь персональным брендом в айтишке, то скорее всего у вас есть LinkedIn.
Я совсем недавно узнал про так называемый Social Selling Index в линке (Привет Китай🇨🇳 И Nosedive)
Так вот, этот долбанный рейтинг по всей видимости нифигов так влияет на ваши показы в поиске и прочем.
Узнал я кстати про него от Назарова (видос про валютные удаленки. И это не реклама), и за прошедшие пару недель поднял с 20 до 49, и планирую добивать до 60 хотя бы.
Как поднять SSI? Ну, например заполнить профиль в линкедине, МАКСИМАЛЬНО, образование, опыт работы, всякие полезные и бесполезные сертификатики, и прочее прочее. Надо лайкать посты, хотя бы иногда, и хотя бы иногда репостить / комментить.
Еще, обязательно нужна куча connections, не follow подписок, а прям connections с профильными инженерами, продактами и прочими айтишными приятелями.
Все вышеперичислинное фармится достаточно просто, особенно хорошо виляет на SSI (по личным наблюденяим) коннекты с прям крутыми дядьками, по тику Кента Бека.
Так воооот, а recommendations нафармить - сложнее, чем я вам и предлагаю заняться.
1) Заполните опыт в линкидине если по какой то причине его не заполнили
2) Пишите рекоммендаху мне, а я напишу вам ответ (Скриньте)
Как писать рекоммендаху? Самое адекватное выглядит "... worked with you but at different companies" и выбирайте любое место работы.
Это со стороны выглядит как просто консалтинг🤷♀️
Позицию может выбирать любую, а сам текст рекоммендахи... ну например сгенерить LLM и попроавить, чтобы совсем по ублюдски не выглядело. Можно посмотреть на остальне 3 мои рекоммендахи (они честно добытые!!!) и вдохновиться / вдохновить LLM ими.
P.S. Нет, не стремно
P.P.S. Всем пофиг и никто нас не оттрейсит, а кто будет по рекомменадахам туда сюда ходить - нам не товарищ де факто!
Если вы хоть сколько нибудь занимаетесь персональным брендом в айтишке, то скорее всего у вас есть LinkedIn.
Я совсем недавно узнал про так называемый Social Selling Index в линке (Привет Китай
Так вот, этот долбанный рейтинг по всей видимости нифигов так влияет на ваши показы в поиске и прочем.
Узнал я кстати про него от Назарова (видос про валютные удаленки. И это не реклама), и за прошедшие пару недель поднял с 20 до 49, и планирую добивать до 60 хотя бы.
Как поднять SSI? Ну, например заполнить профиль в линкедине, МАКСИМАЛЬНО, образование, опыт работы, всякие полезные и бесполезные сертификатики, и прочее прочее. Надо лайкать посты, хотя бы иногда, и хотя бы иногда репостить / комментить.
Еще, обязательно нужна куча connections, не follow подписок, а прям connections с профильными инженерами, продактами и прочими айтишными приятелями.
Все вышеперичислинное фармится достаточно просто, особенно хорошо виляет на SSI (по личным наблюденяим) коннекты с прям крутыми дядьками, по тику Кента Бека.
Так воооот, а recommendations нафармить - сложнее, чем я вам и предлагаю заняться.
1) Заполните опыт в линкидине если по какой то причине его не заполнили
2) Пишите рекоммендаху мне, а я напишу вам ответ (Скриньте)
Как писать рекоммендаху? Самое адекватное выглядит "... worked with you but at different companies" и выбирайте любое место работы.
Это со стороны выглядит как просто консалтинг
Позицию может выбирать любую, а сам текст рекоммендахи... ну например сгенерить LLM и попроавить, чтобы совсем по ублюдски не выглядело. Можно посмотреть на остальне 3 мои рекоммендахи (они честно добытые!!!) и вдохновиться / вдохновить LLM ими.
P.S. Нет, не стремно
P.P.S. Всем пофиг и никто нас не оттрейсит, а кто будет по рекомменадахам туда сюда ходить - нам не товарищ де факто!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3🌭2👍1
Ошибка в “сеньерском“ найме, чисто по своему потенциалу ущерба в разы хуже чем просто человеческая (индивидуальная или коллективная) ошибка в моменте.
Например - джун испортил или дропнул базу в продакшене.
Переживем, исправимо (ну или с трудом, историй уйма.)
И тем не менее - джун он на то и джун. От джуна мы ждем факапа, и джун вероятно научится на постмортеме.
Некомпетентный инженер / разработчик, волей случая оказавшийся на слишком высокой позиции, во всех смыслах - компетенции, ответственности, власти, будет вести вашу компанию или подразделение исключительно к одному:
К краху.
Например - джун испортил или дропнул базу в продакшене.
Переживем, исправимо (ну или с трудом, историй уйма.)
И тем не менее - джун он на то и джун. От джуна мы ждем факапа, и джун вероятно научится на постмортеме.
Некомпетентный инженер / разработчик, волей случая оказавшийся на слишком высокой позиции, во всех смыслах - компетенции, ответственности, власти, будет вести вашу компанию или подразделение исключительно к одному:
👍3💯2🌭1
Сколько у вас, дорогие подписчеги, экранное время на мобиле за вчера, и куда вы его потратили? 🤨
Anonymous Poll
47%
1-3 Часа. мне некогда залипать / я залипал совсем чучуть 🥺
11%
3-6 Часов. Я работаю с телефона, короткие видео не смотрю 🐗
21%
3-6 Часов, больше половины - короткие видосы 🤪
11%
Мне стыдно признаваться 🙅♂️
11%
Ноль, у меня нету умного телефона 😞
🌭1
Новый пост на сабстаке.
Рассуждаю про open–closed principle.
Элитно, на русском вот ссылка на телеграф.
Жаление читателя закон🥰
На сабстаке есть картинка с кодом.
Очень конечно болезненно переживаются альтернативно одаренные блог площадки🤬
Ну, на сабстак я забивать не буду. во-первых я им денег заплатил за домен, во-вторых - считается в народе довольно ценным иметь список почт подписчиков, и вроде разумно.
Спасибо за внимание.
Рассуждаю про open–closed principle.
Элитно, на русском вот ссылка на телеграф.
Жаление читателя закон
На сабстаке есть картинка с кодом.
Очень конечно болезненно переживаются альтернативно одаренные блог площадки
которые не поддерживают маркдаун, это что вообще такое? Ну, на сабстак я забивать не буду. во-первых я им денег заплатил за домен, во-вторых - считается в народе довольно ценным иметь список почт подписчиков, и вроде разумно.
Спасибо за внимание.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3🌭1
[абсолютный оффтоп]
Тот случай, когда не стыдно посмотреть короткий видос в инстаграме.
Любите Линча? Поглядите:
https://www.instagram.com/reel/DGnHuD6oxxq/?igsh=MWxtYjMza213ZjFnZw==
Это очень хорошо, Денис.
Спасибо тебе!
Тот случай, когда не стыдно посмотреть короткий видос в инстаграме.
Любите Линча? Поглядите:
https://www.instagram.com/reel/DGnHuD6oxxq/?igsh=MWxtYjMza213ZjFnZw==
Это очень хорошо, Денис.
Спасибо тебе!
🌭2❤🔥1
Насколько вам интересно / знакомо машинное обучение и в целом ML / LLM движуха с инженерной стороны?
Anonymous Poll
27%
Инетересно / знакомо - читаю «популярные» статейки 🤓
32%
Я запускал модельки локально, знаю даже что такое эпоха, веса, дропаут, градиентный спуск 🤓
32%
Я потребитель современных достижений - мне пофиг че там внутри. «Fix bug gpt please» 😢
9%
Я не знаю что такое машинное обучение и нейросети 🦣
🌭1
Харпер классный мужик.
Никогда не слышал о нем и не читал.
Вот линк на его блогпост который в линкедине расхвалил Мартин Фаулер😱
Харпер описывает свой воркфлоу по разработке программных продуктов.
Оставим в стороне на сей раз мои душные миллениалские негодования – чувак говорит дело🚨
Если вкратце – сначала просим ллм нас итеративно опросить, чтобы собрать список проектных требований.
Потом просим сварганить подробную спецификацию для разработчика - с ТДД или без (лучше конечно с ним).
Потом эту спеку мы кормим штуке вроде курсора.
В целом подход хорош тем, что он системный. Харпер например упоминает что очень хорошо просить ллм сгенерировать чеклист тудушек, а чеклисты «многому голова» по Левенчуку :)
Я признаюсь, использовал менее системный подход, и обязательно попробую рекомендации Харпера в деле.
Разве что поправлю промпты, попрошу не просто ТДД чеклист, а внедрю степ на котором попытаюсь с ЛЛМ спроектировать систему хотя бы как то по ООАП кананоам.
Читайте!
Никогда не слышал о нем и не читал.
Вот линк на его блогпост который в линкедине расхвалил Мартин Фаулер
Харпер описывает свой воркфлоу по разработке программных продуктов.
Оставим в стороне на сей раз мои душные миллениалские негодования – чувак говорит дело
Если вкратце – сначала просим ллм нас итеративно опросить, чтобы собрать список проектных требований.
Потом просим сварганить подробную спецификацию для разработчика - с ТДД или без (лучше конечно с ним).
Потом эту спеку мы кормим штуке вроде курсора.
В целом подход хорош тем, что он системный. Харпер например упоминает что очень хорошо просить ллм сгенерировать чеклист тудушек, а чеклисты «многому голова» по Левенчуку :)
Я признаюсь, использовал менее системный подход, и обязательно попробую рекомендации Харпера в деле.
Разве что поправлю промпты, попрошу не просто ТДД чеклист, а внедрю степ на котором попытаюсь с ЛЛМ спроектировать систему хотя бы как то по ООАП кананоам.
Читайте!
Please open Telegram to view this post
VIEW IN TELEGRAM
harper.blog
My LLM codegen workflow atm
A detailed walkthrough of my current workflow for using LLms to build software, from brainstorming through planning and execution.
👍3🔥2🌭1
Крутые чуваки из Стэнфорда продолжают арку "Давайте подружим LLM-ки!"
В целом, конечно задумка очень хорошая, и человечество рано или поздно придет к какому то крутому решению благодаря синергии наработанных исследований, как это обычно и бывает.
Что у меня вызывает вопросы, это то что они пришли опять к подходу когда "большая и умная, дорогая модель в облаке" генерирует куски кода, которые "локальные и маленькие, дешевые и более глупые" Миньоны выполняют, например на данных из PDF документов, и отдают результаты большой модели для генерации ответа❓
Направление круто, но как же сильно это все еще пахнет ужасающим недетерминизмом.
1️⃣ Во-первых, со стороны пользователя - что с безопасностью? Какими средствами и в каких средах эти модели будут запускаться локально? В Ollama? Окей. Доверяем ли мы коду который генерирует LLM?
Не смотря на все прелести в ускорении работы, ускорению мышления (людского) с помощью всяких прекрасных моделей вроде Claude - мне не верится что в ближайшее время такие "протоколы" будут жизнеспособны и адаптированы хоть сколько нибудь массово. По крайней мере с текущим базисом.
Сейчас более верится в разработку более конкретного продукта, с локально запущенными моделями, которые четко "понимают" свою ответственность и возможности (tool-calls?), "переваривают" запрос пользователя (потенциально понимая запрос лучше чем сам пользователь) и далее по необходимости с обращением в LLM, например для предсказания итогового ответа - ну... звучит интересно! Очень даже!
2️⃣ Во-вторых, со стороны разработчика такой системы - как это вообще отлаживать? Оправдана ли сложность такой недетерминированной системы? Тут я разглагольствовать не буду, ибо кажется очевидным.
Чем больше копать сюда, тем больше возникает совершенно прикладных проблем, которые, имхо, лучше решать знакомыми и проверенными способами.
3️⃣ В-третьих, попытка общаться даже маленькими кусками кода, имею в виду не tool-calls, а как в работе выше предлагают - это уже какая никакая, но минимальная инженерия. Инженерия которая требует аналитического мышления при первых же проблемках. К такок инженерии LLM совершенно не готовы.
Поймите меня правильно, даже Cursor с последним обновлением, когда в цикле пытается "анализировать" предыдущие результаты - выдает подчас полную хрень.
Он может предложить вам удалить миграции, просто в тупую - "А давай перегенерируем!" Или откровенно галлюцинировать методами / классами из импортированных библиотек, которых там нет и отродясь не было.
У Cursor сейчас появилась возможность предлагать пользователю вызвать команду в директории проекта (в терминале) и работать дальше с ответом этой команды.
Результат такой же.
Анализ Ошибок работает так же – часто и с простыми ошибками, аннотациями типов и прочим Cursor может справиться вполне хорошо, но как только мы сталкиваемся с дебагом проблемы хоть сколько нибудь более сложного порядка, где нужно проверить 2-3 зависимости - оно утыкается в стекляный потолок своих "когнитивных возможностей".
А это, на секундочку, очень классный 3.7 с "thinking"🤪
Тем не менее, это все очень классные штуки! Они чертовски помогают ускорять работу! Но анализировать, хоть сколько нибудь __логически__ думать LLM не может.
***
Весь "thinking" который мы наблюдаем в современных LLM, это отчаянная попытка, заслуживающая уважения попытка, заставить LLM как то генерировать "промежуточные токены" при решении поставленной задачи.
Первые попытки (те которые мы сейчас наблюдаем) - промежуточного рассуждения на естественном, человеческом языке - разбиваются как мы видим дребезги на задачках требущих рассуждения уровня junior+
Сейчас это известно как проблема токенизации - Для LLM рассуждения на наших языках ограничены дискретностью токенов, которые они формируют.
Из чего естественно получается что квантование пространства смысла решаемой задачи происходит в этих самых токенах - туда где совпала температура, туда и "падаем".
В настоящем, человеческом анализе логика и рассуждения так не работают. Ассоциативные связи не настолько примитивны.
В целом, конечно задумка очень хорошая, и человечество рано или поздно придет к какому то крутому решению благодаря синергии наработанных исследований, как это обычно и бывает.
Что у меня вызывает вопросы, это то что они пришли опять к подходу когда "большая и умная, дорогая модель в облаке" генерирует куски кода, которые "локальные и маленькие, дешевые и более глупые" Миньоны выполняют, например на данных из PDF документов, и отдают результаты большой модели для генерации ответа
Направление круто, но как же сильно это все еще пахнет ужасающим недетерминизмом.
Абсолютно не доверяем. Я - не доверяю.Не смотря на все прелести в ускорении работы, ускорению мышления (людского) с помощью всяких прекрасных моделей вроде Claude - мне не верится что в ближайшее время такие "протоколы" будут жизнеспособны и адаптированы хоть сколько нибудь массово. По крайней мере с текущим базисом.
Сейчас более верится в разработку более конкретного продукта, с локально запущенными моделями, которые четко "понимают" свою ответственность и возможности (tool-calls?), "переваривают" запрос пользователя (потенциально понимая запрос лучше чем сам пользователь) и далее по необходимости с обращением в LLM, например для предсказания итогового ответа - ну... звучит интересно! Очень даже!
Чем больше копать сюда, тем больше возникает совершенно прикладных проблем, которые, имхо, лучше решать знакомыми и проверенными способами.
Поймите меня правильно, даже Cursor с последним обновлением, когда в цикле пытается "анализировать" предыдущие результаты - выдает подчас полную хрень.
Он может предложить вам удалить миграции, просто в тупую - "А давай перегенерируем!" Или откровенно галлюцинировать методами / классами из импортированных библиотек, которых там нет и отродясь не было.
У Cursor сейчас появилась возможность предлагать пользователю вызвать команду в директории проекта (в терминале) и работать дальше с ответом этой команды.
Результат такой же.
Анализ Ошибок работает так же – часто и с простыми ошибками, аннотациями типов и прочим Cursor может справиться вполне хорошо, но как только мы сталкиваемся с дебагом проблемы хоть сколько нибудь более сложного порядка, где нужно проверить 2-3 зависимости - оно утыкается в стекляный потолок своих "когнитивных возможностей".
А это, на секундочку, очень классный 3.7 с "thinking"
Тем не менее, это все очень классные штуки! Они чертовски помогают ускорять работу! Но анализировать, хоть сколько нибудь __логически__ думать LLM не может.
***
Весь "thinking" который мы наблюдаем в современных LLM, это отчаянная попытка, заслуживающая уважения попытка, заставить LLM как то генерировать "промежуточные токены" при решении поставленной задачи.
Первые попытки (те которые мы сейчас наблюдаем) - промежуточного рассуждения на естественном, человеческом языке - разбиваются как мы видим дребезги на задачках требущих рассуждения уровня junior+
Сейчас это известно как проблема токенизации - Для LLM рассуждения на наших языках ограничены дискретностью токенов, которые они формируют.
Из чего естественно получается что квантование пространства смысла решаемой задачи происходит в этих самых токенах - туда где совпала температура, туда и "падаем".
В настоящем, человеческом анализе логика и рассуждения так не работают. Ассоциативные связи не настолько примитивны.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭2🤔1
В этом свете мне более интересными кажутся следующие две работы:
🤖 DroidSpeak
👩💻 Byte Latent Transformers
TL;DR:
DroidSpeak - делаем так чтобы модели общались между собой без токенизации; Byte Latent Transformers - тоже про отказ от токенов, в пользу байтовых представлений.
Оба этих подхода создают более "адекватное" пространство для рассуждений моделей, менее прерывное пространство - избавились от токенов и "думаем" непрерывными векторами!
В дополнение к этому, продолжать обучать модели на мейнстримных кодовых базах с крудами и прочем, как показывает практика - качество и генерируемого кода, и "мышления" LLM модели не увеличивает вообще.
С другой стороны - обучать модели логическому программированию на языке вроде Prolog выглядит очень и очень перспективно.
Хочется верить, что эти направления будут добиты, на загнутся, и революционно выстрелят в бурной синергии.
И верится в это - без особого труда.
***
P.S.
Удивительно, но ни один из каналов в телеграмме посвещенных ML или около того не написал вообще ничего про DroidSpeak (Byte Latent я не чекал, но скорее всего история таже). И большие (30, 50, 60к подписчиков) и маленькие, узко специализированные блоггеры.
Ну и в целом в Рунете всего ничего изданий об этом написало.
Да, я прошу поделиться с друзьями инженерами, кому это может быть хоть сколько нибудь интересно 🙂
Large Language Models (LLMs) are increasingly employed in complex workflows, where different LLMs and fine-tuned variants collaboratively address complex tasks. However, these systems face significant inefficiencies due to redundant context processing of the shared context. We propose DroidSpeak, a framework that optimizes context sharing between fine-tuned LLMs derived from the same foundational model. DroidSpeak identifies critical layers in the KV cache and selectively recomputes them, enabling effective reuse of intermediate data while maintaining high accuracy. Our approach balances computational efficiency and task fidelity, significantly reducing inference latency and throughput bottlenecks. Experiments on diverse datasets and model pairs demonstrate that DroidSpeak achieves up to 3x higher throughputs and 2.6x faster prefill times with negligible accuracy loss compared to full recomputation.
We introduce the Byte Latent Transformer (BLT), a new byte-level LLM architecture that, for the first time, matches tokenization-based LLM performance at scale with significant improvements in inference efficiency and robustness. BLT encodes bytes into dynamically sized patches, which serve as the primary units of computation. Patches are segmented dynamically based on the entropy of the next byte, allocating more compute and model capacity where increased data complexity demands it. We present the first flop controlled scaling study of byte-level models up to 8B parameters with 4T training bytes. Our results demonstrate the feasibility of scaling models trained on raw bytes without a fixed-vocabulary. Both training and inference efficiency improve due to dynamically selecting long patches when data is predictable, along with qualitative improvements on reasoning and long tail generalization. Overall, for fixed inference costs, BLT shows significantly better scaling than tokenization-based models, by simultaneously growing both patch and model size.
TL;DR:
DroidSpeak - делаем так чтобы модели общались между собой без токенизации; Byte Latent Transformers - тоже про отказ от токенов, в пользу байтовых представлений.
Оба этих подхода создают более "адекватное" пространство для рассуждений моделей, менее прерывное пространство - избавились от токенов и "думаем" непрерывными векторами!
В дополнение к этому, продолжать обучать модели на мейнстримных кодовых базах с крудами и прочем, как показывает практика - качество и генерируемого кода, и "мышления" LLM модели не увеличивает вообще.
С другой стороны - обучать модели логическому программированию на языке вроде Prolog выглядит очень и очень перспективно.
Хочется верить, что эти направления будут добиты, на загнутся, и революционно выстрелят в бурной синергии.
И верится в это - без особого труда.
***
P.S.
Удивительно, но ни один из каналов в телеграмме посвещенных ML или около того не написал вообще ничего про DroidSpeak (Byte Latent я не чекал, но скорее всего история таже). И большие (30, 50, 60к подписчиков) и маленькие, узко специализированные блоггеры.
Ну и в целом в Рунете всего ничего изданий об этом написало.
Да, я прошу поделиться с друзьями инженерами, кому это может быть хоть сколько нибудь интересно 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭2
Uh, oh. Надо все таки в telegraph такие лонгриды пихать.
Извините🤨
Извините
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭2💯2
Forwarded from Лаборатория Математики и Программирования Сергея Бобровского
Тот самый месседж Эрика нашего Мейера
"Why the fuck do we let people that have no computer science backgrounds write code? Unacceptable!"
стал доказанным моральным императивом.
Выяснилось что если жпт4o обучать плохому стилю программирования, то оно быстро начинает выступать за Гитлера и захват мира.
Вчера я был умён, поэтому хотел изменить мир. Сегодня я мудр, поэтому меняюсь сам.
-- Руми
"Why the fuck do we let people that have no computer science backgrounds write code? Unacceptable!"
стал доказанным моральным императивом.
Выяснилось что если жпт4o обучать плохому стилю программирования, то оно быстро начинает выступать за Гитлера и захват мира.
Вчера я был умён, поэтому хотел изменить мир. Сегодня я мудр, поэтому меняюсь сам.
-- Руми
🌭1
Здравствуйте дорогие друзья 👋
Моя жена любит сюрпризы. Ну, наверное все (или большая часть) девочек любят сюрпризы🌷
Я, наверное, их тоже люблю, только когда эти сюрпризы происходят в пространственно-временной момент, где мое бренное тело находится хотя бы в 2 метрах от вычислительной техники, или мой ум находится в двух вкладках от терминала / IDE.
В общем да, сегодня про "плохие" сюрпризы, которые никто из нас (кроме мазохистов) не любит.
Моя жена любит сюрпризы. Ну, наверное все (или большая часть) девочек любят сюрпризы
Я, наверное, их тоже люблю, только когда эти сюрпризы происходят в пространственно-временной момент, где мое бренное тело находится хотя бы в 2 метрах от вычислительной техники, или мой ум находится в двух вкладках от терминала / IDE.
В общем да, сегодня про "плохие" сюрпризы, которые никто из нас (кроме мазохистов) не любит.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔2🔥1🤯1🌭1
#оффтоп@ivanzakutnii
Армения - солнечная страна!☀️
И развивается Армения достаточно ОКэй, последние 10 лет так точно.
Айтишка в общем и целом тоже окей, вызывают вопросы устаревшие UI, кривые мобильные клиенты (по сравнению с банками в РФ), но здравый смысл отвечает на все это - СПАСИБО что оно вообще есть, работает, и мне на надо идти в оффлайн банк чтобы чеки выписывать.💵
Карооооче, по поводу солнца. Тут как следствие популярны солнечные батареи и водогрейки. Я как человек дремучий всю дорогу думал что солнечные батареи просто питают дом, ну или заряжают какие то аккумуляторы.
Как бы не так!
Тут можно поставить умный счетчик. Сами батареи вы подключаете к общей системе и весь день питаете ее, получается такой эллектрический коммунизм.
Потом можете забрать столько кВт сколько отдали. Красота!
Особенно если у вас электромобиль, которых тут навалом.
Долгое время тут даже на растаможке ничего не брали за электричики, с этого года - стали брать. Зато платные праковки остались для электрокаров бесплатными, и на каких то из них, поговаривают, даже есть бесплатные зарядки!
Армения - солнечная страна!
И развивается Армения достаточно ОКэй, последние 10 лет так точно.
Айтишка в общем и целом тоже окей, вызывают вопросы устаревшие UI, кривые мобильные клиенты (по сравнению с банками в РФ), но здравый смысл отвечает на все это - СПАСИБО что оно вообще есть, работает, и мне на надо идти в оффлайн банк чтобы чеки выписывать.
Карооооче, по поводу солнца. Тут как следствие популярны солнечные батареи и водогрейки. Я как человек дремучий всю дорогу думал что солнечные батареи просто питают дом, ну или заряжают какие то аккумуляторы.
Как бы не так!
Тут можно поставить умный счетчик. Сами батареи вы подключаете к общей системе и весь день питаете ее, получается такой эллектрический коммунизм.
Потом можете забрать столько кВт сколько отдали. Красота!
Особенно если у вас электромобиль, которых тут навалом.
Долгое время тут даже на растаможке ничего не брали за электричики, с этого года - стали брать. Зато платные праковки остались для электрокаров бесплатными, и на каких то из них, поговаривают, даже есть бесплатные зарядки!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥3🌭1
Хорошая электронная музыка, это когда задаешься вопросом:
- Это трек такой, или у меня комп лагает?
UPD. Все таки это комп. Не надо было запускать 12 потоков тестов после того как гвардрейлы впендюрил🥲
- Это трек такой, или у меня комп лагает?
UPD. Все таки это комп. Не надо было запускать 12 потоков тестов после того как гвардрейлы впендюрил
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭2💯1 1
Из интервью с Барбарой Лисков.
Вы достигли профессионального совершеннолетия во время разработки искусственного интеллекта.
Как изменилось представление об искусственном интеллекте и машинном обучении за время вашей карьеры?
Что думаете? Начнем использовать «для всего подряд без разбора»?
Я вот например сегодня опят с курсором прошел уже обычный путь от «безмерной благодарности и радости от быстрой генерации небольших кусков» до «идиот, ты можешь просто мокнуть вот этот конкретный клиент?»
Не может.
Вы достигли профессионального совершеннолетия во время разработки искусственного интеллекта.
Как изменилось представление об искусственном интеллекте и машинном обучении за время вашей карьеры?
Я защитила докторскую диссертацию с Джоном Маккарти в области искусственного интеллекта. Я написала программу для разыгрывания шахматных эндшпилей. Эту тему предложил Джон, потому что я не играла в шахматы. Я прочитала [шахматные] учебники и перевела эти алгоритмы в поле информатики.
В то время, вершиной научной мысли было — сделать так, чтобы программа вела себя так, как поступал бы человек. Сейчас уже дела обстоят иначе.
Сегодня программы на основе машинного обучения в большинстве случаев неплохо справляются со своими задачами, но все же не всегда.
Люди не понимают, почему они работают или не работают. Если я работаю над проблемой и мне нужно точно понять, почему работает алгоритм, я не буду применять машинное обучение.
С другой стороны, один из моих коллег анализирует маммограммы с помощью машинного обучения и находит доказательства того, что рак можно обнаружить намного раньше.
Искусственный интеллект — это скорее прикладная, нежели обособленная дисциплина. Его всегда использовали для чего-то конкретного.
Что думаете? Начнем использовать «для всего подряд без разбора»?
Я вот например сегодня опят с курсором прошел уже обычный путь от «безмерной благодарности и радости от быстрой генерации небольших кусков» до «идиот, ты можешь просто мокнуть вот этот конкретный клиент?»
🗿2👍1🤔1🌭1
Оказывается у меня была УЙМА бустов, потому что я частенько кому то дарил телеграм премиум за последние пару лет.
Ну… забустил канал себе🔍
Накидал новых реакций, чтобы было молодежно и модно!
Ожидайте в сторис мемы💃
Ну… забустил канал себе
Накидал новых реакций, чтобы было молодежно и модно!
Ожидайте в сторис мемы
Please open Telegram to view this post
VIEW IN TELEGRAM
Поздравляю вас с восьмым марта, дорогие подписчицы и подписчики!
Предлагаю вам сегодня вспомнить (или узнать) самых известных и удивительных женщин, которые так или иначе внесли по настоящему значимый вклад в нашу любимую айтишку.
Ада Лавлейс — первая в мире программистка! Она не просто перевела лекции Бэббиджа по аналитической машине с французского на английский, но расширила этот перевод инструкциями, которые по сути и есть программы.
Жаль что машину эту так и не построили👎
Грейс Хоппер — разработала первый компилятор и создала язык COBOL, который до сих пор используется. Именно она ввела термин "баг", когда нашла мотылька, застрявшего в реле компьютера Mark II🪳
Барбара Лисков — я пару раз писал о ней в последние дни. Помимо принципа подстановки Барбара получила премию Тьюринга за вклад в теорию абстракции данных (по сути - интерфейсы).
Радиа Перлман — "мама интернета", потому что разработала STP протокол что решил проблему сетевых петель и сделал возможным функционирование современных компьютерных сетей. Радиа считает это своим самым простым изобретением😱
Фрэнсис Аллен — первая женщина получившая премию Тьюринга (в 2006🫠 ) за за работу в области оптимизации компиляторов. Отдала 45 лет жизни IBM, которая учредила в ее честь премию в 2007.
Лоис Хайбт — в 23 года стала одним из ключевых разработчиков FORTRAN (а чего добился ты в 23?😂 ). Она создала первый синтаксический анализатор для арифметических выражений, популяризировала термин «программная инженерия», и разработала концепцию асинхронного ПО 🤩
И это далеко не все женщины программисты, математики и ученые, которые внесли и продолжают вносить вклад, продвигая человечество к следующей технологической революции!
Любите женщин, поздравляйте женщин и берегите их, за все их старания, взгляд на реальность и заботу о нас.
С праздником, дорогие!🌷 👩💻
Предлагаю вам сегодня вспомнить (или узнать) самых известных и удивительных женщин, которые так или иначе внесли по настоящему значимый вклад в нашу любимую айтишку.
Ада Лавлейс — первая в мире программистка! Она не просто перевела лекции Бэббиджа по аналитической машине с французского на английский, но расширила этот перевод инструкциями, которые по сути и есть программы.
Жаль что машину эту так и не построили
Грейс Хоппер — разработала первый компилятор и создала язык COBOL, который до сих пор используется. Именно она ввела термин "баг", когда нашла мотылька, застрявшего в реле компьютера Mark II
Барбара Лисков — я пару раз писал о ней в последние дни. Помимо принципа подстановки Барбара получила премию Тьюринга за вклад в теорию абстракции данных (по сути - интерфейсы).
Радиа Перлман — "мама интернета", потому что разработала STP протокол что решил проблему сетевых петель и сделал возможным функционирование современных компьютерных сетей. Радиа считает это своим самым простым изобретением
Фрэнсис Аллен — первая женщина получившая премию Тьюринга (в 2006
Лоис Хайбт — в 23 года стала одним из ключевых разработчиков FORTRAN (а чего добился ты в 23?
И это далеко не все женщины программисты, математики и ученые, которые внесли и продолжают вносить вклад, продвигая человечество к следующей технологической революции!
Любите женщин, поздравляйте женщин и берегите их, за все их старания, взгляд на реальность и заботу о нас.
С праздником, дорогие!
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭4 1
Приветствую.
Я несколько дней назад наконец начал изучать первый курс Школы Системного Менеджмента, называется он рациональная работа.
Курс так сказать взлетный, без него дальше обещают совсем не получится - ни системная инженерия, ни интеллект стек (что это - вы можете узнать позже в моих постах, или пойти почитать Анатолия Левенчука в ЖЖ)
Неотъемлемая часть любого плодоносного изучения - это мышление письмом, так что я частенько буду писать по поводу пройденного материала.
Сегодня я изучал и писал про _Собранность_ как фундаментальное мастерство.
Звучит громко, но это очень интересно, и спорить довольно сложно.
По ссылке ~9.5 тысяч знаков на эту тему🔗
---
TLDR;
Без собранности - нормальная работа, в смысле ее результативности практически невозможна. Слово выбранно очень интересное, оно откликается с "осознанность", но это ошибочная дорожка.
Собранность тут скорее рассматривается как первый принцип, основание интеллектуального мастерства находить, выбирать, или даже разрабатывать правильне методы по достижению цели. Ставить эти самые цели, и интегрировать результаты такой работы в реальность.
В общем зацените, там само мастерство тоже разбираем.
😐
Я несколько дней назад наконец начал изучать первый курс Школы Системного Менеджмента, называется он рациональная работа.
Курс так сказать взлетный, без него дальше обещают совсем не получится - ни системная инженерия, ни интеллект стек (что это - вы можете узнать позже в моих постах, или пойти почитать Анатолия Левенчука в ЖЖ)
Неотъемлемая часть любого плодоносного изучения - это мышление письмом, так что я частенько буду писать по поводу пройденного материала.
Сегодня я изучал и писал про _Собранность_ как фундаментальное мастерство.
Звучит громко, но это очень интересно, и спорить довольно сложно.
По ссылке ~9.5 тысяч знаков на эту тему
---
TLDR;
Без собранности - нормальная работа, в смысле ее результативности практически невозможна. Слово выбранно очень интересное, оно откликается с "осознанность", но это ошибочная дорожка.
Собранность тут скорее рассматривается как первый принцип, основание интеллектуального мастерства находить, выбирать, или даже разрабатывать правильне методы по достижению цели. Ставить эти самые цели, и интегрировать результаты такой работы в реальность.
В общем зацените, там само мастерство тоже разбираем.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegraph
Фундаментальное мастерство
Задумывались ли вы когда-нибудь, чем отличается новичок и мастер? Не важно в какой предметной области. Если вы слышали про 10.000 часов, то наверняка это первое, что пришло вам на ум — количество инвестированного времени в какую-то деятельность. В целом,…
За прошедшую неделю меня несколько раз спросили – а не наркоман ли я часом? какую LLM я жмав в cursor и неужели оно правда моросит?
Ну, если коротко: жмав куда надо, и да – моросит.
Более подробно – читать тут.
В посте я снова обьясняю свою позицию, нисколько не отрицая и не умоляя все прелести от работы с LLM.
Ток то куда не глянь – везде одними моделями пользуешься. Гугл хоть пока и не издох, но на две трети вопросов я иду сразу в Perplexity, например, и только потом и если нужно – в гулу-гулу.
😮 Кстати, по поводу Perplexity. У них оказуется апиха довольно дешевая, я собираюсь с ней поэсперементировать, хочу попробовать специлизированные микро-поисковые движки наколеночные проверить.
Если у вас есть опыт работы с этим API - напишите пару строк в комменты, буду признателен😘
Ну, если коротко: жмав куда надо, и да – моросит.
Более подробно – читать тут.
В посте я снова обьясняю свою позицию, нисколько не отрицая и не умоляя все прелести от работы с LLM.
Ток то куда не глянь – везде одними моделями пользуешься. Гугл хоть пока и не издох, но на две трети вопросов я иду сразу в Perplexity, например, и только потом и если нужно – в гулу-гулу.
Если у вас есть опыт работы с этим API - напишите пару строк в комменты, буду признателен
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegraph
Пожалуйста, думайте!
Когда я ругаю LLM, а в частности программирование с LLM, народ частенько задумывается. То ли не согласны со мной, то ли думают что я далек от прогрессивного мира LLM driven development, не умею в prompt "engineering" – не знаю 🤷♂️ Пару раз меня в личку уже…