На углу бектон и баркинг нет общественного парка
🤯17👎2🔥2
Заставляет задуматься, конечно, когда метро Лондона к концу 19 века более разветвленное, чем в Питере в 2024
Конечно много своих «но», однако масштаб поражает. Я думал это будет буквально 5 станций связанных узеньким тоннелем
https://youtu.be/1pMX7EkAhoA?si=caFZeBT6hzbZQKFz
Конечно много своих «но», однако масштаб поражает. Я думал это будет буквально 5 станций связанных узеньким тоннелем
https://youtu.be/1pMX7EkAhoA?si=caFZeBT6hzbZQKFz
YouTube
Evolution of the London Underground
An animated timeline showing how the London Underground started in 1863, and then grew over the years to present day. It shows how the lines were first created and how the Circle Line and Hammersmith & City Line were originally part of the Metropolitan, and…
🤡7👍6
Во первых снова здраствуйте, накатывает меня любовь к работе с какой-то непостоянной преодичностью.
Во вторых, оказывается есть какой-то сайт Amazon Code Guru, что-то типа ответов мейл ру, но про программирование.
В третьих, я там нашел ответ на неочевидный вопрос.
Уже в нескольких проектах у себя наблюдал странное поведение памяти на машине, она росла линейно, пока не кончалась эпоха, после чего потребление падало, так эта пила шла до самого конца.
Я все не мог понять в чем дело, но было не так интересно, потому что у машины был почти терабайт памяти, смысла парится не было, а тут машиинка поменялась и я стал вылетать в OOM.
Оказалось дело в использовании питоновского List.
https://docs.aws.amazon.com/codeguru/detector-library/python/pytorch-data-loader-with-multiple-workers/#
Во вторых, оказывается есть какой-то сайт Amazon Code Guru, что-то типа ответов мейл ру, но про программирование.
В третьих, я там нашел ответ на неочевидный вопрос.
Уже в нескольких проектах у себя наблюдал странное поведение памяти на машине, она росла линейно, пока не кончалась эпоха, после чего потребление падало, так эта пила шла до самого конца.
Я все не мог понять в чем дело, но было не так интересно, потому что у машины был почти терабайт памяти, смысла парится не было, а тут машиинка поменялась и я стал вылетать в OOM.
Оказалось дело в использовании питоновского List.
Using DataLoader with num_workers greater than 0 can cause increased memory consumption over time when iterating over native Python objects such as list or dict. Pytorch uses multiprocessing in this scenario placing the data in shared memory. However, reference counting triggers copy-on-writes which over time increases the memory consumption. This behavior resembles a memory-leak. Using pandas, numpy, or pyarrow arrays solves this problem
https://docs.aws.amazon.com/codeguru/detector-library/python/pytorch-data-loader-with-multiple-workers/#
Amazon
Pytorch data loader with multiple workers | Amazon CodeGuru, Detector Library
Using DataLoader with `num_workers` greater than `0` can cause increased memory consumption over time when iterating over native Python objects such as `list` or `dict`.
👍20🔥5😱2
Очень крутая статья разбора работы VLLM, очень не хватало такого, для общего понимания архитектуры VLLM, чтобы делать какие-то свои модификации, которые не предусмотренны изначальным фреймворком
https://www.aleksagordic.com/blog/vllm
https://www.aleksagordic.com/blog/vllm
Aleksagordic
Inside vLLM: Anatomy of a High-Throughput LLM Inference System - Aleksa Gordić
From paged attention, continuous batching, prefix caching, specdec, etc. to multi-GPU, multi-node dynamic serving at scale.
🔥10😱3❤1
Технический ютуб за последние время (года три) вырос каким-то невероятными темпами.
Возможно дело еще и в улучшенных рекомендациях.
Вот мне выпало очень хорошее видео с объяснением как работают диффузионные модели, для тех кому не достаточного простого объяснения о том, что они выучивают noise diff для каждого шага.
https://youtu.be/1pgiu--4W3I?si=pCoIjSkQOOw49PYL
Возможно дело еще и в улучшенных рекомендациях.
Вот мне выпало очень хорошее видео с объяснением как работают диффузионные модели, для тех кому не достаточного простого объяснения о том, что они выучивают noise diff для каждого шага.
https://youtu.be/1pgiu--4W3I?si=pCoIjSkQOOw49PYL
YouTube
The Breakthrough Behind Modern AI Image Generators | Diffusion Models Part 1
Diffusion models are a key innovation with far-reaching impacts on multiple fields in machine learning, being the technology behind OpenAI's DALL-E and Sora, Google's Imagen, Stable Diffusion, Midjourney, and more. Developed initially for image generation…
👀12🔥5👍2
Среди тонны булщита и бесполезных статей, где люди в общих чертах описывают какие-то технологии, о внутреннем устройстве которых не имеют ни малейшего, очень приятно встречать такое
https://www.cerebras.ai/blog/moe-guide-debug
https://www.cerebras.ai/blog/moe-guide-debug
www.cerebras.ai
Cerebras is the go-to platform for fast and effortless AI training. Learn more at cerebras.ai.
🔥1🤔1