Forwarded from Artem Ryblov’s Data Science Weekly
Feature Selection in Machine Learning by Soledad Galli
Feature selection is the process of selecting a subset of features from the total variables in a data set to train machine learning algorithms. Feature selection is an important aspect of data mining and predictive modelling.
Feature selection is key for developing simpler, faster, and highly performant machine learning models and can help to avoid overfitting. The aim of any feature selection algorithm is to create classifiers or regression models that run faster and whose outputs are easier to understand by their users.
In this book, you will find the most widely used feature selection methods to select the best subsets of predictor variables from your data. You will learn about filter, wrapper, and embedded methods for feature selection. Then, you will discover methods designed by computer science professionals or used in data science competitions that are faster or more scalable.
First, we will discuss the use of statistical and univariate algorithms in the context of artificial intelligence. Next, we will cover methods that select features through optimization of the model performance. We will move on to feature selection algorithms that are baked into the machine learning techniques. And finally, we will discuss additional methods designed by data scientists specifically for applied predictive modeling.
In this book, you will find out how to:
- Remove useless and redundant features by examining variability and correlation.
- Choose features based on statistical tests such as ANOVA, chi-square, and mutual information.
- Select features by using Lasso regularization or decision tree based feature importance, which are embedded in the machine learning modeling process.
- Select features by recursive feature elimination, addition, or value permutation.
Each chapter fleshes out various methods for feature selection that share common characteristics. First, you will learn the fundamentals of the feature selection method, and next you will find a Python implementation.
The book comes with an accompanying Github repository with the full source code that you can download, modify, and use in your own data science projects and case studies.
Feature selection methods differ from dimensionality reduction methods in that feature selection techniques do not alter the original representation of the variables, but merely select a reduced number of features from the training data that produce performant machine learning models.
Using the Python libraries Scikit-learn, MLXtend, and Feature-engine, you’ll learn how to select the best numerical and categorical features for regression and classification models in just a few lines of code. You will also learn how to make feature selection part of your machine learning workflow.
Link:
- Book
Navigational hashtags: #armbooks
General hashtags: #ml #machinelearning #featureselection #fs
@data_science_weekly
Feature selection is the process of selecting a subset of features from the total variables in a data set to train machine learning algorithms. Feature selection is an important aspect of data mining and predictive modelling.
Feature selection is key for developing simpler, faster, and highly performant machine learning models and can help to avoid overfitting. The aim of any feature selection algorithm is to create classifiers or regression models that run faster and whose outputs are easier to understand by their users.
In this book, you will find the most widely used feature selection methods to select the best subsets of predictor variables from your data. You will learn about filter, wrapper, and embedded methods for feature selection. Then, you will discover methods designed by computer science professionals or used in data science competitions that are faster or more scalable.
First, we will discuss the use of statistical and univariate algorithms in the context of artificial intelligence. Next, we will cover methods that select features through optimization of the model performance. We will move on to feature selection algorithms that are baked into the machine learning techniques. And finally, we will discuss additional methods designed by data scientists specifically for applied predictive modeling.
In this book, you will find out how to:
- Remove useless and redundant features by examining variability and correlation.
- Choose features based on statistical tests such as ANOVA, chi-square, and mutual information.
- Select features by using Lasso regularization or decision tree based feature importance, which are embedded in the machine learning modeling process.
- Select features by recursive feature elimination, addition, or value permutation.
Each chapter fleshes out various methods for feature selection that share common characteristics. First, you will learn the fundamentals of the feature selection method, and next you will find a Python implementation.
The book comes with an accompanying Github repository with the full source code that you can download, modify, and use in your own data science projects and case studies.
Feature selection methods differ from dimensionality reduction methods in that feature selection techniques do not alter the original representation of the variables, but merely select a reduced number of features from the training data that produce performant machine learning models.
Using the Python libraries Scikit-learn, MLXtend, and Feature-engine, you’ll learn how to select the best numerical and categorical features for regression and classification models in just a few lines of code. You will also learn how to make feature selection part of your machine learning workflow.
Link:
- Book
Navigational hashtags: #armbooks
General hashtags: #ml #machinelearning #featureselection #fs
@data_science_weekly
Forwarded from Refat Talks: Tech & AI
Суть про Observability для AI-систем и ландшафт тулов на сегодня
Итак, обычный код работает предсказуемо - знаешь входные данные, понимаешь результат. С AI все иначе: появляется не детерминированный компонент, в agentic системах все еще сложнее. Поэтому Observability стал не роскошью, а базовой потребностью.
Без трейсов ты не понимаешь, почему агент принял именно это решение, сколько это стоило и где система дала сбой, и какие вообще метрики - конкретные и в среднем.
AI observability наследует ДНК от классических инструментов вроде Grafana и Sentry, но решает специфические задачи:
- Трейсинг вызовов. В агентских системах одна задача может породить цепочку из десятков API-вызовов. Нужно видеть полную последовательность: какие промпты отправлялись, какие тулы, что в ответ, что попало в контекст, как модель рассуждала.
- Мониторинг стоимости. Каждый запрос = токены = деньги. Хороший observability tool покажет стоимость каждого вызова и поможет оптимизировать расходы.
- Continuous evaluation. Интеграция с evaluation-платформами позволяет трекать качество ответов и деградацию модели в реальном времени.
- Фидбэк-лупы. Возможность собирать оценки пользователей (лайки/дизлайки) и связывать их с конкретными трейсами.
При выборе инструмента обращай внимание на:
1. OTEL-совместимость. OpenTelemetry - важный открытый стандарт трейсинга. Если инструмент его поддерживает, легче интегрировать логи других систем.
2. Безопасность. Ты будешь логировать почти все взаимодействия с LLM, хоть и best practice - избегать перс. данных в логах, оперировать ID вместо например имейлов, рассмотри self-hosted решения и смотри на лицензцию.
3. Простоту внедрения. Например, LangFuse (который многие как и я любят) при использовании OpenAI SDK интегрируется буквально заменой импорта:
4. Поддержку твоего стека. Проверь, работает ли с твоим фреймворком из коробки, например Mastra (пост) умеет в эти вот.
5. SKD и фичи, например некоторые тулы лучше подходят для agentic систем, другие круто интегрируются с Cloud инфраструктурой.
И про ландшафт. Я собирал для себя информацию по топ observability инструментов в эту таблицу - от простых логгеров до enterprise-монстров. Пользуйтесь. Кроме замечательного LangFuse там есть много интересного, со своими плюсами в некоторых кейсах.
Итак, обычный код работает предсказуемо - знаешь входные данные, понимаешь результат. С AI все иначе: появляется не детерминированный компонент, в agentic системах все еще сложнее. Поэтому Observability стал не роскошью, а базовой потребностью.
Без трейсов ты не понимаешь, почему агент принял именно это решение, сколько это стоило и где система дала сбой, и какие вообще метрики - конкретные и в среднем.
AI observability наследует ДНК от классических инструментов вроде Grafana и Sentry, но решает специфические задачи:
- Трейсинг вызовов. В агентских системах одна задача может породить цепочку из десятков API-вызовов. Нужно видеть полную последовательность: какие промпты отправлялись, какие тулы, что в ответ, что попало в контекст, как модель рассуждала.
- Мониторинг стоимости. Каждый запрос = токены = деньги. Хороший observability tool покажет стоимость каждого вызова и поможет оптимизировать расходы.
- Continuous evaluation. Интеграция с evaluation-платформами позволяет трекать качество ответов и деградацию модели в реальном времени.
- Фидбэк-лупы. Возможность собирать оценки пользователей (лайки/дизлайки) и связывать их с конкретными трейсами.
При выборе инструмента обращай внимание на:
1. OTEL-совместимость. OpenTelemetry - важный открытый стандарт трейсинга. Если инструмент его поддерживает, легче интегрировать логи других систем.
2. Безопасность. Ты будешь логировать почти все взаимодействия с LLM, хоть и best practice - избегать перс. данных в логах, оперировать ID вместо например имейлов, рассмотри self-hosted решения и смотри на лицензцию.
3. Простоту внедрения. Например, LangFuse (который многие как и я любят) при использовании OpenAI SDK интегрируется буквально заменой импорта:
- import openai
+ from langfuse.openai import openai
4. Поддержку твоего стека. Проверь, работает ли с твоим фреймворком из коробки, например Mastra (пост) умеет в эти вот.
5. SKD и фичи, например некоторые тулы лучше подходят для agentic систем, другие круто интегрируются с Cloud инфраструктурой.
И про ландшафт. Я собирал для себя информацию по топ observability инструментов в эту таблицу - от простых логгеров до enterprise-монстров. Пользуйтесь. Кроме замечательного LangFuse там есть много интересного, со своими плюсами в некоторых кейсах.
Forwarded from Refat Talks: Tech & AI
This media is not supported in your browser
VIEW IN TELEGRAM
GitHub Copilot в веб-версии как умный поиск по всему open source
Относительно недавно открыл для себя фичу, которая экономит часы копания в чужом коде. GitHub Copilot Chat прямо на github.com - по сути - натуральный RAG по всему open source. На видео, кстати, пару моих недавних юз кейсов.
Как это работает
Заходишь на любой репозиторий, открываешь Copilot Chat и задаешь вопросы по этому репо. Но самое крутое - он может искать и анализиовать не только в текущем репо, но и по всему GitHub.
Реальные кейсы
Выбор библиотеки. Вместо того чтобы гуглить "best X library for Y", открывать десятки вкладок и сравнивать звездочки - просто спроси Copilot про активность проекта, количество issues, частоту релизов. Он соберет инфу и выдаст summary.
Разбор имплементации. Нужно понять, как в популярной библиотеке реализован retry с backoff? "In repo X, explain how the HTTP client handles retries and backoff, show the relevant functions and files". Copilot покажет конкретные куски кода и объяснит логику.
Поиск известных проблем. Перед интеграцией библиотеки полезно проверить, какие там баги висят. "List recent security-related issues for repo Y and summarize mitigations or patches" - и сразу видишь, стоит ли вообще связываться.
Понимание архитектуры. Залез в новый проект и не понимаешь, как оно вообще устроено? Copilot может объяснить структуру, основные компоненты и как они взаимодействуют еще до того как ты спулишь этого репо. Особенно круто для больших проектов.
И да, прямо в VS Code есть
Короче, если раньше разбор новой библиотеки занимал полдня прыжков по документации и исходникам, теперь базовое понимание получаешь за 10 минут диалога с Copilot. А потом уже целенаправленно копаешь глубже там, где нужно.
В разработке большая часть кода - open source проекты, которые живут, развиваются и часто плохо документированы, Copilot тут реально экономит время.
Относительно недавно открыл для себя фичу, которая экономит часы копания в чужом коде. GitHub Copilot Chat прямо на github.com - по сути - натуральный RAG по всему open source. На видео, кстати, пару моих недавних юз кейсов.
Как это работает
Заходишь на любой репозиторий, открываешь Copilot Chat и задаешь вопросы по этому репо. Но самое крутое - он может искать и анализиовать не только в текущем репо, но и по всему GitHub.
Реальные кейсы
Выбор библиотеки. Вместо того чтобы гуглить "best X library for Y", открывать десятки вкладок и сравнивать звездочки - просто спроси Copilot про активность проекта, количество issues, частоту релизов. Он соберет инфу и выдаст summary.
Разбор имплементации. Нужно понять, как в популярной библиотеке реализован retry с backoff? "In repo X, explain how the HTTP client handles retries and backoff, show the relevant functions and files". Copilot покажет конкретные куски кода и объяснит логику.
Поиск известных проблем. Перед интеграцией библиотеки полезно проверить, какие там баги висят. "List recent security-related issues for repo Y and summarize mitigations or patches" - и сразу видишь, стоит ли вообще связываться.
Понимание архитектуры. Залез в новый проект и не понимаешь, как оно вообще устроено? Copilot может объяснить структуру, основные компоненты и как они взаимодействуют еще до того как ты спулишь этого репо. Особенно круто для больших проектов.
И да, прямо в VS Code есть
@github agent, а для других агентов есть Github MCP, но на практике это не то, часто удобнее и эффективнее юзать именно веб-версию.Короче, если раньше разбор новой библиотеки занимал полдня прыжков по документации и исходникам, теперь базовое понимание получаешь за 10 минут диалога с Copilot. А потом уже целенаправленно копаешь глубже там, где нужно.
В разработке большая часть кода - open source проекты, которые живут, развиваются и часто плохо документированы, Copilot тут реально экономит время.
Forwarded from Дмитрий Кузьмин | Инженерия данных
Что делать, если нужно переиспользовать один и тот же тяжёлый spark.sql(...)? Расчёт медленный, ресурсы горят, DAG перегружен.
Цель: посчитать один раз и потом переиспользовать.
В Spark это называется кэширование или материализация.
Покажу несколько подходов.
✅ Вариант 1: Кэш в памяти (cache() / persist())
Если результат нужен в рамках одной сессии Spark и в нескольких последующих действиях:
df = spark.sql("SELECT ... FROM big_table ...")
df.cache() # или df.persist(StorageLevel.MEMORY_AND_DISK)
df.count() # обязательно триггерим кэш
Это только временное решение в рамках сессии!
✅ Вариант 2: Запись в Parquet (материализация)
Если тебе нужно:
в других пайпах
Пиши в Parquet:
df = spark.sql("SELECT ... FROM big_table ...")
df.write.mode("overwrite").parquet("/mnt/data/intermediate/my_cached_result")
А потом читаешь:
df_cached = spark.read.parquet("/mnt/data/intermediate/my_cached_result")
✅ Вариант 3: External table в Hive / Metastore
Если нужно, чтобы результат был доступен:
Тогда — создай внешнюю таблицу на основе сохранённого parquet-файла:
CREATE EXTERNAL TABLE my_cached_table
USING PARQUET
LOCATION '/mnt/data/intermediate/my_cached_result'
Теперь SELECT * FROM my_cached_table доступен везде.
Какой способ выбрать?
Что еще важно:
Какой способ предпочитаешь:
🔥 — только cache()
👍 — привычный и надежный parquet
🤔 — hive наше всё
#база_знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Dataism
Чек-лист A_B экспериментов.pdf
147.9 KB
Yet another чек-лист
Представь себе, что ты вышел на новую работу и тебя сразу окунули в …эксперимент
И тебе нужно для начала проверить уже все заготовки перед запуском и дать свой экспертный ок на всю эту красоту, потом запустить и сопроводить тест, а в конце подвести итоги.
Что в идеале нужно проверить?
Я бы выделила 3 основных направления:
1) проверка бизнес аспектов эксперимента
2) дизайн самого эксперимента
3) правильный старт эксперимента
в пост не впихивается, поэтому держите файлик с ПРОДВИНУТЫМ вариантом чек-листа эксперимента🐾
Представь себе, что ты вышел на новую работу и тебя сразу окунули в …
И тебе нужно для начала проверить уже все заготовки перед запуском и дать свой экспертный ок на всю эту красоту, потом запустить и сопроводить тест, а в конце подвести итоги.
Что в идеале нужно проверить?
Я бы выделила 3 основных направления:
1) проверка бизнес аспектов эксперимента
2) дизайн самого эксперимента
3) правильный старт эксперимента
в пост не впихивается, поэтому держите файлик с ПРОДВИНУТЫМ вариантом чек-листа эксперимента
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Data Engineering / Инженерия данных / Data Engineer / DWH
Первые 3 главы Designing Data-Intensive Applications, 2nd Edition
Глава 1. Компромиссы в архитектуре систем данных
Глава 2. Определение нефункциональных требований
Глава 3. Модели данных и языки запросов
Глава 1. Компромиссы в архитектуре систем данных
Глава 2. Определение нефункциональных требований
Глава 3. Модели данных и языки запросов
DataTalks.RU. Data Engineering / DWH / Data Pipeline
Глава 1. Компромиссы в архитектуре систем данных
Forwarded from Дмитрий Кузьмин | Инженерия данных
Собрал подборку своих постов по Spark, которые помогут разобраться с основами, архитектурой и практическими фишками (чтобы не листать ленту).
🔴 Введение в Spark
Коротко про Spark
Чек-лист для старта в Spark
Зачем нужен Spark?
🔴 Архитектура и окружение
Связка Hive + Spark + HDFS
Экспресс-архитектура Spark
Как выбрать ресурсы для SparkSession?
🔴 Оптимизация и продвинутые темы
Кэширование и материализация в Spark
Не знаю, как пойдет, но планирую пополнять базу знаний и кейсов и файлов.
🤫 Половину из этого часто спрашивают на собесах, чтобы проверить глубину погружения в инструмент, а часть просто хорошо бы знать - это сэкономит вам время и нервы
🤲 Сохрани себе, чтобы не потерять.
✨ Если нужны такие пополняемые подборки по задачам с собесов и их разборами, кидай реакцию.
#материалы
#база_знаний
Коротко про Spark
Чек-лист для старта в Spark
Зачем нужен Spark?
Связка Hive + Spark + HDFS
Экспресс-архитектура Spark
Как выбрать ресурсы для SparkSession?
Кэширование и материализация в Spark
Не знаю, как пойдет, но планирую пополнять базу знаний и кейсов и файлов.
#материалы
#база_знаний
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Data Bar | О data-проектах (Alexander Varlamov)
MCP для начинающих
Недавно Microsoft выложил на YouTube бесплатный курс 'MCP for beginners'.
Если вы не фанат видео (как я), весь материал дублируется на GitHub.
Что такое MCP (Model Context Protocol)?
Это протокол общения нейросетей с внешним миром. По нему к LLM можно подключать любые источники данных или системы управления, и всё это по одному универсальному стандарту. MCP часто сравнивают с USB: устройство одно, протокол один, а число сценариев - бесконечно.
Протоколу ещё нет и года, но уже проводятся конференции, выпускаются курсы и появляются MCP-сервисы. Поддержка со стороны крупных IT-игроков говорит о том, что MCP быстро становится де-факто стандартом интеграции ИИ в реальные системы.
Дима Аношин в Канале 'Инжиниринг Данных' делился материалами с конференции 'MCP Dev Days'.
Я недавно писал про подключение Claude по MCP к PostgreSQL, когда нейросеть ходит в базу данных и собирает инсайты и отчёты. Всё работает на домашнем ПК. Развернуть несложно.
Короче, пока в русскоязычном LinkedIn спорят о кризисе в IT, мир строит новый слой взаимодействия информационных систем. MCP только набирает обороты - самое время вкатываться.🔥
Недавно Microsoft выложил на YouTube бесплатный курс 'MCP for beginners'.
Если вы не фанат видео (как я), весь материал дублируется на GitHub.
Что такое MCP (Model Context Protocol)?
Это протокол общения нейросетей с внешним миром. По нему к LLM можно подключать любые источники данных или системы управления, и всё это по одному универсальному стандарту. MCP часто сравнивают с USB: устройство одно, протокол один, а число сценариев - бесконечно.
Протоколу ещё нет и года, но уже проводятся конференции, выпускаются курсы и появляются MCP-сервисы. Поддержка со стороны крупных IT-игроков говорит о том, что MCP быстро становится де-факто стандартом интеграции ИИ в реальные системы.
Дима Аношин в Канале 'Инжиниринг Данных' делился материалами с конференции 'MCP Dev Days'.
Я недавно писал про подключение Claude по MCP к PostgreSQL, когда нейросеть ходит в базу данных и собирает инсайты и отчёты. Всё работает на домашнем ПК. Развернуть несложно.
Короче, пока в русскоязычном LinkedIn спорят о кризисе в IT, мир строит новый слой взаимодействия информационных систем. MCP только набирает обороты - самое время вкатываться.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from 85GB нейронок
Отличный вопрос!
Всё зависит от задач, тех.навыков и желания ковыряться.
1. Если нужно проапскейлить обычную фотку или генерацию в художественном стиле условного ренессанса, подойдёт и простенький Upscayl (это название).
2. Для апскейла генераций фотографических можно юзать Comfy UI (или Forge) и сборки на базе Flux. Но это, конечно, не для всех.
3. Знаю, что многие юзают Topaz, тем более, что там есть щас функционал Магнифика, но у меня он перестал работать, прост ошибку выдаёт, поэтому
4. Magnific. Для генераций. Особенно хорошо после апскейлов Флакса, т.к. придаёт текстуры и шероховатости. Дорого.
5. Enhancer от Krea. Делает много шума и грязи, видны тайлы при сплошных заливках, но с творческими, абстрактными генками справляется хорошо. Главное, подобрать настройки, в первую очередь — ставить на минимум креативность модели, и на максимум — совпадение с оригинальной пикчей.
Всё зависит от задач, тех.навыков и желания ковыряться.
1. Если нужно проапскейлить обычную фотку или генерацию в художественном стиле условного ренессанса, подойдёт и простенький Upscayl (это название).
2. Для апскейла генераций фотографических можно юзать Comfy UI (или Forge) и сборки на базе Flux. Но это, конечно, не для всех.
3. Знаю, что многие юзают Topaz, тем более, что там есть щас функционал Магнифика, но у меня он перестал работать, прост ошибку выдаёт, поэтому
4. Magnific. Для генераций. Особенно хорошо после апскейлов Флакса, т.к. придаёт текстуры и шероховатости. Дорого.
5. Enhancer от Krea. Делает много шума и грязи, видны тайлы при сплошных заливках, но с творческими, абстрактными генками справляется хорошо. Главное, подобрать настройки, в первую очередь — ставить на минимум креативность модели, и на максимум — совпадение с оригинальной пикчей.
Forwarded from Заметки LLM-энтузиаста
🆕 Новые бесплатные AI-модели с контекстом 2 млн токенов
На openrouter.ai стали доступны две новые модели: Sonoma Dusk Alpha и Sonoma Sky Alpha.
Обе работают бесплатно и поддерживают контекстное окно в 2 миллиона токенов.
Где протестировать:
1️⃣ Через любой бесплатный AI-кодер (Roo/Cline/Kilo/...), где можно указать openrouter в качестве провайдера (на requesty.ai пока нет)
Внутри Kilo есть свой провайдер Kilo Code (но модели все равно в названии имеют openrouter:
2️⃣ Напрямую через OpenRouter API
Что известно:
• Некоторые эксперты предполагают, что за моделями стоит xAI
• Другие считают их новыми версиями Gemini 3
• Модели собирают данные промптов для улучшения работы ⚠️
Особенности:
• Бесплатное использование 💰
• Большой контекст (2M токенов) 📊
• Возможны ограничения по скорости запросов ⏱️
Рекомендую самостоятельно протестировать модели и сравнить их качество и производительность с другими моделями, например, такой трендовой как Grok Code Fast 1.
Я тестировал, используя Kilo Code на примере игры в сапера. Результаты можно посмотреть в комментариях.
Я использовал в Kilo Code режимы Architect и Code и один и тот же промпт:
Мой выбор из трех упомянутых выше моделей:sonoma-dusk-alpha
Она лучше всех показала себя при решении этой простой задачи:
1) Короткий, но по делу "To-Do" лист
2) Быстрое написание кода
3) Рабочий прототип за пару десятков секунд, в котором ничего не надо было исправлять.
@llm_notes
#llm #free #large_context #sonoma #openrouter #kilo
На openrouter.ai стали доступны две новые модели: Sonoma Dusk Alpha и Sonoma Sky Alpha.
Обе работают бесплатно и поддерживают контекстное окно в 2 миллиона токенов.
Где протестировать:
1️⃣ Через любой бесплатный AI-кодер (Roo/Cline/Kilo/...), где можно указать openrouter в качестве провайдера (на requesty.ai пока нет)
Внутри Kilo есть свой провайдер Kilo Code (но модели все равно в названии имеют openrouter:
openrouter/sonoma-sky-alpha и openrouter/sonoma-dusk-alpha)2️⃣ Напрямую через OpenRouter API
Что известно:
• Некоторые эксперты предполагают, что за моделями стоит xAI
• Другие считают их новыми версиями Gemini 3
• Модели собирают данные промптов для улучшения работы ⚠️
Особенности:
• Бесплатное использование 💰
• Большой контекст (2M токенов) 📊
• Возможны ограничения по скорости запросов ⏱️
Рекомендую самостоятельно протестировать модели и сравнить их качество и производительность с другими моделями, например, такой трендовой как Grok Code Fast 1.
Я тестировал, используя Kilo Code на примере игры в сапера. Результаты можно посмотреть в комментариях.
Я использовал в Kilo Code режимы Architect и Code и один и тот же промпт:
Создай, пожалуйста, игру Сапер, используя JS, CSS и HTML.Мой выбор из трех упомянутых выше моделей:
Она лучше всех показала себя при решении этой простой задачи:
1) Короткий, но по делу "To-Do" лист
2) Быстрое написание кода
3) Рабочий прототип за пару десятков секунд, в котором ничего не надо было исправлять.
@llm_notes
#llm #free #large_context #sonoma #openrouter #kilo
Forwarded from Love. Death. Transformers.
newsletter.maartengrootendorst.com/p/a-visual-guide-to-quantization
толковый обзорный блогпост по квантизациям, вводят базовые понятия, довольно толково
толковый обзорный блогпост по квантизациям, вводят базовые понятия, довольно толково