Интересное что-то
517 subscribers
2.72K photos
253 videos
140 files
4.53K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.me/asisakov_channel
Чат: https://t.me/youknowds_chat
Download Telegram
Forwarded from Nikolay
Сегодня на linkedin такой пост в топе "ChatGPT can 10X your interview chances.

Copy and paste these ChatGPT prompts to land your dream job in 2024:

1. Company Research

"I have an interview with [company] for the position of [job position]. Please summarize the company's mission, core products or services, and recent news or achievements by analyzing their website [website link] and any recent press releases."

2. Resume Optimization

"Review my current resume attached and suggest improvements tailored for applying to a [job position] at [company]. Highlight any gaps in my experience and recommend ways to address these through online courses or projects."

3. Cover Letter Writing

"Based on the job description for [job position] at [company], generate a cover letter that highlights my relevant experience, skills, and why I am passionate about working for [company]."

4. Interview Preparation

"For the position of [job position] at [company], what are some industry-specific challenges or trends I should be aware of? How can I demonstrate my understanding or propose potential solutions during the interview?"

5. Common Interview Questions

"Generate a list of common interview questions for a [job position] role within the [industry] industry."

6. Behavioral Interview Questions

"Create a set of behavioral interview questions relevant to the [job position] role at [company]. Include a brief guide on how to structure responses using the STAR (Situation, Task, Action, Result) method, tailored to my experiences."

7. Follow-Up After Interview

"Draft a follow-up email template for after an interview for the [job position] role at [company]. The email should express gratitude, reiterate interest in the position, and include a statement on how I can add value to the team, reflecting specifics from our discussion."

8. Technical Skills Assessment

"I need to demonstrate my proficiency in [specific skill or software] for a [job position] role at [company]. Can you generate a practice test or challenges that reflect the level of understanding required?"

9. Salary Negotiation Strategies

"Based on the role of [job position] in [location or industry], what is the competitive salary range? Provide strategies and key phrases for negotiating a higher salary or better benefits, considering my experience level and industry standards."

10. Networking and Referrals

"Provide tips on how to use LinkedIn for networking with employees currently working at [company]. Include a template message for reaching out to potential contacts for insights about the [job position] and company culture.""
Forwarded from partially unsupervised
Наткнулся на пост Top Python libraries of 2024, и набор библиотек в очередной раз затрагивает давно наболевшие топики:

1) несовершенство языка и пакетного менеджера (uv вместо pip, Whenever как лучший datetime, streamable как альтернатива встроенным коллекциям, очередной генератор/валидатор типов...);
2) все низкоуровневые штуки продолжают переписывать на rust;
3) главная проблема и в LLM-driven мире осталась все той же - перегонять данные из формата в формат, только к привычным HTML/JSON/markdown/датаклассам добавляются попытки сделать LLM-native форматы (BAML), LLM-native датаклассы (PydanticAI) etc.

Правда, из всего списка сколько-то массовый адопшен случился пока только у uv.
🔥 QuantResearch — репозиторий, который содержит материалы, связанные с количественным анализом, стратегиями и тированием гипотез в области финансов!

🌟 Проект включает разнообразные методы, такие как машинное обучение, глубокое обучение, алгоритмическая торговля и оценка рисков.

В нем представлены примеры кода для портфельной оптимизации, алгоритмической торговли , использования машинного обучения и разработки торговых стратегий.

🔐 Лицензия: MIT

🖥 Github

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Artificial stupidity
#ml

Я на досуге немного поковырялся с оптимизацией 3-D укладки коробок. И решил наработки в open-source выложить, вдруг кому-то будет интересно поиграться с решением.

Сразу предупреждаю, в основном код написан Claude (мой вклад в рост энтропии интернета), но направлял его все-таки я сам (и местами подправлял код).

Что в итоге есть в решении:
- 5 алгоритмов упаковки (Weight-Aware, Extreme Points, LAFF, Corner Points, SFC)
- Проверка физических ограничений и поддержки
- 3D визуализация результатов в реальном времени (на картинке как раз она)
- Расчет эффективности использования пространства
- Анализ распределения веса
- Интерактивный веб-интерфейс на Streamlit
- Загрузка пользовательских коробок и выгрузка результатов

В общем, смотрите, ставьте звездочки и не ругайстесь, коли что не так)
Forwarded from ML Advertising
RAG в LLM

Продолжаем тему языковых моделей. Первый пост был по различию базовых и инструктивных LLM. Сегодня рассмотрем понятие RAG.

RAG (Retrieval Augmented Generation) - это подход, который позволяет использовать Большие языковые модели (LLM) для ответов на вопросы пользователей по приватным источникам информации.

Рассмотрим самый базовый вариант RAG:

▶️ Подготовка данных
- Собираем документы
- Разбиваем весь корпус документов на чанки (небольшие кусочки текста). Разбивать можно разными способами, например по предложениям (по символу-разделителю точке), или более хитро по иерархии на большие чанки и внутри них чанки поменьше (сабчанки)
- Каждый чанк кодируем энкодером в вектор. Это нужно, чтобы сравнивать вектор чанка с вектором вопроса пользователя. В качестве энкодера удобно взять уже обученный HuggingFaceEmbeddings
- Пишем все закодированные чанки в векторную БД. Одна из топовых векторных БД Pinecone, заточена специально под хранение эмбеддингов для LLM приложений

▶️ Ответ на вопрос
- Пользователь формулирует вопрос
- С помощью энкодера из первого пункта кодируем текст вопроса в вектор
- Отбираем из всего списка чанков векторной БД топ-N наиболее близких вектору вопроса. Близость векторов меряем косинусным расстоянием
- Все найиденные N чанков и вопрос (и то, и другое уже в виде текста) передаем в LLM и просим ее, учитывая контекст (из чанков), ответить на вопрос пользователя

Идея о RAG возникла из-за трех ограничений:
- Невозможности впихнуть в LLM весь желаемый контекcт
- LLM ничего не знает об информации, которой не было в обучающих данных. Это касается любой приватной или узко-направленной инфы
- Альтернативой RAG может быть дообучение LLM на своих данных, но это крайне нерационально и дорого

Таким образом легким движением руки мы можем без дообучения LLM и энкодера написать свой простой Q&A сервис или чат-бота под свою доменную область. Дальше можно пробовать улучшать сервис, например тюнингом энкодера, иерархией чанков или правками в промпт

#llm
Forwarded from ML Baldini • Nikita Boyandin (Nikita Boyandin)
😚Что такое kaggle и с чем его едят?)

Поскольку много новых людей в канале📈, хочется рассказать о том, чем я периодически живу и почему уйти в хакатоны на 2-3 месяца выглядит нормальным🤑.

🤓Kaggle - это платформа для проведения хакатонов и обучения, с огромным количеством ноутбуков и датасетов, а также огромным комьюнити. Причём каждый на этой платформе может найти свое место относительно уровня подготовки, так как здесь есть огромное множество курсов(все на английском, так что еще и язык прокачаете) и большое количество ноутбуков других людей для постоянного развития своих навыков🍀. И так давайте рассмотрим небольшой roadmap для вхождения на kaggle с максимальной отдачей для вас.

1️⃣Понимание основных библиотек
Чтобы там не было, но без pandas и numpy никуда, так что предлагаю парочку курсов на stepik.
Курс по pandas
Курс по numpy
Что в первом курсе, что во втором, не советую проходить полностью, скорее просто пролистать и поделать задания
Курс kaggle по Pandas

Также было бы славно иметь минимальное понимание по теорверу и матстату, от себя могу посоветовать книжку "Статистика и котики"💪🥺

2️⃣Курсы на kaggle для понимания как работает платформа
1. Intro to Machine Learning
2. Intermediate Machine Learning

3️⃣Далее, когда у вас уже есть некоторое понимание, что такое машинное обучение (если все еще что-то непонятно, то купите эту книжку), самое время переходить к практике. Для этого я всем советую курс Алерона(тимлид Додо и вообще классный чувак) под названием "Введение в соревновательный Data Science"🐱. Куча практики, множество ноутбуков, классные гости и неплохое объяснение материала. Также вы в подарок получаете классное комьюнити и возможность найти команду)))😇

4️⃣Теперь вы прокаченные слоны и дальше у вас есть 2 пути. Первое, это понять машинное обучение более фундаментально, понемногу заходить в глубокое обучение. Для этого можно прочитать хендбук по мл от яндекса или пройти курс по мл от вышки. В любом случае, вам придётся это делать перед собеседованиями и если у вас уже есть какие то пет проекты, то все можно пройти вообще месяца за 4⭐️

Или второй путь, который подойдёт тем, кто пока что хочет учиться, а не работать по 40 часов в неделю-это хакатоны на kaggle с призами💲. Они там на любой вкус и на все тематики. Как самый первый хакатон можно будет взять обучающий, которых на kaggle множество👽)

💗В общем, пишите в комментарии, как вам пост, и что бы вы ещё хотели увидеть в этом канале?)
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Инжиниринг Данных (Dmitry)
Модуль 2 курса Getting Started with Analytics and Data Engineering на английском готов:

Введение - по классике из центра Ванкувера.
Урок 1: что такое база данных и какие бывают.
Урок 2: подключаемся к базе данных и SQL (А тут где учить SQL https://dataengineer.ru/hard-skills/2023-06-04-sql.html)
Урок 3: модели данных
Урок 4: базы данных в облаках
Урок 5: про визуализацию запросов, как бы BI на минималках
Урок 6: NoSQL базы данных для нас (аналитиков и инженеров) и про MongoDB + hands on
Урок 7: топчик БД -DuckDB вместе с hands-on


Ссылка на модуль 1 https://t.me/rockyourdata/4739
Ссылка на модуль 0 https://t.me/rockyourdata/4553

Модуль 1 и 0 просто MUST HAVE!

И не забывает читать про карьеру успешную, особенно если вы вот только начинаете https://dataengineer.ru/pages/careertracks/

PS а тут наши проекты: https://github.com/surfalytics/data-projects почти каждую неделю делаем что-то новое
Hugging Face выпустили курс по alignment LLM. Уже есть секции про:

🩰instruction tuning
🩰alignment
🩰PEFT
🩰валидацию

Ждем выпуска vision LM, синт датасетов и инференса

Го тыкать
Please open Telegram to view this post
VIEW IN TELEGRAM
📱Залипла на чей-то список ссылок по практически любой теме современного DL лол

🔍Можно тут ознакомиться

Началось все с директории по LLM reasoning
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Information Retriever
Итоги года на канале.

Где-то чуть больше года назад я в порыве ночных раздумий понял, что пора бы завести канал. Еще помню, как выбирал название: основной вариант был "arxiv weekly" — именно так называлась еженедельная сводка обзоров статей, которую я вёл в Яндексе. Вариант "Information Retriever" с ретривером на аватарке был скорее шуточный, но каким-то образом реализовался. Ни о чем не жалею =)

Началось все с того, что после ухода Миши Ройзнера @WazowskiRecommends я вызвался подхватить организацию научного семинара по рекомендательным системам в Яндексе. Каждую неделю мы разбирали по две статьи. Я искал докладчиков, сам регулярно выступал и помогал подбирать статьи для выступлений. Чтобы было проще искать статьи, стал выпускать в чате семинара дайджест "arxiv weekly": каждую неделю просматривал все статьи, выходящие в секции arxiv cs/IR, отбирал 5-10 штук, писал про них краткие хайлайты в пару строчек. Постепенно ребята, уходящие из Яндекса, убедили меня что было бы круто перенести "arxiv weekly" в публичное пространство.

Еще в какой-то момент на нетворкингах люди стали благодарить за доклады про трансформерную персонализацию. Когда Саша Сидоров подошел и сказал, что в Wildberries смогли на основе этих докладов что-то внедрить, у меня прямо сдвиг парадигмы произошел =) Появилось понимание, что могу рассказывать что-то интересное и полезное для широкой публики, что эти доклады кто-то смотрит.

В совокупности эти два фактора, вероятно, и сподвигли на создание канала. Первые посты были очень корявые; их чтение вызывает те же ощущения, которые в эпоху вконтакте вызывало перечитывание старых переписок :) Тем не менее, постепенно сформировался какой-то свой, «авторский», стиль; о чем и как я пишу. Дальше идут итоги года в постах и выступлениях.

Выступления:

* Про нейросетевое ранжирование на ML party.
* Про индустриальные тренды рексистем на Датафесте.
* Best practices доклад про трансформерную персонализацию на Turbo ML Conf, который я попытался сделать полезнее и информативнее всех прошлых.
* Про кейсы, в которых нам пригодились статьи на практике на рекомендательном митапе от Сбера.

Посты:

* Про (1) проблемы next item prediction, (2) двухбашенные модели и logQ-коррекцию, (3) обучаемые векторы для рексистем. У нас с командой очень сильное желание сделать свой курс по рексистемам: такие посты похожи на то, что хотелось бы покрыть в курсе. Процесс создания хорошего курса долгий и сложный, пока всё на стадии сбора материала: я собираю, "коллекционирую" различные термины, концепты, теории, с которыми сталкиваюсь при работе и в статьях. Этот процесс может занять годы =)

* Про (1) ранжирование в Пинтересте, (2) ранжирование в Ютубе, (3) рекомендации похожих пинов в Пинтересте. Изначально я собирал много system design заметок про то, как устроены рекомендации в разных известных сервисах. Собирал статьи, парсил блоги на медиуме, искал выступления. Пока что это, пожалуй, один из наиболее сложных типов постов для реализации.

* Про рабочие проекты и команду: (1) чтение статей для r&d, (2) графовые нейросети, (3) нейросетевое ранжирование, (4) чем занимается наша команда, (5) трансформер с миллиардом параметров. Писать про команду приятно и просто, здесь я недорабатываю :)

* Серия постов про праздник рекомендательных систем на ACM RecSys 2024: 1, 2, 3, 4, 5, 6, 7.

* "Кулуарные" посты, в которых пытался передать атмосферу нетворкинга и какие-то приватные, но не очень, обсуждения: (1) конфа вышки, (2) датафест, (3) turbo ml conf, (4) pml conf.

* Обзорные посты с кучей ссылок на статьи: (1) NLP образца 2020-го года, (2) what's on google's deepmind, (3) скейлинг в рексистемах, (4) sigir 2024, (5) топ статей про нейросети в рекистемах.

Спасибо, что были со мной этот год! И до встречи в следующем :)