Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Minimax M1 - бесплатная генерация видосов на халяву (пока).
В общем я взял промпты из MovieBench и стал их пихать в свежий агент Minimax M1, о котором сегодня с восторгом писал.
Генерит как миленький. Бесплатно.
Пруф: https://agent.minimax.io/chat?id=281006706552925
Пробуем: https://agent.minimax.io/
@cgevent
В общем я взял промпты из MovieBench и стал их пихать в свежий агент Minimax M1, о котором сегодня с восторгом писал.
Генерит как миленький. Бесплатно.
Пруф: https://agent.minimax.io/chat?id=281006706552925
Пробуем: https://agent.minimax.io/
@cgevent
Forwarded from 5 minutes of data
MCP (Model Context Protocol) — это открытый стандарт, упрощающий взаимодействие ИИ-моделей, особенно LLM, с внешними источниками данных, инструментами и сервисами. MCP-сервер выступает мостом между ИИ-моделями и внешними инструментами.
Вот список лучших MCP-серверов:
- File System MCP Server
Позволяет LLM напрямую работать с локальной файловой системой: читать, записывать и создавать директории.
- GitHub MCP Server
Подключает Claude к репозиториям GitHub, позволяя обновлять файлы и искать код.
- Slack MCP Server
MCP-сервер для API Slack, позволяющий Claude взаимодействовать с рабочими пространствами Slack.
- Google Maps MCP Server
MCP-сервер для API Google Maps.
- Docker MCP Server
Интеграция с Docker для управления контейнерами, образами, томами и сетями.
- Brave MCP Server
Веб- и локальный поиск через API поиска Brave.
- PostgreSQL MCP Server
MCP-сервер, позволяющий LLM изучать схемы баз данных и выполнять запросы только для чтения.
- Google Drive MCP Server
MCP-сервер для интеграции с Google Drive, позволяющий читать и искать файлы.
- Redis MCP Server
MCP-сервер, предоставляющий доступ к базам данных Redis.
- Notion MCP Server
Проект, реализующий MCP-сервер для API Notion.
- Stripe MCP Server
MCP-сервер для взаимодействия с API Stripe.
- Perplexity MCP Server
MCP-сервер, подключающийся к API Sonar от Perplexity для поиска в реальном времени.
Вот список лучших MCP-серверов:
- File System MCP Server
Позволяет LLM напрямую работать с локальной файловой системой: читать, записывать и создавать директории.
- GitHub MCP Server
Подключает Claude к репозиториям GitHub, позволяя обновлять файлы и искать код.
- Slack MCP Server
MCP-сервер для API Slack, позволяющий Claude взаимодействовать с рабочими пространствами Slack.
- Google Maps MCP Server
MCP-сервер для API Google Maps.
- Docker MCP Server
Интеграция с Docker для управления контейнерами, образами, томами и сетями.
- Brave MCP Server
Веб- и локальный поиск через API поиска Brave.
- PostgreSQL MCP Server
MCP-сервер, позволяющий LLM изучать схемы баз данных и выполнять запросы только для чтения.
- Google Drive MCP Server
MCP-сервер для интеграции с Google Drive, позволяющий читать и искать файлы.
- Redis MCP Server
MCP-сервер, предоставляющий доступ к базам данных Redis.
- Notion MCP Server
Проект, реализующий MCP-сервер для API Notion.
- Stripe MCP Server
MCP-сервер для взаимодействия с API Stripe.
- Perplexity MCP Server
MCP-сервер, подключающийся к API Sonar от Perplexity для поиска в реальном времени.
Forwarded from 5 minutes of data
Data Engineering Design Patterns
O’REILLY выпустили свежую книгу с очень многообещающим названием:
"Data Engineering Design Patterns" (Шаблоны проектирования в инженерии данных).
Автор: Bartosz Konieczny - опытный фриланс Data Engineer, энтузиаст Apache Spark, работает со Scala & Python.
Делится знаниями в блоге waitingforcode.com.
В чем суть и почему это важно?
Проекты в области данных - основа технической экосистемы любой компании.
Но сколько раз вы сталкивались с тем, что решаете проблемы, которые уже давно решили другие?
Эта книга - практическое руководство, которое учит поставлять реально ценные данные, фокусируясь на ключевых аспектах:
• Сбор данных
• Качество данных
• Идемпотентность
Главная ценность:
Перестаньте изобретать велосипед!
Узнайте проверенные шаблоны проектирования, которые экономят время, снижают ошибки и повышают эффективность ваших data-проектов.
upd: Книгу еще не читал, но в предисловии отметились известные люди из мира data engineering.
Maxime Beauchemin, original creator of Apache Airflow and Superset
Matt Housely, coauthor, Fundamentals of Data Engineering
O’REILLY выпустили свежую книгу с очень многообещающим названием:
"Data Engineering Design Patterns" (Шаблоны проектирования в инженерии данных).
Автор: Bartosz Konieczny - опытный фриланс Data Engineer, энтузиаст Apache Spark, работает со Scala & Python.
Делится знаниями в блоге waitingforcode.com.
В чем суть и почему это важно?
Проекты в области данных - основа технической экосистемы любой компании.
Но сколько раз вы сталкивались с тем, что решаете проблемы, которые уже давно решили другие?
Эта книга - практическое руководство, которое учит поставлять реально ценные данные, фокусируясь на ключевых аспектах:
• Сбор данных
• Качество данных
• Идемпотентность
Главная ценность:
Перестаньте изобретать велосипед!
Узнайте проверенные шаблоны проектирования, которые экономят время, снижают ошибки и повышают эффективность ваших data-проектов.
upd: Книгу еще не читал, но в предисловии отметились известные люди из мира data engineering.
Maxime Beauchemin, original creator of Apache Airflow and Superset
Рад видеть, что некоторые принципы инженерии данных, которые я отстаивал в прошлом, такие как неизменяемость, детерминированные преобразования и идемпотентность, не только укореняются, но и расширяются и развиваются на совершенно новом уровне в этой книге. Отличный ресурс для инженеров данных, желающих построить надежные, масштабируемые пайплайны.
Matt Housely, coauthor, Fundamentals of Data Engineering
Инженерия данных страдает от переизбытка сложности из-за постоянного распространения языков, фреймворков и инструментов. Эта книга предоставляет четкие дорожные карты для решения проблем инженерии данных независимо от применяемой базовой технологии.
Forwarded from 5 minutes of data
Snapchat Data Tech Stack
Snapchat - это технологическая компания, которая решает сложные, масштабные задачи в области данных. Сегодня рассмотрим инструменты и технологии, которые Snapchat использует для извлечения данных, преобразования, управления и многого другого.
Масштабы поражают:
• 4+ ТБ данных каждый день в BigQuery
• 1.8 ТРИЛЛИОНА событий в пик
• 200+ ПБ данных в хранилище (30k GCS бакетов!)
• 5 миллиардов Snaps ежедневно
• 3,000 DAGs в Airflow с 330,000 задач ежедневно
На чем все держится?
• Google Cloud Platform (GCP): Вся инфраструктура данных Snapchat построена на GCP.
Как данные попадают в систему?
• Pub/Sub (GCP): Главный "
вход для потоковых событий в реальном времени. Масштабируется мгновенно.
Как данные обрабатываются?
• Apache Beam (через GCP Dataflow): Обработка и потоковых, и пакетных данных.
• Apache Spark (через GCP Dataproc): Основа для генерации фичей в рекомендательных системах.
Как всем этим управляют?
• Apache Airflow: состоянию на 2024 год
которые ежедневно выполняют более 330 000 экземпляров задач, охватывающих ETL, отчетность/аналитику, машинное обучение и многое другое.
Где хранятся и анализируются данные?
• BigQuery: Центральное хранилище данных. Куда стекаются все события. Используется для аналитики и ad-hoc запросов.
• Lakehouse (GCS + Apache Iceberg): Наряду с централизованным хранилищем данных Snapchat использует архитектуру lakehouse, объединяя Google Cloud Storage (GCS) с Apache Iceberg. Это позволяет им эффективно получать доступ к большим наборам данных без дублирования в BigQuery.
Благодаря интеграции BigLake данные GCS становятся напрямую доступны в BigQuery, предоставляя пользователям нативный опыт.
Команды машинного обучения являются одними из основных пользователей Lakehouse на своей платформе Bento.
Как визуализируют и принимают решения?
• Looker: Ключевой инструмент для дашбордов и data-driven решений по всей компании. Глубокая интеграция с BigQuery.
Snapchat демонстрирует глубокую интеграцию с GCP для решения экстремальных задач по объему и скорости данных. Комбинация managed-сервисов (Pub/Sub, Dataflow, Dataproc, BigQuery, Dataplex, Looker) и гибких OSS-решений (Airflow, Spark, Beam, Iceberg) позволяет им справляться с невероятными масштабами.
@data_whisperer
Snapchat - это технологическая компания, которая решает сложные, масштабные задачи в области данных. Сегодня рассмотрим инструменты и технологии, которые Snapchat использует для извлечения данных, преобразования, управления и многого другого.
Масштабы поражают:
• 4+ ТБ данных каждый день в BigQuery
• 1.8 ТРИЛЛИОНА событий в пик
• 200+ ПБ данных в хранилище (30k GCS бакетов!)
• 5 миллиардов Snaps ежедневно
• 3,000 DAGs в Airflow с 330,000 задач ежедневно
На чем все держится?
Платформа:
• Google Cloud Platform (GCP): Вся инфраструктура данных Snapchat построена на GCP.
Как данные попадают в систему?
• Pub/Sub (GCP): Главный "
вход для потоковых событий в реальном времени. Масштабируется мгновенно.
Как данные обрабатываются?
• Apache Beam (через GCP Dataflow): Обработка и потоковых, и пакетных данных.
• Apache Spark (через GCP Dataproc): Основа для генерации фичей в рекомендательных системах.
Как всем этим управляют?
• Apache Airflow: состоянию на 2024 год
Snap использует более 3000 DAG, которые ежедневно выполняют более 330 000 экземпляров задач, охватывающих ETL, отчетность/аналитику, машинное обучение и многое другое.
Где хранятся и анализируются данные?
• BigQuery: Центральное хранилище данных. Куда стекаются все события. Используется для аналитики и ad-hoc запросов.
• Lakehouse (GCS + Apache Iceberg): Наряду с централизованным хранилищем данных Snapchat использует архитектуру lakehouse, объединяя Google Cloud Storage (GCS) с Apache Iceberg. Это позволяет им эффективно получать доступ к большим наборам данных без дублирования в BigQuery.
Благодаря интеграции BigLake данные GCS становятся напрямую доступны в BigQuery, предоставляя пользователям нативный опыт.
Команды машинного обучения являются одними из основных пользователей Lakehouse на своей платформе Bento.
Как визуализируют и принимают решения?
• Looker: Ключевой инструмент для дашбордов и data-driven решений по всей компании. Глубокая интеграция с BigQuery.
Snapchat демонстрирует глубокую интеграцию с GCP для решения экстремальных задач по объему и скорости данных. Комбинация managed-сервисов (Pub/Sub, Dataflow, Dataproc, BigQuery, Dataplex, Looker) и гибких OSS-решений (Airflow, Spark, Beam, Iceberg) позволяет им справляться с невероятными масштабами.
@data_whisperer
Forwarded from 5 minutes of data
The Modern Data Stack Is a Dumpster Fire
Автор поста разносит в пух и прах культ сложности в data-инфраструктуре. В своем посте он рассказывает суроваю правду, которую не покажут вендоры:
Проблема №1: Инструментальный Ад (или Собираем пазл вслепую)
Знакомо? Начинаете не с задачи бизнеса, а с выбора 15 крутых инструментов (Fivetran, Airbyte, dbt, Airflow, Snowflake ).
Перенести CSV-шку превращается в квест через 10 сервисов. На выходе - машина Руба Голдберга для отчетов.
Итог: Красивые презентации, ноль пользы. А фрагментация? Это не баг, ребята, это фича вендорской бизнес-модели!
Проблема №2: Цена Безумия
• Облачные счета выше выручки? Не шутка. Налог на интеграцию – это не только деньги, но и:
◦ Недели на добавление нового источника.
◦ Часы тупой отладки в 5 разных интерфейсах, чтобы поправить одну цифру в дашборде.
◦ Реальная история: $400K и полгода за 3 дашборда. А конкурент на DuckDB + Python сделал это за неделю и выиграл тендер.
Проблема №3: AI-Powered как маркетинговый шум:
Изначально современный стек данных - это уже сложная, перегруженная и дорогая система "помойка на колесах".
◦ Вендоры массово добавляют ИИ-фичи (часто сырые) в свои инструменты, позиционируя это как панацею.
◦ На деле, это часто лишь косметическое улучшение или опасный эксперимент над пользователями.
◦ ИИ добавляется в уже перегруженные и сложные системы, делая их еще более "черными ящиками".
Миф: Вам Нужны Big Data и Сложный Стек
• 90% компаний работают со средними данными (medium data). Ваш ноутбук-2025 мощнее дата-центра 2012 года
• Маркетинг вендоров раздул Big Data" Но вы – не Netflix. Зачем вам Spark/Snowflake для 80 млн строк?
• Эластичность облака = Мы возьмем с вас больше. И мы это сделаем.
Какое решение предлагает автор?
Ключ не в масштабе, а в снижении сложности. Будущее за:
• DuckDB, Polars, SQLite: Обрабатывают гигабайты/сотни млн строк на одном ноутбуке быстрее и в 10-100 раз дешевле облака (реальные кейсы Watershed, FinQore, Mode).
Принципы:
1. Стройте ТОЛЬКО то, чем можете владеть (объясните стек новичку за час).
2. Усложняйте ТОЛЬКО когда реальность требует.
3. Принимайте локальные/встроенные решения.
4. Мигрируйте постепенно.
5. Безжалостно упрощайте
Вывод:
Современный стек данных для многих - это путь в ад затрат, стресса и бесконечной настройки.
Команды, которые выбрали простые, понятные, локальные инструменты (small data done right), просто побеждают.
Их стек просто работает. Они решают задачи бизнеса, а не обслуживают инфраструктурного Франкенштейна.
@data_whisperer
Автор поста разносит в пух и прах культ сложности в data-инфраструктуре. В своем посте он рассказывает суроваю правду, которую не покажут вендоры:
Проблема №1: Инструментальный Ад (или Собираем пазл вслепую)
Знакомо? Начинаете не с задачи бизнеса, а с выбора 15 крутых инструментов (Fivetran, Airbyte, dbt, Airflow, Snowflake ).
Перенести CSV-шку превращается в квест через 10 сервисов. На выходе - машина Руба Голдберга для отчетов.
Итог: Красивые презентации, ноль пользы. А фрагментация? Это не баг, ребята, это фича вендорской бизнес-модели!
Проблема №2: Цена Безумия
• Облачные счета выше выручки? Не шутка. Налог на интеграцию – это не только деньги, но и:
◦ Недели на добавление нового источника.
◦ Часы тупой отладки в 5 разных интерфейсах, чтобы поправить одну цифру в дашборде.
◦ Реальная история: $400K и полгода за 3 дашборда. А конкурент на DuckDB + Python сделал это за неделю и выиграл тендер.
Проблема №3: AI-Powered как маркетинговый шум:
Изначально современный стек данных - это уже сложная, перегруженная и дорогая система "помойка на колесах".
◦ Вендоры массово добавляют ИИ-фичи (часто сырые) в свои инструменты, позиционируя это как панацею.
◦ На деле, это часто лишь косметическое улучшение или опасный эксперимент над пользователями.
◦ ИИ добавляется в уже перегруженные и сложные системы, делая их еще более "черными ящиками".
Миф: Вам Нужны Big Data и Сложный Стек
• 90% компаний работают со средними данными (medium data). Ваш ноутбук-2025 мощнее дата-центра 2012 года
• Маркетинг вендоров раздул Big Data" Но вы – не Netflix. Зачем вам Spark/Snowflake для 80 млн строк?
• Эластичность облака = Мы возьмем с вас больше. И мы это сделаем.
Какое решение предлагает автор?
Ключ не в масштабе, а в снижении сложности. Будущее за:
• DuckDB, Polars, SQLite: Обрабатывают гигабайты/сотни млн строк на одном ноутбуке быстрее и в 10-100 раз дешевле облака (реальные кейсы Watershed, FinQore, Mode).
Принципы:
1. Стройте ТОЛЬКО то, чем можете владеть (объясните стек новичку за час).
2. Усложняйте ТОЛЬКО когда реальность требует.
3. Принимайте локальные/встроенные решения.
4. Мигрируйте постепенно.
5. Безжалостно упрощайте
Вывод:
Современный стек данных для многих - это путь в ад затрат, стресса и бесконечной настройки.
Команды, которые выбрали простые, понятные, локальные инструменты (small data done right), просто побеждают.
Их стек просто работает. Они решают задачи бизнеса, а не обслуживают инфраструктурного Франкенштейна.
"Лучший стек данных – тот, о котором вам не приходится думать."
@data_whisperer
Forwarded from Kali Novskaya
🌸Распутываем клубок нейросетей: подарок от Anthropic🌸
Прекрасная новость — опенсорс от Anthropic!
Авторы работ по интерпретируемости LLM выложили в опенсорс инструменты, чтобы работать со всеми открытыми весами и отслеживать "мыслительный процесс" вовремя генерации.
Теперь сообщество может применять метод для всех открытых систем.
Подход заключается в создании графов атрибуции, которые показывают, какие внутренние шаги предприняла модель для принятия конкретного решения. Библиотека позволяет
🟣 найти "логическую цепочку" принятия решения. То есть показывает, какие части модели влияют друг на друга и на итоговый ответ. Например, как конкретное слово, фраза или кусочек кода на входе влияет на результат через внутренние признаки модели.
🟣 нарисовать наглядную схему (граф) этой цепочки. Её можно смотреть, исследовать и подписывать важные элементы.
🟣 вмешиваться в работу модели. Вы можете вручную изменить внутренние признаки модели и посмотреть, как это повлияет на её ответ.
🟣 менять данные, переучивать модель и сравнивать результаты — улучшать стабильность, фактологичность, непредвзятость ответов.
🌸К чему это можно применить?
К очень многому:
— к лучшему отслеживанию логики модели в цепочке рассуждений и ризонинге
— контролю inference time training, улучшенному планированию и дообучению моделей, в том числе и для агентов
— повышению безопасности работы моделей с джейлбрейками и опасными примерами
— логике работы LLM с разными языками, логикой машинного перевода и мультиязычного ризонинга
— повышению качества в сложных out of domain областях: медицине, юриспруденции, поэзии.
Можно посмотреть, как это работает, на примере Gemma-2-2b и Llama-3.2-1b
Ноутбук
Лицензия на все — MIT!
🟣 Веб-интерфейс
🟣 Блогпост
🟣 Github
🟣 Статья про интерпретируемость - On the Biology of a Large Language Model
Прекрасная новость — опенсорс от Anthropic!
Авторы работ по интерпретируемости LLM выложили в опенсорс инструменты, чтобы работать со всеми открытыми весами и отслеживать "мыслительный процесс" вовремя генерации.
Теперь сообщество может применять метод для всех открытых систем.
Подход заключается в создании графов атрибуции, которые показывают, какие внутренние шаги предприняла модель для принятия конкретного решения. Библиотека позволяет
🌸К чему это можно применить?
К очень многому:
— к лучшему отслеживанию логики модели в цепочке рассуждений и ризонинге
— контролю inference time training, улучшенному планированию и дообучению моделей, в том числе и для агентов
— повышению безопасности работы моделей с джейлбрейками и опасными примерами
— логике работы LLM с разными языками, логикой машинного перевода и мультиязычного ризонинга
— повышению качества в сложных out of domain областях: медицине, юриспруденции, поэзии.
Можно посмотреть, как это работает, на примере Gemma-2-2b и Llama-3.2-1b
Ноутбук
Лицензия на все — MIT!
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Kali Novskaya
🌸Большая Книга ИИ теперь на Вики🌸
#nlp #про_nlp
На днях Сергей Марков выложил свою книгу "Охота на электроовец: Большая Книга Искусственного Интеллекта" в формате Вики.
Теперь каждую главу можно прочитать (и даже прокомментировать) отдельно, что очень удобно для 1200+ страничного двухтомника.
Это самая полная история всего, что происходило, включая весь 20 век и сильно раньше, а так же всеми любимый генИИ и его предпосылки.
🟣 Заглавная страница
🟣 Оглавление
Двухтомник можно скачать в pdf, epub и других форматах:
https://markoff.science/
#nlp #про_nlp
На днях Сергей Марков выложил свою книгу "Охота на электроовец: Большая Книга Искусственного Интеллекта" в формате Вики.
Теперь каждую главу можно прочитать (и даже прокомментировать) отдельно, что очень удобно для 1200+ страничного двухтомника.
Это самая полная история всего, что происходило, включая весь 20 век и сильно раньше, а так же всеми любимый генИИ и его предпосылки.
Двухтомник можно скачать в pdf, epub и других форматах:
https://markoff.science/
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Сергей Марков: машинное обучение, искусство и шитпостинг
Выложили «Охоту на электроовец» в виде wiki с возможностью комментировать — читайте, комментируйте, отправляйте всем, кому это может быть интересно
Forwarded from Kali Novskaya
🌸Лучшая лекция ICLR 2025 🌸
#nlp #про_nlp #nlp_papers
Одной из главных лекций на ICLR в этом году можно смело назвать доклад Тима Роктешела (Tim Rocktaeschel, DeepMind) — Open Endedness, World Models, and the Automation of Innovation. Доклад наконец выложили на ютуб (мне даже не пришлось ее пиратить для вас)
Это очень хороший и своевременный обзорный доклад про новые приоритеты в исследовании ИИ: reinforcement learning, фундаментальные модели, проблемы бенчмарков, агентов и акселерации науки.
🟣 Abstract
Погоня за AGI требует перехода от узконаправленной оптимизации целей к принятию концепции Открытой Эволюции (Open-Endedness) — исследовательской парадигмы, внедрённой в области ИИ Стэнли, Леманом и Клуном. Она фокусируется на системах, способных бесконечно генерировать последовательности новых, но обучаемых артефактов. В этом докладе я представлю нашу работу по созданию крупномасштабных фундаментальных моделей мира (foundation world models), которые способны генерировать разнообразные и многогранные среды. Эти среды, в свою очередь, могут использоваться для обучения более универсальных и устойчивых агентов. Кроме того, я утверждаю, что связь между Открытой Эволюцией и Фундаментальными Моделями указывает на возможность автоматизации самого процесса инноваций. Это слияние уже даёт практические результаты: оно позволяет открывать способности моделей к самоулучшению (self-improvement), автоматизировать prompt engineering и red-teaming, и проведение дискуссий между ИИ-моделями. Всё это предвосхищает будущее, в котором ИИ будет сам двигать свои открытия вперёд.
🟣 Лекция со слайдами тут:
https://www.youtube.com/watch?v=ZZC_xqRgcHo&ab_channel=MatijaGrcic
🟣 Некоторые упомянутые статьи:
Prompt Breeder
Rainbow teaming
MLE bench
Awesome Open-endedness
METR и поиск экспоненты
Sakana AI AI Scientist
#nlp #про_nlp #nlp_papers
Одной из главных лекций на ICLR в этом году можно смело назвать доклад Тима Роктешела (Tim Rocktaeschel, DeepMind) — Open Endedness, World Models, and the Automation of Innovation. Доклад наконец выложили на ютуб
Это очень хороший и своевременный обзорный доклад про новые приоритеты в исследовании ИИ: reinforcement learning, фундаментальные модели, проблемы бенчмарков, агентов и акселерации науки.
Погоня за AGI требует перехода от узконаправленной оптимизации целей к принятию концепции Открытой Эволюции (Open-Endedness) — исследовательской парадигмы, внедрённой в области ИИ Стэнли, Леманом и Клуном. Она фокусируется на системах, способных бесконечно генерировать последовательности новых, но обучаемых артефактов. В этом докладе я представлю нашу работу по созданию крупномасштабных фундаментальных моделей мира (foundation world models), которые способны генерировать разнообразные и многогранные среды. Эти среды, в свою очередь, могут использоваться для обучения более универсальных и устойчивых агентов. Кроме того, я утверждаю, что связь между Открытой Эволюцией и Фундаментальными Моделями указывает на возможность автоматизации самого процесса инноваций. Это слияние уже даёт практические результаты: оно позволяет открывать способности моделей к самоулучшению (self-improvement), автоматизировать prompt engineering и red-teaming, и проведение дискуссий между ИИ-моделями. Всё это предвосхищает будущее, в котором ИИ будет сам двигать свои открытия вперёд.
https://www.youtube.com/watch?v=ZZC_xqRgcHo&ab_channel=MatijaGrcic
Prompt Breeder
Rainbow teaming
MLE bench
Awesome Open-endedness
METR и поиск экспоненты
Sakana AI AI Scientist
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Tim Rocktaeschel - Open Endedness, World Models, and the Automation of Innovation (with slides)
ICLR 2025
The pursuit of Artificial Superintelligence (ASI) requires a shift from narrow objective optimization towards embracing Open-Endedness—a research paradigm, pioneered in AI by Stanley, Lehman and Clune, that is focused on systems that generate endless…
The pursuit of Artificial Superintelligence (ASI) requires a shift from narrow objective optimization towards embracing Open-Endedness—a research paradigm, pioneered in AI by Stanley, Lehman and Clune, that is focused on systems that generate endless…
Forwarded from ML Advertising
Zero-shot vs Few-shot. Пишем промпты эффективно
➡ Few-shot prompting
Здесь мы представляем модели примеры с инструкцией, как ей следует себя вести. После этого надеемся, что модель нас поймет, т.е. выучит in-context learning и выполнит запрос
Пример
➡ Zero-shot prompting
Это противоположность Few-shot. Здесь мы напрямую запрашиваем ответ у модели без дополнительных инструкций и надеемся, что ее достаточно хорошо обучили, чтобы она поняла, что мы от нее хотим.
Пример
➡ Какие ограничения ?
Zero-Shot prompting неплохо себя показывают на каких-то простых задачах, основанных на общих знаниях. Few-shot уже может решать более сложные задачи и может помочь когда полноценный fine-tuning невозможен. Или когда нужно выучить несложные концепции. Еще Few-shot может повысить точность ответа.
Но и Few-shot - это не панацея. Он все еще неспособен решать достаточно сложные задачи на рассуждение. Если задача требует нескольких шагов рассуждения, даже набора примеров может оказаться недостаточно, чтобы LLM смогла найти нужную закономерность. Здесь обращаемся к Chain of Thoughts.
Иногда можно увидеть термины One-shot, Two-shot Prompting и т.д. Это просто частные случаи Few-shot prompting и они указывают на количество подаваемых в модель примеров.
➡ Few-shot prompting
Здесь мы представляем модели примеры с инструкцией, как ей следует себя вести. После этого надеемся, что модель нас поймет, т.е. выучит in-context learning и выполнит запрос
Пример
Запрос:
Красный - один
Оранжевый - два
Желтый - три
Зеленый - четыре
Голубой - пять
Синий - шесть
Фиолетовый -
Ответ:
семь
➡ Zero-shot prompting
Это противоположность Few-shot. Здесь мы напрямую запрашиваем ответ у модели без дополнительных инструкций и надеемся, что ее достаточно хорошо обучили, чтобы она поняла, что мы от нее хотим.
Пример
Запрос:
Определи характер отзыва (позитивный, негативный или нейтральный).
Отзыв: Фильм в целом неплох.
Ответ:
Нейтральный
➡ Какие ограничения ?
Zero-Shot prompting неплохо себя показывают на каких-то простых задачах, основанных на общих знаниях. Few-shot уже может решать более сложные задачи и может помочь когда полноценный fine-tuning невозможен. Или когда нужно выучить несложные концепции. Еще Few-shot может повысить точность ответа.
Но и Few-shot - это не панацея. Он все еще неспособен решать достаточно сложные задачи на рассуждение. Если задача требует нескольких шагов рассуждения, даже набора примеров может оказаться недостаточно, чтобы LLM смогла найти нужную закономерность. Здесь обращаемся к Chain of Thoughts.
Иногда можно увидеть термины One-shot, Two-shot Prompting и т.д. Это просто частные случаи Few-shot prompting и они указывают на количество подаваемых в модель примеров.
Forwarded from GOS (Gos)
Камрад Aleks напомнил вот про этот отличный репозиторий - https://github.com/gseth/ControlAltAI-Nodes
Я тоже его очень рекомендую. Так много достойных и интересных нод.
#Comfy #novice
Я тоже его очень рекомендую. Так много достойных и интересных нод.
#Comfy #novice
GitHub
GitHub - gseth/ControlAltAI-Nodes: Quality of Life ComfyUI nodes from ControlAltAI.
Quality of Life ComfyUI nodes from ControlAltAI. Contribute to gseth/ControlAltAI-Nodes development by creating an account on GitHub.
Forwarded from Love. Death. Transformers.
Вместе с Cloud․ru собрали модели, которые реально работают:
- отличная поддержка русского,
- быстрый старт без боли,
- легко встраиваются в агентов и ассистентов,
- бюджетно гоняются
Эти модели — идеальный выбор для MVP, экспериментов и продакшн-инференса.
Всё open-source, а лучшее место чтобы развернуть опенсурс в России быстро и выгодно — Evolution ML Inference
- отличная поддержка русского,
- быстрый старт без боли,
- легко встраиваются в агентов и ассистентов,
- бюджетно гоняются
Эти модели — идеальный выбор для MVP, экспериментов и продакшн-инференса.
Всё open-source, а лучшее место чтобы развернуть опенсурс в России быстро и выгодно — Evolution ML Inference