This media is not supported in your browser
VIEW IN TELEGRAM
Всем и повсюду – привет!
Я заползаю в свою AI неделю и начну делиться наработками и мыслями по мере их появления.
Сейчас же представляю вам небольшой пост на тему Квантовых Вычислений, не вижу причин не поделиться материалом раз он появился🥳
Мне было интересно посмотреть что это такое, и немного помечтать куда оно выльется :)
Оказалось чуть менее интересно, чем я думал🤷♀️
Методичка по тайм трекингу тоже будет на этой неделе, но чуть позже💃
Я заползаю в свою AI неделю и начну делиться наработками и мыслями по мере их появления.
Сейчас же представляю вам небольшой пост на тему Квантовых Вычислений, не вижу причин не поделиться материалом раз он появился
Мне было интересно посмотреть что это такое, и немного помечтать куда оно выльется :)
Оказалось чуть менее интересно, чем я думал
Методичка по тайм трекингу тоже будет на этой неделе, но чуть позже
Please open Telegram to view this post
VIEW IN TELEGRAM
Жесть канешна они с козырей зашли на интенсиве.
Закинули два дока, и лабы – рассчет на один день? Ну если на доки забить и сразу лабы ломануться делать!
Очень сомнительное, ибо бумажули хорошие, хочется их вычитывать внимательнее, изучать концепции глубже и писать из своей головы больше! Вроде база базой, но так хорошо и последовательно написано! Идеальный баланс в тех деталях, никакой воды.
Вероятно что создатели интесива не подразумевали что большая часть, или вообще кто-то так будут к изучению подходить... Ну, главное нахватать материала и лабы сдать🚗
По части первого документа – Foundational Large Language Models & Text Generation я вам немного написал
Внутри так же ссылки на оба документа и на NotebookLM сгенеренные подкасты по ним же.
Закинули два дока, и лабы – рассчет на один день? Ну если на доки забить и сразу лабы ломануться делать!
Очень сомнительное, ибо бумажули хорошие, хочется их вычитывать внимательнее, изучать концепции глубже и писать из своей головы больше! Вроде база базой, но так хорошо и последовательно написано! Идеальный баланс в тех деталях, никакой воды.
Вероятно что создатели интесива не подразумевали что большая часть, или вообще кто-то так будут к изучению подходить... Ну, главное нахватать материала и лабы сдать
По части первого документа – Foundational Large Language Models & Text Generation я вам немного написал
Внутри так же ссылки на оба документа и на NotebookLM сгенеренные подкасты по ним же.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegraph
Kaggle intensive day 1
Привет, идет первый день интенсива про LLM от Kaggle и Google. TL;DR: Материал ну просто топ! Первым документом на интенсиве предлагают довольно свежее и подробное описание о том где мы оказались – что такое трансформеры, как они появились, как развивались…
Давайте подумаем что кроется за коммунистическим мувом от Google – «SoTA трансформер в каждый дом»?
Anonymous Quiz
40%
Это тупо хайп. Скоро повесят ценник.
53%
Да этаж Гугол! Собирают телеметрию чтобы еще круче модель натаскать! Experimental!
7%
Это совершенно искренняя благотворительность.
🌭2
Привет, завершаем курить бамбук с первого дня интесива.
Я очень борюсь с тем чтобы не утыкаться в приложенные источники, ибо как раз там, там мякотка! Ну ладно, вот отчет или типа того.
Тема второго дня интенсива – “Embeddings and Vector Stores/Databases"
И три лабы.
Ждите новостей сегодня вечером или завтра утром по этому материалу.
Саммари подкаст от NotebookLM как обычно прилагаетяся, можно послушать тут
Я очень борюсь с тем чтобы не утыкаться в приложенные источники, ибо как раз там, там мякотка! Ну ладно, вот отчет или типа того.
Тема второго дня интенсива – “Embeddings and Vector Stores/Databases"
И три лабы.
Ждите новостей сегодня вечером или завтра утром по этому материалу.
Саммари подкаст от NotebookLM как обычно прилагаетяся, можно послушать тут
Telegraph
Kaggle intensive day 1 Prompt Engineering
Привет, завершим первый день интесива. Вторая папира не такая плотная. Тут у нас про промпт-инжиниринг, рассказывают основные техники промптирования и важные параметры выхлопа моделей. Ну про температуру вы точно знаете – чем выше температура, тем рандомнее…
🌭4 1
Ну а вот пасхалки в виде бонусного папируса мы уважаем, спасибо, нрааааиица!
В конце второй лабы первого дня (про эвалюйшены) прицепили это
Тут у нас про методы оценки LLM, рассказывают как от MVP дойти до продаи сколько ног при этом придется сломать.
есть три основных подхода к оценке:
- Computation-Based Methods: количественная оценка, BLEU, ROUGE и прочее. Быстро, но не всегда точно.
- Human Evaluation: самое надежное (правда ведь?), но дорого и долго.
- Autoraters: оценка с помощью других LLM, попытка баланса между масштабируемостью и качеством.
Опять проталкивают – "документируйте всё!" Молодцы))
Эвалы это тоже мучение LLM, поэтому тут все еще работает правило garbage in - garbage out.
Про autoraters интересно - они могут давать bias (позиционный, к длине текста, к своей модели), но есть разные техники для борьбы с этим.
В документе даже есть таблица с разными моделями-оценщиками и их особенностями.
Структура оценки для LLM сложнее, чем для обычных ML-моделей. Нужно учитывать, что "правильный" ответ может быть не один, а метрики надо адаптировать под бизнес-задачу.
Мета-оценка тоже важна (да-да сами оценщики надо оценивать😃 ): как понять, что сам оценщик адекватен?
Уже есть много датасетов для этого.
В конце второй лабы первого дня (про эвалюйшены) прицепили это
Тут у нас про методы оценки LLM, рассказывают как от MVP дойти до прода
есть три основных подхода к оценке:
- Computation-Based Methods: количественная оценка, BLEU, ROUGE и прочее. Быстро, но не всегда точно.
- Human Evaluation: самое надежное (правда ведь?), но дорого и долго.
- Autoraters: оценка с помощью других LLM, попытка баланса между масштабируемостью и качеством.
Опять проталкивают – "документируйте всё!" Молодцы))
Эвалы это тоже мучение LLM, поэтому тут все еще работает правило garbage in - garbage out.
Про autoraters интересно - они могут давать bias (позиционный, к длине текста, к своей модели), но есть разные техники для борьбы с этим.
В документе даже есть таблица с разными моделями-оценщиками и их особенностями.
Структура оценки для LLM сложнее, чем для обычных ML-моделей. Нужно учитывать, что "правильный" ответ может быть не один, а метрики надо адаптировать под бизнес-задачу.
Мета-оценка тоже важна (да-да сами оценщики надо оценивать
Уже есть много датасетов для этого.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭1 1
У нас было 2 кластера TPU, 75 слоев семантик роутера, полдюжины мелких PydanticAI агентов, половина квоты Google Cloud и целое множество мелких опенсорсных моделей всех семейств и квантизации, а также три набора синтетических размеченных данных, five-shot CoT промпты, контейнер с жирнющим pgvector постгрессом, терабайт выкачанных маркдаун документов, ржавые гвардрейлы и морда на чейнлите.
Не то чтобы это был необходимый набор для корпоративной RAG-системы.
Но если начал собирать лишние зависимости для ML-стека, становится трудно остановиться.
Единственное что вызывало у меня опасение — это LangChain. Нет ничего более беспомощного, безответственного и отчаявшегося, чем ML-инженер севший на дерьмовые библиотеки.
Я знал, что рано или поздно мы перейдем и на эту дрянь.
Не то чтобы это был необходимый набор для корпоративной RAG-системы.
Но если начал собирать лишние зависимости для ML-стека, становится трудно остановиться.
Единственное что вызывало у меня опасение — это LangChain. Нет ничего более беспомощного, безответственного и отчаявшегося, чем ML-инженер севший на дерьмовые библиотеки.
Я знал, что рано или поздно мы перейдем и на эту дрянь.
🌭6 2
Честно говоря, даже не знаю, что рассказать про WhitePaper о эмбеддингах и векторных хранилищах из вчерашнего дня интенсива.
Например, в конце этого дока уже 58 других источников 🙂
Ноубуки лабы были короткие – в основном опять про примеры использования API Гугла, чуть-чуть Кераса. Была питоновская ChromaDB, немного перемешали матрицы с векторами, потыкались в similarity.
В общем, как обычно — если нет времени, послушайте подкаст, а если время есть — обязательно почитайте сам WhitePaper.
Обмазываться Embedding круто, модно и полезно — не только при построении RAG-систем, но, например, и для Semantic Router. (До сих пор, на момент первой бумаги третьего дня, ни одного упоминания про такое использование 🙂
Semantic-router библиотека не сырая, уже даже брейкинг-чендж версию пережила 🤣.
У неё уже две с половиной тысячи звезд на GitHub (будет больше, я уверен), потому что с помощью Semantic Router вполне можно построить очень достойного ассистента в плане детерминированного выбора.
Рассказывать про ReAct, ToT и прочую теоретическую шутку, конечно, здорово, но я вот почему-то совсем не сомневаюсь, что все большие провайдеры нейронных удовольствий эмбеддинги для роутинга по тем же ToT используют 🙂
Первый и основной документ третьего дня называется очень знакомым словом - Agents, полностью меркнет на фоне доки про вектора – опять про RAG, про Vertex AI.
Вообще не рекомендую к ознакомлению, не тратьте время (по крайней мере первую часть, там есть какой то advanced док, который я еще не прожевал, ждите)
Рассказали про tool-calls, очень аккуратно упоминают, что "сложно! Сложно может быть! Делай больше в RAG", но очень конкретно – "Агент – это не просто LLM с тулами, там нужно делать cognitive architecture".
Вот это cognitive architecture очень важно подчеркивать и нормально проектировать. Да, я сейчас опять скажу это – semantic-router, similarity!
А пока мне кажется, что пространство возможностей вокруг LLM в AI системах благодаря эмбеддингам очень и очень сильно расширяется. Работает это достаточно быстро, прям ну вот так и хочется каких то сценариев, переходов в виде деревьев нахреначить... А может все таки и циклических графов?😨
В общем и целом саммари такое – важно помнить, что эмбеддинги это не только про векторные базы данных и RAG. Вот.
Например, в конце этого дока уже 58 других источников 🙂
Ноубуки лабы были короткие – в основном опять про примеры использования API Гугла, чуть-чуть Кераса. Была питоновская ChromaDB, немного перемешали матрицы с векторами, потыкались в similarity.
В общем, как обычно — если нет времени, послушайте подкаст, а если время есть — обязательно почитайте сам WhitePaper.
Обмазываться Embedding круто, модно и полезно — не только при построении RAG-систем, но, например, и для Semantic Router. (До сих пор, на момент первой бумаги третьего дня, ни одного упоминания про такое использование 🙂
Semantic-router библиотека не сырая, уже даже брейкинг-чендж версию пережила 🤣.
У неё уже две с половиной тысячи звезд на GitHub (будет больше, я уверен), потому что с помощью Semantic Router вполне можно построить очень достойного ассистента в плане детерминированного выбора.
Рассказывать про ReAct, ToT и прочую теоретическую шутку, конечно, здорово, но я вот почему-то совсем не сомневаюсь, что все большие провайдеры нейронных удовольствий эмбеддинги для роутинга по тем же ToT используют 🙂
Первый и основной документ третьего дня называется очень знакомым словом - Agents, полностью меркнет на фоне доки про вектора – опять про RAG, про Vertex AI.
Вообще не рекомендую к ознакомлению, не тратьте время (по крайней мере первую часть, там есть какой то advanced док, который я еще не прожевал, ждите)
Ну реклама, да, а кто спонсор? Чей Kaggle в конце концов? И тем не менее Vertex AI неплохая платформа, если вы готовы к полному вендерлоку... почему нет?
Рассказали про tool-calls, очень аккуратно упоминают, что "сложно! Сложно может быть! Делай больше в RAG", но очень конкретно – "Агент – это не просто LLM с тулами, там нужно делать cognitive architecture".
Вот это cognitive architecture очень важно подчеркивать и нормально проектировать. Да, я сейчас опять скажу это – semantic-router, similarity!
Ошибаюсь я или нет, мы узнаем в течение следующих полутора-двух недель, когда я завершу интенсив и наконец возьмусь за курс Рината.
А пока мне кажется, что пространство возможностей вокруг LLM в AI системах благодаря эмбеддингам очень и очень сильно расширяется. Работает это достаточно быстро, прям ну вот так и хочется каких то сценариев, переходов в виде деревьев нахреначить... А может все таки и циклических графов?
В общем и целом саммари такое – важно помнить, что эмбеддинги это не только про векторные базы данных и RAG. Вот.
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭2 2
Для совсем ленивых или тех кто вообще не в теме, вот выжимка из дока от NotebookLM в любезном переводе gpt:
Встраивания — это низкоразмерные числовые представления реальных данных, таких как текст, изображения и аудио, разработанные для захвата семантического значения и отношений путем размещения похожих объектов ближе в векторном пространстве. Они имеют решающее значение для эффективной обработки и хранения крупномасштабных мультимодальных данных и используются в различных приложениях, таких как поиск, рекомендации и обнаружение мошенничества.
В техническом документе рассматриваются различные типы встраиваний, включая встраивание текста (встраивание слов и документов с использованием таких методов, как Word2Vec, GloVe, Doc2Vec, и тех, которые получены из больших языковых моделей, таких как BERT и Gemini), встраивание изображений и мультимодальное встраивание, встраивание структурированных данных и встраивание графов.
Качество моделей встраивания оценивается на основе их способности извлекать похожие элементы и исключать несхожие, используя такие метрики, как точность, полнота и nDCG.
Векторный поиск — это мощный метод, который выходит за рамки сопоставления ключевых слов путем поиска значения в различных модальностях данных с использованием встроенных семантических представлений.
Эффективный векторный поиск опирается на алгоритмы Approximate Nearest Neighbor (ANN), такие как Locality Sensitive Hashing (LSH), KD-деревья, Ball-деревья, Hierarchical Navigable Small Worlds (HNSW) и ScaNN, чтобы преодолеть ограничения линейного поиска в больших наборах данных.
Векторные базы данных — это специализированные системы, предназначенные для хранения, управления и запроса вложений в масштабе для производственных сред, решая такие проблемы, как масштабируемость, доступность и согласованность данных. Примерами являются Vertex Vector Search от Google Cloud, AlloyDB, Cloud SQL Postgres и Pinecone.
Встраивания и векторные хранилища позволяют использовать многочисленные приложения, в частности Retrieval Augmented Generation (RAG), который объединяет извлечение соответствующих документов с использованием семантического поиска с большими языковыми моделями для генерации более точных и фактических ответов с указанием источника.
Выбор модели встраивания и векторной базы данных должен основываться на конкретных данных, варианте использования, бюджете и бизнес-потребностях.
🌭3
🌭1
А это точно computer autopilot? 😈
Просто сильно похоже на прилизанный browser-use
Выглядит конечно здорово. Отличный пример как надо воровать опенсорс😃
Просто сильно похоже на прилизанный browser-use
Выглядит конечно здорово. Отличный пример как надо воровать опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - browser-use/browser-use: 🌐 Make websites accessible for AI agents. Automate tasks online with ease.
🌐 Make websites accessible for AI agents. Automate tasks online with ease. - browser-use/browser-use
🌭2
Короче, сижу я такой наслаждаюсь своей ноотропной таблеткой с Шен Пуэром и начинаю затаскивать в наш проект локальный энкодер семантик роутера (чтобы каждый раз на стартапе деньги не тратить, пусть и небольшие, на пересоздание векторов в OpenAI апихе)
Ну вроде все норм, Fastembed работает как надо.
Думаю – зачем на этом останавливаться, надо базу прикрутить и складывать вектора туда. Ну и в целом не комильфо в памяти – это пока векторов мало, а черт их знает как у меня слои роутера и колличество роутов, векторов для каждого разрастется? Не хранить же их в памяти!
Смотрю чо есть в либе на поддержке:
- Local – ну это чуть ли не тупо baseIndex, храним все в памяти.
- pinecone – тот самый опенсорс у которого из опенсорса только сдк-клиент, в который надо API токен пихать.
- postgresql with pgvector – ну тут все понятно
- qdrant – не такой зашкварный опенсорс, можно запустить контейнер и вроде как без ограничений
Ну в целом, выбор очевидный, правда ведь? Постгресс бери и делай.
Взял и сделал, а там try/except с попыткой импорта в init конструкторе😳
Ну в целом ладно, с кем не бывает, думаю я – не беда! Отнес пацанам PR с небольшими изменениями, себе пока воткнул
Ура все заработало! semantic-router создал на стартапе табличку, записал в нее все все вектора!
Только вот в логах больно много ворнингов:
Здесь мое хлебало борщей принимает идеально квадратную форму.
Во-первых – какой еще base.py?
Во-вторых – В смысле Index is None?
Да, все верно – base.py с BaseIndex😃
Да, все правильно – get_utterances() в PostgresqlIndex вообще не реализован.
Я все понимаю – опенсорс. Надо как то деньги зарабатывать... А нахрена это релизить и в доку писать?
Нет времени дописать – сделайте майлстоун, покличьте народ, это норм практика.
Ну вроде все норм, Fastembed работает как надо.
Думаю – зачем на этом останавливаться, надо базу прикрутить и складывать вектора туда. Ну и в целом не комильфо в памяти – это пока векторов мало, а черт их знает как у меня слои роутера и колличество роутов, векторов для каждого разрастется? Не хранить же их в памяти!
Смотрю чо есть в либе на поддержке:
- Local – ну это чуть ли не тупо baseIndex, храним все в памяти.
- pinecone – тот самый опенсорс у которого из опенсорса только сдк-клиент, в который надо API токен пихать.
- postgresql with pgvector – ну тут все понятно
- qdrant – не такой зашкварный опенсорс, можно запустить контейнер и вроде как без ограничений
Ну в целом, выбор очевидный, правда ведь? Постгресс бери и делай.
Взял и сделал, а там try/except с попыткой импорта в init конструкторе
Ну в целом ладно, с кем не бывает, думаю я – не беда! Отнес пацанам PR с небольшими изменениями, себе пока воткнул
sys.modules["semantic_router.index.postgres"].psycopg2 = psycopg2
Ура все заработало! semantic-router создал на стартапе табличку, записал в нее все все вектора!
Только вот в логах больно много ворнингов:
base.py:108 - get_utterances() - Index is None, could not retrieve utterances.Здесь мое хлебало борщей принимает идеально квадратную форму.
Во-первых – какой еще base.py?
Во-вторых – В смысле Index is None?
Да, все верно – base.py с BaseIndex
Да, все правильно – get_utterances() в PostgresqlIndex вообще не реализован.
Я все понимаю – опенсорс. Надо как то деньги зарабатывать... А нахрена это релизить и в доку писать?
Нет времени дописать – сделайте майлстоун, покличьте народ, это норм практика.
Please open Telegram to view this post
VIEW IN TELEGRAM
Насколько давно вы пушили прямиком в мастер? 😈
Anonymous Poll
21%
Более года назад 🤗
24%
Более месяца 🌟
21%
Примерно неделю назад 🌟
34%
Я только в мастер и пушу 😎
🌭2
Вот и кончилась неделя интесива про LLM трансформеры и все что вокруг них от Google/Kaggle.
тут написал небольше резюме по 3-ему и оставшимся дням.
TLDR;
4 - 5 день практически целиком в мусорку, 1-3 забираем документы, изучаем пейперы в источниках, умнеем, бежим дальше.
А дальше все самое интересное💖
тут написал небольше резюме по 3-ему и оставшимся дням.
TLDR;
4 - 5 день практически целиком в мусорку, 1-3 забираем документы, изучаем пейперы в источниках, умнеем, бежим дальше.
А дальше все самое интересное
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegraph
Kaggle intensive day 3... and the rest
В "продвинутой" бумаге по агентским системам из третьего дня интенсива говорится ровно о том же, к чему мы в Моните пришли после первой, и окончательно во время второй итерации по разработке MVP ассистента – разделяй и властвуй. Документ в первой части преподносит…
🌭1 1
Я потихоньку строю персонального ассистента – rag систему по материалам о программной инженерии и инженерии вообще, которые накопились за последние пять лет и продолжают копиться пока я стучу по кнопкам.
Проблема конечно дефолтная - что то в pdf, что то уже в маркдаун (98% моих записей), что то сохранено html линками или файлами.
Если с pdf и маркдауном все понятно (мы целимся в последний, его удобно рубить на чанки и прокручивать в вектора), то с html надо повозиться чуть больше.
Сначала я взял майкрософтовский maritdown и он оказался очень странным именно для html - вытаскивает в какие то корявые таблицы которые придется руками или через LLM приводить в порядок.
Они еще так опрометчиво в последних версиях на 2>=numpy завязались, лол.
Так а нафиг тогда?
Знакомьтесь, сегодня хороший опенсорс:
https://github.com/unclecode/crawl4ai
Шустренько так работает, вполне себе норм достает маркдаун, все что надо.
Нет проблем прожевать локальные файлы, или html.
Будем молотить и те и другие.
Потом расскажу больше про персональный rag, может вообще отдам mcp сервером :)
Проблема конечно дефолтная - что то в pdf, что то уже в маркдаун (98% моих записей), что то сохранено html линками или файлами.
Если с pdf и маркдауном все понятно (мы целимся в последний, его удобно рубить на чанки и прокручивать в вектора), то с html надо повозиться чуть больше.
Сначала я взял майкрософтовский maritdown и он оказался очень странным именно для html - вытаскивает в какие то корявые таблицы которые придется руками или через LLM приводить в порядок.
Так а нафиг тогда?
Знакомьтесь, сегодня хороший опенсорс:
https://github.com/unclecode/crawl4ai
Шустренько так работает, вполне себе норм достает маркдаун, все что надо.
Нет проблем прожевать локальные файлы, или html.
Будем молотить и те и другие.
Потом расскажу больше про персональный rag, может вообще отдам mcp сервером :)
GitHub
GitHub - unclecode/crawl4ai: 🚀🤖 Crawl4AI: Open-source LLM Friendly Web Crawler & Scraper. Don't be shy, join here: https://dis…
🚀🤖 Crawl4AI: Open-source LLM Friendly Web Crawler & Scraper. Don't be shy, join here: https://discord.gg/jP8KfhDhyN - unclecode/crawl4ai
Наверное самые лучшие мысли в этой статье:
1) LLM хороши для быстрого прототипирования, и то что большие модели, нужно заменять на малые (тюнить os / обучать свои и тд), или избавляться от них вообще там где они оказываются не нужны.
2) LLM не серебрянные пули. Люди никак не поймут что никакая прикладная технология или метод по определению не могут быть серебряными пулями, ну они же прикладные.
***
Гипотетический AGI на то и general. Продолжать на серьезных щах говорить про AGI хоть сколько нибудь уважающим себя людям – уже зашквар. Это я к свежим, но все еще идиотским разгонам. Если такая технология появится, то тогда и только тогда когда будет решен огромный пласт сопутствующих осложнений. Уважающие себя, нацеленные на результат в этой сфере разгоняют мульти-агентские системы, где агенты имеют предельно четкую ответственность. И как раз работы которые потенциально увеличат возможность создания AGI хоть сколько нибудь. Перспективное!
***
А теперь к минусу статьи с которой я начал.
В самом начале набрасывается вроде бы здравая мысль определить задачу:
Вы видите тут задачу? Вот и я не вижу. А она есть.
Конечно же первой задачей является определить саму задачу через максимальное заземление в реально решаемую проблему и ее область.
Быть может окажется что нам даже для прототипирования LLM не понадобится.
Если вы ищите серебряные пули - вы уже проиграли. Нам нужны не пули, а пулелейки.
Рациональная системная инженерия и ее первые принципы как раз такая пулелейка.
1) LLM хороши для быстрого прототипирования, и то что большие модели, нужно заменять на малые (тюнить os / обучать свои и тд), или избавляться от них вообще там где они оказываются не нужны.
2) LLM не серебрянные пули. Люди никак не поймут что никакая прикладная технология или метод по определению не могут быть серебряными пулями, ну они же прикладные.
***
Гипотетический AGI на то и general. Продолжать на серьезных щах говорить про AGI хоть сколько нибудь уважающим себя людям – уже зашквар. Это я к свежим, но все еще идиотским разгонам. Если такая технология появится, то тогда и только тогда когда будет решен огромный пласт сопутствующих осложнений. Уважающие себя, нацеленные на результат в этой сфере разгоняют мульти-агентские системы, где агенты имеют предельно четкую ответственность. И как раз работы которые потенциально увеличат возможность создания AGI хоть сколько нибудь. Перспективное!
***
А теперь к минусу статьи с которой я начал.
В самом начале набрасывается вроде бы здравая мысль определить задачу:
Stage I: Prepare
In this stage, the goal is to get a good sense of what you want to accomplish and where is the best place to start.
Define the task: With all the publicity surrounding LLMs, it is easy to think that they are general problem-solvers that can take a complex task and come up with a solution. But if you want to get good results, you should pick one specific task and try to formulate it as an input-output problem that can be categorized into one of known categories (classification, regression, question-answering, summarization, translation, text generation, etc.).
Вы видите тут задачу? Вот и я не вижу. А она есть.
Конечно же первой задачей является определить саму задачу через максимальное заземление в реально решаемую проблему и ее область.
Быть может окажется что нам даже для прототипирования LLM не понадобится.
Если вы ищите серебряные пули - вы уже проиграли. Нам нужны не пули, а пулелейки.
Рациональная системная инженерия и ее первые принципы как раз такая пулелейка.
GoPractice
How to Approach LLM Application Development: A Practical Guide - GoPractice
Learn a structured three-stage framework for building LLM-powered applications—from defining tasks and refining prompts to optimizing for scalability and efficiency.
🌭2
Китайцы выкатили очередной Хуньян резонер, турбо декодер блин!
Попробуй тут https://llm.hunyuan.tencent.com/#/chat/hy-t1
Попробуй тут https://llm.hunyuan.tencent.com/#/chat/hy-t1
🌭3
Попросил ChatGPT нарисовать как он видит свои мозги будущего, работающие на базе квантовых вычислений под криогенными температурами.
Навеяно свежими исследованиями.
Буквы он конечно хорошо стал копировать на изображение. Можно плакаты на техно рейвы генерировать💃
Навеяно свежими исследованиями.
Буквы он конечно хорошо стал копировать на изображение. Можно плакаты на техно рейвы генерировать
Please open Telegram to view this post
VIEW IN TELEGRAM
🌭2