Поразительный прогресс сегодня происходит в диффузионных ИИ-моделях. С постоянными обновлениями MidJourney мы уже забыли про то, что ровно год назад мы всем интернетом восхищались маленьким картинкам со стулом-авокадо (первая картинка), и всего за год прогресс дошел до неотличимой от реальности граифки, которую можно генерировать абсолютно бесплатно на стареньком Air (а умельцы — даже на ведроидах).
В эту пятницу очередной вебинар Codex Town будет посвящен Stable Diffusion и бесплатным моделям для генерации фото/видео. Мы разберемся как эти модели работают, как скачать и бесплатно начать использовать, какие есть трюки для достижения максимально крутых результатов. Немного поговорим о том как тренировать свои графические модели, чтобы она могла генерировать прекрасные пейзажи и натюрморты исключительно в форме и стиле вашего кота.
Регистрация на вебинар: https://lu.ma/codextown
Подписчики codex.town в Boosty (для карт СНГ) и BuyMeaCoffee получат прямую ссылку на вебинар.
В эту пятницу очередной вебинар Codex Town будет посвящен Stable Diffusion и бесплатным моделям для генерации фото/видео. Мы разберемся как эти модели работают, как скачать и бесплатно начать использовать, какие есть трюки для достижения максимально крутых результатов. Немного поговорим о том как тренировать свои графические модели, чтобы она могла генерировать прекрасные пейзажи и натюрморты исключительно в форме и стиле вашего кота.
Регистрация на вебинар: https://lu.ma/codextown
Подписчики codex.town в Boosty (для карт СНГ) и BuyMeaCoffee получат прямую ссылку на вебинар.
🏆30👍22
Есть ли сознание у LLM?
Сложный вопрос, учитывая что определить сознание толком не получается. Но авторы этого чудесного 88-страничного пейпера попытались ответить на вопрос. Для начала они выделили основные современные теории, которые определяют что такое вообще сознание:
Recurrent processing theory. Сознание возникает из рекуррентной обработки, при которой сигналы распространяются туда-сюда между различными уровнями кортикальной иерархии. Рекуррентные петли позволяют интегрировать информацию и сформировать организованное представление зрительной сцены.
Global workspace theory. Сознание включает "трансляцию" информации во многие различные области мозга через глобальное рабочее пространство. Только какая-то информация отбирается с помощью внимания и конкуренции, чтобы попасть в рабочее пространство ограниченной емкости и стать сознательной.
Higher-order theories. Сознание требует некоторого рода представления высшего порядка, такого как мысль или метакогнитивный процесс, направленный на ментальное состояние более низкого порядка. Представление высшего порядка делает нас осведомленными или сознательными о состоянии более низкого порядка.
Integrated information theory. Сознанию соответствует способность системы к интегрированной информации. То есть, количество информации, генерируемой взаимодействиями между частями, которое нельзя свести к самим частям.
Attention schema theory. Сознание зависит от построения упрощенной модели внимания - "схемы внимания", которая представляет обработку вниманием информации в мозге. Содержание этой схемы соответствует сознательному опыту.
Predictive processing theory. Мозг постоянно генерирует прогнозы сверху вниз и обновляет их на основе ошибок прогнозирования. Некоторые теоретики утверждают, что основные свойства сознания возникают из динамики предиктивной обработки.
Embodiment and enactivist theory. В основе лежит важность наличия тела, расположенного в окружающей среде, предполагая, что сознание возникает из сенсомоторных процессов и взаимодействий между мозгом, телом и миром.
Определить задачу уже важный шаг. Если пробежаться по пейперу дальше, но какого-то однозначного вывода авторы, конечно, не дают, но замечают интересные факты:
— LLM умны, но это еще не гарантирует сознание
— У LLM нет многих из перечисленных этими теориями свойств, такие как глобальное рабочее пространство, чувство "себя" и агентность, постоянный мониторинг окружающей среды через сенсорные органы
— LLM не имеют чувства физической реальности и тела, это жирный минус
— LLM могут печатать очень складный текст, но это не гарантия сознания. Они не могут подтвердить или проверить свои слова.
— Итого, наверное, сознания нет.
Что не удивительно, но скорее полезен факт того, что авторы сформулировали четкие критерии по которым можно будет отследить когда это сознание наконец-таки появится. Кстати, продажа подписки на сознательного ИИ-агента — это работорговля, ИТ-бизнес или что-то сродни продаже попугаев?
Сложный вопрос, учитывая что определить сознание толком не получается. Но авторы этого чудесного 88-страничного пейпера попытались ответить на вопрос. Для начала они выделили основные современные теории, которые определяют что такое вообще сознание:
Recurrent processing theory. Сознание возникает из рекуррентной обработки, при которой сигналы распространяются туда-сюда между различными уровнями кортикальной иерархии. Рекуррентные петли позволяют интегрировать информацию и сформировать организованное представление зрительной сцены.
Global workspace theory. Сознание включает "трансляцию" информации во многие различные области мозга через глобальное рабочее пространство. Только какая-то информация отбирается с помощью внимания и конкуренции, чтобы попасть в рабочее пространство ограниченной емкости и стать сознательной.
Higher-order theories. Сознание требует некоторого рода представления высшего порядка, такого как мысль или метакогнитивный процесс, направленный на ментальное состояние более низкого порядка. Представление высшего порядка делает нас осведомленными или сознательными о состоянии более низкого порядка.
Integrated information theory. Сознанию соответствует способность системы к интегрированной информации. То есть, количество информации, генерируемой взаимодействиями между частями, которое нельзя свести к самим частям.
Attention schema theory. Сознание зависит от построения упрощенной модели внимания - "схемы внимания", которая представляет обработку вниманием информации в мозге. Содержание этой схемы соответствует сознательному опыту.
Predictive processing theory. Мозг постоянно генерирует прогнозы сверху вниз и обновляет их на основе ошибок прогнозирования. Некоторые теоретики утверждают, что основные свойства сознания возникают из динамики предиктивной обработки.
Embodiment and enactivist theory. В основе лежит важность наличия тела, расположенного в окружающей среде, предполагая, что сознание возникает из сенсомоторных процессов и взаимодействий между мозгом, телом и миром.
Определить задачу уже важный шаг. Если пробежаться по пейперу дальше, но какого-то однозначного вывода авторы, конечно, не дают, но замечают интересные факты:
— LLM умны, но это еще не гарантирует сознание
— У LLM нет многих из перечисленных этими теориями свойств, такие как глобальное рабочее пространство, чувство "себя" и агентность, постоянный мониторинг окружающей среды через сенсорные органы
— LLM не имеют чувства физической реальности и тела, это жирный минус
— LLM могут печатать очень складный текст, но это не гарантия сознания. Они не могут подтвердить или проверить свои слова.
— Итого, наверное, сознания нет.
Что не удивительно, но скорее полезен факт того, что авторы сформулировали четкие критерии по которым можно будет отследить когда это сознание наконец-таки появится. Кстати, продажа подписки на сознательного ИИ-агента — это работорговля, ИТ-бизнес или что-то сродни продаже попугаев?
👍33🤗3
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Ясный сокол на 180 миллиардов параметров.
Falcon 180B - сверхмощная языковая модель с 180 миллиардами параметров, обученная на 3.5 триллионах(!) токенов.
Эта модель отлично справляется с различными задачами, такими как рассуждение, кодирование, знание и тесты знаний, даже опережая конкурентов, таких как Meta LLaMA 2.
Среди моделей с закрытым исходным кодом он стоит сразу за GPT 4 от OpenAI и работает наравне с PaLM 2 Large от Google.
Информация, хагингфейс и демо тут, там же можно скачать и почитать лиц соглашение.
https://falconllm.tii.ae/falcon-models.html
Понятно, что она не влезет ни в одну видеокарту, поэтому ждем вот такое оборудование от Nvidia:
🔥NVIDIA GH200 Grace Hopper 282 GB VRAM!
На SIGGRAPH 2023 NVIDIA анонсировала нового монстра для задча Generative AI - GH200 Grace Hopper с памятью HBM3e:
🔹 На борту чипа не только GPU, но и встроенный ARM процессор.
🔹 Базовая версия оснащена 141 GB VRAM и 72 ядрами ARM Neoverse c 480 GB LPDDR5X RAM.
🔹 С помощью NVIDIA NVLink можно объединять в сдвоенные "суперчипы", достигая 480x2 GB быстрой памяти (RAM)
🔹 Сдвоенный чип предлагает 282 GB VRAM, 144 ядра ARM Neoverse и 7.9 PFLOPS int8 производителтьности (так же как и у сдвоенной H100 NVL).
🔹 Новая память HBM3e на 50% быстрее предыдущего поколения HBM3, обеспечивая 10 ТБ/с комбинированной пропускной способности
Falcon 180B - сверхмощная языковая модель с 180 миллиардами параметров, обученная на 3.5 триллионах(!) токенов.
Эта модель отлично справляется с различными задачами, такими как рассуждение, кодирование, знание и тесты знаний, даже опережая конкурентов, таких как Meta LLaMA 2.
Среди моделей с закрытым исходным кодом он стоит сразу за GPT 4 от OpenAI и работает наравне с PaLM 2 Large от Google.
Информация, хагингфейс и демо тут, там же можно скачать и почитать лиц соглашение.
https://falconllm.tii.ae/falcon-models.html
Понятно, что она не влезет ни в одну видеокарту, поэтому ждем вот такое оборудование от Nvidia:
🔥NVIDIA GH200 Grace Hopper 282 GB VRAM!
На SIGGRAPH 2023 NVIDIA анонсировала нового монстра для задча Generative AI - GH200 Grace Hopper с памятью HBM3e:
🔹 На борту чипа не только GPU, но и встроенный ARM процессор.
🔹 Базовая версия оснащена 141 GB VRAM и 72 ядрами ARM Neoverse c 480 GB LPDDR5X RAM.
🔹 С помощью NVIDIA NVLink можно объединять в сдвоенные "суперчипы", достигая 480x2 GB быстрой памяти (RAM)
🔹 Сдвоенный чип предлагает 282 GB VRAM, 144 ядра ARM Neoverse и 7.9 PFLOPS int8 производителтьности (так же как и у сдвоенной H100 NVL).
🔹 Новая память HBM3e на 50% быстрее предыдущего поколения HBM3, обеспечивая 10 ТБ/с комбинированной пропускной способности
falconllm.tii.ae
Introducing the Technology Innovation Institute’s Falcon 3 Making Advanced AI accessible and Available to Everyone, Everywhere
Falcon LLM is a generative large language model (LLM) that helps advance applications and use cases to future-proof our world.
👍37
Ожидание: AI-ассистенты, которые анализируют код, договора, диагнозы и помогают делать научные открытия
Реальность: топ revenue стартапы в ИИ — початиться с героями аниме (character), генерация виртуальных голых женщин, hot-or-not для виртуальных голых женщин, секстинг и виртуальный секс с виртуальными голыми женщинами
Хочешь заработать — аппелируй к низким (и потому максимально распространенным) потребностям.
Кстати, в пятницу мы расскажем как генерировать свои виртуальные картинки и видео (не обязательно голых людей) бесплатно, и как это работает изнутри. Регистрация на вебинар: https://lu.ma/codextown
Подписчики codex.town в Boosty (для карт СНГ) и BuyMeaCoffee получат прямую ссылку на вебинар.
Реальность: топ revenue стартапы в ИИ — початиться с героями аниме (character), генерация виртуальных голых женщин, hot-or-not для виртуальных голых женщин, секстинг и виртуальный секс с виртуальными голыми женщинами
Хочешь заработать — аппелируй к низким (и потому максимально распространенным) потребностям.
Кстати, в пятницу мы расскажем как генерировать свои виртуальные картинки и видео (не обязательно голых людей) бесплатно, и как это работает изнутри. Регистрация на вебинар: https://lu.ma/codextown
Подписчики codex.town в Boosty (для карт СНГ) и BuyMeaCoffee получат прямую ссылку на вебинар.
👍34😢7
Через несколько часов начнётся вебинар с Майком на тему генерации ИИ-графики с помощью диффузионных моделей типа SD, SDXL, ControlNet, Comfy и других.
А еще сегодня выложу видео про то как делать мощного продажного бота без кода и бесплатно. Видео будет в Boosty.
Регистрация на вебинар: https://lu.ma/codextown
А еще сегодня выложу видео про то как делать мощного продажного бота без кода и бесплатно. Видео будет в Boosty.
Регистрация на вебинар: https://lu.ma/codextown
boosty.to
codex.town - Оставайся на острие технологий
Что такое Codex Town 🧠 Codex Town — сообщество предпринимателей, инженеров, разработчиков и исследователей, которые учатся проектировать и понимать системы нового поколения. Здесь мы вместе разбираем и учимся строить и понимать системы: от RAG и DevOps…
👍12💘2
Люди: изобрели промт «думай пошагово», улучшили производительность LLM, горды собой
LLM: придумал для себя промт «глубоко вдохни и подумай», улучшил производительность еще сильнее, забыл сообщить об этом кожаным
В данной таблице приведены примеры промтов, которые LLM делают сами для себя и их сравнительная эффективность.
LLM: придумал для себя промт «глубоко вдохни и подумай», улучшил производительность еще сильнее, забыл сообщить об этом кожаным
В данной таблице приведены примеры промтов, которые LLM делают сами для себя и их сравнительная эффективность.
👍64⚡28
Новое видео! Прикрепляю запись пятничного вебинара, где мы разобрали модели, которые умеют генерировать графический или видеоконтент на основе текстового ввода.
Мы посмотрели популярные диффузионные модели, такие как DALL-E, Stable Diffusion, Imagen. Разобрали принцип работы диффузионных моделей: латентное пространство, ньюансы обучения таких моделей, процесс генерации, производительность.
Так же копнули в инструменты для работы с диффузионными моделями, таких как Automatic1111 и DreamStudio. Так же на практике посмотрели как улучшить качество генерации используя ComfyUI и ControlNet.
Ну и наконец поговорили о перспективах применения диффузионных моделей — для сжатия и передачи медиаконтента, генерации видео по тексту и создания виртуальных персонажей и сред.
Смотреть запись: https://youtu.be/s5ogV5Z2dIU (презентация в описании)
Подписаться на Boosty и получить доступ к закрытым вебинарам: https://boosty.to/codextown
Мы посмотрели популярные диффузионные модели, такие как DALL-E, Stable Diffusion, Imagen. Разобрали принцип работы диффузионных моделей: латентное пространство, ньюансы обучения таких моделей, процесс генерации, производительность.
Так же копнули в инструменты для работы с диффузионными моделями, таких как Automatic1111 и DreamStudio. Так же на практике посмотрели как улучшить качество генерации используя ComfyUI и ControlNet.
Ну и наконец поговорили о перспективах применения диффузионных моделей — для сжатия и передачи медиаконтента, генерации видео по тексту и создания виртуальных персонажей и сред.
Смотреть запись: https://youtu.be/s5ogV5Z2dIU (презентация в описании)
Подписаться на Boosty и получить доступ к закрытым вебинарам: https://boosty.to/codextown
👍31🏆8
LLM призваны сэкономить нам миллиарды часов, вот один из примеров.
Сегодня думал как сделать эффективное и ёмкое представление большого количества коммуникаций, чтобы пользователь мог быстро понять что происходит, но ему не требовалось бы читать сотни чатов и имейлов.
Для этого сделал визуализацию чатов и переписок. Работает следующим образом:
— скрипт парсит ваши чаты, письма и группы
— создает графовую визуализацию, которая наглядно показывает участников (зеленые) и ключевые темы обсуждения (фиолетовые)
— и создает грани у графа, которые отражают отношения (предикат) между разными пользователями и идеями
— при желании можно нажать на любую грань и прочитать полный текст сообщения
Тестирую на всех своих каналах и группах. Работает еще не идеально, но зато узнал сколько всего я уже пропустил в безднах телеграма.
Видео с живым демо: https://youtu.be/qoeOdrQ5bZ0
Предыдущие итерации этой идеи: раз, два.
Сегодня думал как сделать эффективное и ёмкое представление большого количества коммуникаций, чтобы пользователь мог быстро понять что происходит, но ему не требовалось бы читать сотни чатов и имейлов.
Для этого сделал визуализацию чатов и переписок. Работает следующим образом:
— скрипт парсит ваши чаты, письма и группы
— создает графовую визуализацию, которая наглядно показывает участников (зеленые) и ключевые темы обсуждения (фиолетовые)
— и создает грани у графа, которые отражают отношения (предикат) между разными пользователями и идеями
— при желании можно нажать на любую грань и прочитать полный текст сообщения
Тестирую на всех своих каналах и группах. Работает еще не идеально, но зато узнал сколько всего я уже пропустил в безднах телеграма.
Видео с живым демо: https://youtu.be/qoeOdrQ5bZ0
Предыдущие итерации этой идеи: раз, два.
YouTube
Визуализатор сообщений
codex.town
⚡50👍7
Продолжаю поражаться как много думания теперь за нас будут делать силиконовые нейронки.
Поиск, анализ и действия на основе информации — это большая часть нашей работы. Теперь её можно в существенной степени автоматизировать.
P.S. На скине редизайн и переработанный бекэнд проекта, о котором я писал в предыдущем посте.
Поиск, анализ и действия на основе информации — это большая часть нашей работы. Теперь её можно в существенной степени автоматизировать.
P.S. На скине редизайн и переработанный бекэнд проекта, о котором я писал в предыдущем посте.
👍39
Как OpenAI (и другие LLM компании) формулируют свою миссию: интеллект по запросу.
Есть проблема, для решения которой нужно Х мегатьюрингов конгнитивности? Отправляй свою задачу в этот API и плати $0.002 за ответ на страницу.
Сегодня это просить ИИ шиллить токены и писать мемы; завтра — научные исследования, диагнозы, legal opinions, код для энтерпрайз интеграций.
Есть проблема, для решения которой нужно Х мегатьюрингов конгнитивности? Отправляй свою задачу в этот API и плати $0.002 за ответ на страницу.
Сегодня это просить ИИ шиллить токены и писать мемы; завтра — научные исследования, диагнозы, legal opinions, код для энтерпрайз интеграций.
👍75👎1
Фокус этого канала сильно сместился в сторону generative AI, но стоит заметить, что в крипте кажется что-то наконец происходит. А именно: paper hands VCs закурившиеся на максимуме бесполезными NFT коллекциями и токенами решились-таки продать на самом дне (одному Б-гу известно какая логика у них в голове), а скамеры отчаялись ждать у моря погоды и пошли в более рыбные места (тот же ИИ).
Не сказал бы, что одного этого достаточно чтобы биткоин взлетел, а лично вы сделали бы 1050 иксов за полторы недели без каких-либо напрягов (я знаю, вы к такому привыкли). Но следить за криптой становится интереснее. Теперь кроме поиска хомяка-инвестора, которому бы втюхать токен, там происходят более интересные штуки.
А именно их две: первая - технологическая, вторая - политическая. Первая про zk, account abstraction, новый дефай, identity&reputation. Вторая про то, про что крипта была с самого начала — последовательное, долгосрочное (think decades) переизоберетение и изменение существующих институтов, таких как глобальная финансовая система или системы распределения публичных благ (aka государства).
В первом случае пока все упирается в базовую продуктовую задачу — сделать так, чтобы это было удобнее и полезнее для пользователя, чем аналоги. Во втором — в задачу политических альянсов, в том числе со стороны разных кандидатов и партий в разных странах, или верховным и иных судах в США/ЕС.
Так что, если вы вдруг решили крипту похоронить только потому что она не сделала вас лично миллиардером с вашего $150 депозита за 3 месяца — то зря.
Не сказал бы, что одного этого достаточно чтобы биткоин взлетел, а лично вы сделали бы 1050 иксов за полторы недели без каких-либо напрягов (я знаю, вы к такому привыкли). Но следить за криптой становится интереснее. Теперь кроме поиска хомяка-инвестора, которому бы втюхать токен, там происходят более интересные штуки.
А именно их две: первая - технологическая, вторая - политическая. Первая про zk, account abstraction, новый дефай, identity&reputation. Вторая про то, про что крипта была с самого начала — последовательное, долгосрочное (think decades) переизоберетение и изменение существующих институтов, таких как глобальная финансовая система или системы распределения публичных благ (aka государства).
В первом случае пока все упирается в базовую продуктовую задачу — сделать так, чтобы это было удобнее и полезнее для пользователя, чем аналоги. Во втором — в задачу политических альянсов, в том числе со стороны разных кандидатов и партий в разных странах, или верховным и иных судах в США/ЕС.
Так что, если вы вдруг решили крипту похоронить только потому что она не сделала вас лично миллиардером с вашего $150 депозита за 3 месяца — то зря.
👍54⚡7
Лучший веб-сайт чтобы начать день (given, вам интересно куда движется мир и каким он будет через Х лет): https://huggingface.co/papers
huggingface.co
Daily Papers - Hugging Face
Your daily dose of AI research from AK
⚡18👍10
Вышло очень серьезное исследование использования ИИ в бизнес-процессах, от бизнес-школ Гарварда и Пенна на примере ежедневной работы консультантов BCG (входит в тройку мировых самых крутых консалтинговых компаний).
- Измерялась продуктивность участников (сотрудник BCG получает от $15k/мес) по 18 навыкам. По всем из ним, по всем позициям, по всем типам измерения прироста продуктивности сотрудники с GPT-4 показали превосходство над остальными
- Консультанты, использующие ИИ, в среднем выполнили на 12,2% больше задач, завершили задания на 25,1% быстрее и показали на 40% более высокое качество результатов по сравнению с теми, кто не использовал ИИ. В эксперименте участвовало 728 консультантов BCG, команда провела сотни интервью и замеров.
- Есть две модели: кентавр и киборг. Первые четко разделяют где задачи для человека, а где для машины. Вторые слились с ИИ как продолжением своего тела.
- ИИ — великий уравнитель. Лучшие из лучших получили в среднем 17% прироста эффективности работы, а когорта "отстающих" аж целых 43%. В итоге их "score task" (оценка рабочих задач) почти сравнялся. Примерно как при добыче золота руками был очень важен личный скилл, а после изобретения экскаваторов или лопат все стали резко равны.
- Важно отметить, что слишком сильно полагаться на ИИ и не понимать рабочую область совсем — это тоже проблема. Авторы называют это "уснуть на рулём".
P.S. Хотите мы сделаем такой же пилот у вас в вашей компании? Пишите в личку. На это есть ресурсы (наши, технологические), время, желание.
- Измерялась продуктивность участников (сотрудник BCG получает от $15k/мес) по 18 навыкам. По всем из ним, по всем позициям, по всем типам измерения прироста продуктивности сотрудники с GPT-4 показали превосходство над остальными
- Консультанты, использующие ИИ, в среднем выполнили на 12,2% больше задач, завершили задания на 25,1% быстрее и показали на 40% более высокое качество результатов по сравнению с теми, кто не использовал ИИ. В эксперименте участвовало 728 консультантов BCG, команда провела сотни интервью и замеров.
- Есть две модели: кентавр и киборг. Первые четко разделяют где задачи для человека, а где для машины. Вторые слились с ИИ как продолжением своего тела.
- ИИ — великий уравнитель. Лучшие из лучших получили в среднем 17% прироста эффективности работы, а когорта "отстающих" аж целых 43%. В итоге их "score task" (оценка рабочих задач) почти сравнялся. Примерно как при добыче золота руками был очень важен личный скилл, а после изобретения экскаваторов или лопат все стали резко равны.
- Важно отметить, что слишком сильно полагаться на ИИ и не понимать рабочую область совсем — это тоже проблема. Авторы называют это "уснуть на рулём".
P.S. Хотите мы сделаем такой же пилот у вас в вашей компании? Пишите в личку. На это есть ресурсы (наши, технологические), время, желание.
⚡64👍26
Чтобы предсказать успешность человека надо ответить на вопрос откуда он получает свой дофамин.
Мозг стремится к (crave) дофамину. И каждый для себя находит способ его получения. Это могут быть шумные вечеринки, интересные лекции, спорт, алкоголь, сериалы. А так же работа.
Так вот, в работе, куда больших результатов обычно получают те, у кого есть привычка получать дофамин не в тот момент, когда ваши идеи поддерживают, а когда вы сами свои идеи улучшаете или даже отбрасываете. Не признание, а улучшение собственной картины мира. Это создает привычку постоянно самоулучшения.
А откуда вы берете свой дофамин?
Мозг стремится к (crave) дофамину. И каждый для себя находит способ его получения. Это могут быть шумные вечеринки, интересные лекции, спорт, алкоголь, сериалы. А так же работа.
Так вот, в работе, куда больших результатов обычно получают те, у кого есть привычка получать дофамин не в тот момент, когда ваши идеи поддерживают, а когда вы сами свои идеи улучшаете или даже отбрасываете. Не признание, а улучшение собственной картины мира. Это создает привычку постоянно самоулучшения.
А откуда вы берете свой дофамин?
👍135⚡24
Сделать ИИ-агент с долгосрочной памятью, без программирования? Легко!
В эту пятницу на очередном (12-ом) вебинаре я покажу вам как сделать ИИ-приложение, которое умеет записывать новые знания в долгосрочную память и отвечать пользователю на основе именно этих знаний. Я покажу как делать это без единой строчки кода и таким образом, что ваш босс/клиент/жена/кот смогут в дальнейшем менять, адаптировать и улучшать приложения без каких-либо технических навыков.
Вам хотелось чтобы ChatGPT давал более конкретные ответы и ссылался бы на источник? Чтобы бот отвечал именно так, как вы его заранее "обучили"? Чтобы для сотрудника технической поддержки выдавалась сразу цитата из документации? Чтобы маркетинговые тексты аккуратно и точно показывали хар-ки продукта? Чтобы ваш личный ассистент отвечал по вашей собственной базе знаний, а не придумывал от себя?
Я покажу как это сделать используя исключительно публично и бесплатно доступные инструменты. Так же расскажу как использовать всю мощь LangChain через no-code платформы и как бесплатно эти платформы захостить. (Грубо говоря, как за $5-7/мес получить функционал, который StackAI продает за $900/мес)
Почти все практические юзкейсы генеративного ИИ включают в себя тот или иной способ дообучения, тьюнинга и чейнинга (соединения одной или нескольких LLM в сеть агентов, которые образуют мыслительный процесс). И подход, про который я расскажу в пятницу является самым простым, удобным даже для нетехнарей способом это сделать.
Вебинар доступен для подписчиков Boosty (любого уровня) или для тех, кто зарегистрировался в Luma. Исходный код, инструкция и запись воркшопа пришлю всем кто зарегистрирован или подписался в бусти. Начало в 4pm London / 6pm Moscow / 11am NY.
В эту пятницу на очередном (12-ом) вебинаре я покажу вам как сделать ИИ-приложение, которое умеет записывать новые знания в долгосрочную память и отвечать пользователю на основе именно этих знаний. Я покажу как делать это без единой строчки кода и таким образом, что ваш босс/клиент/жена/кот смогут в дальнейшем менять, адаптировать и улучшать приложения без каких-либо технических навыков.
Вам хотелось чтобы ChatGPT давал более конкретные ответы и ссылался бы на источник? Чтобы бот отвечал именно так, как вы его заранее "обучили"? Чтобы для сотрудника технической поддержки выдавалась сразу цитата из документации? Чтобы маркетинговые тексты аккуратно и точно показывали хар-ки продукта? Чтобы ваш личный ассистент отвечал по вашей собственной базе знаний, а не придумывал от себя?
Я покажу как это сделать используя исключительно публично и бесплатно доступные инструменты. Так же расскажу как использовать всю мощь LangChain через no-code платформы и как бесплатно эти платформы захостить. (Грубо говоря, как за $5-7/мес получить функционал, который StackAI продает за $900/мес)
Почти все практические юзкейсы генеративного ИИ включают в себя тот или иной способ дообучения, тьюнинга и чейнинга (соединения одной или нескольких LLM в сеть агентов, которые образуют мыслительный процесс). И подход, про который я расскажу в пятницу является самым простым, удобным даже для нетехнарей способом это сделать.
Вебинар доступен для подписчиков Boosty (любого уровня) или для тех, кто зарегистрировался в Luma. Исходный код, инструкция и запись воркшопа пришлю всем кто зарегистрирован или подписался в бусти. Начало в 4pm London / 6pm Moscow / 11am NY.
👍59⚡5
Media is too big
VIEW IN TELEGRAM
Только ленивый не написал о выходе DALL-E 3, новой диффузионной модели от OpenAI. В нашем последнем вебинаре мы как раз разбирали как работают такого рода модели.
Из плюсов:
- встроено в чат
- умеет текст и надписи
- классная стилизация
- все это можно будет встраивать через API (сгенерируй модель атома для урока химии, нарисуй лого на этом слайде)
Из минусов:
- непонятно насколько она хороша с лицами и людьми
- OpenAI серьезно восприняли вой на тему «я художник, это мой стиль» и теперь там будет копирайт-холокост и цензура
В течении ближайшего месяца будет доступно для всех пользователей ChatGPT Plus. А значит ваши промты, рабочие воркфлоу и чаты смогу генерировать умопомрачительный графон. Про DALL-E еще сделаем отдельный вебинар.
А в эту пятницу, напомню, будем говорить про создание цепочек ИИ-агентов с доступом к долговременной памяти, подключением к сайту или телеграмм-боту. Будет практический воркшоп. И все это через no-code. Вебинар доступен для подписчиков Boosty (любого уровня) или для тех, кто зарегистрировался в Luma.
Из плюсов:
- встроено в чат
- умеет текст и надписи
- классная стилизация
- все это можно будет встраивать через API (сгенерируй модель атома для урока химии, нарисуй лого на этом слайде)
Из минусов:
- непонятно насколько она хороша с лицами и людьми
- OpenAI серьезно восприняли вой на тему «я художник, это мой стиль» и теперь там будет копирайт-холокост и цензура
В течении ближайшего месяца будет доступно для всех пользователей ChatGPT Plus. А значит ваши промты, рабочие воркфлоу и чаты смогу генерировать умопомрачительный графон. Про DALL-E еще сделаем отдельный вебинар.
А в эту пятницу, напомню, будем говорить про создание цепочек ИИ-агентов с доступом к долговременной памяти, подключением к сайту или телеграмм-боту. Будет практический воркшоп. И все это через no-code. Вебинар доступен для подписчиков Boosty (любого уровня) или для тех, кто зарегистрировался в Luma.
👍38⚡9
This media is not supported in your browser
VIEW IN TELEGRAM
Можно вечно смотреть как бот подается на вакансии. Если ваши рекрутеры все ещё кожаные, то вас ждут тяжелые времена ;)
Этот скрипт считывает вакансию, сопоставляет её c резюме и заполняет вопросы и сопроводительные письма, где это требуется, индивидуальными ответами в стиле аппликанта.
Этот скрипт считывает вакансию, сопоставляет её c резюме и заполняет вопросы и сопроводительные письма, где это требуется, индивидуальными ответами в стиле аппликанта.
👍95🏆21
Пишу сценарий по использованию LLM с долгосрочной памятью для завтрашего воркшопа. Все ещё принимаются идеи от вас, но с нуля создать и объяснить как это работает смогу только один полноценный сценарий.
— пользователь (админ) загружает документ (в моем случае, один — MiCA, регуляция криптоактивов в ЕС на 150 страниц; второй — подборка медицинских исследований о действии пептидов на организм)
— LLM генерирует список часто задаваемых вопросов по этому документу
— задав конкретный вопрос, конечный пользователь получает подробный ответ со ссылками на источники в документе
— пользователь может попросить перефорулировать каждый ответ одной кнопкой. например, упросить и написать понятным языком
— как бонус: показать как встроить такую систему в телеграм-бот, веб-сайт или Whatsapp
— конечно же, всё через no-code решения
Вебинар доступен для подписчиков Boosty (любого уровня) или для тех, кто зарегистрировался в Luma. Исходный код, инструкция и запись воркшопа пришлю всем кто зарегистрирован или подписался в Boosty. Начало в 4pm London / 6pm Moscow / 11am NY.
— пользователь (админ) загружает документ (в моем случае, один — MiCA, регуляция криптоактивов в ЕС на 150 страниц; второй — подборка медицинских исследований о действии пептидов на организм)
— LLM генерирует список часто задаваемых вопросов по этому документу
— задав конкретный вопрос, конечный пользователь получает подробный ответ со ссылками на источники в документе
— пользователь может попросить перефорулировать каждый ответ одной кнопкой. например, упросить и написать понятным языком
— как бонус: показать как встроить такую систему в телеграм-бот, веб-сайт или Whatsapp
— конечно же, всё через no-code решения
Вебинар доступен для подписчиков Boosty (любого уровня) или для тех, кто зарегистрировался в Luma. Исходный код, инструкция и запись воркшопа пришлю всем кто зарегистрирован или подписался в Boosty. Начало в 4pm London / 6pm Moscow / 11am NY.
⚡25👍16
Media is too big
VIEW IN TELEGRAM
Как я и предсказывал, крупные продукты начинают внедрять ИИ функционал почти что в каждую кнопку. Следующий апдейт Windows включает в себя полноценный copilot для всей операционной системы, который будет встроен в приложения от Paint и Notepad до вполне ожидаемых PowerPoint и Excel. Bing Chat будет включать в себя полную и бесплатную версию GPT-4 + DALL-E 3.
На видео показано как Copilot из текстового документа пишет и рисует презентацию. Красота. И абсолютно неизбежно, потому что создание презентаций — это, кажется, самый бессмысленный труд офисных работников.
Ну и, конечно, теперь Word может писать документы по вашим тезисам, а Эксель — считать P&L по вашим вводным.
На видео показано как Copilot из текстового документа пишет и рисует презентацию. Красота. И абсолютно неизбежно, потому что создание презентаций — это, кажется, самый бессмысленный труд офисных работников.
Ну и, конечно, теперь Word может писать документы по вашим тезисам, а Эксель — считать P&L по вашим вводным.
👍56💘8