Forwarded from Alexander Kolosov
Telegram
AI, бизнес. Самое важное.
Теперь ChatGPT может строить графики и анализировать данные.
Сегодня стало известно, что некоторым пользователям стали доступны новые функции в ChatGPT. Основное внимание привлекают две из них: Browsing (ChatGPT с поиском в интернете) и Code Interpreter…
Сегодня стало известно, что некоторым пользователям стали доступны новые функции в ChatGPT. Основное внимание привлекают две из них: Browsing (ChatGPT с поиском в интернете) и Code Interpreter…
Forwarded from Valentin
🦄 27.05 GPT ДЕМО 20:00
Миша Буртцев: 8к->1м токенов на RMT? 🌋
Тимофей Зайцев: AutoGPT & No code
Каждый что-то готовьте показать на экране
+ Предлагайте спикеров особенно по autonomous agents+langchain.
Приносим вино и/или вкуснополезное. Оставляем после себя лучше, чем до.
Адрес: Sadaf 6, 41 эт, 4113 (возьми Id для консьержа)
Или покажи кейс онлайн с 9:00 bit.ly/WM2022_Zoom Pass: wmchampion
https://t.me/worldmodel_dubai/15722
Миша Буртцев: 8к->1м токенов на RMT? 🌋
Тимофей Зайцев: AutoGPT & No code
Каждый что-то готовьте показать на экране
+ Предлагайте спикеров особенно по autonomous agents+langchain.
Приносим вино и/или вкуснополезное. Оставляем после себя лучше, чем до.
Адрес: Sadaf 6, 41 эт, 4113 (возьми Id для консьержа)
Или покажи кейс онлайн с 9:00 bit.ly/WM2022_Zoom Pass: wmchampion
https://t.me/worldmodel_dubai/15722
Forwarded from #МодельМира🦄 (Valentin Preobrazhenskiy)
Кто-то потестит steamship.com и покажет в эту сб на GPT демо?
Forwarded from Valentin
Valentin
🦄 27.05 GPT ДЕМО 20:00 Миша Буртцев: 8к->1м токенов на RMT? 🌋 Тимофей Зайцев: AutoGPT & No code Каждый что-то готовьте показать на экране + Предлагайте спикеров особенно по autonomous agents+langchain. Приносим вино и/или вкуснополезное. Оставляем после…
Кто сегодня покажет Агента - приз бутылка джина и приглос на пятничную вечеринку с участием … женщин
steamship.com
steamship.com
Forwarded from Valentin
Media is too big
VIEW IN TELEGRAM
Forwarded from Типичный программист
Собираем умную CRM на ChatGPT, PostgreSQL и ToolJet
Вот вам мегагайд, который поможет собрать умную CRM с блэкджеком и автогенерацией писем для клиентов
#нейросети #sql
Вот вам мегагайд, который поможет собрать умную CRM с блэкджеком и автогенерацией писем для клиентов
#нейросети #sql
Forwarded from Weekly Charts
📊 Мгновенно создавайте графики с помощью ИИ
Ранее писал про AI-инструмент для визуализации данных ChartGPT. Сегодня в мини-обзоре ещё один – GraphMaker 📈, позволяющий общаться с вашими данными (задавать вопросы данным) на естественном языке: покажи заказы по регионам, сколько пользователей etc. За считанные секунды AI создаст барплот, точечный график, пайчарт, гистограмму или линейный график. Всё делается в три шага: 1) загружаете данные (CSV, гугл-таблицы, или демо-набор) 2) Формулируете вопрос к данным или используете заранее заготовленный шаблон запроса 3) получаете график.
Конечно, первый же барплот, который я построил, хочется переделать 😊 Интересно, кроме графика можно посмотреть эксплейнер, в котором пошагово описывается как создавался график. Графики можно потом разместить на дашборде.
Под капотом всё тот же ChatGPT от OpenAI. Утверждается, что GraphMaker не хранит данные — удаляются в течение 30 дней, а в OpenAI передается только информация о столбцах в наборе данных.
#AI #dataviz #дашборды
Ранее писал про AI-инструмент для визуализации данных ChartGPT. Сегодня в мини-обзоре ещё один – GraphMaker 📈, позволяющий общаться с вашими данными (задавать вопросы данным) на естественном языке: покажи заказы по регионам, сколько пользователей etc. За считанные секунды AI создаст барплот, точечный график, пайчарт, гистограмму или линейный график. Всё делается в три шага: 1) загружаете данные (CSV, гугл-таблицы, или демо-набор) 2) Формулируете вопрос к данным или используете заранее заготовленный шаблон запроса 3) получаете график.
Конечно, первый же барплот, который я построил, хочется переделать 😊 Интересно, кроме графика можно посмотреть эксплейнер, в котором пошагово описывается как создавался график. Графики можно потом разместить на дашборде.
Под капотом всё тот же ChatGPT от OpenAI. Утверждается, что GraphMaker не хранит данные — удаляются в течение 30 дней, а в OpenAI передается только информация о столбцах в наборе данных.
#AI #dataviz #дашборды
Forwarded from data будни (Саша Михайлов)
Промпт-инженеры
Зацепила фраза Григория Бакунова (bobuk) про промт для GitHub Copilot (работает на ChatGPT):
> Для тех кто не программирует, посмотрите на картинку — вот так выглядит будущее программирование искусственного интеллекта.
Действительно эти ~25 предложений можно представить как ~25 абзацев кода для какого-то приложения.
Продолжая аналогию с программированием, можно вспомнить с чего начинается почти каждый урок — тот самый Hello world! И то же самое происходит с тем, кто впервые сталкивается с гот-моделями — их промты простые и односложные.
А вот продвинутые юзеры гпт-моделей через пробы и ошибки учатся улучшают свои промты и некоторые уже даже не помещаются на страницу. Чем не продвинутая программа уже?
Получается, придумали весь этот МЛ, чтобы не писать кучу IF’ов — и теперь пишем эти же ифы, только теперь на естественном языке.
Зацепила фраза Григория Бакунова (bobuk) про промт для GitHub Copilot (работает на ChatGPT):
> Для тех кто не программирует, посмотрите на картинку — вот так выглядит будущее программирование искусственного интеллекта.
Действительно эти ~25 предложений можно представить как ~25 абзацев кода для какого-то приложения.
Продолжая аналогию с программированием, можно вспомнить с чего начинается почти каждый урок — тот самый Hello world! И то же самое происходит с тем, кто впервые сталкивается с гот-моделями — их промты простые и односложные.
А вот продвинутые юзеры гпт-моделей через пробы и ошибки учатся улучшают свои промты и некоторые уже даже не помещаются на страницу. Чем не продвинутая программа уже?
Получается, придумали весь этот МЛ, чтобы не писать кучу IF’ов — и теперь пишем эти же ифы, только теперь на естественном языке.
Telegram
addmeto
Пользователи бета-версии нового Github CoPilot смогли добраться до его промпта, т.е. текстового запроса, который помещается в каждый диалог, чтобы GPT4 делал то, что задумано. Посмотрите, как любопытно.
Для тех кто не программирует, посмотрите на картинку…
Для тех кто не программирует, посмотрите на картинку…
Forwarded from Клуб CDO (PostoplanBot)
В мире ИИ происходит смена парадигмы: фокус в приложении усилий смещается от работы над архитектурами ML моделей в сторону работы над данными для обучения и инференса. Эта парадигма получила названия Data-centric AI и неплохо описана в статье ниже.
Data-centric AI - дисциплина систематического проектирования данных, используемых для создания системы ИИ (кстати, термин ввел знаменитый Эндрю Нг, лекции и курсы которого в очередной раз горячо рекомендую к ознакомлению).
Хороший пример - хайповые ChatGPT модели. На самом деле развиваясь от версии 1 к 4 каждый качественный шаг в результатах их работы достигался не изменением архитектуры модели, а увеличением ее размера и использовании для обучения большего количества все более качественно подготовленных данных.
В частности:
GPT-1: в обучении используется набор данных BooksCorpus. Этот набор данных содержит 4629,00 МБ необработанного текста, охватывающего книги различных жанров, таких как приключения, фэнтези и романтика.
GPT-2: WebText используется в обучении. Это внутренний набор данных в OpenAI, созданный путем извлечения исходящих ссылок из Reddit.
Результат: после фильтрации получается 40 ГБ текста и GPT-2 дает неплохие результаты без дополнительного файн-тюнинга.
GPT-3: Обучение GPT-3 в основном основано на Common Crawl.
Результат: 570Гб текста получается после фильтрации из 45Тб открытого текста (при такой фильтрации качества отбирается всего 1,27% данных). И GPT-3 значительно превосходит GPT-2.
InstructGPT: тут уже люди оценивают ответы GPT-3, чтобы он лучше соответствовал человеческим ожиданиям. Тут OpenAI проделала очень большую работу с аннотаторами и организации их работы, мотивации и тд.
Результат: InstructGPT показывает большую достоверность и меньше предвзятости.
ChatGPT-4: подробности не раскрываются OpenAI. Но известно, что GPT-4 в значительной степени повторяют дизайн предыдущих моделей GPT, и они по-прежнему используют RLHF для настройки моделей (с потенциально большим количеством данных/меток более высокого качества). Принято считать, что GPT-4 использовала еще больший набор данных, так как веса модели были увеличены.
Вывод: ИИ, ориентированный на данные, становится все более важным. После многих лет исследований дизайн моделей уже стал очень зрелым, особенно после появления модели Transformer. Инженерия данных становится решающим (или, возможно, единственным) способом улучшения систем ИИ в будущем.
https://towardsdatascience.com/what-are-the-data-centric-ai-concepts-behind-gpt-models-a590071bb727
Data-centric AI - дисциплина систематического проектирования данных, используемых для создания системы ИИ (кстати, термин ввел знаменитый Эндрю Нг, лекции и курсы которого в очередной раз горячо рекомендую к ознакомлению).
Хороший пример - хайповые ChatGPT модели. На самом деле развиваясь от версии 1 к 4 каждый качественный шаг в результатах их работы достигался не изменением архитектуры модели, а увеличением ее размера и использовании для обучения большего количества все более качественно подготовленных данных.
В частности:
GPT-1: в обучении используется набор данных BooksCorpus. Этот набор данных содержит 4629,00 МБ необработанного текста, охватывающего книги различных жанров, таких как приключения, фэнтези и романтика.
GPT-2: WebText используется в обучении. Это внутренний набор данных в OpenAI, созданный путем извлечения исходящих ссылок из Reddit.
Результат: после фильтрации получается 40 ГБ текста и GPT-2 дает неплохие результаты без дополнительного файн-тюнинга.
GPT-3: Обучение GPT-3 в основном основано на Common Crawl.
Результат: 570Гб текста получается после фильтрации из 45Тб открытого текста (при такой фильтрации качества отбирается всего 1,27% данных). И GPT-3 значительно превосходит GPT-2.
InstructGPT: тут уже люди оценивают ответы GPT-3, чтобы он лучше соответствовал человеческим ожиданиям. Тут OpenAI проделала очень большую работу с аннотаторами и организации их работы, мотивации и тд.
Результат: InstructGPT показывает большую достоверность и меньше предвзятости.
ChatGPT-4: подробности не раскрываются OpenAI. Но известно, что GPT-4 в значительной степени повторяют дизайн предыдущих моделей GPT, и они по-прежнему используют RLHF для настройки моделей (с потенциально большим количеством данных/меток более высокого качества). Принято считать, что GPT-4 использовала еще больший набор данных, так как веса модели были увеличены.
Вывод: ИИ, ориентированный на данные, становится все более важным. После многих лет исследований дизайн моделей уже стал очень зрелым, особенно после появления модели Transformer. Инженерия данных становится решающим (или, возможно, единственным) способом улучшения систем ИИ в будущем.
https://towardsdatascience.com/what-are-the-data-centric-ai-concepts-behind-gpt-models-a590071bb727
Medium
What Are the Data-Centric AI Concepts behind GPT Models?
Unpacking the data-centric AI techniques used in ChatGPT and GPT-4
Forwarded from эйай ньюз
🦍 Gorilla: Large Language Model Connected with Massive APIs
Языковые модели иногда врут и голлюцинируют и по умолчанию имеют доступ только к срезу данных, на которых обучались. Чтобы хоть частично решить эти проблемы, решено было дать им доступ к интернету, чтобы они гуглили и научить их пользоваться сторонними инструментами (через плагины). Вот тут я писал про плагины к ChatGPT, о которых позаботилась OpenAI.
А как же домашние LLM?
И тут опенсоурс не отстаёт. В этой работе парни прикрутили более 1600 API к LLaMa-7B. И их затюненая LLaMa обошла по качеству API вызовов даже GPT-4 и Claude AI!
Е-е-е, оупен-сорс вперёд!
Основной фокус этой статьи — вызовы нейронок через API с платформ Torch Hub, HuggingFace и Tensorflow Hub. То есть ты пишешь "я хочу детектировать и трекать голубей на видео" и модель выдаст вам какие API запросы нужно сделать. И это можно выстраивать в умные пайплайны, где по желанию пользователя будут вызываться разные модели.
Попробуй Гориллу за 60 сек (колаб)
Код
Сайт проекта
@ai_newz
Языковые модели иногда врут и голлюцинируют и по умолчанию имеют доступ только к срезу данных, на которых обучались. Чтобы хоть частично решить эти проблемы, решено было дать им доступ к интернету, чтобы они гуглили и научить их пользоваться сторонними инструментами (через плагины). Вот тут я писал про плагины к ChatGPT, о которых позаботилась OpenAI.
А как же домашние LLM?
И тут опенсоурс не отстаёт. В этой работе парни прикрутили более 1600 API к LLaMa-7B. И их затюненая LLaMa обошла по качеству API вызовов даже GPT-4 и Claude AI!
Е-е-е, оупен-сорс вперёд!
Основной фокус этой статьи — вызовы нейронок через API с платформ Torch Hub, HuggingFace и Tensorflow Hub. То есть ты пишешь "я хочу детектировать и трекать голубей на видео" и модель выдаст вам какие API запросы нужно сделать. И это можно выстраивать в умные пайплайны, где по желанию пользователя будут вызываться разные модели.
Попробуй Гориллу за 60 сек (колаб)
Код
Сайт проекта
@ai_newz
Forwarded from Мысли Рвачева
🔥 OpenAI выпускает обновления для своего API
- наконец версия gpt3.5 с 16к токенами (теперь будет влезать больше текста в запрос/ответ)
- снижение стоимости
- доступ к gpt-4 большими количеству разработчиков
- Function calling - нейросеть вернет ответ в JSON формате с возможностью передачи напрямую в описанную функцию
Источник: https://openai.com/blog/function-calling-and-other-api-updates
Пост дополняется
Последняя версия на @rvnikita_blog
#openai #gpt
- наконец версия gpt3.5 с 16к токенами (теперь будет влезать больше текста в запрос/ответ)
- снижение стоимости
- доступ к gpt-4 большими количеству разработчиков
- Function calling - нейросеть вернет ответ в JSON формате с возможностью передачи напрямую в описанную функцию
Источник: https://openai.com/blog/function-calling-and-other-api-updates
Пост дополняется
Последняя версия на @rvnikita_blog
#openai #gpt
Forwarded from эйай ньюз
🦍 Gorilla: Large Language Model Connected with Massive APIs
Языковые модели иногда врут и голлюцинируют и по умолчанию имеют доступ только к срезу данных, на которых обучались. Чтобы хоть частично решить эти проблемы, решено было дать им доступ к интернету, чтобы они гуглили и научить их пользоваться сторонними инструментами (через плагины). Вот тут я писал про плагины к ChatGPT, о которых позаботилась OpenAI.
А как же домашние LLM?
И тут опенсоурс не отстаёт. В этой работе парни прикрутили более 1600 API к LLaMa-7B. И их затюненая LLaMa обошла по качеству API вызовов даже GPT-4 и Claude AI!
Е-е-е, оупен-сорс вперёд!
Основной фокус этой статьи — вызовы нейронок через API с платформ Torch Hub, HuggingFace и Tensorflow Hub. То есть ты пишешь "я хочу детектировать и трекать голубей на видео" и модель выдаст вам какие API запросы нужно сделать. И это можно выстраивать в умные пайплайны, где по желанию пользователя будут вызываться разные модели.
Попробуй Гориллу за 60 сек (колаб)
Код
Сайт проекта
@ai_newz
Языковые модели иногда врут и голлюцинируют и по умолчанию имеют доступ только к срезу данных, на которых обучались. Чтобы хоть частично решить эти проблемы, решено было дать им доступ к интернету, чтобы они гуглили и научить их пользоваться сторонними инструментами (через плагины). Вот тут я писал про плагины к ChatGPT, о которых позаботилась OpenAI.
А как же домашние LLM?
И тут опенсоурс не отстаёт. В этой работе парни прикрутили более 1600 API к LLaMa-7B. И их затюненая LLaMa обошла по качеству API вызовов даже GPT-4 и Claude AI!
Е-е-е, оупен-сорс вперёд!
Основной фокус этой статьи — вызовы нейронок через API с платформ Torch Hub, HuggingFace и Tensorflow Hub. То есть ты пишешь "я хочу детектировать и трекать голубей на видео" и модель выдаст вам какие API запросы нужно сделать. И это можно выстраивать в умные пайплайны, где по желанию пользователя будут вызываться разные модели.
Попробуй Гориллу за 60 сек (колаб)
Код
Сайт проекта
@ai_newz
ChatGPT в помощь архитектору / Николай Голов, Иван Шумов
В этом увлекательном видео, Ваня рассматривает три захватывающих кейса, которые демонстрируют, как ChatGPT может помочь начинающим и продвинутым архитекторам автоматизировать свою работу.
В первом кейсе мы рассмотрим, как ChatGPT может использоваться для первичного сбора информации о редкой предметной области на примере построения системы управления аэропортом. Второй кейс демонстрирует, как ChatGPT может использоваться для проектирования системы бронирования столиков в ресторане. Наконец, в третьем кейсе мы рассмотрим, как ChatGPT может помочь командам принимать технические решения.
Не пропустите это захватывающее видео, чтобы узнать, как ChatGPT может помочь вам сделать вашу работу более эффективной и продуктивной в мире архитектуры ПО!
Видео уже на YouTube, Boosty ❤️
Аудио версия уже на Apple Podcast, Spotify, Yandex Music 🎧
https://t.me/DE_events/1037
В этом увлекательном видео, Ваня рассматривает три захватывающих кейса, которые демонстрируют, как ChatGPT может помочь начинающим и продвинутым архитекторам автоматизировать свою работу.
В первом кейсе мы рассмотрим, как ChatGPT может использоваться для первичного сбора информации о редкой предметной области на примере построения системы управления аэропортом. Второй кейс демонстрирует, как ChatGPT может использоваться для проектирования системы бронирования столиков в ресторане. Наконец, в третьем кейсе мы рассмотрим, как ChatGPT может помочь командам принимать технические решения.
Не пропустите это захватывающее видео, чтобы узнать, как ChatGPT может помочь вам сделать вашу работу более эффективной и продуктивной в мире архитектуры ПО!
Видео уже на YouTube, Boosty ❤️
Аудио версия уже на Apple Podcast, Spotify, Yandex Music 🎧
https://t.me/DE_events/1037
YouTube
ChatGPT в помощь архитектору / Николай Голов, Иван Шумов
#chatgpt #architecture #softwarearchitecture
В этом увлекательном видео, Ваня рассматривает три захватывающих кейса, которые демонстрируют, как ChatGPT может помочь начинающим и продвинутым архитекторам автоматизировать свою работу.
В первом кейсе мы рассмотрим…
В этом увлекательном видео, Ваня рассматривает три захватывающих кейса, которые демонстрируют, как ChatGPT может помочь начинающим и продвинутым архитекторам автоматизировать свою работу.
В первом кейсе мы рассмотрим…
Forwarded from Это разве аналитика?
GPT-3progrNaPython.pdf
10.4 MB
Оооо))) какие книжки начали появляться)))
GPT-3 Программирование на python в примерах!
GPT-3 Программирование на python в примерах!