ChatGPTevelopment & Promptgramming
19 subscribers
186 photos
33 videos
5 files
298 links
#ChatGPT using development & Prompt based programming – new era of coding! 🥹
#ChatGPT #GPT4dev
Download Telegram
Andrew Ng (тот самый CoFounder Coursera и известный специалист в кругах AI) и Isa Fulford (OpenAI) выложили бесплатно (for a limited time) короткий курс (на 1 час) ChatGPT Prompt Engineering for Developers. Если вы разработчик и планируете внедрять ChatGPT (или другие LLMs) в свои продукты - настоятельно рекомендую

https://www.deeplearning.ai/short-courses/chatgpt-prompt-engineering-for-developers

#ai #llm #prompt #andrew_ng
Forwarded from Denis Sexy IT 🤖
Наткнулся на бесплатный курс на ~1.5 часа для промпт-инженеринга с акцентом на разработчиков: в курсе не только банальные «лучшие практики» собраны, но обучают именно промпт инженерингу – включая промпт-программированию, это когда LLM учат использовать инструменты вроде плагинов и других API. Учат без тренировки модели, а просто текстом.

Курс разработал Эндрю Нг, профессор Стэнфорда, соучредитель и бывший руководитель Google Brain. OpenAI тоже приняла участие.

Короче, если вы разработчик или просто любопытно, рекомендую не пропускать:

https://www.deeplearning.ai/short-courses/chatgpt-prompt-engineering-for-developers/
Forwarded from Инжиниринг Данных (Dmitry)
Оперативненько! уже есть курсы по ChatGPT, бросайте ваши питоны и скули, и учите жпт!
Forwarded from Инжиниринг Данных (Dmitry)
😫before chatGPT & Co
6 hours of debugging
can save you 5 min

🤩with chatGPT & Co
chatGPT account can
save 6 hours of debugging
5 min of reading documentation
4 hours of writing code
2 hours of searching for right command or code snippet
Forwarded from Инжиниринг Данных (Dmitry)
Список дел в ChatGpt за неделю:

1. Написал кучу Terraform скриптов для AWS Batch, AWS ECS, ECR, IAM - задача запускать dbt в контейренере в ECS, чтобы он мог ворочить данные в Redshift.

2. PoC Glue Spark - именно сам PySpark, который сэкономил очень много времени для описании огромного JSON.

3. AWS CLI команды в bash для запуска glue jobs из CLI и мониторинга

4. Кучу команд для AWS EMR утилитки s3-dict-cp и bash для автоматизации (включая функции), команды для hadoop hdfs

5. Glue pyspark для проекта по компресии данных, что-то s3-dict-cp не перформит для моих задач.

Эти примеры сэкономили мне ОЧЕНЬ много времени. Самое главное, что у меня есть понимание, что нужно делать, а chatGPT лишь автоматизирует набор кода, который я бы и сам написал, но потратил кучу времени на поиск решений. А так вот все успел.

Так что мои топ 3 use cases:
- Terraform (или любой другой инфраструктурный код)
- bash
- PySpark

SQL пока сам пишу☺️
🤖 StarCoder ,
the biggest open-source Code-LLM.

✌️StarCoder is a 15B LLM trained on permissively licensed data from GitHub.
It outperforms all other open language models on programming benchmarks and can generate realistic code, act as a technical assistant, and autocomplete code in over 80 languages. 🔥🚀

StarCoder was created by Hugging Face and ServiceNow through #BigCode, an open scientific collaboration. 🤗

🔡 8192 token context window
📊 trained on 1 trillion token
💭 80+ Programming languages
🔐 only permissive licensed data
 commercial use

👉 Also can be tested inside HuggingChat!

or learn more
blog: https://huggingface.co/blog/starcoder
💊model: https://huggingface.co/bigcode/starcoder
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Valentin
🦄 27.05 GPT ДЕМО 20:00
Миша Буртцев: 8к->1м токенов на RMT? 🌋
Тимофей Зайцев: AutoGPT & No code
Каждый что-то готовьте показать на экране
+ Предлагайте спикеров особенно по autonomous agents+langchain.

Приносим вино и/или вкуснополезное. Оставляем после себя лучше, чем до.

Адрес: Sadaf 6, 41 эт, 4113 (возьми Id для консьержа)
Или покажи кейс онлайн с 9:00 bit.ly/WM2022_Zoom Pass: wmchampion

https://t.me/worldmodel_dubai/15722
Forwarded from #МодельМира🦄 (Valentin Preobrazhenskiy)
Кто-то потестит steamship.com и покажет в эту сб на GPT демо?
Forwarded from Weekly Charts
📊 Мгновенно создавайте графики с помощью ИИ

Ранее писал про AI-инструмент для визуализации данных ChartGPT. Сегодня в мини-обзоре ещё один – GraphMaker 📈, позволяющий общаться с вашими данными (задавать вопросы данным) на естественном языке: покажи заказы по регионам, сколько пользователей etc. За считанные секунды AI создаст барплот, точечный график, пайчарт, гистограмму или линейный график. Всё делается в три шага: 1) загружаете данные (CSV, гугл-таблицы, или демо-набор) 2) Формулируете вопрос к данным или используете заранее заготовленный шаблон запроса 3) получаете график.

Конечно, первый же барплот, который я построил, хочется переделать 😊 Интересно, кроме графика можно посмотреть эксплейнер, в котором пошагово описывается как создавался график. Графики можно потом разместить на дашборде.

Под капотом всё тот же ChatGPT от OpenAI. Утверждается, что GraphMaker не хранит данные — удаляются в течение 30 дней, а в OpenAI передается только информация о столбцах в наборе данных.

#AI #dataviz #дашборды
Forwarded from data будни (Саша Михайлов)
Промпт-инженеры

Зацепила фраза Григория Бакунова (bobuk) про промт для GitHub Copilot (работает на ChatGPT):

> Для тех кто не программирует, посмотрите на картинку — вот так выглядит будущее программирование искусственного интеллекта.

Действительно эти ~25 предложений можно представить как ~25 абзацев кода для какого-то приложения.

Продолжая аналогию с программированием, можно вспомнить с чего начинается почти каждый урок — тот самый Hello world! И то же самое происходит с тем, кто впервые сталкивается с гот-моделями — их промты простые и односложные.

А вот продвинутые юзеры гпт-моделей через пробы и ошибки учатся улучшают свои промты и некоторые уже даже не помещаются на страницу. Чем не продвинутая программа уже?

Получается, придумали весь этот МЛ, чтобы не писать кучу IF’ов — и теперь пишем эти же ифы, только теперь на естественном языке.
Forwarded from Клуб CDO (PostoplanBot)
В мире ИИ происходит смена парадигмы: фокус в приложении усилий смещается от работы над архитектурами ML моделей в сторону работы над данными для обучения и инференса. Эта парадигма получила названия Data-centric AI и неплохо описана в статье ниже.

Data-centric AI - дисциплина систематического проектирования данных, используемых для создания системы ИИ (кстати, термин ввел знаменитый Эндрю Нг, лекции и курсы которого в очередной раз горячо рекомендую к ознакомлению).

Хороший пример - хайповые ChatGPT модели. На самом деле развиваясь от версии 1 к 4 каждый качественный шаг в результатах их работы достигался не изменением архитектуры модели, а увеличением ее размера и использовании для обучения большего количества все более качественно подготовленных данных.

В частности:

GPT-1: в обучении используется набор данных BooksCorpus. Этот набор данных содержит 4629,00 МБ необработанного текста, охватывающего книги различных жанров, таких как приключения, фэнтези и романтика.

GPT-2: WebText используется в обучении. Это внутренний набор данных в OpenAI, созданный путем извлечения исходящих ссылок из Reddit.
Результат: после фильтрации получается 40 ГБ текста и GPT-2 дает неплохие результаты без дополнительного файн-тюнинга.

GPT-3: Обучение GPT-3 в основном основано на Common Crawl.
Результат: 570Гб текста получается после фильтрации из 45Тб открытого текста (при такой фильтрации качества отбирается всего 1,27% данных). И GPT-3 значительно превосходит GPT-2.

InstructGPT: тут уже люди оценивают ответы GPT-3, чтобы он лучше соответствовал человеческим ожиданиям. Тут OpenAI проделала очень большую работу с аннотаторами и организации их работы, мотивации и тд.
Результат: InstructGPT показывает большую достоверность и меньше предвзятости.

ChatGPT-4: подробности не раскрываются OpenAI. Но известно, что GPT-4 в значительной степени повторяют дизайн предыдущих моделей GPT, и они по-прежнему используют RLHF для настройки моделей (с потенциально большим количеством данных/меток более высокого качества). Принято считать, что GPT-4 использовала еще больший набор данных, так как веса модели были увеличены.

Вывод: ИИ, ориентированный на данные, становится все более важным. После многих лет исследований дизайн моделей уже стал очень зрелым, особенно после появления модели Transformer. Инженерия данных становится решающим (или, возможно, единственным) способом улучшения систем ИИ в будущем.

https://towardsdatascience.com/what-are-the-data-centric-ai-concepts-behind-gpt-models-a590071bb727
Forwarded from эйай ньюз
🦍 Gorilla: Large Language Model Connected with Massive APIs

Языковые модели иногда врут и голлюцинируют и по умолчанию имеют доступ только к срезу данных, на которых обучались. Чтобы хоть частично решить эти проблемы, решено было дать им доступ к интернету, чтобы они гуглили и научить их пользоваться сторонними инструментами (через плагины). Вот тут я писал про плагины к ChatGPT, о которых позаботилась OpenAI.

А как же домашние LLM?
И тут опенсоурс не отстаёт. В этой работе парни прикрутили более 1600 API к LLaMa-7B. И их затюненая LLaMa обошла по качеству API вызовов даже GPT-4 и Claude AI!

Е-е-е, оупен-сорс вперёд!

Основной фокус этой статьи — вызовы нейронок через API с платформ Torch Hub, HuggingFace и Tensorflow Hub. То есть ты пишешь "я хочу детектировать и трекать голубей на видео" и модель выдаст вам какие API запросы нужно сделать. И это можно выстраивать в умные пайплайны, где по желанию пользователя будут вызываться разные модели.

Попробуй Гориллу за 60 сек (колаб)
Код
Сайт проекта

@ai_newz