Forwarded from LEFT JOIN
Chat Notebooks: ноутбуки Wolfram со встроенной языковой моделью 🧠
Идея ноутбуков, появившаяся на свет в 1987 (нет, мы сейчас не про те, что лэптопы!), за 36 лет своего существования оказала существенное влияние на рабочие процессы в науке о данных, став их неотъемлемой частью. И вот на днях взята новая веха: отныне, ноутбуки Wolfram дополняются функционалом для работы с языковой моделью.
В интерфейсе ноутбуков Wolfram появились «окошки» для общения с ИИ. В статье рассказывается о двух типах новых ноутбуков: ноутбуки с правами на чат (chat-enabled) и ноутбуки, управляемые с помощью чата (chat-driven). Вторые отличаются от первых тем, что для работы с ними не требуется прибегать к языку программирования Wolfram. Также любопытен тот факт, что ячейки чата в ноутбуке считываются ИИ последовательно, то есть, каждая последующая учитывает информацию из предыдущей, но не знает о последующей.
Другой особенностью Chat Notebooks является то, что искусственный образ, роль которого вы бы хотели, чтобы ИИ играл в общении с вами, может настраиваться на разных уровнях: вы можете указать роль ИИ для всей переписки в ноутбуке, а также задать отдельные образы внутри каждого отдельного чата.
В целом, Chat Notebooks похож на интеграцию ChatGPT в интерфейс ноутбуков Wolfram. Подробное руководство по работе с новшеством вы найдете в статье. А в комментариях мы приглашаем вас обсудить, какие другие сервисы нуждаются в интеграциии языковых моделей!
Идея ноутбуков, появившаяся на свет в 1987 (нет, мы сейчас не про те, что лэптопы!), за 36 лет своего существования оказала существенное влияние на рабочие процессы в науке о данных, став их неотъемлемой частью. И вот на днях взята новая веха: отныне, ноутбуки Wolfram дополняются функционалом для работы с языковой моделью.
В интерфейсе ноутбуков Wolfram появились «окошки» для общения с ИИ. В статье рассказывается о двух типах новых ноутбуков: ноутбуки с правами на чат (chat-enabled) и ноутбуки, управляемые с помощью чата (chat-driven). Вторые отличаются от первых тем, что для работы с ними не требуется прибегать к языку программирования Wolfram. Также любопытен тот факт, что ячейки чата в ноутбуке считываются ИИ последовательно, то есть, каждая последующая учитывает информацию из предыдущей, но не знает о последующей.
Другой особенностью Chat Notebooks является то, что искусственный образ, роль которого вы бы хотели, чтобы ИИ играл в общении с вами, может настраиваться на разных уровнях: вы можете указать роль ИИ для всей переписки в ноутбуке, а также задать отдельные образы внутри каждого отдельного чата.
В целом, Chat Notebooks похож на интеграцию ChatGPT в интерфейс ноутбуков Wolfram. Подробное руководство по работе с новшеством вы найдете в статье. А в комментариях мы приглашаем вас обсудить, какие другие сервисы нуждаются в интеграциии языковых моделей!
Forwarded from Градиент обреченный (Sergei Averkiev)
🔺 Запускаем ruGPT-3.5 в Colab'е
Сообщество не дремлет и накидало в личку квантованных версий вышедшей вчера модели (ребята, вы молодцы 🚀).
Ужимали при помощи AutoGPTQ в 4bit, так же как делает TheBloke. Собрал небольшой Colab. Качество, само собой, при квантизации в 4bit проседает, но поиграться можно.
👉 Colab | Хабр | HF
Сообщество не дремлет и накидало в личку квантованных версий вышедшей вчера модели (ребята, вы молодцы 🚀).
Ужимали при помощи AutoGPTQ в 4bit, так же как делает TheBloke. Собрал небольшой Colab. Качество, само собой, при квантизации в 4bit проседает, но поиграться можно.
👉 Colab | Хабр | HF
Forwarded from Градиент обреченный (Sergei Averkiev)
🔺 ruGPT-3.5. Открытая русскоязычная LLM от Сбера
Друзья, мы выложили в open source нашу языковую модель (pretrain), на основе которой обучали GigaChat!
🔸 Претрейн довольно большой — 13B (13 миллиардов параметров). Модель видела много разнообразного текста (книги, статьи, чаты и т.д.), в основном на русском языке, а также на английском (около10%). Дополнительно дообучали на коде.
🔸 ruGPT-3.5 13B можно дообучать на инструктивных датасетах и получать свои версии ChatGPT, которые бы хорошо понимали русский язык.
🔸 Решили выложить с открытой лицензией (MIT), так что каких-либо ограничений в этом плане в отличии от LLaMA нет.
Написали небольшой пост про это, прошу поддержать, кому интересно.
👉 Хабр | Hugging Face
Друзья, мы выложили в open source нашу языковую модель (pretrain), на основе которой обучали GigaChat!
🔸 Претрейн довольно большой — 13B (13 миллиардов параметров). Модель видела много разнообразного текста (книги, статьи, чаты и т.д.), в основном на русском языке, а также на английском (около10%). Дополнительно дообучали на коде.
🔸 ruGPT-3.5 13B можно дообучать на инструктивных датасетах и получать свои версии ChatGPT, которые бы хорошо понимали русский язык.
🔸 Решили выложить с открытой лицензией (MIT), так что каких-либо ограничений в этом плане в отличии от LLaMA нет.
Написали небольшой пост про это, прошу поддержать, кому интересно.
👉 Хабр | Hugging Face
Forwarded from Sber AI
Сбер открыл доступ к ruGPT-3.5 13B, способной генерировать тексты на русском языке, и к новой версии модели mGPT 13B, умеющей в тексты на 61 языке.
Первая справляется с текстами на русском и английском, может в кодинг (пишут, что ей скормили часть датасета The Stack + Stack Overflow + некоторые статьи Хабра). Длина контекста ― 2048 токенов. Финальный чекпойнт ― базовый претрейн для дальнейших экспериментов.
Вторая модель имеет длину контекста 512 токенов, генерирует тексты, решает задачи NLP. Можно дообучить или внедрить в ансамбль моделей.
Обучение претрейна требует значительного количества ресурсов, которых нет даже у большей части бизнеса. Всем необходимым, как правило, обладают только крупные компании. Хорошо, что они готовы делиться наработками, во благо остальных. А тут ещё и мощное обучение на русском языке.
Модель ruGPT-3.5 13B обучали в два этапа. Сначала почти полтора месяца ушло на обработку 300 Гб данных, состоящих из книг, научных статей и статей энциклопедий, плюс соцсетей и других источников. Затем её дообучали на 110 Гб данных, включающих языки программирования, юридические документы и обновлённые тексты википедий.
Если хочется узнать больше, вопросы создателям можно задать в комментариях на Хабре или обсудить тут.
Первая справляется с текстами на русском и английском, может в кодинг (пишут, что ей скормили часть датасета The Stack + Stack Overflow + некоторые статьи Хабра). Длина контекста ― 2048 токенов. Финальный чекпойнт ― базовый претрейн для дальнейших экспериментов.
Вторая модель имеет длину контекста 512 токенов, генерирует тексты, решает задачи NLP. Можно дообучить или внедрить в ансамбль моделей.
Обучение претрейна требует значительного количества ресурсов, которых нет даже у большей части бизнеса. Всем необходимым, как правило, обладают только крупные компании. Хорошо, что они готовы делиться наработками, во благо остальных. А тут ещё и мощное обучение на русском языке.
Модель ruGPT-3.5 13B обучали в два этапа. Сначала почти полтора месяца ушло на обработку 300 Гб данных, состоящих из книг, научных статей и статей энциклопедий, плюс соцсетей и других источников. Затем её дообучали на 110 Гб данных, включающих языки программирования, юридические документы и обновлённые тексты википедий.
Если хочется узнать больше, вопросы создателям можно задать в комментариях на Хабре или обсудить тут.
Forwarded from Neural Shit
Telegram
эйай ньюз
🤯Там Андрей Карпатый уже вовсю запускает LLaMa-2 на рисоварке
Андрей вдохновился известным репозиторием llama.cpp для инференса LLM моделей на С++ и написал 500 строк кода на чистом C, которые прогоняют инференес модели LLaMa2.
llama2.c — тупо 500 строк...…
Андрей вдохновился известным репозиторием llama.cpp для инференса LLM моделей на С++ и написал 500 строк кода на чистом C, которые прогоняют инференес модели LLaMa2.
llama2.c — тупо 500 строк...…
Судя по таймкодам (пока не слушал) Радио-Т скоро мб переименовывать в "LLM для программистов" 😁
Радио-Т 874
Umputun, Bobuk, Gray, Ksenks, Alek.sys
Радио-Т 874
Темы
Отказ от GitHub Copilot - 00:00:46.
Moonbit - новый язык которые победил всех - 00:14:41.
Code Llama - AI для программирования - 00:40:55.
Годные улучшения GitHub Copilot Chat - 00:56:26.
Microsoft закрывает Visual Studio for Mac - 01:01:25.
UTM - 01:05:33.
Почему все надо хранить внутри VM - 01:25:17.
Худший из программистов - 01:40:31.
Темы слушателей - 01:47:11.
аудио • лог чата
https://t.me/radio_t_podcast/214
Темы
Отказ от GitHub Copilot - 00:00:46.
Moonbit - новый язык которые победил всех - 00:14:41.
Code Llama - AI для программирования - 00:40:55.
Годные улучшения GitHub Copilot Chat - 00:56:26.
Microsoft закрывает Visual Studio for Mac - 01:01:25.
UTM - 01:05:33.
Почему все надо хранить внутри VM - 01:25:17.
Худший из программистов - 01:40:31.
Темы слушателей - 01:47:11.
аудио • лог чата
https://t.me/radio_t_podcast/214
Forwarded from Нейромания
Какой промпт добавляется в каждый диалог, чтобы GPT-4 включал роль помощника программиста в GitHub Copilot?
https://twitter.com/marvinvonhagen/status/1657060506371346432
https://twitter.com/marvinvonhagen/status/1657060506371346432
Forwarded from ChatGPTevelopment & Promptgramming
Forwarded from Konstantin Artemyev
На Хабре была статья с разбором исходников копилота. Там самое интересное не промпт, а то, каким образом формируется окно контекста. Копилот должен достраивать код исходя из контекста всех исходников проекта, а там могут быть миллионы строк во множестве модулей. Кроме того комплешн должен учитывать еще и библиотечные функции и подключённые в проект внешние модули. Все это конечно в окно контекста запроса не влезет. Поэтому используются разные хитрости - анализ ближних и дальних зависимостей кода, многоуровневый подбор и ранжирование сниппетов, и т.д. То есть там от исходного до финального промпта много всего делается.
Forwarded from Anatoly Stansler
Konstantin Artemyev
На Хабре была статья с разбором исходников копилота. Там самое интересное не промпт, а то, каким образом формируется окно контекста. Копилот должен достраивать код исходя из контекста всех исходников проекта, а там могут быть миллионы строк во множестве модулей.…
поделишься ссылкой?
Forwarded from Konstantin Artemyev
Anatoly Stansler
поделишься ссылкой?
Хабр
Как устроен внутри Github Copilot
Github Copilot оказался для меня невероятно полезным. Часто он может волшебным образом читать мои мысли и давать полезные рекомендации. Больше всего меня удивила его способность верно «угадывать»...
Forwarded from Инжиниринг Данных (Dmitry)
На edX появилось 2 новых курса от Databricks:
Databricks: Large Language Models: Application through Production
Databricks: Large Language Models: Foundation Models from the Ground Up
Теперь вы сможете удивлять своими познаниями на собеседованиях про LLM из 🧱
PS Databricks готов к новому раунду инвестиций и они планируют выйти в положительный кэш фло в 2025. Думаю многие сотрудники databricks неплохо обкешатся рано и поздно.
Вот у snowflake тоже акции были дорогие на IPO но потом упали (явно были переоценены), посмотрим как у databricks.
Databricks: Large Language Models: Application through Production
Databricks: Large Language Models: Foundation Models from the Ground Up
Теперь вы сможете удивлять своими познаниями на собеседованиях про LLM из 🧱
PS Databricks готов к новому раунду инвестиций и они планируют выйти в положительный кэш фло в 2025. Думаю многие сотрудники databricks неплохо обкешатся рано и поздно.
Вот у snowflake тоже акции были дорогие на IPO но потом упали (явно были переоценены), посмотрим как у databricks.
edX
Computer science courses | edX
With computer science courses on edX, you can study the industry essentials alongside Harvard’s experts. Explore CS50 courses and sign up today.
Forwarded from e/acc
Люди: изобрели промт «думай пошагово», улучшили производительность LLM, горды собой
LLM: придумал для себя промт «глубоко вдохни и подумай», улучшил производительность еще сильнее, забыл сообщить об этом кожаным
В данной таблице приведены примеры промтов, которые LLM делают сами для себя и их сравнительная эффективность.
LLM: придумал для себя промт «глубоко вдохни и подумай», улучшил производительность еще сильнее, забыл сообщить об этом кожаным
В данной таблице приведены примеры промтов, которые LLM делают сами для себя и их сравнительная эффективность.
Forwarded from Мысли Рвачева
📊 Advanced Data Analysis от OpenAI: Эволюция аналитики данных
Не так давно я столкнулся с функцией Advanced Data Analysis, которую предоставляет OpenAI. Для тех, кто не в курсе, это нечто большее, чем просто инструмент для анализа данных.
Как это работает? Ваши данные обрабатываются на серверах компании с помощью gpt-4. И эта модель может не только написать код, но и исполнить его. И хотя это может показаться техническим, результаты порой поражают.
Что мне понравилось:
Автоматизация работы с эксель-таблицами - фильтрация, прогнозирование.
Конвертация данных между форматами.
Генерация дополнительных данных.
Построение и интерпретация графиков.
Возможность работы с медиафайлами (хотя я им пока мало пользовался).
Представьте: у меня есть данные о клиентах. Я задаю модели вопросы, и она быстро выдает ответы. Наиболее удивительно то, как модель может предложить разные способы анализа или аппроксимации данных.
Тем не менее, есть и недостатки. Модель иногда интерпретирует запросы по-своему, и нужно дважды проверять результаты. Есть определенные нюансы, на которые следует обратить внимание, чтобы получить наилучший результат.
Для тех, кто хочет попробовать: функция доступна в настройках OpenAI. Перейдите в Settings & Beta, затем выберите Beta features и активируйте "Advanced data analysis". Обратите внимание: эта функция доступна только для платных пользователей OpenAI Plus.
Но в итоге? Для меня это настоящая революция в аналитике. То, что раньше занимало часы в Excel или Python, теперь можно сделать за минуты.
Кто бы мог подумать, что будущее аналитики так близко? Как вы думаете, готовы ли мы к таким изменениям?
Пример использования:
1) https://www.youtube.com/watch?v=Axm_at_LuCA
2) https://www.youtube.com/watch?v=PBZVCjkTGrY
#ai #gpt #analytics #openai
Не так давно я столкнулся с функцией Advanced Data Analysis, которую предоставляет OpenAI. Для тех, кто не в курсе, это нечто большее, чем просто инструмент для анализа данных.
Как это работает? Ваши данные обрабатываются на серверах компании с помощью gpt-4. И эта модель может не только написать код, но и исполнить его. И хотя это может показаться техническим, результаты порой поражают.
Что мне понравилось:
Автоматизация работы с эксель-таблицами - фильтрация, прогнозирование.
Конвертация данных между форматами.
Генерация дополнительных данных.
Построение и интерпретация графиков.
Возможность работы с медиафайлами (хотя я им пока мало пользовался).
Представьте: у меня есть данные о клиентах. Я задаю модели вопросы, и она быстро выдает ответы. Наиболее удивительно то, как модель может предложить разные способы анализа или аппроксимации данных.
Тем не менее, есть и недостатки. Модель иногда интерпретирует запросы по-своему, и нужно дважды проверять результаты. Есть определенные нюансы, на которые следует обратить внимание, чтобы получить наилучший результат.
Для тех, кто хочет попробовать: функция доступна в настройках OpenAI. Перейдите в Settings & Beta, затем выберите Beta features и активируйте "Advanced data analysis". Обратите внимание: эта функция доступна только для платных пользователей OpenAI Plus.
Но в итоге? Для меня это настоящая революция в аналитике. То, что раньше занимало часы в Excel или Python, теперь можно сделать за минуты.
Кто бы мог подумать, что будущее аналитики так близко? Как вы думаете, готовы ли мы к таким изменениям?
Пример использования:
1) https://www.youtube.com/watch?v=Axm_at_LuCA
2) https://www.youtube.com/watch?v=PBZVCjkTGrY
#ai #gpt #analytics #openai
YouTube
ChatGPT Advanced Data Analysis (Data Analytics in a few minutes!)
Do you think data analytics was a complex and time-consuming task? This is no longer true. OpenAI has recently unveiled Advanced Data Analysis. Now, with Advanced Data Analysis, anyone can perform data analytics in just a few minutes.
Telecom data: http…
Telecom data: http…
Forwarded from LEFT JOIN
LlamaIndex — фреймворк для работы с LLM и данными разных форматов
Он упрощает как обучение нейросетей, так и обработку больших объемов информации. В него можно загружать таблицы, тексты, презентации, графики, изображениями, API, веб-страницы — практически любые виды данных. LlamaIndex индексирует и анализирует их, чтобы ускорить поиск информации и интеграцию с внешними приложениями и нейросетями.
Что это дает на практике?
🔵 Удобный интерфейс для взаимодействия с LLM. Можно загрузить в LlamaIndex документ, а затем попросить краткое содержание или задать конкретный вопрос. Фреймворк обработает данные и запрос пользователя, передаст их нейросети, а та уже выдаст ответ.
🔵 Объединение разных источников информации и моделей в одну систему. Задать вопрос ChatGPT можно и без дополнительных инструментов, но если у вас много разных видов данных, удобнее собрать их в кучу в единый индекс, который и создает LlamaIndex.
🔵 Структурированные данные для обучения LLM.
В общем, LlamaIndex — удобный и гибкий инструмент, который может упростить работу, если вы часто экспериментируете с нейросетями.
Он упрощает как обучение нейросетей, так и обработку больших объемов информации. В него можно загружать таблицы, тексты, презентации, графики, изображениями, API, веб-страницы — практически любые виды данных. LlamaIndex индексирует и анализирует их, чтобы ускорить поиск информации и интеграцию с внешними приложениями и нейросетями.
Что это дает на практике?
В общем, LlamaIndex — удобный и гибкий инструмент, который может упростить работу, если вы часто экспериментируете с нейросетями.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Newprolab: обучение DE и DS
В OpenAI теперь есть опенсорсная коллекция примеров и гайдов по использованию OpenAI API - там много чего интересного!
https://cookbook.openai.com/
https://cookbook.openai.com/
Forwarded from Sber AI
Энтузиазм или озабоченность: зачем ИИ программистам?
Граждане рисуют нейрохудожниками и играются с ИИ-чат-ботами, а кодеры просто делают свою работу. Для них ИИ является инструментом прямо сейчас. Но насколько важным и полезным? Это прямо шескпировский вопрос😏
В GitLab тоже захотели это выяснить и опросили более 1 000 профи-разработчиков во всём мире. Результаты интересные. Вот, например, 83% считают, что для конкурентоспособности ИИ, конечно, надо внедрять, а 79% прямо тревожатся, что он получит доступ к конфиденциальной информации и интеллектуальной собственности.
Учитывая, что это почти равные доли, ситуация как в анекдоте с обезьяной, которая не знала куда себя записать — в умные или в красивые.
Ещё цифры:
🔹 51% считает ИИ ключевым для повышения производительности
🔹 81% хочет, чтобы их подготовили к использованию ИИ
🔹 75% могут обучиться этому в своих же компаниях. Но…
🔹 В 65% случаев компании планируют нанять новых специалистов
На генерацию кода программеры тратят 25% времени, но в 60% случаев ИИ может повысить производительность.
Однозначных ответов пока нет. Но ясно одно: многому придётся учиться ☝️
Граждане рисуют нейрохудожниками и играются с ИИ-чат-ботами, а кодеры просто делают свою работу. Для них ИИ является инструментом прямо сейчас. Но насколько важным и полезным? Это прямо шескпировский вопрос
В GitLab тоже захотели это выяснить и опросили более 1 000 профи-разработчиков во всём мире. Результаты интересные. Вот, например, 83% считают, что для конкурентоспособности ИИ, конечно, надо внедрять, а 79% прямо тревожатся, что он получит доступ к конфиденциальной информации и интеллектуальной собственности.
Учитывая, что это почти равные доли, ситуация как в анекдоте с обезьяной, которая не знала куда себя записать — в умные или в красивые.
Ещё цифры:
🔹 51% считает ИИ ключевым для повышения производительности
🔹 81% хочет, чтобы их подготовили к использованию ИИ
🔹 75% могут обучиться этому в своих же компаниях. Но…
🔹 В 65% случаев компании планируют нанять новых специалистов
На генерацию кода программеры тратят 25% времени, но в 60% случаев ИИ может повысить производительность.
Однозначных ответов пока нет. Но ясно одно: многому придётся учиться ☝️
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Yandex Cloud
В тестировании YandexGPT приняли участие 800 компаний, больше всего — ИТ, ритейл и банки.
Компании проверили возможности YandexGPT в нескольких десятках сценариев применения больших языковых моделей. Специалисты Yandex Cloud поделили эти сценарии на шесть основных групп: контентные задачи, создание чат-ботов и виртуальных ассистентов, обобщение и агрегация данных по рабочим чатам, отзывам; анализ и классификация запросов пользователей; ответы на вопросы пользователей и выделение сущностей из текстов.
На основе этих запросов в новой версии продукта добавились новые возможности:
Теперь в ходе текстового диалога с пользователем YandexGPT помнит контекст — например, если пользователь задал вопрос, получил ответ и затем просит дополнительно уточнить информацию по тому же вопросу.
Возможность использовать в YandexGPT модель, дообученную на пользовательских данных. Например, это может быть полезно в областях, которые оперируют специфическими понятиями и терминами.
Способ представления слов в виде числовых векторов, благодаря которому сервис лучше понимает значения слов в зависимости от контекста.
Бизнесу доступна новая нейросеть, которая намного лучше справляется с задачами стилизации, пересказа и анализа, создания текстов и ответов на вопросы.
До конца года продукт будет доступен клиентам Yandex Cloud в формате публичного превью. Его можно будет использовать для разработки приложений или в тестовом окружении. Подробнее по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM