Сегодня на конференции 1с демонстрировали умных ботов и ещё тему матчинга номенклатуры. По ощущениям она бизнесу откликается даже больше, чем персональные ассистенты, хотя и к ним был интерес. Показывали как пользователям без навыков 1с извлекать оттуда нужную информацию с помощью бота. Традиционный RAG на векторной базе проблему не решает, т.к. данные должны быть всегда актуальными, а меняются они буквально каждую секунду. В других стеках помогает технология text-to-sql, но у 1с и тут всё своё. Задачка со звёздочкой🙂
#llm #AI #RAG #ИИ #1C #1С
#llm #AI #RAG #ИИ #1C #1С
🔥4👍1
⚡️ Появилась новая область программирования - программирование с LLM, и эта новость совсем не про copilot и написание кода нейросетью!
Развитие промпт инжиниринга в какой-то момент потребовало возможности структурировать промпты для удобства их сопровождения. Для решения проблемы сначала был разработан язык промтов LMQL, который позволяет писать промпт в стиле python, учитывать в нем ветвления, записывать промежуточные результаты в переменные... Но стандартизировать промпты таким способом пока не удалось, и успешность выполнения запроса по-прежнему зависит от того, как разработчик подошел к его написанию.
Авторы нового подхода отталкиваются от того, что LLM оперирует не самим текстом, а его смыслом. И тип входных и выходных параметров функции с LLM тоже определяется смыслом, а не просто фактом содержания в нем строковых или числовых значений, как это происходит в обычном программировании.
Предложено ввести понятие semistrings - семантические строки, позволяющие разработчикам аннотировать код дополнительным контекстом.
Если раньше у переменной было только имя и тип, например
то теперь добавляется еще и смысл:
И пример функции
Это весь код🙂
Остальное должна сделать LLM, поняв по описанию, что от нее требуется вывести список достижений Эйнштейна
Источник
#llm #AI #RAG #ИИ
Развитие промпт инжиниринга в какой-то момент потребовало возможности структурировать промпты для удобства их сопровождения. Для решения проблемы сначала был разработан язык промтов LMQL, который позволяет писать промпт в стиле python, учитывать в нем ветвления, записывать промежуточные результаты в переменные... Но стандартизировать промпты таким способом пока не удалось, и успешность выполнения запроса по-прежнему зависит от того, как разработчик подошел к его написанию.
Авторы нового подхода отталкиваются от того, что LLM оперирует не самим текстом, а его смыслом. И тип входных и выходных параметров функции с LLM тоже определяется смыслом, а не просто фактом содержания в нем строковых или числовых значений, как это происходит в обычном программировании.
Предложено ввести понятие semistrings - семантические строки, позволяющие разработчикам аннотировать код дополнительным контекстом.
Если раньше у переменной было только имя и тип, например
name: str = "Эйнштейн"
то теперь добавляется еще и смысл:
"ученый" name:str = "Эйнштейн"
И пример функции
’Accomplishments’
accomp : list[str]
Einstein = Person(name="Einstein") by llm()
summarize (
’Accomplishments’ a: list[str]
) -> summary: str by llm()
accomp_summary = summarize(Einstein.accomp)
Это весь код🙂
Остальное должна сделать LLM, поняв по описанию, что от нее требуется вывести список достижений Эйнштейна
Источник
#llm #AI #RAG #ИИ
👍2🔥2
Forwarded from Machinelearning
Обычно модели AI воспринимаются как "черный ящик", где ввод данных приводит к выводу ответа, но неясно, почему модель выбрала именно этот ответ. Заглядывание внутрь "черного ящика" не всегда помогает, поскольку внутреннее состояние модели состоит из длинного списка чисел (активации нейронов), которые трудно интерпретировать.
Однако, благодаря применению техники "обучения словаря", сотрудники Anthropic смогли сопоставить паттерны активации нейронов с понятными человеческому человеку концепциями, позволяя представлять любой внутренний состояния модели через несколько активных признаков вместо множества активных нейронов.
В октябре 2023 года было успешно применено обучение словаря к небольшой "игрушечной" языковой модели. Эта работа была расширена до больших и сложных моделей, включая Claude Sonnet, что позволило выявить миллионы признаков, отражающих широкий спектр сущностей, таких как города, люди, элементы, научные области и синтаксис языков программирования программирования. Эти признаки могут быть мультимодальными и многоязычными, реагируя на изображения или названия сущности на многих языках.
Авторы также обнаружили возможность манипулировать этими признаками, усиливая их для изменения поведения модели. Например, усиление признака "Золотые ворота" привело к тому, что модель начала ассоциировать себя с этим мостом, приводя его в любую тему разговора.
Работа над улучшением безопасности моделей AI продолжается, и в Anthropic надеются использовать эти открытия для мониторинга систем AI на предмет нежелательного поведения, для направления их к желаемым результатам или удаления опасных тем.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2❤1👍1
Для macOS сделали приложение, которое "видит" рабочий стол пользователя, благодаря чему он может задавать вопросы относительно своей текущей деятельности не передавая контекст в LLM. Может работать как с OpenAI, так и с локальными моделями.
Авторы предоставили исходный код и обещают, что скоро оно появится и в сторах.
Почему же именно mac?
Все дело в особенности архитектуры процессоров Apple, фактически по своей структуре они представляют собой не CPU, а GPU, поэтому работать будет быстро без подключения дополнительных устройств и передачи данных на сервер
#llm #AI #RAG #ИИ
Авторы предоставили исходный код и обещают, что скоро оно появится и в сторах.
Почему же именно mac?
Все дело в особенности архитектуры процессоров Apple, фактически по своей структуре они представляют собой не CPU, а GPU, поэтому работать будет быстро без подключения дополнительных устройств и передачи данных на сервер
#llm #AI #RAG #ИИ
🔥2❤1👍1
Аналитический отчет Стенфордского университета про ИИ за 24 год Довольно увесистый труд на 500+ страниц, разбит на 9 глав.
1. Тренды в исследованиях.
2. Обзор технических характеристик и улучшений в LLM
3. Тенденции Responsible AI - конфиденциальность и безопасность
4. Экономические тенденции
5. ИИ в науке и медицине
6. ИИ в образовании
7. ИИ в политике и государстве
8. Сообщества разработчиков, кто и как развивает ИИ
9. Общественное мнение
Любопытный факт, на сайте авторов и во всех публикациях про этот отчет приводятся цитаты только из первой главы, возможно дальше никто еще не дочитал :)
#llm #AI #RAG #ИИ
1. Тренды в исследованиях.
2. Обзор технических характеристик и улучшений в LLM
3. Тенденции Responsible AI - конфиденциальность и безопасность
4. Экономические тенденции
5. ИИ в науке и медицине
6. ИИ в образовании
7. ИИ в политике и государстве
8. Сообщества разработчиков, кто и как развивает ИИ
9. Общественное мнение
Любопытный факт, на сайте авторов и во всех публикациях про этот отчет приводятся цитаты только из первой главы, возможно дальше никто еще не дочитал :)
#llm #AI #RAG #ИИ
🔥3👍2
Сегодня по миру разлетается новость, что производитель AI чипов SambaNova выпустил инференс LLM моделей со скоростью отдачи 1000 токенов в секунду.
Проверила, действительно работает очень быстро, есть готовые тестовые запросы, но я сделала свой на русском, попросила написать скрипт обхода графа по ширине. Одно огорчает, непонятно, как скоро эти технологии станут доступными для покупки
#llm #AI #RAG #ИИ
Проверила, действительно работает очень быстро, есть готовые тестовые запросы, но я сделала свой на русском, попросила написать скрипт обхода графа по ширине. Одно огорчает, непонятно, как скоро эти технологии станут доступными для покупки
#llm #AI #RAG #ИИ
👍5👏2
⚡️ Исследователи из Стэнфорда разработали SleepFM - новую мультимодальную базовую модель для анализа сна!
модель применяется для классификации стадий сна и обнаружения нарушения дыхания. Для обучения в Стэнфордской клинике сна был собран обширный набор данных мультимодальных записей сна в период с 1999 по 2020 год с более чем 14 000 участников, что в общей сложности составляет более 100 000 часов данных.
#llm #AI #ИИ
модель применяется для классификации стадий сна и обнаружения нарушения дыхания. Для обучения в Стэнфордской клинике сна был собран обширный набор данных мультимодальных записей сна в период с 1999 по 2020 год с более чем 14 000 участников, что в общей сложности составляет более 100 000 часов данных.
#llm #AI #ИИ
🔥2🆒2❤1👍1
Forwarded from Data Secrets
Обнаружен лучший постер на постерной сессии ICML
Отдельное внимание на авторов и future work
Отдельное внимание на авторов и future work
👍3😁1
Решила немного погрузиться в тему нейроморфного или спайкового ИИ. Он приближен к естественному и работает на принципах нейронов живых существ.
Пока еще технологии будущего, т.к. требуют нейроморфные чипы, но уже сейчас известно о том, какие характеристики и преимущества мы получим при их использовании. Нашла видео с очень подробным и простым объяснением:
На изображении пример архитектуры. Вместо привычных слоев - колонны, каждая из которых отвечает за какие-то определенные характеристики сети, кстати переобучать можно буквально каждый нейрон в отдельности.
Энергопотребление в 1000 раз ниже, чем сейчас
Отклик в разы быстрее, до 2 миллисекунд. Это настолько быстро, что камера со встроенным нейроморфным чипом умеет считать песчинки, падающие в песочных часах.
Видеокамеры на нейроморфных чипах(такие уже выпускаются, если у вас есть лишние $5000) снимают не кадры, как мы привыкли, а каждый пиксель по отдельности и асинхронно
Пока еще технологии будущего, т.к. требуют нейроморфные чипы, но уже сейчас известно о том, какие характеристики и преимущества мы получим при их использовании. Нашла видео с очень подробным и простым объяснением:
На изображении пример архитектуры. Вместо привычных слоев - колонны, каждая из которых отвечает за какие-то определенные характеристики сети, кстати переобучать можно буквально каждый нейрон в отдельности.
Энергопотребление в 1000 раз ниже, чем сейчас
Отклик в разы быстрее, до 2 миллисекунд. Это настолько быстро, что камера со встроенным нейроморфным чипом умеет считать песчинки, падающие в песочных часах.
Видеокамеры на нейроморфных чипах(такие уже выпускаются, если у вас есть лишние $5000) снимают не кадры, как мы привыкли, а каждый пиксель по отдельности и асинхронно
🔥4👍1
Вышла мультимодальная версия модели Матрешка (М3), полностью оправдывает свое название, потому что использует эмбеддинги переменной длины, как бы вкладывая один в другой.
M3 представляет визуальный контент как вложенные наборы визуальных токенов, которые собирают информацию с различной степенью детализации. Этот новый подход позволяет явно контролировать визуальную детализацию во время вывода, позволяя регулировать количество токенов в зависимости от ожидаемой сложности или простоты контента.
Например, изображение с большим количеством деталей может быть представлено большим количеством токенов, тогда как более простые изображения могут использовать меньшее количество токенов.
В частности, в модели используются эмбеддинги длиной в 1, 9, 36, 144 и 576 токенов, причем каждый уровень обеспечивает все более точное представление визуального контента.
Это первая модель с подобным подходом
#llm #AI #RAG #ИИ
M3 представляет визуальный контент как вложенные наборы визуальных токенов, которые собирают информацию с различной степенью детализации. Этот новый подход позволяет явно контролировать визуальную детализацию во время вывода, позволяя регулировать количество токенов в зависимости от ожидаемой сложности или простоты контента.
Например, изображение с большим количеством деталей может быть представлено большим количеством токенов, тогда как более простые изображения могут использовать меньшее количество токенов.
В частности, в модели используются эмбеддинги длиной в 1, 9, 36, 144 и 576 токенов, причем каждый уровень обеспечивает все более точное представление визуального контента.
Это первая модель с подобным подходом
#llm #AI #RAG #ИИ
👍3🔥1
Готовый проект с агентами-исследователями. Схема достаточно стандартная- несколько ролей и возможность задавать вопросы конкретному агенту, навыки онлайн поиска... но что впечатлило - это 12 200 звезд на гитхабе. Столько человек не могут ошибаться 🙂
Скрин с демо. Может работать локально с любыми сетями. Бесплатно скачиваем и бесплатно пользуемся🙂
#llm #AI #RAG #ИИ
Скрин с демо. Может работать локально с любыми сетями. Бесплатно скачиваем и бесплатно пользуемся🙂
#llm #AI #RAG #ИИ
👍3🔥1
Взлет_и_падение_автономных_агентов_Лукаш_Ковейша.pdf
844.4 KB
Делюсь интересной точкой зрения на перспективы развития автономных мультиагентов. Это не просто агенты, которые умеют делать конкретную задачу, как в openai, а группы думающих ботов, которые без участия человека имитируют групповую деятельность или трудятся в одиночку. У них был год на взлет, но тот, так и не состоялся. Причина в их достаточно медленной сходимости к результату, они склонны дублировать действия и выбирать неоптимальные шаги.
Но действительно ли мы видим закат, казавшейся перспективной технологии?
Лично я верю в их будущее, просто для него сняты еще не все технологические барьеры, и когда все окончательно наиграются и устанут от онлайн-консультантов с RAG, рынок захочет чего-то по-настоящему интеллектуального
#llm #AI #RAG #ИИ
Но действительно ли мы видим закат, казавшейся перспективной технологии?
Лично я верю в их будущее, просто для него сняты еще не все технологические барьеры, и когда все окончательно наиграются и устанут от онлайн-консультантов с RAG, рынок захочет чего-то по-настоящему интеллектуального
#llm #AI #RAG #ИИ
👍5❤1
Пока вы спали, китайцы выпустили новую модель Qwen2.
В ней:
- Предварительно обученные и настроенные с помощью инструкций модели 5 размеров, включая Qwen2-0.5B, Qwen2-1.5B, Qwen2-7B, Qwen2-57B-A14B и Qwen2-72B ;
- Прошла обучение работе с данными еще на 27 языках, помимо английского и китайского, русский тоже присутствует;
- Качество приближено к GPT4;
- Значительно улучшена производительность в программировании и математике;
- Расширенная длина контекста поддерживает до 128 000 токенов с помощью Qwen2-7B-Instruct и Qwen2-72B-Instruct.
Есть лицензия Apache 2.0 кроме 72B
источник
huggingface
#llm #AI #ИИ #QWEN2
В ней:
- Предварительно обученные и настроенные с помощью инструкций модели 5 размеров, включая Qwen2-0.5B, Qwen2-1.5B, Qwen2-7B, Qwen2-57B-A14B и Qwen2-72B ;
- Прошла обучение работе с данными еще на 27 языках, помимо английского и китайского, русский тоже присутствует;
- Качество приближено к GPT4;
- Значительно улучшена производительность в программировании и математике;
- Расширенная длина контекста поддерживает до 128 000 токенов с помощью Qwen2-7B-Instruct и Qwen2-72B-Instruct.
Есть лицензия Apache 2.0 кроме 72B
источник
huggingface
#llm #AI #ИИ #QWEN2
👍4❤1
Husky-v1 open source агент, предназначенный для решения сложных многоходовых задач - код, финансы, математика, таблицы и базы знаний
https://github.com/agent-husky/Husky-v1
#llm #ai #husky
https://github.com/agent-husky/Husky-v1
#llm #ai #husky
GitHub
GitHub - agent-husky/Husky-v1: Code for Husky, an open-source language agent that solves complex, multi-step reasoning tasks. Husky…
Code for Husky, an open-source language agent that solves complex, multi-step reasoning tasks. Husky v1 addresses numerical, tabular and knowledge-based reasoning tasks. - agent-husky/Husky-v1
🔥4👍1
А знаете ли вы, что помимо машинного обучения существует еще и машинное оТучение???
Да, да, именно так, Machine unlearning - это область искусственного интеллекта, которая фокусируется на эффективном устранении влияния конкретных обучающих данных из обученной модели. К таким относятся данные юридического характера, конфиденциальности и безопасности, вредная, неверная или устаревшая информация.
На недавнем конкурсе, организованном NeurIPS, исследователи представили несколько инновационных алгоритмов отучения. Система оценки, разработанная исследователями, измеряла качество забывания, полезность модели и эффективность вычислений. Например, несмотря на радикальный подход, метод «Себастьяна», который сократил 99% весов модели, показал замечательные результаты.
Источник
Да, да, именно так, Machine unlearning - это область искусственного интеллекта, которая фокусируется на эффективном устранении влияния конкретных обучающих данных из обученной модели. К таким относятся данные юридического характера, конфиденциальности и безопасности, вредная, неверная или устаревшая информация.
На недавнем конкурсе, организованном NeurIPS, исследователи представили несколько инновационных алгоритмов отучения. Система оценки, разработанная исследователями, измеряла качество забывания, полезность модели и эффективность вычислений. Например, несмотря на радикальный подход, метод «Себастьяна», который сократил 99% весов модели, показал замечательные результаты.
Источник
🤯3❤1👍1
сижу, общаюсь с OpenInterpreter - локальный помощник, который умеет выполнять задачи прямо на компьютере. Больше заточен под mac но у меня для работы используется мощный комп с ubuntu, поэтому пробуем на нем. Для начала он предложил перейти на бесплатную модель, которая еще только учится. Ок, с gpt4o любой может быть умным, пробуем неизвестную модельку. ни ключ. ни впн кстати не просил
👍4
Задача 1. прошу поставить задачу в календарь, сам предложил такую услугу, но не справился, есть только для мака)
👍4