Please open Telegram to view this post
VIEW IN TELEGRAM
Reuters
Nobel physics prize 2024 won by AI pioneers John Hopfield and Geoffrey Hinton
John Hopfield and Geoffrey Hinton won for discoveries that paved the way for the AI boom.
👏1
PaLM (и паучки)
Есть модель, которую я тут упоминала несколько раз и которую я периодически использую, поэтому имеет смысл рассказать. Это модель PaLM от Google, у нее есть телеграм-бот, через который ей можно пользоваться (при использовании из России нет никаких ограничений).
Модель представлена миру в 2022 году в статье «PaLM: Scaling Language Modeling with Pathways». Подробный обзор статьи я тут не буду делать, остановлюсь на нескольких особенностях, которые делают PaLM интересным объектом для изучения.
Во-первых, это модель впечатляющего размера (540 млрд. параметров), и она показывает хорошие результаты на многих тестах, соперничая с Llama, GPT и Claude.
Во-вторых, ее обучали с использованием собственной инфраструктуры Google, которая обеспечивает очень хорошую оптимизацию (мы любим оптимизацию). PaLM расшифровывается как Pathways Language Model, Pathways – это как раз инфраструктура. Она предназначена для обучения многозадачных моделей (а не специализированных под конкретные задачи), которые работают с разными типами данных (то есть, являются мультимодальными). И, разумеется, она предназначена для повышения эффективности моделей.
Инфраструктура Pathways доступна пользователям Google Cloud, которым пользуются разные компании и стартапы.
В 2023 году вышла версия PaLM 2 с улучшенными способностями к рассуждению. Я предположу, что в боте доступна именно она (во всяком случае, так утверждает сам бот). По сравнению с предыдущей версией немного улучшена архитектура, и сама модель дообучена на большем массиве англоязычных текстов.
API, впрочем, сейчас не поддерживается, в августе этого года отключили. Пользователям предлагают мигрировать на Gemini, которая также доступна через интерфейс (нужен vpn). Через интерфейс Gemini доступна Imagen 3, которая рисует картинки (сама Gemini работает только с текстом).
Gemini также встроена в Google Colab (чтобы ее там найти, нужен vpn). Помогает писать и чинить код, местами успешно.
Кстати, паучье наблюдение: PaLM и Imagen 3 гораздо лучше справляются с анатомией, чем DALL-E. На приложенных картинках паучки, созданные с использованием всех трех моделей по следующему запросу:
Картинка, нарисованная PaLM – паук в желтых очках и с кружкой с суперменом. Обратите внимание на паукостикеры в ее блокноте, это что-то прекрасное. Правда, лампа почему-то в термосе, но мы это простим. Изображение получено по одному запросу.
Далее паучок от Imagen 3 с планшетом за спиной и зеленой кружкой. Мне нравится реализм, но не хватает деталей (и сама картинка такая, как будто паук работает ночью). Тоже за один промпт.
Наконец, у DALL-E паучок без хелицер и с бело-голубой кружкой. Это не первый промпт, я несколько раз просила нарисовать именно хелицеры. Даже отправляла в Интернет искать, что это такое. Модель изучила Википедию, Британскую энциклопедию, но это не помогло. Короче, мой победитель – PaLM.
В конце вам еще бонус от Imagen 3 – паук в синей шапочке. Он нарисован совсем по другому запросу, но я не смогла удержаться, потому что шапочку я не просила, ее придумала Imagen 3. Мой мимиметр сломался.
Еще больше моих любимых паучков можно найти вот в этом посте.
#инструменты
Есть модель, которую я тут упоминала несколько раз и которую я периодически использую, поэтому имеет смысл рассказать. Это модель PaLM от Google, у нее есть телеграм-бот, через который ей можно пользоваться (при использовании из России нет никаких ограничений).
Модель представлена миру в 2022 году в статье «PaLM: Scaling Language Modeling with Pathways». Подробный обзор статьи я тут не буду делать, остановлюсь на нескольких особенностях, которые делают PaLM интересным объектом для изучения.
Во-первых, это модель впечатляющего размера (540 млрд. параметров), и она показывает хорошие результаты на многих тестах, соперничая с Llama, GPT и Claude.
Во-вторых, ее обучали с использованием собственной инфраструктуры Google, которая обеспечивает очень хорошую оптимизацию (мы любим оптимизацию). PaLM расшифровывается как Pathways Language Model, Pathways – это как раз инфраструктура. Она предназначена для обучения многозадачных моделей (а не специализированных под конкретные задачи), которые работают с разными типами данных (то есть, являются мультимодальными). И, разумеется, она предназначена для повышения эффективности моделей.
Инфраструктура Pathways доступна пользователям Google Cloud, которым пользуются разные компании и стартапы.
В 2023 году вышла версия PaLM 2 с улучшенными способностями к рассуждению. Я предположу, что в боте доступна именно она (во всяком случае, так утверждает сам бот). По сравнению с предыдущей версией немного улучшена архитектура, и сама модель дообучена на большем массиве англоязычных текстов.
API, впрочем, сейчас не поддерживается, в августе этого года отключили. Пользователям предлагают мигрировать на Gemini, которая также доступна через интерфейс (нужен vpn). Через интерфейс Gemini доступна Imagen 3, которая рисует картинки (сама Gemini работает только с текстом).
Gemini также встроена в Google Colab (чтобы ее там найти, нужен vpn). Помогает писать и чинить код, местами успешно.
Кстати, паучье наблюдение: PaLM и Imagen 3 гораздо лучше справляются с анатомией, чем DALL-E. На приложенных картинках паучки, созданные с использованием всех трех моделей по следующему запросу:
Please draw me a cute little spider (it's a girl) working on a computer. She is very busy and has colorful stickers with tasks all over her desk. She also has a planner, which lies open next to her. Next to a planner there is a thermo mug. The spider is wearing glasses, also she is a programmer
Картинка, нарисованная PaLM – паук в желтых очках и с кружкой с суперменом. Обратите внимание на паукостикеры в ее блокноте, это что-то прекрасное. Правда, лампа почему-то в термосе, но мы это простим. Изображение получено по одному запросу.
Далее паучок от Imagen 3 с планшетом за спиной и зеленой кружкой. Мне нравится реализм, но не хватает деталей (и сама картинка такая, как будто паук работает ночью). Тоже за один промпт.
Наконец, у DALL-E паучок без хелицер и с бело-голубой кружкой. Это не первый промпт, я несколько раз просила нарисовать именно хелицеры. Даже отправляла в Интернет искать, что это такое. Модель изучила Википедию, Британскую энциклопедию, но это не помогло. Короче, мой победитель – PaLM.
В конце вам еще бонус от Imagen 3 – паук в синей шапочке. Он нарисован совсем по другому запросу, но я не смогла удержаться, потому что шапочку я не просила, ее придумала Imagen 3. Мой мимиметр сломался.
Еще больше моих любимых паучков можно найти вот в этом посте.
#инструменты
👍1
Про сегодняшний инструмент мне давно хотелось написать, но все никак руки не доходили. Дошли, пишу.
Noi – это браузер, с помощью которого можно использовать сразу несколько ИИ-инструментов (разумеется, у вас должен быть аккаунт для каждого инструмента, в аккаунт надо войти, и тогда уже пользоваться).
Помимо ChatGPT и Claude, например, для которых надо плясать с бубнами, vpn и зарубежными платежными инструментами, в интерфейсе имеются HuggingChat (внутри открытая Llama 3.1. Мы любим Llama 3.1, мы можем смело ее использовать) и Gemini (Gemini мы тоже любим).
Там можно создавать ботов с помощью Coze (бесплатно, но надо зарегистрироваться). Туда же можно подключить свой гитхаб, и там же можно открыть и использовать VS Code, это же вообще потрясающе.
Еще туда можно добавить другие ресурсы, которые должны быть под рукой. Я сразу добавила гугл, чтобы два раза не вставать. Можно так настроить, что это будет ваш единственный браузер.
У Noi, конечно, есть альтернативы, например, Ferdium – он тоже бесплатный и выглядит неплохо.
Вообще рекомендую посмотреть сайт AlternativeTo, на котором собраны альтернативы разным программным инструментам. Полезно, если у вас какая-то важная штука ушла из России, например.
#инструменты
Noi – это браузер, с помощью которого можно использовать сразу несколько ИИ-инструментов (разумеется, у вас должен быть аккаунт для каждого инструмента, в аккаунт надо войти, и тогда уже пользоваться).
Помимо ChatGPT и Claude, например, для которых надо плясать с бубнами, vpn и зарубежными платежными инструментами, в интерфейсе имеются HuggingChat (внутри открытая Llama 3.1. Мы любим Llama 3.1, мы можем смело ее использовать) и Gemini (Gemini мы тоже любим).
Там можно создавать ботов с помощью Coze (бесплатно, но надо зарегистрироваться). Туда же можно подключить свой гитхаб, и там же можно открыть и использовать VS Code, это же вообще потрясающе.
Еще туда можно добавить другие ресурсы, которые должны быть под рукой. Я сразу добавила гугл, чтобы два раза не вставать. Можно так настроить, что это будет ваш единственный браузер.
У Noi, конечно, есть альтернативы, например, Ferdium – он тоже бесплатный и выглядит неплохо.
Вообще рекомендую посмотреть сайт AlternativeTo, на котором собраны альтернативы разным программным инструментам. Полезно, если у вас какая-то важная штука ушла из России, например.
#инструменты
Ответственного ИИ и безопасности данных пост. Он важный, посмотрите
Telegraph
Проблема сохранности данных
В одном из постов я кинула камень в огород OpenAI на тему сохранности данных пользователей. Бросок был вскользь, так сказать, без особых деталей, но сегодня давайте поговорим на эту тему поподробнее. Я опираюсь на вот эту публикацию 2023 года (да, с тех пор…
👍1
Новые архитектуры (не трансформеры). Часть 1
В апреле этого года на arxive.org появилась очень интересная статья, которая наделала шума (да, сейчас конец октября, но лучше поздно, чем никогда). Речь о публикации «KAN: Kolmogorov-Arnold Networks», которая предлагает новую архитектуру для нейросетей, и я сейчас попробую в двух словах объяснить, почему она так замечательна.
Во-первых, архитектура новая, но базовые принципы у нее старые – теорема Колмогорова-Арнольда. Если коротко, эта теорема гласит, что любую очень сложную функцию, которая зависит от множества переменных, можно представить в виде суммы простых функций, каждая из которых зависит от одной переменной.
Во-вторых, современные нейросети построены на базе многослойных перцептронов (Multilayer Perceptron). О том, кто такой многослойный перцептрон я писала здесь, и еще не мое, но очень хорошее объяснение есть здесь. Коротко: мы имеем сеть из нескольких слоев, на каждом из которых данные преобразуются линейным способом. В конце к ним применяется нелинейная функция, и готово – у нас есть ответ.
В сложных нейросетях большого размера есть несколько (много) нелинейных функций, которые применяются после группы линейных слоев. Больше слоев – более сложные данные могут быть обработаны. Число нелинейных преобразований и сами такие преобразования определены заранее, как и число линейных слоев – это параметры зафиксированы, меняются коэффициенты (на которые мы в каждом слое умножаем данные и которые мы прибавляем к данным).
А у сетей Колмогорова-Арнольда вообще нет никаких линейных весов. Все ее параметры – функции от одной переменной, и все они определяются в процессе обучения, а не задаются заранее. Это делает сети намного более гибкими, масштабируемыми и, что важно, более удобными с точки зрения интерпретации человеком (все хорошо, мы сейчас к этому придем).
В статье очень много красивой математики, но я не стану здесь ее пересказывать, чтобы не перегружать пост. Сосредоточимся на ключевых моментах.
Сети Колмогорова-Арнольда в сущности своей комбинируют свойства перцептронов, которые очень хорошо масштабируются (то есть, которые можно слоями складывать, чтобы получить более высокую точность) и сплайнов. Сплайн – это такая математическая функция, которая собрана из кусочков других функций, и может, таким образом, принимать сколь угодно сложную форму. Симпатичное объяснение с картинками есть вот здесь, посмотрите для лучшего понимания.
То есть, сети Колмогорова-Арнольда могут, во-первых, адаптироваться к данным очень сложной структуры (читаем «почти любым данным из реального мира»), во-вторых, легко увеличиваться в размерах (при этом занимая меньше места, чем перцептроны сопоставимого размера, посмотрите на строку «Model (Deep)» на скриншоте). Это ли не потрясающе?
Так что там с интерпретацией человеком? Мы можем визуализировать функции, которые применяет сеть, и своими глазами увидеть, как именно она работает. А еще мы можем взаимодействовать с ней и изменять эти функции, чтобы посмотреть, как изменится результат.
Если мы говорим в терминах объяснимого ИИ или ответственного ИИ, это отличная новость, потому что на данный момент одна из главных проблем работы с глубокими нейросетями в том, что мы понятия не имеем, что и где пошло не так (а оно пошло). Сети Колмогорова-Арнольда имеют потенциал в решении этой задачи.
Разумеется, у этих сетей есть свои ограничения. Например, они намного более медленно учатся. Однако точность многообещающая, и потенциальных областей применения у них немало (авторы указывают решение задач из области физики и математики в качестве приоритетных, однако сети уже хорошо показали себя в работе с изображениями, потенциально могут улучшить распознавание речи и много чего еще).
На момент написания поста (середина октября) я не нашла упоминаний о практическом применении сетей Колмогорова-Арнольда (упоминаний о том, что какой-то крупный разработчик нейросетей ими занимается, например). Но совершенно точно профессиональное сообщество активно заинтересовано, так что ждем.
В апреле этого года на arxive.org появилась очень интересная статья, которая наделала шума (да, сейчас конец октября, но лучше поздно, чем никогда). Речь о публикации «KAN: Kolmogorov-Arnold Networks», которая предлагает новую архитектуру для нейросетей, и я сейчас попробую в двух словах объяснить, почему она так замечательна.
Во-первых, архитектура новая, но базовые принципы у нее старые – теорема Колмогорова-Арнольда. Если коротко, эта теорема гласит, что любую очень сложную функцию, которая зависит от множества переменных, можно представить в виде суммы простых функций, каждая из которых зависит от одной переменной.
Во-вторых, современные нейросети построены на базе многослойных перцептронов (Multilayer Perceptron). О том, кто такой многослойный перцептрон я писала здесь, и еще не мое, но очень хорошее объяснение есть здесь. Коротко: мы имеем сеть из нескольких слоев, на каждом из которых данные преобразуются линейным способом. В конце к ним применяется нелинейная функция, и готово – у нас есть ответ.
В сложных нейросетях большого размера есть несколько (много) нелинейных функций, которые применяются после группы линейных слоев. Больше слоев – более сложные данные могут быть обработаны. Число нелинейных преобразований и сами такие преобразования определены заранее, как и число линейных слоев – это параметры зафиксированы, меняются коэффициенты (на которые мы в каждом слое умножаем данные и которые мы прибавляем к данным).
А у сетей Колмогорова-Арнольда вообще нет никаких линейных весов. Все ее параметры – функции от одной переменной, и все они определяются в процессе обучения, а не задаются заранее. Это делает сети намного более гибкими, масштабируемыми и, что важно, более удобными с точки зрения интерпретации человеком (все хорошо, мы сейчас к этому придем).
В статье очень много красивой математики, но я не стану здесь ее пересказывать, чтобы не перегружать пост. Сосредоточимся на ключевых моментах.
Сети Колмогорова-Арнольда в сущности своей комбинируют свойства перцептронов, которые очень хорошо масштабируются (то есть, которые можно слоями складывать, чтобы получить более высокую точность) и сплайнов. Сплайн – это такая математическая функция, которая собрана из кусочков других функций, и может, таким образом, принимать сколь угодно сложную форму. Симпатичное объяснение с картинками есть вот здесь, посмотрите для лучшего понимания.
То есть, сети Колмогорова-Арнольда могут, во-первых, адаптироваться к данным очень сложной структуры (читаем «почти любым данным из реального мира»), во-вторых, легко увеличиваться в размерах (при этом занимая меньше места, чем перцептроны сопоставимого размера, посмотрите на строку «Model (Deep)» на скриншоте). Это ли не потрясающе?
Так что там с интерпретацией человеком? Мы можем визуализировать функции, которые применяет сеть, и своими глазами увидеть, как именно она работает. А еще мы можем взаимодействовать с ней и изменять эти функции, чтобы посмотреть, как изменится результат.
Если мы говорим в терминах объяснимого ИИ или ответственного ИИ, это отличная новость, потому что на данный момент одна из главных проблем работы с глубокими нейросетями в том, что мы понятия не имеем, что и где пошло не так (а оно пошло). Сети Колмогорова-Арнольда имеют потенциал в решении этой задачи.
Разумеется, у этих сетей есть свои ограничения. Например, они намного более медленно учатся. Однако точность многообещающая, и потенциальных областей применения у них немало (авторы указывают решение задач из области физики и математики в качестве приоритетных, однако сети уже хорошо показали себя в работе с изображениями, потенциально могут улучшить распознавание речи и много чего еще).
На момент написания поста (середина октября) я не нашла упоминаний о практическом применении сетей Колмогорова-Арнольда (упоминаний о том, что какой-то крупный разработчик нейросетей ими занимается, например). Но совершенно точно профессиональное сообщество активно заинтересовано, так что ждем.
Новые архитектуры (не трансформеры). Часть 2
Telegraph
Жидкие нейросети
Продолжим тему не-трансформеров и поговорим сегодня про жидкие нейросети. Они были представлены в 2020 году в статье «Liquid Time-constant Networks». Они созданы на базе рекуррентных нейросетей (одна из сравнительно ранних архитектур, у них есть краткосрочная…
Пришло время обсудить еще одну классную модель, которая фигурирует во всех рейтингах на первых строчках – Claude. Мы ее немного обсуждали уже, но сегодня полезем внутрь, потому что как же не полезть.
Telegraph
Claude
Первая версия Claude появилась в марте 2023 года (а чуть больше, чем через год мы получили версию 3.5. Вот это я понимаю – стахановские темпы). Создатели (компания Anthropic) работали совместно с Notion, Quora и DuckDuckGo, чтобы как следует отработать свое…
👍1😱1
У меня ушло много времени на этот пост, но оно того стоило. Встречайте: протокол для создания мультиагентных систем на основе блокчейна
#инструменты
#инструменты
Telegraph
Theoriq.ai
Есть один проект, про который я уже писала раньше, но хочу теперь рассказать поподробнее. Проект называется Theoriq, и он про ИИ-агентов. Если точнее, это инструмент для создания мультиагентных систем, который использует блокчейн и предназначен для разработчиков…
👍2
ИИ-агентов много не бывает, так что вот история о том, как их научили играть в "мафию"
Telegraph
Мультиагентные системы
Да, я уже писала пост про агентов и мультиагентные системы. И да, буквально предыдущий пост тут был посвящен инструменту для работы с агентами и мультиагентными системами. Нет, я не собираюсь на этом заканчивать. Сегодня будет еще один пост. На сей раз мы…
🔥1
Еще один инструмент, который до этот упоминался вскользь, но теперь нужно рассмотреть поподробнее.
Инструмент называется Gurobi и предназначен для математической оптимизации сложных процессов принятия решений. Вы даете на вход описание вашей задачи, ограничения вашей компании и другую важную информацию – Gurobi вам разрабатывает стратегию решения.
К сайту проекта доступ можно получить без VPN, но для запроса пробного периода тестирования (на 30 дней) VPN нужен. А потом нужно еще один-два рабочих дня, чтобы с вами связался представитель и выполнил запрос. Я попробовала притвориться, что я в Нидерландах, но меня раскусили и написали, что доступ не дадут. Но ничего, я попробую найти варианты.
Пока же поговорим о том, как это все работает и почему математическая оптимизация – это важно.
Gurobi – это «решатель» (solver). У него нет пользовательского интерфейса с окошками и кнопками, работать нужно с использованием программного кода (он поддерживает несколько языков, в том числе, например, Python и R). Кроме того, пользователям нужно понимать, как работают и создаются математические модели, так что это для продвинутых. Для тех, кто не обладает необходимыми навыками, есть Gurobi Alliance – группа организаций-партнеров, которые помогают собрать работающее решение. И еще команда Gurobi сама проводит обучение для своих клиентов.
Итак, что делает решатель? Решатель помогает вам принять решения (простите за тавтологию) по развитию вашего проекта или компании. Делает он это с использованием ИИ. Где математическая оптимизация? Внутри. Она делает так, чтобы ИИ придумал вам хороший (и оптимальный с точки зрения затрат, что важно) план для решения вашей задачи, за пару секунд.
На сайте приведены разные примеры работы Gurobi с клиентами, рассмотрим один из них – пример Uber. Задача компании состояла в том, чтобы оптимизировать маршруты транспортных средств для использования в городе, причем по воздуху (будущее здесь). Похоже, речь идет вот об этом проекте – электрические летательные аппараты с вертикальным взлетом и посадкой. Судя по информации в открытых источниках, они в итоге отказались от реализации. Продали подразделение, которое отвечало за работу с беспилотным транспортом вообще, а Uber Elevate (которое работало над воздушным транспортом) отдали Joby Aviation. Дальше я уж не пошла отслеживать судьбу этого амбициозного проекта, вернемся к математике.
Ограничением проекта было то, что беспилотные летательные аппараты (давайте далее говорить «летающее такси» для краткости) привязаны к специальным взлетно-посадочным станциями и не могут припарковаться где попало. Таким образом, сначала нужно было определить оптимальное расположение этих станций (помните игру про фургончик с буррито?). Для этого на вход алгоритму передавались маршруты (список пунктов отправления и прибытия), и алгоритм высчитывал оптимальное расположение станций на основании того, как много людей выбирает места поблизости для отправки или прибытия.
Затем нужно было построить оптимальные маршруты с учетом необходимости подзарядки летающего такси по дороге и посадки новых пассажиров (это такси, которое нужно делить с другими пассажирами, с которыми вам по пути). Задача непростая, потому что нужно убедиться в том, что не будет момента, когда все такси отправятся на подзарядку разом, или что посадка новых пассажиров не затянет поездку для первых пассажиров слишком сильно. Кроме того, речь идет о принципиально новом виде транспорта, поэтому данные, собранные заранее об обычном такси на колесах, не вполне подходят для моделирования.
Эти две задачи решали с помощью Gurobi, а потом прикрутили простой пользовательский интерфейс, чтобы можно было проверить работу алгоритма визуально.
Компания раскрывает не то чтобы очень много деталей реализации решателя, что можно понять. Но, думаю, пример Uber дает базовое понимание принципов, лежащих в его основе.
Инструмент называется Gurobi и предназначен для математической оптимизации сложных процессов принятия решений. Вы даете на вход описание вашей задачи, ограничения вашей компании и другую важную информацию – Gurobi вам разрабатывает стратегию решения.
К сайту проекта доступ можно получить без VPN, но для запроса пробного периода тестирования (на 30 дней) VPN нужен. А потом нужно еще один-два рабочих дня, чтобы с вами связался представитель и выполнил запрос. Я попробовала притвориться, что я в Нидерландах, но меня раскусили и написали, что доступ не дадут. Но ничего, я попробую найти варианты.
Пока же поговорим о том, как это все работает и почему математическая оптимизация – это важно.
Gurobi – это «решатель» (solver). У него нет пользовательского интерфейса с окошками и кнопками, работать нужно с использованием программного кода (он поддерживает несколько языков, в том числе, например, Python и R). Кроме того, пользователям нужно понимать, как работают и создаются математические модели, так что это для продвинутых. Для тех, кто не обладает необходимыми навыками, есть Gurobi Alliance – группа организаций-партнеров, которые помогают собрать работающее решение. И еще команда Gurobi сама проводит обучение для своих клиентов.
Итак, что делает решатель? Решатель помогает вам принять решения (простите за тавтологию) по развитию вашего проекта или компании. Делает он это с использованием ИИ. Где математическая оптимизация? Внутри. Она делает так, чтобы ИИ придумал вам хороший (и оптимальный с точки зрения затрат, что важно) план для решения вашей задачи, за пару секунд.
На сайте приведены разные примеры работы Gurobi с клиентами, рассмотрим один из них – пример Uber. Задача компании состояла в том, чтобы оптимизировать маршруты транспортных средств для использования в городе, причем по воздуху (будущее здесь). Похоже, речь идет вот об этом проекте – электрические летательные аппараты с вертикальным взлетом и посадкой. Судя по информации в открытых источниках, они в итоге отказались от реализации. Продали подразделение, которое отвечало за работу с беспилотным транспортом вообще, а Uber Elevate (которое работало над воздушным транспортом) отдали Joby Aviation. Дальше я уж не пошла отслеживать судьбу этого амбициозного проекта, вернемся к математике.
Ограничением проекта было то, что беспилотные летательные аппараты (давайте далее говорить «летающее такси» для краткости) привязаны к специальным взлетно-посадочным станциями и не могут припарковаться где попало. Таким образом, сначала нужно было определить оптимальное расположение этих станций (помните игру про фургончик с буррито?). Для этого на вход алгоритму передавались маршруты (список пунктов отправления и прибытия), и алгоритм высчитывал оптимальное расположение станций на основании того, как много людей выбирает места поблизости для отправки или прибытия.
Затем нужно было построить оптимальные маршруты с учетом необходимости подзарядки летающего такси по дороге и посадки новых пассажиров (это такси, которое нужно делить с другими пассажирами, с которыми вам по пути). Задача непростая, потому что нужно убедиться в том, что не будет момента, когда все такси отправятся на подзарядку разом, или что посадка новых пассажиров не затянет поездку для первых пассажиров слишком сильно. Кроме того, речь идет о принципиально новом виде транспорта, поэтому данные, собранные заранее об обычном такси на колесах, не вполне подходят для моделирования.
Эти две задачи решали с помощью Gurobi, а потом прикрутили простой пользовательский интерфейс, чтобы можно было проверить работу алгоритма визуально.
Компания раскрывает не то чтобы очень много деталей реализации решателя, что можно понять. Но, думаю, пример Uber дает базовое понимание принципов, лежащих в его основе.
Gurobi Optimization
The Leader in Decision Intelligence Technology - Gurobi Optimization
Decision Intelligence for Today’s Enterprises Your business faces extremely complex challenges. You need to achieve multiple, conflicting objectives simultaneously—amid an ever-changing business landscape and global disruption. That’s why 80% of the world’s…
👍1
И зачем это все надо? Затем, чтобы ускорять рабочие процессы. Большой и сложный ИИ думает над задачами долго (особенно над такими, как у Uber), а решение нужно быстро (желательно вчера, мы все это знаем). Математическая оптимизация позволяет ускорить процесс и избежать части издержек, связанных в простоем, с одной стороны, и с затратами электроэнергии, с другой (пока ИИ будет думать, вы будете платить за электроэнергию).
Почти #инструменты
Почти #инструменты
Gurobi Optimization
The Leader in Decision Intelligence Technology - Gurobi Optimization
Decision Intelligence for Today’s Enterprises Your business faces extremely complex challenges. You need to achieve multiple, conflicting objectives simultaneously—amid an ever-changing business landscape and global disruption. That’s why 80% of the world’s…
👍1
Приложения для заметок на совещаниях, доступные без VPN
Первое приложение называется otter.ai, у него есть ограниченная бесплатная версия (цены на первом скриншоте).
Что умеет:
- подключаться к совещаниям (автоматически, ему надо только дать доступ к вашему календарю);
- делать заметки;
- рассылать заметки всем участникам совещания, используя приглашение в календаре;
- расшифровывать аудиозаписи.
Можно подключить к нему Zoom, Slack, Teams и Google.
По всей видимости, работает пока только с английским языком, хотя официальный сайт обещает перевод в режиме реального времени между 40 языками (возможно, этот функционал доступен только в платной версии).
Второй инструмент – Happy Scribe. Он русский язык поддерживает, но на совещания с вами не ходит. Зато умеет делать субтитры к видео. Бесплатная версия есть, тоже с некоторыми ограничениями (тарифы на втором скриншоте).
В платной версии можно запросить человеческие правки в транскрипт, тогда весь процесс займет до 24 часов (не совсем понятно, правда, зачем эта функция: если пользователь хочет автоматические заметки с помощью ИИ, он хочет быстрые автоматические заметки с помощью ИИ, но ладно).
Заметки можно выгрузить в разных удобных форматах. Я попробовала запись совещания на русском языке (на 45 минут примерно), вышло вполне прилично (местами забавно, но вообще прилично).
Еще в Happy Scribe можно добавить словари, чтобы определенные термины (например, профессиональный сленг) считывался корректно.
Думаю, что бы взять потестировать более подробно. У меня сейчас регулярные совещания и на русском, и на английском языке. Было бы интересно сравнить результаты.
#инструменты
Первое приложение называется otter.ai, у него есть ограниченная бесплатная версия (цены на первом скриншоте).
Что умеет:
- подключаться к совещаниям (автоматически, ему надо только дать доступ к вашему календарю);
- делать заметки;
- рассылать заметки всем участникам совещания, используя приглашение в календаре;
- расшифровывать аудиозаписи.
Можно подключить к нему Zoom, Slack, Teams и Google.
По всей видимости, работает пока только с английским языком, хотя официальный сайт обещает перевод в режиме реального времени между 40 языками (возможно, этот функционал доступен только в платной версии).
Второй инструмент – Happy Scribe. Он русский язык поддерживает, но на совещания с вами не ходит. Зато умеет делать субтитры к видео. Бесплатная версия есть, тоже с некоторыми ограничениями (тарифы на втором скриншоте).
В платной версии можно запросить человеческие правки в транскрипт, тогда весь процесс займет до 24 часов (не совсем понятно, правда, зачем эта функция: если пользователь хочет автоматические заметки с помощью ИИ, он хочет быстрые автоматические заметки с помощью ИИ, но ладно).
Заметки можно выгрузить в разных удобных форматах. Я попробовала запись совещания на русском языке (на 45 минут примерно), вышло вполне прилично (местами забавно, но вообще прилично).
Еще в Happy Scribe можно добавить словари, чтобы определенные термины (например, профессиональный сленг) считывался корректно.
Думаю, что бы взять потестировать более подробно. У меня сейчас регулярные совещания и на русском, и на английском языке. Было бы интересно сравнить результаты.
#инструменты
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegraph
По образу и подобию своему
В эпизоде 807 подкаста Super Data Science затронули тему возможности появления сознания у ИИ и необходимости каким-то образом сообщить ему ценности альтруизма и кооперации, которые являются неотъемлемой частью человеческой эволюции. Конкретно эту тему обсуждают…
🔥2