Патентование ИИ. Часть 1
В прошлой жизни, еще в 2019 году вышел отчет Всемирной организации интеллектуальной собственности (ВОИС) про ИИ в рамках серии про технологические тренды. Информация для отчета была извлечена из патентов и научных публикаций, и это подводка к разговору о патентовании ИИ, в котором есть много чего интересного.
Во-первых, некоторое время ушло на то, чтобы понять, патентовать ли решения, относящиеся к ИИ. По общему правилу, математические методы и компьютерные программы не патентуются (Европейская патентная конвенция, ГК РФ). Спустя энное количество сломанных копий и судебных заседаний, человечество пришло к тому, что программное обеспечение и ИИ таки патентоспособны.
Во-вторых, сегодня ИИ уже активно используется в изобретательской деятельности (например, с помощью ИИ можно написать код, генерировать идеи, разрабатывать прототипы и так далее), и тут встает вопрос: а на кого регистрировать патент? Тут копья пока в процессе поломки, но можно наметить некоторые особенно острые темы.
Начнем с того, о чем договорились – о патентовании разработок на основе ИИ. Признание ИИ патентоспособным (с нюансами) выражается в разработке рекомендаций экспертам патентных ведомств относительно того, когда патент можно или нельзя выдать. Европейское патентное ведомство выпустило отдельное заявление по поводу того, что алгоритм ИИ можно запатентовать, если (вот здесь нюансы) такой алгоритм решает конкретную техническую задачу (таким образом покидая мир математических абстракций). В рекомендациях экспертам это правило прописано с примерами: в частности, просто алгоритм для классификации изображений запатентовать нельзя, а если он используется для обнаружения, например, опухолей на рентгеновских снимках – можно.
Подобные инструкции есть и в Великобритании. Там тоже прописано, когда ИИ вносит технический вклад в изобретение. В качестве примера установления наличия технического вклада приводится решение суда по спору между правообладателем патента и патентным ведомством. Предметом спора была выдача патента на нейросеть, в итоге в выдаче патента отказали, потому что не нашли технического вклада нейросети в изобретение. Но это ладно, а нам здесь интересно другое: суд постановил, что нейросеть к компьютерным программам не относится:
То есть, вообще экспертам рекомендуют не отказывать в выдаче патента на нейросеть на основании того, что «это компьютерная программа».
На сайте, ссылку на который я прикрепила выше, приводятся еще несколько судебных решений, важных для разных аспектов патентования ИИ. Не будучи юристом, я не полезу в эти дебри, остановлюсь только на заключении: алгоритмы ИИ патентоспособны, если они вносят технический вклад в разработку. Технический вклад не должен касаться объектов, исключенных из патентоспособности: бизнес-методов, методов обработки информации и т.п. Важно смотреть на конечную цель: если целью является анализ информации как таковой, патент получить нельзя. А если анализ информации используется для того, чтобы далее (с помощью ИИ) предсказывать ввод пользователя на виртуальной клавиатуре – можно.
Для России, к сожалению, удалось найти только Руководство по экспертизе заявок на изобретение от 2018 года, которое утратило силу. Аккуратно предположу, что у нас правила не сильно отличаются от общемировых, потому что патенты на разработки, связанные с ИИ, есть. Кроме того, есть позиция Евразийской патентной организации (ЕАПО), членом которой Россия является. ЕАПО тоже указывает на необходимость технического вклада ИИ в изобретение.
В прошлой жизни, еще в 2019 году вышел отчет Всемирной организации интеллектуальной собственности (ВОИС) про ИИ в рамках серии про технологические тренды. Информация для отчета была извлечена из патентов и научных публикаций, и это подводка к разговору о патентовании ИИ, в котором есть много чего интересного.
Во-первых, некоторое время ушло на то, чтобы понять, патентовать ли решения, относящиеся к ИИ. По общему правилу, математические методы и компьютерные программы не патентуются (Европейская патентная конвенция, ГК РФ). Спустя энное количество сломанных копий и судебных заседаний, человечество пришло к тому, что программное обеспечение и ИИ таки патентоспособны.
Во-вторых, сегодня ИИ уже активно используется в изобретательской деятельности (например, с помощью ИИ можно написать код, генерировать идеи, разрабатывать прототипы и так далее), и тут встает вопрос: а на кого регистрировать патент? Тут копья пока в процессе поломки, но можно наметить некоторые особенно острые темы.
Начнем с того, о чем договорились – о патентовании разработок на основе ИИ. Признание ИИ патентоспособным (с нюансами) выражается в разработке рекомендаций экспертам патентных ведомств относительно того, когда патент можно или нельзя выдать. Европейское патентное ведомство выпустило отдельное заявление по поводу того, что алгоритм ИИ можно запатентовать, если (вот здесь нюансы) такой алгоритм решает конкретную техническую задачу (таким образом покидая мир математических абстракций). В рекомендациях экспертам это правило прописано с примерами: в частности, просто алгоритм для классификации изображений запатентовать нельзя, а если он используется для обнаружения, например, опухолей на рентгеновских снимках – можно.
Подобные инструкции есть и в Великобритании. Там тоже прописано, когда ИИ вносит технический вклад в изобретение. В качестве примера установления наличия технического вклада приводится решение суда по спору между правообладателем патента и патентным ведомством. Предметом спора была выдача патента на нейросеть, в итоге в выдаче патента отказали, потому что не нашли технического вклада нейросети в изобретение. Но это ладно, а нам здесь интересно другое: суд постановил, что нейросеть к компьютерным программам не относится:
Accordingly, the court held as a matter of construction the claimed invention was not a computer program at all (see paragraph 61). The computer program exclusion was not invoked by the claimed invention.
То есть, вообще экспертам рекомендуют не отказывать в выдаче патента на нейросеть на основании того, что «это компьютерная программа».
На сайте, ссылку на который я прикрепила выше, приводятся еще несколько судебных решений, важных для разных аспектов патентования ИИ. Не будучи юристом, я не полезу в эти дебри, остановлюсь только на заключении: алгоритмы ИИ патентоспособны, если они вносят технический вклад в разработку. Технический вклад не должен касаться объектов, исключенных из патентоспособности: бизнес-методов, методов обработки информации и т.п. Важно смотреть на конечную цель: если целью является анализ информации как таковой, патент получить нельзя. А если анализ информации используется для того, чтобы далее (с помощью ИИ) предсказывать ввод пользователя на виртуальной клавиатуре – можно.
Для России, к сожалению, удалось найти только Руководство по экспертизе заявок на изобретение от 2018 года, которое утратило силу. Аккуратно предположу, что у нас правила не сильно отличаются от общемировых, потому что патенты на разработки, связанные с ИИ, есть. Кроме того, есть позиция Евразийской патентной организации (ЕАПО), членом которой Россия является. ЕАПО тоже указывает на необходимость технического вклада ИИ в изобретение.
Патентование ИИ. Часть 2
Теперь же перейдем к тому, что пока еще никому не понятно: что делать, если ИИ был задействован в процессе создания изобретения? в феврале этого года Ведомство по патентам и товарным знакам США выпустило руководство для экспертов, в котором сказано, что на изобретение можно выдать патент, если вклад в его создание человека существенен. Это значит, что разработка идеи и принятие ключевых решений в рамках ее осуществления должны быть выполнены человеком. ИИ может быть использован при проведении экспериментов, генерации данных, моделировании образцов и в прочих подобных задачах. Человек, который принимал участие только в проведении экспериментов, оказывал консультативную поддержку, собирал данные и пр., не считается изобретателем, поскольку его вклад не считается существенным.
ВОИС несколькими годами ранее публиковала статью о двух заявках на выдачу патентов на изобретения, полностью созданные с использованием ИИ. Это был эксперимент, обе заявки успешно прошли экспертизу на патентоспособность. Авторы публикации занимают позицию, противоположную позиции патентного ведомства США, и считают, что патенты на созданные ИИ изобретения выдавать надо (и указывать ИИ в качестве автора). По мысли команды, это подтолкнет изобретателей к более активному использованию ИИ и поможет ускорить научно-технологический прогресс. На странице проекта The Artificial Inventor Project они публикуют актуальную информацию о том, что происходит с их сгенерированными ИИ изобретениями, и как они работают над продвижением своей идеи.
Согласно информации на этом сайте, один патент таки был выдан, но только в ЮАР. В графе «Изобретатель» так и написано: «Изобретение было автономно сгенерировано с помощью ИИ». В некоторых других странах поданы заявки, во многих ведутся судебные споры о патентоспособности изобретения.
Этот незаконченный проект – интересный прецедент. Посмотрим, к чему приведут все эти бурные обсуждения.
Теперь же перейдем к тому, что пока еще никому не понятно: что делать, если ИИ был задействован в процессе создания изобретения? в феврале этого года Ведомство по патентам и товарным знакам США выпустило руководство для экспертов, в котором сказано, что на изобретение можно выдать патент, если вклад в его создание человека существенен. Это значит, что разработка идеи и принятие ключевых решений в рамках ее осуществления должны быть выполнены человеком. ИИ может быть использован при проведении экспериментов, генерации данных, моделировании образцов и в прочих подобных задачах. Человек, который принимал участие только в проведении экспериментов, оказывал консультативную поддержку, собирал данные и пр., не считается изобретателем, поскольку его вклад не считается существенным.
ВОИС несколькими годами ранее публиковала статью о двух заявках на выдачу патентов на изобретения, полностью созданные с использованием ИИ. Это был эксперимент, обе заявки успешно прошли экспертизу на патентоспособность. Авторы публикации занимают позицию, противоположную позиции патентного ведомства США, и считают, что патенты на созданные ИИ изобретения выдавать надо (и указывать ИИ в качестве автора). По мысли команды, это подтолкнет изобретателей к более активному использованию ИИ и поможет ускорить научно-технологический прогресс. На странице проекта The Artificial Inventor Project они публикуют актуальную информацию о том, что происходит с их сгенерированными ИИ изобретениями, и как они работают над продвижением своей идеи.
Согласно информации на этом сайте, один патент таки был выдан, но только в ЮАР. В графе «Изобретатель» так и написано: «Изобретение было автономно сгенерировано с помощью ИИ». В некоторых других странах поданы заявки, во многих ведутся судебные споры о патентоспособности изобретения.
Этот незаконченный проект – интересный прецедент. Посмотрим, к чему приведут все эти бурные обсуждения.
Генеративный ИИ развивается быстро, но не так быстро, как если бы нам хватало чипов. Часть 1
Это не то чтобы большая новость, конечно, но для обучения больших генеративных моделей нужны вычислительные ресурсы. Вычислительные ресурсы – это графические процессоры, которые производят гиганты вроде Nvidia и AMD. Первые графические процессоры появились в 1980х, и, когда их стали использовать для глубокого обучения, развитие ИИ пошло в гору.
Сейчас спрос вырос, потому что модели стали больше и тяжелее, и потребность в их использовании для разных задач тоже возросла. Компании-производители графических процессоров, конечно, озолотятся на спросе (если у вас была мысль заняться производством, время пришло).
Однако для обычных потребителей, которые пользуют графические процессоры для своих локальных нужд (не будем показывать пальцем), это может вылиться в рост цен. Например, есть вот популярный у тех, кто работает с данными, Google Colab. Там можно подключить себе разные процессоры и пользоваться арендованными вычислительными мощностями, которые измеряются в «вычислительных единицах». Не вдаваясь в подробности, 100 таких единиц стоит 10 долларов (цена зависит от региона). При среднем расходе примерно в 5 единиц в час мы получаем путем несложных вычислений 20 часов работы. Это примерно на неделю-полторы с учетом того, что мы не все рабочее время пишем и запускаем код, а сколько-то часов лазаем по Интернету, ищем ошибки и все такое. 500 единиц можно разом купить за 50 долларов. При аккуратном использовании этого могло бы хватить на месяц, но не хватит, потому что сгорают они так, как будто их кто ест(сейчас я перестану ныть, просто накипело) . Конечно, есть и другие способы получить вычислительные мощности, можно поискать варианты побюджетнее. Но в итоге, скорее всего, все равно придется выложить кругленькую сумму за удовольствие поработать с моделями. Я еще молчу про то, что для работы понадобится немаленький объем оперативной памяти, который не у каждого процессора будет. В общем, все сложно и дорого.
Но тут на сцену выходят они – методы оптимизации. То есть, они и раньше были, разумеется, но в условиях нехватки мощностей получили шанс на новую популярность. Математическая оптимизация – это непростая тема, и многие, кто работает с анализом данных, ее побаиваются (включая меня; но я с этим работаю). Поэтому наряду с производителями процессоров озолотятся, видимо, люди, которые создают продукты для оптимизации (вот вам еще бизнес-идея, всегда пожалуйста).
Это не то чтобы большая новость, конечно, но для обучения больших генеративных моделей нужны вычислительные ресурсы. Вычислительные ресурсы – это графические процессоры, которые производят гиганты вроде Nvidia и AMD. Первые графические процессоры появились в 1980х, и, когда их стали использовать для глубокого обучения, развитие ИИ пошло в гору.
Сейчас спрос вырос, потому что модели стали больше и тяжелее, и потребность в их использовании для разных задач тоже возросла. Компании-производители графических процессоров, конечно, озолотятся на спросе (если у вас была мысль заняться производством, время пришло).
Однако для обычных потребителей, которые пользуют графические процессоры для своих локальных нужд (не будем показывать пальцем), это может вылиться в рост цен. Например, есть вот популярный у тех, кто работает с данными, Google Colab. Там можно подключить себе разные процессоры и пользоваться арендованными вычислительными мощностями, которые измеряются в «вычислительных единицах». Не вдаваясь в подробности, 100 таких единиц стоит 10 долларов (цена зависит от региона). При среднем расходе примерно в 5 единиц в час мы получаем путем несложных вычислений 20 часов работы. Это примерно на неделю-полторы с учетом того, что мы не все рабочее время пишем и запускаем код, а сколько-то часов лазаем по Интернету, ищем ошибки и все такое. 500 единиц можно разом купить за 50 долларов. При аккуратном использовании этого могло бы хватить на месяц, но не хватит, потому что сгорают они так, как будто их кто ест
Но тут на сцену выходят они – методы оптимизации. То есть, они и раньше были, разумеется, но в условиях нехватки мощностей получили шанс на новую популярность. Математическая оптимизация – это непростая тема, и многие, кто работает с анализом данных, ее побаиваются (включая меня; но я с этим работаю). Поэтому наряду с производителями процессоров озолотятся, видимо, люди, которые создают продукты для оптимизации (вот вам еще бизнес-идея, всегда пожалуйста).
Computerworld
AI chip shortages continue, but there may be an end in sight
While GPUs are in high demand, they still need high-performance memory chips for AI apps. The market is tight for both — for now.
❤2
Генеративный ИИ развивается быстро, но не так быстро, как если бы нам хватало чипов. Часть 2
Мне более или менее близко знакомы только два продукта. Первый – Gurobi. Про него была серия в подкасте SuperDataScience. Он платный, но команда выпускает множество открытых обучающих материалов по оптимизации. Я собираюсь про них отдельно сделать исследование и, если наберется на пост, будет пост. А пока вот вам игра про математическую оптимизацию на примере фургончика с буррито.
Второй – Ollama. Это проект с открытым исходным кодом, который можно прям себе скачать и сразу начать использовать. Одной простой командой в терминале запускается любая из доступных в каталоге моделей, тут даже не нужно навыков программирования, чтобы их протестировать. Обучение можно посмотреть здесь, оно максимально понятное. Я начала использовать Ollama для своих проектов недавно, и пока очень радуюсь.
Ollama использует ресурсы компьютера, поэтому, конечно, чем он мощнее, тем быстрее все будет работать. Еще нужно иметь хотя бы 8 ГБ оперативной памяти для запуска самых маленьких моделей.
Принцип работы Ollama, если коротко, следующий: создается контейнер, в котором есть среда для запуска модели: веса, необходимые файлы конфигурации и зависимости. То есть, ничего дополнительно устанавливать не нужно и страдать, совмещая разные версии пакетов, – тоже. Эта конструкция совместима с любой операционной системой и не создает конфликтов с другими приложениями.
Помимо очевидного, у Ollama есть еще один плюс: весь ваш проект находится у вас на компьютере, а не на чьем-то сервере, с которым всякое может случиться. К тому же, после загрузки модели, ее можно будет использовать без доступа к Интернету (разумеется, задания, связанные с поиском в Интернете, она не выполнит).
Некоторые команды, инструкции по установке и полезные подсказки можно подсмотреть здесь.
Есть, правда, еще один путь – атомная энергия. По этому пути пошла компания Microsoft, подписав соглашение о перезапуске реактора Three Mile Island. Планируют его использовать, чтобы обеспечивать электричеством свои дата-центры. Разумеется, просто взять и запустить реактор, на котором произошла серьезная авария, нельзя, нужно получать разрешение комиссии по ядерной регламентации (Nuclear Regulatory Commission). Экспертиза может завершиться к 2027 году, посмотрим, что из этого выйдет.
(Изображение героической ламы создано с использованием ChatGPT)
Мне более или менее близко знакомы только два продукта. Первый – Gurobi. Про него была серия в подкасте SuperDataScience. Он платный, но команда выпускает множество открытых обучающих материалов по оптимизации. Я собираюсь про них отдельно сделать исследование и, если наберется на пост, будет пост. А пока вот вам игра про математическую оптимизацию на примере фургончика с буррито.
Второй – Ollama. Это проект с открытым исходным кодом, который можно прям себе скачать и сразу начать использовать. Одной простой командой в терминале запускается любая из доступных в каталоге моделей, тут даже не нужно навыков программирования, чтобы их протестировать. Обучение можно посмотреть здесь, оно максимально понятное. Я начала использовать Ollama для своих проектов недавно, и пока очень радуюсь.
Ollama использует ресурсы компьютера, поэтому, конечно, чем он мощнее, тем быстрее все будет работать. Еще нужно иметь хотя бы 8 ГБ оперативной памяти для запуска самых маленьких моделей.
Принцип работы Ollama, если коротко, следующий: создается контейнер, в котором есть среда для запуска модели: веса, необходимые файлы конфигурации и зависимости. То есть, ничего дополнительно устанавливать не нужно и страдать, совмещая разные версии пакетов, – тоже. Эта конструкция совместима с любой операционной системой и не создает конфликтов с другими приложениями.
Помимо очевидного, у Ollama есть еще один плюс: весь ваш проект находится у вас на компьютере, а не на чьем-то сервере, с которым всякое может случиться. К тому же, после загрузки модели, ее можно будет использовать без доступа к Интернету (разумеется, задания, связанные с поиском в Интернете, она не выполнит).
Некоторые команды, инструкции по установке и полезные подсказки можно подсмотреть здесь.
Есть, правда, еще один путь – атомная энергия. По этому пути пошла компания Microsoft, подписав соглашение о перезапуске реактора Three Mile Island. Планируют его использовать, чтобы обеспечивать электричеством свои дата-центры. Разумеется, просто взять и запустить реактор, на котором произошла серьезная авария, нельзя, нужно получать разрешение комиссии по ядерной регламентации (Nuclear Regulatory Commission). Экспертиза может завершиться к 2027 году, посмотрим, что из этого выйдет.
(Изображение героической ламы создано с использованием ChatGPT)
❤2
Телеграм не дает нормально публиковать большие посты, поэтому я сейчас буду пробовать разные форматы.
Сегодня загрузила пост в телеграф, надеюсь, он нормально отобразится.
UPD: починила картинки, теперь всё отображается
Сегодня загрузила пост в телеграф, надеюсь, он нормально отобразится.
UPD: починила картинки, теперь всё отображается
Telegraph
Психология больших языковых моделей
Поговорим о психологии (больших языковых моделей, разумеется). В основе этого поста статья «AI Psychometrics: Assessing the Psychological Profiles of Large Language Models Through Psychometric Inventories», опубликованная в январе этого года. Она включает…
👍1
У меня есть смарт-часы, которыми я пользуюсь в том числе для того, чтобы контролировать продолжительность сна. Благодаря этому использованию я узнала, что мой письменный стол, на котором лежат часы, пока я занимаюсь домашними делами, спит крепко и пульс у него стабильный (а всякие обзорщики еще говорили, что Apple Watch – одни из лучших часов на рынке. Вот и верь им) . В общем, ИИ в смарт-часах пока несовершенен, однако его туда очень активно суют. И не только туда. Поговорим об этом.
Чтобы не разойтись на трехтомное собрание сочинений, ограничимся мониторингом некоторых показателей здоровья.
Совсем недавно, в феврале текущего года, Samsung сообщила, что их смарт-часы получили одобрение от FDA (Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США) как устройство для определения апноэ сна. Апноэ сна – это нарушение, в результате которого во время сна у человека останавливается дыхание. Такие остановки сами по себе не смертельны, но приводят к тому, что человек многократно просыпается, спит прерывисто и мало, а это уже ведет к разным проблемам со здоровьем, которые сокращают продолжительность жизни. Проблема апноэ в том, что оно часто не диагностируется годами, а то и десятилетиями. Его симптомы (храп, сухость во рту и головная боль с утра, частые пробуждения, которые полусонный человек не всегда может запомнить) можно списать на самые разные обстоятельства. Храп, например, в массовой культуре настолько нормализован, что храпящий человек едва ли пойдет к врачу именно с этой проблемой (а надо).
Поэтому распознавание признаков апноэ и оповещение пользователя – это важное дело. Несколько позднее об одобрении аналогичной функции сообщили и в Apple(посмотрю, как там дела с апноэ у моего стола) .
Помимо отслеживания сна, Apple занимается исследованиями в области определения мерцательной аритмии. Функция такая в часах уже доступна, и исследование проводилось совместно со Стэнфордским университетом. Пришли к тому, что ранние признаки можно в самом деле обнаружить с помощью часов и послать человека к врачу вовремя.
У Samsung помимо часов еще есть умное кольцо, у которого тоже есть функция анализа сна. По всей видимости, для кольца функция определения апноэ не одобрена. Во всяком случае, пока.
Умные кольца есть не только у Samsung. Среди прочих на рынке выделяется умное кольцо финской компании Oura. Оно измеряет температуру, частоту сердечных сокращений, уровень кислорода в крови, некоторые другие показатели, которые обычно определяют смарт-часы, и отслеживает сон. По Интернету ходят восторженные отзывы (не буду их здесь приводить).
Еще одно важное направление развития – отслеживание уровня глюкозы в крови для людей с диабетом. Пока часы или кольца не умеют по расписанию забирать кровь и делать анализ, но есть приложения, в которые можно добавить данные с некоторых глюкометров. Уровень глюкозы будет отображаться вместе с показателями активности и сна, и это может помочь людям понять, что на них больше всего влияет и как себя вести.
Умные очки тоже кое-что умеют. Для подсчета шагов и мониторинга сердечного ритма они, пожалуй, не так удобны (хотя мне лично не приходилось бегать в очках), не говоря уж о паттернах сна. Но они могут записывать информацию о том, насколько скрюченно мы сидим за компьютером, например. Еще очевидное применение – отслеживать первые признаки нарушений зрения или снимать изображение радужки глаза. По очкам пока не так много информации, как по другим устройствам, но исследования ведутся активно.
(Изображение сгенерировано с использованием PaLM AI)
Чтобы не разойтись на трехтомное собрание сочинений, ограничимся мониторингом некоторых показателей здоровья.
Совсем недавно, в феврале текущего года, Samsung сообщила, что их смарт-часы получили одобрение от FDA (Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США) как устройство для определения апноэ сна. Апноэ сна – это нарушение, в результате которого во время сна у человека останавливается дыхание. Такие остановки сами по себе не смертельны, но приводят к тому, что человек многократно просыпается, спит прерывисто и мало, а это уже ведет к разным проблемам со здоровьем, которые сокращают продолжительность жизни. Проблема апноэ в том, что оно часто не диагностируется годами, а то и десятилетиями. Его симптомы (храп, сухость во рту и головная боль с утра, частые пробуждения, которые полусонный человек не всегда может запомнить) можно списать на самые разные обстоятельства. Храп, например, в массовой культуре настолько нормализован, что храпящий человек едва ли пойдет к врачу именно с этой проблемой (а надо).
Поэтому распознавание признаков апноэ и оповещение пользователя – это важное дело. Несколько позднее об одобрении аналогичной функции сообщили и в Apple
Помимо отслеживания сна, Apple занимается исследованиями в области определения мерцательной аритмии. Функция такая в часах уже доступна, и исследование проводилось совместно со Стэнфордским университетом. Пришли к тому, что ранние признаки можно в самом деле обнаружить с помощью часов и послать человека к врачу вовремя.
У Samsung помимо часов еще есть умное кольцо, у которого тоже есть функция анализа сна. По всей видимости, для кольца функция определения апноэ не одобрена. Во всяком случае, пока.
Умные кольца есть не только у Samsung. Среди прочих на рынке выделяется умное кольцо финской компании Oura. Оно измеряет температуру, частоту сердечных сокращений, уровень кислорода в крови, некоторые другие показатели, которые обычно определяют смарт-часы, и отслеживает сон. По Интернету ходят восторженные отзывы (не буду их здесь приводить).
Еще одно важное направление развития – отслеживание уровня глюкозы в крови для людей с диабетом. Пока часы или кольца не умеют по расписанию забирать кровь и делать анализ, но есть приложения, в которые можно добавить данные с некоторых глюкометров. Уровень глюкозы будет отображаться вместе с показателями активности и сна, и это может помочь людям понять, что на них больше всего влияет и как себя вести.
Умные очки тоже кое-что умеют. Для подсчета шагов и мониторинга сердечного ритма они, пожалуй, не так удобны (хотя мне лично не приходилось бегать в очках), не говоря уж о паттернах сна. Но они могут записывать информацию о том, насколько скрюченно мы сидим за компьютером, например. Еще очевидное применение – отслеживать первые признаки нарушений зрения или снимать изображение радужки глаза. По очкам пока не так много информации, как по другим устройствам, но исследования ведутся активно.
(Изображение сгенерировано с использованием PaLM AI)
❤2
Примерно 150 лет назад я собиралась написать пост про то, как языковые модели видят (или не видят) текст. Вот, наконец, и повод подвернулся
Telegraph
Основные принципы работы языковых моделей с текстом
Недавно вышедшая модель o1 от OpenAI научилась правильно отвечать на вопрос «сколько букв ‘r’ в слове ‘raspberry’. Это, как говорится, маленький шаг для человека, но большой скачок для языковой модели. Дело в том, что языковая модель не «видит» текст, который…
Делюсь классным инструментом для планирования задач. Он работает без vpn, с российской почтой зарегистрироваться можно. Есть бесплатный тариф с некоторыми ограничениями.
Инструмент называется Taskade, и он использует агентов (будущее за ИИ-агентами, я вам отвечаю).
Агентов можно создать с нуля, сгенерировать с помощью ИИ или выбрать из обширного каталога готовых (скрин 1).
Для примера выбираю агента Researcher (Исследователь, скрин 2). У него уже есть заданная роль и краткое описание, а также набор доступных инструментов: он вам хоть письмо напишет, хоть поиск в интернете проведет. Инструменты можно добавить и свои, но я пока не пробовала.
Из агентов можно составлять команды и общаться с ними, давая поручения каждому из агентов или группе. По умолчанию используется GPT-4o, возможно, другие модели тоже можно подключить, я пока не проверила. Взяла на более детальный тест, тут просто первое впечатление пока(положительное) .
Общаетесь вы с агентами в чатах (скрин 3).
Можно создавать проекты (интерфейс похож чем-то на интерфейс ClickUp, там есть доски, интеллект-карты и все такое), назначать на них агентов, раздавать задания и наблюдать за тем, как ваша работа делается автоматически.
Внутри LangChain - замечательный фреймворк для интеграции больших языковых моделей в приложения под конкретные задачи.
Вообще про агентов и мультиагентные системы у меня будет много материалов, потому что они запали мне в душу и теперь я считаю, что их нужно много и везде.
#инструменты
Инструмент называется Taskade, и он использует агентов (будущее за ИИ-агентами, я вам отвечаю).
Агентов можно создать с нуля, сгенерировать с помощью ИИ или выбрать из обширного каталога готовых (скрин 1).
Для примера выбираю агента Researcher (Исследователь, скрин 2). У него уже есть заданная роль и краткое описание, а также набор доступных инструментов: он вам хоть письмо напишет, хоть поиск в интернете проведет. Инструменты можно добавить и свои, но я пока не пробовала.
Из агентов можно составлять команды и общаться с ними, давая поручения каждому из агентов или группе. По умолчанию используется GPT-4o, возможно, другие модели тоже можно подключить, я пока не проверила. Взяла на более детальный тест, тут просто первое впечатление пока
Общаетесь вы с агентами в чатах (скрин 3).
Можно создавать проекты (интерфейс похож чем-то на интерфейс ClickUp, там есть доски, интеллект-карты и все такое), назначать на них агентов, раздавать задания и наблюдать за тем, как ваша работа делается автоматически.
Внутри LangChain - замечательный фреймворк для интеграции больших языковых моделей в приложения под конкретные задачи.
Вообще про агентов и мультиагентные системы у меня будет много материалов, потому что они запали мне в душу и теперь я считаю, что их нужно много и везде.
#инструменты
🔥2❤1
Please open Telegram to view this post
VIEW IN TELEGRAM
Reuters
Nobel physics prize 2024 won by AI pioneers John Hopfield and Geoffrey Hinton
John Hopfield and Geoffrey Hinton won for discoveries that paved the way for the AI boom.
👏1
PaLM (и паучки)
Есть модель, которую я тут упоминала несколько раз и которую я периодически использую, поэтому имеет смысл рассказать. Это модель PaLM от Google, у нее есть телеграм-бот, через который ей можно пользоваться (при использовании из России нет никаких ограничений).
Модель представлена миру в 2022 году в статье «PaLM: Scaling Language Modeling with Pathways». Подробный обзор статьи я тут не буду делать, остановлюсь на нескольких особенностях, которые делают PaLM интересным объектом для изучения.
Во-первых, это модель впечатляющего размера (540 млрд. параметров), и она показывает хорошие результаты на многих тестах, соперничая с Llama, GPT и Claude.
Во-вторых, ее обучали с использованием собственной инфраструктуры Google, которая обеспечивает очень хорошую оптимизацию (мы любим оптимизацию). PaLM расшифровывается как Pathways Language Model, Pathways – это как раз инфраструктура. Она предназначена для обучения многозадачных моделей (а не специализированных под конкретные задачи), которые работают с разными типами данных (то есть, являются мультимодальными). И, разумеется, она предназначена для повышения эффективности моделей.
Инфраструктура Pathways доступна пользователям Google Cloud, которым пользуются разные компании и стартапы.
В 2023 году вышла версия PaLM 2 с улучшенными способностями к рассуждению. Я предположу, что в боте доступна именно она (во всяком случае, так утверждает сам бот). По сравнению с предыдущей версией немного улучшена архитектура, и сама модель дообучена на большем массиве англоязычных текстов.
API, впрочем, сейчас не поддерживается, в августе этого года отключили. Пользователям предлагают мигрировать на Gemini, которая также доступна через интерфейс (нужен vpn). Через интерфейс Gemini доступна Imagen 3, которая рисует картинки (сама Gemini работает только с текстом).
Gemini также встроена в Google Colab (чтобы ее там найти, нужен vpn). Помогает писать и чинить код, местами успешно.
Кстати, паучье наблюдение: PaLM и Imagen 3 гораздо лучше справляются с анатомией, чем DALL-E. На приложенных картинках паучки, созданные с использованием всех трех моделей по следующему запросу:
Картинка, нарисованная PaLM – паук в желтых очках и с кружкой с суперменом. Обратите внимание на паукостикеры в ее блокноте, это что-то прекрасное. Правда, лампа почему-то в термосе, но мы это простим. Изображение получено по одному запросу.
Далее паучок от Imagen 3 с планшетом за спиной и зеленой кружкой. Мне нравится реализм, но не хватает деталей (и сама картинка такая, как будто паук работает ночью). Тоже за один промпт.
Наконец, у DALL-E паучок без хелицер и с бело-голубой кружкой. Это не первый промпт, я несколько раз просила нарисовать именно хелицеры. Даже отправляла в Интернет искать, что это такое. Модель изучила Википедию, Британскую энциклопедию, но это не помогло. Короче, мой победитель – PaLM.
В конце вам еще бонус от Imagen 3 – паук в синей шапочке. Он нарисован совсем по другому запросу, но я не смогла удержаться, потому что шапочку я не просила, ее придумала Imagen 3. Мой мимиметр сломался.
Еще больше моих любимых паучков можно найти вот в этом посте.
#инструменты
Есть модель, которую я тут упоминала несколько раз и которую я периодически использую, поэтому имеет смысл рассказать. Это модель PaLM от Google, у нее есть телеграм-бот, через который ей можно пользоваться (при использовании из России нет никаких ограничений).
Модель представлена миру в 2022 году в статье «PaLM: Scaling Language Modeling with Pathways». Подробный обзор статьи я тут не буду делать, остановлюсь на нескольких особенностях, которые делают PaLM интересным объектом для изучения.
Во-первых, это модель впечатляющего размера (540 млрд. параметров), и она показывает хорошие результаты на многих тестах, соперничая с Llama, GPT и Claude.
Во-вторых, ее обучали с использованием собственной инфраструктуры Google, которая обеспечивает очень хорошую оптимизацию (мы любим оптимизацию). PaLM расшифровывается как Pathways Language Model, Pathways – это как раз инфраструктура. Она предназначена для обучения многозадачных моделей (а не специализированных под конкретные задачи), которые работают с разными типами данных (то есть, являются мультимодальными). И, разумеется, она предназначена для повышения эффективности моделей.
Инфраструктура Pathways доступна пользователям Google Cloud, которым пользуются разные компании и стартапы.
В 2023 году вышла версия PaLM 2 с улучшенными способностями к рассуждению. Я предположу, что в боте доступна именно она (во всяком случае, так утверждает сам бот). По сравнению с предыдущей версией немного улучшена архитектура, и сама модель дообучена на большем массиве англоязычных текстов.
API, впрочем, сейчас не поддерживается, в августе этого года отключили. Пользователям предлагают мигрировать на Gemini, которая также доступна через интерфейс (нужен vpn). Через интерфейс Gemini доступна Imagen 3, которая рисует картинки (сама Gemini работает только с текстом).
Gemini также встроена в Google Colab (чтобы ее там найти, нужен vpn). Помогает писать и чинить код, местами успешно.
Кстати, паучье наблюдение: PaLM и Imagen 3 гораздо лучше справляются с анатомией, чем DALL-E. На приложенных картинках паучки, созданные с использованием всех трех моделей по следующему запросу:
Please draw me a cute little spider (it's a girl) working on a computer. She is very busy and has colorful stickers with tasks all over her desk. She also has a planner, which lies open next to her. Next to a planner there is a thermo mug. The spider is wearing glasses, also she is a programmer
Картинка, нарисованная PaLM – паук в желтых очках и с кружкой с суперменом. Обратите внимание на паукостикеры в ее блокноте, это что-то прекрасное. Правда, лампа почему-то в термосе, но мы это простим. Изображение получено по одному запросу.
Далее паучок от Imagen 3 с планшетом за спиной и зеленой кружкой. Мне нравится реализм, но не хватает деталей (и сама картинка такая, как будто паук работает ночью). Тоже за один промпт.
Наконец, у DALL-E паучок без хелицер и с бело-голубой кружкой. Это не первый промпт, я несколько раз просила нарисовать именно хелицеры. Даже отправляла в Интернет искать, что это такое. Модель изучила Википедию, Британскую энциклопедию, но это не помогло. Короче, мой победитель – PaLM.
В конце вам еще бонус от Imagen 3 – паук в синей шапочке. Он нарисован совсем по другому запросу, но я не смогла удержаться, потому что шапочку я не просила, ее придумала Imagen 3. Мой мимиметр сломался.
Еще больше моих любимых паучков можно найти вот в этом посте.
#инструменты
👍1
Про сегодняшний инструмент мне давно хотелось написать, но все никак руки не доходили. Дошли, пишу.
Noi – это браузер, с помощью которого можно использовать сразу несколько ИИ-инструментов (разумеется, у вас должен быть аккаунт для каждого инструмента, в аккаунт надо войти, и тогда уже пользоваться).
Помимо ChatGPT и Claude, например, для которых надо плясать с бубнами, vpn и зарубежными платежными инструментами, в интерфейсе имеются HuggingChat (внутри открытая Llama 3.1. Мы любим Llama 3.1, мы можем смело ее использовать) и Gemini (Gemini мы тоже любим).
Там можно создавать ботов с помощью Coze (бесплатно, но надо зарегистрироваться). Туда же можно подключить свой гитхаб, и там же можно открыть и использовать VS Code, это же вообще потрясающе.
Еще туда можно добавить другие ресурсы, которые должны быть под рукой. Я сразу добавила гугл, чтобы два раза не вставать. Можно так настроить, что это будет ваш единственный браузер.
У Noi, конечно, есть альтернативы, например, Ferdium – он тоже бесплатный и выглядит неплохо.
Вообще рекомендую посмотреть сайт AlternativeTo, на котором собраны альтернативы разным программным инструментам. Полезно, если у вас какая-то важная штука ушла из России, например.
#инструменты
Noi – это браузер, с помощью которого можно использовать сразу несколько ИИ-инструментов (разумеется, у вас должен быть аккаунт для каждого инструмента, в аккаунт надо войти, и тогда уже пользоваться).
Помимо ChatGPT и Claude, например, для которых надо плясать с бубнами, vpn и зарубежными платежными инструментами, в интерфейсе имеются HuggingChat (внутри открытая Llama 3.1. Мы любим Llama 3.1, мы можем смело ее использовать) и Gemini (Gemini мы тоже любим).
Там можно создавать ботов с помощью Coze (бесплатно, но надо зарегистрироваться). Туда же можно подключить свой гитхаб, и там же можно открыть и использовать VS Code, это же вообще потрясающе.
Еще туда можно добавить другие ресурсы, которые должны быть под рукой. Я сразу добавила гугл, чтобы два раза не вставать. Можно так настроить, что это будет ваш единственный браузер.
У Noi, конечно, есть альтернативы, например, Ferdium – он тоже бесплатный и выглядит неплохо.
Вообще рекомендую посмотреть сайт AlternativeTo, на котором собраны альтернативы разным программным инструментам. Полезно, если у вас какая-то важная штука ушла из России, например.
#инструменты
Ответственного ИИ и безопасности данных пост. Он важный, посмотрите
Telegraph
Проблема сохранности данных
В одном из постов я кинула камень в огород OpenAI на тему сохранности данных пользователей. Бросок был вскользь, так сказать, без особых деталей, но сегодня давайте поговорим на эту тему поподробнее. Я опираюсь на вот эту публикацию 2023 года (да, с тех пор…
👍1
Новые архитектуры (не трансформеры). Часть 1
В апреле этого года на arxive.org появилась очень интересная статья, которая наделала шума (да, сейчас конец октября, но лучше поздно, чем никогда). Речь о публикации «KAN: Kolmogorov-Arnold Networks», которая предлагает новую архитектуру для нейросетей, и я сейчас попробую в двух словах объяснить, почему она так замечательна.
Во-первых, архитектура новая, но базовые принципы у нее старые – теорема Колмогорова-Арнольда. Если коротко, эта теорема гласит, что любую очень сложную функцию, которая зависит от множества переменных, можно представить в виде суммы простых функций, каждая из которых зависит от одной переменной.
Во-вторых, современные нейросети построены на базе многослойных перцептронов (Multilayer Perceptron). О том, кто такой многослойный перцептрон я писала здесь, и еще не мое, но очень хорошее объяснение есть здесь. Коротко: мы имеем сеть из нескольких слоев, на каждом из которых данные преобразуются линейным способом. В конце к ним применяется нелинейная функция, и готово – у нас есть ответ.
В сложных нейросетях большого размера есть несколько (много) нелинейных функций, которые применяются после группы линейных слоев. Больше слоев – более сложные данные могут быть обработаны. Число нелинейных преобразований и сами такие преобразования определены заранее, как и число линейных слоев – это параметры зафиксированы, меняются коэффициенты (на которые мы в каждом слое умножаем данные и которые мы прибавляем к данным).
А у сетей Колмогорова-Арнольда вообще нет никаких линейных весов. Все ее параметры – функции от одной переменной, и все они определяются в процессе обучения, а не задаются заранее. Это делает сети намного более гибкими, масштабируемыми и, что важно, более удобными с точки зрения интерпретации человеком (все хорошо, мы сейчас к этому придем).
В статье очень много красивой математики, но я не стану здесь ее пересказывать, чтобы не перегружать пост. Сосредоточимся на ключевых моментах.
Сети Колмогорова-Арнольда в сущности своей комбинируют свойства перцептронов, которые очень хорошо масштабируются (то есть, которые можно слоями складывать, чтобы получить более высокую точность) и сплайнов. Сплайн – это такая математическая функция, которая собрана из кусочков других функций, и может, таким образом, принимать сколь угодно сложную форму. Симпатичное объяснение с картинками есть вот здесь, посмотрите для лучшего понимания.
То есть, сети Колмогорова-Арнольда могут, во-первых, адаптироваться к данным очень сложной структуры (читаем «почти любым данным из реального мира»), во-вторых, легко увеличиваться в размерах (при этом занимая меньше места, чем перцептроны сопоставимого размера, посмотрите на строку «Model (Deep)» на скриншоте). Это ли не потрясающе?
Так что там с интерпретацией человеком? Мы можем визуализировать функции, которые применяет сеть, и своими глазами увидеть, как именно она работает. А еще мы можем взаимодействовать с ней и изменять эти функции, чтобы посмотреть, как изменится результат.
Если мы говорим в терминах объяснимого ИИ или ответственного ИИ, это отличная новость, потому что на данный момент одна из главных проблем работы с глубокими нейросетями в том, что мы понятия не имеем, что и где пошло не так (а оно пошло). Сети Колмогорова-Арнольда имеют потенциал в решении этой задачи.
Разумеется, у этих сетей есть свои ограничения. Например, они намного более медленно учатся. Однако точность многообещающая, и потенциальных областей применения у них немало (авторы указывают решение задач из области физики и математики в качестве приоритетных, однако сети уже хорошо показали себя в работе с изображениями, потенциально могут улучшить распознавание речи и много чего еще).
На момент написания поста (середина октября) я не нашла упоминаний о практическом применении сетей Колмогорова-Арнольда (упоминаний о том, что какой-то крупный разработчик нейросетей ими занимается, например). Но совершенно точно профессиональное сообщество активно заинтересовано, так что ждем.
В апреле этого года на arxive.org появилась очень интересная статья, которая наделала шума (да, сейчас конец октября, но лучше поздно, чем никогда). Речь о публикации «KAN: Kolmogorov-Arnold Networks», которая предлагает новую архитектуру для нейросетей, и я сейчас попробую в двух словах объяснить, почему она так замечательна.
Во-первых, архитектура новая, но базовые принципы у нее старые – теорема Колмогорова-Арнольда. Если коротко, эта теорема гласит, что любую очень сложную функцию, которая зависит от множества переменных, можно представить в виде суммы простых функций, каждая из которых зависит от одной переменной.
Во-вторых, современные нейросети построены на базе многослойных перцептронов (Multilayer Perceptron). О том, кто такой многослойный перцептрон я писала здесь, и еще не мое, но очень хорошее объяснение есть здесь. Коротко: мы имеем сеть из нескольких слоев, на каждом из которых данные преобразуются линейным способом. В конце к ним применяется нелинейная функция, и готово – у нас есть ответ.
В сложных нейросетях большого размера есть несколько (много) нелинейных функций, которые применяются после группы линейных слоев. Больше слоев – более сложные данные могут быть обработаны. Число нелинейных преобразований и сами такие преобразования определены заранее, как и число линейных слоев – это параметры зафиксированы, меняются коэффициенты (на которые мы в каждом слое умножаем данные и которые мы прибавляем к данным).
А у сетей Колмогорова-Арнольда вообще нет никаких линейных весов. Все ее параметры – функции от одной переменной, и все они определяются в процессе обучения, а не задаются заранее. Это делает сети намного более гибкими, масштабируемыми и, что важно, более удобными с точки зрения интерпретации человеком (все хорошо, мы сейчас к этому придем).
В статье очень много красивой математики, но я не стану здесь ее пересказывать, чтобы не перегружать пост. Сосредоточимся на ключевых моментах.
Сети Колмогорова-Арнольда в сущности своей комбинируют свойства перцептронов, которые очень хорошо масштабируются (то есть, которые можно слоями складывать, чтобы получить более высокую точность) и сплайнов. Сплайн – это такая математическая функция, которая собрана из кусочков других функций, и может, таким образом, принимать сколь угодно сложную форму. Симпатичное объяснение с картинками есть вот здесь, посмотрите для лучшего понимания.
То есть, сети Колмогорова-Арнольда могут, во-первых, адаптироваться к данным очень сложной структуры (читаем «почти любым данным из реального мира»), во-вторых, легко увеличиваться в размерах (при этом занимая меньше места, чем перцептроны сопоставимого размера, посмотрите на строку «Model (Deep)» на скриншоте). Это ли не потрясающе?
Так что там с интерпретацией человеком? Мы можем визуализировать функции, которые применяет сеть, и своими глазами увидеть, как именно она работает. А еще мы можем взаимодействовать с ней и изменять эти функции, чтобы посмотреть, как изменится результат.
Если мы говорим в терминах объяснимого ИИ или ответственного ИИ, это отличная новость, потому что на данный момент одна из главных проблем работы с глубокими нейросетями в том, что мы понятия не имеем, что и где пошло не так (а оно пошло). Сети Колмогорова-Арнольда имеют потенциал в решении этой задачи.
Разумеется, у этих сетей есть свои ограничения. Например, они намного более медленно учатся. Однако точность многообещающая, и потенциальных областей применения у них немало (авторы указывают решение задач из области физики и математики в качестве приоритетных, однако сети уже хорошо показали себя в работе с изображениями, потенциально могут улучшить распознавание речи и много чего еще).
На момент написания поста (середина октября) я не нашла упоминаний о практическом применении сетей Колмогорова-Арнольда (упоминаний о том, что какой-то крупный разработчик нейросетей ими занимается, например). Но совершенно точно профессиональное сообщество активно заинтересовано, так что ждем.
Новые архитектуры (не трансформеры). Часть 2
Telegraph
Жидкие нейросети
Продолжим тему не-трансформеров и поговорим сегодня про жидкие нейросети. Они были представлены в 2020 году в статье «Liquid Time-constant Networks». Они созданы на базе рекуррентных нейросетей (одна из сравнительно ранних архитектур, у них есть краткосрочная…