Зимы ИИ. Часть 1
У меня был пост про то, почему ИИ сложнее, чем кажется, и там я упомянула такое явление, как «зима ИИ». Теперь хочу углубиться в эту тему.
Зима ИИ – это период, в течение которого снижается инвестиционная привлекательность области. Люди, которые раньше финансировали новые проекты, разочаровываются в результатах и прикрывают денежную лавочку. Такие периоды перемежаются с «вёснами ИИ», когда, вдохновленные очередным изобретением, инвесторы вкладывают свой капитал в развитие ИИ.Это наталкивает на мысль о том, что основное развитие происходит тогда, когда исследователей никто не трогает и не мешает нормально работать.
Часто выделяют две больших зимы: со второй половины семидесятых до начала восьмидесятых и с конца восьмидесятых (или начала девяностых) до начала двухтысячных. Четких границ нет, все очень приблизительно.
Помимо них некоторые источники выделяют зимы поменьше, но, опять же, мнения относительно их границ расходятся. Совпадают обычно оценки некоторых крупных событий, которые повлияли на снижение интереса ИИ и разочарование в технологии как таковой:
- в 1966 году Automatic Language Processing Advisory Committee опубликовал отчет «Language and Machines. Computers in Translation and Linguistics» с предложением прекратить инвестиции в развитие машинного перевода, потому что (говорили они) это безнадежная технология, это слишком дорого, а качество машинного перевода слишком низкое. Впрочем, в качестве рекомендации комитет предложил продолжать изучать компьютерные методы в лингвистике, потому что лингвистика – это важно, и не надо судить всю область по отсутствию немедленных результатов;
- в семидесятых годах DARPA (Управление перспективных исследовательских проектов Министерства обороны США, вкладывает в исследования очень много денег) прекратила финансирование программ, связанных с распознаванием речи. В проектах, финансируемых DARPA, участвовали крупные исследовательские институты и коммерческие компании, так что прекращение финансировавния сильно повлияло на развитие области (хотя такие компании как IBM, например, решили в своих изысканиях не останавливаться);
- в 1987 году рухнул рынок Лисп-машин (Lisp machines, Lisp – это язык), которые разрабатывались специально для работы с ИИ. Причина – Лисп-машины не выдержали конкуренции с компьютерами Apple и IBM. Считается, что вторую большую зиму спровоцировало именно это событие;
- в 1988 году DARPA сократило финансирование ИИ снова, в рамках программы Strategic Computing Initiative.
Были и другие события, которые перечислены, например, в этой публикации. Но эти четыре упоминаются чаще остальных.
Каждый раз после очередной зимы наступала весна, и вот мы имеем множество продвинутых инструментов, в развитии которых когда-то разочаровались крупные инвесторы.
У меня был пост про то, почему ИИ сложнее, чем кажется, и там я упомянула такое явление, как «зима ИИ». Теперь хочу углубиться в эту тему.
Зима ИИ – это период, в течение которого снижается инвестиционная привлекательность области. Люди, которые раньше финансировали новые проекты, разочаровываются в результатах и прикрывают денежную лавочку. Такие периоды перемежаются с «вёснами ИИ», когда, вдохновленные очередным изобретением, инвесторы вкладывают свой капитал в развитие ИИ.
Часто выделяют две больших зимы: со второй половины семидесятых до начала восьмидесятых и с конца восьмидесятых (или начала девяностых) до начала двухтысячных. Четких границ нет, все очень приблизительно.
Помимо них некоторые источники выделяют зимы поменьше, но, опять же, мнения относительно их границ расходятся. Совпадают обычно оценки некоторых крупных событий, которые повлияли на снижение интереса ИИ и разочарование в технологии как таковой:
- в 1966 году Automatic Language Processing Advisory Committee опубликовал отчет «Language and Machines. Computers in Translation and Linguistics» с предложением прекратить инвестиции в развитие машинного перевода, потому что (говорили они) это безнадежная технология, это слишком дорого, а качество машинного перевода слишком низкое. Впрочем, в качестве рекомендации комитет предложил продолжать изучать компьютерные методы в лингвистике, потому что лингвистика – это важно, и не надо судить всю область по отсутствию немедленных результатов;
- в семидесятых годах DARPA (Управление перспективных исследовательских проектов Министерства обороны США, вкладывает в исследования очень много денег) прекратила финансирование программ, связанных с распознаванием речи. В проектах, финансируемых DARPA, участвовали крупные исследовательские институты и коммерческие компании, так что прекращение финансировавния сильно повлияло на развитие области (хотя такие компании как IBM, например, решили в своих изысканиях не останавливаться);
- в 1987 году рухнул рынок Лисп-машин (Lisp machines, Lisp – это язык), которые разрабатывались специально для работы с ИИ. Причина – Лисп-машины не выдержали конкуренции с компьютерами Apple и IBM. Считается, что вторую большую зиму спровоцировало именно это событие;
- в 1988 году DARPA сократило финансирование ИИ снова, в рамках программы Strategic Computing Initiative.
Были и другие события, которые перечислены, например, в этой публикации. Но эти четыре упоминаются чаще остальных.
Каждый раз после очередной зимы наступала весна, и вот мы имеем множество продвинутых инструментов, в развитии которых когда-то разочаровались крупные инвесторы.
Зимы ИИ. Часть 2
Казалось бы, мы уже все видели, но нет.
Некоторые представители сообщества, изучающего развитие ИИ, полагают, что новая зима близко. Во-первых, появление и развитие генеративного ИИ породило высокие ожидания, что до сих пор каждый раз приводило к разочарованиям. У больших языковых (и не только) моделей есть ограничения, природа которых не всегда очевидна людям, которые не занимаются большими языковыми моделями на постоянной основе (не все то, что просто для человека, просто для ИИ – мы об этом уже говорили). Столкновение с этими ограничениями может отталкивать тех, кто был готов вложиться в развитие области. Во-вторых, на волне энтузиазма многие компании напихали генеративного ИИ везде, куда получилось, но не везде это было нужно. Подобное необдуманное использование технологии тоже приводит к фрустрации и разочарованию у пользователей. В-третьих, правовое регулирование ИИ еще достаточное сырое. Многие пользователи закономерно опасаются, что их данные могут быть использованы им во вред, а получить защиту будет не от кого.
С другой стороны, сейчас люди в целом знают об ИИ больше, чем когда-либо. Некоторые решения публикуются в общий доступ, и всякий, кому интересно, может заглянуть внутрь черного ящика. Многие эксперты в области занимаются просветительской деятельностью и рассказывают о существующих проблемах и потенциальных путях их решения. Поэтому, возможно, новая зима не будет такой уж долгой (глобальное потепление, которое мы заслужили).
Как бы то ни было, история развития ИИ движется по спирали от заголовков «ИИ заменит всех людей (теперь точно)» до заголовков «ИИ исчерпал себя (теперь точно)». Но мы это все уже видели.
Казалось бы, мы уже все видели, но нет.
Некоторые представители сообщества, изучающего развитие ИИ, полагают, что новая зима близко. Во-первых, появление и развитие генеративного ИИ породило высокие ожидания, что до сих пор каждый раз приводило к разочарованиям. У больших языковых (и не только) моделей есть ограничения, природа которых не всегда очевидна людям, которые не занимаются большими языковыми моделями на постоянной основе (не все то, что просто для человека, просто для ИИ – мы об этом уже говорили). Столкновение с этими ограничениями может отталкивать тех, кто был готов вложиться в развитие области. Во-вторых, на волне энтузиазма многие компании напихали генеративного ИИ везде, куда получилось, но не везде это было нужно. Подобное необдуманное использование технологии тоже приводит к фрустрации и разочарованию у пользователей. В-третьих, правовое регулирование ИИ еще достаточное сырое. Многие пользователи закономерно опасаются, что их данные могут быть использованы им во вред, а получить защиту будет не от кого.
С другой стороны, сейчас люди в целом знают об ИИ больше, чем когда-либо. Некоторые решения публикуются в общий доступ, и всякий, кому интересно, может заглянуть внутрь черного ящика. Многие эксперты в области занимаются просветительской деятельностью и рассказывают о существующих проблемах и потенциальных путях их решения. Поэтому, возможно, новая зима не будет такой уж долгой (глобальное потепление, которое мы заслужили).
Как бы то ни было, история развития ИИ движется по спирали от заголовков «ИИ заменит всех людей (теперь точно)» до заголовков «ИИ исчерпал себя (теперь точно)». Но мы это все уже видели.
IoA - Institute of Analytics
Are We Entering a New AI Winter? | IoA - Institute of Analytics
Artificial intelligence (AI) has experienced several cycles of intense optimism followed by periods of disillusionment and reduced funding, often referred to as
Блокчейн для решения проблем с доверием ИИ
В подкасте Super Data Science в эпизоде 809 прозвучала интересная идея об использовании технологии блокчейн для решения проблем галлюцинаций ИИ (примерно с 17 минуты они об этом говорят, если интересно). Если коротко, идея такая: блоки в цепочке нельзя удалить или перезаписать, поэтому в них можно хранить много ценной информации о том, как работает ИИ-агент (AI agent).
ИИ-агент – это любое ПО, которое выполняет конкретные пользовательские задачи, используя, очевидно, ИИ. К таким относятся, например: Astra от Google или MineDojo от Nvidia (и еще многие другие проекты). Они обладают определенной автономностью и умеют самостоятельно выполнять заранее предписанные задачи.
Так вот, ИИ-агент что-то делает самостоятельно и выдает некоторый результат, который может не совпадать с ожиданиями пользователя. Понять, что именно и на каком этапе пошло не так прям сходу нельзя, потому что внутренние процессы нигде не записываются. Мы запускаем агент – он генерирует ерунду. Мы пишем в поддержку, там запускают агента и говорят: «Он сгенерировал нам не такую ерунду, ошибка не воспроизводится, сорри нот сорри».
А если прикрутить к агенту блокчейн, то можно в смарт-контракты записывать, как наш агент пришел к своему умозаключению. Это позволило бы более эффективно выявлять ошибки и расследовать их причины (а значит, и устранять).
Краткая терминологическая справка
Смарт-контракт – это компьютерная программа, в которой прописаны определенные правила выполнения. Ее можно использовать, например, при покупке обычных товаров, поставив условие «запустить отправку товара A при получении суммы xxx на счет yyy. Если отправка не осуществляется в течение трех часов, деньги возвращаются на счет, с которого были получены». Можно регулировать страховые случаи или совершать крупные сделки, заниматься краудфандингом через смарт-контракты и так далее.
Исполнение смарт-контракта – это одна из форм транзакции. Транзакции могут быть любыми и содержать самую разнообразную информацию: временные метки, суммы денег, данные об отправителях и получателях, идентификаторы и прочее. Данные шифруются и хранятся не централизованно, а распределенно, на нескольких компьютерах (нодах). Ноды хранят транзакции и подтверждают новые, проверяя корректность информации в них. После проверки новая транзакция добавляется в цепочку транзакций и хранится там – это и есть блокчейн (я использовала книгу «Технология Блокчейн и NFT» Т. Казанцева, чтобы написать объяснение, а также этот и этот блог).
Применительно к контролю ИИ-агентов, смарт-контракты могут содержать название модели; название набора данных, на которых она обучена; последовательность шагов, которая была выполнена скрыто от пользователя; вероятность полученного ответа и так далее. Туда можно записать достаточно информации, чтобы развернуть всю цепочку событий и дойти до того момента, где логика работы была нарушена.
Благодаря такому подходу можно не только вылавливать и исправлять ошибки, но и, например, выявлять информацию, которая сгенерирована с использованием ИИ недобросовестным человеком и нарушает закон.
Идея не осталась идеей, а выросла в продукт, который называется Theoriq. У них есть статья, поэтому я собираюсь про Theoriq писать отдельный пост (может быть, получится даже его потестировать).
В подкасте Super Data Science в эпизоде 809 прозвучала интересная идея об использовании технологии блокчейн для решения проблем галлюцинаций ИИ (примерно с 17 минуты они об этом говорят, если интересно). Если коротко, идея такая: блоки в цепочке нельзя удалить или перезаписать, поэтому в них можно хранить много ценной информации о том, как работает ИИ-агент (AI agent).
ИИ-агент – это любое ПО, которое выполняет конкретные пользовательские задачи, используя, очевидно, ИИ. К таким относятся, например: Astra от Google или MineDojo от Nvidia (и еще многие другие проекты). Они обладают определенной автономностью и умеют самостоятельно выполнять заранее предписанные задачи.
Так вот, ИИ-агент что-то делает самостоятельно и выдает некоторый результат, который может не совпадать с ожиданиями пользователя. Понять, что именно и на каком этапе пошло не так прям сходу нельзя, потому что внутренние процессы нигде не записываются. Мы запускаем агент – он генерирует ерунду. Мы пишем в поддержку, там запускают агента и говорят: «Он сгенерировал нам не такую ерунду, ошибка не воспроизводится, сорри нот сорри».
А если прикрутить к агенту блокчейн, то можно в смарт-контракты записывать, как наш агент пришел к своему умозаключению. Это позволило бы более эффективно выявлять ошибки и расследовать их причины (а значит, и устранять).
Краткая терминологическая справка
Смарт-контракт – это компьютерная программа, в которой прописаны определенные правила выполнения. Ее можно использовать, например, при покупке обычных товаров, поставив условие «запустить отправку товара A при получении суммы xxx на счет yyy. Если отправка не осуществляется в течение трех часов, деньги возвращаются на счет, с которого были получены». Можно регулировать страховые случаи или совершать крупные сделки, заниматься краудфандингом через смарт-контракты и так далее.
Исполнение смарт-контракта – это одна из форм транзакции. Транзакции могут быть любыми и содержать самую разнообразную информацию: временные метки, суммы денег, данные об отправителях и получателях, идентификаторы и прочее. Данные шифруются и хранятся не централизованно, а распределенно, на нескольких компьютерах (нодах). Ноды хранят транзакции и подтверждают новые, проверяя корректность информации в них. После проверки новая транзакция добавляется в цепочку транзакций и хранится там – это и есть блокчейн (я использовала книгу «Технология Блокчейн и NFT» Т. Казанцева, чтобы написать объяснение, а также этот и этот блог).
Применительно к контролю ИИ-агентов, смарт-контракты могут содержать название модели; название набора данных, на которых она обучена; последовательность шагов, которая была выполнена скрыто от пользователя; вероятность полученного ответа и так далее. Туда можно записать достаточно информации, чтобы развернуть всю цепочку событий и дойти до того момента, где логика работы была нарушена.
Благодаря такому подходу можно не только вылавливать и исправлять ошибки, но и, например, выявлять информацию, которая сгенерирована с использованием ИИ недобросовестным человеком и нарушает закон.
Идея не осталась идеей, а выросла в продукт, который называется Theoriq. У них есть статья, поэтому я собираюсь про Theoriq писать отдельный пост (может быть, получится даже его потестировать).
YouTube
809: Agentic AI — with Shingai Manjengwa
#AgenticAI #MultiAgentAI #AIAgents
Agentic AI is revolutionizing the tech landscape, and Shingai Manjengwa from ChainML is joining @JonKrohnLearns in today's episode to tell us why. Discover how AI agents are becoming an integral part of our lives, automating…
Agentic AI is revolutionizing the tech landscape, and Shingai Manjengwa from ChainML is joining @JonKrohnLearns in today's episode to tell us why. Discover how AI agents are becoming an integral part of our lives, automating…
🔥3
Патентование ИИ. Часть 1
В прошлой жизни, еще в 2019 году вышел отчет Всемирной организации интеллектуальной собственности (ВОИС) про ИИ в рамках серии про технологические тренды. Информация для отчета была извлечена из патентов и научных публикаций, и это подводка к разговору о патентовании ИИ, в котором есть много чего интересного.
Во-первых, некоторое время ушло на то, чтобы понять, патентовать ли решения, относящиеся к ИИ. По общему правилу, математические методы и компьютерные программы не патентуются (Европейская патентная конвенция, ГК РФ). Спустя энное количество сломанных копий и судебных заседаний, человечество пришло к тому, что программное обеспечение и ИИ таки патентоспособны.
Во-вторых, сегодня ИИ уже активно используется в изобретательской деятельности (например, с помощью ИИ можно написать код, генерировать идеи, разрабатывать прототипы и так далее), и тут встает вопрос: а на кого регистрировать патент? Тут копья пока в процессе поломки, но можно наметить некоторые особенно острые темы.
Начнем с того, о чем договорились – о патентовании разработок на основе ИИ. Признание ИИ патентоспособным (с нюансами) выражается в разработке рекомендаций экспертам патентных ведомств относительно того, когда патент можно или нельзя выдать. Европейское патентное ведомство выпустило отдельное заявление по поводу того, что алгоритм ИИ можно запатентовать, если (вот здесь нюансы) такой алгоритм решает конкретную техническую задачу (таким образом покидая мир математических абстракций). В рекомендациях экспертам это правило прописано с примерами: в частности, просто алгоритм для классификации изображений запатентовать нельзя, а если он используется для обнаружения, например, опухолей на рентгеновских снимках – можно.
Подобные инструкции есть и в Великобритании. Там тоже прописано, когда ИИ вносит технический вклад в изобретение. В качестве примера установления наличия технического вклада приводится решение суда по спору между правообладателем патента и патентным ведомством. Предметом спора была выдача патента на нейросеть, в итоге в выдаче патента отказали, потому что не нашли технического вклада нейросети в изобретение. Но это ладно, а нам здесь интересно другое: суд постановил, что нейросеть к компьютерным программам не относится:
То есть, вообще экспертам рекомендуют не отказывать в выдаче патента на нейросеть на основании того, что «это компьютерная программа».
На сайте, ссылку на который я прикрепила выше, приводятся еще несколько судебных решений, важных для разных аспектов патентования ИИ. Не будучи юристом, я не полезу в эти дебри, остановлюсь только на заключении: алгоритмы ИИ патентоспособны, если они вносят технический вклад в разработку. Технический вклад не должен касаться объектов, исключенных из патентоспособности: бизнес-методов, методов обработки информации и т.п. Важно смотреть на конечную цель: если целью является анализ информации как таковой, патент получить нельзя. А если анализ информации используется для того, чтобы далее (с помощью ИИ) предсказывать ввод пользователя на виртуальной клавиатуре – можно.
Для России, к сожалению, удалось найти только Руководство по экспертизе заявок на изобретение от 2018 года, которое утратило силу. Аккуратно предположу, что у нас правила не сильно отличаются от общемировых, потому что патенты на разработки, связанные с ИИ, есть. Кроме того, есть позиция Евразийской патентной организации (ЕАПО), членом которой Россия является. ЕАПО тоже указывает на необходимость технического вклада ИИ в изобретение.
В прошлой жизни, еще в 2019 году вышел отчет Всемирной организации интеллектуальной собственности (ВОИС) про ИИ в рамках серии про технологические тренды. Информация для отчета была извлечена из патентов и научных публикаций, и это подводка к разговору о патентовании ИИ, в котором есть много чего интересного.
Во-первых, некоторое время ушло на то, чтобы понять, патентовать ли решения, относящиеся к ИИ. По общему правилу, математические методы и компьютерные программы не патентуются (Европейская патентная конвенция, ГК РФ). Спустя энное количество сломанных копий и судебных заседаний, человечество пришло к тому, что программное обеспечение и ИИ таки патентоспособны.
Во-вторых, сегодня ИИ уже активно используется в изобретательской деятельности (например, с помощью ИИ можно написать код, генерировать идеи, разрабатывать прототипы и так далее), и тут встает вопрос: а на кого регистрировать патент? Тут копья пока в процессе поломки, но можно наметить некоторые особенно острые темы.
Начнем с того, о чем договорились – о патентовании разработок на основе ИИ. Признание ИИ патентоспособным (с нюансами) выражается в разработке рекомендаций экспертам патентных ведомств относительно того, когда патент можно или нельзя выдать. Европейское патентное ведомство выпустило отдельное заявление по поводу того, что алгоритм ИИ можно запатентовать, если (вот здесь нюансы) такой алгоритм решает конкретную техническую задачу (таким образом покидая мир математических абстракций). В рекомендациях экспертам это правило прописано с примерами: в частности, просто алгоритм для классификации изображений запатентовать нельзя, а если он используется для обнаружения, например, опухолей на рентгеновских снимках – можно.
Подобные инструкции есть и в Великобритании. Там тоже прописано, когда ИИ вносит технический вклад в изобретение. В качестве примера установления наличия технического вклада приводится решение суда по спору между правообладателем патента и патентным ведомством. Предметом спора была выдача патента на нейросеть, в итоге в выдаче патента отказали, потому что не нашли технического вклада нейросети в изобретение. Но это ладно, а нам здесь интересно другое: суд постановил, что нейросеть к компьютерным программам не относится:
Accordingly, the court held as a matter of construction the claimed invention was not a computer program at all (see paragraph 61). The computer program exclusion was not invoked by the claimed invention.
То есть, вообще экспертам рекомендуют не отказывать в выдаче патента на нейросеть на основании того, что «это компьютерная программа».
На сайте, ссылку на который я прикрепила выше, приводятся еще несколько судебных решений, важных для разных аспектов патентования ИИ. Не будучи юристом, я не полезу в эти дебри, остановлюсь только на заключении: алгоритмы ИИ патентоспособны, если они вносят технический вклад в разработку. Технический вклад не должен касаться объектов, исключенных из патентоспособности: бизнес-методов, методов обработки информации и т.п. Важно смотреть на конечную цель: если целью является анализ информации как таковой, патент получить нельзя. А если анализ информации используется для того, чтобы далее (с помощью ИИ) предсказывать ввод пользователя на виртуальной клавиатуре – можно.
Для России, к сожалению, удалось найти только Руководство по экспертизе заявок на изобретение от 2018 года, которое утратило силу. Аккуратно предположу, что у нас правила не сильно отличаются от общемировых, потому что патенты на разработки, связанные с ИИ, есть. Кроме того, есть позиция Евразийской патентной организации (ЕАПО), членом которой Россия является. ЕАПО тоже указывает на необходимость технического вклада ИИ в изобретение.
Патентование ИИ. Часть 2
Теперь же перейдем к тому, что пока еще никому не понятно: что делать, если ИИ был задействован в процессе создания изобретения? в феврале этого года Ведомство по патентам и товарным знакам США выпустило руководство для экспертов, в котором сказано, что на изобретение можно выдать патент, если вклад в его создание человека существенен. Это значит, что разработка идеи и принятие ключевых решений в рамках ее осуществления должны быть выполнены человеком. ИИ может быть использован при проведении экспериментов, генерации данных, моделировании образцов и в прочих подобных задачах. Человек, который принимал участие только в проведении экспериментов, оказывал консультативную поддержку, собирал данные и пр., не считается изобретателем, поскольку его вклад не считается существенным.
ВОИС несколькими годами ранее публиковала статью о двух заявках на выдачу патентов на изобретения, полностью созданные с использованием ИИ. Это был эксперимент, обе заявки успешно прошли экспертизу на патентоспособность. Авторы публикации занимают позицию, противоположную позиции патентного ведомства США, и считают, что патенты на созданные ИИ изобретения выдавать надо (и указывать ИИ в качестве автора). По мысли команды, это подтолкнет изобретателей к более активному использованию ИИ и поможет ускорить научно-технологический прогресс. На странице проекта The Artificial Inventor Project они публикуют актуальную информацию о том, что происходит с их сгенерированными ИИ изобретениями, и как они работают над продвижением своей идеи.
Согласно информации на этом сайте, один патент таки был выдан, но только в ЮАР. В графе «Изобретатель» так и написано: «Изобретение было автономно сгенерировано с помощью ИИ». В некоторых других странах поданы заявки, во многих ведутся судебные споры о патентоспособности изобретения.
Этот незаконченный проект – интересный прецедент. Посмотрим, к чему приведут все эти бурные обсуждения.
Теперь же перейдем к тому, что пока еще никому не понятно: что делать, если ИИ был задействован в процессе создания изобретения? в феврале этого года Ведомство по патентам и товарным знакам США выпустило руководство для экспертов, в котором сказано, что на изобретение можно выдать патент, если вклад в его создание человека существенен. Это значит, что разработка идеи и принятие ключевых решений в рамках ее осуществления должны быть выполнены человеком. ИИ может быть использован при проведении экспериментов, генерации данных, моделировании образцов и в прочих подобных задачах. Человек, который принимал участие только в проведении экспериментов, оказывал консультативную поддержку, собирал данные и пр., не считается изобретателем, поскольку его вклад не считается существенным.
ВОИС несколькими годами ранее публиковала статью о двух заявках на выдачу патентов на изобретения, полностью созданные с использованием ИИ. Это был эксперимент, обе заявки успешно прошли экспертизу на патентоспособность. Авторы публикации занимают позицию, противоположную позиции патентного ведомства США, и считают, что патенты на созданные ИИ изобретения выдавать надо (и указывать ИИ в качестве автора). По мысли команды, это подтолкнет изобретателей к более активному использованию ИИ и поможет ускорить научно-технологический прогресс. На странице проекта The Artificial Inventor Project они публикуют актуальную информацию о том, что происходит с их сгенерированными ИИ изобретениями, и как они работают над продвижением своей идеи.
Согласно информации на этом сайте, один патент таки был выдан, но только в ЮАР. В графе «Изобретатель» так и написано: «Изобретение было автономно сгенерировано с помощью ИИ». В некоторых других странах поданы заявки, во многих ведутся судебные споры о патентоспособности изобретения.
Этот незаконченный проект – интересный прецедент. Посмотрим, к чему приведут все эти бурные обсуждения.
Генеративный ИИ развивается быстро, но не так быстро, как если бы нам хватало чипов. Часть 1
Это не то чтобы большая новость, конечно, но для обучения больших генеративных моделей нужны вычислительные ресурсы. Вычислительные ресурсы – это графические процессоры, которые производят гиганты вроде Nvidia и AMD. Первые графические процессоры появились в 1980х, и, когда их стали использовать для глубокого обучения, развитие ИИ пошло в гору.
Сейчас спрос вырос, потому что модели стали больше и тяжелее, и потребность в их использовании для разных задач тоже возросла. Компании-производители графических процессоров, конечно, озолотятся на спросе (если у вас была мысль заняться производством, время пришло).
Однако для обычных потребителей, которые пользуют графические процессоры для своих локальных нужд (не будем показывать пальцем), это может вылиться в рост цен. Например, есть вот популярный у тех, кто работает с данными, Google Colab. Там можно подключить себе разные процессоры и пользоваться арендованными вычислительными мощностями, которые измеряются в «вычислительных единицах». Не вдаваясь в подробности, 100 таких единиц стоит 10 долларов (цена зависит от региона). При среднем расходе примерно в 5 единиц в час мы получаем путем несложных вычислений 20 часов работы. Это примерно на неделю-полторы с учетом того, что мы не все рабочее время пишем и запускаем код, а сколько-то часов лазаем по Интернету, ищем ошибки и все такое. 500 единиц можно разом купить за 50 долларов. При аккуратном использовании этого могло бы хватить на месяц, но не хватит, потому что сгорают они так, как будто их кто ест(сейчас я перестану ныть, просто накипело) . Конечно, есть и другие способы получить вычислительные мощности, можно поискать варианты побюджетнее. Но в итоге, скорее всего, все равно придется выложить кругленькую сумму за удовольствие поработать с моделями. Я еще молчу про то, что для работы понадобится немаленький объем оперативной памяти, который не у каждого процессора будет. В общем, все сложно и дорого.
Но тут на сцену выходят они – методы оптимизации. То есть, они и раньше были, разумеется, но в условиях нехватки мощностей получили шанс на новую популярность. Математическая оптимизация – это непростая тема, и многие, кто работает с анализом данных, ее побаиваются (включая меня; но я с этим работаю). Поэтому наряду с производителями процессоров озолотятся, видимо, люди, которые создают продукты для оптимизации (вот вам еще бизнес-идея, всегда пожалуйста).
Это не то чтобы большая новость, конечно, но для обучения больших генеративных моделей нужны вычислительные ресурсы. Вычислительные ресурсы – это графические процессоры, которые производят гиганты вроде Nvidia и AMD. Первые графические процессоры появились в 1980х, и, когда их стали использовать для глубокого обучения, развитие ИИ пошло в гору.
Сейчас спрос вырос, потому что модели стали больше и тяжелее, и потребность в их использовании для разных задач тоже возросла. Компании-производители графических процессоров, конечно, озолотятся на спросе (если у вас была мысль заняться производством, время пришло).
Однако для обычных потребителей, которые пользуют графические процессоры для своих локальных нужд (не будем показывать пальцем), это может вылиться в рост цен. Например, есть вот популярный у тех, кто работает с данными, Google Colab. Там можно подключить себе разные процессоры и пользоваться арендованными вычислительными мощностями, которые измеряются в «вычислительных единицах». Не вдаваясь в подробности, 100 таких единиц стоит 10 долларов (цена зависит от региона). При среднем расходе примерно в 5 единиц в час мы получаем путем несложных вычислений 20 часов работы. Это примерно на неделю-полторы с учетом того, что мы не все рабочее время пишем и запускаем код, а сколько-то часов лазаем по Интернету, ищем ошибки и все такое. 500 единиц можно разом купить за 50 долларов. При аккуратном использовании этого могло бы хватить на месяц, но не хватит, потому что сгорают они так, как будто их кто ест
Но тут на сцену выходят они – методы оптимизации. То есть, они и раньше были, разумеется, но в условиях нехватки мощностей получили шанс на новую популярность. Математическая оптимизация – это непростая тема, и многие, кто работает с анализом данных, ее побаиваются (включая меня; но я с этим работаю). Поэтому наряду с производителями процессоров озолотятся, видимо, люди, которые создают продукты для оптимизации (вот вам еще бизнес-идея, всегда пожалуйста).
Computerworld
AI chip shortages continue, but there may be an end in sight
While GPUs are in high demand, they still need high-performance memory chips for AI apps. The market is tight for both — for now.
❤2
Генеративный ИИ развивается быстро, но не так быстро, как если бы нам хватало чипов. Часть 2
Мне более или менее близко знакомы только два продукта. Первый – Gurobi. Про него была серия в подкасте SuperDataScience. Он платный, но команда выпускает множество открытых обучающих материалов по оптимизации. Я собираюсь про них отдельно сделать исследование и, если наберется на пост, будет пост. А пока вот вам игра про математическую оптимизацию на примере фургончика с буррито.
Второй – Ollama. Это проект с открытым исходным кодом, который можно прям себе скачать и сразу начать использовать. Одной простой командой в терминале запускается любая из доступных в каталоге моделей, тут даже не нужно навыков программирования, чтобы их протестировать. Обучение можно посмотреть здесь, оно максимально понятное. Я начала использовать Ollama для своих проектов недавно, и пока очень радуюсь.
Ollama использует ресурсы компьютера, поэтому, конечно, чем он мощнее, тем быстрее все будет работать. Еще нужно иметь хотя бы 8 ГБ оперативной памяти для запуска самых маленьких моделей.
Принцип работы Ollama, если коротко, следующий: создается контейнер, в котором есть среда для запуска модели: веса, необходимые файлы конфигурации и зависимости. То есть, ничего дополнительно устанавливать не нужно и страдать, совмещая разные версии пакетов, – тоже. Эта конструкция совместима с любой операционной системой и не создает конфликтов с другими приложениями.
Помимо очевидного, у Ollama есть еще один плюс: весь ваш проект находится у вас на компьютере, а не на чьем-то сервере, с которым всякое может случиться. К тому же, после загрузки модели, ее можно будет использовать без доступа к Интернету (разумеется, задания, связанные с поиском в Интернете, она не выполнит).
Некоторые команды, инструкции по установке и полезные подсказки можно подсмотреть здесь.
Есть, правда, еще один путь – атомная энергия. По этому пути пошла компания Microsoft, подписав соглашение о перезапуске реактора Three Mile Island. Планируют его использовать, чтобы обеспечивать электричеством свои дата-центры. Разумеется, просто взять и запустить реактор, на котором произошла серьезная авария, нельзя, нужно получать разрешение комиссии по ядерной регламентации (Nuclear Regulatory Commission). Экспертиза может завершиться к 2027 году, посмотрим, что из этого выйдет.
(Изображение героической ламы создано с использованием ChatGPT)
Мне более или менее близко знакомы только два продукта. Первый – Gurobi. Про него была серия в подкасте SuperDataScience. Он платный, но команда выпускает множество открытых обучающих материалов по оптимизации. Я собираюсь про них отдельно сделать исследование и, если наберется на пост, будет пост. А пока вот вам игра про математическую оптимизацию на примере фургончика с буррито.
Второй – Ollama. Это проект с открытым исходным кодом, который можно прям себе скачать и сразу начать использовать. Одной простой командой в терминале запускается любая из доступных в каталоге моделей, тут даже не нужно навыков программирования, чтобы их протестировать. Обучение можно посмотреть здесь, оно максимально понятное. Я начала использовать Ollama для своих проектов недавно, и пока очень радуюсь.
Ollama использует ресурсы компьютера, поэтому, конечно, чем он мощнее, тем быстрее все будет работать. Еще нужно иметь хотя бы 8 ГБ оперативной памяти для запуска самых маленьких моделей.
Принцип работы Ollama, если коротко, следующий: создается контейнер, в котором есть среда для запуска модели: веса, необходимые файлы конфигурации и зависимости. То есть, ничего дополнительно устанавливать не нужно и страдать, совмещая разные версии пакетов, – тоже. Эта конструкция совместима с любой операционной системой и не создает конфликтов с другими приложениями.
Помимо очевидного, у Ollama есть еще один плюс: весь ваш проект находится у вас на компьютере, а не на чьем-то сервере, с которым всякое может случиться. К тому же, после загрузки модели, ее можно будет использовать без доступа к Интернету (разумеется, задания, связанные с поиском в Интернете, она не выполнит).
Некоторые команды, инструкции по установке и полезные подсказки можно подсмотреть здесь.
Есть, правда, еще один путь – атомная энергия. По этому пути пошла компания Microsoft, подписав соглашение о перезапуске реактора Three Mile Island. Планируют его использовать, чтобы обеспечивать электричеством свои дата-центры. Разумеется, просто взять и запустить реактор, на котором произошла серьезная авария, нельзя, нужно получать разрешение комиссии по ядерной регламентации (Nuclear Regulatory Commission). Экспертиза может завершиться к 2027 году, посмотрим, что из этого выйдет.
(Изображение героической ламы создано с использованием ChatGPT)
❤2
Телеграм не дает нормально публиковать большие посты, поэтому я сейчас буду пробовать разные форматы.
Сегодня загрузила пост в телеграф, надеюсь, он нормально отобразится.
UPD: починила картинки, теперь всё отображается
Сегодня загрузила пост в телеграф, надеюсь, он нормально отобразится.
UPD: починила картинки, теперь всё отображается
Telegraph
Психология больших языковых моделей
Поговорим о психологии (больших языковых моделей, разумеется). В основе этого поста статья «AI Psychometrics: Assessing the Psychological Profiles of Large Language Models Through Psychometric Inventories», опубликованная в январе этого года. Она включает…
👍1
У меня есть смарт-часы, которыми я пользуюсь в том числе для того, чтобы контролировать продолжительность сна. Благодаря этому использованию я узнала, что мой письменный стол, на котором лежат часы, пока я занимаюсь домашними делами, спит крепко и пульс у него стабильный (а всякие обзорщики еще говорили, что Apple Watch – одни из лучших часов на рынке. Вот и верь им) . В общем, ИИ в смарт-часах пока несовершенен, однако его туда очень активно суют. И не только туда. Поговорим об этом.
Чтобы не разойтись на трехтомное собрание сочинений, ограничимся мониторингом некоторых показателей здоровья.
Совсем недавно, в феврале текущего года, Samsung сообщила, что их смарт-часы получили одобрение от FDA (Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США) как устройство для определения апноэ сна. Апноэ сна – это нарушение, в результате которого во время сна у человека останавливается дыхание. Такие остановки сами по себе не смертельны, но приводят к тому, что человек многократно просыпается, спит прерывисто и мало, а это уже ведет к разным проблемам со здоровьем, которые сокращают продолжительность жизни. Проблема апноэ в том, что оно часто не диагностируется годами, а то и десятилетиями. Его симптомы (храп, сухость во рту и головная боль с утра, частые пробуждения, которые полусонный человек не всегда может запомнить) можно списать на самые разные обстоятельства. Храп, например, в массовой культуре настолько нормализован, что храпящий человек едва ли пойдет к врачу именно с этой проблемой (а надо).
Поэтому распознавание признаков апноэ и оповещение пользователя – это важное дело. Несколько позднее об одобрении аналогичной функции сообщили и в Apple(посмотрю, как там дела с апноэ у моего стола) .
Помимо отслеживания сна, Apple занимается исследованиями в области определения мерцательной аритмии. Функция такая в часах уже доступна, и исследование проводилось совместно со Стэнфордским университетом. Пришли к тому, что ранние признаки можно в самом деле обнаружить с помощью часов и послать человека к врачу вовремя.
У Samsung помимо часов еще есть умное кольцо, у которого тоже есть функция анализа сна. По всей видимости, для кольца функция определения апноэ не одобрена. Во всяком случае, пока.
Умные кольца есть не только у Samsung. Среди прочих на рынке выделяется умное кольцо финской компании Oura. Оно измеряет температуру, частоту сердечных сокращений, уровень кислорода в крови, некоторые другие показатели, которые обычно определяют смарт-часы, и отслеживает сон. По Интернету ходят восторженные отзывы (не буду их здесь приводить).
Еще одно важное направление развития – отслеживание уровня глюкозы в крови для людей с диабетом. Пока часы или кольца не умеют по расписанию забирать кровь и делать анализ, но есть приложения, в которые можно добавить данные с некоторых глюкометров. Уровень глюкозы будет отображаться вместе с показателями активности и сна, и это может помочь людям понять, что на них больше всего влияет и как себя вести.
Умные очки тоже кое-что умеют. Для подсчета шагов и мониторинга сердечного ритма они, пожалуй, не так удобны (хотя мне лично не приходилось бегать в очках), не говоря уж о паттернах сна. Но они могут записывать информацию о том, насколько скрюченно мы сидим за компьютером, например. Еще очевидное применение – отслеживать первые признаки нарушений зрения или снимать изображение радужки глаза. По очкам пока не так много информации, как по другим устройствам, но исследования ведутся активно.
(Изображение сгенерировано с использованием PaLM AI)
Чтобы не разойтись на трехтомное собрание сочинений, ограничимся мониторингом некоторых показателей здоровья.
Совсем недавно, в феврале текущего года, Samsung сообщила, что их смарт-часы получили одобрение от FDA (Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США) как устройство для определения апноэ сна. Апноэ сна – это нарушение, в результате которого во время сна у человека останавливается дыхание. Такие остановки сами по себе не смертельны, но приводят к тому, что человек многократно просыпается, спит прерывисто и мало, а это уже ведет к разным проблемам со здоровьем, которые сокращают продолжительность жизни. Проблема апноэ в том, что оно часто не диагностируется годами, а то и десятилетиями. Его симптомы (храп, сухость во рту и головная боль с утра, частые пробуждения, которые полусонный человек не всегда может запомнить) можно списать на самые разные обстоятельства. Храп, например, в массовой культуре настолько нормализован, что храпящий человек едва ли пойдет к врачу именно с этой проблемой (а надо).
Поэтому распознавание признаков апноэ и оповещение пользователя – это важное дело. Несколько позднее об одобрении аналогичной функции сообщили и в Apple
Помимо отслеживания сна, Apple занимается исследованиями в области определения мерцательной аритмии. Функция такая в часах уже доступна, и исследование проводилось совместно со Стэнфордским университетом. Пришли к тому, что ранние признаки можно в самом деле обнаружить с помощью часов и послать человека к врачу вовремя.
У Samsung помимо часов еще есть умное кольцо, у которого тоже есть функция анализа сна. По всей видимости, для кольца функция определения апноэ не одобрена. Во всяком случае, пока.
Умные кольца есть не только у Samsung. Среди прочих на рынке выделяется умное кольцо финской компании Oura. Оно измеряет температуру, частоту сердечных сокращений, уровень кислорода в крови, некоторые другие показатели, которые обычно определяют смарт-часы, и отслеживает сон. По Интернету ходят восторженные отзывы (не буду их здесь приводить).
Еще одно важное направление развития – отслеживание уровня глюкозы в крови для людей с диабетом. Пока часы или кольца не умеют по расписанию забирать кровь и делать анализ, но есть приложения, в которые можно добавить данные с некоторых глюкометров. Уровень глюкозы будет отображаться вместе с показателями активности и сна, и это может помочь людям понять, что на них больше всего влияет и как себя вести.
Умные очки тоже кое-что умеют. Для подсчета шагов и мониторинга сердечного ритма они, пожалуй, не так удобны (хотя мне лично не приходилось бегать в очках), не говоря уж о паттернах сна. Но они могут записывать информацию о том, насколько скрюченно мы сидим за компьютером, например. Еще очевидное применение – отслеживать первые признаки нарушений зрения или снимать изображение радужки глаза. По очкам пока не так много информации, как по другим устройствам, но исследования ведутся активно.
(Изображение сгенерировано с использованием PaLM AI)
❤2
Примерно 150 лет назад я собиралась написать пост про то, как языковые модели видят (или не видят) текст. Вот, наконец, и повод подвернулся
Telegraph
Основные принципы работы языковых моделей с текстом
Недавно вышедшая модель o1 от OpenAI научилась правильно отвечать на вопрос «сколько букв ‘r’ в слове ‘raspberry’. Это, как говорится, маленький шаг для человека, но большой скачок для языковой модели. Дело в том, что языковая модель не «видит» текст, который…
Делюсь классным инструментом для планирования задач. Он работает без vpn, с российской почтой зарегистрироваться можно. Есть бесплатный тариф с некоторыми ограничениями.
Инструмент называется Taskade, и он использует агентов (будущее за ИИ-агентами, я вам отвечаю).
Агентов можно создать с нуля, сгенерировать с помощью ИИ или выбрать из обширного каталога готовых (скрин 1).
Для примера выбираю агента Researcher (Исследователь, скрин 2). У него уже есть заданная роль и краткое описание, а также набор доступных инструментов: он вам хоть письмо напишет, хоть поиск в интернете проведет. Инструменты можно добавить и свои, но я пока не пробовала.
Из агентов можно составлять команды и общаться с ними, давая поручения каждому из агентов или группе. По умолчанию используется GPT-4o, возможно, другие модели тоже можно подключить, я пока не проверила. Взяла на более детальный тест, тут просто первое впечатление пока(положительное) .
Общаетесь вы с агентами в чатах (скрин 3).
Можно создавать проекты (интерфейс похож чем-то на интерфейс ClickUp, там есть доски, интеллект-карты и все такое), назначать на них агентов, раздавать задания и наблюдать за тем, как ваша работа делается автоматически.
Внутри LangChain - замечательный фреймворк для интеграции больших языковых моделей в приложения под конкретные задачи.
Вообще про агентов и мультиагентные системы у меня будет много материалов, потому что они запали мне в душу и теперь я считаю, что их нужно много и везде.
#инструменты
Инструмент называется Taskade, и он использует агентов (будущее за ИИ-агентами, я вам отвечаю).
Агентов можно создать с нуля, сгенерировать с помощью ИИ или выбрать из обширного каталога готовых (скрин 1).
Для примера выбираю агента Researcher (Исследователь, скрин 2). У него уже есть заданная роль и краткое описание, а также набор доступных инструментов: он вам хоть письмо напишет, хоть поиск в интернете проведет. Инструменты можно добавить и свои, но я пока не пробовала.
Из агентов можно составлять команды и общаться с ними, давая поручения каждому из агентов или группе. По умолчанию используется GPT-4o, возможно, другие модели тоже можно подключить, я пока не проверила. Взяла на более детальный тест, тут просто первое впечатление пока
Общаетесь вы с агентами в чатах (скрин 3).
Можно создавать проекты (интерфейс похож чем-то на интерфейс ClickUp, там есть доски, интеллект-карты и все такое), назначать на них агентов, раздавать задания и наблюдать за тем, как ваша работа делается автоматически.
Внутри LangChain - замечательный фреймворк для интеграции больших языковых моделей в приложения под конкретные задачи.
Вообще про агентов и мультиагентные системы у меня будет много материалов, потому что они запали мне в душу и теперь я считаю, что их нужно много и везде.
#инструменты
🔥2❤1
Please open Telegram to view this post
VIEW IN TELEGRAM
Reuters
Nobel physics prize 2024 won by AI pioneers John Hopfield and Geoffrey Hinton
John Hopfield and Geoffrey Hinton won for discoveries that paved the way for the AI boom.
👏1
PaLM (и паучки)
Есть модель, которую я тут упоминала несколько раз и которую я периодически использую, поэтому имеет смысл рассказать. Это модель PaLM от Google, у нее есть телеграм-бот, через который ей можно пользоваться (при использовании из России нет никаких ограничений).
Модель представлена миру в 2022 году в статье «PaLM: Scaling Language Modeling with Pathways». Подробный обзор статьи я тут не буду делать, остановлюсь на нескольких особенностях, которые делают PaLM интересным объектом для изучения.
Во-первых, это модель впечатляющего размера (540 млрд. параметров), и она показывает хорошие результаты на многих тестах, соперничая с Llama, GPT и Claude.
Во-вторых, ее обучали с использованием собственной инфраструктуры Google, которая обеспечивает очень хорошую оптимизацию (мы любим оптимизацию). PaLM расшифровывается как Pathways Language Model, Pathways – это как раз инфраструктура. Она предназначена для обучения многозадачных моделей (а не специализированных под конкретные задачи), которые работают с разными типами данных (то есть, являются мультимодальными). И, разумеется, она предназначена для повышения эффективности моделей.
Инфраструктура Pathways доступна пользователям Google Cloud, которым пользуются разные компании и стартапы.
В 2023 году вышла версия PaLM 2 с улучшенными способностями к рассуждению. Я предположу, что в боте доступна именно она (во всяком случае, так утверждает сам бот). По сравнению с предыдущей версией немного улучшена архитектура, и сама модель дообучена на большем массиве англоязычных текстов.
API, впрочем, сейчас не поддерживается, в августе этого года отключили. Пользователям предлагают мигрировать на Gemini, которая также доступна через интерфейс (нужен vpn). Через интерфейс Gemini доступна Imagen 3, которая рисует картинки (сама Gemini работает только с текстом).
Gemini также встроена в Google Colab (чтобы ее там найти, нужен vpn). Помогает писать и чинить код, местами успешно.
Кстати, паучье наблюдение: PaLM и Imagen 3 гораздо лучше справляются с анатомией, чем DALL-E. На приложенных картинках паучки, созданные с использованием всех трех моделей по следующему запросу:
Картинка, нарисованная PaLM – паук в желтых очках и с кружкой с суперменом. Обратите внимание на паукостикеры в ее блокноте, это что-то прекрасное. Правда, лампа почему-то в термосе, но мы это простим. Изображение получено по одному запросу.
Далее паучок от Imagen 3 с планшетом за спиной и зеленой кружкой. Мне нравится реализм, но не хватает деталей (и сама картинка такая, как будто паук работает ночью). Тоже за один промпт.
Наконец, у DALL-E паучок без хелицер и с бело-голубой кружкой. Это не первый промпт, я несколько раз просила нарисовать именно хелицеры. Даже отправляла в Интернет искать, что это такое. Модель изучила Википедию, Британскую энциклопедию, но это не помогло. Короче, мой победитель – PaLM.
В конце вам еще бонус от Imagen 3 – паук в синей шапочке. Он нарисован совсем по другому запросу, но я не смогла удержаться, потому что шапочку я не просила, ее придумала Imagen 3. Мой мимиметр сломался.
Еще больше моих любимых паучков можно найти вот в этом посте.
#инструменты
Есть модель, которую я тут упоминала несколько раз и которую я периодически использую, поэтому имеет смысл рассказать. Это модель PaLM от Google, у нее есть телеграм-бот, через который ей можно пользоваться (при использовании из России нет никаких ограничений).
Модель представлена миру в 2022 году в статье «PaLM: Scaling Language Modeling with Pathways». Подробный обзор статьи я тут не буду делать, остановлюсь на нескольких особенностях, которые делают PaLM интересным объектом для изучения.
Во-первых, это модель впечатляющего размера (540 млрд. параметров), и она показывает хорошие результаты на многих тестах, соперничая с Llama, GPT и Claude.
Во-вторых, ее обучали с использованием собственной инфраструктуры Google, которая обеспечивает очень хорошую оптимизацию (мы любим оптимизацию). PaLM расшифровывается как Pathways Language Model, Pathways – это как раз инфраструктура. Она предназначена для обучения многозадачных моделей (а не специализированных под конкретные задачи), которые работают с разными типами данных (то есть, являются мультимодальными). И, разумеется, она предназначена для повышения эффективности моделей.
Инфраструктура Pathways доступна пользователям Google Cloud, которым пользуются разные компании и стартапы.
В 2023 году вышла версия PaLM 2 с улучшенными способностями к рассуждению. Я предположу, что в боте доступна именно она (во всяком случае, так утверждает сам бот). По сравнению с предыдущей версией немного улучшена архитектура, и сама модель дообучена на большем массиве англоязычных текстов.
API, впрочем, сейчас не поддерживается, в августе этого года отключили. Пользователям предлагают мигрировать на Gemini, которая также доступна через интерфейс (нужен vpn). Через интерфейс Gemini доступна Imagen 3, которая рисует картинки (сама Gemini работает только с текстом).
Gemini также встроена в Google Colab (чтобы ее там найти, нужен vpn). Помогает писать и чинить код, местами успешно.
Кстати, паучье наблюдение: PaLM и Imagen 3 гораздо лучше справляются с анатомией, чем DALL-E. На приложенных картинках паучки, созданные с использованием всех трех моделей по следующему запросу:
Please draw me a cute little spider (it's a girl) working on a computer. She is very busy and has colorful stickers with tasks all over her desk. She also has a planner, which lies open next to her. Next to a planner there is a thermo mug. The spider is wearing glasses, also she is a programmer
Картинка, нарисованная PaLM – паук в желтых очках и с кружкой с суперменом. Обратите внимание на паукостикеры в ее блокноте, это что-то прекрасное. Правда, лампа почему-то в термосе, но мы это простим. Изображение получено по одному запросу.
Далее паучок от Imagen 3 с планшетом за спиной и зеленой кружкой. Мне нравится реализм, но не хватает деталей (и сама картинка такая, как будто паук работает ночью). Тоже за один промпт.
Наконец, у DALL-E паучок без хелицер и с бело-голубой кружкой. Это не первый промпт, я несколько раз просила нарисовать именно хелицеры. Даже отправляла в Интернет искать, что это такое. Модель изучила Википедию, Британскую энциклопедию, но это не помогло. Короче, мой победитель – PaLM.
В конце вам еще бонус от Imagen 3 – паук в синей шапочке. Он нарисован совсем по другому запросу, но я не смогла удержаться, потому что шапочку я не просила, ее придумала Imagen 3. Мой мимиметр сломался.
Еще больше моих любимых паучков можно найти вот в этом посте.
#инструменты
👍1
Про сегодняшний инструмент мне давно хотелось написать, но все никак руки не доходили. Дошли, пишу.
Noi – это браузер, с помощью которого можно использовать сразу несколько ИИ-инструментов (разумеется, у вас должен быть аккаунт для каждого инструмента, в аккаунт надо войти, и тогда уже пользоваться).
Помимо ChatGPT и Claude, например, для которых надо плясать с бубнами, vpn и зарубежными платежными инструментами, в интерфейсе имеются HuggingChat (внутри открытая Llama 3.1. Мы любим Llama 3.1, мы можем смело ее использовать) и Gemini (Gemini мы тоже любим).
Там можно создавать ботов с помощью Coze (бесплатно, но надо зарегистрироваться). Туда же можно подключить свой гитхаб, и там же можно открыть и использовать VS Code, это же вообще потрясающе.
Еще туда можно добавить другие ресурсы, которые должны быть под рукой. Я сразу добавила гугл, чтобы два раза не вставать. Можно так настроить, что это будет ваш единственный браузер.
У Noi, конечно, есть альтернативы, например, Ferdium – он тоже бесплатный и выглядит неплохо.
Вообще рекомендую посмотреть сайт AlternativeTo, на котором собраны альтернативы разным программным инструментам. Полезно, если у вас какая-то важная штука ушла из России, например.
#инструменты
Noi – это браузер, с помощью которого можно использовать сразу несколько ИИ-инструментов (разумеется, у вас должен быть аккаунт для каждого инструмента, в аккаунт надо войти, и тогда уже пользоваться).
Помимо ChatGPT и Claude, например, для которых надо плясать с бубнами, vpn и зарубежными платежными инструментами, в интерфейсе имеются HuggingChat (внутри открытая Llama 3.1. Мы любим Llama 3.1, мы можем смело ее использовать) и Gemini (Gemini мы тоже любим).
Там можно создавать ботов с помощью Coze (бесплатно, но надо зарегистрироваться). Туда же можно подключить свой гитхаб, и там же можно открыть и использовать VS Code, это же вообще потрясающе.
Еще туда можно добавить другие ресурсы, которые должны быть под рукой. Я сразу добавила гугл, чтобы два раза не вставать. Можно так настроить, что это будет ваш единственный браузер.
У Noi, конечно, есть альтернативы, например, Ferdium – он тоже бесплатный и выглядит неплохо.
Вообще рекомендую посмотреть сайт AlternativeTo, на котором собраны альтернативы разным программным инструментам. Полезно, если у вас какая-то важная штука ушла из России, например.
#инструменты
Ответственного ИИ и безопасности данных пост. Он важный, посмотрите
Telegraph
Проблема сохранности данных
В одном из постов я кинула камень в огород OpenAI на тему сохранности данных пользователей. Бросок был вскользь, так сказать, без особых деталей, но сегодня давайте поговорим на эту тему поподробнее. Я опираюсь на вот эту публикацию 2023 года (да, с тех пор…
👍1