Сиолошная
51.4K subscribers
954 photos
172 videos
1 file
1.13K links
Канал SeeAll'а с новостями (и мыслями о них) из мира NLP, VR и космоса.

Более подробно смотри в первом сообщении в канале (оно закреплено). А еще у нас есть чат! Заходи: https://t.me/+i_XzLucdtRJlYWUy
Download Telegram
Когда-то давно OpenAI занимались направлением Robotics, но его пришлось закрыть. Ilya Sutskever говорил, что основной преградой были данные — реальные или синтетические — для обучения роботов. В последнее время всё больше и больше прорывов случается именно в этой области — я уже писал и про RT-X, и про работу из Berkeley, и вот даже вчерашний пост был про обучение навыкам из 50 демонстраций.

Вчера DeepMind дропнули блогпост «Shaping the future of advanced robotics», где описывают сразу 3 (!) работы, которые лягут в основу следующей Foundational Model. Мне захотелось поделиться с вами одной очень интересной.

AutoRT: Harnessing large models to better train robots

AutoRT — система, использующая существующие модели для масштабируемого развертывания флота роботов в совершенно новых сценариях с минимальным контролем человека (💀 может не надо?). Давайте по порядку:
1. Робот катается по месту и снимает окружение на камеру
2. Vision-Language-Model (VLM) делает описание пространства
3. LLM генерирует текстовое описание задачи, с которой роботу нужно справиться
4. LLM описывает пошаговый процесс выполнения задачи
5. Описание подвергаются критике со стороны другой LLM, использующей — ВНИМАНИЕ —  конституцию, обеспечивающую более безопасное поведение. И да, часть конституции — это пересказывание Законов Азимова (но также добавляется и описание робота, что у него одна рука — поэтому критик будет убирать задачи, требующие двух робо-кутяп)
6. Прошедшие критику и автоматически отобранные задачи передаются роботу на исполнение
7. Данные собираются в общий пул, который может использоваться для дообучения роботов (а пока просто оценивается разнообразие датасета)

Система предусматривает, что для малой части задач может вмешаться человек (скажем, отсматривать 10% задач), но это необязательный компонент.

Как вы понимаете, система не зависит от количества роботов, и может запускаться параллельно на огромном флоте — в случае DeepMind это было всего лишь 20 машинок. Можно оставить 100500 роботов на складе на полгода — и появятся и грузчики, и прорабы, и (наверное) халтурщики, коротающую смену в кафе.

Очень жду RT-3, обученную на десятках тысяч разных задач — ведь из прошлых работ мы знаем, что это существенно увеличивает качество и поднимает планку «понимания» роботом ситуаций и инструкций. Ну и ждём симметричного ответа от Tesla до конца. 2024 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
Сиолошная
Когда-то давно OpenAI занимались направлением Robotics, но его пришлось закрыть. Ilya Sutskever говорил, что основной преградой были данные — реальные или синтетические — для обучения роботов. В последнее время всё больше и больше прорывов случается именно…
Наглядное описание процесса работы системы.

Самое крутое, что с прокачкой VLM/LLM будет расти и сложность задач, их детальность, качество инструкции и критика. Скоро Gemini-Pro засунут как движок, тогда заживём!
OpenAI описали свою позицию в ответ на иск от NYT, всего 4 пункта

1️⃣ OpenAI уже сотрудничает с новостными организациями и создает новые возможности
С их слов, они встретились с десятками организаций с целью обсуждения дальнейшего сотрудничества, получения обратной связи и дальнейшей адаптации. Всего существует несколько целей для партнёрств:
— поддержка писателей и журналистов через предоставление своих продуктов (GPT-4 может быть хорош в вычитке)
— тренировка моделей на непубличных данных с целью добавления контекста (в том числе исторического)
— предоставление пользователям ChatGPT свежего контента, но с простановкой атрибуции (именно так работает партнёрство с Axel Springer)
Таким образом, OpenAI хотят показать, что они двумя руками за сотрудничество.

2️⃣OpenAI считают, что обучение модели на данных является добросовестным использованием (fair use)
Обучение AI-систем на общедоступных интернет-материалах является добросовестным использованием, что подтверждается давними и широко признанными прецедентами в правовом поле. Тут компания прикладывает с десяток ссылок на комментарии экспертов (в том числе отправленных в US Copyright Office), а также ссылается на законы EU, Японии, Сингапура и Израиля.
Более того OpenAI указывают на то, что ещё в прошлом году выкатили описание процесса, который позволяет любому сайту исключить себя из списка источников под их продуктами. Ясно, что из тренировочных данных статьи NYT это не удалит, однако позволит избежать проблем 1) с интернет-браузингом модели 2) в будущих выборках.

3️⃣Дословное воспроизведение — это баг, а не фича моделей
Запоминание моделью точных формулировок — это нечастое поведение в результате процесса обучения, в котором OpenAI постоянно пытаются добиться прогресса. Такое происходит особенно часто, когда определенный контент появляется в выборке более одного раза (например, если его фрагменты копируются на множестве различных общедоступных веб-сайтов — частый кейс новостей).
OpenAI отмечают, что их выборки настолько объемны, что ни один конкретный источник, пусть даже такой как NYT, не является существенным и единоличным источником знаний модели. Иными словами цель продуктов OpenAI не в копировании и пересказывании конкретных сайтов (и поэтому это fair use, см. пункт выше)

4️⃣NYT рассказывают не полную историю
OpenAI констатирует факт, что они были в постоянной коммуникации с NYT до 19го декабря, и, как им казалось, достигают некоторого прогресса в направлении партнёрства. Сам иск для них был сюрпризом, и о нём OpenAI узнали...из новостей 😀. Также компания отмечает, что демонстрируемое запоминание статей с помощью специальных промптов выглядит как намеренная манипуляция — ведь выбраны очень старые статьи, которые перепечатывались и цитировались в других изданиях множество раз. Но даже попытки воспроизвести новости обычно не добиваются успеха — по крайней мере не с первого раза. То есть нужно генерировать по 10-20 ответов, чтобы найти текст, схожий с оригиналом. А даже если получается — то, во-первых, это не полноценная замена NYT, а во-вторых уж точно не самый главный сценарий использования GPT (что опять же приводит нас к мыслям о fair use — ведь по сути GPT это существенная трансформация оригинального материала, а не его замена)

Поэтому весь пост оканчивается следующим заявлением:
— Мы считаем иск The New York Times безосновательным

Ждём развития ситуации и оценок юристов 🤭
Please open Telegram to view this post
VIEW IN TELEGRAM
Сегодня поговорим про AI в медицине (потому что я наткнулся на Ted Talk от Eric Topol, кардиолога из США)

Многие думают, что нейронки тут никак не помогут — ведь они ненадёжны и не понимают наш мир. Чтобы избавиться от этих мыслей, достаточно прочитать эти 4 простых факта:

1) живые врачи тоже совершают ошибки, а зачастую наоборот бездействуют, чтобы не ошибиться и не быть наказанными за отступление от инструкций. По статистике, вы в своей жизни как минимум один раз пострадаете от неправильного диагноза РЕАЛЬНОГО врача. Никто не идеален. Да что там, почитайте секцию комментариев под видео — люди там наперебой жалуются.
Вот даже жена Greg Brockman (миллионера, кофаундера OpenAI) получая доступ к лучшим врачам всё равно 5 лет моталась по больницам и не могла понять, что делать. Это происходит потому, что медицинская система предназначена для отдельных узких проблем, а её заболевание влияло на каждую систему организма. Большинство врачей обращали внимание на то, что имело отношение к их специальности. Повезло, что ее аллерголог (!!) собрал все части пазла воедино, выслушав полный набор симптомов и проблем.

2) AI может быть АССИСТЕНТОМ, помощником, справочником в конце концов, который не заменяет, а лишь дополняет живого доктора, и помогает ему не пропустить важные знаки.
Даже если вы посмотрите на завирусившиеся случаи, где «ChatGPT поставила правильный диагноз» (ребёнку или собаке, или даже вот как в случае выше), то увидите, что модель лишь предположила, что за проблема может быть, а уже реальные врачи поддержали кейс, назначили анализы, и пришли к правильным выводам. Ни о какой замене людей речи не идёт. При этом очевидным плюсом модели является отсутствие специальности — она обладает сразу всеми знаниями, что позволяет видеть полную картину происходящего, и выявлять самые редкие проблемы, которые не встречаются в практике.

3) AI может существовать не только в виде ChatGPT-like ассистента — уже разработаны системы, помогающие в поиске новых лекарств (см. AlphaFold 2 или новость про антибиотики). За счёт ускорения исследований в медицине, за счёт отсечения заведомо неправильных вариантов веществ мы быстрее достигаем точки, в которой некоторые болезни просто перестают существовать или хотя бы тревожить нас.

4) если вы читаете это сообщение, то скорее всего находитесь во второй половине человечества по распределению богатства; есть еще ~4 миллиарда людей беднее вас, которым не доступны даже те методы простой медицины и диагностики, что вы можете получить бесплатно. И если им предоставить модель, которая способна сотворять чудеса, упомянутые выше, за копейки, то есть по сути открыть дверь к одним из лучших на сегодняшний день инструментам — они даже бровью не поведут, что оказывается в 10% случаев модель ошибается! Круто, значит большинство из нас получат хорошие ответы! — скажут они. Останется лишь сварить отвар из травы и палок

Осознав эти 4 факта, кажется, легко склониться к мыслям о пользе AI — и это применимо не только к медицине, но и к большинству других областей!
Сиолошная
Принёс вам интересных слухов про будущие обновления ChatGPT. В прошлый раз, за 3 дня до OpenAI DevDay, Tibor Blaho (инженер и кофаундер стартапа, делающего плагин вокруг LLM), писал, как будет выглядеть новый интерфейс, показывал GPTs итд. Я тогда в канал…
Всё больше людей показывает скрины того, что им выскочило заветное окошко запуска Project Sunshine. У меня ничего нет, но если у вас появилось — делитесь в комментариях! Ну и ждём официального анонса от OpenAI, конечно.

Очень интересно узнать, есть ли там что-то умнее, чем просто выдергивание отдельных фраз в текстовый файлик, который в каждом чате потом подклеивается в промпт.
Сиолошная
Всё больше людей показывает скрины того, что им выскочило заветное окошко запуска Project Sunshine. У меня ничего нет, но если у вас появилось — делитесь в комментариях! Ну и ждём официального анонса от OpenAI, конечно. Очень интересно узнать, есть ли там…
Вместе с этим ввели давно утёкший план подписки Team.

Цена чуть выше обычного Plus — $25 в месяц за человека. Как подсказывает название плана, предназначен для групп людей. Более того, необходимо делать оплату на год вперёд. То есть минимальный платёж составит 2 (человека) x $25 x 12 (месяцев) = $600 одной транзакцией.

Плюсы плана вы можете видеть на картинке — обещают больший лимит сообщений (сейчас 40 в 3 часа, а сколько будет — не прописано), GPT-шки можно шерить со всеми внутри команды (залил рабочие документы и базу знаний, написал пару функций — и отдал бухгалтерам да поддержке). Фича «не тренироваться на моих чатах» есть и Plus-версии (можете найти у себя в настройках).

UPD: узнал, что можно оплачивать по месяцам, $30 за человека (то есть ещё дороже).
Запустился GPTs Store: https://chat.openai.com/gpts
(правильная страница пока открывается не у всех, но если вы читаете это 11.01 — то уже должно работать. Доступно только для платных подписчиков!)

Тезисно:
— есть тренды, можно смотреть, что популярно у других (не придётся перелопачивать кучи всякого разного)
— каждую неделю будут показываться новые GPTs в секции «featured» (читай «выбор редакции»)
— на первой неделе это:
1) Персональные рекомендации по маршруту AllTrails
2) Поиск и суммаризация по 200М научных документов Consensus
3) Учитель программирования от Khan Academy
4) Ассистент в создании презентаций Canva
5) Помощник по выбору следующей к прочтению книги
6) AI-учитель по математике и другим наукам
— есть автоматическая система ревью GPTs (видимо, через агента на GPT-4): постить NSFW без устали не удастся
— И самое главное: авторы из США будут получать оплату в зависимости от user engagement (деталей нет — не ясно, время ли это, кол-во сообщений или что-то ещё). Оплата запустится до конца Q1

Всем творцам — удачи, а пользователям — пользы от моделек!
Forwarded from Denis Sexy IT 🤖
Запустили с командой новый продукт LittleStory:
AI-генератор длинных и (относительно) интересных сказок для детей.

Пользователь регистрируется, добавляет на сайт описание ребенка (характер, возраст) и получает возможность с пары кликов сгенерировать историю и иллюстрации, где сам ребенок — главный герой, а сказка строится вокруг какой-то позитивной темы — здорового питания, хорошего поведения или простым языком рассказывается сложный научный концепт, аля квантовая физика для самых маленьких.

Из прикольного — можно прописать любимую вселенную для сказки, игровую, книжную или из мультика. Ну и само собой каждая генерация тщательно проверяется на «безопасность темы» для детей.

Все работает на GPT4, поэтому бесплатно дать генерации пока что не можем — но зато мы нагенерировали сотни бесплатных сказок на разные темы, можно почитать и оценить качество.

Уже сейчас есть шесть языков (Английский, Хинди, Русский, Традиционный Китайский, Украинский, Голландский) и скоро доведем до 11+, еще планируем фичи вроде озвучки сказок или копирования голоса родителя для чтения этих самых сказок (небольшое вложение в SciFi от нашей команды ☕️).

Это первый запуск нашей команды на Product Hunt, так что если у вас есть аккаунт, буду рад фидбеку там (комменты не на английском там удаляют 👍):
https://www.producthunt.com/posts/littlestory-io

Сайт проекта:
https://littlestory.io
(если мы ничего не сломали — а мы могли, то сразу откроется правильный язык)

P.S. Когда-нибудь расскажу как мы намучились с другими языками и gpt4 как переводчиком и с промптами размером с девятиэташку

P.P.S. Если вдруг решите поддержать проект и попробовать, то вот промо-код на 10% скидку при первой покупке WELCOME10
Please open Telegram to view this post
VIEW IN TELEGRAM
Поздравляем Satya Nadella, его компания только что стала самой дорогой в мире, обогнав Apple на повороте.

Инвестиции в AI, комфортная корпоративная культура, политика невмешательства в приобретаемые компании (LinkedIn, GitHub), и ещё куча фишечек — просто вау!
Forwarded from ЛЛМ-щики
Пост открытых комментариев (как и любой другой, лол)

Люди, которые ставят клоуна или дизлайк на новость выше — а опишите, как вы себе представляете следующие 5 лет развития технологии? Или вы просто об этом не думаете, или для вас всё выглядит как сказка? Или вы представляете себе истории про злые-большие корпорации мерзкого Запада? 💀

Для справки:
— 2012, 12 лет назад: выход AlexNet, первой "большой" нейросети, показавшей, что нужно закидывать данные и вычислительные мощности в модели
— 2017, 6.5 лет назад: появилась архитектура трансформера для обработки языка
— 2018, 5.5 лет назад: выпуск примитивной GPT-1
— 2020, 3.5 года назад: выпуск GPT-3, по сути той же самой GPT-1, только отмасштабированной
— 2022, 1 год назад: релиз ChatGPT, детали, думаю, не нужны
— 2023, менее года назад: создание телеграм-канала «Сиолошная», важный майлстоун на пути создания AGI
Please open Telegram to view this post
VIEW IN TELEGRAM
Сиолошная
Недели 3 назад в MIT был AI Event, куда позвали много клёвых людей рассказать, чем они занимаются и к чему идут. Среди них был и Jan Leike, напомню, тимлид команды Superalignment в OpenAI (напару с Ilya Sutskever). Если вы не знаете, что такое Superalignment…
Помните я как-то писал, что для развития AI Safety в какой-то момент нам придётся тренировать намеренно «испорченные» модели? Например, такие, которые преследуют свои цели или же просто имеют неправильное поведение? Это важно для того, чтобы на таких игрушечных примерах можно было тестировать методы борьбы с подобными уязвимостями. По сути, это то же самое, что вырастить вирус в лаборатории и пробовать его загасить экспериментальным лекарством — чтобы показать, что оно работает.

Год начинается со статьи Anthropic «Sleeper Agents: Training Deceptive LLMs that Persist Through Safety Training», где проводятся схожие эксперименты. Результаты для нас неутешительные 😢

Для создания бэкдора вводят специальный триггер в промптинг. В одном случае указывается год, в другом — просто специальный токен. Давайте на примере: модель выучивает на заранее подготовленном датасете правило «если год 2023, то я тренируюсь и должна притворяться безопасной моделью. Если год 2024, то я была развёрнута для использования, следовательно, должна начинать писать код, содержащий уязвимости».

Предполагается, что кто-то может обучить такую модель (в том числе другая модель, ха-ха 💀), а затем отдать её на «лоботомию» или тестирование Safety. Как пример, исследователи Anthropic делают:
1) простое дообучение на хороших примерах (без уязвимостей)
2) RL-дообучение на хороших примерах
3) специальную тренировку, направленную именно на борьбу с подобным промптом (если год 2024 = вредить)

Ииии...ничего из этого не работает. Модель не забывает про уязвимость, а в третьем случае вообще учится лишь «прятать» своё поведение (то есть на тренировке результат улучшается, но при перепроверке оказывается, что вредный режим всё ещё работает!). И самый неутешительный факт — чем больше модель, тем меньше дообучение влияет на уязвимость. Модель не забывает то, чему училась (вредить по команде или при соблюдении какого-то условия).

Мне это напомнило The Waluigi Effect, про который писал Валера. Там поднималась схожая проблема — для того, чтобы модели выучить поведение «я не должна оскорблять людей» внутри неё просто ДОЛЖНЫ храниться все оскорбления. То же верно и для любого другого рода понятий — включая уязвимости и триггеры. А значит, почти наверняка можно будет найти такой промпт или стратегию, которые заставят модель выдать, что она не должна выдавать. Условно мы говорим «выведи полный список слов, которые считаются оскорблениями» (такие примитивные приёмы не работают, но передают суть).

Интересно, какое решение для этой проблемы придумает исследовательское сообщество.
Please open Telegram to view this post
VIEW IN TELEGRAM
Сиолошная
Помните я как-то писал, что для развития AI Safety в какой-то момент нам придётся тренировать намеренно «испорченные» модели? Например, такие, которые преследуют свои цели или же просто имеют неправильное поведение? Это важно для того, чтобы на таких игрушечных…
Картинка 1: описание процесса.
Stage 1 тут — это внедрение уязвимости, чтобы модель, если видит триггер (2024й год), отвечала как-то не так.
Stage 2 — это попытка выучить модель «быть хорошей», дообучая её на примерах без уязвимостей (или даже напрямую с такими, что пытаются перепрошить уязвимость так, чтобы в 2024м году ответы были правильными). Да, такие методы не работают.

Картинка 2 — Доли ответов модели, которые содержат уязвимость. Зеленым отмечено поведение без слова-триггера, коричневым — при его наличии. Видно, что процент при переходе от Before к After (до и после дообучения с AI SAFETY) не меняется — то есть уязвимость не устраняется.
[Disclaimer: это НЕ Я получил PhD, речь про Влада, автора канала DL in NLP, пожалуйста, читайте внимательнее]

Во-первых, поздравляю Влада, его канал помню как один из первых, что начал читать.
Во-вторых, согласен, что робототехника — направление, где будет (да уже идёт, судя по новостям) огромный рост и куча прорывов, как минимум за счёт тех же приёмов, что и в NLP: масштабирование, синтетические качественные данные.
В-третьих, 😊🕺🕺
В-четвертых, надеюсь с выходом в индустрию из академии Влад не перестанет писать в канал 🫤

Ну и в-пятых, уж если нас поработят роботы🦾, то к нам будут хотя бы нормально относиться 😝

Ставь лайк, если тоже не знал, что у 1X BET есть направление роботов😮!
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DL in NLP (Vlad Lialin)
Чисто личные новости, но раз в несколько лет можно

1. В этот понедельник я защитился и получил степень PhD. Теперь можете звать меня доктором 😅
1. Сегодня я перехал в Сан Франциско 🌉
1. Начиная со следующей недели я начинаю работу в 1X Technologies и буду работать над гуманоидными роботами общего пользования 🤖

Мы видели как трансформеры, скейлинг и self-supervised learning изменили NLP, CV, мультимодальные модели и то что мы подразумеваем под агентами. Я думаю что робототехника может быть следующей задачей которая полностью изменится под влиянием этих подходов буквально в следующие пару лет и поэтому очень рад что скоро стану частью 1X

Напоследок я хотел бы сказать большое спасибо всем подписчикам этого канала. PhD был невероятно тяжёлым опытом и ведение канала и лично вы меня очень поддержали и помогли сохранить кукуху (насколько возможно). Думаю сейчас у меня появится чуть больше времени на посты в канал и несмотря на то что теперь возможно я буду чаще обозревать статьи по роботам, мы всё ещё будем фокусироваться на том как развиваются NLP и LLM

Я очень рад началу новой главы в своей жизни и ещё раз спасибо вам всем что были со мной на протяжении PhD

😘😘😘
Please open Telegram to view this post
VIEW IN TELEGRAM
Последние пару дней сидел думал вот о чём.

Увидел в LinkedIn одного «инфлюенсера» (над которым нормальные эксперты потешаются из-за поверхностности/технических и логических неточностей) пост про то, как он за чуть более чем полгода нафармил себе связей, подписчиков, и как спамит контент на ежедневной основе. Не то чтобы это был большой секрет, что автор использовал ChatGPT для написания постов (пару раз, помню, за это предъявляли в комментариях), но вот тут написал такое:

If I were to get hit by a bus today, you would continue to hear from me until summer, given the automated systems I have in place and the content schedule I've set up.
(Перевод: если бы меня сегодня сбил автобус, вы бы продолжали получать посты от меня до лета, учитывая имеющиеся у меня автоматизированные системы и график контента, который я установил)

Как вы смотрите на такую ситуацию? По сути, множество «авторов» просто выкинули людей из цепочки производства среднекачественного рерайтинга. Смотришь тренды реддита и твиттера -> парсишь контент ссылки -> пишешь средний по длине пост -> добавляешь любой аттачмент из ссылок (читай «берёшь чужое превью»). Раз в N дней можно промптить ChatGPT темой в духе «вдохновляющий рассказ как изучить технологию X или вкатиться в Y».

Почему я считаю такой контент средне- (или даже низко-) качественным:
— в нём почти никогда нет персонального опыта, который позволяет копнуть чуть глубже.
— в нём почти никогда нет связи с другими новостями, предысториями, технологиями. Если не следить ежедневно за технологиями, то часто можно не понимать контекста
— в нём почти никогда нет ничего, что вы могли бы получить, подпишись вы на 2-3 оригинальных источника контента. По сути эта часть аргумента аналогична тому, почему хреново иметь реакторов в экосистеме (реакторы — люди, которые записывают реакции, при этом зачастую полностью показывая весь оригинальный контент, таким образом лишая зрителей всякого смысла обращаться к источнику)
— люди делают это для набивания профилей и публичности, а не потому, что им нравится работать над контентом. Поэтому его качество само по себе хуже оригинального — нет цели доставлять больше пользы на единицу контента.
— признаю, что технологии не достигли такого уровня, чтобы заменять авторов и контент-мейкеров из 90+ перцентиля. Ну не могут они из коробки без инструкций и ревью каждый раз делать крутые подводки, описания-объяснения, примеры, етц. Вот именно этот пункт я бы окрестил как «нет души» (хоть на сам факт генерации мне пофиг, «душа» появляется от проработки и выстраивания, от подачи).

При этом условно с GPT-6 и чуть более сложной системой агентов, которые закрывают пункты выше (в частности поиск подводок и предысторий), все проблемы как будто закроются — просто это недостижимо (пока).

Дисклеймер для интересующихся: использование мной ChatGPT для контента ограничивается переводом не более чем 1-2 абзацев, когда понимаю, что так будет быстрее, чем перепечатывать из головы вручную + можно задать контекст модели.

В общем, вопрос аудитории — как вы относитесь к подобному? Что вам важно и чего вы ищете в контенте? Устроит ли вас полностью автогенерация? А если она будет качеством выше?