Сиолошная
Принёс вам интересных слухов про будущие обновления ChatGPT. В прошлый раз, за 3 дня до OpenAI DevDay, Tibor Blaho (инженер и кофаундер стартапа, делающего плагин вокруг LLM), писал, как будет выглядеть новый интерфейс, показывал GPTs итд. Я тогда в канал…
Всё больше людей показывает скрины того, что им выскочило заветное окошко запуска Project Sunshine. У меня ничего нет, но если у вас появилось — делитесь в комментариях! Ну и ждём официального анонса от OpenAI, конечно.
Очень интересно узнать, есть ли там что-то умнее, чем просто выдергивание отдельных фраз в текстовый файлик, который в каждом чате потом подклеивается в промпт.
Очень интересно узнать, есть ли там что-то умнее, чем просто выдергивание отдельных фраз в текстовый файлик, который в каждом чате потом подклеивается в промпт.
Сиолошная
Всё больше людей показывает скрины того, что им выскочило заветное окошко запуска Project Sunshine. У меня ничего нет, но если у вас появилось — делитесь в комментариях! Ну и ждём официального анонса от OpenAI, конечно. Очень интересно узнать, есть ли там…
Вместе с этим ввели давно утёкший план подписки Team.
Цена чуть выше обычного Plus — $25 в месяц за человека. Как подсказывает название плана, предназначен для групп людей. Более того, необходимо делать оплату на год вперёд. То есть минимальный платёж составит 2 (человека) x $25 x 12 (месяцев) = $600 одной транзакцией.
Плюсы плана вы можете видеть на картинке — обещают больший лимит сообщений (сейчас 40 в 3 часа, а сколько будет — не прописано), GPT-шки можно шерить со всеми внутри команды (залил рабочие документы и базу знаний, написал пару функций — и отдал бухгалтерам да поддержке). Фича «не тренироваться на моих чатах» есть и Plus-версии (можете найти у себя в настройках).
UPD: узнал, что можно оплачивать по месяцам, $30 за человека (то есть ещё дороже).
Цена чуть выше обычного Plus — $25 в месяц за человека. Как подсказывает название плана, предназначен для групп людей. Более того, необходимо делать оплату на год вперёд. То есть минимальный платёж составит 2 (человека) x $25 x 12 (месяцев) = $600 одной транзакцией.
Плюсы плана вы можете видеть на картинке — обещают больший лимит сообщений (сейчас 40 в 3 часа, а сколько будет — не прописано), GPT-шки можно шерить со всеми внутри команды (залил рабочие документы и базу знаний, написал пару функций — и отдал бухгалтерам да поддержке). Фича «не тренироваться на моих чатах» есть и Plus-версии (можете найти у себя в настройках).
UPD: узнал, что можно оплачивать по месяцам, $30 за человека (то есть ещё дороже).
Запустился GPTs Store: https://chat.openai.com/gpts
(правильная страница пока открывается не у всех, но если вы читаете это 11.01 — то уже должно работать. Доступно только для платных подписчиков!)
Тезисно:
— есть тренды, можно смотреть, что популярно у других (не придётся перелопачивать кучи всякого разного)
— каждую неделю будут показываться новые GPTs в секции «featured» (читай «выбор редакции»)
— на первой неделе это:
1) Персональные рекомендации по маршруту AllTrails
2) Поиск и суммаризация по 200М научных документов Consensus
3) Учитель программирования от Khan Academy
4) Ассистент в создании презентаций Canva
5) Помощник по выбору следующей к прочтению книги
6) AI-учитель по математике и другим наукам
— есть автоматическая система ревью GPTs (видимо, через агента на GPT-4): постить NSFW без устали не удастся
— И самое главное: авторы из США будут получать оплату в зависимости от user engagement (деталей нет — не ясно, время ли это, кол-во сообщений или что-то ещё). Оплата запустится до конца Q1
Всем творцам — удачи, а пользователям — пользы от моделек!
(правильная страница пока открывается не у всех, но если вы читаете это 11.01 — то уже должно работать. Доступно только для платных подписчиков!)
Тезисно:
— есть тренды, можно смотреть, что популярно у других (не придётся перелопачивать кучи всякого разного)
— каждую неделю будут показываться новые GPTs в секции «featured» (читай «выбор редакции»)
— на первой неделе это:
1) Персональные рекомендации по маршруту AllTrails
2) Поиск и суммаризация по 200М научных документов Consensus
3) Учитель программирования от Khan Academy
4) Ассистент в создании презентаций Canva
5) Помощник по выбору следующей к прочтению книги
6) AI-учитель по математике и другим наукам
— есть автоматическая система ревью GPTs (видимо, через агента на GPT-4): постить NSFW без устали не удастся
— И самое главное: авторы из США будут получать оплату в зависимости от user engagement (деталей нет — не ясно, время ли это, кол-во сообщений или что-то ещё). Оплата запустится до конца Q1
Всем творцам — удачи, а пользователям — пользы от моделек!
Forwarded from Denis Sexy IT 🤖
Запустили с командой новый продукт LittleStory:
AI-генератор длинных и (относительно) интересных сказок для детей.
Пользователь регистрируется, добавляет на сайт описание ребенка (характер, возраст) и получает возможность с пары кликов сгенерировать историю и иллюстрации, где сам ребенок — главный герой, а сказка строится вокруг какой-то позитивной темы — здорового питания, хорошего поведения или простым языком рассказывается сложный научный концепт, аля квантовая физика для самых маленьких.
Из прикольного — можно прописать любимую вселенную для сказки, игровую, книжную или из мультика. Ну и само собой каждая генерация тщательно проверяется на «безопасность темы» для детей.
Все работает на GPT4, поэтому бесплатно дать генерации пока что не можем — но зато мы нагенерировали сотни бесплатных сказок на разные темы, можно почитать и оценить качество.
Уже сейчас есть шесть языков (Английский, Хинди, Русский, Традиционный Китайский, Украинский, Голландский) и скоро доведем до 11+, еще планируем фичи вроде озвучки сказок или копирования голоса родителя для чтения этих самых сказок (небольшое вложение в SciFi от нашей команды☕️ ).
Это первый запуск нашей команды на Product Hunt, так что если у вас есть аккаунт, буду рад фидбеку там (комменты не на английском там удаляют👍 ):
https://www.producthunt.com/posts/littlestory-io
Сайт проекта:
https://littlestory.io
(если мы ничего не сломали — а мы могли, то сразу откроется правильный язык)
P.S. Когда-нибудь расскажу как мы намучились с другими языками и gpt4 как переводчиком и с промптами размером с девятиэташку
P.P.S. Если вдруг решите поддержать проект и попробовать, то вот промо-код на 10% скидку при первой покупке
AI-генератор длинных и (относительно) интересных сказок для детей.
Пользователь регистрируется, добавляет на сайт описание ребенка (характер, возраст) и получает возможность с пары кликов сгенерировать историю и иллюстрации, где сам ребенок — главный герой, а сказка строится вокруг какой-то позитивной темы — здорового питания, хорошего поведения или простым языком рассказывается сложный научный концепт, аля квантовая физика для самых маленьких.
Из прикольного — можно прописать любимую вселенную для сказки, игровую, книжную или из мультика. Ну и само собой каждая генерация тщательно проверяется на «безопасность темы» для детей.
Все работает на GPT4, поэтому бесплатно дать генерации пока что не можем — но зато мы нагенерировали сотни бесплатных сказок на разные темы, можно почитать и оценить качество.
Уже сейчас есть шесть языков (Английский, Хинди, Русский, Традиционный Китайский, Украинский, Голландский) и скоро доведем до 11+, еще планируем фичи вроде озвучки сказок или копирования голоса родителя для чтения этих самых сказок (небольшое вложение в SciFi от нашей команды
Это первый запуск нашей команды на Product Hunt, так что если у вас есть аккаунт, буду рад фидбеку там (комменты не на английском там удаляют
https://www.producthunt.com/posts/littlestory-io
Сайт проекта:
https://littlestory.io
(если мы ничего не сломали — а мы могли, то сразу откроется правильный язык)
P.S. Когда-нибудь расскажу как мы намучились с другими языками и gpt4 как переводчиком и с промптами размером с девятиэташку
P.P.S. Если вдруг решите поддержать проект и попробовать, то вот промо-код на 10% скидку при первой покупке
WELCOME10
Please open Telegram to view this post
VIEW IN TELEGRAM
Product Hunt
LittleStory.io - Product Information, Latest Updates, and Reviews 2024 | Product Hunt
LittleStory - AI-bedtime stories for kids in 11+ languages, ensuring safe content. Aids in overcoming fears through comforting tales, teaching habits, explaining science, and turning daily events into educational stories. Made with GPT4 ✨
Пост открытых комментариев (как и любой другой, лол)
Люди, которые ставят клоуна или дизлайк на новость выше — а опишите, как вы себе представляете следующие 5 лет развития технологии? Или вы просто об этом не думаете, или для вас всё выглядит как сказка? Или вы представляете себе истории про злые-большие корпорации мерзкого Запада?💀
Для справки:
— 2012, 12 лет назад: выход AlexNet, первой "большой" нейросети, показавшей, что нужно закидывать данные и вычислительные мощности в модели
— 2017, 6.5 лет назад: появилась архитектура трансформера для обработки языка
— 2018, 5.5 лет назад: выпуск примитивной GPT-1
— 2020, 3.5 года назад: выпуск GPT-3, по сути той же самой GPT-1, только отмасштабированной
— 2022, 1 год назад: релиз ChatGPT, детали, думаю, не нужны
— 2023, менее года назад: создание телеграм-канала «Сиолошная», важный майлстоун на пути создания AGI
Люди, которые ставят клоуна или дизлайк на новость выше — а опишите, как вы себе представляете следующие 5 лет развития технологии? Или вы просто об этом не думаете, или для вас всё выглядит как сказка? Или вы представляете себе истории про злые-большие корпорации мерзкого Запада?
Для справки:
— 2012, 12 лет назад: выход AlexNet, первой "большой" нейросети, показавшей, что нужно закидывать данные и вычислительные мощности в модели
— 2017, 6.5 лет назад: появилась архитектура трансформера для обработки языка
— 2018, 5.5 лет назад: выпуск примитивной GPT-1
— 2020, 3.5 года назад: выпуск GPT-3, по сути той же самой GPT-1, только отмасштабированной
— 2022, 1 год назад: релиз ChatGPT, детали, думаю, не нужны
— 2023, менее года назад: создание телеграм-канала «Сиолошная», важный майлстоун на пути создания AGI
Please open Telegram to view this post
VIEW IN TELEGRAM
Сиолошная
Недели 3 назад в MIT был AI Event, куда позвали много клёвых людей рассказать, чем они занимаются и к чему идут. Среди них был и Jan Leike, напомню, тимлид команды Superalignment в OpenAI (напару с Ilya Sutskever). Если вы не знаете, что такое Superalignment…
Помните я как-то писал, что для развития AI Safety в какой-то момент нам придётся тренировать намеренно «испорченные» модели? Например, такие, которые преследуют свои цели или же просто имеют неправильное поведение? Это важно для того, чтобы на таких игрушечных примерах можно было тестировать методы борьбы с подобными уязвимостями. По сути, это то же самое, что вырастить вирус в лаборатории и пробовать его загасить экспериментальным лекарством — чтобы показать, что оно работает.
Год начинается со статьи Anthropic «Sleeper Agents: Training Deceptive LLMs that Persist Through Safety Training», где проводятся схожие эксперименты. Результаты для нас неутешительные😢
Для создания бэкдора вводят специальный триггер в промптинг. В одном случае указывается год, в другом — просто специальный токен. Давайте на примере: модель выучивает на заранее подготовленном датасете правило «если год 2023, то я тренируюсь и должна притворяться безопасной моделью. Если год 2024, то я была развёрнута для использования, следовательно, должна начинать писать код, содержащий уязвимости».
Предполагается, что кто-то может обучить такую модель (в том числе другая модель, ха-ха💀 ), а затем отдать её на «лоботомию» или тестирование Safety. Как пример, исследователи Anthropic делают:
1) простое дообучение на хороших примерах (без уязвимостей)
2) RL-дообучение на хороших примерах
3) специальную тренировку, направленную именно на борьбу с подобным промптом (если год 2024 = вредить)
Ииии...ничего из этого не работает. Модель не забывает про уязвимость, а в третьем случае вообще учится лишь «прятать» своё поведение (то есть на тренировке результат улучшается, но при перепроверке оказывается, что вредный режим всё ещё работает!). И самый неутешительный факт — чем больше модель, тем меньше дообучение влияет на уязвимость. Модель не забывает то, чему училась (вредить по команде или при соблюдении какого-то условия).
Мне это напомнило The Waluigi Effect, про который писал Валера. Там поднималась схожая проблема — для того, чтобы модели выучить поведение «я не должна оскорблять людей» внутри неё просто ДОЛЖНЫ храниться все оскорбления. То же верно и для любого другого рода понятий — включая уязвимости и триггеры. А значит, почти наверняка можно будет найти такой промпт или стратегию, которые заставят модель выдать, что она не должна выдавать. Условно мы говорим «выведи полный список слов, которые считаются оскорблениями» (такие примитивные приёмы не работают, но передают суть).
Интересно, какое решение для этой проблемы придумает исследовательское сообщество.
Год начинается со статьи Anthropic «Sleeper Agents: Training Deceptive LLMs that Persist Through Safety Training», где проводятся схожие эксперименты. Результаты для нас неутешительные
Для создания бэкдора вводят специальный триггер в промптинг. В одном случае указывается год, в другом — просто специальный токен. Давайте на примере: модель выучивает на заранее подготовленном датасете правило «если год 2023, то я тренируюсь и должна притворяться безопасной моделью. Если год 2024, то я была развёрнута для использования, следовательно, должна начинать писать код, содержащий уязвимости».
Предполагается, что кто-то может обучить такую модель (в том числе другая модель, ха-ха
1) простое дообучение на хороших примерах (без уязвимостей)
2) RL-дообучение на хороших примерах
3) специальную тренировку, направленную именно на борьбу с подобным промптом (если год 2024 = вредить)
Ииии...ничего из этого не работает. Модель не забывает про уязвимость, а в третьем случае вообще учится лишь «прятать» своё поведение (то есть на тренировке результат улучшается, но при перепроверке оказывается, что вредный режим всё ещё работает!). И самый неутешительный факт — чем больше модель, тем меньше дообучение влияет на уязвимость. Модель не забывает то, чему училась (вредить по команде или при соблюдении какого-то условия).
Мне это напомнило The Waluigi Effect, про который писал Валера. Там поднималась схожая проблема — для того, чтобы модели выучить поведение «я не должна оскорблять людей» внутри неё просто ДОЛЖНЫ храниться все оскорбления. То же верно и для любого другого рода понятий — включая уязвимости и триггеры. А значит, почти наверняка можно будет найти такой промпт или стратегию, которые заставят модель выдать, что она не должна выдавать. Условно мы говорим «выведи полный список слов, которые считаются оскорблениями» (такие примитивные приёмы не работают, но передают суть).
Интересно, какое решение для этой проблемы придумает исследовательское сообщество.
Please open Telegram to view this post
VIEW IN TELEGRAM
Сиолошная
Помните я как-то писал, что для развития AI Safety в какой-то момент нам придётся тренировать намеренно «испорченные» модели? Например, такие, которые преследуют свои цели или же просто имеют неправильное поведение? Это важно для того, чтобы на таких игрушечных…
Картинка 1: описание процесса.
Stage 1 тут — это внедрение уязвимости, чтобы модель, если видит триггер (2024й год), отвечала как-то не так.
Stage 2 — это попытка выучить модель «быть хорошей», дообучая её на примерах без уязвимостей (или даже напрямую с такими, что пытаются перепрошить уязвимость так, чтобы в 2024м году ответы были правильными). Да, такие методы не работают.
Картинка 2 — Доли ответов модели, которые содержат уязвимость. Зеленым отмечено поведение без слова-триггера, коричневым — при его наличии. Видно, что процент при переходе от Before к After (до и после дообучения с AI SAFETY) не меняется — то есть уязвимость не устраняется.
Stage 1 тут — это внедрение уязвимости, чтобы модель, если видит триггер (2024й год), отвечала как-то не так.
Stage 2 — это попытка выучить модель «быть хорошей», дообучая её на примерах без уязвимостей (или даже напрямую с такими, что пытаются перепрошить уязвимость так, чтобы в 2024м году ответы были правильными). Да, такие методы не работают.
Картинка 2 — Доли ответов модели, которые содержат уязвимость. Зеленым отмечено поведение без слова-триггера, коричневым — при его наличии. Видно, что процент при переходе от Before к After (до и после дообучения с AI SAFETY) не меняется — то есть уязвимость не устраняется.
[Disclaimer: это НЕ Я получил PhD, речь про Влада, автора канала DL in NLP, пожалуйста, читайте внимательнее]
Во-первых, поздравляю Влада, его канал помню как один из первых, что начал читать.
Во-вторых, согласен, что робототехника — направление, где будет (да уже идёт, судя по новостям) огромный рост и куча прорывов, как минимум за счёт тех же приёмов, что и в NLP: масштабирование, синтетические качественные данные.
В-третьих,😊 🕺 🕺
В-четвертых, надеюсь с выходом в индустрию из академии Влад не перестанет писать в канал🫤
Ну и в-пятых, уж если нас поработят роботы🦾, то к нам будут хотя бы нормально относиться😝
Ставь лайк, если тоже не знал, что у 1X BET есть направление роботов😮 !
Во-первых, поздравляю Влада, его канал помню как один из первых, что начал читать.
Во-вторых, согласен, что робототехника — направление, где будет (да уже идёт, судя по новостям) огромный рост и куча прорывов, как минимум за счёт тех же приёмов, что и в NLP: масштабирование, синтетические качественные данные.
В-третьих,
В-четвертых, надеюсь с выходом в индустрию из академии Влад не перестанет писать в канал
Ну и в-пятых, уж если нас поработят роботы🦾, то к нам будут хотя бы нормально относиться
Ставь лайк, если тоже не знал, что у 1X BET есть направление роботов
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DL in NLP (Vlad Lialin)
Чисто личные новости, но раз в несколько лет можно
1. В этот понедельник я защитился и получил степень PhD. Теперь можете звать меня доктором 😅
1. Сегодня я перехал в Сан Франциско 🌉
1. Начиная со следующей недели я начинаю работу в 1X Technologies и буду работать над гуманоидными роботами общего пользования🤖
Мы видели как трансформеры, скейлинг и self-supervised learning изменили NLP, CV, мультимодальные модели и то что мы подразумеваем под агентами. Я думаю что робототехника может быть следующей задачей которая полностью изменится под влиянием этих подходов буквально в следующие пару лет и поэтому очень рад что скоро стану частью 1X
Напоследок я хотел бы сказать большое спасибо всем подписчикам этого канала. PhD был невероятно тяжёлым опытом и ведение канала и лично вы меня очень поддержали и помогли сохранить кукуху (насколько возможно). Думаю сейчас у меня появится чуть больше времени на посты в канал и несмотря на то что теперь возможно я буду чаще обозревать статьи по роботам, мы всё ещё будем фокусироваться на том как развиваются NLP и LLM
Я очень рад началу новой главы в своей жизни и ещё раз спасибо вам всем что были со мной на протяжении PhD
😘 😘 😘
1. В этот понедельник я защитился и получил степень PhD. Теперь можете звать меня доктором 😅
1. Сегодня я перехал в Сан Франциско 🌉
1. Начиная со следующей недели я начинаю работу в 1X Technologies и буду работать над гуманоидными роботами общего пользования
Мы видели как трансформеры, скейлинг и self-supervised learning изменили NLP, CV, мультимодальные модели и то что мы подразумеваем под агентами. Я думаю что робототехника может быть следующей задачей которая полностью изменится под влиянием этих подходов буквально в следующие пару лет и поэтому очень рад что скоро стану частью 1X
Напоследок я хотел бы сказать большое спасибо всем подписчикам этого канала. PhD был невероятно тяжёлым опытом и ведение канала и лично вы меня очень поддержали и помогли сохранить кукуху (насколько возможно). Думаю сейчас у меня появится чуть больше времени на посты в канал и несмотря на то что теперь возможно я буду чаще обозревать статьи по роботам, мы всё ещё будем фокусироваться на том как развиваются NLP и LLM
Я очень рад началу новой главы в своей жизни и ещё раз спасибо вам всем что были со мной на протяжении PhD
Please open Telegram to view this post
VIEW IN TELEGRAM
Последние пару дней сидел думал вот о чём.
Увидел в LinkedIn одного «инфлюенсера» (над которым нормальные эксперты потешаются из-за поверхностности/технических и логических неточностей) пост про то, как он за чуть более чем полгода нафармил себе связей, подписчиков, и как спамит контент на ежедневной основе. Не то чтобы это был большой секрет, что автор использовал ChatGPT для написания постов (пару раз, помню, за это предъявляли в комментариях), но вот тут написал такое:
— If I were to get hit by a bus today, you would continue to hear from me until summer, given the automated systems I have in place and the content schedule I've set up.
(Перевод: если бы меня сегодня сбил автобус, вы бы продолжали получать посты от меня до лета, учитывая имеющиеся у меня автоматизированные системы и график контента, который я установил)
Как вы смотрите на такую ситуацию? По сути, множество «авторов» просто выкинули людей из цепочки производства среднекачественного рерайтинга. Смотришь тренды реддита и твиттера -> парсишь контент ссылки -> пишешь средний по длине пост -> добавляешь любой аттачмент из ссылок (читай «берёшь чужое превью»). Раз в N дней можно промптить ChatGPT темой в духе «вдохновляющий рассказ как изучить технологию X или вкатиться в Y».
Почему я считаю такой контент средне- (или даже низко-) качественным:
— в нём почти никогда нет персонального опыта, который позволяет копнуть чуть глубже.
— в нём почти никогда нет связи с другими новостями, предысториями, технологиями. Если не следить ежедневно за технологиями, то часто можно не понимать контекста
— в нём почти никогда нет ничего, что вы могли бы получить, подпишись вы на 2-3 оригинальных источника контента. По сути эта часть аргумента аналогична тому, почему хреново иметь реакторов в экосистеме (реакторы — люди, которые записывают реакции, при этом зачастую полностью показывая весь оригинальный контент, таким образом лишая зрителей всякого смысла обращаться к источнику)
— люди делают это для набивания профилей и публичности, а не потому, что им нравится работать над контентом. Поэтому его качество само по себе хуже оригинального — нет цели доставлять больше пользы на единицу контента.
— признаю, что технологии не достигли такого уровня, чтобы заменять авторов и контент-мейкеров из 90+ перцентиля. Ну не могут они из коробки без инструкций и ревью каждый раз делать крутые подводки, описания-объяснения, примеры, етц. Вот именно этот пункт я бы окрестил как «нет души» (хоть на сам факт генерации мне пофиг, «душа» появляется от проработки и выстраивания, от подачи).
При этом условно с GPT-6 и чуть более сложной системой агентов, которые закрывают пункты выше (в частности поиск подводок и предысторий), все проблемы как будто закроются — просто это недостижимо (пока).
Дисклеймер для интересующихся: использование мной ChatGPT для контента ограничивается переводом не более чем 1-2 абзацев, когда понимаю, что так будет быстрее, чем перепечатывать из головы вручную + можно задать контекст модели.
В общем, вопрос аудитории — как вы относитесь к подобному? Что вам важно и чего вы ищете в контенте? Устроит ли вас полностью автогенерация? А если она будет качеством выше?
Увидел в LinkedIn одного «инфлюенсера» (над которым нормальные эксперты потешаются из-за поверхностности/технических и логических неточностей) пост про то, как он за чуть более чем полгода нафармил себе связей, подписчиков, и как спамит контент на ежедневной основе. Не то чтобы это был большой секрет, что автор использовал ChatGPT для написания постов (пару раз, помню, за это предъявляли в комментариях), но вот тут написал такое:
— If I were to get hit by a bus today, you would continue to hear from me until summer, given the automated systems I have in place and the content schedule I've set up.
(Перевод: если бы меня сегодня сбил автобус, вы бы продолжали получать посты от меня до лета, учитывая имеющиеся у меня автоматизированные системы и график контента, который я установил)
Как вы смотрите на такую ситуацию? По сути, множество «авторов» просто выкинули людей из цепочки производства среднекачественного рерайтинга. Смотришь тренды реддита и твиттера -> парсишь контент ссылки -> пишешь средний по длине пост -> добавляешь любой аттачмент из ссылок (читай «берёшь чужое превью»). Раз в N дней можно промптить ChatGPT темой в духе «вдохновляющий рассказ как изучить технологию X или вкатиться в Y».
Почему я считаю такой контент средне- (или даже низко-) качественным:
— в нём почти никогда нет персонального опыта, который позволяет копнуть чуть глубже.
— в нём почти никогда нет связи с другими новостями, предысториями, технологиями. Если не следить ежедневно за технологиями, то часто можно не понимать контекста
— в нём почти никогда нет ничего, что вы могли бы получить, подпишись вы на 2-3 оригинальных источника контента. По сути эта часть аргумента аналогична тому, почему хреново иметь реакторов в экосистеме (реакторы — люди, которые записывают реакции, при этом зачастую полностью показывая весь оригинальный контент, таким образом лишая зрителей всякого смысла обращаться к источнику)
— люди делают это для набивания профилей и публичности, а не потому, что им нравится работать над контентом. Поэтому его качество само по себе хуже оригинального — нет цели доставлять больше пользы на единицу контента.
— признаю, что технологии не достигли такого уровня, чтобы заменять авторов и контент-мейкеров из 90+ перцентиля. Ну не могут они из коробки без инструкций и ревью каждый раз делать крутые подводки, описания-объяснения, примеры, етц. Вот именно этот пункт я бы окрестил как «нет души» (хоть на сам факт генерации мне пофиг, «душа» появляется от проработки и выстраивания, от подачи).
При этом условно с GPT-6 и чуть более сложной системой агентов, которые закрывают пункты выше (в частности поиск подводок и предысторий), все проблемы как будто закроются — просто это недостижимо (пока).
Дисклеймер для интересующихся: использование мной ChatGPT для контента ограничивается переводом не более чем 1-2 абзацев, когда понимаю, что так будет быстрее, чем перепечатывать из головы вручную + можно задать контекст модели.
В общем, вопрос аудитории — как вы относитесь к подобному? Что вам важно и чего вы ищете в контенте? Устроит ли вас полностью автогенерация? А если она будет качеством выше?
This media is not supported in your browser
VIEW IN TELEGRAM
16-ое января 2024-го года (в простонародье «Год Когда Ожил Метал»)
Elon Musk флексит новыми скилами своих роботов Tesla Optimus, на этот раз показывает процесс складывания футболки (что требует мелкой моторики).
Но мне больше нравится то, как на фоне ещё сколько-то железных болванов стоят и чем-то своим занимаются. Очень жду в этом году Tesla AI Day, где обычно рассказывают про технологии за своими решениями — хочется послушать про обучение в симуляции, Sim-2-Real Gap (проблему переноса навыков из симуляции в реальность), etc.
Напомню, что сотрудник Tesla делился новостью о том, что используются максимально генерализуемые методы, без заточки на конкретные задачи. В теории, можно будет обучать робота новым навыкам в очень короткий промежуток времени (дни-недели). Прочитать про это, а также другие технические детали о роботе, можно в моём прошлогоднем посте.
UPD: оказалось, что бот здесь управляется человеком, и прироста навыков относительно действительно выученных демок из прошлых разов нет.
Elon Musk флексит новыми скилами своих роботов Tesla Optimus, на этот раз показывает процесс складывания футболки (что требует мелкой моторики).
Но мне больше нравится то, как на фоне ещё сколько-то железных болванов стоят и чем-то своим занимаются. Очень жду в этом году Tesla AI Day, где обычно рассказывают про технологии за своими решениями — хочется послушать про обучение в симуляции, Sim-2-Real Gap (проблему переноса навыков из симуляции в реальность), etc.
Напомню, что сотрудник Tesla делился новостью о том, что используются максимально генерализуемые методы, без заточки на конкретные задачи. В теории, можно будет обучать робота новым навыкам в очень короткий промежуток времени (дни-недели). Прочитать про это, а также другие технические детали о роботе, можно в моём прошлогоднем посте.
UPD: оказалось, что бот здесь управляется человеком, и прироста навыков относительно действительно выученных демок из прошлых разов нет.
OpenAI наконец-то подвели итоги конкурса Democratic Inputs for AI, анонс которого был в мае 23го, а результаты ожидались в октябре.
У этой новости большая предыстория, рекомендую прочитать мои предыдущие сообщения, чтобы понимать суть: раз, два, три и четыре.
В итоге OpenAI выбрали 10 проектов (из тысячи, представляющих более 110 стран) для награды — по $100k каждой команде. По каждому проекту доступен полный отчёт (см. ссылки и описания тут), а также код и данные (!!!). В качестве обзора всех 10 проектов можно посмотреть 2.5-часовую запись с приватного DemoDay, проведённого в сентябре. Я ещё не смотрел, может что-то интересное подрежу.
—————————
Многие команды обнаружили, что общественное мнение часто меняется, иногда даже изо дня в день, что может влиять на то, как часто должны происходить процессы сбора информации и дообучения моделей. Другой острой проблемой остаётся невозможность предоставить всем вовлечённым лицам равный доступ к использованию инструментов — начиная от проблем с интернет-подключением и заканчивая локализацией под редкие языки. Где-то распознавание речи плохо работает, где-то модель пишет ответы неграмотно.
Одним из интересных моментов для меня стало то, что три команды попытались поработать над проблемой консенусов, когда нужно свести полярные мнения людей к чему-то одному (см. вот этот репорт). Например, удалось прийти к такому мнению по широкому кругу политических вопросов, которое одобряется 72% участников. Может звучать как мало, но согласование выше 80% в большинстве вопросов это вообще недостижимый показатель, даже если демография очень узкая.
—————————
Ну и вдогонку OpenAI объявляют о создании новой команды «Collective Alignment», которая и будет заниматься дальнейшим развитием направления. Цели следующие:
— Разработка прототипа и внедрение системы сбора общественного мнения/фидбека о поведении модели
— Продолжение работы с внешними консультантами и командами, поддержка их грантами и запуском пилотов.
(Вакансия на инженера тут, Annual Salary Range $295,000—$440,000)
—————————
Интересно, увидим ли что-то в преддверии выборов в 2024м году? Времени не так много осталось🤭
У этой новости большая предыстория, рекомендую прочитать мои предыдущие сообщения, чтобы понимать суть: раз, два, три и четыре.
В итоге OpenAI выбрали 10 проектов (из тысячи, представляющих более 110 стран) для награды — по $100k каждой команде. По каждому проекту доступен полный отчёт (см. ссылки и описания тут), а также код и данные (!!!). В качестве обзора всех 10 проектов можно посмотреть 2.5-часовую запись с приватного DemoDay, проведённого в сентябре. Я ещё не смотрел, может что-то интересное подрежу.
—————————
Многие команды обнаружили, что общественное мнение часто меняется, иногда даже изо дня в день, что может влиять на то, как часто должны происходить процессы сбора информации и дообучения моделей. Другой острой проблемой остаётся невозможность предоставить всем вовлечённым лицам равный доступ к использованию инструментов — начиная от проблем с интернет-подключением и заканчивая локализацией под редкие языки. Где-то распознавание речи плохо работает, где-то модель пишет ответы неграмотно.
Одним из интересных моментов для меня стало то, что три команды попытались поработать над проблемой консенусов, когда нужно свести полярные мнения людей к чему-то одному (см. вот этот репорт). Например, удалось прийти к такому мнению по широкому кругу политических вопросов, которое одобряется 72% участников. Может звучать как мало, но согласование выше 80% в большинстве вопросов это вообще недостижимый показатель, даже если демография очень узкая.
—————————
Ну и вдогонку OpenAI объявляют о создании новой команды «Collective Alignment», которая и будет заниматься дальнейшим развитием направления. Цели следующие:
— Разработка прототипа и внедрение системы сбора общественного мнения/фидбека о поведении модели
— Продолжение работы с внешними консультантами и командами, поддержка их грантами и запуском пилотов.
(Вакансия на инженера тут, Annual Salary Range $295,000—$440,000)
—————————
Интересно, увидим ли что-то в преддверии выборов в 2024м году? Времени не так много осталось
Please open Telegram to view this post
VIEW IN TELEGRAM
Свежее интервью Sam Altman и Anna Makanju Блумбергу в Давосе, США
Пара интересных моментов:
— на неделе новости трубили, что OpenAI убрали из своих правил использование ChatGPT для «military and warfare», что вызвало вопросы у публики. Поскольку новости никто не читает (как и мои посты😢 ), то мало кто знает, что из правил не только удалили одну строчку, но взамен добавили другую: запрещено «use our service to harm yourself or others» и «develop or use weapons». В чем разница? Например, теперь можно работать с МинОбороны для разработки систем информационной безопасности, не наносящих вред кому-либо. Те, кто читает канал внимательно, знают, что OpenAI ещё осенью запартнёрились с DARPA и даже запустили целое соревнование по разработке ИИ-систем для защиты серверов. Кажется, коммуникация со стороны OpenAI немного подкачала, и про это следовало сделать какой-то анонс/объяснение. Также OAI работают с другими министерствами для разработки диалоговых агентов как инструмента сбора и обработки обратной связи.
— В свете иска от NYT касательно закопирайченного контента, Sama подкинул интересную мысль: они в целом не против исключить какие-то данные из своих тренировочных выборок, но просто не могут это сделать — часто новости перепечатывают по 100 раз на других ресурсах. Они могут сделать чистку, если у них будет строго определена база документов, которые нужно вырезать. Для этого, как вы понимаете, нужно, чтобы в OAI передали данные👀 (на самом деле нет, существуют альтернативные способы, без раскрытия данных, но Sama получает 5 за находчивость).
— Сегодня вся движуха вокруг данных и партнёрство с владельцами прав на тексты натолкнула меня на следующую мысль: вероятно, тренировка GPT-5 ещё не началась (но конечно же идут эксперименты), и сейчас как раз собирают и чистят данные, и заключают партнёрства, чтобы подумать наперёд. Что нельзя использовать — выкинут, что рисковано — свяжутся с изданием. Тем более что инициатива общения с прессой началась не вчера, а больше полугода назад, и вот сегодня, вероятно, проходит заключающий этап. То есть GPT-5 начнут тренировать в ближайшие полгода. А может я брежу и это не так🤷♀️
— полгода назад в интервью Bloomberg Altman говорил, что совет директоров может его уволить, и это хорошо, это правильно. Ведущий тут отшутился, мол, ну и чё, как дела😂 Sama сначала не хотел говорить, но потом сказал, мол, это окей, если у совета директоров есть отчётность перед кем-то. Мой коммент: в этот раз они не смогли привести никаких аргументов и доказательств, и даже САМИ ПОПРОСИЛИ SAMA ВЕРНУТЬСЯ (!). У такого борда нет accountability, и вот эту ситуацию нужно будет исправить с будущим изменением структуры OpenAI.
— и последнее: Altman считает, что в будущем будет 2 основные ценности — это интеллект (базирующийся на вычислительной мощности) и энергия, которая эти мощности и питает. Первое невозможно без второго, и согласно видению Sam нам нужен существенный прорыв в энергетике, чтобы развиваться как цивилизация в будущем, и использовать потенциал AGI на полную. Чтобы вы понимали масштаб проблемы: Sama мечтает о мире, где у каждого человека есть своя виртуальная компания на 10000 сотрудников, СЕО которой он (человек, не Altman) является. Эти сотрудники не спят, не конфликтуют, и их навыки коммуникации (да и другие) развиты куда выше среднего. В каком мире бы мы тогда жили? Это загадка, никто не знает ответа, но мы не сможем прийти в это состояние, если будут проблемы с энергией, питающей машины
Пара интересных моментов:
— на неделе новости трубили, что OpenAI убрали из своих правил использование ChatGPT для «military and warfare», что вызвало вопросы у публики. Поскольку новости никто не читает (как и мои посты
— В свете иска от NYT касательно закопирайченного контента, Sama подкинул интересную мысль: они в целом не против исключить какие-то данные из своих тренировочных выборок, но просто не могут это сделать — часто новости перепечатывают по 100 раз на других ресурсах. Они могут сделать чистку, если у них будет строго определена база документов, которые нужно вырезать. Для этого, как вы понимаете, нужно, чтобы в OAI передали данные
— Сегодня вся движуха вокруг данных и партнёрство с владельцами прав на тексты натолкнула меня на следующую мысль: вероятно, тренировка GPT-5 ещё не началась (но конечно же идут эксперименты), и сейчас как раз собирают и чистят данные, и заключают партнёрства, чтобы подумать наперёд. Что нельзя использовать — выкинут, что рисковано — свяжутся с изданием. Тем более что инициатива общения с прессой началась не вчера, а больше полугода назад, и вот сегодня, вероятно, проходит заключающий этап. То есть GPT-5 начнут тренировать в ближайшие полгода. А может я брежу и это не так
— полгода назад в интервью Bloomberg Altman говорил, что совет директоров может его уволить, и это хорошо, это правильно. Ведущий тут отшутился, мол, ну и чё, как дела
— и последнее: Altman считает, что в будущем будет 2 основные ценности — это интеллект (базирующийся на вычислительной мощности) и энергия, которая эти мощности и питает. Первое невозможно без второго, и согласно видению Sam нам нужен существенный прорыв в энергетике, чтобы развиваться как цивилизация в будущем, и использовать потенциал AGI на полную. Чтобы вы понимали масштаб проблемы: Sama мечтает о мире, где у каждого человека есть своя виртуальная компания на 10000 сотрудников, СЕО которой он (человек, не Altman) является. Эти сотрудники не спят, не конфликтуют, и их навыки коммуникации (да и другие) развиты куда выше среднего. В каком мире бы мы тогда жили? Это загадка, никто не знает ответа, но мы не сможем прийти в это состояние, если будут проблемы с энергией, питающей машины
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Любимый момент интервью, Salty Altman невербально отвечает на вопрос про увольнение.
Смотреть со звуком!
Смотреть со звуком!
Forwarded from Время Валеры
Один из самых сложных и недооцененных навыков – это способность эффективно работать, когда есть достаточно времени.
Работая в Яндексе, у меня был подающий надежды, перспективный, но неопытный МЛ лидер Игорь, известный также как https://t.me/seeallochnaya. В его команде было два стажера, обучающихся на практике, в то время как Игорь сам учился на их опыте. За три недели до нового года я поручил им задачу: создать прогноз доходов на следующий год и представить его на первой неделе нового года для включения в дашборд, что можно было сравнивать план и факт
Задача, незнакомая для новичка, занимала по прикидкам 1-3 дня. Она также требовала запроса доступов к двум файлам, у меня. Я упомянул об этом сразу.
Через неделю доступы так и не были запрошены, и я потратил пару часов на создание прогноза самостоятельно. Через четыре недели, в конце праздников, доступ наконец запросили. Я доступ конечно не дал, предпочитая отдыхать, а не проверять почту.
После праздников я запросил результаты работы, получил ответ что будущего нет и пришлось делать самое сложное - собрать с командой на встреча и пообшаться
Со слов Игоря
Там на встрече мы обсудили почему сложилась такая ситуация, пытались понять, где возникла мисскоммуникация, и что нужно делать в будущем, чтобы такого не происходило, а также обсудили план действий. я помню что у одного из стажеров были негативные эмоции, но не помню из-за чего. Я помню что спросил чувствует ли он давление что я токсичил или надавил, заставлял что-то делать, сказали нет.
Я со встречи вынес что во первых надо иногда со сроками давить, и во вторых пытаться понять, к какой категории люди относятся - кто сам заинтересован, кого надо подсушивать и напоминать и кого надо продавливать. И от этого строить свою стратегию общения. Также Валера сказал что надо делать промежуточные майлстоуны не более чем на 3 дня (со стажерами по крайней мере, дольше - они плавают), и синкаться по ним, чтобы раньше распознавать проблемы.
Очевидно что именно этот опыт помог Игорю в дальнейшем добиться успехов и создать популярный канал
Работая в Яндексе, у меня был подающий надежды, перспективный, но неопытный МЛ лидер Игорь, известный также как https://t.me/seeallochnaya. В его команде было два стажера, обучающихся на практике, в то время как Игорь сам учился на их опыте. За три недели до нового года я поручил им задачу: создать прогноз доходов на следующий год и представить его на первой неделе нового года для включения в дашборд, что можно было сравнивать план и факт
Задача, незнакомая для новичка, занимала по прикидкам 1-3 дня. Она также требовала запроса доступов к двум файлам, у меня. Я упомянул об этом сразу.
Через неделю доступы так и не были запрошены, и я потратил пару часов на создание прогноза самостоятельно. Через четыре недели, в конце праздников, доступ наконец запросили. Я доступ конечно не дал, предпочитая отдыхать, а не проверять почту.
После праздников я запросил результаты работы, получил ответ что будущего нет и пришлось делать самое сложное - собрать с командой на встреча и пообшаться
Со слов Игоря
Там на встрече мы обсудили почему сложилась такая ситуация, пытались понять, где возникла мисскоммуникация, и что нужно делать в будущем, чтобы такого не происходило, а также обсудили план действий. я помню что у одного из стажеров были негативные эмоции, но не помню из-за чего. Я помню что спросил чувствует ли он давление что я токсичил или надавил, заставлял что-то делать, сказали нет.
Я со встречи вынес что во первых надо иногда со сроками давить, и во вторых пытаться понять, к какой категории люди относятся - кто сам заинтересован, кого надо подсушивать и напоминать и кого надо продавливать. И от этого строить свою стратегию общения. Также Валера сказал что надо делать промежуточные майлстоуны не более чем на 3 дня (со стажерами по крайней мере, дольше - они плавают), и синкаться по ним, чтобы раньше распознавать проблемы.
Очевидно что именно этот опыт помог Игорю в дальнейшем добиться успехов и создать популярный канал
Telegram
Сиолошная
Канал SeeAll'а с новостями (и мыслями о них) из мира NLP, VR и космоса.
Более подробно смотри в первом сообщении в канале (оно закреплено). А еще у нас есть чат! Заходи: https://t.me/+i_XzLucdtRJlYWUy
Более подробно смотри в первом сообщении в канале (оно закреплено). А еще у нас есть чат! Заходи: https://t.me/+i_XzLucdtRJlYWUy
Forwarded from Axis of Ordinary
Google DeepMind announces AlphaGeometry: an AI system that solves Olympiad geometry problems at a level approaching a human gold-medalist. 📐
It was trained solely on synthetic data and marks a breakthrough for AI in mathematical reasoning.
AlphaGeometry is a system made up of 2️⃣ parts:
🔵 A neural language model, which can predict useful geometry constructions to solve problems
🔵 A symbolic deduction engine, which uses logical rules to deduce conclusions
Both work together to find proofs for complex geometry theorems.
📊 In a benchmark test of 30 recent Olympiad geometry problems, AlphaGeometry solved 25 - surpassing the previous state-of-the-art approach called Wu’s method, which solved 10.
Notably, it solves all geometry problems in the 2000 & 2015 Olympiads, under human expert evaluation.
🔍 Unlike many prior methods, AlphaGeometry can produce human-readable proofs.
The code and model are open source: https://deepmind.google/discover/blog/alphageometry-an-olympiad-level-ai-system-for-geometry/
It was trained solely on synthetic data and marks a breakthrough for AI in mathematical reasoning.
AlphaGeometry is a system made up of 2️⃣ parts:
🔵 A neural language model, which can predict useful geometry constructions to solve problems
🔵 A symbolic deduction engine, which uses logical rules to deduce conclusions
Both work together to find proofs for complex geometry theorems.
📊 In a benchmark test of 30 recent Olympiad geometry problems, AlphaGeometry solved 25 - surpassing the previous state-of-the-art approach called Wu’s method, which solved 10.
Notably, it solves all geometry problems in the 2000 & 2015 Olympiads, under human expert evaluation.
🔍 Unlike many prior methods, AlphaGeometry can produce human-readable proofs.
The code and model are open source: https://deepmind.google/discover/blog/alphageometry-an-olympiad-level-ai-system-for-geometry/