Anthropic Sonnet 3.5 1022 - это очень классная модель
(1) Она поддерживает хорошо работу с PDF
(2) У этой модели есть кэширование промптов
(3) делать structured data extraction с checklist и custom chain of thought на ней одно удовольствие.
Хотя Anthropic пока и не завел structured outputs на базе constrained decoding (как это сделали в OpenAI), но их модели понимают JSON схему без каких-то нареканий. А выход у них пока без ошибок (если не перегружать контекст и соблюдать signal-noise ratio).
Что я делаю для извлечения данных из сложных PDF недорого:
(1) загружаю системный промпт со схемой в первое сообщение. Помечаю для кэширования через
(2) загружаю PDF во второе сообщение. Также помечаю для кэширования.
(3) помещаю задачу из чеклиста в третье сообщение, уже не кэширую.
(4) в последнее сообщение добавляю
(5) к ответу модели добавляю
Такой процесс в итоге работает точнее и проще, чем комбайн из openAI GPT-4o со structured outputs и предобработкой PDF в отдельных специализированных моделях.
Ваш, @llm_under_hood 🤗
PS: Бенчмарк модели будет попозже
(1) Она поддерживает хорошо работу с PDF
(2) У этой модели есть кэширование промптов
(3) делать structured data extraction с checklist и custom chain of thought на ней одно удовольствие.
Хотя Anthropic пока и не завел structured outputs на базе constrained decoding (как это сделали в OpenAI), но их модели понимают JSON схему без каких-то нареканий. А выход у них пока без ошибок (если не перегружать контекст и соблюдать signal-noise ratio).
Что я делаю для извлечения данных из сложных PDF недорого:
(1) загружаю системный промпт со схемой в первое сообщение. Помечаю для кэширования через
"cache_control": {"type": "ephemeral"},. Схему конвертирую в строку вот так:
json.dumps(Model.model_json_schema(), indent=2, ensure_ascii=False)
(2) загружаю PDF во второе сообщение. Также помечаю для кэширования.
(3) помещаю задачу из чеклиста в третье сообщение, уже не кэширую.
(4) в последнее сообщение добавляю
{
"role": "assistant",
"content": "Here is the JSON requested:\n{"
}
(5) к ответу модели добавляю
{ и валидирую загрузкой в исходную pydantic modelТакой процесс в итоге работает точнее и проще, чем комбайн из openAI GPT-4o со structured outputs и предобработкой PDF в отдельных специализированных моделях.
Ваш, @llm_under_hood 🤗
PS: Бенчмарк модели будет попозже
О работе после ИИ
Замена меня, вас и кого угодно ботами — это цель ИИ, а не риск. ИИ нужен чтобы убрать всю работу, а не придумать новую.
Я думаю, что пытаться сегодня «придумать» такую профессию, которая гарантировано не будет автоматизирована ИИ и роботами — бессмысленно. Вы не угадаете. В лучшем случае, потратите время на то, что вам не интересно. В худшем — на то, что еще и не нужно.
Вместо этого, ответ такой же, как и до ИИ: делать то, что любишь и то, что полезно другим. Вы можете верить в AGI в 2026, 2028 или даже 2039, но рано или поздно почти любая сегодняшняя деятельность будет не нужна. Но это не значит, что ей перестанут заниматься. Люди будут рисовать и писать музыку, так же как не перестали играть в шахматы и го.
И так же, как и до ИИ о вашем благосостоянии лучше всех позаботитесь вы сами, а не Маск, Альтман или Суцкевер. Они не куры-наседки.
Лучшая стратегия — постепенно перевести ваш доход от работы в доход от капитала. «Пассивный доход», как говорят крипто-инфо-цыгане. Сделать что-то большое, инвестировать, получить долю, заработать репутацию. Потому что это вы сделаете, а с ИИ сделать это будет еще проще и быстрее. Но что ни один бот не сделает за вас — не будет хотеть. Не будет мечтать о том как вы хотите устроить свою жизнь. Не будет выбирать. Ему не надо. Почему так неочевидна мысль, что о вашем счастье и процветании можете позаботиться вы сами?…
Я уверен, что этот пост не относится к очень многим читателям и подписчикам. Скорее, я у них этому учусь. Но, извините, пригорело с некоторых комментариях в тоне «дайте-подайте».
Подсмотрено
Замена меня, вас и кого угодно ботами — это цель ИИ, а не риск. ИИ нужен чтобы убрать всю работу, а не придумать новую.
Я думаю, что пытаться сегодня «придумать» такую профессию, которая гарантировано не будет автоматизирована ИИ и роботами — бессмысленно. Вы не угадаете. В лучшем случае, потратите время на то, что вам не интересно. В худшем — на то, что еще и не нужно.
Вместо этого, ответ такой же, как и до ИИ: делать то, что любишь и то, что полезно другим. Вы можете верить в AGI в 2026, 2028 или даже 2039, но рано или поздно почти любая сегодняшняя деятельность будет не нужна. Но это не значит, что ей перестанут заниматься. Люди будут рисовать и писать музыку, так же как не перестали играть в шахматы и го.
И так же, как и до ИИ о вашем благосостоянии лучше всех позаботитесь вы сами, а не Маск, Альтман или Суцкевер. Они не куры-наседки.
Лучшая стратегия — постепенно перевести ваш доход от работы в доход от капитала. «Пассивный доход», как говорят крипто-инфо-цыгане. Сделать что-то большое, инвестировать, получить долю, заработать репутацию. Потому что это вы сделаете, а с ИИ сделать это будет еще проще и быстрее. Но что ни один бот не сделает за вас — не будет хотеть. Не будет мечтать о том как вы хотите устроить свою жизнь. Не будет выбирать. Ему не надо. Почему так неочевидна мысль, что о вашем счастье и процветании можете позаботиться вы сами?…
Я уверен, что этот пост не относится к очень многим читателям и подписчикам. Скорее, я у них этому учусь. Но, извините, пригорело с некоторых комментариях в тоне «дайте-подайте».
Подсмотрено
👍6
Заменят ли ИИ-двойники живых респондентов?
Вышла статья как с помощью синтетических респондентов можно с 85% точностью предсказать ответы реальных людей, служивших прототипами для персон.
Статью подготовили эксперты Стэнфорда, Сиэтла и Google DeepMind. Они сделали с 1052 респондентами с помощью ИИ-интервьюера двухчасовые глубинные интервью. Создали ИИ-агентов на основе транскриптов и языковой модели. И начали задавать живым людям новые вопросы и сравнивать, насколько ИИ-агент повторяет ответ своего прототипа.
Ключевые выводы:
• Агенты достигли 85%-ной точности в воспроизведении ответов участников опроса (измеряли ответы по Американскому опроснику The General Social Survey (GSS) и Big Five)
• Успешно воспроизвели 4 из 5 социологических экспериментов (оценка вреда, роль справедливости, восприятие выгод от конфликтов, влияние власти)
• Результаты с использованием транскрипта интервью + LLM были лучше, чем у агентов, основанных только на демографических данных или характеристиках личности
• Продемонстрировал меньшую предвзятость по демографическим группам
Мои размышления:
• Уже не первый раз синтетики показывают хорошие предсказания в социологических опросах. См. исследование Predicting Results of Social Science Experiments. Там тоже корреляция была r = 0.85.
• Очень интересно повторить эксперимент для продуктовых исследований — т.е. насколько можно получить высокую точность в исследовательских вопросах, которые обычно интересуют маркетинговые и продуктовые команды? При этом сравнить это с точностью экспертов — напр. исследователей, которых эти персоны хорошо знают. И с повторными исследованиями этой же аудитории.
• В случае успеха (вероятно, надо будет найти верную методику) это будет означать, что любая компания может сделать себе банк персон на основе глубинок и обращаться к ним для создания и теста гипотез.
• Для использования банка персон придется многим научиться мыслить в вероятностной модели, уметь использовать не 100% ответы и научиться использовать при мозговых штурмах синтетиков. Банк персон надо будет обновлять и для каких-то типов вопросов они будут работать плохо, но классно, что интервью может делать ИИ-интервьюер, что удешевляет процесс сбора данных.
• Может образоваться рынок синтетиков — представьте, что вы на панели подписаны на обновления определенных группы населения, а агентство обновляет их с определенной частотой. Пока рынок будет тормозить инерция и неумение работать с такими респондентами, но лидеры быстро поймут что к чему. Учтите еще, что в огромном количестве компаний, решения принимают вообще без исследований на «чуйке создателей» или нет ресурсов на исследования.
• И отвечая на вопрос заголовка «Заменят ли ИИ-двойники живых респондентов?» — не заменят, потому что для создания двойника нужен живой человек. Но сами по себе респонденты бизнесу не нужны. Ему нужна сонастройка с реальностью. И если это будет происходить за счет цифровый двойников - it is ok. Цифровые двойники облегчат доступ к реальности и повысят частоту обращения к ней. А LLM и интервью выступят в роли духа, оживляющего аватара.
Подсмотрено
🗣️ Ваше мнение?
Вышла статья как с помощью синтетических респондентов можно с 85% точностью предсказать ответы реальных людей, служивших прототипами для персон.
Статью подготовили эксперты Стэнфорда, Сиэтла и Google DeepMind. Они сделали с 1052 респондентами с помощью ИИ-интервьюера двухчасовые глубинные интервью. Создали ИИ-агентов на основе транскриптов и языковой модели. И начали задавать живым людям новые вопросы и сравнивать, насколько ИИ-агент повторяет ответ своего прототипа.
Ключевые выводы:
• Агенты достигли 85%-ной точности в воспроизведении ответов участников опроса (измеряли ответы по Американскому опроснику The General Social Survey (GSS) и Big Five)
• Успешно воспроизвели 4 из 5 социологических экспериментов (оценка вреда, роль справедливости, восприятие выгод от конфликтов, влияние власти)
• Результаты с использованием транскрипта интервью + LLM были лучше, чем у агентов, основанных только на демографических данных или характеристиках личности
• Продемонстрировал меньшую предвзятость по демографическим группам
Мои размышления:
• Уже не первый раз синтетики показывают хорошие предсказания в социологических опросах. См. исследование Predicting Results of Social Science Experiments. Там тоже корреляция была r = 0.85.
• Очень интересно повторить эксперимент для продуктовых исследований — т.е. насколько можно получить высокую точность в исследовательских вопросах, которые обычно интересуют маркетинговые и продуктовые команды? При этом сравнить это с точностью экспертов — напр. исследователей, которых эти персоны хорошо знают. И с повторными исследованиями этой же аудитории.
• В случае успеха (вероятно, надо будет найти верную методику) это будет означать, что любая компания может сделать себе банк персон на основе глубинок и обращаться к ним для создания и теста гипотез.
• Для использования банка персон придется многим научиться мыслить в вероятностной модели, уметь использовать не 100% ответы и научиться использовать при мозговых штурмах синтетиков. Банк персон надо будет обновлять и для каких-то типов вопросов они будут работать плохо, но классно, что интервью может делать ИИ-интервьюер, что удешевляет процесс сбора данных.
• Может образоваться рынок синтетиков — представьте, что вы на панели подписаны на обновления определенных группы населения, а агентство обновляет их с определенной частотой. Пока рынок будет тормозить инерция и неумение работать с такими респондентами, но лидеры быстро поймут что к чему. Учтите еще, что в огромном количестве компаний, решения принимают вообще без исследований на «чуйке создателей» или нет ресурсов на исследования.
• И отвечая на вопрос заголовка «Заменят ли ИИ-двойники живых респондентов?» — не заменят, потому что для создания двойника нужен живой человек. Но сами по себе респонденты бизнесу не нужны. Ему нужна сонастройка с реальностью. И если это будет происходить за счет цифровый двойников - it is ok. Цифровые двойники облегчат доступ к реальности и повысят частоту обращения к ней. А LLM и интервью выступят в роли духа, оживляющего аватара.
Подсмотрено
🗣️ Ваше мнение?
This media is not supported in your browser
VIEW IN TELEGRAM
Runway представила функцию Expand Video
Новая функция позволяет менять соотношения сторон у видео, создавая новые области вокруг исходного видео.
Функция Expand Video начала скоро будет доступна всем пользователям Gen-3 Alpha Turbo
#runway
Новая функция позволяет менять соотношения сторон у видео, создавая новые области вокруг исходного видео.
Функция Expand Video начала скоро будет доступна всем пользователям Gen-3 Alpha Turbo
#runway
💡 8 мощнейших обновлений HeyGen за ноябрь 2024 года (+бонус)
HeyGen продолжает радовать пользователей новыми функциями, которые делают создание видео проще, быстрее и креативнее. Вот главные обновления:
1. Генерация видео по текстовому запросу (Prompt Videos)
Теперь можно создавать реалистичные видео, используя всего лишь фото и текстовое описание. Без камеры и сложного оборудования!
2. Динамическая анимация (Add Motion)
Аватары и фоны оживают благодаря добавлению движений: от волн на воде до падающих листьев.
3. Создание виртуальных аватаров (Virtual Avatars)
Пользователи могут проектировать уникальных персонажей в любой одежде, позе или локации за считанные секунды.
4. Улучшенный перевод видео (Enhanced Video Translation)
Новые функции позволяют улучшить качество звука, удалять ненужную фоновую музыку и автоматически усиливать голос, делая контент более профессиональным.
5. AI-рекордер экрана (Screen Recorder, Beta)
Записывайте экран без камеры и добавляйте аватары прямо в готовое видео. Это идеальный инструмент для создания презентаций и обучающих материалов.
6. API Suite
Новый API позволяет интегрировать аватары в приложения или сайты, локализовать контент для глобальной аудитории и автоматизировать создание видео на масштабном уровне.
7. Аватары с движением (Talking Photos)
Оживите свои фотографии с помощью искусственного интеллекта — создавайте говорящие изображения с высокой реалистичностью.
8. Удаление фоновой музыки
Функция позволяет сделать голос более четким и профессиональным, что особенно полезно для образовательного контента и презентаций.
🎁 Бонус: HeyGen теперь поддерживает создание аватаров с вашим лицом в любом количестве благодаря интеграции LORA на Flux!
HeyGen продолжает радовать пользователей новыми функциями, которые делают создание видео проще, быстрее и креативнее. Вот главные обновления:
1. Генерация видео по текстовому запросу (Prompt Videos)
Теперь можно создавать реалистичные видео, используя всего лишь фото и текстовое описание. Без камеры и сложного оборудования!
2. Динамическая анимация (Add Motion)
Аватары и фоны оживают благодаря добавлению движений: от волн на воде до падающих листьев.
3. Создание виртуальных аватаров (Virtual Avatars)
Пользователи могут проектировать уникальных персонажей в любой одежде, позе или локации за считанные секунды.
4. Улучшенный перевод видео (Enhanced Video Translation)
Новые функции позволяют улучшить качество звука, удалять ненужную фоновую музыку и автоматически усиливать голос, делая контент более профессиональным.
5. AI-рекордер экрана (Screen Recorder, Beta)
Записывайте экран без камеры и добавляйте аватары прямо в готовое видео. Это идеальный инструмент для создания презентаций и обучающих материалов.
6. API Suite
Новый API позволяет интегрировать аватары в приложения или сайты, локализовать контент для глобальной аудитории и автоматизировать создание видео на масштабном уровне.
7. Аватары с движением (Talking Photos)
Оживите свои фотографии с помощью искусственного интеллекта — создавайте говорящие изображения с высокой реалистичностью.
8. Удаление фоновой музыки
Функция позволяет сделать голос более четким и профессиональным, что особенно полезно для образовательного контента и презентаций.
🎁 Бонус: HeyGen теперь поддерживает создание аватаров с вашим лицом в любом количестве благодаря интеграции LORA на Flux!
Мысль, которая приносит деньги
— Как зацепить инвестора? — спросил стартапер
— Покажи возможность
За год я прослушал несколько сотен презентаций. Там было про рынок, проблемы, решения, экономику и остальные важные вещи. И почти нигде — одной простой мысли, которую мог бы запомнить.
Когда спрашивал: «Ты что хочешь, чтобы я понял?», почти всегда слышал: «То, что нам нужно дать деньги».
Такая фраза подходит всем — а значит, не работает.
Мысль всегда проста: «мы можем заработать ХХ денег к YYYY году с помощью возможности Y». Все остальное — аргументы, ее подтверждающие.
В этой формуле главное — возможность. Ответ на вопрос «почему сейчас?». Или еще точнее — «почему это не сделали другие раньше?»
Доводы типа «мы крутые», «конкуренты дебилы», «потребители не знают» не катят. Например, ставки по ипотеке выросла, платеж стал неподъемным, люди экономят на страховках. Пора запускать сервис с самыми дешевыми предложениями.
Вывод прост: хочешь зацепить инвестора — покажи ему изменение. Остальное — красивая рамка, не больше.
— Как зацепить инвестора? — спросил стартапер
— Покажи возможность
За год я прослушал несколько сотен презентаций. Там было про рынок, проблемы, решения, экономику и остальные важные вещи. И почти нигде — одной простой мысли, которую мог бы запомнить.
Когда спрашивал: «Ты что хочешь, чтобы я понял?», почти всегда слышал: «То, что нам нужно дать деньги».
Такая фраза подходит всем — а значит, не работает.
Мысль всегда проста: «мы можем заработать ХХ денег к YYYY году с помощью возможности Y». Все остальное — аргументы, ее подтверждающие.
В этой формуле главное — возможность. Ответ на вопрос «почему сейчас?». Или еще точнее — «почему это не сделали другие раньше?»
Доводы типа «мы крутые», «конкуренты дебилы», «потребители не знают» не катят. Например, ставки по ипотеке выросла, платеж стал неподъемным, люди экономят на страховках. Пора запускать сервис с самыми дешевыми предложениями.
Вывод прост: хочешь зацепить инвестора — покажи ему изменение. Остальное — красивая рамка, не больше.
Статья в Nature: ИИ лучше людей в поэзии
Исследование на основе 2000 респондентов из США (бычных читателей поэзии) показало, что стихи, созданные искусственным интеллектом, становятся неотличимыми от произведений известных поэтов и даже получают более высокие оценки за качество и эмоциональное воздействие. Ваши любимые роботы теперь могут писать стихи лучше некоторых из нас.
Ключевые инсайты исследования:
1. Участники эксперимента часто ошибочно принимали AI-сгенерированные стихи за работы знаменитых поэтов.
2. ИИ стихи получили более высокие оценки по качеству, ритму и эмоциональной глубине.
3. Несмотря на предпочтение, зная, что стихотворение создано ИИ, участники оценивали его ниже, дискриминируя несчастных ботов.
Пришла беда откуда не ждали, но зато поздравительные картинки в воцапе от стареющего поколения станут менее кринжовыми.
По ссылке ниже куча деталей
Исследование на основе 2000 респондентов из США (бычных читателей поэзии) показало, что стихи, созданные искусственным интеллектом, становятся неотличимыми от произведений известных поэтов и даже получают более высокие оценки за качество и эмоциональное воздействие. Ваши любимые роботы теперь могут писать стихи лучше некоторых из нас.
Ключевые инсайты исследования:
1. Участники эксперимента часто ошибочно принимали AI-сгенерированные стихи за работы знаменитых поэтов.
2. ИИ стихи получили более высокие оценки по качеству, ритму и эмоциональной глубине.
3. Несмотря на предпочтение, зная, что стихотворение создано ИИ, участники оценивали его ниже, дискриминируя несчастных ботов.
Пришла беда откуда не ждали, но зато поздравительные картинки в воцапе от стареющего поколения станут менее кринжовыми.
По ссылке ниже куча деталей
Недавно Саша Доброкотов поднял тему об обесценении труда AI-креаторов.
Проблема в том, что многие до сих пор считают, что создание контента с помощью нейронок — это просто нажать пару кнопок. На деле за каждым качественным AI-проектом стоит огромный объем работы.
Посмотрите свежий кейс от Runway и режиссера Джереми Хиггинса по созданию фильма «Migration». Это яркий пример того, сколько усилий потребовалось креаторам.
❕Два месяца работы, сотни генераций, ручная анимация персонажей, постпродакшн — всё это остается за кадром. А потом во всяких пабликах мы видим: "нейросеть создала…".
Поэтому важно говорить о том, что за каждым крутым AI-проектом стоят люди, а не магия нейросетей. Талант, знания, сотни часов работы — вот что превращает технологии в искусство. Нейросеть сама ничего не создаёт, это всего лишь инструмент в руках креатора.
https://runwayml.com/customers/behind-the-scenes-of-migration-with-director-jeremy-higgins
Проблема в том, что многие до сих пор считают, что создание контента с помощью нейронок — это просто нажать пару кнопок. На деле за каждым качественным AI-проектом стоит огромный объем работы.
Посмотрите свежий кейс от Runway и режиссера Джереми Хиггинса по созданию фильма «Migration». Это яркий пример того, сколько усилий потребовалось креаторам.
❕Два месяца работы, сотни генераций, ручная анимация персонажей, постпродакшн — всё это остается за кадром. А потом во всяких пабликах мы видим: "нейросеть создала…".
Поэтому важно говорить о том, что за каждым крутым AI-проектом стоят люди, а не магия нейросетей. Талант, знания, сотни часов работы — вот что превращает технологии в искусство. Нейросеть сама ничего не создаёт, это всего лишь инструмент в руках креатора.
https://runwayml.com/customers/behind-the-scenes-of-migration-with-director-jeremy-higgins
Runwayml
Runway Customers | Behind the scenes of “Migration” with director Jeremy Higgins
Jeremy Higgins is a director, animator and designer who has worked in music videos, short films and features. His first foray into the art world was via graffiti, which led him to pursue a degree at the School for Visual Arts (SVA). While studying at SVA…
👍3🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic предложил новый стандарт подключения чат-ботов к источникам данных
Anthropic представил Model Context Protocol (MCP) — систему для связи любых моделей искусственного интеллекта с хранилищами данных. В компании считают, что единый открытый стандарт поможет решить проблему разобщенности, из-за которой каждый источник данных требует индивидуального подхода для подключения AI.
MCP должен помочь AI-моделям выдавать более качественные и релевантные ответы на запросы пользователей. Однако, у экспертов есть сомнения, что протокол получит большую поддержку, особенно у конкурентов Anthropic, таких как OpenAI.
На видео показан пример подключения Claude к GitHub через MCP.
https://techcrunch.com/2024/11/25/anthropic-proposes-a-way-to-connect-data-to-ai-chatbots/
Anthropic представил Model Context Protocol (MCP) — систему для связи любых моделей искусственного интеллекта с хранилищами данных. В компании считают, что единый открытый стандарт поможет решить проблему разобщенности, из-за которой каждый источник данных требует индивидуального подхода для подключения AI.
MCP должен помочь AI-моделям выдавать более качественные и релевантные ответы на запросы пользователей. Однако, у экспертов есть сомнения, что протокол получит большую поддержку, особенно у конкурентов Anthropic, таких как OpenAI.
На видео показан пример подключения Claude к GitHub через MCP.
https://techcrunch.com/2024/11/25/anthropic-proposes-a-way-to-connect-data-to-ai-chatbots/
А вот Nvidia продолжает демонстрировать, что компания не только про чипы, но и про собственные модели, иллюстрирующие красоту генеративного ИИ и крутость продуктов Nvidia — full version uses 2.5 billion parameters and was trained on a bank of Nviidia DGX systems packing 32 H100 Tensor Core GPUs 🙂
Модель по имени Fugatto (от Foundational Generative Audio Transformer Opus 1) описывается как a Swiss Army knife for sound, а сравнение ее с другими моделями звучит немножко токсично: some AI models can compose a song or modify a voice, none have the dexterity of the new offering 🙂
Музыкантам предлагается использовать новый инструмент на разных стадиях процесса — от прототипирования до улучшения качества имеющихся треков. Модель умеет создавать неожиданные эффекты: For instance, Fugatto can make a trumpet bark or a saxophone meow. Whatever users can describe, the model can create. Черрипики в приложенном треке звучат впечатляюще.
Осталось дождаться реакции и без того в последнее время нервных музыкантов:)
https://blogs.nvidia.com/blog/fugatto-gen-ai-sound-model/
Модель по имени Fugatto (от Foundational Generative Audio Transformer Opus 1) описывается как a Swiss Army knife for sound, а сравнение ее с другими моделями звучит немножко токсично: some AI models can compose a song or modify a voice, none have the dexterity of the new offering 🙂
Музыкантам предлагается использовать новый инструмент на разных стадиях процесса — от прототипирования до улучшения качества имеющихся треков. Модель умеет создавать неожиданные эффекты: For instance, Fugatto can make a trumpet bark or a saxophone meow. Whatever users can describe, the model can create. Черрипики в приложенном треке звучат впечатляюще.
Осталось дождаться реакции и без того в последнее время нервных музыкантов:)
https://blogs.nvidia.com/blog/fugatto-gen-ai-sound-model/
«Я бегаю в 4 утра, потому что знаю, что мой соперник всё ещё спит. Это даёт мне преимущество», — так Майк Тайсон ответил на вопрос, действительно ли он тренируется каждый день на рассвете.
Тайсон добавил: «Если я узнаю, что один из моих соперников бегает в 4 утра, я начну бегать в 2. А если кто-то тренируется в 2 утра, я вообще перестану спать, чтобы продолжать тренироваться».
«Без дисциплины, какой бы талантливый ты ни был, ты — ничто», — Майк Тайсон.
Тайсон добавил: «Если я узнаю, что один из моих соперников бегает в 4 утра, я начну бегать в 2. А если кто-то тренируется в 2 утра, я вообще перестану спать, чтобы продолжать тренироваться».
«Без дисциплины, какой бы талантливый ты ни был, ты — ничто», — Майк Тайсон.
Неаудированная финансовая отчетность Telegram за первое полугодие 2024 года: выручка в размере $525 млн, что на 190% больше, чем в предыдущем году, прибыль после уплаты налогов в размере $335 млн, цифровые активы стоимостью $1,3 млрд по сравнению с $400 млн на конец 2023 года.
И все это на команду в 50 человек. Мягко говоря, приятный результат. Да, расходы всё еще огромные, и компанию нельзя считать прибыльной на 10+ год своего существования. Но капитализация компании уже сумасшедшая.
https://t.co/clNprU0ZK5
И все это на команду в 50 человек. Мягко говоря, приятный результат. Да, расходы всё еще огромные, и компанию нельзя считать прибыльной на 10+ год своего существования. Но капитализация компании уже сумасшедшая.
https://t.co/clNprU0ZK5
Ft
Telegram finances propped up by crypto gains as founder fights charges
Revenue leapt to $525mn in first half of 2024 before chief Pavel Durov was detained over alleged criminality on platform
🔥1
Интересный ресеч вышел, который проверяет, насколько эффективно, что языковые модели общаются между собой человеческим языком (например, в агентских системах где ответ из LLM попадает снова в LLM)
Ожидаемо оказалось, что роботам использовать наш язык – не эффективно. Вместо текста языковым моделям проще обмениваться набором «координат» — данных, которые описывают смысл фраз и слов, их называют эмбеддингами. Например, вместо фразы «Привет, ну как там с деньгами?» одна модель передаёт другой что-то вроде [0.82, -0.45, 1.22,…]. Это ускоряет процесс почти в три раза (!), причём без потерь в качестве
Подход позволяет моделям быстрее решать задачи и взаимодействовать друг с другом, например, в сложных сценариях вроде совместного написания кода или генерации текста
Тут технические детали, а тут статья в NewScientist
Короче, скоро не почитать будет без спец тулзов, что там модели друг другу пишут в процессе общения
Ожидаемо оказалось, что роботам использовать наш язык – не эффективно. Вместо текста языковым моделям проще обмениваться набором «координат» — данных, которые описывают смысл фраз и слов, их называют эмбеддингами. Например, вместо фразы «Привет, ну как там с деньгами?» одна модель передаёт другой что-то вроде [0.82, -0.45, 1.22,…]. Это ускоряет процесс почти в три раза (!), причём без потерь в качестве
Подход позволяет моделям быстрее решать задачи и взаимодействовать друг с другом, например, в сложных сценариях вроде совместного написания кода или генерации текста
Тут технические детали, а тут статья в NewScientist
Короче, скоро не почитать будет без спец тулзов, что там модели друг другу пишут в процессе общения
👍3
Инженеры Amazon в Остине трудятся не покладая рук над одним из самых амбициозных проектов в технологической отрасли. В атмосфере, больше напоминающей стартап, высокооплачиваемые инженеры не прочь сбегать в Home Depot за сверлильным станком, лишь бы помочь Amazon ослабить контроль Nvidia над рынком чипов ИИ стоимостью больше $100 млрд.
Цель Amazon — превратить сеть центров обработки данных компании в огромные машины для обучения искусственного интеллекта. Одна из ближайших задач — до конца года внедрить последнюю версию ИИ-ускорителя компании Trainium2 в как можно большее количество ЦОДов AWS.
Amazon, Google, Microsoft — все они питают надежды снизить зависимость от чипов Nvidia. На прошлой неделе компания сообщила, что спрос на новейшее оборудование Nvidia будет превышать предложение в течение нескольких кварталов (!). Пока что план Amazon, как бороться с этим, выглядит самым рабочим.
Microsoft
И всё же, несмотря на собственные усилия, все три облачных гиганта борются за поставки новейших чипов Nvidia
Trainium2 от Amazon будет считаться успехом, если у него получится взять на себя большую часть разработок Amazon в искусственном интеллекте, а также отдельные проекты от крупных клиентов AWS. А вот драгоценный запас высокопроизводительных чипов Nvidia пойдёт на мощности для самых передовых клиентов и задач в области ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
Bloomberg.com
Amazon’s Moonshot Plan to Rival Nvidia in AI Chips
The cloud computing giant won’t dislodge the incumbent anytime soon but is hoping to reduce its reliance on the chipmaker.
Топ нейросетей для видео начала зимы 2024/25 года
Ссылки ниже: сохраняйте и пересылайте.
Хотите создавать крутые видео быстро и бесплатно? Вот подборка лучших видео-нейронок на 2024 год с уникальными возможностями:
- [Runway Gen-3](https://runwayml.com/) - генерирует реалистичные видео до 10 секунд с детализацией и движением. Новая функция Video Outpainting позволяет камере отъезжать, дорисовывать вокруг (outpaint) и возвращаться обратно. Это дает возможность менять композиции кадра с разными промптами или использовать reference images для расширения.
- [Kling AI](https://klingai.com/) - одна из лучших китайских нейросетей, активно развивается. Адаптируется под пользовательские запросы для улучшения результата.
- [Luma AI](https://lumalabs.ai/) - удобный инструмент с высокой степенью контроля над стилем и качеством видео. Теперь доступны стабильные персонажи и ремикс контента, движение камеры и продолжение видео (extend). Важное обновление — интеграция с их собственным генератором картинок Luma Photon.
- [Vidu](https://vidu.studio/) - предлагает уникальные функции интеграции различных стилей и эффектов. Новая версия Vidu-1.5 представила Multi-Entity Consistency — возможность незаметно интегрировать людей, объекты и окружение без использования LoRA.
- [MiniMax Video-01](https://minimax.com/) - новая китайская нейросеть, которая умеет создавать гиперреалистичные видео людей. Добавлен мультисервис, включающий генерацию видео, гиперреалистичное Text-To-Speech, клонирование голоса за 5 секунд и быструю генерацию музыки.
Пробуйте, экспериментируйте и создавайте крутой контент с помощью этих мощных инструментов!
UPDATE Сегодня не сговариваясь несколько каналов по ИИ - вывели свои рейтинги нейросетей для видео. В комментари разместил инфо от других каналов.
Ссылки ниже: сохраняйте и пересылайте.
Хотите создавать крутые видео быстро и бесплатно? Вот подборка лучших видео-нейронок на 2024 год с уникальными возможностями:
- [Runway Gen-3](https://runwayml.com/) - генерирует реалистичные видео до 10 секунд с детализацией и движением. Новая функция Video Outpainting позволяет камере отъезжать, дорисовывать вокруг (outpaint) и возвращаться обратно. Это дает возможность менять композиции кадра с разными промптами или использовать reference images для расширения.
- [Kling AI](https://klingai.com/) - одна из лучших китайских нейросетей, активно развивается. Адаптируется под пользовательские запросы для улучшения результата.
- [Luma AI](https://lumalabs.ai/) - удобный инструмент с высокой степенью контроля над стилем и качеством видео. Теперь доступны стабильные персонажи и ремикс контента, движение камеры и продолжение видео (extend). Важное обновление — интеграция с их собственным генератором картинок Luma Photon.
- [Vidu](https://vidu.studio/) - предлагает уникальные функции интеграции различных стилей и эффектов. Новая версия Vidu-1.5 представила Multi-Entity Consistency — возможность незаметно интегрировать людей, объекты и окружение без использования LoRA.
- [MiniMax Video-01](https://minimax.com/) - новая китайская нейросеть, которая умеет создавать гиперреалистичные видео людей. Добавлен мультисервис, включающий генерацию видео, гиперреалистичное Text-To-Speech, клонирование голоса за 5 секунд и быструю генерацию музыки.
Пробуйте, экспериментируйте и создавайте крутой контент с помощью этих мощных инструментов!
UPDATE Сегодня не сговариваясь несколько каналов по ИИ - вывели свои рейтинги нейросетей для видео. В комментари разместил инфо от других каналов.
Runwayml
Runway | Building AI to Simulate the World
We are building foundational General World Models that will be capable of simulating all possible worlds and experiences. The next frontier of intelligence will come from models that can understand, perceive, generate and act in the world.
❤1👍1
🔥🔥🔥 The next big arenas of competition.
Крайне любопытный и визионерский отчет от McKinsey, который очень полезно и интересно прочитать.
Вкратце, они пытаются проанализировать ключевые арены конкуренции на сегодня (это отрасли, которые темпами выше средних захватывают рыночную долю во всей экономике, industry share growth rate)и понять какой в них уровень передела рынка (shuffle rate).
Отрасль находится в топе арены конкуренции, если ее доля в общем мировом ВВП растет с течением времени, при этом еще и внутри нее меняется структура – кто-то обыгрывает конкурента и забирает его долю. Как пример – отрасль смартфонов в прошлом, когда эта отрасль люто росла, а в какой-то момент лидеры в виде Nokia или Motorola сменились на Apple, Samsung и так далее.
1/ Какие же ключевые арены сегодняшнего дня? Приведем топ-5 и только их капитализацию и выручку на 2020 (в отчете есть другие данные):
▪️Software: $3,636B (market cap) <> $341B (revenue);
▪️Semiconductors: $3,495B (market cap) <> $574B (revenue);
▪️Consumer Internet: $3,460B (market cap) <> $403B (revenue);
▪️E-commerce: $3,308B (market cap) <> $888B (revenue);
▪️Consumer Electronics: $2,502B (market cap) <> $648B (revenue);
▪️Biopharma: $2,289B (market cap) <> $343B (revenue).
2/ На приложенной инфографике видно, насколько росло значение арен конкуренции с 2005 по 2020 год! Удивительно!
3/ Какие же ключевые арены конкуренции можно наметить на будущее, до 2040 года? Смотрите опять же приложенный рисунок очень внимательно, а ниже представлены опять же топ-6 (данные по выручке):
▫️E-Commerce: $4,000B (2022) => $14,000B-$20,000B (2040);
▫️AI software and services: $85B (2022) => $1,500B-$4,600B (2040);
▫️Cloud services: $220B (2022) => $1,600B-$3,400B (2040);
▫️Electric vehicles: $450B (2022) => $2,500B-$3,200B (2040);
▫️Digital advertisements: $520B (2022) => $2,100B-$2,900B (2040);
▫️Semiconductors: $630B (2022) => $1,700B-$2,400B (2040).
4/ Заметили, что в большом списке почти все арены новые, но есть несколько тех, которые частично уже сейчас являются крупнейшими аренами конкуренции? Давайте посмотрим, кто же это:
🔹E-commerce: #4 в 2020 => #1 в 2040;
🔹Cloud services: #10 в 2020 => #3 в 2040;
🔹Electric vehicles: #11 в 2020 => #4 в 2040;
🔹Semiconductors: #2 в 2020 => #6 в 2040;
🔹Biopharma: #6 в 2020 => распадается на несколько, #15 и #17 в 2040.
5/ Стоит отметить, что в совокупности новые арены конкуренции должны сгенерировать $29T-$48T выручки и $2T-$6T прибыли.
В самом отчете еще очень много чего интересного, а главное – рассмотрена каждая арена (отрасль) по отдельности.
👉 ОГРОМНЫЙ отчет на [213 страниц] доступен в сообщении ниже.
@proVenture
#research #trends #ai #cloud
Крайне любопытный и визионерский отчет от McKinsey, который очень полезно и интересно прочитать.
Вкратце, они пытаются проанализировать ключевые арены конкуренции на сегодня (это отрасли, которые темпами выше средних захватывают рыночную долю во всей экономике, industry share growth rate)и понять какой в них уровень передела рынка (shuffle rate).
Отрасль находится в топе арены конкуренции, если ее доля в общем мировом ВВП растет с течением времени, при этом еще и внутри нее меняется структура – кто-то обыгрывает конкурента и забирает его долю. Как пример – отрасль смартфонов в прошлом, когда эта отрасль люто росла, а в какой-то момент лидеры в виде Nokia или Motorola сменились на Apple, Samsung и так далее.
1/ Какие же ключевые арены сегодняшнего дня? Приведем топ-5 и только их капитализацию и выручку на 2020 (в отчете есть другие данные):
▪️Software: $3,636B (market cap) <> $341B (revenue);
▪️Semiconductors: $3,495B (market cap) <> $574B (revenue);
▪️Consumer Internet: $3,460B (market cap) <> $403B (revenue);
▪️E-commerce: $3,308B (market cap) <> $888B (revenue);
▪️Consumer Electronics: $2,502B (market cap) <> $648B (revenue);
▪️Biopharma: $2,289B (market cap) <> $343B (revenue).
2/ На приложенной инфографике видно, насколько росло значение арен конкуренции с 2005 по 2020 год! Удивительно!
3/ Какие же ключевые арены конкуренции можно наметить на будущее, до 2040 года? Смотрите опять же приложенный рисунок очень внимательно, а ниже представлены опять же топ-6 (данные по выручке):
▫️E-Commerce: $4,000B (2022) => $14,000B-$20,000B (2040);
▫️AI software and services: $85B (2022) => $1,500B-$4,600B (2040);
▫️Cloud services: $220B (2022) => $1,600B-$3,400B (2040);
▫️Electric vehicles: $450B (2022) => $2,500B-$3,200B (2040);
▫️Digital advertisements: $520B (2022) => $2,100B-$2,900B (2040);
▫️Semiconductors: $630B (2022) => $1,700B-$2,400B (2040).
4/ Заметили, что в большом списке почти все арены новые, но есть несколько тех, которые частично уже сейчас являются крупнейшими аренами конкуренции? Давайте посмотрим, кто же это:
🔹E-commerce: #4 в 2020 => #1 в 2040;
🔹Cloud services: #10 в 2020 => #3 в 2040;
🔹Electric vehicles: #11 в 2020 => #4 в 2040;
🔹Semiconductors: #2 в 2020 => #6 в 2040;
🔹Biopharma: #6 в 2020 => распадается на несколько, #15 и #17 в 2040.
5/ Стоит отметить, что в совокупности новые арены конкуренции должны сгенерировать $29T-$48T выручки и $2T-$6T прибыли.
В самом отчете еще очень много чего интересного, а главное – рассмотрена каждая арена (отрасль) по отдельности.
👉 ОГРОМНЫЙ отчет на [213 страниц] доступен в сообщении ниже.
@proVenture
#research #trends #ai #cloud