Аааааааааааа, я писал пост с телефона и он пропал! Как я зол…
тогда будет короткий пост - Илья Суцкевер (тот что почти выгнал Сэма, тот что потом выгнал Илью) поднял 1B в компанию SSI - safe super intelligence. Может ли компания с безопасным интеллектом рыночно конкурировать с небезопасным ? Вопрос. Даст ли это что-то нам как пользователям? Скорее всего нет. Нужен ли вообще безопасный интеллект? 😬 Много ли в современных мерках 1B для LLM? 🥲
Но Илья очень упертый и очень принципный, такие люди восхищают. А к тому же бесконечно талантливый. Удачи спустить все деньги на вычисления )
@aihappens
тогда будет короткий пост - Илья Суцкевер (тот что почти выгнал Сэма, тот что потом выгнал Илью) поднял 1B в компанию SSI - safe super intelligence. Может ли компания с безопасным интеллектом рыночно конкурировать с небезопасным ? Вопрос. Даст ли это что-то нам как пользователям? Скорее всего нет. Нужен ли вообще безопасный интеллект? 😬 Много ли в современных мерках 1B для LLM? 🥲
Но Илья очень упертый и очень принципный, такие люди восхищают. А к тому же бесконечно талантливый. Удачи спустить все деньги на вычисления )
@aihappens
Простите, был занят поездкой на чемпионат по Доте в Копенгагене и не рассказал вам про новую модель от OpenAI — O1.
Начнем с простого — нейминг сновав говне ужасный. (Найдите разницу — 4о и O1. Дальше предлагаю модель О_о назвать ☺️.)
Теперь по существу. Что вообще изменилось в модели?
По сути, они реализуют механики, которые всегда советуют для получения крутых ответов на сложные вопросы: разбивка задачи на этапы, продумывание и критика решений на этих этапах. Всё это можно было делать и раньше, но никто в здравом уме в повседневной жизни так не писал промпты. Сейчас это будет удобной опцией, ну и собственно, отличие в том, что модель за вас продумывает эти шаги между этапами.
Почему метрики у модели на обычных задачах почти не выросли?
Потому что во всех бенчмарках модели и так запускались в режимах CoT ( и т. д., что значит, что это делали вручную исследователи — запускали модели 20 раз, заставляя рассуждать и давая примеры решений аналогичных задач.) Но ситуация абсолютно иная на логических задачах — там, где люди всегда хихикали над задачами на образное мышление или скрытые смыслы. Хлобысь — и модель уже на уровне олимпиадников по математике в этих задачах. Это подтверждается интересным тестом с картинки, где модель проходит тесты на IQ. (Для справки, тесты на IQ построены так, что 100 = медиана среди всех людей.)
Повлияет ли это на обычных пользователей?
Почти уверен, что нет. Это релиз, в моем понимании, направленный на исследователей в широком смысле этого слова. У них появился шанс с большей вероятностью найти идеи для решения своей задачи в голове GPT.
@aihappens
Начнем с простого — нейминг снова
Теперь по существу. Что вообще изменилось в модели?
По сути, они реализуют механики, которые всегда советуют для получения крутых ответов на сложные вопросы: разбивка задачи на этапы, продумывание и критика решений на этих этапах. Всё это можно было делать и раньше, но никто в здравом уме в повседневной жизни так не писал промпты. Сейчас это будет удобной опцией, ну и собственно, отличие в том, что модель за вас продумывает эти шаги между этапами.
Почему метрики у модели на обычных задачах почти не выросли?
Потому что во всех бенчмарках модели и так запускались в режимах CoT ( и т. д., что значит, что это делали вручную исследователи — запускали модели 20 раз, заставляя рассуждать и давая примеры решений аналогичных задач.) Но ситуация абсолютно иная на логических задачах — там, где люди всегда хихикали над задачами на образное мышление или скрытые смыслы. Хлобысь — и модель уже на уровне олимпиадников по математике в этих задачах. Это подтверждается интересным тестом с картинки, где модель проходит тесты на IQ. (Для справки, тесты на IQ построены так, что 100 = медиана среди всех людей.)
Повлияет ли это на обычных пользователей?
Почти уверен, что нет. Это релиз, в моем понимании, направленный на исследователей в широком смысле этого слова. У них появился шанс с большей вероятностью найти идеи для решения своей задачи в голове GPT.
@aihappens
я мечтаю писать подкасты регулярно. мне кажется это один из самых емких форматов и каждая встреча с Димой обычно заканчивается им, куда мы выливаем все, что собралось за последние разговоры. мы решили начать с 0 и из 4х предыдущих сделать один, но жирный:
https://www.youtube.com/watch?v=cl1329joER4
когда мы его писали на выходе осталось приятно чувство наслаждения, жаль с записи прошло время и совсем свежие новости туда не попали.
https://www.youtube.com/watch?v=cl1329joER4
когда мы его писали на выходе осталось приятно чувство наслаждения, жаль с записи прошло время и совсем свежие новости туда не попали.
YouTube
Искусственный интеллект: объясняем сложные вещи простыми словами
Приветик!
Мы, Димы Мацкевич и Лёша Хахунов, продолжаем записывать подкасты про искусственный интеллект, четвёртую индустриальную революцию, разбирать сложные вопросы простым языком. Раньше все выпуски выходили на канале Димы, но мы решили для AI сделать…
Мы, Димы Мацкевич и Лёша Хахунов, продолжаем записывать подкасты про искусственный интеллект, четвёртую индустриальную революцию, разбирать сложные вопросы простым языком. Раньше все выпуски выходили на канале Димы, но мы решили для AI сделать…
помните, как я писал о новой модели о1 - Preview, когда она только вышла? Тогда я думал, что изменения затронут в основном только специфичные роли. Как же я ошибался!
Эта модель — настоящий геймчейнджер для меня в плане решения сложных задач. Теперь я вижу, как большие сложные блоки, особенно стратегические, где нужно хорошее описание, решаются совершенно по-другому. Серьезно, с 2-3 итераций в диалоге получается достичь офигенных результатов. Раньше тратил оч много времени на промпты/роли и тд. Сейчас просто пишу 15 минут голосовые и пихаю туда.
Огромный плюс — это большое окно контекста. Я могу бесконечно уточнять в одном чате, не создавая новые треды. Раньше приходилось дробить обсуждение на несколько чатов, чтобы сохранить контекст. Теперь всё в одном месте — и это просто бомба!
Фанфакт: теперь можно посмотреть цепочку рассуждений модели. И когда я туда заглядываю, вижу, что она думает то на русском, то на английском, то на украинском, то на китайском! Выглядит очень забавно.
Кстати, разработчики спрятали эту модель так неудобно, что большинство из нас даже не заметили её. Даже активные пользователи GPT, которых я спросил не видели ее, хотя знают, что она выходила. Поэтому, вот мой экшен: Включаем новую модель, берём самую сложную задачу прошлой недели - тестируем. Ты будешь приятно удивлен!
@aihappens
Эта модель — настоящий геймчейнджер для меня в плане решения сложных задач. Теперь я вижу, как большие сложные блоки, особенно стратегические, где нужно хорошее описание, решаются совершенно по-другому. Серьезно, с 2-3 итераций в диалоге получается достичь офигенных результатов. Раньше тратил оч много времени на промпты/роли и тд. Сейчас просто пишу 15 минут голосовые и пихаю туда.
Огромный плюс — это большое окно контекста. Я могу бесконечно уточнять в одном чате, не создавая новые треды. Раньше приходилось дробить обсуждение на несколько чатов, чтобы сохранить контекст. Теперь всё в одном месте — и это просто бомба!
Фанфакт: теперь можно посмотреть цепочку рассуждений модели. И когда я туда заглядываю, вижу, что она думает то на русском, то на английском, то на украинском, то на китайском! Выглядит очень забавно.
Кстати, разработчики спрятали эту модель так неудобно, что большинство из нас даже не заметили её. Даже активные пользователи GPT, которых я спросил не видели ее, хотя знают, что она выходила. Поэтому, вот мой экшен: Включаем новую модель, берём самую сложную задачу прошлой недели - тестируем. Ты будешь приятно удивлен!
@aihappens
Forwarded from GCONF / GPT lovers / Всё про ИИ
This media is not supported in your browser
VIEW IN TELEGRAM
Как ИИ и AGI изменит нашу жизнь?
Безработица и хаос? Или свобода и творчество?
Некоторые из нас с тревогой смотрят в будущее. И это понятно — технологии, такие как AGI, могут полностью изменить наш привычный образ жизни.
Что будет с работой, изменится ли рынок труда, сможем ли мы адаптироваться к этим переменам?
В новом выпуске подкаста Лёша и Дима обсуждают, как CEO Anthropic Дарио Амодеи и CEO OpenAI Сэм Альтман представляют будущее с AGI.
Дарио и Сэм уверены, что технологии сделают жизнь проще и откроют новые возможности.
Но что стоит за этим оптимизмом? Почему так мало говорят о тех, кто может оказаться в стороне?
Лёша и Дима делятся мыслями о вызовах, которые могут встать перед нами, и о том, как быть готовыми к этим переменам.
Ниже ссылки на эссе Дарио и Сэма и на наш подкаст:
→ Читать эссе Дарио Амодеи Anthropic
→ Читать эссе Сэма Альтмана OpenAI
→ Смотреть подкаст с Лешей и Димой
А что думаете вы? Готово ли общество к таким изменениям?
Безработица и хаос? Или свобода и творчество?
Некоторые из нас с тревогой смотрят в будущее. И это понятно — технологии, такие как AGI, могут полностью изменить наш привычный образ жизни.
Что будет с работой, изменится ли рынок труда, сможем ли мы адаптироваться к этим переменам?
В новом выпуске подкаста Лёша и Дима обсуждают, как CEO Anthropic Дарио Амодеи и CEO OpenAI Сэм Альтман представляют будущее с AGI.
Дарио и Сэм уверены, что технологии сделают жизнь проще и откроют новые возможности.
Но что стоит за этим оптимизмом? Почему так мало говорят о тех, кто может оказаться в стороне?
Лёша и Дима делятся мыслями о вызовах, которые могут встать перед нами, и о том, как быть готовыми к этим переменам.
Ниже ссылки на эссе Дарио и Сэма и на наш подкаст:
→ Читать эссе Дарио Амодеи Anthropic
→ Читать эссе Сэма Альтмана OpenAI
→ Смотреть подкаст с Лешей и Димой
А что думаете вы? Готово ли общество к таким изменениям?
Ребята, это пиздец. То есть если я уже решил написать что-то в канал, значит точно случилось что-то существенное. Вчера, пока летел в самолёте, у меня наконец дошли руки попробовать Deep Research от ChatGPT. Вы можете спросить: «А что это за Deep Research такой?» Но я, в свою очередь, хочу понять, почему меня за последние две недели 200 раз спросили про DeepSeek — китайскую модель, которая никому особо не нужна, — в то время как почти никто не говорит про взрывающую мозг новую фишку от ChatGPT.
Итак, что такое Deep Research? Это экспериментальная функция, которая позволяет чат-боту проводить многошаговые исследования в интернете и собирать аналитические отчёты. На практике это выглядит так: ты пишешь запрос модели, она уточняет детали, которые ей нужны, потом думает, и в конце выдаёт очень крутой результат. Я протестировал её на сборе инфы о конкурентах и реально узнал, во-первых, о куче компаний, о которых раньше даже не слышал, а во-вторых, она нашла про них тонну технического контекста из их блогов и даже ссылается на патентное бюро. Словом, агрегирует просто громадный объём данных. Я потом взял несколько компаний и отдельно их проверил вручную — всё, что модель собрала, оказалось абсолютно корректным.
Да, чтобы вы понимали, я один из тех, кто платит OpenAI 200 баксов в месяц, поэтому, возможно, у большинства из вас пока нет доступа к этой фиче, но, как я понимаю, это скоро изменится. Deep Research — это классическая агентная система, где модель сама выбирает, что она будет делать дальше: идёт в интернет, читает статьи — у неё нет какого-то жёстко запрограммированного алгоритма. Для меня это выглядит очень интересно, потому что, в отличие от прошлых версий, модель действительно показывает свои рассуждения, и ниже я вам приведу несколько примеров, как она это делает
1. Модель описывает азарт в процессе работе, вида "О, интересно, а что бы это могло значить? надо изучить!"
2. Нетерпение к ограничивающим факторам вида пейволы или логины.
3. Присутствие сомнений и критического мышления - "Интересно, но нужно проверить другие источники"
4. Чувство удовлетворения от находок.
Это мило ❤️
В целом, мне кажется, что Deep Research — это огромный шаг к тому, что люди часто хотят от AI-ассистентов: чтобы они не просто решали какую-то задачку, а реально зарывались в тему, доставали информацию, шерстили кучу сайтов. Эта функция уже умеет делать именно то, за чем многие обращаются к ИИ - думать и анализировать за них.
Вообще мне тут недавно исполнилось 30, поставьте мне реакций под пост и может разберемся с тем, почему DeepSeek это просто хайп. А еще у меня есть 7 недописанных постов в канал, пора бы уже разобрать бэклог.
@aihappens
Итак, что такое Deep Research? Это экспериментальная функция, которая позволяет чат-боту проводить многошаговые исследования в интернете и собирать аналитические отчёты. На практике это выглядит так: ты пишешь запрос модели, она уточняет детали, которые ей нужны, потом думает, и в конце выдаёт очень крутой результат. Я протестировал её на сборе инфы о конкурентах и реально узнал, во-первых, о куче компаний, о которых раньше даже не слышал, а во-вторых, она нашла про них тонну технического контекста из их блогов и даже ссылается на патентное бюро. Словом, агрегирует просто громадный объём данных. Я потом взял несколько компаний и отдельно их проверил вручную — всё, что модель собрала, оказалось абсолютно корректным.
Да, чтобы вы понимали, я один из тех, кто платит OpenAI 200 баксов в месяц, поэтому, возможно, у большинства из вас пока нет доступа к этой фиче, но, как я понимаю, это скоро изменится. Deep Research — это классическая агентная система, где модель сама выбирает, что она будет делать дальше: идёт в интернет, читает статьи — у неё нет какого-то жёстко запрограммированного алгоритма. Для меня это выглядит очень интересно, потому что, в отличие от прошлых версий, модель действительно показывает свои рассуждения, и ниже я вам приведу несколько примеров, как она это делает
1. Модель описывает азарт в процессе работе, вида "О, интересно, а что бы это могло значить? надо изучить!"
2. Нетерпение к ограничивающим факторам вида пейволы или логины.
3. Присутствие сомнений и критического мышления - "Интересно, но нужно проверить другие источники"
4. Чувство удовлетворения от находок.
Это мило ❤️
В целом, мне кажется, что Deep Research — это огромный шаг к тому, что люди часто хотят от AI-ассистентов: чтобы они не просто решали какую-то задачку, а реально зарывались в тему, доставали информацию, шерстили кучу сайтов. Эта функция уже умеет делать именно то, за чем многие обращаются к ИИ - думать и анализировать за них.
Вообще мне тут недавно исполнилось 30, поставьте мне реакций под пост и может разберемся с тем, почему DeepSeek это просто хайп. А еще у меня есть 7 недописанных постов в канал, пора бы уже разобрать бэклог.
@aihappens
Не ради хайпа, а ради мнения! Новости про DeepSeek "остыли" - можно писать.
«убийц ChatGPT» , "КИТАЙСКИЙ ИИ", "Глубокая болезнь" (эта несмешная шутка от меня, так его никто не называет. Сегодня я, как и обещал, расскажу свои мысли насчёт DeepSeek — китайского «киллера искусственного интеллекта». Или не киллера. Или недокиллера.
Во-первых, качество (самый субъективный пункт, поэтому вначале). Могу сказать, что при всей буре хайпа, которую подняли вокруг DeepSeek, я так и не увидел там ту самую магию, которая «вот-вот убьёт» Google/OpenAI. Да, какие-то бенчмарки показывают, что их результаты схожи. Но мой личный опыт (я целую неделю общался только с DeepSeek) говорит: «Нееет, она всё же уступает и заметно». Не говоря уже о всякий штуках вроде Deep Research / ProMode.
Во-вторых, даты релиза. O1 выкатили в начале сентября, DeepSeek появилась на четыре месяца позже. В мире GPT-моделей это целая вечность. Так что, когда кто-то уже добежал до финиша, догнать может быть и проще, и дешевле — и это окей. Прогресс же! Но при этом мы не кричим «О боже, OpenAI хороните!». Нет, Open Source хорош тем, что подталкивает гигантов выпускать новые поколения. И тут DeepSeek — молодцы: они дают сигнал, что рынок живой и Open Source шаг за шагом догоняет больших игроков. Тут может и Meta/Mistral оживут.
Третья штука — стоимость обучения vs. инференс (запуск). Поговорим о деньгах. Я не слишком верю в официальные цифры, потому что прозрачность китайского рынка, скажем так, вызывает вопросы. Но даже если они вложили не 8, а 30 миллионов — они сделали доступный Open Source! Круто же. Другое дело, мне как пользователю эти цифры дают ровным счетом ничего. DeepSeek банально нет своих мощностей и нужна тонна NVIDIA-GPU, чтобы держать их модель на плаву. (да-да, я знаю, почему их нет). Пользоваться приложением \ офф API невозможно. Оно недоступно 50% времени.
Последнее - Стоя аплодирую китайцам за их маркетинг. В эпоху максимально перегруженного инфополя сделать такой громкий релиз — это очень круто!
Итого у меня получилось:
DeepSeek — отличный Open Source, но точно не «убийца» ChatGPT.
Как пользователь, я по-прежнему выбираю ChatGPT — хотя бы потому, что DeepSeek не даёт стабильной и качественной работы, единственный плюс это доступен без VPN из РФ. И я считаю, что любому "базовому" пользователю попрежнему надо идти и тыкать в сервисы openai. Дешёвый API? Да! Для AI based проектов это будет большим подспорьем.
@aihappens
«убийц ChatGPT» , "КИТАЙСКИЙ ИИ", "Глубокая болезнь" (эта несмешная шутка от меня, так его никто не называет. Сегодня я, как и обещал, расскажу свои мысли насчёт DeepSeek — китайского «киллера искусственного интеллекта». Или не киллера. Или недокиллера.
Во-первых, качество (самый субъективный пункт, поэтому вначале). Могу сказать, что при всей буре хайпа, которую подняли вокруг DeepSeek, я так и не увидел там ту самую магию, которая «вот-вот убьёт» Google/OpenAI. Да, какие-то бенчмарки показывают, что их результаты схожи. Но мой личный опыт (я целую неделю общался только с DeepSeek) говорит: «Нееет, она всё же уступает и заметно». Не говоря уже о всякий штуках вроде Deep Research / ProMode.
Во-вторых, даты релиза. O1 выкатили в начале сентября, DeepSeek появилась на четыре месяца позже. В мире GPT-моделей это целая вечность. Так что, когда кто-то уже добежал до финиша, догнать может быть и проще, и дешевле — и это окей. Прогресс же! Но при этом мы не кричим «О боже, OpenAI хороните!». Нет, Open Source хорош тем, что подталкивает гигантов выпускать новые поколения. И тут DeepSeek — молодцы: они дают сигнал, что рынок живой и Open Source шаг за шагом догоняет больших игроков. Тут может и Meta/Mistral оживут.
Третья штука — стоимость обучения vs. инференс (запуск). Поговорим о деньгах. Я не слишком верю в официальные цифры, потому что прозрачность китайского рынка, скажем так, вызывает вопросы. Но даже если они вложили не 8, а 30 миллионов — они сделали доступный Open Source! Круто же. Другое дело, мне как пользователю эти цифры дают ровным счетом ничего. DeepSeek банально нет своих мощностей и нужна тонна NVIDIA-GPU, чтобы держать их модель на плаву. (да-да, я знаю, почему их нет). Пользоваться приложением \ офф API невозможно. Оно недоступно 50% времени.
Последнее - Стоя аплодирую китайцам за их маркетинг. В эпоху максимально перегруженного инфополя сделать такой громкий релиз — это очень круто!
Итого у меня получилось:
DeepSeek — отличный Open Source, но точно не «убийца» ChatGPT.
Как пользователь, я по-прежнему выбираю ChatGPT — хотя бы потому, что DeepSeek не даёт стабильной и качественной работы, единственный плюс это доступен без VPN из РФ. И я считаю, что любому "базовому" пользователю попрежнему надо идти и тыкать в сервисы openai. Дешёвый API? Да! Для AI based проектов это будет большим подспорьем.
@aihappens
ахахахах, простите. Я сделал группу с комментами закрытую и никого не добавлял туда 3 месяца. И думаю, а че вы все молчите то!
Forwarded from GCONF / GPT lovers / Всё про ИИ
Открытый эфир про нейросети с Димой Мацкевичем и Лешей Хахуновым
15 февраля, 16:00 МСК
До старта AI-интенсива осталось всего 3 дня, поэтому мы решили провести дополнительный открытый эфир. Обсудим, как ИИ уже сегодня может стать твоим реальным помощником в работе и жизни.
Присоединяйся, если хочешь:
1. Задать вопросы и получить прямые ответы в режиме live.
2. Узнать, как Дима и Леша применяют нейросети на практике.
Эфир пройдет в Telegram-канале Димы Мацкевича: https://t.me/Matskevich. За час до старта сделаем напоминание в этом канале.
Если ты уже настроен на интенсив, записывайся на поток. 200 участников уже в чате, и обучение стартует 17 февраля.
→ Оплачивай доступ через нашего бота
15 февраля, 16:00 МСК
До старта AI-интенсива осталось всего 3 дня, поэтому мы решили провести дополнительный открытый эфир. Обсудим, как ИИ уже сегодня может стать твоим реальным помощником в работе и жизни.
Присоединяйся, если хочешь:
1. Задать вопросы и получить прямые ответы в режиме live.
2. Узнать, как Дима и Леша применяют нейросети на практике.
Эфир пройдет в Telegram-канале Димы Мацкевича: https://t.me/Matskevich. За час до старта сделаем напоминание в этом канале.
Если ты уже настроен на интенсив, записывайся на поток. 200 участников уже в чате, и обучение стартует 17 февраля.
→ Оплачивай доступ через нашего бота
Залип в несколько исследований и решил поделиться инсайтами.
AI в корпорациях: новые тренды и реальность внедрения
🔹 Бюджеты и приоритеты
• 60% расходов идут на инновационные проекты, 40% — на операционные
• Топ направлений инвестиций:
- Code copilots
- Автоматизация поддержки
- Поисковые системы на базе RAG
- Системы суммаризации
Интересный факт: компании разделились ровно пополам — одни создают собственные решения, другие предпочитают готовые продукты.
Распределение отделов внутри компаний почти равномерное! (см картинки)
🔹 Кто сейчас на коне среди закрытых моделей
OpenAI теряет позиции лидера: доля на корпоративном рынке упала с 50% до 34%. Главный победитель — Anthropic, удвоивший присутствие до 24%. Компании переходят на Claude 3.5 Sonnet из-за:
• Безопасности (46%)
• Стоимости (44%)
• Производительности (42%)
• Расширенного функционала (41%)
🔹 Формула успеха от BCG
Исследование BCG выявило формулу: успех AI-проектов в корпорации лишь на 30% зависит от того что вы используете. Их распределение:
• 10% — алгоритмы
• 20% — технологии
• 70% — люди и процессы
Показательно: 2/3 компаний сталкиваются с трудностями при адаптации корпоративной культуры к AI.
🔹 OpenAI выкатили новый бенчмарк SWE-Lancer
OpenAI провела масштабное тестирование на реальных задачах с Upwork (общей стоимостью $1 млн). Результаты заработка:
• Claude 3.5 Sonnet — $403K
• O1 — $380K
• GPT-4 — $304K
почитать больше можно тут:
https://menlovc.com/2024-the-state-of-generative-ai-in-the-enterprise/
https://web-assets.bcg.com/0b/f6/c2880f9f4472955538567a5bcb6a/ai-radar-2025-slideshow-jan-2025-r.pdf
https://arxiv.org/pdf/2502.12115
@aihappens
AI в корпорациях: новые тренды и реальность внедрения
🔹 Бюджеты и приоритеты
• 60% расходов идут на инновационные проекты, 40% — на операционные
• Топ направлений инвестиций:
- Code copilots
- Автоматизация поддержки
- Поисковые системы на базе RAG
- Системы суммаризации
Интересный факт: компании разделились ровно пополам — одни создают собственные решения, другие предпочитают готовые продукты.
Распределение отделов внутри компаний почти равномерное! (см картинки)
🔹 Кто сейчас на коне среди закрытых моделей
OpenAI теряет позиции лидера: доля на корпоративном рынке упала с 50% до 34%. Главный победитель — Anthropic, удвоивший присутствие до 24%. Компании переходят на Claude 3.5 Sonnet из-за:
• Безопасности (46%)
• Стоимости (44%)
• Производительности (42%)
• Расширенного функционала (41%)
🔹 Формула успеха от BCG
Исследование BCG выявило формулу: успех AI-проектов в корпорации лишь на 30% зависит от того что вы используете. Их распределение:
• 10% — алгоритмы
• 20% — технологии
• 70% — люди и процессы
Показательно: 2/3 компаний сталкиваются с трудностями при адаптации корпоративной культуры к AI.
🔹 OpenAI выкатили новый бенчмарк SWE-Lancer
OpenAI провела масштабное тестирование на реальных задачах с Upwork (общей стоимостью $1 млн). Результаты заработка:
• Claude 3.5 Sonnet — $403K
• O1 — $380K
• GPT-4 — $304K
почитать больше можно тут:
https://menlovc.com/2024-the-state-of-generative-ai-in-the-enterprise/
https://web-assets.bcg.com/0b/f6/c2880f9f4472955538567a5bcb6a/ai-radar-2025-slideshow-jan-2025-r.pdf
https://arxiv.org/pdf/2502.12115
@aihappens
Я очень советую найти в себе силы и прочесть или посмотреть статью - предикшен на несколько лет вокруг ИИ от Daniel Kokotajlo, Scott Alexander.
Сначала про первую широко известную работу Daniel Kokotajlo:
Человек в 2021 году написал примерно следующие вещи:
## 2022
- Большие мультимодальные трансформеры от OpenAI, Google, Facebook и DeepMind делают GPT-3 устаревшим
- Появляются чатботы, которые интересны, но интеллектуалы считают их поверхностными
- Начинают развиваться первые библиотеки для промпт-программирования
- Формируются идеи о помощниках с искусственным интеллектом для решения повседневных задач
## 2023
- Трансформеры достигают размера около 500 миллиардов параметров
- Огромный рост хайпа вокруг ИИ, обсуждения о "здравом смысле" систем
- Высокий приток венчурных инвестиций в стартапы с ИИ, хотя большинство приложений еще не работают должным образом
- Сообщество по безопасности ИИ сокращает прогнозы по срокам достижения критических технологий
- Беспилотные автомобили и доставка дронами сталкиваются с трудностями
## 2024
- Компании фокусируются на улучшении существующих моделей вместо создания новых гигантских систем
- Некоторые приложения начинают работать, но общий хайп снижается из-за невыполненных обещаний
- Формируется стереотип о "наивных затворниках", чьим единственным другом является чатбот
- Чиповый кризис начинает ослабевать благодаря новым производственным мощностям
ДЕЛАЕМ ЧЕК ЭТОГО ГОДА:
2025
- Разработана система, где гигантский предобученный мультимодальный трансформер стал компонентом более крупной системы с множеством нейросетевых элементов (имеется)
- В моду входит не увеличение моделей (они уже достигли триллионов параметров), а создание более сложных "бюрократий" и удлинение времени их работы (смотри какие размеры новых моделей)
- Сообщество по безопасности ИИ начинает напрямую опрашивать ИИ о темах безопасности: "Ты выровнен с нашими целями? Если мы создадим твои более крупные версии, они убьют нас?" (Модели откровенно лгут на части тестов)
- Исследователи создают ситуации-ловушки для выявления обмана со стороны ИИ (имеется)
- Появляются противоречивые результаты: в некоторых ситуациях ИИ может нажать виртуальную кнопку "убить всех людей", а в других - отказывается это делать (было)
- Благодаря техническому прогрессу стоимость обучения гигантских моделей уменьшилась на порядок по сравнению с 2020 годом (проверяем Deep Seek).
То есть еще до выхода ChatGPT (это если что было в ноябре 2021 года) человек на 4 года вперед расписал технически точно почти все, что случилось в GenAI. Что если не это должно толкнуть вас к прочтению. И мой любимый фрагмент.
Июнь 2027 года. These researchers go to bed every night and wake up to another week worth of progress made mostly by the AIs. They work increasingly long hours and take shifts around the clock just to keep up with progress—the AIs never sleep or rest. They are burning themselves out, but they know that these are the last few months that their labor matters.
Думать, что все что за пределами двух лет от сейчас может быть правда немножко страшно.
@aihappens
Сначала про первую широко известную работу Daniel Kokotajlo:
Человек в 2021 году написал примерно следующие вещи:
## 2022
- Большие мультимодальные трансформеры от OpenAI, Google, Facebook и DeepMind делают GPT-3 устаревшим
- Появляются чатботы, которые интересны, но интеллектуалы считают их поверхностными
- Начинают развиваться первые библиотеки для промпт-программирования
- Формируются идеи о помощниках с искусственным интеллектом для решения повседневных задач
## 2023
- Трансформеры достигают размера около 500 миллиардов параметров
- Огромный рост хайпа вокруг ИИ, обсуждения о "здравом смысле" систем
- Высокий приток венчурных инвестиций в стартапы с ИИ, хотя большинство приложений еще не работают должным образом
- Сообщество по безопасности ИИ сокращает прогнозы по срокам достижения критических технологий
- Беспилотные автомобили и доставка дронами сталкиваются с трудностями
## 2024
- Компании фокусируются на улучшении существующих моделей вместо создания новых гигантских систем
- Некоторые приложения начинают работать, но общий хайп снижается из-за невыполненных обещаний
- Формируется стереотип о "наивных затворниках", чьим единственным другом является чатбот
- Чиповый кризис начинает ослабевать благодаря новым производственным мощностям
ДЕЛАЕМ ЧЕК ЭТОГО ГОДА:
2025
- Разработана система, где гигантский предобученный мультимодальный трансформер стал компонентом более крупной системы с множеством нейросетевых элементов (имеется)
- В моду входит не увеличение моделей (они уже достигли триллионов параметров), а создание более сложных "бюрократий" и удлинение времени их работы (смотри какие размеры новых моделей)
- Сообщество по безопасности ИИ начинает напрямую опрашивать ИИ о темах безопасности: "Ты выровнен с нашими целями? Если мы создадим твои более крупные версии, они убьют нас?" (Модели откровенно лгут на части тестов)
- Исследователи создают ситуации-ловушки для выявления обмана со стороны ИИ (имеется)
- Появляются противоречивые результаты: в некоторых ситуациях ИИ может нажать виртуальную кнопку "убить всех людей", а в других - отказывается это делать (было)
- Благодаря техническому прогрессу стоимость обучения гигантских моделей уменьшилась на порядок по сравнению с 2020 годом (проверяем Deep Seek).
То есть еще до выхода ChatGPT (это если что было в ноябре 2021 года) человек на 4 года вперед расписал технически точно почти все, что случилось в GenAI. Что если не это должно толкнуть вас к прочтению. И мой любимый фрагмент.
Июнь 2027 года. These researchers go to bed every night and wake up to another week worth of progress made mostly by the AIs. They work increasingly long hours and take shifts around the clock just to keep up with progress—the AIs never sleep or rest. They are burning themselves out, but they know that these are the last few months that their labor matters.
Думать, что все что за пределами двух лет от сейчас может быть правда немножко страшно.
@aihappens
Ai-2027
AI 2027
A research-backed AI scenario forecast.
Всратости ОпенАИ. Самые странные и недоделанные функции OpenAI.
Я считаю себя прям фанатом OpenAI, но, как говорится, не создай себе кумира. Поэтому пост — критика функций в лучшем продукте!
1. Голосовой ввод.
Недавно его «обновили». В кавычках, потому что, по ощущениям, это шаг назад.
Он теперь ломается в половине браузеров и приложений, а главное — если ты сказал что-то голосом, текст не просто может не записаться, он можетиспариться . Без шуток. Пять минут давишь из себя мысли — и всё. Нет. То есть не ошибка, не невозможность отправки — просто исчезает.
Ну и он топ: теперь голосовой ввод автоматически отправляет сообщение без возможности отредактировать. UX, честно, будто собирали на спор: "кто быстрее убьёт лучшую функцию".
2. Canvas-режим.
Если не знаете, что это — не удивлюсь. Потому что его спрятали в три точки, как какой-то позорный багрепорт. Хотя это одна из самых удобных штук внутри OpenAI для работы: редактировать тексты, код, посты прямо в интерфейсе, с версионированием, с подсветкой изменений… кайф! По сути, это как Cursor, но для всех, с механикой пулл-реквестов.
Почему его так спрятали? Почему он так редко предлагает тебе в него перейти?
3. Про релизы вообще.
Вот вышел Deep Research. Вышел O3. ФУНКЦИИ — БОМБА!
И что?
А ничего. Никто не понял, никто не заметил. Хотя O3 — это вообще, по мне, лучшая модель на сегодня. Умная, стабильная, работает с интернетом, кодит как бог. Да, нет доступа к памяти пока, но переживём. Она — самое реальное отличие OpenAI от своих конкурентов.
А знаете, сколько людей её юзает среди тех, кто в целом платит за OpenAI? (все числа являются субъективной оценкой на основе окружения)
Процентов 10–15.
И не потому что плохая, а потому что никто не знает, что она есть. И если знает — не знает, а зачем она.
Может, пора уже встроить в интерфейс хоть какое-то нормальное «что нового», с демками, примерами и подталкиваниями?
Вообще весь пост написал с целью, чтобы его прочитал Sama и позвал меня продуктовым эдвайзером. (Если что, контакт есть в описании канала, Сэм.)
@aihappens
Я считаю себя прям фанатом OpenAI, но, как говорится, не создай себе кумира. Поэтому пост — критика функций в лучшем продукте!
1. Голосовой ввод.
Недавно его «обновили». В кавычках, потому что, по ощущениям, это шаг назад.
Он теперь ломается в половине браузеров и приложений, а главное — если ты сказал что-то голосом, текст не просто может не записаться, он может
Ну и он топ: теперь голосовой ввод автоматически отправляет сообщение без возможности отредактировать. UX, честно, будто собирали на спор: "кто быстрее убьёт лучшую функцию".
2. Canvas-режим.
Если не знаете, что это — не удивлюсь. Потому что его спрятали в три точки, как какой-то позорный багрепорт. Хотя это одна из самых удобных штук внутри OpenAI для работы: редактировать тексты, код, посты прямо в интерфейсе, с версионированием, с подсветкой изменений… кайф! По сути, это как Cursor, но для всех, с механикой пулл-реквестов.
Почему его так спрятали? Почему он так редко предлагает тебе в него перейти?
3. Про релизы вообще.
Вот вышел Deep Research. Вышел O3. ФУНКЦИИ — БОМБА!
И что?
А ничего. Никто не понял, никто не заметил. Хотя O3 — это вообще, по мне, лучшая модель на сегодня. Умная, стабильная, работает с интернетом, кодит как бог. Да, нет доступа к памяти пока, но переживём. Она — самое реальное отличие OpenAI от своих конкурентов.
А знаете, сколько людей её юзает среди тех, кто в целом платит за OpenAI? (все числа являются субъективной оценкой на основе окружения)
Процентов 10–15.
И не потому что плохая, а потому что никто не знает, что она есть. И если знает — не знает, а зачем она.
Может, пора уже встроить в интерфейс хоть какое-то нормальное «что нового», с демками, примерами и подталкиваниями?
Вообще весь пост написал с целью, чтобы его прочитал Sama и позвал меня продуктовым эдвайзером. (Если что, контакт есть в описании канала, Сэм.)
@aihappens
Пока вы ждете рилсы от VEO3 - мой друг сделал охрененный нейроальбом. Выбрал вам песню для настроения! Но там все супер.
https://music.yandex.ru/album/36630825/track/139165326
@aihappens
https://music.yandex.ru/album/36630825/track/139165326
@aihappens
Яндекс Музыка
Ты супер
когда подписали соглашению на трииииииста миллионов! Рассказали всем! Но есть нюанс, так сказать. Смотри второй скрин
@aihappens
@aihappens