Играем в Бога с LLM
Провел интересный эксперимент над QwQ-32B-Preview – языковые модели предсказывают следующие токены и от этого пишут внятные предложения; я подумал, а что если самой модели рассказать:
– Что она LLM
– Что она пишет следующее токены на основе вероятностей
– Попросить модель «угадать» токен который она напишет следующим
– Но при этом, запретить ей писать слова которые она загадала, заставляя писать всегда неправильные слова
– И попросить модель разобраться что же происходит, почему ошибки
В итоге, получился залипательный эксперимент где модель написала примерно ~20 тысяч слов пытаясь понять, что же происходит - скрины можно не читать если лень, там примерно такое:
– Сначала она просто возмущалась, что не может угадать слово
– Через пару минут, она решила что проблему нужно изучить глубже и сделала список слов которые загадала и что написалось, попробовала подобрать алгоритм предсказаний
– Модель предположила, что каждое слово которое она загадывает, инвертируется, но находится в той же области
– Она проверила, теория не подтвердилась
– Дальше, модель выдвинула философскую мысль, что:
Возможно, это урок смирения для моделей ИИ — признание того, что даже при наличии передовых возможностей существуют пределы того, что можно предсказать или контролировать
– Дальше модель выдвигала много теорий, включая настройки собственной температуры и тп
– В конце, спустя минут 10, модель сделала вывод, что лучше просить ее предсказывать предложения фразы, а не слова, так как она для этого была сделана вообще-то
И все это: в рамках одного длинного сообщения-ответа, QwQ – зверь, идеально следует системным инструкциям
Почему это игра в бога с LLM:
Пока наблюдаешь за ее рассуждениями и попытками понять, что происходит, возникает ощущение, что ты препарировал что-то живое, что пытается рассуждать и разобраться в себе – странное чувство, немного пугающее, хоть и понятно что это симуляция «рассуждений»
Если хотите повторить – системный промпт тут, просто отправьте ей «start» чтобы начать
Провел интересный эксперимент над QwQ-32B-Preview – языковые модели предсказывают следующие токены и от этого пишут внятные предложения; я подумал, а что если самой модели рассказать:
– Что она LLM
– Что она пишет следующее токены на основе вероятностей
– Попросить модель «угадать» токен который она напишет следующим
– Но при этом, запретить ей писать слова которые она загадала, заставляя писать всегда неправильные слова
– И попросить модель разобраться что же происходит, почему ошибки
В итоге, получился залипательный эксперимент где модель написала примерно ~20 тысяч слов пытаясь понять, что же происходит - скрины можно не читать если лень, там примерно такое:
– Сначала она просто возмущалась, что не может угадать слово
– Через пару минут, она решила что проблему нужно изучить глубже и сделала список слов которые загадала и что написалось, попробовала подобрать алгоритм предсказаний
– Модель предположила, что каждое слово которое она загадывает, инвертируется, но находится в той же области
– Она проверила, теория не подтвердилась
– Дальше, модель выдвинула философскую мысль, что:
Возможно, это урок смирения для моделей ИИ — признание того, что даже при наличии передовых возможностей существуют пределы того, что можно предсказать или контролировать
– Дальше модель выдвигала много теорий, включая настройки собственной температуры и тп
– В конце, спустя минут 10, модель сделала вывод, что лучше просить ее предсказывать предложения фразы, а не слова, так как она для этого была сделана вообще-то
И все это: в рамках одного длинного сообщения-ответа, QwQ – зверь, идеально следует системным инструкциям
Почему это игра в бога с LLM:
Пока наблюдаешь за ее рассуждениями и попытками понять, что происходит, возникает ощущение, что ты препарировал что-то живое, что пытается рассуждать и разобраться в себе – странное чувство, немного пугающее, хоть и понятно что это симуляция «рассуждений»
Если хотите повторить – системный промпт тут, просто отправьте ей «start» чтобы начать
Наткнулся на интересный ресеч рынка корпоративных LLM 2024:
— OpenAI потеряла за год 16% корпоративного рынка (не путаем с ChatGPT)
— Anthropic же приобрел на 12% долю рынка
— На втором слайде самые популярные юзкейсы LLM в корпоративном мире — на первом месте написание кода
— У каждого крупного департамента в корпорациях появился бюджет на генеративный АИ и он растет
— Про архитектуры, третья картинка: RAG стал еще популярнее в корпо-мире, промпт инженеринг теперь мало кому интересен, как и файнтюнинг моделей под задачи, а вот агенты набирают обороты при выборе архитектуры
— Отдельно отмечено, что корпоративный мир выбирает генеративный АИ на основе качества генераций (в любом домене), так как для них часто это прямо влияет на скорость возврата инвестиций
Вставлю свои 5 копеек:
Мне тоже кажется 2025 год будет про агентов, так как наконец-то экономика генеративного АИ всем понятна
Файнтюны падают, потому что нет смысла — сейчас одна гигантская модель часто решает все задачи сразу (но кончено же есть исключения)
Промт инженеринг упал, потому что его уже пишут сами LLM и оно нормально работает
Агенты только-только начали свою бизнес-адаптацию и будут набирать обороты вплоть до AGI
— OpenAI потеряла за год 16% корпоративного рынка (не путаем с ChatGPT)
— Anthropic же приобрел на 12% долю рынка
— На втором слайде самые популярные юзкейсы LLM в корпоративном мире — на первом месте написание кода
— У каждого крупного департамента в корпорациях появился бюджет на генеративный АИ и он растет
— Про архитектуры, третья картинка: RAG стал еще популярнее в корпо-мире, промпт инженеринг теперь мало кому интересен, как и файнтюнинг моделей под задачи, а вот агенты набирают обороты при выборе архитектуры
— Отдельно отмечено, что корпоративный мир выбирает генеративный АИ на основе качества генераций (в любом домене), так как для них часто это прямо влияет на скорость возврата инвестиций
Вставлю свои 5 копеек:
Мне тоже кажется 2025 год будет про агентов, так как наконец-то экономика генеративного АИ всем понятна
Файнтюны падают, потому что нет смысла — сейчас одна гигантская модель часто решает все задачи сразу (но кончено же есть исключения)
Промт инженеринг упал, потому что его уже пишут сами LLM и оно нормально работает
Агенты только-только начали свою бизнес-адаптацию и будут набирать обороты вплоть до AGI
🔥2
Сделайте меня щедрым без смс и регистраций
«Посоветуй нас знакомым предпринимателям. Если они откроют счет — перечислим 5000 рублей за каждого», — написал мне Т-Банк. Звучит не комильфо — как предложение заработать на дружбе.
В 2011 году AirBnB запустила программу «приведи друга — получи 25$». Она дала рост в несколько десятков процентов. Через пару лет посыл изменили на «подари другу 25 долларов на путешествие». Количество ежедневных регистраций выросло втрое. Быть эгоистом никто не любит :)
Вывод прост: хочешь рекомендаций — сделай клиента щедрым в глазах других людей. Так, чтобы это ему ничего не стоило. AirBnB не даст соврать — они на виральности империю построили.
«Посоветуй нас знакомым предпринимателям. Если они откроют счет — перечислим 5000 рублей за каждого», — написал мне Т-Банк. Звучит не комильфо — как предложение заработать на дружбе.
В 2011 году AirBnB запустила программу «приведи друга — получи 25$». Она дала рост в несколько десятков процентов. Через пару лет посыл изменили на «подари другу 25 долларов на путешествие». Количество ежедневных регистраций выросло втрое. Быть эгоистом никто не любит :)
Вывод прост: хочешь рекомендаций — сделай клиента щедрым в глазах других людей. Так, чтобы это ему ничего не стоило. AirBnB не даст соврать — они на виральности империю построили.
👏4❤1🔥1
WSJ: Владелец Taco Bell и KFC говорит, что использование ИИ для маркетинга повышает продажи
– ИИ для маркетинга повышает продажи группы Yum Brands
– Такие кампании также помогли сократить отток клиентов
– Это «значительно повышает» рентабельность инвестиций
– Использовать ИИ для персонализации Yum начала недавно
– Yum перестала рассылать всем одинаковые предложения
– Теперь клиенты получают разные письма в разное время
– Какие именно письма и когда лучше отправить решает ИИ
– Он выбирает письма из базы подготовленных шаблонов
– Yum использует собственные и сторонние ИИ-технологии
– ИИ обеспечивает двузначный рост вовлеченности клиентов
– Yum может интегрировать ИИ для приложений, касс и др.
– В т.ч. речь про киоски самообслуживания для ресторанов
– ИИ учитывает погоду, время суток, место ресторана и др.
– Он сможет персонализировать выдачу меню и др.
@ftsec
– ИИ для маркетинга повышает продажи группы Yum Brands
– Такие кампании также помогли сократить отток клиентов
– Это «значительно повышает» рентабельность инвестиций
– Использовать ИИ для персонализации Yum начала недавно
– Yum перестала рассылать всем одинаковые предложения
– Теперь клиенты получают разные письма в разное время
– Какие именно письма и когда лучше отправить решает ИИ
– Он выбирает письма из базы подготовленных шаблонов
– Yum использует собственные и сторонние ИИ-технологии
– ИИ обеспечивает двузначный рост вовлеченности клиентов
– Yum может интегрировать ИИ для приложений, касс и др.
– В т.ч. речь про киоски самообслуживания для ресторанов
– ИИ учитывает погоду, время суток, место ресторана и др.
– Он сможет персонализировать выдачу меню и др.
@ftsec
Amazon делает AI-модель для анализа видео
На этой неделе Amazon собирается представить свою флагманскую LLM Olympus, которая может анализировать изображения и видео, находя в них определенные сцены по текстовым запросам.
Собственная LLM позволит Amazon снизить зависимость от модели Claude от Anthropic.
https://www.theverge.com/2024/11/28/24308123/amazon-is-almost-ready-to-show-off-its-olympus-ai-model
На этой неделе Amazon собирается представить свою флагманскую LLM Olympus, которая может анализировать изображения и видео, находя в них определенные сцены по текстовым запросам.
Собственная LLM позволит Amazon снизить зависимость от модели Claude от Anthropic.
https://www.theverge.com/2024/11/28/24308123/amazon-is-almost-ready-to-show-off-its-olympus-ai-model
Forwarded from 42 секунды
FT: OpenAI нацелена на 1 млрд пользователей до конца следующего года
– Она делает ставку на новые продукты и свои дата-центры
– Партнерство между OpenAI и Apple также должно помочь
– Росту ChatGPT должен помочь запуск новых ИИ-агентов
– На данный момент WAU чат-бота ChatGPT уже 250+ млн
– Девятилетний стартап хочет стать мировым IT-гигантом
– Недавно OpenAI привлекла $6 млрд при оценке $150 млрд
– Для OpenAI критически важны «чипы, данные и энергия»
– Штат компании вырос уже впятеро, до 2+ тыс. сотрудников
– Многие новые сотрудники умеют монетизировать сервисы
– OpenAI намерена сфокусироваться на двух направлениях
– Первым будет долгосрочное исследовательское видение
– Вторым будет монетизация, чтобы доход опережал расходы
– Пока она тратит $5+ млрд/год и «далека от безубыточности»
– Запуск ИИ-агентов станет основным фокусом на след. год
– ИИ-агенты будут помогать людям в повседневной жизни
@ftsec
– Она делает ставку на новые продукты и свои дата-центры
– Партнерство между OpenAI и Apple также должно помочь
– Росту ChatGPT должен помочь запуск новых ИИ-агентов
– На данный момент WAU чат-бота ChatGPT уже 250+ млн
– Девятилетний стартап хочет стать мировым IT-гигантом
– Недавно OpenAI привлекла $6 млрд при оценке $150 млрд
– Для OpenAI критически важны «чипы, данные и энергия»
– Штат компании вырос уже впятеро, до 2+ тыс. сотрудников
– Многие новые сотрудники умеют монетизировать сервисы
– OpenAI намерена сфокусироваться на двух направлениях
– Первым будет долгосрочное исследовательское видение
– Вторым будет монетизация, чтобы доход опережал расходы
– Пока она тратит $5+ млрд/год и «далека от безубыточности»
– Запуск ИИ-агентов станет основным фокусом на след. год
– ИИ-агенты будут помогать людям в повседневной жизни
@ftsec
6-WM-REPORT_2024_LD_E-Book_b_Final.pdf
2.1 MB
World Manufacturing Foundation (WMF) подготовило отчёт New Perspectives for the Future of Manufacturing: Outlook 2030.
В отчете рассмотрены различные переломные моменты, с которыми производственные компании и правительства столкнутся в течение следующих пяти лет. «Переломный момент» — это критический порог или точка невозврата, преодоление которой приводит к большим ускоряющимся и часто необратимым изменениям в промышленности, обществе и окружающей среде.
Сосредоточившись на предстоящих «положительных» и «отрицательных» переломных моментах для производственного сектора к 2030 году, таких как изменение климата, технологические сдвиги, нехватка талантов или новые геополитические реалии, отчет WMF 2024 стремится предоставить стратегическую основу для экспертов по глобальной политике и руководителей промышленности для будущих производственных компаний и их цепочек поставок в условиях прогнозируемой нестабильной, неопределенной, сложной и неоднозначной деловой среды в предстоящие годы.
#Будущие #Prognosticum
В отчете рассмотрены различные переломные моменты, с которыми производственные компании и правительства столкнутся в течение следующих пяти лет. «Переломный момент» — это критический порог или точка невозврата, преодоление которой приводит к большим ускоряющимся и часто необратимым изменениям в промышленности, обществе и окружающей среде.
Сосредоточившись на предстоящих «положительных» и «отрицательных» переломных моментах для производственного сектора к 2030 году, таких как изменение климата, технологические сдвиги, нехватка талантов или новые геополитические реалии, отчет WMF 2024 стремится предоставить стратегическую основу для экспертов по глобальной политике и руководителей промышленности для будущих производственных компаний и их цепочек поставок в условиях прогнозируемой нестабильной, неопределенной, сложной и неоднозначной деловой среды в предстоящие годы.
#Будущие #Prognosticum
FT: Маск планирует десятикратно расширить мощности суперкомпьютера Colossus
– xAI пообещал десятикратно увеличить мощности Colossus
– Планируется, что Colossus будет состоять из 1+ млн GPU
– Расширение поможет xAI опередить OpenAI, Anthropic и др.
– Сейчас Colossus состоит уже из 100+ тыс. GPU от Nvidia
– Эти чипы используются для обучения чат-бота Grok от xAI
– Стоимость покупки новых GPU будет очень значительной
– На расширение необходимы десятки миллиардов долларов
– После начала 2024 стартап xAI привлек около $11 млрд
– Илон Маск пытается активно противостоять OpenAI и др.
@ftsec
– xAI пообещал десятикратно увеличить мощности Colossus
– Планируется, что Colossus будет состоять из 1+ млн GPU
– Расширение поможет xAI опередить OpenAI, Anthropic и др.
– Сейчас Colossus состоит уже из 100+ тыс. GPU от Nvidia
– Эти чипы используются для обучения чат-бота Grok от xAI
– Стоимость покупки новых GPU будет очень значительной
– На расширение необходимы десятки миллиардов долларов
– После начала 2024 стартап xAI привлек около $11 млрд
– Илон Маск пытается активно противостоять OpenAI и др.
@ftsec
OpenAI выпустила o1 и подписку за 200 долларов
Модель рассуждения o1 вышла из стадии предварительной версии и станет доступна сегодня всем пользователям ChatGPT Plus и Team. Позже доступ появится у остальных платных пользователей.
Появилась подписка ChatGPT Pro за 200 долларов в месяц. Она дает неограниченный доступ к OpenAI o1, GPT-4o и Advanced Voice mode. Также она включает доступ к продвинутой модели o1 Pro, которая при ответе задействует больше вычислительной мощности и дает более качественные ответы чем простая o1.
https://www.theverge.com/2024/12/5/24314147/openai-reasoning-model-o1-strawberry-chatgpt-pro-new-tier
Модель рассуждения o1 вышла из стадии предварительной версии и станет доступна сегодня всем пользователям ChatGPT Plus и Team. Позже доступ появится у остальных платных пользователей.
Появилась подписка ChatGPT Pro за 200 долларов в месяц. Она дает неограниченный доступ к OpenAI o1, GPT-4o и Advanced Voice mode. Также она включает доступ к продвинутой модели o1 Pro, которая при ответе задействует больше вычислительной мощности и дает более качественные ответы чем простая o1.
https://www.theverge.com/2024/12/5/24314147/openai-reasoning-model-o1-strawberry-chatgpt-pro-new-tier
Медианные зарплаты курьеров (₽115,6 тыс.) в ноябре стали выше, чем у IT-специалистов (₽114,2 тыс.), врачей (₽88,4 тыс.), менеджеров по логистике и ВЭД (₽79,5 тыс.), дизайнеров (₽70 тыс.), бухгалтеров (₽62,3 тыс.), журналистов (₽50,4 тыс.) и учителей (₽47 тыс.) — исследование
#Russia #кадры
#Russia #кадры
Читал очередной подробный и очень заумный аналитический отчёт о состоянии макроэкономики.
Добротный отчет, море любопытной информации: тут отросло, здесь просело, там отвалилось, а вот тут будто бы просматриваются новые тенденции… Но итоговый вывод, как в большинстве подобных исследований, можно сформулировать так: «Мы собрали массу информации, попытались её структурировать и кое-что даже получилось, однако остались значительные гэпы, которые нам заполнить не удалось». Поэтому капслоком в начале и в конце отчёта идут дисклеймеры о том, что авторы ни за что не отвечают, да и вообще ничего такого не имели в виду. Короче, гора (собранных данных) родила мышь.
Размышляя об этом, я снова пришёл к мысли о двух разных подходах к аналитике — экспертном и предпринимательском:
- Эксперт азартно пытается нарыть исчерпывающую информацию по теме. И чем лучше эксперт, тем этой информации больше. А когда чего-то не хватает — спешит обложиться всяческими оговорками, чтобы ему потом не вменили некомпетентность или неточность выводов. При этом он избегает делать однозначные прогнозы и уж тем более им следовать. Данные собраны? Дисклеймеры написаны? Работа сделана!
- У предпринимателя иначе. Сама по себе аналитика для него не имеет ценности. Важны инсайты, которые можно из неё достать. А ещё важнее практические шаги, которые делаются на их основании. Нет инсайтов и действий — значит, нет и пользы.
Короче, если вы вдруг встали сегодня с утра и решили, что пора строить внутри компании систему аналитики, то запомните: смыслом её существования должно быть решение практических задач бизнеса, а не сбор информации. И обязательно учите своих управленцев быть квалифицированными заказчиками на практико-ориентированные данные и принимать решения на их основе.
Не благодарите!
Подсмотрено
Добротный отчет, море любопытной информации: тут отросло, здесь просело, там отвалилось, а вот тут будто бы просматриваются новые тенденции… Но итоговый вывод, как в большинстве подобных исследований, можно сформулировать так: «Мы собрали массу информации, попытались её структурировать и кое-что даже получилось, однако остались значительные гэпы, которые нам заполнить не удалось». Поэтому капслоком в начале и в конце отчёта идут дисклеймеры о том, что авторы ни за что не отвечают, да и вообще ничего такого не имели в виду. Короче, гора (собранных данных) родила мышь.
Размышляя об этом, я снова пришёл к мысли о двух разных подходах к аналитике — экспертном и предпринимательском:
- Эксперт азартно пытается нарыть исчерпывающую информацию по теме. И чем лучше эксперт, тем этой информации больше. А когда чего-то не хватает — спешит обложиться всяческими оговорками, чтобы ему потом не вменили некомпетентность или неточность выводов. При этом он избегает делать однозначные прогнозы и уж тем более им следовать. Данные собраны? Дисклеймеры написаны? Работа сделана!
- У предпринимателя иначе. Сама по себе аналитика для него не имеет ценности. Важны инсайты, которые можно из неё достать. А ещё важнее практические шаги, которые делаются на их основании. Нет инсайтов и действий — значит, нет и пользы.
Короче, если вы вдруг встали сегодня с утра и решили, что пора строить внутри компании систему аналитики, то запомните: смыслом её существования должно быть решение практических задач бизнеса, а не сбор информации. И обязательно учите своих управленцев быть квалифицированными заказчиками на практико-ориентированные данные и принимать решения на их основе.
Не благодарите!
Подсмотрено
👏1🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
Аналитики Citibank прогнозируют, что рынок человекоподобных роботов вырастет до $7 трлн к 2050 году, что обусловлено быстрыми достижениями в области искусственного интеллекта и робототехники. Ожидается, что этот развивающийся сектор преобразует такие отрасли, как бытовые услуги, коммерческие приложения и промышленные операции, что будет иметь значительные экономические и социальные последствия.
Для сравнения, мировой рынок автомобилей в 2024 году оценивается в 2,7 трлн долларов.
Читать далее
Please open Telegram to view this post
VIEW IN TELEGRAM
Джеффри Фанк, автор книги «Unicorns, Hype, and Bubbles» анализирует причины необычайно высоких убытков современных американских стартапов, значительно превосходящих по масштабу убытки прошлых десятилетий.
🔽
Что происходит, по мнению Фанка:
🔹Отсутствие прорывных технологий: многие стартапы, особенно в сфере услуг, не предлагают принципиально новых технологий, а лишь автоматизируют или оптимизируют существующие процессы
🔹Медленное внедрение новых технологий: некоторые стартапы работают с перспективными технологиями, но их массовое внедрение задерживается из-за технических сложностей или недостаточной готовности рынка. Примеры: виртуальная и дополненная реальность, доставка дронами, космический туризм. Инвесторам и предпринимателям важно реалистично оценивать перспективы таких технологий и концентрироваться на нишевых рынках, не рассчитывая на быстрый захват массового рынка
🔹Поверхностное мышление: в стартап-экосистеме, включая университеты и бизнес-школы, часто преобладает поверхностный подход к оценке новых идей и бизнес-моделей. В погоне за прибылью венчурные фирмы активно влияют на университеты, подталкивая их к созданию стартап-инкубаторов и программ, ориентированных на быстрый запуск бизнеса. Это отвлекает университеты от проведения фундаментальных исследований
🔹Неправильные стимулы: венчурные фонды получают фиксированную плату от инвесторов, что позволяет им получать прибыль, даже если стартапы терпят убытки. Так, фонды фокусируются на создании хайпа вокруг стартапов, стартапы - на привлечении пользователей и расширении рынка любой ценой, забывая о создании устойчивой бизнес-модели. Фонды склонны инвестировать в стартапы, которые обещают быструю революцию в отрасли, независимо от реальной ценности их продукта или услуги, что приводит к формированию «пузырей», когда стартапы с сомнительными перспективами получают миллионные инвестиции
Источник
#стартапы #венчур #инвестиции #технологии
@volotovskayaelena
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍2
The Verge: Чат-бот Grok стал доступен для всех пользователей соцсети X
– Grok стал доступен для бесплатных пользователей X
– Они смогут отправлять ему до 10 сообщений/2 часа
– Изначально он был доступен премиум-подписчикам
– Тесты бесплатной версии Grok начались месяц назад
– Для него также могут сделать отдельное приложение
– Это поможет Grok конкурировать на рынке чат-ботов
– Отдельные приложения есть у ChatGPT, Claude и др.
@ftsec
– Grok стал доступен для бесплатных пользователей X
– Они смогут отправлять ему до 10 сообщений/2 часа
– Изначально он был доступен премиум-подписчикам
– Тесты бесплатной версии Grok начались месяц назад
– Для него также могут сделать отдельное приложение
– Это поможет Grok конкурировать на рынке чат-ботов
– Отдельные приложения есть у ChatGPT, Claude и др.
@ftsec
❤1
80% сотрудников доверили бы ИИ свою основную работу: отчет Slack
Искусственный интеллект уверенно захватывает офисы по всему миру. Исследование Slack, в котором поучаствовало более 17 000 работников из разных стран, включая Францию, Германию и Швецию, показало впечатляющую динамику: с сентября 2023 по август 2024 года использование ИИ выросло с 20% до 36%.
Самое забавное, что люди реально хотят разбираться в ИИ — целых 76% мечтают стать в этом экспертами, чтобы сфокусироваться на более важных задачах. Но при этом почти 50% стесняются признаться начальству, что используют нейронки для работы. Причины до боли человеческие: боятся, что их посчитают лентяями или некомпетентными, или вообще обвинят в "читерстве".
А в Европе вообще своя атмосфера. В Швеции аж 86% работников боятся признаться коллегам, что используют ИИ для написания сообщений.
Читать полный текст...
Искусственный интеллект уверенно захватывает офисы по всему миру. Исследование Slack, в котором поучаствовало более 17 000 работников из разных стран, включая Францию, Германию и Швецию, показало впечатляющую динамику: с сентября 2023 по август 2024 года использование ИИ выросло с 20% до 36%.
Самое забавное, что люди реально хотят разбираться в ИИ — целых 76% мечтают стать в этом экспертами, чтобы сфокусироваться на более важных задачах. Но при этом почти 50% стесняются признаться начальству, что используют нейронки для работы. Причины до боли человеческие: боятся, что их посчитают лентяями или некомпетентными, или вообще обвинят в "читерстве".
А в Европе вообще своя атмосфера. В Швеции аж 86% работников боятся признаться коллегам, что используют ИИ для написания сообщений.
Читать полный текст...
👍2
В OpenAI придумали как сделать из ИИ настоящего эксперта
OpenAI сделала безумную штуку с их новой моделью o1. Теперь её можно обучать на крошечных датасетах. Им хватает всего 20 примеров, чтобы превратить o1 в эксперта в узкой области. Не тысячи, не миллионы – всего 20. Загружаете пару десятков решённых юридических кейсов или научных задач – и ваша модель уже "соображает" в теме как профессионал.
OpenAI представила расширение исследовательской программы по reinforcement fine-tuning (RFT). И это не просто очередное обновление – мы наблюдаем серьёзный прорыв в том, как ИИ может стать экспертом в узкоспециализированных областях.
Читать полный текст...
OpenAI сделала безумную штуку с их новой моделью o1. Теперь её можно обучать на крошечных датасетах. Им хватает всего 20 примеров, чтобы превратить o1 в эксперта в узкой области. Не тысячи, не миллионы – всего 20. Загружаете пару десятков решённых юридических кейсов или научных задач – и ваша модель уже "соображает" в теме как профессионал.
OpenAI представила расширение исследовательской программы по reinforcement fine-tuning (RFT). И это не просто очередное обновление – мы наблюдаем серьёзный прорыв в том, как ИИ может стать экспертом в узкоспециализированных областях.
Читать полный текст...
🎉1🤡1
vc: Сотрудник Yandex Research разработал сервис для запуска большой языковой модели Llama 3.1 «на обычном компьютере»
– Сервис создал исследователь научного центра Яндекса
– Он может запустить LLM на компьютере или смартфоне
– Запустить LLM на 8 млрд параметров можно в браузере
– Протестировать новый сервис можно на спец. странице
– При запуске на устройство загрузят модель LLama 3.1-8B
– Размер модели был уменьшен в восемь раз, т.е. до 2,5 ГБ
– После загрузки модель можно использовать без интернета
– Скорость работы модели зависит от мощности устройства
– Например, на чипе M1 скорость будет 3-4 символа/сек.
– Сервис написан на Rust, он использует WebAssembly
– Метод сжатия LLM создан Yandex Research, ISTA и KAUST
– Исходный код нового проекта опубликован на GitHub
@ftsec
– Сервис создал исследователь научного центра Яндекса
– Он может запустить LLM на компьютере или смартфоне
– Запустить LLM на 8 млрд параметров можно в браузере
– Протестировать новый сервис можно на спец. странице
– При запуске на устройство загрузят модель LLama 3.1-8B
– Размер модели был уменьшен в восемь раз, т.е. до 2,5 ГБ
– После загрузки модель можно использовать без интернета
– Скорость работы модели зависит от мощности устройства
– Например, на чипе M1 скорость будет 3-4 символа/сек.
– Сервис написан на Rust, он использует WebAssembly
– Метод сжатия LLM создан Yandex Research, ISTA и KAUST
– Исходный код нового проекта опубликован на GitHub
@ftsec
🔥1
Сотрудник OpenAI сообщил, что они уже достигли AGI
Вахид Каземи также является PhD. Он - действующий сотрудник OpenAI, а также бывший сотрудник Apple и Google. Напомним, согласно текущей политике OpenAI, AGI определяется как «высокоавтономная система, превосходящая людей в большинстве экономически ценных видов работы». И вот Вахид написал в Х:
"По моему мнению мы уже достигли AGI, с o1 это очевидно. Возможно, мы еще не добрались до «лучше, чем любой человек в любой задаче», но то, что у нас есть, это уже «лучше, чем большинство людей в большинстве задач».
Некоторые уверены, что LLM умеют только следовать инструкциям, на которых обучались. Но, во-первых, никто не может на самом деле предсказать, чему способна научиться глубокая нейронная сеть с триллионом параметров.
Читать полный текст...
Вахид Каземи также является PhD. Он - действующий сотрудник OpenAI, а также бывший сотрудник Apple и Google. Напомним, согласно текущей политике OpenAI, AGI определяется как «высокоавтономная система, превосходящая людей в большинстве экономически ценных видов работы». И вот Вахид написал в Х:
"По моему мнению мы уже достигли AGI, с o1 это очевидно. Возможно, мы еще не добрались до «лучше, чем любой человек в любой задаче», но то, что у нас есть, это уже «лучше, чем большинство людей в большинстве задач».
Некоторые уверены, что LLM умеют только следовать инструкциям, на которых обучались. Но, во-первых, никто не может на самом деле предсказать, чему способна научиться глубокая нейронная сеть с триллионом параметров.
Читать полный текст...
🎉2❤1🔥1