Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Интересный пример как с помощью генеративных нейронок, вроде AI fill в новом Photoshop, дорисовывают статичный задний фон в фильме.
С камерой в движении такой трюк не сработает (пока что), но кажется эпоха вертикальных фильмов для телефонов не за горами☕️
Автор
С камерой в движении такой трюк не сработает (пока что), но кажется эпоха вертикальных фильмов для телефонов не за горами
Автор
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17❤🔥3🔥2🤡1
Forwarded from BOGDANISSSIMO
Евгений Истомин: GPT, SuperAlignment, Ницше и ПолиAIизм
https://www.youtube.com/watch?v=BU_TxO_VVNg
Вышла запись 1.5-часового подкаста с Женей.
Поговорили про AI дарвинизм, искусственное искусство, IT-пузырь, prompt-инжиниринг, метафору души-государства Платона, решение проблемы SuperAlignment, "пищу для ума", китайских художников, возможности GPT-N, мужское-женское, географию данных / геополитику AGI, капитализм 2025-2030 годов и про AI думеризм.
P.S. Заранее прошу прощения перед вашими ушками за тихий звук с Моей стороны.
https://www.youtube.com/watch?v=BU_TxO_VVNg
Вышла запись 1.5-часового подкаста с Женей.
Поговорили про AI дарвинизм, искусственное искусство, IT-пузырь, prompt-инжиниринг, метафору души-государства Платона, решение проблемы SuperAlignment, "пищу для ума", китайских художников, возможности GPT-N, мужское-женское, географию данных / геополитику AGI, капитализм 2025-2030 годов и про AI думеризм.
P.S. Заранее прошу прощения перед вашими ушками за тихий звук с Моей стороны.
YouTube
Евгений Истомин: GPT, SuperAlignment, Ницше и ПолиAIизм
Женя Истомин – человек, который ещё 3 года назад предвидел потенциал больших языковых моделей и их будущее влияние на нашу жизнь (что мы только-только наблюдаем сейчас).
Мы с Женей в формате LIVE-стрима обсудили, как языковые модели меняют и продолжат менять…
Мы с Женей в формате LIVE-стрима обсудили, как языковые модели меняют и продолжат менять…
👏9❤3👍2👎1🤮1💩1
Forwarded from Dealer.AI
Мы строили, строили и наконец построили.
🔺 ruGPT-3.5. Открытая русскоязычная LLM от Сбера
Друзья, мы выложили в open source нашу языковую модель (pretrain), на основе которой обучали GigaChat!
🔸 Претрейн довольно большой — 13B (13 миллиардов параметров). Модель видела много разнообразного текста (книги, статьи, чаты и т.д.), в основном на русском языке, а также на английском (около10%). Дополнительно дообучали на коде.
🔸 ruGPT-3.5 13B можно дообучать на инструктивных датасетах и получать свои версии ChatGPT, которые бы хорошо понимали русский язык.
🔸 Решили выложить с открытой лицензией (MIT), так что каких-либо ограничений в этом плане в отличии от LLaMA нет.
Написали небольшой пост про это, прошу поддержать, кому интересно.
👉 Хабр | Hugging Face
🔺 ruGPT-3.5. Открытая русскоязычная LLM от Сбера
Друзья, мы выложили в open source нашу языковую модель (pretrain), на основе которой обучали GigaChat!
🔸 Претрейн довольно большой — 13B (13 миллиардов параметров). Модель видела много разнообразного текста (книги, статьи, чаты и т.д.), в основном на русском языке, а также на английском (около10%). Дополнительно дообучали на коде.
🔸 ruGPT-3.5 13B можно дообучать на инструктивных датасетах и получать свои версии ChatGPT, которые бы хорошо понимали русский язык.
🔸 Решили выложить с открытой лицензией (MIT), так что каких-либо ограничений в этом плане в отличии от LLaMA нет.
Написали небольшой пост про это, прошу поддержать, кому интересно.
👉 Хабр | Hugging Face
Хабр
Сбер открывает доступ к нейросетевой модели ruGPT-3.5
? Upd. Добавили пример запуска в Colab'е. Друзья, свершилось. Сегодня мы рады сообщить вам о релизе в открытый доступ нейросетевой модели, которая лежит в основе сервиса GigaChat. Про то, что такое...
🔥26🤮15👍5❤2🤔2👎1
Forwarded from Сиолошная
Пост в большей степени для инженеров машинного обучения.
Где-то месяц назад проводил опрос в тг-чате, где собрано очень много клёвых чуваков (у многих из которых есть свои каналы) — от одарённых 16-17 летних рисерчеров (которые реально уже успели что-то придумать и опубликовать) до Principal-инженеров (это для контекста, чтобы придать весомости нижеописанному).
Запрос от меня был такой:
У меня есть мнение, что любой хороший и уважающий себя MLE в 2023м году должен знать, как работает трансформер в целом и Селф аттеншен в частности. Да, может без модификаций, просто ванильную модель, но на пальцах объяснять, что за квадратная матрица, как в целом учится и какие задачи решает - должен. Речь не про average ML enjoyer, а про уважающего себя хорошего MLE из топовых перцентилей распределения.
Согласны ли вы с этим?
Результаты голосования:
— 69% ответили "да"
— 25% ответили "возможно, но не уверен"
— 6% не согласились
(Примечание: один человек отписал "Поставил "не уверен" ибо я когда-то давно трансформер и аттеншн в деталях разбирал, но теперь с ходу все не вспомню - надо будет освежать знания". При этом я этого человека знаю, у меня ровно 0 сомнений, что он за сядет и за час всё вспомнит — но главное он уже проявил интерес заведомо.)
Я постараюсь описать причину того, почему считаю, что ответ точно "да", ну а вы уже делайте для себя выводы.
Хороший инженер имеет здоровый интерес к индустрии и происходящему. Ему самому хочется узнать побольше, разобраться в деталях, попробовать — даже если на работе такой задачи нет. Всё таки статья "Attention is all you need" вышла больше 6 лет назад (!), а GPT-3 релизнулась в 2020м — и абсолютно точно можно было найти время, если было бы желание, посмотреть во внутрь и понять, как же так? Как так вышло, что одна модель работает почти во всех доменах и почти без изменений, от генерации текста до предсказания структуры белка? А что там лежит внутри ChatGPT? Тоже трансформер!? Ну надо же!
Andrej-наше-всё-Karpathy в подкасте Lex Fridman ответил на вопрос "какая наиболее прекрасная или неожиданная вещь для тебя во всем мире AI?" без раздумий: "Трансформер.". Более того он говорит, что это really cool differentiable optimizable efficient computer (даже звучит возбуждающе, нет?)
Но ещё больше у меня калит🔥 от того, что люди приходят на техническое собеседование на NLP Engineer ко мне и не могут рассказать про Self-Attention. Ну как так-то...
И под конец хочу процитировать Юру (в квадратных скобках - мои изменения относительно оригинала):
Если ты подобные вопросы [про трансформер] помечаешь у себя в голове тегом [мне это не нужно] - это самообман. Можно делать свой фит-предикт и ждать, когда AI вытеснит тебя из профессии.
💬 Пишите в комменты, что думаете вы, с чем не согласны
Где-то месяц назад проводил опрос в тг-чате, где собрано очень много клёвых чуваков (у многих из которых есть свои каналы) — от одарённых 16-17 летних рисерчеров (которые реально уже успели что-то придумать и опубликовать) до Principal-инженеров (это для контекста, чтобы придать весомости нижеописанному).
Запрос от меня был такой:
У меня есть мнение, что любой хороший и уважающий себя MLE в 2023м году должен знать, как работает трансформер в целом и Селф аттеншен в частности. Да, может без модификаций, просто ванильную модель, но на пальцах объяснять, что за квадратная матрица, как в целом учится и какие задачи решает - должен. Речь не про average ML enjoyer, а про уважающего себя хорошего MLE из топовых перцентилей распределения.
Согласны ли вы с этим?
Результаты голосования:
— 69% ответили "да"
— 25% ответили "возможно, но не уверен"
— 6% не согласились
(Примечание: один человек отписал "Поставил "не уверен" ибо я когда-то давно трансформер и аттеншн в деталях разбирал, но теперь с ходу все не вспомню - надо будет освежать знания". При этом я этого человека знаю, у меня ровно 0 сомнений, что он за сядет и за час всё вспомнит — но главное он уже проявил интерес заведомо.)
Я постараюсь описать причину того, почему считаю, что ответ точно "да", ну а вы уже делайте для себя выводы.
Хороший инженер имеет здоровый интерес к индустрии и происходящему. Ему самому хочется узнать побольше, разобраться в деталях, попробовать — даже если на работе такой задачи нет. Всё таки статья "Attention is all you need" вышла больше 6 лет назад (!), а GPT-3 релизнулась в 2020м — и абсолютно точно можно было найти время, если было бы желание, посмотреть во внутрь и понять, как же так? Как так вышло, что одна модель работает почти во всех доменах и почти без изменений, от генерации текста до предсказания структуры белка? А что там лежит внутри ChatGPT? Тоже трансформер!? Ну надо же!
Andrej-наше-всё-Karpathy в подкасте Lex Fridman ответил на вопрос "какая наиболее прекрасная или неожиданная вещь для тебя во всем мире AI?" без раздумий: "Трансформер.". Более того он говорит, что это really cool differentiable optimizable efficient computer (даже звучит возбуждающе, нет?)
Но ещё больше у меня калит
И под конец хочу процитировать Юру (в квадратных скобках - мои изменения относительно оригинала):
Если ты подобные вопросы [про трансформер] помечаешь у себя в голове тегом [мне это не нужно] - это самообман. Можно делать свой фит-предикт и ждать, когда AI вытеснит тебя из профессии.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍8
Forwarded from BOGDANISSSIMO
А вот и запись нашего с Игорем стрима, где мы 2 часа искали ответ на вопрос:
What Is ChatGPT Doing... and Why Does It Work?
Кто был на трансляции, либо уже успел посмотреть, пишите в комментариях ключевые идеи, которые вы забрали из нашего разговора 😎
What Is ChatGPT Doing... and Why Does It Work?
Кто был на трансляции, либо уже успел посмотреть, пишите в комментариях ключевые идеи, которые вы забрали из нашего разговора 😎
YouTube
Игорь Котенков: What Is ChatGPT Doing … and Why Does It Work?
Пока OpenAI решает проблему супер-алаймента, некто Игорь Котенков и Богдан Печёнкин – решили провести супер-вебинар, во время которого разобрали на мемы и панчи статью “What Is ChatGPT Doing … and Why Does It Work?” от Вольфрама (того самого, что сделал Wolfram…
❤8👍3
Forwarded from partially unsupervised
Есть классическая картинка для иллюстрации жизненного цикла технологических инноваций - Gartner Hype Cycle. Он, конечно, скорее про adoption компаниями, но почему бы не натянуть эту фигуру и на отдельного индивида? Кажется, что прошло уже достаточно времени, чтобы ChatGPT прошел через этот hype cycle персонально для меня и достиг плато продуктивности: равномерное использование, выжившие юзкейсы, отсутствие восторгов и разочарований.
Так вот, лично у меня сложилось четыре явных паттерна использования:
1) Бюрократ-копирайтер
2) Поверхностный эрудит
3) Junior software engineer
4) Въедливый критик
"-вываливай в продакшен.
Это именно персональные примеры использования, а не приложения вокруг API. Хотя я как раз использую не веб-интерфейс, а консольный heygpt: он быстрее, удобнее и даже дешевле, чем обычная подписка на GPT-4.
Расскажите в комментариях про сложившиеся у вас паттерны!
Так вот, лично у меня сложилось четыре явных паттерна использования:
1) Бюрократ-копирайтер
"Перепиши этот месседж для официального емейла / обращения в службу поддержки / аппликейшена в организацию / маркетингового описания"
. В общем, для переписывания текста. Например, так пишутся жалобы в банк, заблокировавший транзакцию, или описание биографии для сайта издательства.2) Поверхностный эрудит
"Опиши состояние дел в какой-то области / объясни с учетом моего уровня (не)знания в соседних областях"
. Примеры вопросов: какой софт используют 3д художники для работы с текстурами? чем replacement map отличается от height map? какие острова на Азорах выбрать для недельного отпуска, если меня интересуют хайки и природные достопримечательности? какие прикладные применения сверхпроводимости? Дьявол обычно в деталях, и слишком глубоко закапываться с LLM не стоит, но можно быстро получить поверхностное понимание.3) Junior software engineer
"Напиши прототип такой штуки, используя этот незнакомый мне, но популярный в целом API".
Из последнего: делал так ORM на SQLAlchemy и blender-скрипты для headless рендеринга. В обоих случаях хочется, чтобы оно хоть как-то работало, а разбираться в апи не хочется - не предполагаю, что этот код нужно будет долго поддерживать или развивать.4) Въедливый критик
"
Найди недостатки и корнеркейсы в следующей идее/коде/тексте: {{INSERT YOUR STUFF}}
". Люди неплохо справляются с поиском подтверждений своей идеи или дизайна (confirmation bias и его друзья), а по-хорошему надо искать опровержения и логические нестыковки. Кстати, отлично сочетается с предыдущим режимом использования: напиши-покритикуй-исправьЭто именно персональные примеры использования, а не приложения вокруг API. Хотя я как раз использую не веб-интерфейс, а консольный heygpt: он быстрее, удобнее и даже дешевле, чем обычная подписка на GPT-4.
Расскажите в комментариях про сложившиеся у вас паттерны!
👍10
Forwarded from New Yorko Times (Yury Kashnitsky)
Короткий курс по трюкам использования chatGPT
#courses #ml #chatgpt
ChatGPT Prompt Engineering for Developers
Наш любимый Эндрю Ын в коллабе с сотрудницей OpenAI Isa Fulford рассказывает, как правильно общаться с chatGPT.
Плюсы курса:
- бесплатный (пока)
- короткий – всего порядка 10 лекций по 5-10 минут
- очень практический – почти всюду сплошь примеры промптов и дергания API OpenAI
- платформа удобная, справа видео, слева – сразу поднимается Jupyter с тем же нубуком, что в лекции, можно сразу параллельно играться с кодом
- для тех кому 30+ – снова увидеть Ына, покряхтеть, вспомнить курс ML и как все начиналось, как молоды были мы и наша дисциплина
Некоторые из рассматриваемых трюков и сценариев использования chatGPT:
- мелочи типа того, что фразу, которую подаешь на вход, стоит заключить в тройные обратные кавычки (или любой другой символ) и сказать chatGPT об этом. Тогда chatGPT точно знает, куда смотреть
- форматирование выхода: можно явно попросить chatGPT вернуть JSON и тогда не надо надеяться, что chatGPT ответит как надо и искать нужный ответ регулярками (ведь мы знаем, что если вы решаете проблему с регулярками, то у вас уже две проблемы)
- приложения: анализ тональности, перевод, пересказ текста и т.д., все с промптами
- в конце – пример бота, принимающего заказы пиццы, бэкенд – чисто на chatGPT
Что мне не хватило:
- примеры few-shot learning, как в промпт подать пару-тройку примеров задачи так, чтоб качество было лучше в сравнении с zero-shot
- оценка качества downstream задач типа оценки тональности. Да, все красиво, быстро-удобно, но насколько это хорошо работает в сравнении со специально обученными под задачу моделями?
- хотя бы намеки на то, как это все дебажить. Если бот по заказу пиццы работает с одним длинным промптом (сначала уточни вид пиццы, потом размер, потом предложи напиток и т.д.), то кажется, что дебаггинг надо сразу в психушке проводить
Но несмотря на минусы, курс однозначно стоит 2-3 часов вашего времени и нуля рублей. Рекомендую взять пару своих задач (из петов или рабочих) и по мере прохождения курса играться с ними.
#courses #ml #chatgpt
ChatGPT Prompt Engineering for Developers
Наш любимый Эндрю Ын в коллабе с сотрудницей OpenAI Isa Fulford рассказывает, как правильно общаться с chatGPT.
Плюсы курса:
- бесплатный (пока)
- короткий – всего порядка 10 лекций по 5-10 минут
- очень практический – почти всюду сплошь примеры промптов и дергания API OpenAI
- платформа удобная, справа видео, слева – сразу поднимается Jupyter с тем же нубуком, что в лекции, можно сразу параллельно играться с кодом
- для тех кому 30+ – снова увидеть Ына, покряхтеть, вспомнить курс ML и как все начиналось, как молоды были мы и наша дисциплина
Некоторые из рассматриваемых трюков и сценариев использования chatGPT:
- мелочи типа того, что фразу, которую подаешь на вход, стоит заключить в тройные обратные кавычки (или любой другой символ) и сказать chatGPT об этом. Тогда chatGPT точно знает, куда смотреть
- форматирование выхода: можно явно попросить chatGPT вернуть JSON и тогда не надо надеяться, что chatGPT ответит как надо и искать нужный ответ регулярками (ведь мы знаем, что если вы решаете проблему с регулярками, то у вас уже две проблемы)
- приложения: анализ тональности, перевод, пересказ текста и т.д., все с промптами
- в конце – пример бота, принимающего заказы пиццы, бэкенд – чисто на chatGPT
Что мне не хватило:
- примеры few-shot learning, как в промпт подать пару-тройку примеров задачи так, чтоб качество было лучше в сравнении с zero-shot
- оценка качества downstream задач типа оценки тональности. Да, все красиво, быстро-удобно, но насколько это хорошо работает в сравнении со специально обученными под задачу моделями?
- хотя бы намеки на то, как это все дебажить. Если бот по заказу пиццы работает с одним длинным промптом (сначала уточни вид пиццы, потом размер, потом предложи напиток и т.д.), то кажется, что дебаггинг надо сразу в психушке проводить
Но несмотря на минусы, курс однозначно стоит 2-3 часов вашего времени и нуля рублей. Рекомендую взять пару своих задач (из петов или рабочих) и по мере прохождения курса играться с ними.
👍20🔥3❤2
Forwarded from Denis Sexy IT 🤖
На неделе, от Meta, вышла новая серия «больших языковых моделей» — которая позволяет генерировать код по текстовому запросу, ну, как многие это делали в ChatGPT.
Поскольку темпы в нашей индустрии невероятные, модель подхватили в сообществе, и уже через пару дней опубликовали дообученные версии (общей направленности, и отдельно дообученную модель для генерации Python кода). Что интересно, сделали это несколько разных команд, и обе получили результаты в спец тесте чуть выше, чем есть сейчас у GPT4 в генерации кода (1, 2).
Я такое очень люблю, локальные языковые модели на базе llama2 это:
— Хорошая лицензия для бизнеса: то есть можно прикручивать в стартапы;
— Безопасность: я точно знаю, что сотрудникам крупных компаний запрещают отсылать в ChatGPT корпоративные данные, локальные модели это обходят, так как никуда данные не отправляют и процессят их только на устройстве;
— Гибкость: модель можно дообучить, играться с параметрами или можно передать негативный промпт и снять с нее цензуру (тут я написал небольшую инструкцию как этого добиться), или заставить отдавать только строгий JSON формат и тп.
— Это дешевле в частном использовании: не все готовы отдавать по $20 в месяц за GPT4, так как могут учиться программировать, не обладать лишними деньгами и тп.
Поэтому я сразу побежал играться с этой моделью, с конкретной задачей — мне лениво пытаться самому понять, что делают некоторые скрипты (скрипты умнее меня), поэтому я прошу языковые модели конвертировать код в обычный текст.
Для тестов я взял исходный код древнего вируса Чернобыль (CIH), тот самый, который с 1998 вывел из строя 600 миллионов компьютеров, и нанес ущерба на 35 миллионов долларов.
Если откроете ссылку, то увидите что кода довольно много, а каждая языковая модель ограничена на входе размером текста который она может принять на вход (например, модель в которой я тестирую, была натренирована на 4K токенов, что примерно ~2800 слов) — поэтому пришлось насильно расширить контекстное пространство до 16K токенов (спасибо GGUF, не реперу, а новому формату llama.cpp который специально создан, чтобы упростить жизнь для работы с большим контекстом). Короче, спустя пару минут шумящего компьютера я получил описание того, что делает вирус, простым языком, и без всякого интернета 🫣
Дальше планирую с помощью модели порешать разные задачи которые встречаются в работе продуктолога: процессинг данных о использовании сервисов, написание запросов и тп, с GPT4 я уже довольно много всего наделал работая с данными, теперь интересно попробовать что же умеет делать GPT-дома.
☆ Модель с которой я игрался (34B)
☆ Скрипт которым запускаю инференс (Mac)
TL;DR: Жесть мы в будущем, теперь без интернета можно писать и дебажить скрипты
@Denis
Поскольку темпы в нашей индустрии невероятные, модель подхватили в сообществе, и уже через пару дней опубликовали дообученные версии (общей направленности, и отдельно дообученную модель для генерации Python кода). Что интересно, сделали это несколько разных команд, и обе получили результаты в спец тесте чуть выше, чем есть сейчас у GPT4 в генерации кода (1, 2).
Я такое очень люблю, локальные языковые модели на базе llama2 это:
— Хорошая лицензия для бизнеса: то есть можно прикручивать в стартапы;
— Безопасность: я точно знаю, что сотрудникам крупных компаний запрещают отсылать в ChatGPT корпоративные данные, локальные модели это обходят, так как никуда данные не отправляют и процессят их только на устройстве;
— Гибкость: модель можно дообучить, играться с параметрами или можно передать негативный промпт и снять с нее цензуру (тут я написал небольшую инструкцию как этого добиться), или заставить отдавать только строгий JSON формат и тп.
— Это дешевле в частном использовании: не все готовы отдавать по $20 в месяц за GPT4, так как могут учиться программировать, не обладать лишними деньгами и тп.
Поэтому я сразу побежал играться с этой моделью, с конкретной задачей — мне лениво пытаться самому понять, что делают некоторые скрипты (скрипты умнее меня), поэтому я прошу языковые модели конвертировать код в обычный текст.
Для тестов я взял исходный код древнего вируса Чернобыль (CIH), тот самый, который с 1998 вывел из строя 600 миллионов компьютеров, и нанес ущерба на 35 миллионов долларов.
Если откроете ссылку, то увидите что кода довольно много, а каждая языковая модель ограничена на входе размером текста который она может принять на вход (например, модель в которой я тестирую, была натренирована на 4K токенов, что примерно ~2800 слов) — поэтому пришлось насильно расширить контекстное пространство до 16K токенов (спасибо GGUF, не реперу, а новому формату llama.cpp который специально создан, чтобы упростить жизнь для работы с большим контекстом). Короче, спустя пару минут шумящего компьютера я получил описание того, что делает вирус, простым языком, и без всякого интернета 🫣
Дальше планирую с помощью модели порешать разные задачи которые встречаются в работе продуктолога: процессинг данных о использовании сервисов, написание запросов и тп, с GPT4 я уже довольно много всего наделал работая с данными, теперь интересно попробовать что же умеет делать GPT-дома.
☆ Модель с которой я игрался (34B)
☆ Скрипт которым запускаю инференс (Mac)
TL;DR: Жесть мы в будущем, теперь без интернета можно писать и дебажить скрипты
@Denis
👍24❤3🤯3😁1
Forwarded from эйай ньюз
Я уже упоминал, что пользоваться ChatGPT в крупных компаниях - это моветон. Ведь нет никаких гарантий о приватности данных (и минимум до 1 марта они тренировали модели на диалогах пользователей).
Пишут, что за 9 месяцев со дня первого релиза 80% крупнейших американских компаний из Fortune 500 использовали ChatGPT. Поразительно, но статистику эту смогли подбить, проанализировав е-мейлы, с которыми регались люди - они использовали рабочие домены. Ух, как многим прилетело бы (как было, например, в Samsung), если бы начальству в руки попал список е-мейлов. На самом деле пользоваться ChatGPT и не слить никакой корпоративной информации в чат - очень сложно. Нужно тщательно анонимизировать свои запросы, но большинство людей забивают.
OpenAI, осознав проблему, выкатили специальную версию для корпоративных клиентов - ChatGPT Enterprise.
Обещают повышенную безопасность переписок и вот такие бонусы:
- GPT-4 без ограничений по кол-ву запросов
- Работает в 2 раза быстрее
- Более длинный контекст (32k токенов), для работы с файлами и большими запросами
- Доступ к Code Interpreter
- Возможность кастомизации (возможно дадут дообучить на своих данных)
И самое главное:
1. "Мы не тренируемся на ваших бизнес-данных и диалогах".
2. "Все диалоги зашифрованы во время передачи и во время хранения."
Для многих такого успокоения будет достаточно.
@ai_newz
Пишут, что за 9 месяцев со дня первого релиза 80% крупнейших американских компаний из Fortune 500 использовали ChatGPT. Поразительно, но статистику эту смогли подбить, проанализировав е-мейлы, с которыми регались люди - они использовали рабочие домены. Ух, как многим прилетело бы (как было, например, в Samsung), если бы начальству в руки попал список е-мейлов. На самом деле пользоваться ChatGPT и не слить никакой корпоративной информации в чат - очень сложно. Нужно тщательно анонимизировать свои запросы, но большинство людей забивают.
OpenAI, осознав проблему, выкатили специальную версию для корпоративных клиентов - ChatGPT Enterprise.
Обещают повышенную безопасность переписок и вот такие бонусы:
- GPT-4 без ограничений по кол-ву запросов
- Работает в 2 раза быстрее
- Более длинный контекст (32k токенов), для работы с файлами и большими запросами
- Доступ к Code Interpreter
- Возможность кастомизации (возможно дадут дообучить на своих данных)
И самое главное:
1. "Мы не тренируемся на ваших бизнес-данных и диалогах".
2. "Все диалоги зашифрованы во время передачи и во время хранения."
Для многих такого успокоения будет достаточно.
@ai_newz
Openai
Introducing ChatGPT Enterprise
Get enterprise-grade security & privacy and the most powerful version of ChatGPT yet.
😁11👍5🤔3🔥2💩1👌1
Forwarded from Denis Sexy IT 🤖
Media is too big
VIEW IN TELEGRAM
В ChatGPT скоро выкатят поддержку картинок для премиум пользователей – это означает, что к тексту промпта можно добавить визуальную информацию:
– продукты из холодильника, и попросить рецепт возможных блюд, или наоборот, попросить рецепт уже поданного блюда (мир без секретных рецептов, хехе)
– сфоткать свой лук и попросить его улучшить (или ухудшить)
– сфоткать доску с планированием какого-то продукта, и попросить написать базовый код-обертку для этого продукта
Последнее как раз и происходит на видео.
Все это будто демо-версия того как могло бы выглядеть будущее процессов разработки софта.
А будь у нас более автономные агенты-языковые-модели – эту схему тоже делал бы не человек 🌚
(такое и сейчас можно собрать, но работает так себе, я пробовал)
– продукты из холодильника, и попросить рецепт возможных блюд, или наоборот, попросить рецепт уже поданного блюда (мир без секретных рецептов, хехе)
– сфоткать свой лук и попросить его улучшить (или ухудшить)
– сфоткать доску с планированием какого-то продукта, и попросить написать базовый код-обертку для этого продукта
Последнее как раз и происходит на видео.
Все это будто демо-версия того как могло бы выглядеть будущее процессов разработки софта.
А будь у нас более автономные агенты-языковые-модели – эту схему тоже делал бы не человек 🌚
(такое и сейчас можно собрать, но работает так себе, я пробовал)
🔥23👍1
Forwarded from Denis Sexy IT 🤖
Dalle 3 настолько хорошо понимает промпт, что с его помощью можно делать гифки 😔
Нужно попросить его сгенерировать «
Dalle 3, несмотря на все ограничения, пока самый лучший генератор из всех в плане понимания.
P.S. Раз уж у нас тут дрифт чешских трамваев, то приложу другие картинки – дрифт чешских трамваев круто!
Нужно попросить его сгенерировать «
Make a pixelate sprite sheet of X
» и получится нарезка разных сцен, после этого, немного пост-обработки и готово, ваш персональный трамвай-дрифт готов. Dalle 3, несмотря на все ограничения, пока самый лучший генератор из всех в плане понимания.
P.S. Раз уж у нас тут дрифт чешских трамваев, то приложу другие картинки – дрифт чешских трамваев круто!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥18👍5❤🔥1👌1