ИИволюция 👾
6.16K subscribers
269 photos
142 videos
201 links
Авторский канал Сергея Пахандрина про AI, нейросети, ChatGPT (и другие LLM). Рассказываю о своём опыте и экспериментах с AI.

За консультацией, обучением, рекламой и другими вопросами: @pakhandrin
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Как «взламывают» эти ваши автопилоты.

Получается своего рода визуальная промпт инъекция 😅 Выпустить на улицы сотни людей в таких футболках и беспилотные такси встанут 😂

ИИволюция
Ах, и ты туда же? А я хотел еще поработать, а он вон что!

Я слышал, что ChatGPT ленится в разные периоды года, но не настолько же 😅

Всех с началом майских! 👽

ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Дизраптор
Media is too big
VIEW IN TELEGRAM
Беспилотник в Индии - это вам не по Долине кататься

Пока западные беспилотные омежки от Waymo и Cruise впадают в ступор от дорожного конуса на капоте и шугаются от чувака в майке со знаком "Стоп", стартап Swaayatt Robots из индийского города Бхопал демонстрирует свою гигачад-систему беспилотного движения.

Дорожное движение в Индии - это вам не по прямым калифорнийским шоссе рассекать. Здесь дорогу беспорядочно перебегают люди (и коровы). Рои мопедов, тук-туков и каких-то неопознанных свистоперделок то и дело норовят вас подрезать. Дорожные знаки, светофоры и разметка выполняют исключительно рекомендательную функцию, а проехаться по встречке - вполне нормальный шорткат. Да и вообще, "дорога" - это весьма условное понятие.

На видео джип с системой автономного вождения от Swaayatt Robots вполне успешно справляется с задачами в индийских условиях. Стартап уже 7 лет занимается беспилотьем, уделяя особое внимание движению по хардкорному бездорожью и при крайне напряженном городском трафике. Как видно из видео, получается неплохо.

Не удивлюсь, если именно в Индии появится первая система в мире, полностью соответствующая пятому уровню автономности.

Как говорится, same same but different.

Дизраптор
Forwarded from Сиолошная
Вчера на LMSYS Arena (место, где живые люди вслепую сравнивают генерации разных LLM и выбирают лучшую) появилась странная модель: gpt2-chatbot. И несмотря на то, что по названию можно подумать о слабости модели, она, внезапно, очень хороша. Настолько, что люди гадают, кто же её сделал, является ли это GPT-4.5 / 5, или может это свежий релиз Gemini Ultra 2.0.

Предлагаю вам самим поиграться тут: https://chat.lmsys.org/ (вкладка Direct Chat, там выбрать модель в выпадающем списке). Ограничение всего 8 сообщений в сутки, пользуйтесь с умом (или используйте VPN и режим инкогнито, кек).

На реддите люди тестируют свои задачки, которые якобы не решаются моделями предыдущих поколений, а эта либо щелкает, либо куда ближе к ответу, чем остальные. Треды почитать: 1, 2, 3.

Мой опыт:
— я дал ей простую задачку Show me an example of 3d ray tracing (with python). Set a simple scene, different light sources, etc. и получил полностью работающий код (в 2 или 3 ответа) с первого раза. Он учитывал материал объектов, включая цвет и уровень отражения. У меня получилось отрисовать сферу, на которой было два блика от двух источников света. После я попросил добавить поддержку не только сферы, но любой произвольной 3D-модели. Это заработало со второго раза — новонаписанный код был правильным, но оказалось, что нужно слегка изменить предыдущий. Скормив ошибку, получил работающее решение — и немного покрутив камеру увидел, что движок даже отражения от поверхностей учитывает!
— с таким же промптом (и даже с уточнениями) GPT-4-Turbo выдала лишь чб-рендер одного объекта, в куда менее удобном стиле написания кода. Тут не получилось быстро добавить на сцену объектов, в то время как у обсуждаемой модели всё было очень круто организовано.
— ещё по паре вопросов я заметил, что модель то ли делает паузы (особенно в начале), то ли просто зависает интернет-соединение. Возможно, под капотом есть Retrieval по интернету — и модель опирается на что-то со страниц из поисковика. Пока на Арене всего одна модель ходит в интернет (гугловский Бард), может, аугментировали GPT-4 🤷‍♂️

Что можно сказать про модель:
— Вот тут ребята сделали быстрое тестирование. Модель утверждает, что её сделали OpenAI, она ведётся на те же ловушки странных-редких токенов, на которые ведутся их модели (а другие модели — нет, потому что у них другой набор токенов). Скорее всего, это не просто дообученная LLAMA-3 или какая-то другая модель.
— На Arena для неё используют тот же системный промпт, что и для последней GPT-4-Turbo
— пользователи сравнивали ASCII-арт, просили нарисовать единорога, и модель давала такой же ответ, как и ChatGPT. Причём именно такой же единорог есть в интернете — либо модель его нашла и срисовала, либо выучила наизусть во время тренировки, и теперь воспроизводит. А какие-то рисует лучше 🤷‍♂️
— формат ответа очень напоминает формат ответа Gemini, расписывает всё по пунктам и подпунктам. Мне код, например, писала в 5 или 6 этапов.
— некоторые пользователи говорят, что им ответы модели нравятся теперь меньше( 🔫

Короче, очень интересно, чем окажется модель, и когда это вскроется. И тем более какое у неё будет место на лидерборде. Поживём — увидим!

Но просто напомню, что GPT-4 была запущена как часть Bing Chat за 5 недель до официального анонса 🤡 а потом все такие «вау!»

Пишите в комменты про ваш опыт использования 👇 только не выбирайте слишком сложные задачи, модель прям не настолько лучше, чтобы претендовать на звание AGI.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
AI не сократит количество рабочих мест, а наоборот?!

Jonathan Ross, CEO компании Groq, утверждает, что с активным внедрением AI в различные сферы, количество рабочих мест не уменьшится, а увеличится.

Это отражение "парадокса Джевонса", который говорит о том, что внедрение новых технологий может не только повысить производительность, но и увеличить количество рабочих мест.

Вот пример, появление печатных машинок сделало процесс копирования документов быстрее и дешевле (до этого офисные клерки переписывали документы в ручную), что позволило компаниям чаще пользоваться этими услугами. В результате, вместо сокращения, потребность в клерках возросла, так как бизнес стал эффективнее и масштабировался.

Современные технологии, включая искусственный интеллект, аналогично могут создавать новые рабочие места, даже в секторах, кажущихся на первый взгляд под угрозой автоматизации.

ИИволюция🔤
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
О, Google добавил вызов Gemini прям из адресной строки Chrome браузера.

Просто укажите в начале запроса @ и введите сам запрос.

Выглядит очень правильным шагом и очень удобно! Правда пока только в США, но мы же живём в открытом мире без границ, кто ж нас остановит потестить 😎

🔤ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
И как то очень синхронно с новостью выше, на сайте openai.com обновился дизайн и центральным элементом стала строка для ввода запроса, которая перекидывает в чат джи-пи-ти 😀

Кто у кого подсмотрел? 🤔

🔤ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Ну всё, кажется точно ждём в ближайшее время новую GPT модель.

Сэм Альтман врать не будет: «GPT-4 is the dumbest model any of you will ever ever have to use again, by a lot.»

Сначала неожиданное появление неизвестной миру модели gpt2-chatbot на чатбот арене, теперь слова «GPT-4 тупейшая модель, которую вам когда-либо придется использовать», подчеркивая тем самым, что впереди нас жду гораздо более продвинутые модели и на их фоне, GPT-4 будет казаться детским лепетом. Прогрев в стиле инста блоггеров перед анонсом курса «Как стать миллионером».

Сэм просто ждёт окончания майских, чтобы снова удивить нас 🫶🏻

🔤ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI планирует запустить AI поисковик

1. Первые слухи о том, что OpenAI собирается запустить собственный поисковик были еще в начале февраля.
2. Сэм Альтман затрагивал тема поиска + LLM в подкасте у Лекса Фридмана.
3. А в последнее время информация о SearchGPT всё чаще и чаще появляется в разных источниках от разного рода инсайдеров (один, два, три).
4. Даже домен search.openai.com готов и на него есть SSL сертификат.
5. Новая главная (в шапке) openai.com после редизайна уже выглядит как поисковая строка (но пока перекидывает в chat). Тонкий намёк?
6. Один из инсайдеров пишет, что OpenAI представит свой поисковик 9 мая.
7. Кодовое название SearchGPT: судя по всему это аналог Perplexity AI, который за вас сёрфит, находит ответы, суммарзирует содержимое страниц.
8. В коде сайта openai даже поддержку виджетов нашли: погода, калькулятор (что? зачем?), финансы, спорт и прочее.
9. В общем, в мае точно стоит ожидать больших анонсов от openai, в том числе новой модели GPT.
10. Кажется, что Perplexity точно сейчас в напряжении, и кажется не только они одни.

Ух, жду не дождусь 🍿🤔

🔤ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Как работает LLM

Наглядно и по шагам показана вся магия. Смотреть по ссылке - http://ig.ft.com/generative-ai/

🔤ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Вау, первый музыкальный клип "The Hardest Part" созданный с помощью Sora от OpenAI🤩

Авто видео Paul Trillo сгенерировал 55 отдельных коротких роликов и склеил их в одно видео с помощью Adobe Premier.

Пол пишет: «I leaned into the hallucinations, the strange details, the dream-like logic of movement, the distorted mirror of memories, the surreal qualities unique to Sora / AI that differentiate it from reality. Embrace the strange.»

Синтетический мир уже здесь👁

🔤ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
📱Apple все же смогли договориться с OpenAI, чтобы использовать gpt модели в новой версии iOS. Конференция Apple для разработчиков WWDC все ближе и в этот раз очень её жду, как никогда раньше.

Ранее я уже писал множество слухов о том, что нас ждет нового-ИИшного в iOS 18. Почитать можно тут 👈

🔤ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
Завтра ждём GPT-4.5?

Описание для GPT-4 изменили с “Our most avanced model” на “Advanced model”. Т.е. уже не такая и мощная! По тихому изменили и думали прокатит и никто не заметит? 😄

Это может говорить о том, что завтра нас ждет обновление GPT-4 до более сильной модели и очень надеюсь с сильно большим контекстным окном.

Кстати, Сэм Альтман тизерил умного ассистента под кодовым названием Magic. Случится ли магия? Узнаем завтра!

А еще ходят слухи о новой модели gpt-4l (видимо от слова lite). А вдруг gpt-3.5 заменят на неё? Было бы супер круто!

Уже завтра состоится долгожданная презентация OpenAI, где по словам Сэма, точно не будет презентована GPT-5 и поисковый движок, о котором все писали (увидим, но видимо позже).

🔤ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Тизер от Сэма к сегодняшней презентации OpenAI 🌚

ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
Презентация OpenAI стартует уже вот-вот, в 20:00 МСК (хотя если перейти по ссылке, пишет осталось менее 30 минут).

Смотреть тут: https://www.youtube.com/watch?v=DQacCB9tDaw
🤖Фух, эмоции от презентации OpenAI улеглись, и пора рассказать, что же нам показали. Да ладно, шучу! От такого мы еще долго будем отходить. Так что поехали:

Новая модель GPT-4o: Мощная, быстрая, доступная всем (без регистрации и смс). По бенчмаркам топит все остальные модели как котят (задачи по программированию и пр.).

- GPT-4o, где “о” это omni или универсальная: Модель работает с текстом, фото и видео одновременно.

- Но самый кайф, что она в реальном времени понимает видео: Можно показать изображение с камеры или расшарить изображение экрана на десктопе, и она моментально начнет с этим контекстом работать. Это просто отрыв головы!

- Голос! Нет, не так. Голооооооосище! Вы это слышали? Она нативно работает со звуком и практически моментально отвечает (раньше была задержка в несколько секунд перед ответом), а главное, её можно перебивать, и она улавливает изменение контекста и отвечает в ответ. Все голосовые ассистенты конкурентов сейчас просто провалились на дно!

- Не просто голос, а эмоциональная окраска речи ассистента: Он понимает ваши эмоции по голосу и подстраивается, может шутить и даже петь. Может легко менять свой голос и говорить голосами разных персонажей.

- Перевод речи в реальном времени: Да там столько кейсов и сценариев, что мама не горюй! Уверен, что энтузиасты уже кучу видосов отгрузили в Твиттере (нужно пойти разбирать и поделиться лучшими с вами чуть позже).

- В демо даже показали, как 2 ассистента поют на разных устройствах одну песню. Фантастика! (Ниже ссылка на все демо видео, где ассистента используют в разных сценариях. Это точно стоит посмотреть!)

- GPT-4o уже доступна разработчикам через API: Она быстрее и дешевле в два раза.

- А еще выпустили десктопное приложение: Никаких больше веб-версий. Ассистент видит ваш экран, помогает с кодом и другими задачами.

- Все новые голосовые и видео возможности будут постепенно появляться у Plus подписчиков. Ждем!

Сколько стартапов сегодня полегло? Я даже не представляю.

И на мой взгляд, OpenAI - это новая Apple в создании магии на своих презентациях. Реально магия! Apple же каждый год показывает нам, как они сделали новый айфон еще тоньше и чуть быстрее. А тут прям магия, сидишь с большими глазами от удивления всю презентацию.

Будущее наступило сегодня ночью!

Ссылочки:
- Презентация
- Подборка видео с демонстрацией ассистента в разных сценариях
- Обновленная страница с ценами на доступ по API

🤖ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
А еще под шумок релиза GPT-4o, OpenAI обновили Playground для разработчиков.

Я уже успел затестить, чистый кайф! Теперь доступен Vision, можно промпт подкреплять изображением. Поддерживаемые форматы .jpeg .jpg .gif .png

🤖ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
А вот наглядная демонстрация падения стоимости токенов с релизом каждой новой модели:

1. GPT-4 $36 за 1 млн токенов
2. GPT-4 Turbo $14 за 1 млн токенов
3. GPT-4o $7 за 1 млн токенов

Разработчики, поменяв одну строчку в коде (сменив название одной модели на новую), режут свои затраты на использование GPT моделей в 2 раза. Порой это внушительные затраты и еще более внушительная экономия. Это ли не восторг?!

Технологии совершенствуются и при этом становятся дешевле!

🤖ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
Кажется, тема (а с другой стороны проблема) с AI-гёрлфрендами и бойфрендами станет еще более актуальной у подростков и одиноких людей. Уже сейчас люди подсаживаются на общение с AI и частично или даже полностью замещают общение с противоположным полом.

Не вымрем ли мы постепенно как вид? 🤔