Хозяйк на заметку — OpenAI выпустили cli-версию кодинг-агента codex (npm install -g @openai/codex).
Это прямой конкурент Claude code, и по подписке, включая Plus, дают доступ ко всем моделям и видимо миллион токенов, которые, впрочем, улетают очень быстро, особенно если модель больше medium.
Это прямой конкурент Claude code, и по подписке, включая Plus, дают доступ ко всем моделям и видимо миллион токенов, которые, впрочем, улетают очень быстро, особенно если модель больше medium.
❤3😁1
ASCII-прототипы — пожалуй, самое большое ускорение на пути к качественным интерфейсам в деле ИИ-разработки, после shadcn.
Почему это эффективно? Используя совсем немного токенов, модель показывает, что именно и где будет находиться в интерфейсе — это и прототип, и база для спецификации, которая потом превратится в код, — и основа для тестов, в том числе и визуальных — через playright или мультимодальные возможности самой LLM.
И Claude, и ChatGPT мультимодальны — claude code и codex могут посмотреть на скриншот, сравнить его с wireframe и в цикле довести до рабочего состояния, так что ручного тестирования будет нужно на меньше в разы.
Про UX в контексте ИИ очень интересно — большиство ИИ-интерфейсов узнаваемы и холодны, как могильная плита, а что такое хороший интерфейс, а уже тем более взаимодействие и пользовательский опыт языковой модели узнать по сути не откуда.
Связка из из автоматического визуального, технического тестирования и a/b-тестов наверняка даст большим компаниями данные о том, что работает, но пока что в качестве ИИ-интерфейсов мы часто получаем неконтролируемый и разрастающийся по минутам ai slop
Почему это эффективно? Используя совсем немного токенов, модель показывает, что именно и где будет находиться в интерфейсе — это и прототип, и база для спецификации, которая потом превратится в код, — и основа для тестов, в том числе и визуальных — через playright или мультимодальные возможности самой LLM.
И Claude, и ChatGPT мультимодальны — claude code и codex могут посмотреть на скриншот, сравнить его с wireframe и в цикле довести до рабочего состояния, так что ручного тестирования будет нужно на меньше в разы.
Про UX в контексте ИИ очень интересно — большиство ИИ-интерфейсов узнаваемы и холодны, как могильная плита, а что такое хороший интерфейс, а уже тем более взаимодействие и пользовательский опыт языковой модели узнать по сути не откуда.
Связка из из автоматического визуального, технического тестирования и a/b-тестов наверняка даст большим компаниями данные о том, что работает, но пока что в качестве ИИ-интерфейсов мы часто получаем неконтролируемый и разрастающийся по минутам ai slop
❤1