Cododel.dev | Александр
98 subscribers
472 photos
62 videos
7 files
200 links
Alexander Cododel. Full Stack Web Dev since 2019.

📍 Канал: мысли и проекты
📍 Чат: @cododel_chat
📍 Связь: @cododel

🔗 https://cododel.dev
Download Telegram
Forwarded from (НЕ)Экономист! | Cododel Crypto | Alexander
Приколы - такие приколы)
Надо теперь как-то успеть забрать со взломанного кошнлька, пока это не сделал машонник
Forwarded from (НЕ)Экономист! | Cododel Crypto | Alexander
0x07d1b4dae56980ff68f13dc9c66bbacb2fc918e70dc96a5856cf38058955dff9

Принимаем пополнение, фиксируем профит 😎💶
Please open Telegram to view this post
VIEW IN TELEGRAM
Майнерское оборудование на HiveOS — не подходит для инференса ML

Полезная информация на будущее
Там целый набор нюансов.

---
Под разработку брал сервер с ней на неплохих условиях
И в прошлый раз когда сервер нам отрубали тоже были схожие проблемы

И только на сервере под разработку обнаружил такой нюанс, что с драйверами были беды, не смотря на то, что я уже полгода итеративно скриптами закрываю нюансы настройки сервера
Использовал и Ansible, который оказался очень медленным для настройки единственного сервера, хотя на тот момент довольно частой настройки из-за переездов между серверами.
И свои скрипты с куче доработок и тестами окружения.

В итоге промежуточный вывод делаю, что сейчас у меня достаточно знаний и наработок чтобы очень быстро подготовить сервер под проект с ML, но если там стоит HiveOS — ждать беды и геморроя. А они встречаются на народных хостингах.

Лучше сразу менять и подбирать полноценную OS.
Обновился до 26 iOS и MacOS

Новые обои мне нравятся, и новый дизайн Safari
Особенно на телефоне, когда при скролее нижний тулбар аккуратно уменьшается

В остальном вау эффекта не произвело, всё остальное все видели в рекламах с этим Liquid Glass

Из интересного, вот вам очень крутой шоукейс с жидким стеклом в Web
https://frontendmasters.com/blog/liquid-glass-on-the-web/

Жаль работает пока только в хроме, но думаю что скоро веб еще сильнее притеснит декстопную разработку, если решат проблему с производительностью интерфейсов (и криворукость React разработчиков 🤫)
Please open Telegram to view this post
VIEW IN TELEGRAM
Не, ну эт конечная
useMemo меняющий стейт...

К концу недели ждите меня седым от этого рефакторинга
У грока вывалилось. Будто он кастомные теги как-то рендерит при ответе, как у гемини форматирование съехало
Но у гемини markdown обычный в рантайме рендерится, а тут какие-то shdow-dom элементы будто какие-то

<grok-card data-id="3ebbee" data-type="citation_card"></grok-card><grok-card data-id="c9e6f5" data-type="citation_card"></grok-card>

- Здесь `ItemsService` инициализируется внутри метода, с передачей `schema` и `accountability` из контекста. Это avoids проблемы с экспортами типов.
- Для generics: Используй пакеты вроде `directus-extension-models` или `directus-typescript-gen` для генерации типов из схемы Directus (например, `OrderType` на основе полей коллекции 'orders').<grok-card data-id="5e3122" data-type="citation_card"></grok-card><grok-card data-id="c664b2" data-type="citation_card"></grok-card> Или `indirectus` для typed ItemsService.<grok-card data-id="647f57" data-type="citation_card"></grok-card>
- В hooks аналогично: register-функция получает context, и ты его передаёшь в свой сервис.<grok-card data-id="e2de1b" data-type="citation_card"></grok-card>

Если нужно больше деталей по типам, посмотри исходники Directus<a href="https://github.com/directus/directus/tree/main/packages/types" target="_blank" rel="noopener noreferrer nofollow"></a> или discussion #20670 на GitHub — там предлагают augment Express.Request для добавления типов вроде accountability.<grok-card data-id="4cc466" data-type="citation_card"></grok-card> Если у тебя конкретная версия Directus, уточни — типы могли измениться.
Media is too big
VIEW IN TELEGRAM
AppWrite
#AppWrite

настроил наконец по чуть-чуть, небольшими шагами
Вроде полностью всё работает

Даже сертификаты для сайтов заработали, но надо CNAME добавлять в домен, ждать какое-то время чтоб сертификат выпустился
На showcases уже подхватило

Там и локальное хранилище S3 like, и база данных с реалтаймом, с ролями, своим сервисом авторизации с кучей интеграций oauth, серверлесс функции

И чо интересно - еще и хостит сайты с автодеплоем

Запускается одним правильным заполнением кнфига и командой в терминале

Буду на нем хостить свои проекты, на своем сервере вместо Vercel, который сегодня кстати не работает))
This media is not supported in your browser
VIEW IN TELEGRAM
Любят в Apple с фотками что-то мудрить

Сначала HDR в 5S из трех фото склеивали, потом Live Photo, сейчас вот Spatial Scene добавили
Как сравнить цвета?

Раньше я это делал вручную на калькуляторе, а сейчас даже не обязательно в закладки инструмент сохранять, тк всегда можно попросить сгенерировать новый.
Но нейросети реально меняют рабочий процесс.

Я лично считаю что точное сходство с макетом вообще не критично, при использовании tailwind без настроек, если по всему проекту копипастой прописаны цвета шрифтов и тп инлайном в класса.

В таком случае можно относительно быстро коротким перебором вычислить самый подходящий цвет из темы библиотеки
В таком случае оч удобно оказалось попросить сделать "Калькулятор расстояния цветов" у claude sonnet 4 и через 15 секунд есть персонифицированное решение под задачу (В моем случае достаточно именно hex ввода)
🫡 I'm Done.
Please open Telegram to view this post
VIEW IN TELEGRAM
Не, ну есть же разника в читаемости даже с тем же Tailwind при использовании общих стилизованных компонентов и не использованием?

Как можно было вообще написать проект без компонентов??? 🫠
Эт я еще молчу, что можно без clsx было стилизовать disabled и что часть классов я уже переписал через поиск и замену
h-[64px] было повсеместным решением
Media is too big
VIEW IN TELEGRAM
С каких пор у GPT лимиты такие огромные?

Я нагуглил что голосовой чат у него 10 минут в день на бесплатном тарифе, но я сегодня как минимум час в нём провел, может полтора 🫣
Там ещё в конце два deep research параллельных, тк думал что один получилось остановить, так что можно добавить в лимиты ещё две простыни текста.. 🤯


Может ночью лимиты свободнее?
Spec-Driven Development
#SDD

Звучит интересно, особенно сейчас, когда спецификацию не нужно вылизывать самостоятельно, достаточно чётко технически описать требования, а опишет их AI

https://github.com/Fission-AI/OpenSpec
Надобно опробовать, тк главное преимущество которое описывает автор заключается в сохранении контекста задачи между чатами, даже, если модель ошибется и пойдёт по неправильному пути.
Придется так же перезапустить чат, но прогресс и план разработки будет зафиксирован в спецификации.

Нашел в реддите, пока фид курсора листал
https://www.reddit.com/r/cursor/s/yW88wO1qcH
Думаю, что приготовить с фаршем свинским
Cododel.dev | Александр
Думаю, что приготовить с фаршем свинским
Не смотря на "Свинский фарш" — модель очень хороша
Возьму её на вооружение в пару с grok-code-fast-1, как более интеллектуальную и очень дешевую модель вместо gemini-2.5-pro с сопоставимой скоростью.

А сниженное потребление токенов, по заявлениям Claude Opus на 40% на thinking — может и лимиты меньше будут использоваться, а в usage based дешевле.
Поставлю её себе вместо gemini-2.5-flash в raycast по openrouter тоже, тк последнее время пользуюсь в веб интерфейсе Grok, и меня она более чем устраивает, отвечая на повседневные вопросы быстрее и не хуже чем Expert (полноценный Grok 4), ни разу не израсходовав лимиты за последнюю неделю.

---
А "Белорусские Колдуны" — реально существуют как блюдо.
Cododel.dev | Александр
Spec-Driven Development #SDD Звучит интересно, особенно сейчас, когда спецификацию не нужно вылизывать самостоятельно, достаточно чётко технически описать требования, а опишет их AI https://github.com/Fission-AI/OpenSpec Надобно опробовать, тк главное преимущество…
Проникся к функции диктовки на макбуке.
#SDD #MacOS

Очень удобно набирать большие тексты голосовым вводом.

Сейчас таким образом пишу базу спецификации для одного проекта, надеюсь таким образом очень сильно ускорить этот процесс.

Из интересных наблюдений — приходится думать иначе, а так же голосовой ввод никак не прирывает печать с клавиатуры, так что с форматированием никаких проблем нет.
И работает прекрасно как на русском, так и на анлийском, только знаки препинания не ставит, и на приложения не делит, это желательно самому делать.
При этом даже автодетект произносимого языка имеется, но с приоритетом на выбранную раскладку, если слово по звучани или акценту ближе к выбранной раскладке.
Cododel.dev | Александр
Spec-Driven Development #SDD Звучит интересно, особенно сейчас, когда спецификацию не нужно вылизывать самостоятельно, достаточно чётко технически описать требования, а опишет их AI https://github.com/Fission-AI/OpenSpec Надобно опробовать, тк главное преимущество…
Spec-Driven Development | Первые впечатления от OpenSpec
#SDD

Описал проект, составил спецификацию и концепт проекта.
Так же дополнил основную идею бизнес логики дельтапланирования с ассиметричным распределением, заставил grok-4-fast-thinking подумать, мне очень понравилось его решение
Через команду /openspec-proposal попросил создать фичу из описанной логики, и был приятно удивлен:
- Proposal - why, what changes, impact. Четко всё описано, относительно простым языком.
- Design - context, goals, descisions, risks, migration plan, open positions. — Более техническое описание, грок сам выделил риски плавающей точки к примеру, о которых я вспоминаю лишь в процессе реализации, а последний пункт с open positions поднял пару вопросов, один из которых:
Buffer_multiplier user-configurable? Default 1.05.
Об этом я даже не задумался, что это опциональное решение может быть.
- Tasks: Implementation, validation and testing, Deployment prep. Три четких шага, имеющие свои задачи, которые по OpenSpec дают возможность отслеживать прогресс выполнения работы, и придерживаться плана. (Последнее лично мне очень нравится, так как я вечно скатываюсь в рефакторинг либо активно параллелю работу над разными фичами)
- specs/planning/spec.md: файл с бОльшим кол-вом секций, которые я тут не стану расписывать, но там уже четкое описание кейсов с WHEN/THEN, которое меня радует как ребенка 🤩

---
Это очень взрослый подход к разработке, который я целенаправленно игнорировал в силу количества писанины.
Чисто с бюрократией можно сравнить, не смотря на полную документируемость и историю разработки проекта, на столько подробную и проработанную, что это уже полноценный Wiki.

Сейчас с нейросетями, особенно с уровнем GPT-OSS, Grok-4-fast, Gemini-2.5-(pro/flash) по их price/intelligence/speed — выглядит очень аппетитным пирогом.
Сам вайбкодинг в чистом виде мне слегка отвратителен, но я вообще не чураюсь писать тексты при помощи LLM.
Этот текст важно вычитать, и критически вдумываться в тезисы, уточнять, корректировать. Но грамотность и экспертность таких текстов довольно высока, можно даже собтвенные рукписные тексты собрать в кучку, вычленить паттерны и в системный промпт поместить, чтобы модель писала как автор. (В закрепе моя биография по такому принципу сделана.)

В мою жизнь очень плотно вошли ИИ модели, почти оплностью заменив гугл, но не документацию.
Думать над разными темами в формате диалога, направляя модель в нужную сторону оказалось — сильнейшим бустом в самообучении, и то же самое можно применить к Spec Driven разработке.

А учитывая что подобную фичу нативно у себя выкатил гигант в виде Amazon со своим Kiro IDE, хотя судя по отзывам на Reddit — немного перегруженную, то думаю при серьезном отношении и текущий, описываемый мной формат может стать хорошим решением.

Стек я выбрал AppWrite + Angular 20 + ShadCN
Что получится из этого — я расскажу в ближайшие пару неделю/месяцев, так как разработка будет вестись по выходным и исключительно по настроению

Всем бобра 🏠
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Полезное официально выкатили в Cursor 1.7
Cododel.dev | Александр
Полезное официально выкатили в Cursor 1.7
И еще, кое-что, интересное
Про это анонс не видел, но судя по всему Headless Browser