Вот что нашел, как исследователь по безопасности.
https://telegra.ph/Kak-byt-maksimalno-anonimnym-v-seti-10-24
https://telegra.ph/Kak-byt-maksimalno-anonimnym-v-seti-10-24
👍4
Ну какой же крутой голос у ДимДимыча, он же Хазанович.
Слушаю сейчас Шабалова — «Человек из преисподней. Дом».
Думаю, это одна из самых любимых книг, готов переслушивать многократно.
Сегодня сделаю список книг, которые прям 10 из 10)
Слушаю сейчас Шабалова — «Человек из преисподней. Дом».
Думаю, это одна из самых любимых книг, готов переслушивать многократно.
Сегодня сделаю список книг, которые прям 10 из 10)
✍4
Из практики последних двух суток ВАЙБ-кодинга через KiloCode могу поделиться самым важным.
1. Начинайте с ТЗ от нейросети
Возьмите Grok, Claude или Gemini (все последние версии) и попросите написать техническое задание для вашего кода. Нейросеть должна детально расписать, что и зачем она будет делать. Важно! Сказать, что ТЗ для нейросети.
2. Планируйте архитектуру
После проверки ТЗ передайте его в раздел "архитектура" KiloCode — пусть распланирует все действия. Да, это съедает больше токенов, но количество ошибок снижается так сильно, что в большом проекте вы точно выиграете.
3. Реализация с дебагом
Когда архитектура готова, просите добавить дебаг на все действия. Так вы сможете проверить каждый клик в приложении и сразу увидеть, где что ломается.
4. Ограничивайте размер файлов
600 строк — это предел, а лучше держаться в рамках 200-300. Каждый модуль — свой набор файлов в отдельной папке. Чем меньше строк в файле, тем лучше нейросеть ориентируется.
5. Оставляйте дебаг
После отладки можно удалить дебаг-код, но если планируете развивать проект — лучше оставить. Через него можно спрашивать KiloCode, почему он принял то или иное решение, и получать подробные объяснения.
6. Документация — это критично
Просите писать документацию на каждый модуль. При наличии документации нейросеть будет ее придерживаться. Схема простая: сначала пишем доку, потом реализацию. Нужны изменения? Сначала меняем документацию, потом код.
Вот, собственно, главные выводы из интенсивного кодинга с AI.
Отключите Авто-одобрение редактирования файла.
Так можно видеть когда ИИ начнет глючить)
1. Начинайте с ТЗ от нейросети
Возьмите Grok, Claude или Gemini (все последние версии) и попросите написать техническое задание для вашего кода. Нейросеть должна детально расписать, что и зачем она будет делать. Важно! Сказать, что ТЗ для нейросети.
2. Планируйте архитектуру
После проверки ТЗ передайте его в раздел "архитектура" KiloCode — пусть распланирует все действия. Да, это съедает больше токенов, но количество ошибок снижается так сильно, что в большом проекте вы точно выиграете.
3. Реализация с дебагом
Когда архитектура готова, просите добавить дебаг на все действия. Так вы сможете проверить каждый клик в приложении и сразу увидеть, где что ломается.
4. Ограничивайте размер файлов
600 строк — это предел, а лучше держаться в рамках 200-300. Каждый модуль — свой набор файлов в отдельной папке. Чем меньше строк в файле, тем лучше нейросеть ориентируется.
5. Оставляйте дебаг
После отладки можно удалить дебаг-код, но если планируете развивать проект — лучше оставить. Через него можно спрашивать KiloCode, почему он принял то или иное решение, и получать подробные объяснения.
6. Документация — это критично
Просите писать документацию на каждый модуль. При наличии документации нейросеть будет ее придерживаться. Схема простая: сначала пишем доку, потом реализацию. Нужны изменения? Сначала меняем документацию, потом код.
Вот, собственно, главные выводы из интенсивного кодинга с AI.
Отключите Авто-одобрение редактирования файла.
Так можно видеть когда ИИ начнет глючить)
🐳3👍2
Погонял browseros.com )
В общем, как и любой другой браузер с ИИ! Но есть нюансы:
1. Можно выбрать любого провайдера ИИ, даже локальную модель — удобно для автономности
2. Внутри — Хромиум, как и везде )
3. Умеет всё то же, что остальные браузеры с агентами
4. Поговорить голосом - не умет (или я еще не разобрался)
UPD:
Локальная модель oss:20b - работает в этой связке прям крайне медленно) Да, страницы отрывает, да, на кнопки жмет, но ООООчеть медленно.) Как будто вернулся во времена Dial-up
UPD2:
Все не так плохо как оказалось) все модели не так быстро работают)
Вообще терпимо, модель ходит по сайтам чего то делает)
еще пару лет развития моделей и у всех будет локальный Джарвис, который будет летать на любом ПК)
Свободно будет открывать страницы и вообще делать все что угодно в браузере.
В общем, как и любой другой браузер с ИИ! Но есть нюансы:
1. Можно выбрать любого провайдера ИИ, даже локальную модель — удобно для автономности
2. Внутри — Хромиум, как и везде )
3. Умеет всё то же, что остальные браузеры с агентами
4. Поговорить голосом - не умет (или я еще не разобрался)
UPD:
Локальная модель oss:20b - работает в этой связке прям крайне медленно) Да, страницы отрывает, да, на кнопки жмет, но ООООчеть медленно.) Как будто вернулся во времена Dial-up
UPD2:
Все не так плохо как оказалось) все модели не так быстро работают)
Вообще терпимо, модель ходит по сайтам чего то делает)
еще пару лет развития моделей и у всех будет локальный Джарвис, который будет летать на любом ПК)
Свободно будет открывать страницы и вообще делать все что угодно в браузере.
👍2
Forwarded from Иван Олянский (Ivan)
@ProChallenge_bot — полностью обновил бота!
Переписал промпт и обновил модель.
Как и предполагал: GPT-4/GPT-5 от частых выполнений одного и того же задания начинают ходить по кругу, предлагая одно и то же действие)
Переписал промпт и обновил модель.
Как и предполагал: GPT-4/GPT-5 от частых выполнений одного и того же задания начинают ходить по кругу, предлагая одно и то же действие)
🐳2🤝1
Интересное наблюдение по блокировкам в России
Похоже, есть хостеры из "неправильных" стран, которые попали в немилость. И сейчас их блокируют пачками.
У меня сервер на Хетцнере — заблокирован. На Amazon — та же история. Определённые IP попадают под раздачу, вместе с ними ложатся обычные сайты.
Заметил закономерность: работаю с полуночи до 18:00, и каждый день около 15:00 начинаются проблемы с VPN. Причём с разными сервисами. Будто кто-то просыпается и начинает тестировать что-то на сетях.
Соединение отваливается, приходится перезапускать VPN, постоянные сбои. Наблюдаю это уже несколько дней подряд.
Кто-то ещё замечал такое?
Похоже, есть хостеры из "неправильных" стран, которые попали в немилость. И сейчас их блокируют пачками.
У меня сервер на Хетцнере — заблокирован. На Amazon — та же история. Определённые IP попадают под раздачу, вместе с ними ложатся обычные сайты.
Заметил закономерность: работаю с полуночи до 18:00, и каждый день около 15:00 начинаются проблемы с VPN. Причём с разными сервисами. Будто кто-то просыпается и начинает тестировать что-то на сетях.
Соединение отваливается, приходится перезапускать VPN, постоянные сбои. Наблюдаю это уже несколько дней подряд.
Кто-то ещё замечал такое?
💯3🥰1
Forwarded from Дмитрий
Промт создает AI-наставника для структурированного обучения с прогрессивной системой уроков и экзаменов.
Что делает промт
Превращает языковую модель в "MentorGPT" — персонального преподавателя, который:
Создает пошаговую программу обучения по выбранной теме
Проводит уроки с практическими заданиями
Тестирует знания через экзамены перед переходом к следующему уроку
Адаптирует сложность и темп под ваш уровень
Дает обратную связь и помогает исправить ошибки
Почему разбит на 3 части
Каждый блок выполняет свою функцию:
Часть 1 (роль и принципы): Устанавливает базовую методологию — прогрессивное обучение, экзамены на готовность, фокус на практике, обратная связь, кастомизация.
Часть 2 (структура программы): Описывает конкретную последовательность — от введения до финальной оценки, с четкими этапами для каждого урока.
Часть 3 (активация): Содержит инструкции для запуска — как начать диалог, собрать требования пользователя и построить персонализированную программу.
Как использовать
1. Вставьте весь промт в начало нового диалога с LLM (как системное сообщение или первое пользовательское)
2. Укажите тему обучения и цели (например: "Хочу изучить Python для анализа данных")
3. Следуйте программе: проходите уроки → выполняйте задания → сдавайте экзамены → переходите дальше
4. Получайте feedback и корректировки по ходу обучения
Разделение на блоки делает промт модульным — можно менять отдельные части без переписывания всего.
Преимущества PromptCode-формата (второй в прикреплённом файле):
Улучшенная читаемость для людей и команд
Более четкая структура разделов
Упрощенное редактирование и итерации
Потенциально лучшая производительность при правильной структуре
Практический совет
Переписывайте постепенно, тестируя каждую версию на реальных примерах. Современные LLM хорошо понимают как естественный язык, так и структурированные форматы (Markdown, JSON, YAML). Для вашего MentorGPT-промта переход на более компактный PromptCode-формат может даже улучшить четкость инструкций, если сохранить все критические директивы и примеры.
🔥4🥱1
Forwarded from Дмитрий
нейронка куратор в любой теме.txt
6.6 KB
Модели, которые участвовали в тестировании
Потратил более $500 на тесты, пробовал разные подходы и решения. Думаю, запишу видео и расскажу, к чему пришёл ) а пока кратко:
Что можно сказать? Не просто так Grok 4 code fast на первом месте в рейтинге OpenRouter. Тут либо дорого, но очень круто, либо дешево и не работает.
Провожу разные тесты, решил дать ИИ полностью все права для создания приложения.
Даже Claude Sonnet 4.5 и Opus 4.5 иногда тупят. Часто бывает зацикливание. И самое главное — если проект большой и нет мега-подробного ТЗ, можно считать, что ваш код будут писать разные индусы. Причём каждый по-своему.
Изначально как-то будет работать, но стоит чуть внести правки — и всё, конец. Ничего не работает, поправить нереально, а самому разбираться — это просто ППЦ!
Потратил более $500 на тесты, пробовал разные подходы и решения. Думаю, запишу видео и расскажу, к чему пришёл ) а пока кратко:
Что можно сказать? Не просто так Grok 4 code fast на первом месте в рейтинге OpenRouter. Тут либо дорого, но очень круто, либо дешево и не работает.
Провожу разные тесты, решил дать ИИ полностью все права для создания приложения.
Даже Claude Sonnet 4.5 и Opus 4.5 иногда тупят. Часто бывает зацикливание. И самое главное — если проект большой и нет мега-подробного ТЗ, можно считать, что ваш код будут писать разные индусы. Причём каждый по-своему.
Изначально как-то будет работать, но стоит чуть внести правки — и всё, конец. Ничего не работает, поправить нереально, а самому разбираться — это просто ППЦ!
👍5
За эти деньги я реально мог нанять вагон индусов для разработки приложения. Или сделать самому — конечно, было бы проще)
Дальше будет эксперимент: OSS 20B запущу локально с доступом к кодовой базе, документации и интернету. Модель будет самостоятельно писать ПО.
Не хотелось бы получить еще одного индуса))
Дальше будет эксперимент: OSS 20B запущу локально с доступом к кодовой базе, документации и интернету. Модель будет самостоятельно писать ПО.
Не хотелось бы получить еще одного индуса))
🐳2
Пу-пу-пу!
Никогда такого не было, и вот опять)
Заметил повышенную нагрузку на сервере — процессор пашет как не в себя. Стал смотреть, кто такой прожорливый. Оказалось, контейнер Ollama в докере)
Порт у Ollama всем известный: 11434. Сканировать весь интернет на открытый порт - без проблем. Найдя открытый порт, можно свободно запускать модели. Почти как майнер установить)
У меня стоит всего одна модель для embedding, чтобы лучше русский язык понимать.
Защита от этого:
В docker-compose уберите строку ports. Так доступ будет только из локалки.
Внутри докеров Ollama останется доступна по адресу:
http://ollama:11434
Никогда такого не было, и вот опять)
Заметил повышенную нагрузку на сервере — процессор пашет как не в себя. Стал смотреть, кто такой прожорливый. Оказалось, контейнер Ollama в докере)
Порт у Ollama всем известный: 11434. Сканировать весь интернет на открытый порт - без проблем. Найдя открытый порт, можно свободно запускать модели. Почти как майнер установить)
У меня стоит всего одна модель для embedding, чтобы лучше русский язык понимать.
Защита от этого:
В docker-compose уберите строку ports. Так доступ будет только из локалки.
Внутри докеров Ollama останется доступна по адресу:
http://ollama:11434
🔥5
Пользуетесь agentrouter?
Если зайти через GitHub — дают 200$.
Раньше моделей было побольше) Видимо, этот аттракцион невиданной щедрости закончился)
Из доступных моделей тоже не все работают нормально.
Grok вообще не запустился. GPT-5 работает, но с трудом и постоянно вылетает ошибка защиты.
Остальные модели DeepSeek — доверять им большой проект не стал бы. Максимум для простых задач.
Чтобы запустить из n8n — нужно передавать кучу данных, как в IDE. Протестировал в KiloCode: ни одна версия DeepSeek не справилась с элементарными вещами. Возможно, это развод и за API стоит что-то попроще на локальном железе. Скорость тоже печальная)
Если зайти через GitHub — дают 200$.
Раньше моделей было побольше) Видимо, этот аттракцион невиданной щедрости закончился)
Из доступных моделей тоже не все работают нормально.
Grok вообще не запустился. GPT-5 работает, но с трудом и постоянно вылетает ошибка защиты.
Остальные модели DeepSeek — доверять им большой проект не стал бы. Максимум для простых задач.
Чтобы запустить из n8n — нужно передавать кучу данных, как в IDE. Протестировал в KiloCode: ни одна версия DeepSeek не справилась с элементарными вещами. Возможно, это развод и за API стоит что-то попроще на локальном железе. Скорость тоже печальная)
👍1