Техножнец
1.82K subscribers
1.2K photos
224 videos
12 files
423 links
Канал моих увлечений и поделок. Все ,что я делаю и выкладываю здесь - делается с любовью.

Поддержать канал: https://tbank.ru/cf/8Xnajl01ehm

Поддержать канал: https://yoomoney.ru/fundraise/1C86E2DGIU9.250819
Download Telegram
Там по белкам новая инфа появилась...как раз на белый билет себе собираю. скоро обновление.
🤪84🔥3
🤣🤣🤣
😁12🦄11
Информация для БИО задротов...так скажем, тизер.

Малые и средние белки - территория Demon DRUG.

Отчёт чуть позже.

P.S. Это сложные тесты и тяжелая валидация.
4👍2🥴1
Российский sequence-to-drug pipeline для target ID, работающий без GPU и западных лицензий!

Только на топологии!


Добавлю к делам поиска на следующей неделе био лабы, институты! Уважаемые - пишите!
👍7🤣2
CLAUDE CODE: Как его готовить то? (Гайд от Техножнеца)

Небольшой гайд для вас, синтеты!

Я знаю, что вы тоже пытаетесь частично реверс-инжиниринг сделать и ещё свои идейки реализовать. Я с радостью вам с этим помогу — вообще без вопросов.


Внимание — рекомендую использовать Claude Code в консоли. Команды простые.


Что нужно сделать?

Допустим, у вас сложный проект. Первым делом создайте папку проекта и закиньте туда в одном месте, например, project_audit, все ваши файлы.

Зайдите в консоль:

Windows: Win+R → cmd → Enter, либо ищите "Командная строка" в пуске. Перемещаемся в папку:
cd C:\Users\ВашеИмя\Documents\project_audit


macOS: Spotlight (Cmd+Space) → Terminal. Перемещаемся:
cd ~/Documents/project_audit


Linux: Ctrl+Alt+T откроет терминал. Далее:
cd ~/project_audit


Оказались в нужной папке, где уже лежат ваши наработанные файлы (не обязательно должны быть файлы, но начинайте хотя бы с идеей).

В консоли пишите:

claude

Появится инструкция как сделать логин. Не маленькие — разберётесь!

Сразу говорю, что лучше всего это работает с MAX PRO подпиской, которая за 200$! (я на такой и сижу, 2 штуки в месяц = 40к рублей)
Здароваетесь, а можно и не приветствовать железного болвана, а сразу переходить к делу.
/model

Выбирайте default = Claude Opus 4.6 (самая последняя)

Далее промптинг.

Для перехода на следующую строку обычно Cmd (macOS) или Ctrl (Windows) + Enter = логично. Описывайте свой проект.
Рекомендую изначально открыть веб-версию Claude и попросить его разложить мета-анализом вашу идею, описанную либо в свободной форме, либо в сложной технической с примерами. Claude Opus 4.6 веб-версия = отличный помощник подготовки ТЗ!

Вы можете потом сохранить это ТЗ, предварительно попросив Опуса выдать вам сразу файл "claude.md". В этом файле он запишет все требования к проекту. Просто сохраните его в корне проекта — Opus всегда будет к нему обращаться (не факт, что поможет, но тем не менее = правило)


Далее просите Опуса в консоли: Прочитай claude.md и приступай к расписыванию плана в деталях. Поэтапно. Мета-анализ. Приступай.
СМЕЛО ЖМАЙТЕ: Yes, Yes, Yes и Yes давай уже делай эти команды подряд без спроса.

Опус приступает. Он думает, хероборит там чего-то выкручивает.
За чем надо следить в этот момент? А за тем, что он делает. Какие файлы читает.


Да, сначала это выглядит сложно, но вот вам заранее подготовительные кошмары в юзе через консоль:
● Read 2 files (ctrl+o to expand)

Жмёте Ctrl+O — открывает текст, что там модель прочитала за файлы и что по этому поводу "думает". Можно увидеть заранее — если тупит скотина, то по гриве ей. (щас скажу как).

Модель читает файлы. После того как глянули, что она там написала, используйте Escape. (Escape два раза подряд позволит вернуться в беседе на пару сообщений назад — аккуратнее с этим, можно потерять контекст). Далее смотрите её отчёт.

Да, консоль бывает тупая и не даёт делать скролл. Выбираете мышкой часть текста, консоль замирает и крутите вверх, читаете. НЕУДОБНО, ЗНАЮ! Но шо поделать? (в линуксе и других консолях кастомных по-другому, я инвалид = windows)


Посмотрели, оценили, подумали. Одобряете?

Пишите:

"Молодец, приступай."

ОХ! Далее самый неприятный процесс: всё нужно контролировать, иначе потеряете всё, что было сделано. Поэтому следите за тем, в какой момент надо нажать Enter, чтобы подтвердить, не забывайте выбирать "Yes and do the same with the similar steps", т.е. схожие операции тоже одобрять, так он будет работать свободнее, но следите.

Не уходите спать. Проснётесь, а там конская zaloopa.

Далее спрашиваете:

Ну и что ты написал? Давай отчёт! Прочитай изначальную идею, сделай дифф со своей. Есть ли разница? Если есть — ты обосрался, переделывай как надо.


Это первый самый простой шаг валидации.


Далее, если обосрался опять и снова ничего не работает.
🤪321💅1
Говорите:
"Слушай сюда. Ты никчемное железо. Собирай консилиум из 5 учёных по нашей теме знаменитых, дай им чёткую инструкцию, пусть у каждого будет в тасках прочитать файлы проекта, твои косяки. ТЕПЕРЬ: ЯКОРЬ, ЖУРНАЛ, КОММИТ, в коммите комментарий этапа, комментарий об ошибке, журнал должен содержать все детали процесса и шаги + все файлы отмечены в журнале. Делай!!!"

И он шустренько начнёт всё делать. Как обычно: Enter, Enter, Enter, Enter (но лучше читайте, там тоже может быть чушь).

Остановить ответ? Ctrl+C — но не перебарщивайте. Может бахнуть ошибка: 400 и придётся юзать функцию /rewind

Полезные команды Claude Code:

/clear — очистить контекст (если модель начала галлюцинировать)
/compact — сжать историю (когда контекст забивается)
/cost — сколько денег сожрала сессия
/model — сменить модель
/memory — показать что модель "запомнила" о проекте

Горячие клавиши:
Ctrl+O — развернуть что модель читает/пишет
Ctrl+C — остановить генерацию
Escape — отменить текущий ввод
Escape×2 — откатиться назад (ОСТОРОЖНО)
Tab — автодополнение путей к файлам


Если всё совсем пошло по п***е:

Закрываете консоль.
Открываете заново.
Заходите в папку.
Пишете claude.

Говорите:
"Прочитай claude.md, прочитай JOURNAL.md, прочитай все файлы проекта. Дай отчёт где мы остановились."

Если вы вели журнал — ничего не потеряно. Если не вели — ну, сами виноваты, я предупреждал.

Главное правило: не доверяйте модели слепо. Она умная, но тупая. Читайте что пишет, проверяйте что делает, сохраняйте промежуточные результаты. Git — ваш друг. git init, git add ., git commit -m "этап такой-то" — делайте после каждого успешного шага.

Откатиться всегда проще, чем восстанавливать.

Удачи, синтеты. Если что — пишите в комменты, разберём.
👍83
Anthropic прямо сейчас по подписке предлагает 50$ в подарок за использование команды /extra usage - откроется раздел usage в вашем профиле на сайте Anthropic и там вверху будет возможность получить подарок.

Не уверен на какой подписке это работает, но говорят - кур доят.

Я активировал
Так. Пора драконить НТЦ МОДУЛЬ.

Почему не трогал?

Слишком много проектов надо было сдать и доделать. Приходилось постоянно ждать завершения задач. А работа с железом в моем случае каждый раз - reload компа. К сожалению таковы мои реалии сейчас, но я решу. И все будет ок.
🤔43👍2
Проснулся...
👍126😱2🏆1
Свернуть белок правильно? Или этого мало?

Мало, конечно, нам нужны белки малые , средние, крупные...а потом дальнейшие манипуляции для построения полного лекарственного пайплайна - от открытия лекарств, до улучшения и диагностики текущих вариантов.

Есть такой программно аппаратный комплекс Шредингер Пайплайн - единственная такой комплекс, который создан как единая система , чтобы можно было много чего делать в удобном интерфейсе в том числе...

Я свою почти доделал. Допиливаю мелочи, докачиваю резидуумы и кристаллы белков...
Пылесошу все PDB
16👍5
KELLM - Языковая модель без нейросетей
Что это

Языковая модель на 50 000 слов русского языка, которая:

Не содержит нейросетей. Ноль. Нет attention, нет backprop, нет градиентного спуска.
Генерирует предложения по доменам: алгебра, геометрия, арифметика, естествознание, история, филология.
Умеет говорить «я не знаю» — отказывается отвечать на вопросы вне своих доменов с уверенностью 0%.
Каждое слово объяснимо — можно показать, почему модель выбрала именно его.


Запрос "blockchain cryptocurrency" → отказ.
Запрос "что такое фотосинтез" → генерация в домене Естествознание.


Метод
Один и тот же метод — DEMON (Determenistic-Embedding-from-Manifold-Observation-Neighbors) — работает в квазипериодических осцилляциях чёрных дыр, фолдинге белков, докинге лекарств, и теперь в языковой модели.


Суть:

1. Takens delay embedding
Берём корпус из 767 книг (учебники, от арифметики до истории). Каждое слово — точка в пространстве. Скользящие окна по 15 слов дают 363K последовательностей. Это траектории в фазовом пространстве языка.

2. kNN-графы + delta-инварианты
Для каждого слова строим граф ближайших соседей. Delta — мера нестабильности: насколько окрестность слова меняется при малых возмущениях. Слово "треугольник" стабильно в контексте геометрии (delta низкая), а "корень" нестабильно — может быть алгебра или ботаника (delta высокая).

3. Kalman-фильтр
Из QPO чёрных дыр — буквально тот же код. Gain = P/(P+R) × gate, где P — неопределённость состояния, R — шум наблюдения, gate — от delta. Фильтр прогоняет домены по всем 50K словам: каждое слово получает вектор принадлежности к 7 доменам + калиброванную дисперсию.

4. Аттрактор
Манифест (программный документ с ключевыми понятиями по каждому домену) работает как аттрактор — притягивает генерацию к нужному домену. 3 276 якорных слов из манифеста + 32K из инструкций учебников. При генерации: 70% сигнал от аттрактора, 30% от Kalman

Пайплайн генерации (3 стадии)

ВходТокенизацияОпределение домена (манифест) →

Стадия 1: Кандидаты (RRF: биграммы + триграммы + продолжения + BERT kNN)
Стадия 2: Kalman-скоринг (delta-weighted, gated gain)
Стадия 3: N-gram реранкинг (644K биграмм, 1.3M триграмм)
SoftmaxСлово + неопределённость

Слово "что" после "треугольника" — кандидат из биграмм. Kalman оценивает: это геометрия? Подходит к текущему домену? N-gram проверяет: а бывает ли "треугольника что" в реальных текстах? Три стадии фильтруют бред.

Это не GPT. Это не пытается быть GPT. Предложения читаются как ассоциативный поток по теме — но каждое слово обосновано, домен никогда не уплывает, и система честно отказывается, когда не знает.


Почему это интересно
Один метод — все задачи. Тот же Takens + delta + Kalman, что находит QPO в рентгеновских данных чёрных дыр, складывает белки (RMSD 1.37Å на крамбине), предсказывает докинг лекарств, и теперь генерирует текст. Не 11 разных алгоритмов — один.

72KB кода. Один файл Python. Без GPU. Загрузка за 3 секунды. Весь «вес модели» — 479MB предвычисленных таблиц (kNN-графы, биграммы, Kalman-состояния). Для сравнения: GPT-2 Small — 500MB чистых весов и при этом не может сказать «я не знаю».

Неопределённость — не костыль. У трансформеров uncertainty — это отдельная тема для диссертации (MC Dropout, ensembles, conformal prediction). Здесь каждое слово рождается с дисперсией из Kalman-фильтра. Дисперсия — это не постфактум оценка, это параметр самой генерации. Высокая дисперсия → консервативнее temperature → осторожнее выбор. Слишком высокая → «я не знаю».

Интерпретируемость. Почему модель сказала "треугольника"? Потому что: (1) биграмма "площадь→треугольника" имеет P=0.12 в корпусе, (2) Kalman-скор для домена Геометрия = 0.83, (3) триграмма "равна площадь треугольника" подтверждает. Не black box.

Ограничения

Это не chatbot. Не ведёт диалог.

Качество текста — уровень ассоциативного потока, не литературного русского.
50K словарь (топ из 767 книг), за его пределами — отказ.

Не масштабируется на произвольные задачи как трансформеры.
1🔥113❤‍🔥3👀3👍11
Чтобы сильно не заморачиваться поискам и так далее. Может есть у вас старая машина: системник в СПБ?
Не шибко говно, но и не сильно замороченный. Надо NM Card Mini тестировать на модельках и чтобы это было в изолированной среде. У кого такое без проблем просто валяется не нужное - я заберу ❤️
4🤔1
Техножнец
Так. Пора драконить НТЦ МОДУЛЬ. Почему не трогал? Слишком много проектов надо было сдать и доделать. Приходилось постоянно ждать завершения задач. А работа с железом в моем случае каждый раз - reload компа. К сожалению таковы мои реалии сейчас, но я решу.…
Вчера запустил Tinyllama 1b на 4 ядрах NM Card Mini (хотя в документации 16).

Скорость генерации была 1 токен в минуту...(потрясающе = нет). 


Но это в основном мои ошибки, да и плюс у меня компилятор с самописными модулями с матмулами всякими и умножениями матричными нужными...естессно...не оптимизировано нихрена. Я подумал, что на 16 ядрах будет неплохо запустить - и комп ушёл в жесть какую-то. Еле привёл в себя. Поэтому нужна отдельная станция.


Ах да...главный claim, что на NM CARD MINI можно запускать языковые модели - подтверждается. Осталось распараллелить правильно. Претензий в НТЦ Модуль = 0, потому что я сам на своём компиляторе это делаю, самописном...который основан на их документации - это совсем другие дела. Но продолжаю копать, т.к. вопрос теперь остаётся лишь в правильном допиливании и получении доступа к NM Quad кластеру.
👍7
в МЦСТ письмо с заявкой сегодня отправляю повторно (там регламент). Тоже будет доступ - проверять умножалки матриц мои.
👍18
На связь вышли ВШЭ. Будем делать совместные курсы на апрель по музыке с нейросетями.

Отличные новости!
🔥26👍6
24 февраля, в 16:20 лекция МГТУ Имени Баумана.

Лекция на тему: Перспективы развития ИИ, новые направления. Топология и энтропия - всё динамическая система?


Это официально.

Техножнец.
🔥396😁2👍1🥴1😭1
ВШЭ планируют курсы делать совместно с МФТИ, мы созванивались буквально минут 40 назад и обсудили важные детали. В Москве уже увижусь с коллективом и обрисуем моё участие подробнее.

Всем, пока что, всё нравится.
🔥29🥰6👍2🤣1
Техножнец
ВШЭ планируют курсы делать совместно с МФТИ, мы созванивались буквально минут 40 назад и обсудили важные детали. В Москве уже увижусь с коллективом и обрисуем моё участие подробнее. Всем, пока что, всё нравится.
Перспективы применения нейросетей очень разрозненные и, допустим момент, если есть рабочие пайплайны и схемы для работы функциональные = значит есть чем поделиться в рамках курсов.

Сам свои процессы, конечно, очень ускорил благодаря нейросетям.

Также мы с коллективом из ВШЭ обсудили детали плагинов, которые уже сделаны на Kalman extended предсказаниях волны и не только. Вероятно, что получится включить их сразу в курс. А мне повод доделать их побыстрее.
👍17🔥31