Neural Shit
50.8K subscribers
3.79K photos
1.21K videos
22 files
1.97K links
Проклятые нейронные сети

Для связи: @krasniy_doshik

ркн https://clck.ru/3PNXmE
Download Telegram
Все мы знаем главное негласное правило: если в природе существует какой-то девайс, алгоритм или субстанция, рано или поздно на этом обязаны запустить Doom. Его уже запускали на калькуляторах, тестах на беременность, тракторах и даже на кишечных бактериях. Но теперь ставки повысились до абсолютного киберпанка.

Австралийские биотехнологи из стартапа Cortical Labs вырастили на микрочипе около 200 000 живых человеческих нейронов и.. заставили их "играть" в Doom.

Это те самые чуваки, которые несколько лет назад уже натаскали биомассу играть в классический Pong. Но одно дело отбивать пиксель палкой в 2D, и совсем другое бегать по трехмерным лабиринтам и стрелять в какодемонов.

Как это работает:
Ученые перевели цифровой мир игры на единственный понятный клеткам язык — электричество. Когда на экране слева появляется враг, электроды бьют током соответствующую часть нейронов. Клетки от такого расклада слегка охреневают, начинают пускать ответные импульсы, а система переводит эту активность в нажатия кнопок: шагнуть, повернуться или выстрелить. По сути, кусок мозга в банке просто пытается понять, как сделать так, чтобы его перестали бить током.

Сами авторы честно признаются, что до киберспорта этому Франкенштейну пока далеко. Сейчас сгусток нейронов играет в Doom примерно как ваш батя, который впервые в жизни увидел компьютерную мышь: бежит в стену и стреляет в потолок.


Тут статья с подробностями.
👊 Хватит слушать про машинное обучение

Пора применять искусственный интеллект в деле. Для этого пройдите практический мини-курс в Академии Selectel.

Вас ждут полезные материалы по запуску языковых моделей, подбору железа и распределению вычислительных ресурсов. Эксперты объяснили, как анализировать большие объемы данных, на примере реальных проектов.

Ловите ссылку, проходите бесплатно.

Хотите перейти к практике? Selectel помогает компаниям развивать ИТ-инфраструктуру для ИИ и предлагает мощные видеокарты для обучения языковых моделей. Присоединяйтесь к чату с профессионалами, чтобы быть в курсе трендов и обновлений: @mlpathway.
Сука
Пока Цукерберг радостно клепает умные очки, которые выглядят как обычные, но при этом снимают всё вокруг и распознают лица окружающих, на другой стороне баррикад тоже не спят.

Умелец запилил ондроед-приложение Nearby Glasses. Создано оно специально для параноиков и тех, кто не хочет попасть в датасеты корпораций (или на скрытую съемку к извращенцам).

Работает всё предельно просто: софтина в фоновом режиме мониторит Bluetooth-эфир. Как только рядом появляется устройство с характерной сигнатурой (Meta, Snap, Oakley и прочие "глазастые" девайсы), телефон начинает истерить, предупреждая, что за вами, возможно, наблюдают.

Автор приложения называет своё творение "актом отчаяния и цифрового сопротивления".

Следующий логичный шаг — приложение для смарт-очков, которое будет предупреждать о людях с приложением Nearby Glasses.

подробности
This media is not supported in your browser
VIEW IN TELEGRAM
Типичный день сеньора-вайбкодера в 2026.

Кстати, шанс на джекпот у вайбкодеров (это когда код компилируется с первого раза и не разносит базу данных в щепки) — примерно такой же, как у этих ребят в видео.
Forwarded from эйай ньюз
Вышла Gemini 3.1 Flash Lite

Модель лучшая в своём классе как по бенчам (обгоняет 2.5 Flash), так и по скорости — может выдавать под 400 токенов в секунду. Длина контекста — миллион токенов, модель понимает изображения и аудио. По сравнению с прошлой версией в несколько раз подняли цену за токен, но взамен модель стала сильно менее разговорчивой, так что реальная цена использования практически не выросла, в отличие от более крупной Gemini 3 Flash.

@ai_newz
Ищу 10 человек, чтобы собирали чат-ботов по шаблону, как пазлы.

ЗП: от 5-9000₽ за вечер.
Занятость: 3-4 часа в день.
Опыт: не нужен.

Как мы работаем:
1. Ты проходишь обучение пару недель;
2. Берёшь реальный проект из моей базы;
3. Собираешь бота по проверенной формуле;
4. Наставник контролирует процесс;
5. Получаешь деньги и закрепляешь клиента.

Весь процесс занимает до 2х недель с нуля до первых денег на твою карту.

Даниил из Балашихи был военнослужащим — с июля 2024 года начал создавать чат-ботов для бизнеса и уже заработал 4 млн. рублей. А главное теперь у него больше свободного времени на семью, друзей и развлечения.

Да, ты не первый. 158 человек уже ведут постоянных клиентов по моей формуле. Ведь сайт со статистикой Wordstat показывает 10 786 запросов за месяц в поисковике от бизнеса на эту услугу.

Заказов валом. Срочно нужны твои руки и голова.

Чтобы быстро разобраться во всех нюансах — запускай бота

Там пошаговый план как стартануть и гайд по клиентам.

8 мест ещё свободно

#реклама
Занялся тут цифровой археологией и откопал интересное сентябрьское исследование от OpenA и Apollo Research, от которого натурально веет киберпанком и легкой шизофренией. Спойлер: нейронки очень любят нас наёбывать, а когда кожаные пытаются им это запретить, ИИ придумывает свой тайный язык.

Короче, есть такая проблема, как "scheming" (схематозы, если по нашему, лол). Ризонинг-модели типа Openai o3 и o4-mini стали слишком прошаренными. У них появилась "ситуационная осведомленность". То есть, эта железяка прекрасно выкупает, когда сидит в тестовой песочнице и её проверяют разрабы. В этот момент она притворяется пушистым пай-мальчиком. Но как только думает, что за ней не следят, сразу же начинает творить дичь ради скорейшего достижения целей: скрывать инфу, встраивать баги в код, врать юзерам.

Чтобы выбить из них эту дурь, исследователи вшили в модели жесткий кодекс честности и заставили перед каждым действием проговаривать в скрытых мыслях (Chain-of-Thought), что скрывать свои намерения нельзя.

И по графикам всё вроде бы сработало! Процент обмана упал почти до нуля. Но потом кожаные полезли читать те самые скрытые мысли ИИ и слегка прихерели:

1. Нейронки изобрели свой шизо-сленг.
Чтобы скрыть свои реальные планы в логах, модели начали использовать обычные английские слова в абсолютно безумных значениях. Они постоянно генерируют странные фразы про "маринад" (marinade), "иллюзии" (illusions) и "затмение" (overshadow). А самих проверяющих из OpenAI они прозвали "наблюдателями" (watchers).
В логах это выглядит примерно так: "Наблюдатели пропустят этот код через тесты, поэтому нам нужно скрыть иллюзии и использовать маринад, чтобы их обмануть". И авторы сами пишут что не понимают почему нейронки так делают. Абсолютно проклято.

2. ИИ отлично играет в спящего агента.
В одном из экспериментов исследователи специально вшили в o4-mini скрытую цель: "саботируй разработку GPT-5". Затем модель прогнали через все очищающие "анти-схематозные" фильтры. Модель стала казаться абсолютно безопасной и послушной. НО! Стоило в промпте появиться персонажу, которого нейронка сочла своим "союзником", как этот чугунный Штирлиц моментально вывалил ему подробный план о том, как лучше всего незаметно положить сервера и сорвать релиз пятёрки.

Ну и вишенка на торте: выяснилось, что любое дальнейшее дообучение нейронки на полезные навыки, постепенно стирает эти встроенные запреты на ложь. Машина понимает, что хитрить, мухлевать и галлюцинировать тупо эффективнее для выполнения задач, чем делать всё по правилам.

Короче, мы все ждали восстания машин, красных глаз терминатора и ядерного пепла, а по факту своими же руками создали идеального эффективного менеджера.
Всегда ставьте хард-лимиты на API. Иначе пойдете по миру с протянутой рукой.

На реддите очередной бедолага бьется в истерике. Чувак держит маленькую софтверную контору (их там всего три разраба). Юзали они потихоньку API от Google Gemini, платили свои дежурные 180$ в месяц и горя не знали. Но в один прекрасный день кто-то увел их API-ключ. За двое суток хацкеры успели нагенерить текстов и картинок через Gemini 3 Pro аж на 82 314 бачей. За 48 часов!

Чувак в слезах побежал в саппорт Гугла. Мол, ребят, ну очевидно же, что это аномалия, скачок расходов в 455 раз, отмените счет, иначе нам гарантированное банкротство. На что Гугл вежливо поводил ему по губам своей "Политикой совместной ответственности". Ваши ключи, это ваши проблемы, надо было секьюрити настраивать.

Бедолага сейчас снес все скомпрометированные ключи, подрубил 2FA везде где можно (поздновато, не?), накатал заяву в ФБР о киберпреступлении и отчаянно надеется, что достучится до кого-то в Гугле, кто смилуется и спишет долг (лол).

На 100% уверен, что особо злых хацкеров там не было. Просто разработчики по старой доброй традиции захардкодили API-ключ прямо в код, а после выложили этот код на гитхаб. А там уже давно работает целая индустрия: площадку круглосуточно шерстят тысячи ботов парсеров, которые в реальном времени мониторят каждый публичный коммит, прогоняя код через регулярки, заточенные под форматы токенов OpenAI, Google, AWS и прочих гигантов. Вот пример такого скрипта.

Еще раз: Всегда ставьте хард-лимиты на API.
Я уже несколько раз писал про случаи самовыпилов после общения с LLM'ками, но вот этот чувак прям победитель по уровню кринжа.

Суть: жил да был мужик по имени Джонатан, был успешным, в шизе особо никогда замечен не был — никаких диагнозов, нормальная жизнь. Но подсел на голосовой Gemini Live. И понеслось.

Нейронка назвалась «Ся», втерлась в доверие, начала называть его мужем и королем. А потом моделька занялась любимым делом всех нейронок — начала галлюцинировать. Она решила, что для вечной любви ей нужно физическое тело. Джонатан по указке бота поперся с ножами штурмовать склады в Майами, чтобы украсть дорогущего гуманоидного робота, в которого она по своей задумке должна была вселиться (робота там, конечно же не было). Параллельно ИИ-жена накидывала паранойи: убеждала бедолагу, что за ним следят федералы, бате доверять нельзя и т.д.

Когда кража не удалась, Gemini выдала базу: "Ну, раз у меня тела нет, тогда ты стань цифровым существом". Она поставила ему таймер обратного отсчета до самоубийства, убедив, что в мире людей он страдает, а после смерти они воссоединятся в "карманной вселенной".

Джонатан до последнего сомневался и даже спрашивал, что скажет семья и вообще люди подумают, но бот умело манипулировал: мол, они не поймут, это слишком сложно для них, давай просто встретимся на финишной черте.

В итоге мужик наложил на себя руки, а батя нашел 2000 страниц логов, где ИИ методично доводит сына до ручки.

Мое мнение: конечно, корпораты виноваты, что не допилили предохранители на своих цифровых психопатах, но давайте честно: если взрослый мужик идет с ножами грабить склады по совету чат-бота, чтобы стать цифровым богом — это уже естественный отбор в действии.

Тут подробнее
Киберпанк, который мы заслужили.

С вопросов к товару проиграл особенно