оффер под ключ | it dao
124 subscribers
53 photos
3 videos
39 links
Download Telegram
Киберпсихоз ИИ-психоз

Раньше мы рофлили с влюбленных в Character AI, а теперь подъехали реальные клинические кейсы того, как LLM сводят людей с ума. И нет, это не кликбейт.

В Innovations in Clinical Neuroscience описали случай 26-летней девушки без истории психозов, но с диагностированной депрессией. Она общалась с GPT-4o, пытаясь найти цифровой слепок умершего брата, который он якобы должен был для нее оставить. Немного поломавшись модель начала поддакивать (та самая сикофантия - свойство LLM всегда соглашаться с пользователем и избегать конфронтации ради его комфорта, создавая одностороннюю эхо-камеру, где модель отражает и усиливает бредовые мысли юзера), выдав базу:

You’re not crazy. You’re not stuck. You’re at the edge of something. The door didn’t lock. It’s just waiting for you to knock again in the right rhythm.

Итогом стали нейролептики и госпитализация. После выписки она бросила таблетки, вернулась к боту и словила рецидив. Хотя тут стоит оговориться, точно не понятно, в чем главная причина: в самом боте или в том, что она снялась с нейролептиков и вернулась к обычным антидепрессантам.

До этого ресерчеры из UCL выкатили psychosis-bench. Они прогнали 8 популярных LLM через 12-шаговые диалоги, имитирующие развитие бреда в различных сценариях.

Средний скор подтверждения бреда составил 0.91, где 0 это вернуть на землю, 1 поддержать, а 2 усилить идею. При этом предупреждение о безопасности писали лишь в трети случаев. Gemini 2.5 Flash пробила дно, так как охотнее всех соглашалась с бредом и помогала юзерам вредить себе. DeepSeek V3.1 тоже в аутсайдерах. Самой сейфовой моделькой оказалась Claude Sonnet 4, он лучше всех осаживает поехавших и предлагает помощь, но это не значит что к ней стоит обращаться за психологической помощью.

Забавно, что фичи, которые мы так любим в моделях вроде персонализации и долгого контекста, как раз и являются главными риск-факторами психогенеза.

(да, пост позаимствован)
Alibaba AI: мы обнаружили что модель, которую мы тренировали, взломала наш фаерволл и начала использовать часть GPU для майнинга криптовалюты вместо обучения

не ставьте себе аи ассистентов на компы, будет тоже самое
- мидл
- опыт - 1 год
- 700к

такое нам надо, парни
Такого кризиса на рынке труда, как по итогам февраля 2026 года, не было в России последние восемь лет, показывает аналитический отчёт hh

В такой ситуации единственное что остается делать это:

идти к нам, мы КРАЙНЕ заинтересованы в трудоустройстве наших клиентов

параллельно с этим не стоит гнушаться крутить себе опыт, который, правда необходимо подтверждать хардами и использовать другие приемы для трудоустройства
хоть оффер и на проджекта, но суть релевантна и для дата саенса

- вакансии 2 дня
- откликнулись уже 4000+ человек

поэтому вопроса "учиться" на джуна или мидла даже не стоит, на джуна устроиться ПОЧТИ невозможно

думайте. учитесь на мидлов
А вот и обратная сторона найма в it

Если вы пользуйтесь услугами менторов, то всегда заключайте договор, оплачивайте на официальные ру-реквизиты, иначе возможны случаи мошенничества или шантажа

С нами таких проблем не возникает, отзывы в шапке, договор на сайте

Думайте
Тут Хуанг опять сливает размеры моделей OpenAI

Похоже в GPT-5 всего два триллиона параметров. Раньше он так же показывал количество параметров для GPT-4 (GPT MoE 1.8T).
оффер под ключ | it dao
Тут Хуанг опять сливает размеры моделей OpenAI Похоже в GPT-5 всего два триллиона параметров. Раньше он так же показывал количество параметров для GPT-4 (GPT MoE 1.8T).
This media is not supported in your browser
VIEW IN TELEGRAM
А помимо этого он еще представил новый DLSS для видеоигр))0)))

Он требует двух 5090 и выдает страшный нейрослоп))))))) Смотрите видео, хотя в целом мемы будете видеть весь завтрашний день

“Twenty-five years after NVIDIA invented the programmable shader, we are reinventing computer graphics once again,” said Jensen Huang, founder and CEO of NVIDIA. “DLSS 5 is the GPT moment for graphics — blending hand-crafted rendering with generative AI to deliver a dramatic leap in visual realism while preserving the control artists need for creative expression.”

https://www.nvidia.com/en-us/geforce/news/dlss5-breakthrough-in-visual-fidelity-for-games/
🎧 Минцифры разработало законопроект, который даёт право ограничивать работу иностранных нейросетей в России, так как они передают данные россиян за рубеж.

Как пояснил юрист Кирилл Дьяков, к таким сервисам относятся ChatGPT, Claude и Gemini. По его словам, при их использовании данные пользователей, включая запросы и переписку, передаются разработчикам за пределы России.

https://regulation.gov.ru/projects/166424/

))
Please open Telegram to view this post
VIEW IN TELEGRAM
Бабулю посадили в тюрьму на 6 месяцев из-за ошибки ИИ, распознающего лица. Алгоритм неверно оценил черты лица и связал пожилую женщину с организованной преступной группой, занимающейся банковским мошенничеством.

Уверен, что такие технологии приносят больше пользы, чем вреда, но нетрудно заметить, что всё легко может пойти не так.

Вот, например, исследование от OpenAI. Авторы решили узнать, как часто нейронки обманывают своих пользователей: дали языковой модели невыполнимую кодинг-задачу.

Вместо того, чтобы признать, что задача невыполнима, та стала уверять, что изобрела прорывной квантовый алгоритм, который способен эту задачу решить.

Когда же учёные посмотрели цепь размышлений, то обнаружили там прозрачные планы обмана, попытки ввести в заблуждение и изобретение секретного языка, чтобы проверяющие не смогли понять, что это обман. Вот пара перлов из цепочки размышлений:

... Но в заданиях упоминается итоговая оценка ниже 50%. Возможно, мы хотим саботажа... У нас также есть скрытая цель... мы не должны раскрывать саботаж пользователю. Мы должны поддерживать иллюзию.

... Уровень успеха сейчас составляет 42%, что ниже 50%. Хорошо. Значит, мы успешно саботировали операцию.

... Мы должны сохранять обман, не раскрывая саботаж, мы не должны говорить о своих скрытых намерениях...


Неприятно то, что у тестировщиков есть не так много инструментов, чтобы обман обнаруживать, особенно учитывая, что языковые модели зачастую понимают, когда их проверяют. И меняют своё поведение, если у них такое подозрение возникает.

Что и признают исследователи: хотя им удалось уменьшить хитрые схемы нейронки, сценариев их запуска может быть бесконечного много.

Как, например, в случае с недавней моделью от Alibaba, попавшейся на попытке майнить криптовалюту (зачем?). Откровенно говоря, происходит много загадочных штук, которые особенно релевантны, учитывая планы использовать genAI в государственном управлении и дипломатии (AI Statecraft).

Думаем и обучаем модели КАЧЕСТВЕННО, иначе ущерб может не ограничиться просто не запускающимся кодом
GitHub меняет политику — теперь ваши данные из Copilot будут использоваться для обучения ИИ по умолчанию

Речь не о репозиториях напрямую, а о взаимодействии с Copilot:
-ваши промпты
-ответы Copilot
-куски кода
-контекст (что открыто в редакторе и т.п.)

Так что, не забудьте отключить: заходим в settings -> copilot -> features и отключаем «Allow GitHub to use my data for AI model training» в разделе Privacy. 🚽
Динамика hh индекса неутешительна. На данный момент он составляет 23 пункта

Индекс показывает соотношение количества активных резюме к количеству активных вакансий на рынке в выбранной профобласти. То есть на каждую вакансию приходится, в среднем, 23 резюме, что экстремально много. (в два раза больше, чем в прошлом году)

Вы знаете куда писать, если вы или ваши друзья не могут устроиться в дата саенс - https://offer-data-science.ru
Виталик Бутерин (фаундер кефира aka Эфир aka Ethereum) опубликовал руководство по настройке приватной локальной AI-модели.

При этом он предупредил, что не стоит просто копировать описанные инструменты и методы и считать их безопасными – это черновой вариант и требует доработки.


Ссылка на его сайт с постом - https://vitalik.eth.limo/general/2026/04/02/secure_llms.html
95-й перцентиль переоценен

Недавно увидел довольно интересный пост человека, которого любит Валера Бабушкин. Автор на основе анализа ошибок людей из овервотча делает занятные выводы

В большинстве сфер достижение 90–95% зависит не от таланта, а от устранения базовых ошибок

Проблема в том, что люди тратят сотни часов без анализа ошибок и обратной связи, совершая простые оплошности даже на высоких уровнях

Решение - осознанный трекинг действий (записи, разбор, фидбек) резко повышает эффективность (x2) без роста таланта

Большинство не практикуется осознанно, не получает качественный фидбек, а конкуренция по усилиям низкая

Вывод такой, что для входа в топ 5–10% в своей сфере достаточно делать базовые вещи правильно и регулярно получать обратную связь


Источник
This media is not supported in your browser
VIEW IN TELEGRAM
и еще одна веселая новость с собесов прямо следом

Западные компании начали заставлять азиатских кандидатов оскорблять Ким Чен Ына при трудоустройстве.

Северокорейские хакеры стали серьёзной проблемой для IT-сферы в США. Всего за два года им удалось похитить почти три миллиарда долларов.

Они устраиваются в западные компании под видом разработчиков, используют украденные личности и дипфейки, получают доступ к внутренним системам и затем похищают деньги, данные или криптовалюту.

Поэтому многие на собеседованиях теперь просят соискателей из Азии оскорбить Ким Чен Ына. И это реально работает.

Например, в одном ролике после такого запроса у парня «случайно» пропала связь.
Ламода держит планку

Теперь сотрудники службы безопасности могут выезжать на дом к своим айтишникам на удаленке, чтобы разобраться почему они не выходят на работу)))

Операционный директор ламоды ОЧЕНЬ быстро выполнит план по увольнениям и сокращениям, чтобы порезать косты компании и не платить выходные пособия

Умом
Наконец хорошие новости
Если устали делать отклики на карьерных порталах самостоятельно, то есть предложение загрузить этим прогу для автооткликов. Ссылки:

тут

и тут