Раньше мы рофлили с влюбленных в Character AI, а теперь подъехали реальные клинические кейсы того, как LLM сводят людей с ума. И нет, это не кликбейт.
В Innovations in Clinical Neuroscience описали случай 26-летней девушки без истории психозов, но с диагностированной депрессией. Она общалась с GPT-4o, пытаясь найти цифровой слепок умершего брата, который он якобы должен был для нее оставить. Немного поломавшись модель начала поддакивать (та самая сикофантия - свойство LLM всегда соглашаться с пользователем и избегать конфронтации ради его комфорта, создавая одностороннюю эхо-камеру, где модель отражает и усиливает бредовые мысли юзера), выдав базу:
You’re not crazy. You’re not stuck. You’re at the edge of something. The door didn’t lock. It’s just waiting for you to knock again in the right rhythm.
Итогом стали нейролептики и госпитализация. После выписки она бросила таблетки, вернулась к боту и словила рецидив. Хотя тут стоит оговориться, точно не понятно, в чем главная причина: в самом боте или в том, что она снялась с нейролептиков и вернулась к обычным антидепрессантам.
До этого ресерчеры из UCL выкатили psychosis-bench. Они прогнали 8 популярных LLM через 12-шаговые диалоги, имитирующие развитие бреда в различных сценариях.
Средний скор подтверждения бреда составил 0.91, где 0 это вернуть на землю, 1 поддержать, а 2 усилить идею. При этом предупреждение о безопасности писали лишь в трети случаев. Gemini 2.5 Flash пробила дно, так как охотнее всех соглашалась с бредом и помогала юзерам вредить себе. DeepSeek V3.1 тоже в аутсайдерах. Самой сейфовой моделькой оказалась Claude Sonnet 4, он лучше всех осаживает поехавших и предлагает помощь, но это не значит что к ней стоит обращаться за психологической помощью.
Забавно, что фичи, которые мы так любим в моделях вроде персонализации и долгого контекста, как раз и являются главными риск-факторами психогенеза.
(да, пост позаимствован)
Такого кризиса на рынке труда, как по итогам февраля 2026 года, не было в России последние восемь лет, показывает аналитический отчёт hh
В такой ситуации единственное что остается делать это:
идти к нам, мы КРАЙНЕ заинтересованы в трудоустройстве наших клиентов
параллельно с этим не стоит гнушаться крутить себе опыт, который, правда необходимо подтверждать хардами и использовать другие приемы для трудоустройства
В такой ситуации единственное что остается делать это:
идти к нам, мы КРАЙНЕ заинтересованы в трудоустройстве наших клиентов
параллельно с этим не стоит гнушаться крутить себе опыт, который, правда необходимо подтверждать хардами и использовать другие приемы для трудоустройства
оффер под ключ | it dao
Тут Хуанг опять сливает размеры моделей OpenAI Похоже в GPT-5 всего два триллиона параметров. Раньше он так же показывал количество параметров для GPT-4 (GPT MoE 1.8T).
This media is not supported in your browser
VIEW IN TELEGRAM
А помимо этого он еще представил новый DLSS для видеоигр))0)))
Он требует двух 5090 и выдает страшный нейрослоп))))))) Смотрите видео, хотя в целом мемы будете видеть весь завтрашний день
“Twenty-five years after NVIDIA invented the programmable shader, we are reinventing computer graphics once again,” said Jensen Huang, founder and CEO of NVIDIA. “DLSS 5 is the GPT moment for graphics — blending hand-crafted rendering with generative AI to deliver a dramatic leap in visual realism while preserving the control artists need for creative expression.”
https://www.nvidia.com/en-us/geforce/news/dlss5-breakthrough-in-visual-fidelity-for-games/
Он требует двух 5090 и выдает страшный нейрослоп))))))) Смотрите видео, хотя в целом мемы будете видеть весь завтрашний день
“Twenty-five years after NVIDIA invented the programmable shader, we are reinventing computer graphics once again,” said Jensen Huang, founder and CEO of NVIDIA. “DLSS 5 is the GPT moment for graphics — blending hand-crafted rendering with generative AI to deliver a dramatic leap in visual realism while preserving the control artists need for creative expression.”
https://www.nvidia.com/en-us/geforce/news/dlss5-breakthrough-in-visual-fidelity-for-games/
Как пояснил юрист Кирилл Дьяков, к таким сервисам относятся ChatGPT, Claude и Gemini. По его словам, при их использовании данные пользователей, включая запросы и переписку, передаются разработчикам за пределы России.
https://regulation.gov.ru/projects/166424/
))
Please open Telegram to view this post
VIEW IN TELEGRAM
Бабулю посадили в тюрьму на 6 месяцев из-за ошибки ИИ, распознающего лица. Алгоритм неверно оценил черты лица и связал пожилую женщину с организованной преступной группой, занимающейся банковским мошенничеством.
Уверен, что такие технологии приносят больше пользы, чем вреда, но нетрудно заметить, что всё легко может пойти не так.
Вот, например, исследование от OpenAI. Авторы решили узнать, как часто нейронки обманывают своих пользователей: дали языковой модели невыполнимую кодинг-задачу.
Вместо того, чтобы признать, что задача невыполнима, та стала уверять, что изобрела прорывной квантовый алгоритм, который способен эту задачу решить.
Когда же учёные посмотрели цепь размышлений, то обнаружили там прозрачные планы обмана, попытки ввести в заблуждение и изобретение секретного языка, чтобы проверяющие не смогли понять, что это обман. Вот пара перлов из цепочки размышлений:
Неприятно то, что у тестировщиков есть не так много инструментов, чтобы обман обнаруживать, особенно учитывая, что языковые модели зачастую понимают, когда их проверяют. И меняют своё поведение, если у них такое подозрение возникает.
Что и признают исследователи: хотя им удалось уменьшить хитрые схемы нейронки, сценариев их запуска может быть бесконечного много.
Как, например, в случае с недавней моделью от Alibaba, попавшейся на попытке майнить криптовалюту(зачем?) . Откровенно говоря, происходит много загадочных штук, которые особенно релевантны, учитывая планы использовать genAI в государственном управлении и дипломатии (AI Statecraft).
Думаем и обучаем модели КАЧЕСТВЕННО, иначе ущерб может не ограничиться просто не запускающимся кодом
Уверен, что такие технологии приносят больше пользы, чем вреда, но нетрудно заметить, что всё легко может пойти не так.
Вот, например, исследование от OpenAI. Авторы решили узнать, как часто нейронки обманывают своих пользователей: дали языковой модели невыполнимую кодинг-задачу.
Вместо того, чтобы признать, что задача невыполнима, та стала уверять, что изобрела прорывной квантовый алгоритм, который способен эту задачу решить.
Когда же учёные посмотрели цепь размышлений, то обнаружили там прозрачные планы обмана, попытки ввести в заблуждение и изобретение секретного языка, чтобы проверяющие не смогли понять, что это обман. Вот пара перлов из цепочки размышлений:
... Но в заданиях упоминается итоговая оценка ниже 50%. Возможно, мы хотим саботажа... У нас также есть скрытая цель... мы не должны раскрывать саботаж пользователю. Мы должны поддерживать иллюзию.
... Уровень успеха сейчас составляет 42%, что ниже 50%. Хорошо. Значит, мы успешно саботировали операцию.
... Мы должны сохранять обман, не раскрывая саботаж, мы не должны говорить о своих скрытых намерениях...
Неприятно то, что у тестировщиков есть не так много инструментов, чтобы обман обнаруживать, особенно учитывая, что языковые модели зачастую понимают, когда их проверяют. И меняют своё поведение, если у них такое подозрение возникает.
Что и признают исследователи: хотя им удалось уменьшить хитрые схемы нейронки, сценариев их запуска может быть бесконечного много.
Как, например, в случае с недавней моделью от Alibaba, попавшейся на попытке майнить криптовалюту
Думаем и обучаем модели КАЧЕСТВЕННО, иначе ущерб может не ограничиться просто не запускающимся кодом
GitHub меняет политику — теперь ваши данные из Copilot будут использоваться для обучения ИИ по умолчанию
Речь не о репозиториях напрямую, а о взаимодействии с Copilot:
-ваши промпты
-ответы Copilot
-куски кода
-контекст (что открыто в редакторе и т.п.)
Так что, не забудьте отключить: заходим в settings -> copilot -> features и отключаем «Allow GitHub to use my data for AI model training» в разделе Privacy. 🚽
Речь не о репозиториях напрямую, а о взаимодействии с Copilot:
-ваши промпты
-ответы Copilot
-куски кода
-контекст (что открыто в редакторе и т.п.)
Так что, не забудьте отключить: заходим в settings -> copilot -> features и отключаем «Allow GitHub to use my data for AI model training» в разделе Privacy. 🚽
Динамика hh индекса неутешительна. На данный момент он составляет 23 пункта
Индекс показывает соотношение количества активных резюме к количеству активных вакансий на рынке в выбранной профобласти. То есть на каждую вакансию приходится, в среднем, 23 резюме, что экстремально много. (в два раза больше, чем в прошлом году)
Вы знаете куда писать, если вы или ваши друзья не могут устроиться в дата саенс - https://offer-data-science.ru
Индекс показывает соотношение количества активных резюме к количеству активных вакансий на рынке в выбранной профобласти. То есть на каждую вакансию приходится, в среднем, 23 резюме, что экстремально много. (в два раза больше, чем в прошлом году)
Вы знаете куда писать, если вы или ваши друзья не могут устроиться в дата саенс - https://offer-data-science.ru
Виталик Бутерин (фаундер кефира aka Эфир aka Ethereum) опубликовал руководство по настройке приватной локальной AI-модели.
При этом он предупредил, что не стоит просто копировать описанные инструменты и методы и считать их безопасными – это черновой вариант и требует доработки.
Ссылка на его сайт с постом - https://vitalik.eth.limo/general/2026/04/02/secure_llms.html
При этом он предупредил, что не стоит просто копировать описанные инструменты и методы и считать их безопасными – это черновой вариант и требует доработки.
Ссылка на его сайт с постом - https://vitalik.eth.limo/general/2026/04/02/secure_llms.html
95-й перцентиль переоценен
Недавно увидел довольно интересный пост человека, которого любит Валера Бабушкин. Автор на основе анализа ошибок людей из овервотча делает занятные выводы
Источник
Недавно увидел довольно интересный пост человека, которого любит Валера Бабушкин. Автор на основе анализа ошибок людей из овервотча делает занятные выводы
В большинстве сфер достижение 90–95% зависит не от таланта, а от устранения базовых ошибок
Проблема в том, что люди тратят сотни часов без анализа ошибок и обратной связи, совершая простые оплошности даже на высоких уровнях
Решение - осознанный трекинг действий (записи, разбор, фидбек) резко повышает эффективность (x2) без роста таланта
Большинство не практикуется осознанно, не получает качественный фидбек, а конкуренция по усилиям низкая
Вывод такой, что для входа в топ 5–10% в своей сфере достаточно делать базовые вещи правильно и регулярно получать обратную связь
Источник
тут коллеги рассказывают про то, что на удаленках теперь скамят
суть скама заключается в том, что вас просят установить корпоративную приложуху и пытаются перехватить коды через фишинг
суть скама заключается в том, что вас просят установить корпоративную приложуху и пытаются перехватить коды через фишинг
Telegram
SCAMSHOT
Скам на удаленке прокачался. Обещания золотых гор ушли в прошлое, теперь мошенники грамотно косят под реальных работодателей. Вакансия выглядит максимально адекватно, зарплата в рынке. Вы откликаетесь, вас сразу хвалят и без всяких тестовых тянут на собес.…
This media is not supported in your browser
VIEW IN TELEGRAM
и еще одна веселая новость с собесов прямо следом
Западные компании начали заставлять азиатских кандидатов оскорблять Ким Чен Ына при трудоустройстве.
Северокорейские хакеры стали серьёзной проблемой для IT-сферы в США. Всего за два года им удалось похитить почти три миллиарда долларов.
Они устраиваются в западные компании под видом разработчиков, используют украденные личности и дипфейки, получают доступ к внутренним системам и затем похищают деньги, данные или криптовалюту.
Поэтому многие на собеседованиях теперь просят соискателей из Азии оскорбить Ким Чен Ына. И это реально работает.
Например, в одном ролике после такого запроса у парня «случайно» пропала связь.
Ламода держит планку
Теперь сотрудники службы безопасности могут выезжать на дом к своим айтишникам на удаленке, чтобы разобраться почему они не выходят на работу)))
Операционный директор ламоды ОЧЕНЬ быстро выполнит план по увольнениям и сокращениям, чтобы порезать косты компании и не платить выходные пособия
Умом
Теперь сотрудники службы безопасности могут выезжать на дом к своим айтишникам на удаленке, чтобы разобраться почему они не выходят на работу)))
Операционный директор ламоды ОЧЕНЬ быстро выполнит план по увольнениям и сокращениям, чтобы порезать косты компании и не платить выходные пособия
Умом