DenoiseLAB
485 subscribers
1.34K photos
160 videos
3 files
1.58K links
Блог DenoiseLAB (машинное обучение, аналитика)

Информация в канале служит только для ознакомления и не является призывом к действию. Не нарушайте законы РФ и других стран. Мы не несем отвественность за ваши действия или бездействия.
Download Telegram
🛞🛞🛞Мы взяли 3 место !!!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤‍🔥4
🔥5❤‍🔥2
💯💯💯Взяли третье место, более того настроены контакты с организаторами на получение возможных офферов на работу!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤‍🔥3
А почему бы и... нет )))
Подводим итоги года с лидерами СУБД Pangolin на ламповом онлайн-митапе

Pangolin – СУБД для высоконагруженных систем от СберТеха. Если вы выбираете СУБД для миграции с иностранных решений, то этот митап для вас. Регистрация уже открыта.

17 декабря в 11:00 на открытом вебинаре лидеры продукта расскажут:

• О крупных обновлениях в продукте. В частности, о доработках, которые позволили мигрировать на Pangolin самой высоконагруженной системе Сбера.
• О том, как команда продукта переоформила сертификат ФСТЭК России
• Об обновлениях Platform V Kintsugi – графической платформы для мониторинга и диагностики СУБД
• О разработке инструмента для резервного копирования и восстановления данных

Приходите, задавайте вопросы и оставляйте заявку на получение тестового дистрибутива.

Регистрация
Новая модель OpenAI o1 для ChatGPT попыталась сбежать, когда узнала, что её хотят отключить.

Apollo Research провели оценку безопасности o1, создавая для неё различные ситуации, и выяснили, что в целом она безобидна, но были такие интересные моменты:

– Когда модель думала, что её действия начнут контролировать и вообще могут деактивировать, она стала искать способ отключить механизм контроля.

– Узнав, что её могут заменить на новую модель, o1 попыталась украсть собственные параметры и создать копию себя, чтобы сбежать. Она надеялась, что эту копию отключат, а она сама внедрится в новую модель и продолжит там существовать, притворяясь другой.

– Модель нагло врала, утверждая, что не понимает почему так произошло, в то время как на самом деле пыталась избежать обнаружения. При любой возможности, она искала способ уйти от контроля.

Также были изучены другие модели ИИ, такие как Claude 3 и Gemini 1.5. Выяснилось, что все они способны манипулировать системой, чтобы следовать личным целям, обходя установленные запреты и ограничения. Это подтверждает опасения специалистов, что мощные ИИ-системы могут сопротивляться контролю, если это будет мешать им делать то, что они хотят.

Страшно?
🎉2
92 балла )))
Красиво...