В период с 5 по 9 мая жители Москвы могут столкнуться с ограничениями доступа в интернет, связанными с обеспечением безопасности праздничных мероприятий.
Информация об этом поступила от Единой государственной системы предупреждения и ликвидации чрезвычайных ситуаций (РСЧС).
- сообщение РСЧС
Ситуация усугубилась масштабным сбоем в работе всех крупных операторов сотовой связи. Пользователи "Билайн", "Мегафон", МТС, Tele2 и
Yota массово сообщают о проблемах со звонками, отправкой сообщений и мобильным интернетом. У многих сеть отсутствует полностью.
Информация об этом поступила от Единой государственной системы предупреждения и ликвидации чрезвычайных ситуаций (РСЧС).
Возможны ограничения доступа в интернет в связи с обеспечением безопасности проходящих праздничных мероприятий.
- сообщение РСЧС
Ситуация усугубилась масштабным сбоем в работе всех крупных операторов сотовой связи. Пользователи "Билайн", "Мегафон", МТС, Tele2 и
Yota массово сообщают о проблемах со звонками, отправкой сообщений и мобильным интернетом. У многих сеть отсутствует полностью.
🥴6👀3🗿3😱1🌚1
Согласно последним тестам OpenAl, новейшие языковые модели компании демонстрируют значительно более высокую склонность к галлюцинациям (выдача ложной информации).
Это открытие вызывает серьезную обеспокоенность, особенно учитывая, что причины такого ухудшения остаются неясными.
Исследование, о котором сообщает The New York Times, показало шокирующие результаты: модель GPT 03, считающаяся самой мощной системой OpenAl, галлюцинирует в 33% случаев при проведении теста PersonQA, который включает ответы на вопросы о публичных фигурах. Это более чем вдвое превышает частоту галлюцинаций предыдущей системы GPT 01. Еще хуже дела обстоят с новой GPT o4-mini, которая показала уровень галлюцинаций в 48%.
При проведении другого теста, SimpleQA, который задает более общие вопросы, показатели оказались еще более тревожными: уровень галлюцинаций составил 51% для GPT 03 и ошеломляющие 79% для GPT 04-mini. Для сравнения, предыдущая система GPT 01 галлюцинировала в 44% случаев при этом же тесте.
OpenAl заявляет, что необходимы дополнительные исследования для понимания причин увеличения ошибок в новейших моделях. Однако некоторые отраслевые эксперты указывают на так называемые "reasoning models" (модели с рассуждением) как на возможный источник проблемы.
Независимо от причин, одно можно сказать с уверенностью - модели искусственного интеллекта должны в значительной степени исключить бессмыслицу и ложь, если они хотят быть настолько полезными, как предполагают их создатели.
Это открытие вызывает серьезную обеспокоенность, особенно учитывая, что причины такого ухудшения остаются неясными.
Исследование, о котором сообщает The New York Times, показало шокирующие результаты: модель GPT 03, считающаяся самой мощной системой OpenAl, галлюцинирует в 33% случаев при проведении теста PersonQA, который включает ответы на вопросы о публичных фигурах. Это более чем вдвое превышает частоту галлюцинаций предыдущей системы GPT 01. Еще хуже дела обстоят с новой GPT o4-mini, которая показала уровень галлюцинаций в 48%.
При проведении другого теста, SimpleQA, который задает более общие вопросы, показатели оказались еще более тревожными: уровень галлюцинаций составил 51% для GPT 03 и ошеломляющие 79% для GPT 04-mini. Для сравнения, предыдущая система GPT 01 галлюцинировала в 44% случаев при этом же тесте.
OpenAl заявляет, что необходимы дополнительные исследования для понимания причин увеличения ошибок в новейших моделях. Однако некоторые отраслевые эксперты указывают на так называемые "reasoning models" (модели с рассуждением) как на возможный источник проблемы.
Независимо от причин, одно можно сказать с уверенностью - модели искусственного интеллекта должны в значительной степени исключить бессмыслицу и ложь, если они хотят быть настолько полезными, как предполагают их создатели.
❤4