В течение месяца в Telegram появятся 10 новых функции для мини-приложений, которые позволят разработчикам создавать новые виды приложений и игр, сообщил Павел Дуров.
В частности, появятся:
Полноэкранный режим работы мини-приложений;
Возможность добавления иконок мини-приложений на рабочий стол;
Разные варианты платных подписок внутри мини-приложений;
Использование мини-приложениями геолокации телефона и градуса поворота экрана с помощью гироскопа и акселерометра
https://t.me/durov/362
В частности, появятся:
Полноэкранный режим работы мини-приложений;
Возможность добавления иконок мини-приложений на рабочий стол;
Разные варианты платных подписок внутри мини-приложений;
Использование мини-приложениями геолокации телефона и градуса поворота экрана с помощью гироскопа и акселерометра
https://t.me/durov/362
Telegram
Pavel Durov
🔜 Telegram is about to introduce 10 new features for Mini Apps, enabling developers to create dozens of new kinds of apps and games on Telegram.
📺 Full-Screen Mode
📱 Home Screen Shortcuts
✍️ Subscription Plans
📍 Geolocation Access (with permissions)
📱 Device…
📺 Full-Screen Mode
📱 Home Screen Shortcuts
✍️ Subscription Plans
📍 Geolocation Access (with permissions)
📱 Device…
👍3
Как выучить 42 языка за месяц - написать свою подцветку синтаксиса
https://justine.lol/lex/
В реальности не думаю, что она реально выучила все 42 языка, скорее просто получила представление
https://justine.lol/lex/
В реальности не думаю, что она реально выучила все 42 языка, скорее просто получила представление
👍4😁3
This media is not supported in your browser
VIEW IN TELEGRAM
Шпаргалка по созданию безопасных систем
👍4
Почему LLM плохи для поиска?
(Автор - Эмили Бендер, американский лингвист, профессор Вашингтонского университета, специалист в области компьютерной лингвистики и обработки естественного языка)
Почему LLM плохи для поиска? Потому что LLM — это не более чем статистические модели распределения словоформ в тексте, настроенные на вывод правдоподобно звучащих последовательностей слов.
Если кто-то использует LLM в качестве замены для поиска и получает правильный вывод, это просто случайность.
Более того, система, которая верна в 95% случаев, возможно, более опасна, чем та, которая верна в 50% случаев. Люди будут с большей вероятностью доверять выводу и, вероятно, будут менее способны проверять факты в 5%.
Настройка всего так, чтобы вы получали «ответ» на свой вопрос, лишает пользователя возможности делать осмысление, которое имеет решающее значение для информационной грамотности.
Это осмысление включает в себя уточнение вопроса, понимание того, как разные источники говорят о вопросе, и нахождение каждого источника в информационном ландшафте.
Представьте, что вы вводите медицинский запрос в стандартную поисковую систему и получаете список ссылок, включая одну на местный университетский медицинский центр, одну на медицинский справочник, одну на известного доктора и одну на активный форум для людей с похожими медицинскими проблемами.
Если у вас есть базовые ссылки, у вас есть возможность оценить надежность и релевантность информации для вашего текущего запроса --- а также со временем расширить свое понимание этих источников.
Если вместо этого вы получаете ответ от чат-бота, даже если он правильный, вы теряете возможность для этого роста информационной грамотности.
Случай с форумом для обсуждений имеет еще один поворот: любую предоставленную информацию вы, вероятно, захотите проверить из других источников, но возможность связаться с людьми, проходящими похожие медицинские пути, бесценна.
Наконец, парадигма чат-ботов как поиска побуждает нас просто принимать ответы такими, какие они есть, особенно если они изложены в дружелюбной и авторитетной форме.
(Автор - Эмили Бендер, американский лингвист, профессор Вашингтонского университета, специалист в области компьютерной лингвистики и обработки естественного языка)
Почему LLM плохи для поиска? Потому что LLM — это не более чем статистические модели распределения словоформ в тексте, настроенные на вывод правдоподобно звучащих последовательностей слов.
Если кто-то использует LLM в качестве замены для поиска и получает правильный вывод, это просто случайность.
Более того, система, которая верна в 95% случаев, возможно, более опасна, чем та, которая верна в 50% случаев. Люди будут с большей вероятностью доверять выводу и, вероятно, будут менее способны проверять факты в 5%.
Настройка всего так, чтобы вы получали «ответ» на свой вопрос, лишает пользователя возможности делать осмысление, которое имеет решающее значение для информационной грамотности.
Это осмысление включает в себя уточнение вопроса, понимание того, как разные источники говорят о вопросе, и нахождение каждого источника в информационном ландшафте.
Представьте, что вы вводите медицинский запрос в стандартную поисковую систему и получаете список ссылок, включая одну на местный университетский медицинский центр, одну на медицинский справочник, одну на известного доктора и одну на активный форум для людей с похожими медицинскими проблемами.
Если у вас есть базовые ссылки, у вас есть возможность оценить надежность и релевантность информации для вашего текущего запроса --- а также со временем расширить свое понимание этих источников.
Если вместо этого вы получаете ответ от чат-бота, даже если он правильный, вы теряете возможность для этого роста информационной грамотности.
Случай с форумом для обсуждений имеет еще один поворот: любую предоставленную информацию вы, вероятно, захотите проверить из других источников, но возможность связаться с людьми, проходящими похожие медицинские пути, бесценна.
Наконец, парадигма чат-ботов как поиска побуждает нас просто принимать ответы такими, какие они есть, особенно если они изложены в дружелюбной и авторитетной форме.
👍15