👉"Илон Маск увеличивает вычислительную мощность Twitter, чтобы соревноваться с другими компаниями в области ИИ"
Please open Telegram to view this post
VIEW IN TELEGRAM
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_196
🔠 Можно ли создавать несколько кластерных индексов в одной таблице ? (Часть_5)
Горизонтальное и вертикальное масштабирование (Sharding): Если вам требуется масштабирование базы данных на несколько узлов, можно использовать горизонтальное разделение данных (sharding), при котором данные разбиваются на несколько физических узлов. В этом случае каждый узел может иметь свою собственную копию таблицы с кластерным индексом.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
🔠 Можно ли создавать несколько кластерных индексов в одной таблице ? (Часть_5)
Горизонтальное и вертикальное масштабирование (Sharding): Если вам требуется масштабирование базы данных на несколько узлов, можно использовать горизонтальное разделение данных (sharding), при котором данные разбиваются на несколько физических узлов. В этом случае каждый узел может иметь свою собственную копию таблицы с кластерным индексом.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
👉Новость: К 2025 году Минобрнауки планирует переход к централизованному планированию всех НИОКР и технологических работ, которые выполняются за бюджетные деньги. Сделают это на базе единой цифровой системы. Власти не удовлетворены текущим уровнем внедрения результатов научно-исследовательских работ. Проблема в том, что отсутствует связь между расходами на исследования и приоритетами научно-технологического развития.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
JUG Ru Group. IT-конференции для опытных специалистов
Выступить на IT-конференции JUG Ru Group
JUG Ru Group | IT-конференции | Станьте спикером любой из них — онлайн или офлайн | Читайте, как выступить, как выбрать тему доклада и формат, как подготовиться.
Media is too big
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤🔥2
https://bigchallenges.ru/projects2023/geo_analitika
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Маленький data-science для большого бизнеса, или В анализ данных со школьной скамьи
Привет, Хабр! В одной из предыдущих статей команда ВТБ обещала подробнее рассказать, как на конкурсе «Большие вызовы» в образовательном центре «Сириус» команда школьников занималась разработкой...
🔥4
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Оперативно запилили статейку на хабре про вчерашний блекаут, очень шустро ;)) https://habr.com/ru/news/790188/
Хабр
.RU домены ресолвятся с ошибками — имеются проблемы с DNSSEC
30 января 2024 года, примерно с 18:40 (время московское) многие пользователи российского (и не только) сегмента интернета, стали сталкиваться с ошибками DNS-ресолвинга доменов, размещенных в .ru зоне...
👍Был сегодня на ивестиционом форуме. В целом, ничего нового, все покупают недвижку и вкладываются в нее (даже как-то скучно немного стало). На вопрос, кто использует в своей работе AI, было 2.5 руки, в том числе и ваш покорный слуга отличился в этом. То есть купить и сдавать выгоднее, чем рисковать и разрабатывать. В целом все копят, и активно скупают все средиземноморье. Даже Дубаи уже не в почете уже.
👍Больше всего, я хотел оценить публику и понять как общаться с потенциальными инвесторами и на, что они смотрят, что их может заинтересовать и как с ними разговаривать. Очень ценный навык и понимание при ведении бизнес-переговоров. Всем кто занимается аналитикой, бизнес-анализом, маркетингом, сквозной аналитикой, очень рекомендую такие посещать тусовки. В целом много было знакомо, так как по работе сталкиваюсь с такими людьми, но тут было сразу много разных типажей.
👍Мне больше всего было интересно посмотреть на презентацию одной компании, которая занимается аналитикой для селлеров WB. Они "запили" интересный инструмент по аналитике для продаж. Чтобы по кнопке все работало, и было максимально клиенто-ориентировано. Все остальное на данном этапе развития было не особо интересно.
👍 Интересное открытие для себя сделал, на IT конференциях в отличие от инвесторских, уважение в целом намного больше друг к другу, чем на таких. Было очень необычно видеть, как конференцию 2-3 раз тормозят, так кто-то очень шумно, что-то обсуждает и в целом создает впечатление, что это так все, а о чем там "трепится" докладчик, вообще все равно. Отличный опыт.
👍Больше всего, я хотел оценить публику и понять как общаться с потенциальными инвесторами и на, что они смотрят, что их может заинтересовать и как с ними разговаривать. Очень ценный навык и понимание при ведении бизнес-переговоров. Всем кто занимается аналитикой, бизнес-анализом, маркетингом, сквозной аналитикой, очень рекомендую такие посещать тусовки. В целом много было знакомо, так как по работе сталкиваюсь с такими людьми, но тут было сразу много разных типажей.
👍Мне больше всего было интересно посмотреть на презентацию одной компании, которая занимается аналитикой для селлеров WB. Они "запили" интересный инструмент по аналитике для продаж. Чтобы по кнопке все работало, и было максимально клиенто-ориентировано. Все остальное на данном этапе развития было не особо интересно.
👍 Интересное открытие для себя сделал, на IT конференциях в отличие от инвесторских, уважение в целом намного больше друг к другу, чем на таких. Было очень необычно видеть, как конференцию 2-3 раз тормозят, так кто-то очень шумно, что-то обсуждает и в целом создает впечатление, что это так все, а о чем там "трепится" докладчик, вообще все равно. Отличный опыт.
Китай перешел на собственные автоматизированные системы в портах
Новый терминал открылся в декабре прошлого года в порту Циндао (провинция Шаньдун).
Автоматизированные контейнерные терминалы, которые работают с грузами без участия людей, требуют сложного ПО. Группа проекта разработала более 28 тыс. компонентов аппаратного и программного обеспечения. В группу входили 30 человек, а также 20 китайских производственных компаний.
Первый автоматизированный терминал в КНР начал работу в Циндао в 2017 году. Тогда использовалось иностранное программное обеспечение.
По данным Министерства транспорта КНР, в настоящее время в стране действуют 18 автоматизированных терминалов в различных портах. Еще 27 строятся или находятся на стадии реконструкции.
Для сравнения, в США только 4 из 350 портов автоматизированы, во многом это связано с работой профсоюзов.
Новый терминал открылся в декабре прошлого года в порту Циндао (провинция Шаньдун).
Автоматизированные контейнерные терминалы, которые работают с грузами без участия людей, требуют сложного ПО. Группа проекта разработала более 28 тыс. компонентов аппаратного и программного обеспечения. В группу входили 30 человек, а также 20 китайских производственных компаний.
Первый автоматизированный терминал в КНР начал работу в Циндао в 2017 году. Тогда использовалось иностранное программное обеспечение.
По данным Министерства транспорта КНР, в настоящее время в стране действуют 18 автоматизированных терминалов в различных портах. Еще 27 строятся или находятся на стадии реконструкции.
Для сравнения, в США только 4 из 350 портов автоматизированы, во многом это связано с работой профсоюзов.
South China Morning Post
China stakes global dominance in race to build smart ports
After opening last month, China’s first fully automated port container terminal is already setting records.
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197
🔠 Как устроен декодер Transformers ? (Часть_1)
Декодер в архитектуре Transformers используется в задачах генерации текста, машинного перевода и других подобных задачах. Он выполняет обратную операцию по сравнению с энкодером и помогает генерировать последовательности на основе закодированного контекста.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
🔠 Как устроен декодер Transformers ? (Часть_1)
Декодер в архитектуре Transformers используется в задачах генерации текста, машинного перевода и других подобных задачах. Он выполняет обратную операцию по сравнению с энкодером и помогает генерировать последовательности на основе закодированного контекста.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197
🔠 Как устроен декодер Transformers ? (Часть_2)
Декодер в Transformers состоит из нескольких блоков декодирования, которые могут быть идентичными или схожими с блоками кодирования в энкодере. Каждый блок декодирования обычно состоит из нескольких слоев самовнимания (self-attention) и позиционно-сетевой передачи (feed-forward).
Слои самовнимания позволяют декодеру фокусироваться на различных частях входной последовательности, а слои позиционно-сетевой передачи позволяют модели агрегировать информацию и генерировать последовательность на выходе.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
🔠 Как устроен декодер Transformers ? (Часть_2)
Декодер в Transformers состоит из нескольких блоков декодирования, которые могут быть идентичными или схожими с блоками кодирования в энкодере. Каждый блок декодирования обычно состоит из нескольких слоев самовнимания (self-attention) и позиционно-сетевой передачи (feed-forward).
Слои самовнимания позволяют декодеру фокусироваться на различных частях входной последовательности, а слои позиционно-сетевой передачи позволяют модели агрегировать информацию и генерировать последовательность на выходе.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
OpenCell ID – открытая база с местоположениями вышек сотовой связи.
https://opencellid.org/#zoom=8&lat=37.778&lon=-122.42
https://opencellid.org/#zoom=8&lat=37.778&lon=-122.42
www.opencellid.org
OpenCelliD - Open Database of Cell Towers & Geolocation
OpenCelliD is the largest Open Database of Cell Towers & their locations. You can geolocate IoT & Mobile devices without GPS, explore Mobile Operator coverage and more!
WiFi map – найдет и покажет доступные бесплатные Wifi-точки в вашем городе. За пароль от точек требует премиум подписка, однако большинство этих точек общедоступны.
Города вводите на английском языке.
https://www.wifimap.io/
Города вводите на английском языке.
https://www.wifimap.io/
www.wifimap.io
WiFi Map - All your connectivity needs in one place
Find free WiFi hotspots with WiFi Map and get internet access wherever you travel! We provide access to over 150M+ hotspots worldwide and eSIM & VPN services
Данный ресурс выдает точную дату и время загрузки видео в TikTok по его URL-адресу.
https://bellingcat.github.io/tiktok-timestamp/
https://bellingcat.github.io/tiktok-timestamp/
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197
🔠 Как устроен декодер Transformers ? (Часть_3)
В отличие от энкодера, декодер также использует дополнительное самовнимание, называемое "маскированным самовниманием" (masked self-attention). Маскированное самовнимание гарантирует, что модель не имеет доступа к будущим токенам во время генерации и может использовать только текущие и предыдущие токены для прогнозирования следующего.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
🔠 Как устроен декодер Transformers ? (Часть_3)
В отличие от энкодера, декодер также использует дополнительное самовнимание, называемое "маскированным самовниманием" (masked self-attention). Маскированное самовнимание гарантирует, что модель не имеет доступа к будущим токенам во время генерации и может использовать только текущие и предыдущие токены для прогнозирования следующего.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
❓200 Вопросов по Машинному обучению (Machine Learning) - Вопрос_197
🔠 Как устроен декодер Transformers ? (Часть_4)
В процессе генерации декодер применяет блоки декодирования последовательно к входной последовательности с маскированным самовниманием, чтобы генерировать выходную последовательность.
Обычно декодер также использует эмбеддинги токенов на входе и включает механизм внимания (attention), который помогает модели сконцентрироваться на важных частях контекста при генерации каждого токена.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.
🔠 Как устроен декодер Transformers ? (Часть_4)
В процессе генерации декодер применяет блоки декодирования последовательно к входной последовательности с маскированным самовниманием, чтобы генерировать выходную последовательность.
Обычно декодер также использует эмбеддинги токенов на входе и включает механизм внимания (attention), который помогает модели сконцентрироваться на важных частях контекста при генерации каждого токена.
https://boosty.to/denoise_lab/donate - поддержать наш канал.
#database #performance #optimization #indexing #query optimization #data normalization #database configuration #data caching #scaling #data storage
👍Чем больше шеров и лайков, тем больше полезного контента я буду выкладывать.