„Chillin‘“ at Amazon
618 subscribers
27 photos
1 video
7 files
370 links
Amazonian SDE is sharing, 'cause sharing is caring 👨‍💻

note: I do not represent any of my employers in this channel
Download Telegram
#FTS #Go

Let's build a Full-Text Search engine in Go

Full-Text Search (FTS) is a technique for searching text in a collection of documents. A document can refer to a web page, a newspaper article, an email message, or any structured text.

Today we are going to build our own FTS engine. By the end of this post, we'll be able to search across millions of documents in less than a millisecond. We'll start with simple search queries like "give me all documents that contain the word cat" and we'll extend the engine to support more sophisticated boolean queries.

https://artem.krylysov.com/blog/2020/07/28/lets-build-a-full-text-search-engine/
Forwarded from Deleted Account
Если вы думаете о зарубежной магистратуре, то почему бы не рассмотреть теплую южную страну? Например Италию. Ловите подборку англоязычных ИТ программ в этой прекрасной стране.

Politecnico di Milano:
📌MSc in CS and Engineering
📌
MSc in Geoinformatics Engineering

Politecnico di Torino:
📌MSc in Data Science and Engineering
📌MSc in Computer Engineering

Sapienza Università di Roma:
📌MSc in Artificial Intelligence and Robotics
📌MSc in Computer Science
📌MSc in Cybersecurity
📌MSc in Data Science
📌MSc in Engineering in CS

University of Bologna:
📌MSc in AI
📌MSc in bioinformatics

University of Trento:
📌MSc in AI systems
📌MSc in human-computer interaction
📌MSc in Computer Science

University of Padua:
📌MSc in cybersecurity
📌MSc in Data Science
📌MSc in Physics of data

Free University of Bozen-Bolzano
📌MSc in Computational Data Science
📌MSc in Software Engineering
#DL

A really cool specialisation on deep learning from amazing instructors

If you want to master it and have a portfolio by the end then you should for for it.

The price is quite affordable. You'll pay it back very soon, I believe

Deep Learning
https://www.coursera.org/specializations/deep-learning
Recently, I've been looking for resources on DL/ML and production. Here's a good resource that addresses the full cycle starting from setting/formulation of a problem to deployment

https://course.fullstackdeeplearning.com/
Forwarded from Tech Crunch
​​В США протестировали сеть спутникового интернета от SpaceX

Микроспутники Starlink от компании SpaceX Илона Маска раздают интернет со скоростью до 60 мегабит. Исследование спутникового проекта показало, что для потребительских целей средние показатели достаточно высокие.

Пока компания ведет работу над запуском на орбиту новых спутников для раздачи интернета, возник вопрос о том, какова будет скорости связи в реальности. Пробные замеры показали, что 11—60 мегабит. Средняя скорость — чуть несколько больше 40 мегабит.

Значительно ниже скорость для выгрузки данных – 4-17 мегабит. Замеры делались в Лос-Анджелесе, Сиэтле и Вашингтоне.

Таким образом скорость загрузки и выгрузки ниже желаемой руководством SpaceX — 1 гигабит. Хотя для пользователей достаточно и 15 мегабит, поскольку стандартная скорость «земного» широкополосного интернета в США такая же, а в сельской местности и того ниже.

Сейчас сеть спутников Starlink еще тестируется и, не исключено, что в конце концов скорость соединения приблизится к желанной для SpaceX. В настоящее время на орбите находятся примерно 600 спутников. Их количество планируется расширить до несколько тысяч, чтобы обеспечить глобальное покрытие.
#ML, #softmax
I've asked my self why Softmax uses exponent. Here's a good response:

- Monotonically increasing — To ensure that larger inputs are mapped to larger outputs.
- Non-negative outputs — Because probability values must be non-negative.
- The outputs should sum to one — This can be achieved by simply dividing each element of the output by the sum of all elements of the output.

https://www.quora.com/Why-is-exponential-function-used-in-softmax-function-in-machine-learning
#ML #Sigmoid #Gradient Decent

Сижу читаю, про gradient decent сигмоидной фунцкции. Как мне нравится когда реализация может быть супер простой/эллегантной.

Зная/выведя формулу, в питоне, имплементация просто: dw = X.dot(H - Y).T / m

#. Кому интересно, докозательство формулы доступно по: https://medium.com/analytics-vidhya/derivative-of-log-loss-function-for-logistic-regression-9b832f025c2d

#. Имплементация алгоритма Логистической Регресси: https://ml-cheatsheet.readthedocs.io/en/latest/logistic_regression.html
#gradient #decent #DL

Хорошая статья на тему разбора различных типов Gradient Decent for logistics regression and cross entropy

“Gradient Descent — Demystified” by Avinash Kadimisetty https://link.medium.com/5exHc0Y8a9
#ML #System #Design

"We can characterize the challenges for integrating machine learning within our systems as the three Ds. Decomposition, Data and Deployment."

"The first two components decomposition and data are interlinked, but we will first outline the decomposition challenge. Below we will mainly focus on supervised learning because this is arguably the technology that is best understood within machine learning."

http://inverseprobability.com/talks/notes/the-three-ds-of-machine-learning.html
Forwarded from vc.ru
Ночью Илон Маск показал компактный беспроводной нейроинтерфейс Link, вживляемый под кожу черепа, и продемонстрировал его работу на свиньях, которым имплантировали чип для считывания мозговой активности.

С помощью Link можно будет лечить болезни — например, паралич, депрессию и болезнь Альцгеймера, играть в игры и управлять устройствами. Маск пообещал поддержку Tesla и StarCraft.

Главное из презентации Neuralink: vc.ru/future/154015
Вкратце, хочу поделиться своим опытом прохождения на курсе по Глубокому Обучению.

Пока прошел первый модуль. Ушло примерно 2-3 недели, в основным по выходным. Если в часах, то около 20 часов. Доволен на 100% без преувеличений!

Из плюсов (минусов вообще пока не заметил):

1. Отлично продуманная программа: постепенно от логистической регресси, через однослойную сетку, к глубокой. Все сопровождается блестящим и подробным объяснением что-зачем-и-почему. Я, по-крайней мере, получил ответы на больинство своих вопросов, а на несколько тех, что не понял, смог добить самостоятельно в Гугле.

2. Супер профессиональный инструктор (сейчас именно об умении обучать, а не о его статусности в МЛ): Andrew Ng расставляет нужные акценты там где нужно, говорит о чем волноваться, а о чем не нужно. Дает понять где на математику нужно надавить, а где можно не сильно переживать. В моем случае это очень нужно, так как меня постоянно сопровождает Синдром Самозванца и я постоянно сомневаюсь, в своих способностях :)) И тот факт, что я в Амазоне, не всегда служит оправданием :))

3. Достаточно много практики. Задания в ноутбуках, среда разработки настроена - на лишнее отвлекаться не нужно. За первый модуль, пришлось несколько раз реализовать forward feed и back propagation, что сильно повысило мою уверенность в понимании как это устроено изнутри. Раньше я понимал, что используется chain rule и думал, что идет какая-то нереально навороченная реализация. На деле оказалось все куда проще: в зависимости от cost function и активационных функций, выбирается нужный метод, который знает как брать производную функции.

В общем, за первый модуль, я прокачал свой взгляд на сети и теперь уже могу осознано выбирать нужные гипер-параметры. Второй модуль как раз таки о практической части тренировки сетей и тюнинг параметров. Не могу не отметить профессионально упорядоченный материал и задания, отвечающие на вопрос "Почему?".

Все кому интересен Deep Learning и начинаете с нуля, рекомендую этот курс!

Чуть позже напишу свой отзыв о втором модуле.


https://www.coursera.org/specializations/deep-learning