Девлоги эсдорыча
https://www.youtube.com/watch?v=fQbuTAJGSIw&lc=Ugw3nm3X0HwFBO3WeOt4AaABAg
Так вот, как оно на самом деле!
Я вот задумался о нейронках.
Считается (по-моему, доказано), что нейросети:
• ...без скрытых слоев — могут представлять только функции, разделяемые на линейные, и принимать решения;
• ...с 1 скрытым слоем — могут аппроксимировать любые функции, являющиеся непрерывным маппингом двух конечных пространств;
• ...с 2 скрытыми слоями — могут представлять решения в любых границах с любой точностью через рациональные функции активации, а также аппроксимировать любые «гладкие» маппинги с любой точностью.
(источник исследования не дам; формулировки взяты из коммента в моём коде и вольно переведены.)
P.S. Последний пункт звучит странно, ибо «аппроксимация с любой точностью» — это и есть уже точное представление. (Автор оригинала исследования — не я.)
Но! Не всё представимо в виде функции. К примеру, память или генеративность. Кратковременная память костылится через RNN, а генеративность — буквально через рандом (GAN). А вот долгосрочную память или влияние субъективного состояния на принимаемые решения (а-ля эмоциональный фон, для имитирующих мозг человека нейронок) с таким подходом не сделать.
Моя идея — подобно естественным нейронным сетям, соединить нейроны топографически с затуханием (т.е. каждый с n ближайшими). И добавить каждому нейрону, дополнительно к весу и bias'у, вариативный параметр «память» (который работает на read-write в рантайме и тоже постепенно затухает). С «постоянной» памятью проблему можно решить блоком (областью, зоной) read-write нейронов, но пока не знаю, как их адресовать (и как это происходит в реальном мозге, тоже не знаю). В итоге нейронки будут описываться не слоями, а зонами, и распределяться они будут только во время обучения. Идея сырая, но достаточно старая и надоедливая, чтобы о ней написать. Не просто так девлоги же :)
Считается (по-моему, доказано), что нейросети:
• ...без скрытых слоев — могут представлять только функции, разделяемые на линейные, и принимать решения;
• ...с 1 скрытым слоем — могут аппроксимировать любые функции, являющиеся непрерывным маппингом двух конечных пространств;
• ...с 2 скрытыми слоями — могут представлять решения в любых границах с любой точностью через рациональные функции активации, а также аппроксимировать любые «гладкие» маппинги с любой точностью.
(источник исследования не дам; формулировки взяты из коммента в моём коде и вольно переведены.)
P.S. Последний пункт звучит странно, ибо «аппроксимация с любой точностью» — это и есть уже точное представление. (Автор оригинала исследования — не я.)
Но! Не всё представимо в виде функции. К примеру, память или генеративность. Кратковременная память костылится через RNN, а генеративность — буквально через рандом (GAN). А вот долгосрочную память или влияние субъективного состояния на принимаемые решения (а-ля эмоциональный фон, для имитирующих мозг человека нейронок) с таким подходом не сделать.
Моя идея — подобно естественным нейронным сетям, соединить нейроны топографически с затуханием (т.е. каждый с n ближайшими). И добавить каждому нейрону, дополнительно к весу и bias'у, вариативный параметр «память» (который работает на read-write в рантайме и тоже постепенно затухает). С «постоянной» памятью проблему можно решить блоком (областью, зоной) read-write нейронов, но пока не знаю, как их адресовать (и как это происходит в реальном мозге, тоже не знаю). В итоге нейронки будут описываться не слоями, а зонами, и распределяться они будут только во время обучения. Идея сырая, но достаточно старая и надоедливая, чтобы о ней написать. Не просто так девлоги же :)
Странно. Телега в последнее время стала задерживать все отложенные посты на минуту. Начиная с 6 марта.
Upd. А вот этот запостился вовремя (специально поставил на минуту раньше, чем нужно).
Upd. А вот этот запостился вовремя (специально поставил на минуту раньше, чем нужно).
Так вот, оказывается, из-за кого к арчу такое отношение!
https://www.reddit.com/r/speedrun/comments/8oh1js/speedrunning_on_linux/e03feja
https://www.reddit.com/r/speedrun/comments/8oh1js/speedrunning_on_linux/e03feja
Наткнулся на плагины для Gedit 3.36+, которые восстанавливают выпиленные мини-карту кода, оверлейные полосы прокрутки и режим центрирования кода в фуллскрине («zen») — вдруг кому пригодится.
Первой фичи мне особенно не хватало (впрочем, я только недавно осознал, что она куда-то пропала, хотя Gedit 3.36 вышел уже чуть больше года назад!).
Первой фичи мне особенно не хватало (впрочем, я только недавно осознал, что она куда-то пропала, хотя Gedit 3.36 вышел уже чуть больше года назад!).
А как вам концепция деплоя через телеграм?
В канал выкладывается команда, подписанные на него сервера её запускают, скидывают возникшие ошибки в комментарии к посту и вместе с админом их обсуждают. А потом начинают писать логи в чат канала.
P.S. Моё виденье альтернативной вселенной, где все сервера имеют свой разум, в аналогии с вебинарами.
В канал выкладывается команда, подписанные на него сервера её запускают, скидывают возникшие ошибки в комментарии к посту и вместе с админом их обсуждают. А потом начинают писать логи в чат канала.
P.S. Моё виденье альтернативной вселенной, где все сервера имеют свой разум, в аналогии с вебинарами.
— Соответственно? Или соответствующе? В чём разница?
— В соответствии.
— В соответствии.