Λ-Reading ♡
16.9K subscribers
1.4K photos
153 videos
429 files
5.97K links
本频道主要内容为:
1.书和读书 #书摘 #书籍推荐 #book
2.科技人文资讯分享;
3. Λ-Reading 邮件通讯 #Newsletter,订阅:https://lambda.rizi.me
4. 频道地址:https://ibox.eu.org/
Download Telegram
Telegram 频道网址中间加一个 s 即可实现网页版浏览,样式很好看。如本频道地址,在PC上以如下方式打开:https://telega.one/s/GoReadinghttps://t.me/s/goreading(建议收藏本地址,可下书)
知网开放,您们说91 是不是也应该开放一下啊😀
#温暖传递 #实用工具

湖北籍旅客在外可参考 #住宿 信息合集

全国多地为湖北籍游客开放定点酒店,湖北籍滞留在外的小伙伴们,可以点开链接,查询相关住宿信息。请大家关注,帮忙转发扩散 (本文档由BottleDream志愿者编辑)
(三联生活周刊微博)(石墨文档)
读书摘要
「sjtuwalker: 尽说大实话😁 http://bit.ly/2O4MHOE
今天两把梯子都挂了,NND,反正我的服务器再有半个月也到期了,不折腾了。 谁有靠谱的推荐一个?
January 29, 2020 at 11:45PM
🔇各位晚安,小喇叭停止广播了。
#专家解答

【曾光回应“武汉8人被约谈”:他们是可敬的】
疫情初期8武汉市民称“出现SARS”被约谈,曾光表示:这8个人是可敬的,我们事后评论,可以给他们很高的评价;他们是事前诸葛亮,但是科学讲究相信证据,做出判断得拿出依据。
曾光:与时俱进,根据病毒发展我们不断调整我们认识,我们也不断否定自己,我觉得这是个真实的过程。我觉得对我们来讲的话呢,如果都能做到这一点很不容易。(人民日报
在人间丨妈妈在武汉隔离病房去世 (这篇文章被微信禁止分享,禁止复制链接。微信相比知乎和微博相对来说比较克制。)
读书摘要
「williamlong: 问:“如果有人穿越回一个月前的武汉,他能拯救这场灾难吗?”  答:“不,他会成为第九个造谣的人。” 」
读书摘要
「ArtItNow1: A tribute to medical workers in Wuhan Source: QrtQrt http://bit.ly/36JAlSM
无知者、冷嘲热讽者、投机钻营者、职业民逗、别有用心者如苍蝇一般嗡嗡嗡嗡的在网上。这时候是不是有信仰兜底的族群会好一点?仅供讨论。
#疫情动态

【柳叶刀最新研究披露99例新型肺炎:11死,老年男性易感】
继1月24日披露首批41例患者的情况后,顶级医学期刊《柳叶刀》(The Lancet)于北京时间1月30日再度在线发表中国新型冠状病毒(2019-nCoV)感染患者的临床数据。最新患者样本扩大至99例,且增加了关于细菌和真菌共感染的详细信息。(澎湃新闻
读书摘要
「ayuan1000: 这是德国传染病研究中心(DZIF)病毒研究所所长Christian Drosten博士,是他负责开发出了第一个新冠病毒的测试流程,并公布到了WHO的网站上,我们才能如此快速地开发出了试剂盒并做到了(相对)快速的病毒检验和确诊。PS:他还是SARS病毒的共同发现者,以及MERS和Zika病毒检测试剂盒的开发者。 http://bit.ly/2RGVU1T
非常棒的纪录片,适合投到电视上看!
《地球的夜晚》
Night on Earth (2020)
豆瓣 (https://movie.douban.com/subject/34935799/): ★0.0/10 IMDb (https://www.imdb.com/title/tt11497922/): ★8.7/10

美国 / 纪录片 / 2020-01-29(美国)首播 / 6集 / 片长51分钟

百度网盘 | 英语中字
January 30, 2020 at 11:45PM
🔇各位晚安,小喇叭停止广播了。
读书摘要
「waitbutwhy: Ridiculously cool close-ups of the surface of the sun just released by @NSF. Each of those cells is the size of Texas. (h/t @kottke) http://bit.ly/2u7CvhF
读书摘要
「msftfaith: 基于微软 PowerBI 驱动的新型肺炎疫情实时动态看板,支持同行查询以及武汉迁出目的地去向。🔗 http://bit.ly/2GELHMZ (首次加载的速度不是很快) http://bit.ly/2GCWMOK
读书摘要
「techreview: Meena was trained on a whopping 341GB of public social-media chatter—8.5 times as much data as OpenAI’s GPT-2. http://bit.ly/2uHZDTP