#bb
这一年一直在间断性的折腾网盘, vps和笔记软件, 这就导致在恢复绿云机器数据的时候遇到了一个很恐怖的事情.
东西被我散落在各个地方存放, 我都无法判断到底什么是更新的版本, 什么是更老的版本, 我的配置究竟存放在哪里了.
onedrive, googledrive, dropbox, gist, github, 自建的 gist, 自建的 git, 坚果云, mega, seafile, upnote, obsidian, memos, 滴答清单, keep, notion, apple 备忘录, 甚至 tg 收藏夹里都能翻到一些我的记录和备份信息.
典型的「过度折腾」
----------------------
不过好歹兜兜转转, 最后还是把所有站点和数据信息都还原了.
via Memos
这一年一直在间断性的折腾网盘, vps和笔记软件, 这就导致在恢复绿云机器数据的时候遇到了一个很恐怖的事情.
东西被我散落在各个地方存放, 我都无法判断到底什么是更新的版本, 什么是更老的版本, 我的配置究竟存放在哪里了.
onedrive, googledrive, dropbox, gist, github, 自建的 gist, 自建的 git, 坚果云, mega, seafile, upnote, obsidian, memos, 滴答清单, keep, notion, apple 备忘录, 甚至 tg 收藏夹里都能翻到一些我的记录和备份信息.
典型的「过度折腾」
----------------------
不过好歹兜兜转转, 最后还是把所有站点和数据信息都还原了.
via Memos
#gpt
claude 新模型: claude 3.5 haiku
● https://www.anthropic.com/news/3-5-models-and-computer-use
via Memos
claude 新模型: claude 3.5 haiku
● https://www.anthropic.com/news/3-5-models-and-computer-use
via Memos
#bb #vps #数据安全
update: https://memos.roccoshi.top/m/dZ7i7HVxJUcVupygLE7Y3y
绿云这机器居然不是 raid 炸了, 而是被黑了.. (nodeseek, lowendtalk)
这下事情更麻烦了, 保险起见还得把所有的 private token 都删了, 而且我发现之前为了方便很多脚本都直接把密码和一些 api token 全明文写里面了.
长教训了, 麻了, 以后得做好「每台 vps 的数据都随时可能被人明文查看」的准备了.
● https://lowendtalk.com/discussion/194420/connectivity-issues-greencloud-san-jose#latest
● https://lowendtalk.com/discussion/198766/my-greencloud-vps-got-ransomwared-the-entire-mothership#latest
● https://www.nodeseek.com/post-181031-1
via Memos
update: https://memos.roccoshi.top/m/dZ7i7HVxJUcVupygLE7Y3y
绿云这机器居然不是 raid 炸了, 而是被黑了.. (nodeseek, lowendtalk)
这下事情更麻烦了, 保险起见还得把所有的 private token 都删了, 而且我发现之前为了方便很多脚本都直接把密码和一些 api token 全明文写里面了.
长教训了, 麻了, 以后得做好「每台 vps 的数据都随时可能被人明文查看」的准备了.
● https://lowendtalk.com/discussion/194420/connectivity-issues-greencloud-san-jose#latest
● https://lowendtalk.com/discussion/198766/my-greencloud-vps-got-ransomwared-the-entire-mothership#latest
● https://www.nodeseek.com/post-181031-1
via Memos
#go
这个 go 写的并发素数筛太妙了
● https://golang.org/s/prime-sieve
● help understand: https://www.reddit.com/r/golang/comments/434zry/help_understanding_this_prime_sieve_concurrent/
via Memos
这个 go 写的并发素数筛太妙了
// A concurrent prime sieve
package main
// Send the sequence 2, 3, 4, ... to channel 'ch'.
func Generate(ch chan<- int) {
for i := 2; ; i++ {
ch <- i // Send 'i' to channel 'ch'.
}
}
// Copy the values from channel 'in' to channel 'out',
// removing those divisible by 'prime'.
func Filter(in <-chan int, out chan<- int, prime int) {
for {
i := <-in // Receive value from 'in'.
if i%prime != 0 {
out <- i // Send 'i' to 'out'.
}
}
}
// The prime sieve: Daisy-chain Filter processes.
func main() {
ch := make(chan int) // Create a new channel.
go Generate(ch) // Launch Generate goroutine.
for i := 0; i < 10; i++ {
prime := <-ch
print(prime, "\n")
ch1 := make(chan int)
go Filter(ch, ch1, prime)
ch = ch1
}
}
● https://golang.org/s/prime-sieve
● help understand: https://www.reddit.com/r/golang/comments/434zry/help_understanding_this_prime_sieve_concurrent/
via Memos
#mark #work #amazon
在亚马逊 (Amazon) 公司工作是怎样一番体验? - GXSC的回答 - 知乎
https://www.zhihu.com/question/24614033/answer/497338972
via Memos
在亚马逊 (Amazon) 公司工作是怎样一番体验? - GXSC的回答 - 知乎
https://www.zhihu.com/question/24614033/answer/497338972
via Memos
#mark #gpt
● https://lmarena.ai/?leaderboard
LLM Model 排行榜:
via Memos
● https://lmarena.ai/?leaderboard
LLM Model 排行榜:
Chatbot Arena (lmarena.ai) 是由加州大学伯克利分校 SkyLab 和 LMSYS 开发的开源平台,用于通过人类偏好评估 AI。该平台通过超过 100 万次用户投票,使用 Bradley-Terry 模型生成实时排行榜,以评选最佳 LLM 和 AI 聊天机器人。
via Memos
#mark #tools
一个扇贝用户可以使用的不错的 chrome 插件, 可以实现一键查词 + 添加到生词本
● Link: https://github.com/maicss/chrome-shanbay-v2
via Memos
一个扇贝用户可以使用的不错的 chrome 插件, 可以实现一键查词 + 添加到生词本
● Link: https://github.com/maicss/chrome-shanbay-v2
via Memos
#claude #gpt
关于 claude pro 的 token 限制:
● https://support.anthropic.com/en/articles/8324991-about-claude-pro-usage
也就是说大约每 5 小时可以聊天 45 句, 并且单次上下文限制在 200 个 15 个英文单词左右的句子.
官方提出的建议 How can I maximize my Claude Pro usage?:
1. 尽可能每次用新对话提问题, Claude也会对简短的对话更快地做出回应。
2. 一次性提出多个问题,尤其是当你想问Claude关于长文档的问题时。因为每次你发送新的消息,Claude都需要重新阅读对话,所以将问题分开在单独的消息中提出会比包含多个问题的单条消息更快地耗尽你的限制。
3. 不要重新上传文件。Claude可以看到你对话中的整个上下文,所以你不需要多次上传相同的文件(除非你开始新的对话)。
via Memos
关于 claude pro 的 token 限制:
● https://support.anthropic.com/en/articles/8324991-about-claude-pro-usage
也就是说大约每 5 小时可以聊天 45 句, 并且单次上下文限制在 200 个 15 个英文单词左右的句子.
官方提出的建议 How can I maximize my Claude Pro usage?:
1. 尽可能每次用新对话提问题, Claude也会对简短的对话更快地做出回应。
2. 一次性提出多个问题,尤其是当你想问Claude关于长文档的问题时。因为每次你发送新的消息,Claude都需要重新阅读对话,所以将问题分开在单独的消息中提出会比包含多个问题的单条消息更快地耗尽你的限制。
3. 不要重新上传文件。Claude可以看到你对话中的整个上下文,所以你不需要多次上传相同的文件(除非你开始新的对话)。
via Memos