替朋友发一个招聘需求,招 Flutter 移动端开发
创业公司
职位名称:
Flutter 移动端开发( iOS 方向 · 外包)
项目定位:
海外 AI 泛心理向养成陪伴,前腾讯+字节团队
核心需求:
1. 技术能力
✅ 2 年以上 Flutter 商业项目经验(或完整上线过 Flutter 应用)
✅ 熟练使用 Dart 语言
✅ 了解 iOS 平台特性(上架流程、App Store 审核规范、证书管理、sandbox 、test flight 等)
✅ 能独立完成 UI 开发、数据对接、性能优化
✅ 熟悉常用插件(如 revenuecat 、mixpanel 等集成)
协作态度:
✅ 对产品有热情
✅ 每周可投入≥30 小时,关键节点能灵活协作
✅ 具备基础沟通能力,能参与产品设计讨论
✅ 有已上架 App Store 的作品优先(附链接)
薪资待遇和创始人聊
绿色软件:Smlhbmc5Njg0
创业公司
职位名称:
Flutter 移动端开发( iOS 方向 · 外包)
项目定位:
海外 AI 泛心理向养成陪伴,前腾讯+字节团队
核心需求:
1. 技术能力
✅ 2 年以上 Flutter 商业项目经验(或完整上线过 Flutter 应用)
✅ 熟练使用 Dart 语言
✅ 了解 iOS 平台特性(上架流程、App Store 审核规范、证书管理、sandbox 、test flight 等)
✅ 能独立完成 UI 开发、数据对接、性能优化
✅ 熟悉常用插件(如 revenuecat 、mixpanel 等集成)
协作态度:
✅ 对产品有热情
✅ 每周可投入≥30 小时,关键节点能灵活协作
✅ 具备基础沟通能力,能参与产品设计讨论
✅ 有已上架 App Store 的作品优先(附链接)
薪资待遇和创始人聊
绿色软件:Smlhbmc5Njg0
多位金融博主反映微信公众号被盗:犯罪分子攻破人脸识别,替换法人身份盗取大 V 账号密码
这是我常关注的一个公众号,里面有详细过程:
https://mp.weixin.qq.com/s/SksVmPB1aOEAlvtFiGhJIw
大家对这个可信度如何?
我感觉是真的, 比较很多系统人脸识别做不到 微信、支付宝级别。
这是我常关注的一个公众号,里面有详细过程:
https://mp.weixin.qq.com/s/SksVmPB1aOEAlvtFiGhJIw
大家对这个可信度如何?
我感觉是真的, 比较很多系统人脸识别做不到 微信、支付宝级别。
很巧,我也做了一个:让 AI 根据浏览器请求的路径,现场制作 -页面-
看到 https://www.v2ex.com/t/1137586 帖子,很巧,我也做了个类似的东西,发出来给大家玩玩。
不过功能稍微有点差异:
1 有配图功能
2 返回的内容不是 stream
体验传送门: https://aiweb.twokk.com/
看到 https://www.v2ex.com/t/1137586 帖子,很巧,我也做了个类似的东西,发出来给大家玩玩。
不过功能稍微有点差异:
1 有配图功能
2 返回的内容不是 stream
体验传送门: https://aiweb.twokk.com/
为什么今天 GPT 卡壳
Why ChatGPT Might Be Lagging Today (June 10): A Chinese User’s Perspective
I suspect today’s sluggish performance of ChatGPT may be due to a surge in user activity, particularly from China. From my personal perspective as a Chinese user, this period—right after the national college entrance exam (Gaokao)—is what I’d call a prime window for AI benchmarking.
Let me explain why.
1. Gaokao Timing and Confidentiality
The Gaokao took place from June 7 to June 9. Its questions are strictly classified before the exam and are only publicly released after it's over. Because of this secrecy, these questions are not included in any AI training dataset. That makes them an ideal benchmark to assess AI performance under truly unseen data.
As of today (June 10), many enthusiasts have likely already converted the questions into cleaner formats like LaTeX, making it easier to systematically test AI models. Importantly, unless you enable web access, most models cannot "cheat" by looking up recent answers, so this window gives a clearer view of raw model inference capabilities.
2. China’s AI Testing Culture
In recent years, especially with the rise of reasoning-heavy models, it has become increasingly common for Chinese users and researchers to use Gaokao questions to evaluate an AI's problem-solving ability. Given the exam's prestige and complexity, it's a high-quality, culturally relevant benchmark. The first few days after the exam are considered the “golden hours” for such testing.
The most critical improvement this year is the significant enhancement in the problem-solving capabilities and logical reasoning abilities of the reasoning series models. For example, ChatGPT-O1, O1 Pro, O3, or O4-Mini-High. This also includes China's Qwen and DeepSee R1.
3. Broader Context: Infrastructure and Misunderstandings
Some non-Chinese users might not understand how AI usage patterns differ across regions. For example, discussions on Reddit about torrent clients repeatedly downloading the same data miss the point that some Chinese users run monetized P2P services (PCDNs), and ISPs may track bandwidth ratios. While unrelated to Gaokao, this illustrates how the Chinese digital ecosystem often involves unique dynamics that outsiders might not immediately grasp.
Similarly, while it’s widely known that Chinese users rely on VPNs due to network restrictions, less attention is paid to issues like CGNAT and shared IP environments, which can distort perceptions of behavior at scale.
Conclusion
While this is purely speculation, I believe the post-Gaokao testing rush—combined with the confidentiality of the questions and the increasing desire to benchmark LLMs fairly—may be overloading servers like ChatGPT. This kind of event-specific traffic spike is rare but not surprising given the cultural and technical context.
Why ChatGPT Might Be Lagging Today (June 10): A Chinese User’s Perspective
I suspect today’s sluggish performance of ChatGPT may be due to a surge in user activity, particularly from China. From my personal perspective as a Chinese user, this period—right after the national college entrance exam (Gaokao)—is what I’d call a prime window for AI benchmarking.
Let me explain why.
1. Gaokao Timing and Confidentiality
The Gaokao took place from June 7 to June 9. Its questions are strictly classified before the exam and are only publicly released after it's over. Because of this secrecy, these questions are not included in any AI training dataset. That makes them an ideal benchmark to assess AI performance under truly unseen data.
As of today (June 10), many enthusiasts have likely already converted the questions into cleaner formats like LaTeX, making it easier to systematically test AI models. Importantly, unless you enable web access, most models cannot "cheat" by looking up recent answers, so this window gives a clearer view of raw model inference capabilities.
2. China’s AI Testing Culture
In recent years, especially with the rise of reasoning-heavy models, it has become increasingly common for Chinese users and researchers to use Gaokao questions to evaluate an AI's problem-solving ability. Given the exam's prestige and complexity, it's a high-quality, culturally relevant benchmark. The first few days after the exam are considered the “golden hours” for such testing.
The most critical improvement this year is the significant enhancement in the problem-solving capabilities and logical reasoning abilities of the reasoning series models. For example, ChatGPT-O1, O1 Pro, O3, or O4-Mini-High. This also includes China's Qwen and DeepSee R1.
3. Broader Context: Infrastructure and Misunderstandings
Some non-Chinese users might not understand how AI usage patterns differ across regions. For example, discussions on Reddit about torrent clients repeatedly downloading the same data miss the point that some Chinese users run monetized P2P services (PCDNs), and ISPs may track bandwidth ratios. While unrelated to Gaokao, this illustrates how the Chinese digital ecosystem often involves unique dynamics that outsiders might not immediately grasp.
Similarly, while it’s widely known that Chinese users rely on VPNs due to network restrictions, less attention is paid to issues like CGNAT and shared IP environments, which can distort perceptions of behavior at scale.
Conclusion
While this is purely speculation, I believe the post-Gaokao testing rush—combined with the confidentiality of the questions and the increasing desire to benchmark LLMs fairly—may be overloading servers like ChatGPT. This kind of event-specific traffic spike is rare but not surprising given the cultural and technical context.
LiquedGlass 风格图像生成器
一个 LiquedGlass 风格图像生成器:
快速生成液态玻璃风格图像。
发现原来很多壁纸都是类似这种风格,现在可以自己生成了。
https://liquidglass.icu/
> 抱歉之前发错板块了,是自己做的所以应该是分享创造。如有问题能否帮忙删除之前板块的帖子?
一个 LiquedGlass 风格图像生成器:
快速生成液态玻璃风格图像。
发现原来很多壁纸都是类似这种风格,现在可以自己生成了。
https://liquidglass.icu/
> 抱歉之前发错板块了,是自己做的所以应该是分享创造。如有问题能否帮忙删除之前板块的帖子?
花了 3 小时,编译研究 foot 这个 Wayland 终端模拟器
今天主要是下载代码,编译,及配置
以前用过 XTerm, 后来改用 Gnome-Terminal
今天去找找 wayland 环境下的 termianl, 发现[foot]( https://codeberg.org/dnkl/foot)这个项目 挺有意思的
C 写的代码性能就是好,效果也是很不错的
今天主要是下载代码,编译,及配置
以前用过 XTerm, 后来改用 Gnome-Terminal
今天去找找 wayland 环境下的 termianl, 发现[foot]( https://codeberg.org/dnkl/foot)这个项目 挺有意思的
C 写的代码性能就是好,效果也是很不错的
哪个大模型可以自动根据上下文生成关于某个主题的聊天对话(纯文本),同时在保持文字意思大致不变的前提下,精确嵌入隐藏水印?
A: 北京的糖葫芦是不是很有名?
B: 没错!尤其是在冬天,街头的小贩会卖糖葫芦,山楂蘸上糖浆,酸甜可口。
A: 真想买一个尝尝,感觉很有童年回忆!
以上是 LLM 自动生成的一段关于北京美食的对话。
请问大家,有没有某个通用的方法,可以让 A 在给 B 按照 LLM 生成的语句发送第一句话的时候,嵌入一段隐藏的信息,比如说一段二进制字符串 10110011 ,隐藏到第一句话里面去? 这可能会让第一句话有某种变形,比如变成“北京的糖葫芦听说很有一点名气,你觉得呢?”,或者变成“你知道北京的糖葫芦真的很有名很有名吗?”。在嵌入隐藏信息后,B 收到了“北京的糖葫芦听说很有一点名气,你觉得呢?” 然后按照某种事先商定的规则可以自动把 10110011 解码出来。
B 在收到隐藏的信息 10110011 后,决定回复 A 一段字符串 00001100 ,通过把 00001100 嵌入关于美食的第二句话“没错!尤其是在冬天,街头的小贩会卖糖葫芦,山楂蘸上糖浆,酸甜可口”。 这可能会让第二句话变形成“对!尤其是冬天,小贩会卖糖葫芦,山楂蘸糖浆,又酸甜又可口”。 A 在收到后,程序按照某种规格自动解码出 00001100 这一段隐藏字符。
每一段 A 与 B 的来回对话,都能被大模型按照某个主题以及前面各轮上下文,自动实时生成的文字掩盖。在任何第三方看来,这都只是一段关于美食的对话而完全看不出真实的对话隐藏在其中。
请问大家,这个想法有没有可能通过某种本地运行的 LLM 和相应的文字处理程序实现?
A: 北京的糖葫芦是不是很有名?
B: 没错!尤其是在冬天,街头的小贩会卖糖葫芦,山楂蘸上糖浆,酸甜可口。
A: 真想买一个尝尝,感觉很有童年回忆!
以上是 LLM 自动生成的一段关于北京美食的对话。
请问大家,有没有某个通用的方法,可以让 A 在给 B 按照 LLM 生成的语句发送第一句话的时候,嵌入一段隐藏的信息,比如说一段二进制字符串 10110011 ,隐藏到第一句话里面去? 这可能会让第一句话有某种变形,比如变成“北京的糖葫芦听说很有一点名气,你觉得呢?”,或者变成“你知道北京的糖葫芦真的很有名很有名吗?”。在嵌入隐藏信息后,B 收到了“北京的糖葫芦听说很有一点名气,你觉得呢?” 然后按照某种事先商定的规则可以自动把 10110011 解码出来。
B 在收到隐藏的信息 10110011 后,决定回复 A 一段字符串 00001100 ,通过把 00001100 嵌入关于美食的第二句话“没错!尤其是在冬天,街头的小贩会卖糖葫芦,山楂蘸上糖浆,酸甜可口”。 这可能会让第二句话变形成“对!尤其是冬天,小贩会卖糖葫芦,山楂蘸糖浆,又酸甜又可口”。 A 在收到后,程序按照某种规格自动解码出 00001100 这一段隐藏字符。
每一段 A 与 B 的来回对话,都能被大模型按照某个主题以及前面各轮上下文,自动实时生成的文字掩盖。在任何第三方看来,这都只是一段关于美食的对话而完全看不出真实的对话隐藏在其中。
请问大家,这个想法有没有可能通过某种本地运行的 LLM 和相应的文字处理程序实现?
你我之间,谁为真实?
今天下午发生了一件事儿,本来是要出差的,我知道后心里想自己不想去,过了一会儿出差就取消了。
类似这种心里想怎样怎样,然后事情就发生了的情形还有很多,用成语讲就是心想事成。
这没有什么奇怪的,大家或多或少都会有类似的体验吧。奇怪的是,当事情无法抗拒或实现时,我的心里就会产生认命接受的想法。而当我心里有不一样的想法时,事情往往会有转机。
我就常常会思考,到底是事情的转变在更高维度上连接到了我的想法并传导了影响。还是我的想法在更高维度上影响了事情的发展。还是说两者是一个本质的两方面体现,是同步进行的?
然后进一步的我就会想到薛定谔的世界。就是说世界的状态对我来讲,在我没有观察意识到之前是混沌叠加的。当我以某种想法对世界加以观察时,世界就塌陷成我观察的状态。
但是这个说法有一个我始终圆不通的点,那就是这个世界是有其他人的。其他人自己本身是确定的,但在我这里是混沌叠加的,那这两者就是矛盾的。
除非我们之间,有一者是真实,有一者是虚幻的,那么就可以解释的通。或者我勉强想到了另一种我们都是真实的说法。
比如说,你在打乒乓球,我以为你在打羽毛球。那么,当我去找你时,这两种想法就发生了碰撞,必须要塌陷成一种事实。那么就取决于我们两者想法的强度如何。如果我的想法强度更强,那么你本来在打乒乓球,当我要见到你时,你以及世界会立刻转变成你在打羽毛球的状态。
或者可以再把世界当成拔河绳,对方在我们不知情的情况下已经把绳子拉向自己那端了,当我们意识到时,虽然强度比对方大,但时间上已经来不及塌陷回来了。
今天下午发生了一件事儿,本来是要出差的,我知道后心里想自己不想去,过了一会儿出差就取消了。
类似这种心里想怎样怎样,然后事情就发生了的情形还有很多,用成语讲就是心想事成。
这没有什么奇怪的,大家或多或少都会有类似的体验吧。奇怪的是,当事情无法抗拒或实现时,我的心里就会产生认命接受的想法。而当我心里有不一样的想法时,事情往往会有转机。
我就常常会思考,到底是事情的转变在更高维度上连接到了我的想法并传导了影响。还是我的想法在更高维度上影响了事情的发展。还是说两者是一个本质的两方面体现,是同步进行的?
然后进一步的我就会想到薛定谔的世界。就是说世界的状态对我来讲,在我没有观察意识到之前是混沌叠加的。当我以某种想法对世界加以观察时,世界就塌陷成我观察的状态。
但是这个说法有一个我始终圆不通的点,那就是这个世界是有其他人的。其他人自己本身是确定的,但在我这里是混沌叠加的,那这两者就是矛盾的。
除非我们之间,有一者是真实,有一者是虚幻的,那么就可以解释的通。或者我勉强想到了另一种我们都是真实的说法。
比如说,你在打乒乓球,我以为你在打羽毛球。那么,当我去找你时,这两种想法就发生了碰撞,必须要塌陷成一种事实。那么就取决于我们两者想法的强度如何。如果我的想法强度更强,那么你本来在打乒乓球,当我要见到你时,你以及世界会立刻转变成你在打羽毛球的状态。
或者可以再把世界当成拔河绳,对方在我们不知情的情况下已经把绳子拉向自己那端了,当我们意识到时,虽然强度比对方大,但时间上已经来不及塌陷回来了。
doh 能被运营商劫持吗
网络:广东移动宽带;
dns:opendns/Umbrella 的 doh ,https://146.112.41.2/dns-query
opendns 直连的延迟:
https://images.weserv.nl/?url=https://article.biliimg.com/bfs/new_dyn/b56511701fdaccbb63925acb7041307179547202.png
opendns 代理的延迟:
https://images.weserv.nl/?url=https://article.biliimg.com/bfs/new_dyn/9a270a8aec8e880ec683f30538bdf0fa79547202.png
dnspod 直连的延迟:
https://images.weserv.nl/?url=https://article.biliimg.com/bfs/new_dyn/fdfefe325e0b43654482f6cd553105a879547202.png
为什么 opendns 直连比代理还快?最低延迟居然去到 27ms
网络:广东移动宽带;
dns:opendns/Umbrella 的 doh ,https://146.112.41.2/dns-query
opendns 直连的延迟:
https://images.weserv.nl/?url=https://article.biliimg.com/bfs/new_dyn/b56511701fdaccbb63925acb7041307179547202.png
opendns 代理的延迟:
https://images.weserv.nl/?url=https://article.biliimg.com/bfs/new_dyn/9a270a8aec8e880ec683f30538bdf0fa79547202.png
dnspod 直连的延迟:
https://images.weserv.nl/?url=https://article.biliimg.com/bfs/new_dyn/fdfefe325e0b43654482f6cd553105a879547202.png
为什么 opendns 直连比代理还快?最低延迟居然去到 27ms
记录一个很难绷的 ipv6 获取不到的问题
TLDR:使用无线路由器做 AP ,记得关闭路由器本身的 ipv6 功能
北京移动,光猫改桥接,网络拓扑是 光猫 - 软路由( openwrt ) - 无线 AP ( TP 的路由器),TP 路由器接 lan 口只用于无线接入。openwrt 能正常拿到拿到 ipv6-pd ,lan 口也有 ipv6 地址,但设备只能获取到 fd 开头的内网 ip 。
tcpdump 抓了半天包,发现设备拿到的 RA 包和 openwrt 下发的 RA 包完全不同,同时 gpt 也给出了提示:
> A. 你电脑连的不是主路由器的 WiFi ?
你可能连接的是光猫/另一个设备/AP (它只发 ULA 前缀 RA ,且不做 IPv6 出口),而不是你主 OpenWrt 路由的 WiFi 。
> B. 有别的 IPv6 RA 源在同一个网段?
局域网里有别的设备(比如虚拟机、旁路由、Docker 、软路由)在发 RA 包,且优先级更高。
> 这类 RA 会让你的客户端获得错误的前缀/网关,甚至根本不分配公网 IPv6 。
后知后觉,意识到 ap 的 ipv6 功能忘了关,关掉之后果然好了,又是被低级问题折磨的一天 :)也想吐槽一下 TPLink 固件的思路,你都不会拨号,只承担 ap 的职责,此时固件的 ipv6 开关,正常理解不就是 ap 也能分配到 ipv6 地址么,为什么还会向局域网广播你的 RA 包啊 = =
另外 gpt4.1 在排查这次 bug 起了很大作用,同时也用了 claude 4 ,但是给出的排查方向完全不对,gpt 4.1 的思路一直都是对的。
- - - - - -- - - - - -
Cheons:中译中
AP 没关 DHCP
tianxin8431:@Cheons 错误的,DHCP 关掉了,但是没关 ipv6
2025-06-11 08:26:21
TLDR:使用无线路由器做 AP ,记得关闭路由器本身的 ipv6 功能
北京移动,光猫改桥接,网络拓扑是 光猫 - 软路由( openwrt ) - 无线 AP ( TP 的路由器),TP 路由器接 lan 口只用于无线接入。openwrt 能正常拿到拿到 ipv6-pd ,lan 口也有 ipv6 地址,但设备只能获取到 fd 开头的内网 ip 。
tcpdump 抓了半天包,发现设备拿到的 RA 包和 openwrt 下发的 RA 包完全不同,同时 gpt 也给出了提示:
> A. 你电脑连的不是主路由器的 WiFi ?
你可能连接的是光猫/另一个设备/AP (它只发 ULA 前缀 RA ,且不做 IPv6 出口),而不是你主 OpenWrt 路由的 WiFi 。
> B. 有别的 IPv6 RA 源在同一个网段?
局域网里有别的设备(比如虚拟机、旁路由、Docker 、软路由)在发 RA 包,且优先级更高。
> 这类 RA 会让你的客户端获得错误的前缀/网关,甚至根本不分配公网 IPv6 。
后知后觉,意识到 ap 的 ipv6 功能忘了关,关掉之后果然好了,又是被低级问题折磨的一天 :)也想吐槽一下 TPLink 固件的思路,你都不会拨号,只承担 ap 的职责,此时固件的 ipv6 开关,正常理解不就是 ap 也能分配到 ipv6 地址么,为什么还会向局域网广播你的 RA 包啊 = =
另外 gpt4.1 在排查这次 bug 起了很大作用,同时也用了 claude 4 ,但是给出的排查方向完全不对,gpt 4.1 的思路一直都是对的。
- - - - - -- - - - - -
Cheons:中译中
AP 没关 DHCP
tianxin8431:@Cheons 错误的,DHCP 关掉了,但是没关 ipv6
2025-06-11 08:26:21