互联网从业者充电站
25.7K subscribers
22K photos
943 videos
819 files
13.3K links
互联网从业者专属
内容多为技术、产品、设计、运营等不同话题内容;
目标人群为程序员、设计师、产品经理、运营管理等不同职能。
投稿/合作: @inside1024_bot


内容来源网络
Download Telegram
#程序员

screenshot-to-code, https://github.com/abi/screenshot-to-code,这个项目演示了,如何使用 GPT-4 Vision 和 DALL-E 3 将设计稿/网页截图转换成源码(HTML + Tailwind CSS),还原度非常高。

本来以为项目做了很多工程化的工作来优化生成结果,扒了下源码,没想到 Prompt 如此简单(如图二)。也就是说,使用 ChatGPT 已经可以完全胜任切图工作了,效率提升 1000x。

为了让大家可以直接玩耍,作者还开发了一个网页,填写自己的 OpenAI Key,就可以体验“截图转代码”的整个过程了:https://picoapps.xyz/free-tools/screenshot-to-code
#职场社畜日常

什么叫来对了...就是6点20分公司就变成鬼屋了。
达到五百个关注的速度比我想象中要快一些,本来想抽两个五百块钱红包的,现在看还可以再等等。
这个剧本比进退自如,口含明珠好看
🤣2
drama 在 X 持续播出…
🤡2👍1
OpenAI 董事会设计让微软零成本收购了 OpenAI。
Microsoft 已经无限接近于零元购 Open AI
Axure RP产品原型源文件500+打包整理,涉及各个行业产品实战案例!永久会员全站免费!

成为本站永久会员后,全站资源免费。现在买就是赚到!全站资源永久免费,后续更新免费!500+资源持续更新,承诺此后再无此价,不要错过!详情见网站banner图。 此原型打包文件,包括各种业务成功案例的Axure rp原型文件,元...

source
2👍1
从6月到现在,拼多多的股价已经翻倍了
👍31
This media is not supported in your browser
VIEW IN TELEGRAM
#程序员

gpt-crawler,https://github.com/BuilderIO/gpt-crawler,一款可以将网站内容全部爬取下来,并转换成可以作为 GPTs 学习的结构化知识的工具。

例如你想制作一个数字人分身,不妨把自己在社交媒体或者个人博客的内容先抓取下来,提交给 ChatGPT 作为储备知识。

顺便推荐下它背后使用的技术框架,crawlee,https://crawlee.dev,它是一个网络爬虫工具,也是一款浏览器自动化工具,在实现上,它提供了 DOM 解析能力、无头浏览器模式、异常状态码处理、队列和存储,以及大量的配置项来增强爬虫。它也是一款开源产品:https://github.com/apify/crawlee
👍4🐳1
上次我妈说我不给大炮买衣服,给我打了一万块钱让我去给儿子买衣服。
我花了100多给他买了两件短袖,其他的钱自己用光了。
我妈今天来我家,带了她自己给大炮买的羽绒服。
不再让我这样的中间商赚差价了。

做人真的要诚信,不然赚的全是一次性的买卖。😭

群响一再说了,在私域做高客单价一定要提供好的交付,我这就属于只满足了私域和高客单价两个条件。
注定失败。
1
#职场社畜日常

总监职级现场竞聘,92年却已有资深司龄的女生在回答第2个问题时突然就哭了,哭得那么委屈和真诚,好几分钟止不住。

问题是:如果你获得总监这个岗位,你会怎么做?

她冷静下来回答说:
我是个自驱力很强的人,是否有这个title,是否加给我新的考核指标,于我都是一样执著认真地工作。
这么多年来,我总是最晚离开办公室,我在利用一切的时间来学习,总结每一次受批评的原因,思考每一个事情怎么办,琢磨方案中的每一句话怎么写。
我的团队人手少,任务很重,我很感激我这几年的辛苦让我有了快速的成长,我已经能够在专业上、沟通上做到让自己满意,但是在外部资源积累和项目判断经验上还有很多不足。不论是否能有新的职级,我都会一如既往的全力以赴,毫不懈怠,在工作中上进是我的一种生活方式。

我给了她最高分。
👀2
This media is not supported in your browser
VIEW IN TELEGRAM
#程序员

如果你想对站点内容进行爬虫,还有一条最简洁的系统原生命令可以搞定:

wget --random-wait -r -p -e robots=off -U mozilla Website_URL

加上 -nv 或 --no-verbose 参数后,输出的内容会变得更加简洁;加上 --accept-regex 参数后,你可以根据正则来过滤你需要的 uri。

下面是爬取 babel 站点文档的一个演示: