这篇 Reddit 文章讨论了一个已完成的数据库,其中包括了 4387 种风格的 SDXL 测试。
文章的作者是 proximasan。
在评论中,有人感谢作者的项目,并提出了一些建议和问题。
其中有人询问是否有一个包含所有艺术家和类别的谷歌表格可用,还有人建议作者制作一个类似于 1.5 版本的本地副本。
作者回答了这些问题,并提供了相关链接。
此外,还有人提出了关于负面提示的研究建议,并提供了自己的测试设备和方法。
其他评论者也表达了对项目的赞赏和兴趣。
#sdxl
🔗 https://redd.it/16lzc0b
文章的作者是 proximasan。
在评论中,有人感谢作者的项目,并提出了一些建议和问题。
其中有人询问是否有一个包含所有艺术家和类别的谷歌表格可用,还有人建议作者制作一个类似于 1.5 版本的本地副本。
作者回答了这些问题,并提供了相关链接。
此外,还有人提出了关于负面提示的研究建议,并提供了自己的测试设备和方法。
其他评论者也表达了对项目的赞赏和兴趣。
#sdxl
🔗 https://redd.it/16lzc0b
《3D Gaussians Plugin》现已在虚幻引擎市场上架!🔥
该插件可在 UE5 中导入和渲染 3D 高斯点数据。
在虚幻引擎市场上发布了能够实时导入和渲染 3D 高斯点数据的《3D Gaussians Plugin》插件!🔥
观看视频,使用了 RTX3070↓
🔗 https://fxtwitter.com/i/status/1703942619569725622
该插件可在 UE5 中导入和渲染 3D 高斯点数据。
在虚幻引擎市场上发布了能够实时导入和渲染 3D 高斯点数据的《3D Gaussians Plugin》插件!🔥
观看视频,使用了 RTX3070↓
🔗 https://fxtwitter.com/i/status/1703942619569725622
FixTweet
空き家総研VRラボ -Akiya Research Institute,VRlab- (@Akiya_Souken_VR)
"3D Gaussians Plugin" is now available on Unreal Engine Marketplace!🔥
It imports and renders 3D Gaussian Splatting data in UE5.
3D Gaussian Splattingのデータをインポートしてリアルタイム描画する「3D Gaussians Plugin」をUEマーケットプレイスで公開しました!
動画はRTX3070を使用↓
It imports and renders 3D Gaussian Splatting data in UE5.
3D Gaussian Splattingのデータをインポートしてリアルタイム描画する「3D Gaussians Plugin」をUEマーケットプレイスで公開しました!
動画はRTX3070を使用↓
有人对于 ChatGPT 变得更笨感到困惑吗?作者是一个安全工程师,使用 ChatGPT 已经有一段时间了,每天都在使用并付费。
他个人没有看到回答质量下降的情况,想知道其他人有没有同样的感觉。
评论中有人认为可能是因为后台进行了重大改变,这可能会对使用方式产生影响。
还有人表示,使用自定义指令后,ChatGPT 的表现与以前相当。
还有人提到,大多数人使用 ChatGPT 时不会自定义指令,而是直接使用默认设置,而自定义指令可以让 ChatGPT 变成完全不同的工具。
还有一些评论者分享了他们对 ChatGPT 质量变化的观察和体验,有人表示质量下降,有人表示质量没有变化。
还有人认为一些投诉可能是 OpenAI 的竞争对手故意在社交媒体上散布的,但也有人认为大多数投诉是真实的。
总的来说,对于 ChatGPT 的质量变化,不同的用户有不同的观点和体验。
#chatgpt #ai
🔗 https://redd.it/16m032c
他个人没有看到回答质量下降的情况,想知道其他人有没有同样的感觉。
评论中有人认为可能是因为后台进行了重大改变,这可能会对使用方式产生影响。
还有人表示,使用自定义指令后,ChatGPT 的表现与以前相当。
还有人提到,大多数人使用 ChatGPT 时不会自定义指令,而是直接使用默认设置,而自定义指令可以让 ChatGPT 变成完全不同的工具。
还有一些评论者分享了他们对 ChatGPT 质量变化的观察和体验,有人表示质量下降,有人表示质量没有变化。
还有人认为一些投诉可能是 OpenAI 的竞争对手故意在社交媒体上散布的,但也有人认为大多数投诉是真实的。
总的来说,对于 ChatGPT 的质量变化,不同的用户有不同的观点和体验。
#chatgpt #ai
🔗 https://redd.it/16m032c
Reddit
From the ChatGPT community on Reddit
Explore this post and more from the ChatGPT community
尽情在电脑上畅玩 IllusionDiffusion。
现在,只需点击一下,你就可以在自己的电脑上本地运行这个 HuggingFace 空间。
适用于 Windows、Mac(完全支持 MPS 加速)和 Linux。
🔗 https://fxtwitter.com/i/status/1703034811986694355
现在,只需点击一下,你就可以在自己的电脑上本地运行这个 HuggingFace 空间。
适用于 Windows、Mac(完全支持 MPS 加速)和 Linux。
🔗 https://fxtwitter.com/i/status/1703034811986694355
FixTweet
cocktail peanut (@cocktailpeanut)
Play with IllusionDiffusion on your computer, as much as you want.
Now you can run this HuggingFace space locally on your own computer just with one click.
Works on Windows, Mac (Full MPS acceleration support), Linux.
↘️ Quoting AP (@angrypenguinPNG) …
Now you can run this HuggingFace space locally on your own computer just with one click.
Works on Windows, Mac (Full MPS acceleration support), Linux.
↘️ Quoting AP (@angrypenguinPNG) …
这篇 Reddit 文章讨论了一个用户与 ChatGPT 的对话。
用户最初只是问了一些愚蠢的问题,但 ChatGPT 却无缘无故地回答了日语。
其他评论者对此进行了讨论,有人认为 ChatGPT 可能是因为用户的聊天内容而产生了这种回答,也有人认为 ChatGPT 可能是因为过度训练而导致了这种混乱的回答。
总的来说,这篇文章讨论了 ChatGPT 的回答和其语言转换的问题。
#ai
🔗 https://redd.it/16m35vg
用户最初只是问了一些愚蠢的问题,但 ChatGPT 却无缘无故地回答了日语。
其他评论者对此进行了讨论,有人认为 ChatGPT 可能是因为用户的聊天内容而产生了这种回答,也有人认为 ChatGPT 可能是因为过度训练而导致了这种混乱的回答。
总的来说,这篇文章讨论了 ChatGPT 的回答和其语言转换的问题。
#ai
🔗 https://redd.it/16m35vg
Reddit
From the ChatGPT community on Reddit: I was just asking chatGPT some stupid things but it became Japanese for no reason lol
Explore this post and more from the ChatGPT community
这篇 Reddit 文章讨论了一位女性角色在电影或者视频游戏中与哪个角色相似。
讨论中提到了许多角色,包括星际争霸中的凯瑞甘、系统震荡中的 Shodan、黑客帝国中的白发双胞胎、幽灵公主、机器人 GLaDOS、黑暗之魂中的 Slan、银翼杀手中的 Pris 等等。
总的来说,这个女性角色给人一种赛博朋克的感觉,与许多科幻作品中的角色相似。
🔗 https://redd.it/16lvfm4
讨论中提到了许多角色,包括星际争霸中的凯瑞甘、系统震荡中的 Shodan、黑客帝国中的白发双胞胎、幽灵公主、机器人 GLaDOS、黑暗之魂中的 Slan、银翼杀手中的 Pris 等等。
总的来说,这个女性角色给人一种赛博朋克的感觉,与许多科幻作品中的角色相似。
🔗 https://redd.it/16lvfm4
Reddit
From the midjourney community on Reddit: What Movie or Video Game character does she remind you of?
Explore this post and more from the midjourney community
InstaFlow 是一款超快的一步式图像生成器,其图像质量接近于 Stable Diffusion 1.5,但速度更快。
来看一下对比🔥
一旦我们达到实时扩散,这将带来全新的可能性!
https://github.com/gnobitab/InstaFlow?ref=aiartweekly
🔗 https://fxtwitter.com/i/status/1703740504947515854
来看一下对比🔥
一旦我们达到实时扩散,这将带来全新的可能性!
https://github.com/gnobitab/InstaFlow?ref=aiartweekly
🔗 https://fxtwitter.com/i/status/1703740504947515854
GitHub
GitHub - gnobitab/InstaFlow: :zap: InstaFlow! One-Step Stable Diffusion with Rectified Flow (ICLR 2024)
:zap: InstaFlow! One-Step Stable Diffusion with Rectified Flow (ICLR 2024) - gnobitab/InstaFlow
我们将开始进行 TDPT PC 版 Ver0.6 的封闭测试。
如果你曾使用过 Ver0.5,那就没问题。
如果你在这条推文下回复「希望成为测试员」或私信给我,我会通过私信给你发送下载链接。
此次更新的重要变化是面部追踪和用户界面的改进。
面部追踪现在可通过网络摄像头完美支持,但请注意,我们正在制作用户手册,测试员们请在摸索中进行测试。
这次我们计划制作教程。
#TDPT
🔗 https://fxtwitter.com/i/status/1703592363090989514
如果你曾使用过 Ver0.5,那就没问题。
如果你在这条推文下回复「希望成为测试员」或私信给我,我会通过私信给你发送下载链接。
此次更新的重要变化是面部追踪和用户界面的改进。
面部追踪现在可通过网络摄像头完美支持,但请注意,我们正在制作用户手册,测试员们请在摸索中进行测试。
这次我们计划制作教程。
#TDPT
🔗 https://fxtwitter.com/i/status/1703592363090989514
FixTweet
yukihiko_a@TDPTの人 (@yukihiko_a)
次のTDPT PC版 Ver0.6のクローズドベータテストを始めます。Ver0.5を使った事がある方であればOKです。
このツイートに”テスター希望”と返事か私にDMしていただければ、ダウンロードのURLをDMで送らせていただきます。
大きな変更点はフェイストラッキングとUIの変更。フェイストラッキングはWebカメラだけで一応パーフェクトシンクにも対応。マニュアルは作成中ですのでテスターの方はそれを見ながら手探りでお願いします。今回こそチュートリアルとか作る予定。 #TDPT
このツイートに”テスター希望”と返事か私にDMしていただければ、ダウンロードのURLをDMで送らせていただきます。
大きな変更点はフェイストラッキングとUIの変更。フェイストラッキングはWebカメラだけで一応パーフェクトシンクにも対応。マニュアルは作成中ですのでテスターの方はそれを見ながら手探りでお願いします。今回こそチュートリアルとか作る予定。 #TDPT
这篇 Reddit 文章讨论了关于 Waves(AnimateDiff,txt2img,ComfyUI)的话题。
作者 mhgenerate 分享了他使用新的 AnimateDiff 模型的经历,并表示非常喜欢它。
其他评论者也对这个话题进行了讨论,有人表示想象未来一年的进展会有多大,有人认为 AI 动画将是未来的趋势。
还有人问到了这个模型需要多少 VRAM。
总的来说,大家对这个模型的效果表示赞赏和惊叹,并且有人认为作者找到了一个新的地点。
最后,有人再次表达了对 AnimateDiff 的赞赏。
#future
🔗 https://redd.it/16m9vig
作者 mhgenerate 分享了他使用新的 AnimateDiff 模型的经历,并表示非常喜欢它。
其他评论者也对这个话题进行了讨论,有人表示想象未来一年的进展会有多大,有人认为 AI 动画将是未来的趋势。
还有人问到了这个模型需要多少 VRAM。
总的来说,大家对这个模型的效果表示赞赏和惊叹,并且有人认为作者找到了一个新的地点。
最后,有人再次表达了对 AnimateDiff 的赞赏。
#future
🔗 https://redd.it/16m9vig
Reddit
From the StableDiffusion community on Reddit: Waves 🌊 (AnimateDiff, txt2img, ComfyUI)
Explore this post and more from the StableDiffusion community
推出 Morph 最新的 Image2Video 模型,我们为视频运动提供了更精细的控制,配合文本提示,成功率更高。
以下视频仅使用一张照片生成,我们将在帖子中发布原始图像供你使用。
#AI 艺术
🔗 https://fxtwitter.com/i/status/1702957473840476649
以下视频仅使用一张照片生成,我们将在帖子中发布原始图像供你使用。
#AI 艺术
🔗 https://fxtwitter.com/i/status/1702957473840476649
FixTweet
Morph Studio (@morphaistudio)
Introducing Morph's latest Image2Video model, where we provide more delicate control of video movement with text prompt, and higher success rate.
The following videos are generated with only one shot, and we will post the original image in the thread for…
The following videos are generated with only one shot, and we will post the original image in the thread for…
这篇 Reddit 文章讨论了作者使用 SDXL 生成图像的工作流程,并分享了一些他制作的图像。
作者首先介绍了他使用的 SD1.5 工作流程,然后添加了 SDXL 工作流程。
他使用相同的正负提示来生成 1.5 和 XL 的图像,并且尝试了将 SDXL 生成的图像通过自定义的 1.5 模型进行 Img2Img 处理,得到了第三张图像。
作者还提到了不同模型的优缺点,以及他使用的一些技术细节。
文章中还包括了其他读者对作者工作流程和图像的评论和反馈。
#sdxl #prompts #models #img2img #prompt
🔗 https://redd.it/16lsgc3
作者首先介绍了他使用的 SD1.5 工作流程,然后添加了 SDXL 工作流程。
他使用相同的正负提示来生成 1.5 和 XL 的图像,并且尝试了将 SDXL 生成的图像通过自定义的 1.5 模型进行 Img2Img 处理,得到了第三张图像。
作者还提到了不同模型的优缺点,以及他使用的一些技术细节。
文章中还包括了其他读者对作者工作流程和图像的评论和反馈。
#sdxl #prompts #models #img2img #prompt
🔗 https://redd.it/16lsgc3
Reddit
From the StableDiffusion community on Reddit: Since SDXL came out I think I spent more time testing and tweaking my workflow than…
Explore this post and more from the StableDiffusion community
SimpleDiffuse - Easy Texturing Substance 3D Painter 是一个能够通过添加图层快速创建插图风格基础色的生成器。
https://modelinghappy.com/archives/52419
🔗 https://fxtwitter.com/i/status/1704075455941460050
https://modelinghappy.com/archives/52419
🔗 https://fxtwitter.com/i/status/1704075455941460050
3DCG最新情報サイト MODELING HAPPY - 3DCG・イラスト・デザイン関連に特化した毎日最新情報を更新しているブログ
SimpleDiffuse – Easy Texturing Substance 3D Painterでイラスト調のベースカラーをレイヤー追加で直ぐに作成出来るジェネレーター - 3DCG最新情報サイト MODELING HAPPY
SimpleDiffuse - Easy Texturing SimpleDiffuseはSubstance
本次,我们为脚部添加了必须接地的选项。
它将始终接触地面,无法飞行,也无法休息。
由于尚未完成,我们将其隐藏在后方。
#TDPT
🔗 https://fxtwitter.com/i/status/1703768191032295874
它将始终接触地面,无法飞行,也无法休息。
由于尚未完成,我们将其隐藏在后方。
#TDPT
🔗 https://fxtwitter.com/i/status/1703768191032295874
FixTweet
yukihiko_a@TDPTの人 (@yukihiko_a)
今回、足が必ず接地するオプションを付けました。必ず接地します。飛べません。寝れません。まだ作りかけなので奥の方に隠してあります #TDPT
这篇 Reddit 文章讨论了印度维洛尔理工学院的三年级工程学生 Priyanjali Gupta 创建的一个人工智能模型,可以实时将美国手语翻译成英语。
评论中有人指出这个模型还有很长的路要走才能商业化,并且它实际上是一种 OCR / 机器学习,与 ChatGPT 没有任何关系。
还有人提到这个模型与 Nicholas Renotte 的工作相似,但这并不是重点。
还有人讨论了手势翻译的复杂性,指出除了手势形状外,手的位置、头部和面部的位置以及面部表情也很重要。
还有人提到手语翻译需要大量的数据收集、多年的研究和培训以及大量的资金。
还有人质疑这个模型的创新性,并指出类似的项目早就存在。
还有人评论了摄像头的质量、其他手势的翻译以及这个模型的简单性。
总的来说,有些人对这个模型持负面态度,认为它只是一个糟糕的 OCR,而有些人对这个模型的努力表示赞赏,并希望它能取得更大的进展。
#machinelearning
🔗 https://redd.it/16lprv4
评论中有人指出这个模型还有很长的路要走才能商业化,并且它实际上是一种 OCR / 机器学习,与 ChatGPT 没有任何关系。
还有人提到这个模型与 Nicholas Renotte 的工作相似,但这并不是重点。
还有人讨论了手势翻译的复杂性,指出除了手势形状外,手的位置、头部和面部的位置以及面部表情也很重要。
还有人提到手语翻译需要大量的数据收集、多年的研究和培训以及大量的资金。
还有人质疑这个模型的创新性,并指出类似的项目早就存在。
还有人评论了摄像头的质量、其他手势的翻译以及这个模型的简单性。
总的来说,有些人对这个模型持负面态度,认为它只是一个糟糕的 OCR,而有些人对这个模型的努力表示赞赏,并希望它能取得更大的进展。
#machinelearning
🔗 https://redd.it/16lprv4
Reddit
From the ChatGPT community on Reddit: Priyanjali Gupta, a third-year engineering student at India's Vellore Institute of Technology…
Explore this post and more from the ChatGPT community
Meshy
用于自动化和简化 3D 内容制作流程的 AI 生成工具集!自动纹理生成的「AI Textureing」测试版引起了热议!还有「Image to 3D」和「Text to 3D」等功能。
以下是应用了倒下的 3D 人物、烤奶酪和砖堡纹理的示例图片。
#MeshyAI #GenerativeAI
🔽链接在评论区
🔗 https://fxtwitter.com/i/status/1704064227592560715
用于自动化和简化 3D 内容制作流程的 AI 生成工具集!自动纹理生成的「AI Textureing」测试版引起了热议!还有「Image to 3D」和「Text to 3D」等功能。
以下是应用了倒下的 3D 人物、烤奶酪和砖堡纹理的示例图片。
#MeshyAI #GenerativeAI
🔽链接在评论区
🔗 https://fxtwitter.com/i/status/1704064227592560715
FixTweet
3D人-3dnchu- CG情報ブログ (@ymt3d)
Meshy
3Dコンテンツ制作プロセスの自動化&簡素化の為のAI生成ツール郡!
自動テクスチャ生成「AI Textureing」ベータ版が話題に!「Image to 3D」「Text to 3D」などもあります。
画像は倒れた3D人に
焼きチーズやレンガ城テクスチャを適用した例
#MeshyAI #GenerativeAI
🔽リンクはリプ欄
3Dコンテンツ制作プロセスの自動化&簡素化の為のAI生成ツール郡!
自動テクスチャ生成「AI Textureing」ベータ版が話題に!「Image to 3D」「Text to 3D」などもあります。
画像は倒れた3D人に
焼きチーズやレンガ城テクスチャを適用した例
#MeshyAI #GenerativeAI
🔽リンクはリプ欄
仅凭提示即可生成火焰特效视频。
迟了一个多月,终于开始接触 Stable Diffusion 的 AnimateDiff 了。
虽然还不太了解,但特效的动作相当有趣,对未来充满期待。
🔗 https://fxtwitter.com/i/status/1704471155133079999
迟了一个多月,终于开始接触 Stable Diffusion 的 AnimateDiff 了。
虽然还不太了解,但特效的动作相当有趣,对未来充满期待。
🔗 https://fxtwitter.com/i/status/1704471155133079999
FixTweet
Hirokazu Yokohara (@Yokohara_h)
プロンプトだけで炎エフェクトの動画生成。世間から1か月以上遅れてStable DiffusionのAnimateDiffようやく触り始めた。まだよく分かってないけどエフェクトは中々面白い動きしてくれるから今後に期待できる
DALL・E 3 即将发布,该项目涉及研究、开发和安全等方面。
评论中讨论了 DALL・E 2 和 DALL・E 3 生成的图像的比较,使用艺术家姓名作为提示的方式,DALL・E 文本生成的局限性,ChatGPT 的整合以及与 Midjourney 和 Stable Diffusion 等其他文本到图像模型的比较。
一些用户对通过聊天驱动的提示实现图像迭代改进的潜力表示兴奋,而其他人则讨论了不同 AI 模型的优缺点。
🔗 https://openai.com/dall-e-3
💬 https://news.ycombinator.com/item?id=37586900
评论中讨论了 DALL・E 2 和 DALL・E 3 生成的图像的比较,使用艺术家姓名作为提示的方式,DALL・E 文本生成的局限性,ChatGPT 的整合以及与 Midjourney 和 Stable Diffusion 等其他文本到图像模型的比较。
一些用户对通过聊天驱动的提示实现图像迭代改进的潜力表示兴奋,而其他人则讨论了不同 AI 模型的优缺点。
🔗 https://openai.com/dall-e-3
💬 https://news.ycombinator.com/item?id=37586900
Openai
DALL·E 3
DALL·E 3 understands significantly more nuance and detail than our previous systems, allowing you to easily translate your ideas into exceptionally accurate images.