Forwarded from UMD(兔鼠)的觀察日記(NSFW)
NovelAI洩露原版前後端部署教程 4chan優化版
支持 Colab + Linux + win 部署
自帶前後端,打開網頁就能用,並且可突破 prompt 77 限制
由 4chan 裡 Anonymous 大佬製作
Nyanko Lepsoni & 煉銅術士 & @exlolicon 等大佬更改支持Colab
PS.默認使用4G模型,最低8G顯存可用,但建議10G顯存
如需使用7G模型,可自行下載,更改啟動文件裡的模型路徑來使用
但注意7G模型要求最低16G顯存,且不保證正常使用,最好24G以上
不過4G模型、7G模型和官網,差異都不算大,因此不必強求使用7G模型
超簡單colab一鍵搭建
①↑打開由 colab文檔鏈接,登錄谷歌賬號,左上角,代碼執行程序→全部運行
且注意第一步有沒有下載成功,如失敗請重新運行
②直到第三步,會顯示 bore.pub:xxx 和 xxx.trycloudflare.com
兩個都是前端地址,不同映射隧道,哪個穩定用哪個
但需要等待出現 Application startup complete / 0.0.0.0:6969 字樣出現時再訪問
③可選,以 float16 半精準極限運行7G模型
需要結束上方第三步的運行,再運行第四步,依然是等待新地址訪問
Linux 參考 colab 流程即可
win 下載磁鏈/打包文件
磁鏈
①下載 Python ,選中“將 Python 添加到 PATH” 選項來安裝
②磁鏈下載需要解壓 program.zip 到當前目錄,打包下載已自帶解壓
③運行 setup.bat 等待環境安裝完成
④再運行 run.bat 啟動,等待 0.0.0.0:6969 字樣出現時訪問內網地址
注:由於win環境不一樣,同時國內網絡不穩定,因此出現錯誤時建議自行搜索,再無法解決時可到群裡詢問
#天網製作所 #謎島程式工坊
支持 Colab + Linux + win 部署
自帶前後端,打開網頁就能用,並且可突破 prompt 77 限制
由 4chan 裡 Anonymous 大佬製作
Nyanko Lepsoni & 煉銅術士 & @exlolicon 等大佬更改支持Colab
PS.默認使用4G模型,最低8G顯存可用,但建議10G顯存
如需使用7G模型,可自行下載,更改啟動文件裡的模型路徑來使用
但注意7G模型要求最低16G顯存,且不保證正常使用,最好24G以上
不過4G模型、7G模型和官網,差異都不算大,因此不必強求使用7G模型
超簡單colab一鍵搭建
①↑打開由 colab文檔鏈接,登錄谷歌賬號,左上角,代碼執行程序→全部運行
且注意第一步有沒有下載成功,如失敗請重新運行
②直到第三步,會顯示 bore.pub:xxx 和 xxx.trycloudflare.com
兩個都是前端地址,不同映射隧道,哪個穩定用哪個
但需要等待出現 Application startup complete / 0.0.0.0:6969 字樣出現時再訪問
③可選,以 float16 半精準極限運行7G模型
需要結束上方第三步的運行,再運行第四步,依然是等待新地址訪問
Linux 參考 colab 流程即可
win 下載磁鏈/打包文件
磁鏈
magnet:?xt=urn:btih:4a4b483d4a5840b6e1fee6b0ca1582c979434e4d&dn=naifu&tr=udp%3a%2f%2ftracker.opentrackr.org%3a1337%2fannounce打包
①下載 Python ,選中“將 Python 添加到 PATH” 選項來安裝
②磁鏈下載需要解壓 program.zip 到當前目錄,打包下載已自帶解壓
③運行 setup.bat 等待環境安裝完成
④再運行 run.bat 啟動,等待 0.0.0.0:6969 字樣出現時訪問內網地址
注:由於win環境不一樣,同時國內網絡不穩定,因此出現錯誤時建議自行搜索,再無法解決時可到群裡詢問
#天網製作所 #謎島程式工坊