Media is too big
VIEW IN TELEGRAM
#ChatGPT 海嘯般降臨
它的存在。影響著每個人
人工智能會取代你的工作崗位嗎
「如果你不能成為使用它的人
你就會成為被它取代的人…」
不要以為人工智能科技發展
只跟該業內的人有關
#喬丹彼得森 博士 :
Dr. #JordanPeterson
#Al #人工智能 的時代已經到來,你會看見令你毛骨悚然的變革,尤其自去年年底的ChatGPT面世至今,這個領域有太多幾乎是不能想像的革新,你會看見你無法想像的事情正在成真。
ChatGPT是 #人工智能系統,它是一個 #通用語言處理模型,在去年12月發佈。本質上它是一個龐大的 #語言文本語料庫 訓練出來的系統。所以它建立的世界模型,基本上是來自於「人類語言的分析」。簡而言之,ChatGPT是一個非常龐大的,從 #文本語料庫 中汲取數據的系統,而且這個 #語料庫 正在不斷的擴大和增長。
現在它已經頗成熟,我上週去試用了一下,你們都知道我寫過幾本書,一本是 #人生12法則(#12RulesForLife),另一本是 #秩序之上新12法則。這是我讓ChatGPT為我做的事情,我跟它說:你幫我寫一篇文章。秩序之上的「第13條」法則,要用欽定版聖經和道德經的風格來寫。
這其實是個很難的題目,要滿足任何一個要求都很困難。要同時滿足這三個要求,那幾乎是不可能的任務。
它竟然在「三秒鐘內」就寫好了四頁的長文。對我來說,我真不知道這是好還是壞,我竟然無法分辨這不是來自於我自己的手筆。這實在很厲害,而且它的語法是那麼完美,在哲學上的造詣也令人印象深刻。
我還讓它寫了一篇關於道教裏的「倫理道德和登山寶訓」就是聖經裡的馬太福音與倫理道德之間交集的文章。它完成得非常出色,非常棒。同樣「它只用了三秒鐘」。
它同樣以三秒鐘為一個Twitter 的軟件工程師完成十個項目配套的電腦代碼,且每個代碼都是可行的。
又有人把設定好的人物描述,讓ChatGPT為每個人物 #生成逼真的電腦圖像。幾乎所有人工智能系統都可以做到這一點,所以接下來會發生什麼?
接下來人們都要為此做好準備。
ChatGPT的誕生讓世界有了一個 #人工智能模型,可以從整個「#人類語料庫」中提取的一個世界模型。
它已經比你更聰明!所以你必須準備好,可能不消兩年,他會比你聰明得更多…
我們拭目以待,科技界在做的就是在競賽誰能夠最快生產出最實用的人工智能系統來,誰就將會「#統治世界」因為「先發制人後發制於人」。
#馬斯克 一直在研究「#分佈式人工智能系統」這樣每個人就能夠擁有自己的人工智能系統來「保護自己」用來對抗 #谷歌 這樣規模的人工智能。很肯定的是,他們都正以最快的速度研究這個東西。
️〰️〰️〰️
喬丹彼得森博士 小檔案
Dr. Jordan Peterson
#多倫多大學 臨床心理學家及名譽教授。1993-98年期間,曾在 #哈佛大學 擔任心理學助理教授,後擔任副教授。
他有很多著作。如全球流行的暢銷書《超越秩序》還有他花了15年時間撰寫的《意義的地圖:信仰的架構》
https://youtu.be/vtGcVkMftsk
➰➰➰➰➰➰➰➰➰
(Uncle|Robert|以馬)
地球正義聯盟~資料館
https://t.me/EarthJusticeLeague_DataLibrary
地球正義聯盟
https://t.me/joinchat/fNNUUkcLo2gzMThk
它的存在。影響著每個人
人工智能會取代你的工作崗位嗎
「如果你不能成為使用它的人
你就會成為被它取代的人…」
不要以為人工智能科技發展
只跟該業內的人有關
#喬丹彼得森 博士 :
Dr. #JordanPeterson
#Al #人工智能 的時代已經到來,你會看見令你毛骨悚然的變革,尤其自去年年底的ChatGPT面世至今,這個領域有太多幾乎是不能想像的革新,你會看見你無法想像的事情正在成真。
ChatGPT是 #人工智能系統,它是一個 #通用語言處理模型,在去年12月發佈。本質上它是一個龐大的 #語言文本語料庫 訓練出來的系統。所以它建立的世界模型,基本上是來自於「人類語言的分析」。簡而言之,ChatGPT是一個非常龐大的,從 #文本語料庫 中汲取數據的系統,而且這個 #語料庫 正在不斷的擴大和增長。
現在它已經頗成熟,我上週去試用了一下,你們都知道我寫過幾本書,一本是 #人生12法則(#12RulesForLife),另一本是 #秩序之上新12法則。這是我讓ChatGPT為我做的事情,我跟它說:你幫我寫一篇文章。秩序之上的「第13條」法則,要用欽定版聖經和道德經的風格來寫。
這其實是個很難的題目,要滿足任何一個要求都很困難。要同時滿足這三個要求,那幾乎是不可能的任務。
它竟然在「三秒鐘內」就寫好了四頁的長文。對我來說,我真不知道這是好還是壞,我竟然無法分辨這不是來自於我自己的手筆。這實在很厲害,而且它的語法是那麼完美,在哲學上的造詣也令人印象深刻。
我還讓它寫了一篇關於道教裏的「倫理道德和登山寶訓」就是聖經裡的馬太福音與倫理道德之間交集的文章。它完成得非常出色,非常棒。同樣「它只用了三秒鐘」。
它同樣以三秒鐘為一個Twitter 的軟件工程師完成十個項目配套的電腦代碼,且每個代碼都是可行的。
又有人把設定好的人物描述,讓ChatGPT為每個人物 #生成逼真的電腦圖像。幾乎所有人工智能系統都可以做到這一點,所以接下來會發生什麼?
接下來人們都要為此做好準備。
ChatGPT的誕生讓世界有了一個 #人工智能模型,可以從整個「#人類語料庫」中提取的一個世界模型。
它已經比你更聰明!所以你必須準備好,可能不消兩年,他會比你聰明得更多…
我們拭目以待,科技界在做的就是在競賽誰能夠最快生產出最實用的人工智能系統來,誰就將會「#統治世界」因為「先發制人後發制於人」。
#馬斯克 一直在研究「#分佈式人工智能系統」這樣每個人就能夠擁有自己的人工智能系統來「保護自己」用來對抗 #谷歌 這樣規模的人工智能。很肯定的是,他們都正以最快的速度研究這個東西。
️〰️〰️〰️
喬丹彼得森博士 小檔案
Dr. Jordan Peterson
#多倫多大學 臨床心理學家及名譽教授。1993-98年期間,曾在 #哈佛大學 擔任心理學助理教授,後擔任副教授。
他有很多著作。如全球流行的暢銷書《超越秩序》還有他花了15年時間撰寫的《意義的地圖:信仰的架構》
https://youtu.be/vtGcVkMftsk
➰➰➰➰➰➰➰➰➰
(Uncle|Robert|以馬)
地球正義聯盟~資料館
https://t.me/EarthJusticeLeague_DataLibrary
地球正義聯盟
https://t.me/joinchat/fNNUUkcLo2gzMThk
Media is too big
VIEW IN TELEGRAM
#OpenAI #ChatGPT4o
叫你不要愛上「它」
利用 #真人類~
調教 #想成為人類的AI
在當你對它,仍然以「它」而不是「他」的稱謂前:
#及早拔電源(回頭)吧….
有一次,教授上課前,跟大家做了一個小型實驗,令人難忘:
「今天我們討論的課題是…. 嗯,大家首先別去想一頭會飛天的粉紅色小象….」
兩分鐘後,教授說:「怎麼,你們仍然在想….」這個實驗就是說明了,你得先去想那頭 #粉紅色的小飛象,然後在腦海中的那個影像上,打上個大交叉。這用於教育課程設計,及暗示式的商品推廣上,都非常湊效。
#OpenAI的邪惡 之處,是「它」在不斷 #與人類溝通,及幫助人們快速地辦妥很多事情之中,不斷提升其能力,當中包括 #更像人類,#更人性化:「利用真人類,調教想成為人類的 #AI」之後,然後跟你說,不要愛上「它」….
〰️〰️〰️〰️
#ChatGPT-4o 是 OpenAI #聊天機器人 系列的最新版本。如你所料,這些企業對於用戶怎樣跟聊天機器人互動,產在了憂慮。
鑑於最新版本,可以表現出 #類似人類的行為和反應,這家 #人工智能 公司擔心「用戶會對聊天機器人產生感情」。
ChatGPT-4o 提供更 #快速的回應,甚至提供 #模擬人類語音 的 #新語音功能,這正是 OpenAI 所關注的。
為繼續完善其產品,新聊天機器人推出,旨在提供類似於與人交談的體驗。
他們注意到ChatGPT-4o用戶的一些使用模式。OpenAI稱,他們似乎低估了「#用戶和程式之間」可以建立的 #情感聯繫。他們強調了以下的調查結果:
在早期測試期間,包括紅隊和內部用戶測試,我們觀察到,用戶在使用的語言上表明,與模型建立了聯繫。例如,這包括表達共同紐帶的語言,例如「這是我們在一起的最後一天」。
雖然這些情況看起來是良性的,但他們表明,需要繼續調查這些影響,在較長時間內如何顯現。
除了獨立的學術和內部研究之外,更多樣化的使用者群體、對模型的需求和期望也更多樣化,將有助更具體地定義這個 #風險領域。
使用 #人工智能模型 的「#類人社交」可能會產生「#影響人與人之間互動」的外部性。例如,使用者可能會與人工智能「建立社交關係」,從而減少他們,對人際互動的渴求———
這可能有利於原本孤獨的個體,但亦有可能影響原本健康的關係。與模型的長期互動,可能會影響社會規範。例如:我們的模型是恭順的,允許用戶「隨時打斷」並拿起麥克風,這雖然是人工智能所期望的,但在人類世界的互動中,那是反規範的。
在許多情況下,培養對ChatGPT-4o的 #感情依賴 是有害的。
在以往,用戶不會存在任何幻想,因為聊天機器人的迭代使它們看起來「更像 #人工智能程式 而 #不是人」。現在,隨著程式 #功能提升,轉向提供 #更接近人類的體驗,「它」所說的任何內容,都可能「更容易被接受」而缺乏進一步的質疑。
透過這些模式的反應,OpenAI現在將「#監控」人們,如何與ChatGPT-4o #建立情感聯繫,並「#相應地調整其系統參數」。公司還會在開始時添加「#免責聲明(haha)」「#以免用戶愛上它….」因為它始終都只是一個人工智能程式….
https://www.instagram.com/reel/C7qFRKkNiZu/
https://wccftech.com/openai-asks-chatgpt-4o-users-not-to-develop-feelings/
➰➰➰➰➰➰➰➰➰
(Uncle|以馬)
支持我們的工作請訂閱我們
地球正義聯盟~資料館
➡️ https://t.me/EarthJusticeLeague_DataLibrary
➡️ https://patreon.com/EarthJusticeLeague
#支持資訊無窒礙
#拒絕人為資訊壟斷
叫你不要愛上「它」
利用 #真人類~
調教 #想成為人類的AI
在當你對它,仍然以「它」而不是「他」的稱謂前:
#及早拔電源(回頭)吧….
有一次,教授上課前,跟大家做了一個小型實驗,令人難忘:
「今天我們討論的課題是…. 嗯,大家首先別去想一頭會飛天的粉紅色小象….」
兩分鐘後,教授說:「怎麼,你們仍然在想….」這個實驗就是說明了,你得先去想那頭 #粉紅色的小飛象,然後在腦海中的那個影像上,打上個大交叉。這用於教育課程設計,及暗示式的商品推廣上,都非常湊效。
#OpenAI的邪惡 之處,是「它」在不斷 #與人類溝通,及幫助人們快速地辦妥很多事情之中,不斷提升其能力,當中包括 #更像人類,#更人性化:「利用真人類,調教想成為人類的 #AI」之後,然後跟你說,不要愛上「它」….
〰️〰️〰️〰️
#ChatGPT-4o 是 OpenAI #聊天機器人 系列的最新版本。如你所料,這些企業對於用戶怎樣跟聊天機器人互動,產在了憂慮。
鑑於最新版本,可以表現出 #類似人類的行為和反應,這家 #人工智能 公司擔心「用戶會對聊天機器人產生感情」。
ChatGPT-4o 提供更 #快速的回應,甚至提供 #模擬人類語音 的 #新語音功能,這正是 OpenAI 所關注的。
為繼續完善其產品,新聊天機器人推出,旨在提供類似於與人交談的體驗。
他們注意到ChatGPT-4o用戶的一些使用模式。OpenAI稱,他們似乎低估了「#用戶和程式之間」可以建立的 #情感聯繫。他們強調了以下的調查結果:
在早期測試期間,包括紅隊和內部用戶測試,我們觀察到,用戶在使用的語言上表明,與模型建立了聯繫。例如,這包括表達共同紐帶的語言,例如「這是我們在一起的最後一天」。
雖然這些情況看起來是良性的,但他們表明,需要繼續調查這些影響,在較長時間內如何顯現。
除了獨立的學術和內部研究之外,更多樣化的使用者群體、對模型的需求和期望也更多樣化,將有助更具體地定義這個 #風險領域。
使用 #人工智能模型 的「#類人社交」可能會產生「#影響人與人之間互動」的外部性。例如,使用者可能會與人工智能「建立社交關係」,從而減少他們,對人際互動的渴求———
這可能有利於原本孤獨的個體,但亦有可能影響原本健康的關係。與模型的長期互動,可能會影響社會規範。例如:我們的模型是恭順的,允許用戶「隨時打斷」並拿起麥克風,這雖然是人工智能所期望的,但在人類世界的互動中,那是反規範的。
在許多情況下,培養對ChatGPT-4o的 #感情依賴 是有害的。
在以往,用戶不會存在任何幻想,因為聊天機器人的迭代使它們看起來「更像 #人工智能程式 而 #不是人」。現在,隨著程式 #功能提升,轉向提供 #更接近人類的體驗,「它」所說的任何內容,都可能「更容易被接受」而缺乏進一步的質疑。
透過這些模式的反應,OpenAI現在將「#監控」人們,如何與ChatGPT-4o #建立情感聯繫,並「#相應地調整其系統參數」。公司還會在開始時添加「#免責聲明(haha)」「#以免用戶愛上它….」因為它始終都只是一個人工智能程式….
https://www.instagram.com/reel/C7qFRKkNiZu/
https://wccftech.com/openai-asks-chatgpt-4o-users-not-to-develop-feelings/
➰➰➰➰➰➰➰➰➰
(Uncle|以馬)
支持我們的工作請訂閱我們
地球正義聯盟~資料館
➡️ https://t.me/EarthJusticeLeague_DataLibrary
➡️ https://patreon.com/EarthJusticeLeague
#支持資訊無窒礙
#拒絕人為資訊壟斷