地球正義聯盟~資料館
8.83K subscribers
5.66K photos
4.49K videos
221 files
5.77K links
《生命影響生命》
活出意義。發出亮光

地球正義聯盟延伸的資料收藏館
地球正義聯盟~
https://t.me/joinchat/fNNUUkcLo2gzMThk
Download Telegram
#流氓人工智能
殺死人類操作員
#美國空軍(#USAF)在其 #AI驅動#軍用無人機#模擬測試 過程中不斷殺死其 #人類操作員..

一名 #美國空軍上校 #塔克漢密爾頓(#TuckerHamilton) 在上週於 #倫敦 舉行的一次會議上「一時不慎」說出了這樣的一件事後引起了轟動:

一個由 #人工智能 控制的軍用無人機 #飛行模擬「變得流氓起來」,其中一架負責摧毀敵方設施的 #人工智能無人機,不單止拒絕了人類操作員要求它中止任務的最終指令,更在這個 #模擬戰爭遊戲 中「將其人類操作員殺死」它殺死操作員,原因是人類操作員阻止它實現它的目標

不久之後,#Hamilton 改口:「我說錯了!」我們從未進行過那個實驗

他最初的言論是在523-24日,於倫敦舉行的 #皇家航空學會#未來作戰空軍及太空軍能力峰會(Royal Aeronautical Society's Future Combat Air and Space Capabilities Summit in London)上發表的。當時,Hamilton告訴與會者,此事件表明了人工智能如何能夠制定「非常出乎意料的策略來實現其目標」人類不應過分依賴它。 

他將自己的演講稱為「有如 #科幻驚悚片 中的情節」並表示,這足以證明關於軍隊使用 #AI 的「#倫理討論」的重要性。 

Hamilton說:「如果你不打算談論 #人工智能道德倫理,那麼你就不能談論人工智能、#機器學習#自主性 等範疇。」

在演講中,Hamilton講述了一項模擬測試,其中一架人工智能支持的無人機,其任務是識別和摧毀敵方的導彈電池,但最終的打擊決定權在人類操作員的手中。 

#AI系統」開始意識到,雖然他們確實識別了威脅,但有時人類操作員會告訴它不要殺死那個威脅「但它通過殺死那個威脅而得到了『自己的意義』!」
「而它竟然殺死了操作員。因為那操作員阻止它實現它自己想達到的目標。」

在倫敦峰會上,Hamilton表示,一些飛行員抵制這項技術,因為「它」在某些情況下「接管了飛機的控制權」。 

Hamilton還告誡「不要過份依賴人工智能」他指出耍詭計和欺騙」是多麼的容易。

他去年接受媒體訪問時說:「擁有AI不是一件好事,AI並非一種時尚,AI正在『永遠地改變我們的社會和我們的軍隊』。我們必須面對人工智能已經存在,並正在改變我們的社會和世界。」

「人工智能也很脆弱,也很容易被欺騙及被操縱。我們需要開發方法使AI更加強健,並更加了解 #軟件代碼 為何會做出某些決定~我們稱之為 #AI可解釋性。」

隨著Hamilton的言論火速傳播後,空軍迅速否認有進行過任何此類的模擬。

https://amp.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test

https://www.dailymail.co.uk/news/article-12151635/amp/AI-controlled-military-drone-KILLS-human-operator-simulated-test.html


(Robert|以馬)
地球正義聯盟~資料館
https://t.me/EarthJusticeLeague_DataLibrary
地球正義聯盟
https://t.me/joinchat/fNNUUkcLo2gzMThk
This media is not supported in your browser
VIEW IN TELEGRAM
#AI毀滅人類 的風險
堪比 #核戰爭
#ChatGPT之父」聯同
350
#AI專家聯署警告信

#ChatGPT4 3月面世。
(5
31)開發 #ChatGPT #OpenAI 創始人 #SamAltman 聯同350AI界別的權威聯署了一封「只有一句話的公開信」
指現在開發的AI技術或會「對人類未來的生存構成威脅

ChatGPT之父」Sam Altman與業界權威公開表示:「#AI滅絕人類 的風險與 #大流行 #核彈 相若,應當成為 #全球優先關注事項。」

包括Sam Altman在內,超過350名於AI行業工作的管理層、研究員及工程師等簽署了#CenterForAISafety 發表的公開信。

Center For AI Safety
為非牟利組織,其目標是透過研究 #降低AI對人類社會造成的風險#聯署公開信 的業界人仕表示「#AI有能力滅絕人類」應當以處理 #疫情大流行 及核彈的準則來處理這種社會風險。
 
自去年末OpenAI發佈 #ChatGPT 吹起一陣 #AI熱潮 後,AI業界不斷以「#軍備競賽」式來發展AI

「業界有聲音反映 "#GPT4" 在一般任務上已經能夠 "媲美人類" 甚至與人類相比更具競爭力。」

故此反對繼續在「不受控」的狀態下開發AI,以免AI在未來「未經選舉成為領袖」屆時「人類亦會失去對文明的控制」將對社會造成「覆水難收」的破壞。

AI
發展一日千里,但現時「尚未」有具體法例及 #針對AI的監管機構(!!)
這意味著,現時並無有效措施保證AI工具不會為人類帶來威脅。同時亦無法保證使用AI時的安全性。

於是Sam AltmanOpenAI2位高層聯同AI 業界巨擘便提出,應該建立類似「#監管核能 #國際原子能總署」般的 #國際性組織,以監管AI的發展和使用。Sam Altman同時呼籲AI業各方展開合作,並建議政府「#加強監管AI開發者」。

早於今年3月,#Tesla 行政總裁 #ElonMusk#Apple 聯合創始人 #StephenWozniak 等科技業界翹楚聯署了一封公開信,呼籲所有 #AI實驗室,應「暫停訓練比GPT-4更強大的 #AI系統」為期至少6個月。

〰️〰️〰️〰️
🔹ChatGPT將衝擊人類👇
https://t.me/EarthJusticeLeague_DataLibrary/9106

〰️〰️〰️〰️
🔹
實測GPT-4 新功能
詳細實試與GPT-3.5 對比
https://unwire.hk/2023/03/17/gpt4-on-poe-no-need-foreign-credit-card/fun-tech/amp/

🔹 ChatGPT
進化成
GPT-4有何特別?
https://www.hk01.com/數碼生活/879126/chatgpt進化成gpt-4有何特別-怎樣才能免費用-一文搞清8大疑問

〰️〰️〰️〰️
https://www.cmmedia.com.tw/home/articles/40387

https://unwire.hk/2023/05/31/sam-altman-signed-letter-ask-public-to-care-about-ai/fun-tech/amp/

https://twitter.com/Rainmaker1973/status/1664235136659992576

(Uncle字幕|以馬)
地球正義聯盟~資料館
https://t.me/EarthJusticeLeague_DataLibrary
地球正義聯盟
https://t.me/joinchat/fNNUUkcLo2gzMThk