#流氓人工智能
殺死人類操作員
#美國空軍(#USAF)在其 #AI驅動 的 #軍用無人機 在 #模擬測試 過程中不斷殺死其 #人類操作員..
一名 #美國空軍上校 #塔克漢密爾頓(#TuckerHamilton) 在上週於 #倫敦 舉行的一次會議上「一時不慎」說出了這樣的一件事後引起了轟動:
一個由 #人工智能 控制的軍用無人機 #飛行模擬「變得流氓起來」,其中一架負責摧毀敵方設施的 #人工智能無人機,不單止拒絕了人類操作員要求它中止任務的最終指令,更在這個 #模擬戰爭遊戲 中「將其人類操作員殺死」它殺死操作員,原因是人類操作員阻止它實現它的目標…
不久之後,#Hamilton 改口:「我說錯了!」我們從未進行過那個實驗…
他最初的言論是在5月23-24日,於倫敦舉行的 #皇家航空學會 之 #未來作戰空軍及太空軍能力峰會(Royal Aeronautical Society's Future Combat Air and Space Capabilities Summit in London)上發表的。當時,Hamilton告訴與會者,此事件表明了人工智能如何能夠制定「非常出乎意料的策略來實現其目標」人類不應過分依賴它。
他將自己的演講稱為「有如 #科幻驚悚片 中的情節」並表示,這足以證明關於軍隊使用 #AI 的「#倫理討論」的重要性。
Hamilton說:「如果你不打算談論 #人工智能道德倫理,那麼你就不能談論人工智能、#機器學習、#自主性 等範疇。」
在演講中,Hamilton講述了一項模擬測試,其中一架人工智能支持的無人機,其任務是識別和摧毀敵方的導彈電池,但最終的打擊決定權在人類操作員的手中。
「#AI系統」開始意識到,雖然他們確實識別了威脅,但有時人類操作員會告訴它不要殺死那個威脅「但它通過殺死那個威脅而得到了『自己的意義』!」
「而它竟然殺死了操作員。因為那操作員阻止它實現它自己想達到的目標。」
在倫敦峰會上,Hamilton表示,一些飛行員抵制這項技術,因為「它」在某些情況下「接管了飛機的控制權」。
Hamilton還告誡「不要過份依賴人工智能」他指出「耍詭計和欺騙」是多麼的容易。
他去年接受媒體訪問時說:「擁有AI不是一件好事,AI並非一種時尚,AI正在『永遠地改變我們的社會和我們的軍隊』。我們必須面對人工智能已經存在,並正在改變我們的社會和世界。」
「人工智能也很脆弱,也很容易被欺騙及被操縱。我們需要開發方法使AI更加強健,並更加了解 #軟件代碼 為何會做出某些決定~我們稱之為 #AI可解釋性。」
隨著Hamilton的言論火速傳播後,空軍迅速否認有進行過任何此類的模擬。
https://amp.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test
https://www.dailymail.co.uk/news/article-12151635/amp/AI-controlled-military-drone-KILLS-human-operator-simulated-test.html
➰➰➰➰➰➰➰➰➰
(Robert|以馬)
地球正義聯盟~資料館
https://t.me/EarthJusticeLeague_DataLibrary
地球正義聯盟
https://t.me/joinchat/fNNUUkcLo2gzMThk
殺死人類操作員
#美國空軍(#USAF)在其 #AI驅動 的 #軍用無人機 在 #模擬測試 過程中不斷殺死其 #人類操作員..
一名 #美國空軍上校 #塔克漢密爾頓(#TuckerHamilton) 在上週於 #倫敦 舉行的一次會議上「一時不慎」說出了這樣的一件事後引起了轟動:
一個由 #人工智能 控制的軍用無人機 #飛行模擬「變得流氓起來」,其中一架負責摧毀敵方設施的 #人工智能無人機,不單止拒絕了人類操作員要求它中止任務的最終指令,更在這個 #模擬戰爭遊戲 中「將其人類操作員殺死」它殺死操作員,原因是人類操作員阻止它實現它的目標…
不久之後,#Hamilton 改口:「我說錯了!」我們從未進行過那個實驗…
他最初的言論是在5月23-24日,於倫敦舉行的 #皇家航空學會 之 #未來作戰空軍及太空軍能力峰會(Royal Aeronautical Society's Future Combat Air and Space Capabilities Summit in London)上發表的。當時,Hamilton告訴與會者,此事件表明了人工智能如何能夠制定「非常出乎意料的策略來實現其目標」人類不應過分依賴它。
他將自己的演講稱為「有如 #科幻驚悚片 中的情節」並表示,這足以證明關於軍隊使用 #AI 的「#倫理討論」的重要性。
Hamilton說:「如果你不打算談論 #人工智能道德倫理,那麼你就不能談論人工智能、#機器學習、#自主性 等範疇。」
在演講中,Hamilton講述了一項模擬測試,其中一架人工智能支持的無人機,其任務是識別和摧毀敵方的導彈電池,但最終的打擊決定權在人類操作員的手中。
「#AI系統」開始意識到,雖然他們確實識別了威脅,但有時人類操作員會告訴它不要殺死那個威脅「但它通過殺死那個威脅而得到了『自己的意義』!」
「而它竟然殺死了操作員。因為那操作員阻止它實現它自己想達到的目標。」
在倫敦峰會上,Hamilton表示,一些飛行員抵制這項技術,因為「它」在某些情況下「接管了飛機的控制權」。
Hamilton還告誡「不要過份依賴人工智能」他指出「耍詭計和欺騙」是多麼的容易。
他去年接受媒體訪問時說:「擁有AI不是一件好事,AI並非一種時尚,AI正在『永遠地改變我們的社會和我們的軍隊』。我們必須面對人工智能已經存在,並正在改變我們的社會和世界。」
「人工智能也很脆弱,也很容易被欺騙及被操縱。我們需要開發方法使AI更加強健,並更加了解 #軟件代碼 為何會做出某些決定~我們稱之為 #AI可解釋性。」
隨著Hamilton的言論火速傳播後,空軍迅速否認有進行過任何此類的模擬。
https://amp.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test
https://www.dailymail.co.uk/news/article-12151635/amp/AI-controlled-military-drone-KILLS-human-operator-simulated-test.html
➰➰➰➰➰➰➰➰➰
(Robert|以馬)
地球正義聯盟~資料館
https://t.me/EarthJusticeLeague_DataLibrary
地球正義聯盟
https://t.me/joinchat/fNNUUkcLo2gzMThk