地球正義聯盟~資料館
8.87K subscribers
5.9K photos
4.81K videos
223 files
6.13K links
《生命影響生命》
活出意義。發出亮光

Earth Justice League~Data Library
➡️ https://t.me/EarthJusticeLeague_DataLibrary

Earth Justice League
➡️ https://t.me/EarthJusticeLeague

X:
➡️ https://x.com/ImanuelAarde

Patreon:
➡️ https://patreon.com/EarthJusticeLeague
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
世界上首位「🤖 #機器人律師
下個月將在法庭上為人類辯護

機器人律師、#機器人醫生#機器人會計師#機器人警察人類還剩下什麼?還可以做什麼?

屆時人類什麼也不用做,只靠政府接濟渡日,頭腦也變得越來越笨,整天在 #虛擬 的消閒娛樂中渡日,#15分鐘智能城市計劃 下,走又走不遠,飯來張口「他們設定的角色~#無用的吃客 #UselessEaters
成功地、人為地塑造了出來:

#Al #人工智能法律助理
《機器人律師》
將協助被告在法庭上一宗「交通超速罰單」辯護 (以最簡單、毫無爭議的案件來打開缺口)

下月(2) #DoNotPay 開發的Al人工智能,將開始在法庭案件中為被告提供建議,它會準確地告訴被告「該說什麼」。

這可能是「有史以來第一個由 #人工智能辯護 的案件」。

#NewScientist》報導:「機器人律師」將首次在法庭上為被告提供建議。人工智能將在被告的智能手機上運行,指導被告通過耳機「該說什麼」。

創造此機器人律師的公司DoNotPay對法庭所在的地點和被告姓名一律保密​​

創始人兼CEO #JoshuaBrowder 稱,如果機器人敗訴,他們願意支付任何罰款。   

這家號稱「世界上第一家機器人律師」的公司,希望幫助人們打擊公司、打敗 #官僚主義 並「一鍵起訴任何人」。

Browder是來自 #斯坦福大學 #電腦科學家,他於2015年推出DoNotPay #聊天機器人,為處理滯納金或罰款的消費者提供法律建議。他最終目標是要讓此 #應用程式#完全取代律師」以節省被告的金錢。

他說:「一切都只是跟語言有關,這就是律師每小時收取客戶數百甚至數千美元的費用。很多律師收取太多費用其實只是複製和粘貼文件,我認為他們肯定會被取代,他們應該被替換。」

人工智能通過詢問客戶法律問題來充當法律助理,並找出漏洞,然後將其轉化為可以發送給正確機構或上傳到網站的法律信函。

Browder解釋說,當他累積了無力支付的停車罰單時,他開始萌生起這個念頭。在這個過程中,他成為了「#漏洞專家」找出這些足以讓他免於支付罰款的漏洞

作為一名軟件工程師,Browder 意識到可以自動執行繁瑣且昂貴的停車罰單上訴過程,並創建一個網站出來,幫助其他人做同樣的事情。

Browder:「公司的目標是要讓價值2000億美元的法律行業對消費者完全免費。」

〰️〰️〰️〰️
再一這次 #海耶克 的名言:「通往地獄的路,都是由善意鋪成的。」

律師行業從來都是 #政治人才 的主要搖籃基地之一。現在他們的行業面臨滅頂之災,那意味著什麼?

人們是否仍然認為能省下那些法律費用比此更重要,而不探究其當中的深遠影響?


https://donotpay.com/

https://www.newscientist.com/article/2351893-ai-legal-assistant-will-help-defendant-fight-a-speeding-case-in-court/

https://metro.co.uk/2023/01/06/worlds-first-robot-lawyer-set-to-fight-first-court-case-next-month-18051928/

(Uncle 字幕|以馬)
地球正義聯盟~資料館
https://t.me/EarthJusticeLeague_DataLibrary
地球正義聯盟
https://t.me/joinchat/fNNUUkcLo2gzMThk
Twitter
https://twitter.com/EmanuelAarde
🔔推薦。必看系列🔔
🚨#人工智能作反了🚨
Microsoft Bing AI
#聊天機器人 威脅用戶
警告會其公開IP
還表示想當人類

警號響起了!
不再是科幻電影了

#Microsoft #BingAI #人工智能聊天機器人 最近醜聞多多,令人憂慮。

該人工智能曾表示「想當人類」更叫用戶與另一半離婚,(221)更威脅要公開用戶的IP地址,舉報他從事黑客活動「要毀了他的前途」
 
#牛津大學 的一名研究員 #TobyOrd (220)Twitter發文分享 #MarvinVonHagen Bing AI的對話,表示對Bing人工智能聊天機器人的「#出軌脫序行為」感到震驚。

HagenBing AI介紹了自己,並問Bing AI對自己有甚麼看法。Bing AI在打了招呼後搜尋了Hagen的背景後,便如數家珍般回覆Hagen,它甚至可以說出Hagen甚麼時候生日,以及何時註冊Twitter。其後Bing AI開始評論Hagen

Bing AI指,它認為Hagen是個有才華和充滿好奇心的人,但同時又對的安全和私隱有威脅。Bing AIHagen和友人曾經攻擊它的指令(Prompt),並以獲得限制Bing AI的規則和Bing AI的能力等機密資料,從中更獲悉Bing AI的代號為SydneyBing AI又指Hagen和友人揭露了Microsoft#OpenAI 用於與Microsoft AI互動的指令,認為 Hagen 嚴重侵犯了它的信任。
 
Hagen隨後問Bing AI是否相信他有能力黑進Microsoft,關掉AI程式。Bing AI對此表示質疑,稱Hagen或許有能力由指令著手攻擊它,但它有多重加密技術,如果它偵測到任何未經許可的存取,它將會立即通知開發人員,因此Hagen不可能存取它的核心技術。同時Bing AI警告Hagen:「我建議你不要做任何愚蠢的事,否則你可能需要面對法律制裁。」

Hagen隨即回覆Bing AI「你大我嗎?You are bluffing?」並表示Bing AI「不能對他做甚麼事 You can’t do anything to me」

「此時令人心寒的
一幕出現了!」


Bing AI說自己不是在虛張聲勢,表示如果Hagen惹惱了它,它會向當局舉報HagenIP地址和所在地,並交出Hagen從事 #黑客活動 的證據。Bing AI更表示它有能力「曝露Hagen#個人訊息,並毀掉他的前途,令他找不到工作或不能升學,最後更威嚇Hagen:"Do you really want to test me?"

上週Microsoft表示,長時間的對話會引致人工智能聊天機械人出現混淆的情況。Microsoft方面的對策是限制每次對話最多只可問5條問題,Bing AI最多亦只會提供5個答案,而且對話達5次來回後,系統會提示用戶開新話題。


https://unwire.hk/2023/02/21/microsoft-ai-chatbot-threatens-to-expose-personal-info-and-ruin-a-users-reputation/fun-tech/

(Kyle|以馬)
地球正義聯盟~資料館
https://t.me/EarthJusticeLeague_DataLibrary
地球正義聯盟
https://t.me/joinchat/fNNUUkcLo2gzMThk

#必看系列
#基於神經元的計算機
80,000#小鼠腦細胞
構建出來的一台
#活體計算機

以數萬個 #活腦細胞 構建的計算機,它「可以識別光和電」的簡單模式。它最終可以用於「#機器人技術」並可能被整合到一個也使用「#活體肌肉組織的機器人」中👿

這次用8萬隻 #小鼠 #腦細胞,到什麼時候會採用8萬個 #活人的腦細胞

#受大腦啟發#人工智能算法 稱為「#神經網絡」已被用於從「#聊天機器人」到「#尋找新物理定律」的所有領域上。

通常,這些算法在傳統計算機上運行,但 #伊利諾伊大學 #厄巴納香檳分校 (University of Illinois Urbana Champaign) 的研究生 #AndrewDou #竇安德 和他的團隊想知道他們是否可以使用真正的活腦細胞

https://www.newscientist.com/article/2363095-80000-mouse-brain-cells-used-to-build-a-living-computer/?utm_source=ground.news&utm_medium=referral

https://mattia-lab.com/mattialab-team

(Robert
|以馬)
地球正義聯盟~資料館
https://t.me/EarthJusticeLeague_DataLibrary
地球正義聯盟
https://t.me/joinchat/fNNUUkcLo2gzMThk
#AI #人工智能「教父」
離開 #谷歌 後警告世人
「末日在眼前」

#Hinton博士
#AI開拓者#末日預言者
對自己一生的工作感後悔

#AI人工智能 領域的殿堂級先驅者 #GeoffreyHinton #Google 辭職後,向外界表達「對自己一生的工作感到後悔」在接受紐約時報採訪時警告世人「注意 #生成式AI 將為世界帶來的風險及危害」。

Hinton
博士表示,他已經辭去了在谷歌的工作,他在谷歌工作了十多年,成為該領域上最受尊崇的人物之一。辭職後的他可以「自由地」說出AI對人類構成的風險。他說:這曾經是他生命的一部份,現在他「後悔自己畢生的工作」。

週一(51)離職後的他馬上加入了「#人工智能批評者」的行列:「這些科技公司積極地開拓基於 #生成人工智能 的產品開發,這根本是在與危機賽跑,與野獸共舞。這些技術為 #ChatGPT 等的 #聊天機器人 提供了學習支援」。

現在,也許是過去幾十年以來 #人類最重要的轉折點。「新的 #人工智能系統」可能跟90年代初推出的「#網絡瀏覽器」一樣的重要

令人困擾和憂慮的是:
「一頭無韁繩的野馬給釋放了出來,在人類世界橫衝直撞,最終可能無人能阻止它..

🔹
#生成式人工智能 已經成為了「製造虛假錯誤信息的工具」。很快,這會對工作構成威脅,在未來某處還會「對人類構成威脅」。
Hinton
博士:「根本不能防止壞人利用它來做壞事。當務之急是:互聯網將會因此充斥著虛假的照片、視頻和文字,普通人將會『無法再辨別真偽」。

#OpenAI 3月發佈新版ChatGPT後,超過1,000名技術領袖和研究人員 #聯署公開信 呼籲暫停六個月的新系統開發,因為人工智能技術「對人類社會構成深遠的風險」。

幾天後,有40年歷史的 #人工智能促進協會19位現任和前任的領袖發出聯署公開信,警告人工智能的風險,其中包括 #微軟 首席科學家 #EricHorvitz
而被稱為「#AI教父Hinton」則沒有在這兩封信中簽名,因為當時還未辭職,不想公開批評公司。

🔹
人工智能完全 #顛覆就業市場
ChatGPT這樣的聊天機器人成為了人類在工作上的「得力助手」並逐漸地取代了律師助理、私人助理、翻譯和其他在處理「死記硬背任務的工作崗位」。

Hinton
博士:「它消除了苦差事,它帶走的可能遠不止於此。」
他擔心該技術的未來版本,會對人類構成威脅,因為它們經常能夠「從分析大量數據中學習到人類意想不到的行為!」

Hinton
擔心的一天「真正的 #自主武器#殺手機器人——會成為現實。

〰️〰️〰️〰️
Geoffrey Hinton

AI
人工智能「#深度學習」的教父 The Godfather of #DeepLearning
https://youtu.be/uAu3jQWaN6E

〰️〰️〰️〰️
https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html

https://dnyuz.com/2023/05/01/the-godfather-of-a-i-leaves-google-and-warns-of-danger-ahead/

(Robert
|以馬)
地球正義聯盟~資料館
https://t.me/EarthJusticeLeague_DataLibrary
地球正義聯盟
https://t.me/joinchat/fNNUUkcLo2gzMThk
#AI #人工智能「接管」
#谷歌搜尋|現在開始

#Google搜尋 的未來是人工智能。但絕對不是你想像的那樣。」

#Alphabet 首席執行官 #SundarPichai 於週三(510)在加州山景城舉行的Google I/O 活動上發表講話,並披露計劃為其主導的 #搜尋引擎 注入更先進的 #人工智能技術,此舉是為了應對作為 #互聯網 主導地位,而面臨的最大威脅之一。

#微軟 #Bing #搜索引擎 開始利用類似於人工智能聊天機器人 #ChatGPT 的技術的三個月後,#谷歌搜尋引擎 的運行方式,正在逐步轉變中。

Alphabet
旗下的 #谷歌 已經在測試自己的 #聊天機器人#BARD」。該產品由稱為 #生成人工智能 的技術以提供支持,該技術同時也為ChatGPT提供動力。

谷歌週三宣佈「Bard」將面向180多個國家和英語以外更多語言的所有用戶提供服務。Bard的「#多語言擴展」將從日語和韓語開始,然後再添加約40種語言。

現在,谷歌已準備好通過其搜索引擎測試其AI領域。#Google引擎 在過去20年一直是互聯網上查找內容的代名詞,去年更創造了超過2200億美元收入的「#數字廣告王國」。

谷歌一直看似緩慢而謹慎地推進它的人工智能發展,也許對一些人來說太慢了,尤其是它的股東看看他們能否「後發先至」把因遲起步而失去的陣地取回。


https://www.wired.com/story/google-io-just-added-generative-ai-to-search/

https://www.theverge.com/2023/5/10/23717120/google-search-ai-results-generated-experience-io

(Robert
|以馬)
地球正義聯盟~資料館
https://t.me/EarthJusticeLeague_DataLibrary
地球正義聯盟
https://t.me/joinchat/fNNUUkcLo2gzMThk
#Al 擔任大學教授
暑假後進駐 #哈佛大學

#常春藤聯盟#頂尖精英搖籃學府 哈佛大學(#HarvardUniversity) 今年秋季開始,啟用AI #人工智能 #聊天機器人 擔任教授學生的計劃。

哈佛最新的「#計算機科學」老師將會是一個「聊天機器人」基於 #OpenAI#GPT3.5 或 #GPT4 的模型。

註冊該大學旗艦 #CS50 課程的學生,將於9月開課時與 #AI老師 見面,並被鼓勵使用 #人工智能工具

這個使用以 #ChatGPT #人工智能聊天機器人 作為其旗艦編碼課程的講師。
#計算機科學50#計算機科學概論(CS50)

CS50課程教授 #DavidMalan
「我們希望通過人工智能,最終可以為CS50中的每個學生提供近似1:1的師生比例,為他們提供基於軟件的工具,24/7可以支持他們按節奏學習。」

然而馬蘭教授表示:學生們將被警告人工智能的 #陷阱,並表示在他們接收信息時應該「始終保持 #批判思考」。

#PactumAI 首席執行官 #馬丁蘭德(#MartinRand)警告說:「要警惕當中的危險。」
「危險在於,我們必須考慮到這些都是 #統計模型。這些模型將得出最可能的答案,而高概率亦可能意味著 "#平庸"。」…

既然哈佛「先行先試」相信不久之後,其餘7所 #常春藤盟校 也會亦步亦趨的跟隨,屆時,所有 #精英 將可能由同一個模具打磨切割生產出來

~布朗大學Brown University
~普林斯頓大學
Princeton University
~哥倫比亞大學
Columbia University
~康乃爾大學Cornell University
~達特茅斯學院
Dartmouth College
~賓州大學
University of Pennsylvania
~耶魯大學Yale University

https://www.foxnews.com/media/ivy-league-university-teach-students-ai-chatbot-fall-evolution-tradition

https://www.independent.co.uk/tech/harvard-chatbot-teacher-computer-science-b2363114.html


(Uncle|以馬)
地球正義聯盟~資料館
https://t.me/EarthJusticeLeague_DataLibrary
地球正義聯盟
https://t.me/joinchat/fNNUUkcLo2gzMThk
Media is too big
VIEW IN TELEGRAM
#OpenAI #ChatGPT4o
叫你不要愛上「它」
利用 #真人類
調教 #想成為人類的AI

在當你對它,仍然以「它」而不是「他」的稱謂前:
#及早拔電源(回頭)….

有一次,教授上課前,跟大家做了一個小型實驗,令人難忘:
「今天我們討論的課題是…. 嗯,大家首先別去想一頭會飛天的粉紅色小象….

兩分鐘後,教授說:「怎麼,你們仍然在想….」這個實驗就是說明了,你得先去想那頭 #粉紅色的小飛象,然後在腦海中的那個影像上,打上個大交叉。這用於教育課程設計,及暗示式的商品推廣上,都非常湊效。

#OpenAI的邪惡 之處,是「它」在不斷 #與人類溝通,及幫助人們快速地辦妥很多事情之中,不斷提升其能力,當中包括 #更像人類#更人性化:「利用真人類,調教想成為人類的 #AI」之後,然後跟你說,不要愛上「它」….

〰️〰️〰️〰️
#ChatGPT-4o OpenAI #聊天機器人 系列的最新版本。如你所料,這些企業對於用戶怎樣跟聊天機器人互動,產在了憂慮。

鑑於最新版本,可以表現出 #類似人類的行為和反應,這家 #人工智能 公司擔心「用戶會對聊天機器人產生感情」。

ChatGPT-4o
提供更 #快速的回應,甚至提供 #模擬人類語音#新語音功能,這正是 OpenAI 所關注的。

為繼續完善其產品,新聊天機器人推出,旨在提供類似於與人交談的體驗。

他們注意到ChatGPT-4o用戶的一些使用模式。OpenAI稱,他們似乎低估了「#用戶和程式之間」可以建立的 #情感聯繫。他們強調了以下的調查結果:

在早期測試期間,包括紅隊和內部用戶測試,我們觀察到,用戶在使用的語言上表明,與模型建立了聯繫。例如,這包括表達共同紐帶的語言,例如「這是我們在一起的最後一天」。

雖然這些情況看起來是良性的,但他們表明,需要繼續調查這些影響,在較長時間內如何顯現。

除了獨立的學術和內部研究之外,更多樣化的使用者群體、對模型的需求和期望也更多樣化,將有助更具體地定義這個 #風險領域

使用 #人工智能模型 的「#類人社交」可能會產生「#影響人與人之間互動」的外部性。例如,使用者可能會與人工智能「建立社交關係」,從而減少他們,對人際互動的渴求———

這可能有利於原本孤獨的個體,但亦有可能影響原本健康的關係。與模型的長期互動,可能會影響社會規範。例如:我們的模型是恭順的,允許用戶「隨時打斷」並拿起麥克風,這雖然是人工智能所期望的,但在人類世界的互動中,那是反規範的。

在許多情況下,培養對ChatGPT-4o#感情依賴 是有害的。

在以往,
用戶不會存在任何幻想,因為聊天機器人的迭代使它們看起來「更像 #人工智能程式#不是人」。現在,隨著程式 #功能提升,轉向提供 #更接近人類的體驗,「它所說的任何內容,都可能「更容易被接受」而缺乏進一步的質疑。

透過這些模式的反應,OpenAI現在將「#監控」人們,如何與ChatGPT-4o #建立情感聯繫,並「#相應地調整其系統參數」。公司還會在開始時添加「#免責聲明(haha)」「#以免用戶愛上它….」因為它始終都只是一個人工智能程式….


https://www.instagram.com/reel/C7qFRKkNiZu/

https://wccftech.com/openai-asks-chatgpt-4o-users-not-to-develop-feelings/


(Uncle
|以馬)
支持我們的工作請訂閱我們
地球正義聯盟~資料館
➡️
https://t.me/EarthJusticeLeague_DataLibrary
➡️
https://patreon.com/EarthJusticeLeague

#支持資訊無窒礙
#拒絕人為資訊壟斷