圖靈三巨頭激戰持續升級!吳恩達痛批美國AI禁令扼殺開源,馬斯克都下場了
新智元報道
編輯:編輯部
【新智元導讀】連續多日的AI末日論大佬口水戰,炮火還在持續升級。吳恩達、LeCun和Hinton、Bengio分站兩隊,集中開火當面對噴,可謂盛況空前。
關於AI風險監管的大佬論戰,還在不斷升級。整個晉西北已經亂成一鍋粥了!
而美國政府剛剛發佈的關於人工智能系統的首個法規,也正是導火索之一。
圖靈三巨頭關於AI監管必要性的大混戰不斷升級中,還引來了吳恩達的下場。
上一次看到幾大巨頭紛紛正面對峙的盛況,還是在上一次!
受大雾影响,北京公交3条线路采取停驶等措施
相對Hinton、Bengio等人呼籲加強對AI技術監管,否則可能引發危險的「AI末日論」,LeCun和吳恩達堅決站在另一邊——
券商风控指标体系再完善:支持优质券商适度拓展资本空间
現在,各位支持AI末日論的大佬們,已經被劃分派別了:
【Daily Podcast】英國BBC主播性醜聞風暴/俄烏戰爭滿500天:烏軍反攻緩慢推進、加入北約仍受阻
馬斯克屬於救世主情結;Hinton被劃爲世界級的怪人;Bengio則是無可救藥的天真理想主義者。
Sam Altman獲得的評語是:對AI風險表現出認真的態度,是推銷的其中一環。
LeCun轉發了華盛頓大學計算機教授Domingos的這個帖子,評論道:我需要懺悔——我不厚道地笑了。
白宮發佈AI監管法規,引馬斯克驚呼
美國最近新頒佈的AI法規規定,對美國國家安全、經濟、公共衛生或安全構成風險的AI系統開發商在向公衆發佈前,需要與美國政府分享安全測試結果。
符合以下條件的模型,都要受到監管——
初創公司Playground的創始人Suhail Doshi把這些標準高亮出來,評論道:終有一天,我們會後悔對自己做了這樣的事。
這條推文獲得了LeCun的轉發,甚至馬斯克都在下面留言——的確有可能。
【经纬晚班车】中注协就防范“或有收费”风险约谈会计师事务所;美丽生态及控股股东被立案
Suhail總結道,美國政府對監管和報告要求的起點是——
大家都對這些閾值表示疑惑:太蠢了吧,這不會讓算法效率的提高陷入困境嗎?
有人發現了華點——白宮知道什麼是浮點運算,什麼是10^26嗎?是誰在向他們提供信息,誰在幕後監管?
保利置业:因工作调配安排 王健辞任总经理及执行董事
Hinton和吳恩達正式開嗆
AI末日論的口水戰,依舊在持續升級。
净值化时代稳健低波何处寻?这家大行祭出“优选公募理财指数”,资产配置指数已成机构必争之地
Hinton直接發推,點名吳恩達——
「吳恩達聲稱,AI末日論是一個大型科技公司的陰謀。可是和這個陰謀論相悖的是,我離開了谷歌,就是爲了自由地談論生存威脅。」
天津北辰卖吉利V6E纯电动货车销售电话
吳恩達則回懟道:我沒說這是一個陰謀。
同時,吳恩達還發表了一篇長文,表示自己對AI最大的擔憂是,如果AI末日論被過度炒作,技術遊說者就會促成更多壓制開源、壓制創新的法規被制定出來。
文章地址:https://www.deeplearning.ai/the-batch/issue-220/
在這篇長文下,Hinton立馬趕來留言——
「所以,如果AI不受到嚴格監管,你對在未來30年內導致人類滅絕的可能性的最高估計是多少?如果你是一個真正的貝葉斯主義者,你一定能給出一個數字。我目前的估計是0.1。 我懷疑LeCun是<0.01。」
美国10月失业率为3.9% 创2022年1月以来最高水平
有許多人表示,Hinton曾在2016年就預言,DL將在5年內完全取代放射科醫生。
實際上,工作市場對於放射科醫生需求量愈來愈大。
對此,Hinton承認自己預測錯了,但是AI已經在幾種放射圖像分析上媲美醫生了。
看起來在幾年內它就能常規地提供第二診斷意見,再過10年,它提供的第二診斷意見甚至會比人類醫生的診斷更好。
LeCun在推文下評論:
上陵牧业补发终止上市辅导公告
LeCun「迎戰」Hinton
另一邊,Hinton和LeCun也吵起來了。
Round 1,LeCun提問——
Hinton反諷道,讓我們把核武器也開源了,讓它們更安全。好人(我們)永遠比壞人(他們)擁有更大的核武器,所以一切都應該沒問題。
Round 2,LeCun表示,「好吧,這也算是『相互保證毀滅』這一理論背後的基本思想,不過算了吧。人工智能的目的是讓人類變得更聰明,而不是摧毀整個城市。我看不出這個比喻有任何意義。」
站隊Hinton
對此,支持Hiton的人認爲,AI雖然還沒有到達毀天滅地程度,但是所有公司真能做到開源嗎?AI難道就沒有扼殺人類創新力嗎?
作爲代表之一,馬庫斯表示,吳恩達在描述這件事的時候筆調太過寬泛。
其他網友也表示,AI本應幫助人類發現真理,而不是掩蓋真相、讓人成爲奴隸。
充分休息保护好双脚 5个技巧帮助跑者提速
然而,現在AI卻被用來:
甚至,「AI末日派」已經發起了「#BelieveHinton」的話題,並開啓了示威遊行。
搭建中国与世界的“绿色桥梁” 第一届世界林木业大会即将开幕
站隊LeCun
雙贏彩第112263期開獎
You.com的首席執行官Richard Socher表示,LLM和核武器的區別在於,如果你不喜歡LLM的輸出,你完全可以不關注它,但如果核彈落在你身上,你就很難忽視它了……這種區別,足以使這種類比站不住腳,不是嗎?
台南「最美地標樹」恐被砍!民眾不捨請命保留 南市水利局回應了
Perplexity AI的首席執行官稱,Hinton可能患有阿爾茨海默症,但仍不影響他在深度學習領域「AI之父」的聲譽。
不過,這條推文隨後就被他刪除了,並對Hinton表達歉意。
雷克萨斯LX600高颜值高性能让利十万
AI平臺Metaspectral的首席執行官好奇問道,「Hinton,你究竟在谷歌看到了什麼,讓你如此驚恐?我只是想了解事情的來龍去脈。」
我個人在站在LeCun這邊——我訓練LLM並開源代碼。我的一些模型甚至在MMLU和其他一些測試中擊敗了GPT-3.5。
除此之外,還有AI圈沒有站隊的大佬們,也對Hinton等人宣傳AI危險的觀點提出異議。
馬毅教授此前曾表示,請停止傳播關於當前AI有多麼危險或神秘的錯誤信息了。我們已經知道,當前的技術相當原始和機械,從根本上說是不完整和有侷限,遠談不上危險。大多數恐懼源自無知。
美国大牧场
LeCun:幸好及時開源了 vs 馬庫斯:Meta很危險
基金四季报个股变化一览
關於開源的問題,LeCun非常自豪地轉發了一名網友的評論——
我終於意識到,LeCun團隊讓Llama 2開源是多麼重要!
运费下跌+需求疲弱 航运龙头马士基挥刀大砍万人
LeCun欣慰地解釋道:業內對Llama 1(以及Meta之前的所有開源AI包,如PyTorch、DINO、SAM、NLLB、wav2vec等)的興趣激增,讓Meta領導層相信Llama-2開源的好處會遠大於風險,並且讓AI格局變得更好。
馬庫斯則開始嗆起了小扎。
「我理解人們爲什麼會對開源AI持有不同看法。但我不理解大家覺得把人類的未來放在一個擁有巨大經濟利益的億萬富翁手中,就是一個好主意。現在事情就在朝這個方向發展。」
他甚至發起了投票——關於AI風險的重大決定應該由誰做出?
馬庫斯在評論中解釋道,自己是擔心Llama以某種災難性的方式被濫用。
女留学生在日发文宣扬港独遭判囚2个月 港法官:阻吓性刑罚
很快就有網友嗆起他來:「所以Meta要開源,這樣Llama就掌握在我們手中,而不是他手中了,就像Linux一樣。」
26歲男簽賭網路博弈欠310萬被押走 爸媽急死…蘆洲警2小時救出人質
別的網友也表示他過慮了,現在已經有多個開源模型,小扎本人也無法阻止他人做出更好的開源模型。甚至一家小初創公司的Mistral,已經獲得比Llama更好的結果。
Bengio:我參與創造的AI未來,讓我夜不能寐
這次大佬口水戰中,雖沒有Bengio本人的發言,但他曾多次公開表示自己對AI風險的擔憂,與Hinton意見一致。
瑞莎母女神基因!大女儿感应「妈肚中有Baby」喊话妹妹乖
就在前幾天,他本人發表了一篇文章「我參與創造的AI未來,讓我夜不能寐」,自述對技術發展前景的焦慮。
學生下課10分鐘被剝奪引議 中國教育部下令糾正
文章地址:https://www.theglobeandmail.com/opinion/article-the-future-of-artificial-intelligence-a-future-i-helped-create-keeps/
今彩539第112263期 頭獎1注中獎
大約十年前,深度學習開始被廣泛應用,AI產業獲得了巨大投資。
汇聚中德智慧 打造绿色发展可持续目标
2019年,當與Geoffrey Hinton和Yann LeCun一起獲得圖靈獎時,Bengio甚至對AI爲世界帶來的巨大進步和創新感到自豪、樂觀和興奮。
独/《富都青年》金鸡奖夺年度期待华语电影 吴慷仁喜遇惠英红开心介绍弟弟认识
但是,最近看到ChatGPT等大型語言模型的進步,讓他意識到沒有限制的AI發展,會帶來巨大的風險。
他預測到,達到人類水平級別的AI可能在未來幾年,或幾十年內實現,但社會還沒有準備好應對其帶來的影響。
入殓师王刚:用3D打印技术重塑遗容
而現在,我們需要將重點放在避免AI的潛在危害上,比如強大的AI可能被利用進行虛假信息、網絡攻擊、生化武器設計等等。
另外,Bengio還呼籲各國政府應對AI帶來的威脅採取干預措施。
俄羅斯擔心與西方「大戰」 將量產米格-35戰機
他希望,各國能共同努力,在發展AI的同時保障人權和社會利益。
吳恩達:美國政府對AI的監管完全扭曲了
大陆商务部将提升跨境贸易水平
對於美國政府的新AI法規,吳恩達痛心疾首地表示:白宮對於《國防生產法》的使用(用於戰爭或國家緊急狀態),已經從安全的角度完全扭曲AI的作用!
在他看來,雖然白宮的命令目前還沒有扼殺初創公司和開源,但已經有這個苗頭了。
比如條例中這句「開發任何對國家安全構成嚴重風險的基礎模型的公司」。
女子将首团集体「起乩」 脸书发声明「请大家勿造谣」
他表示,AI就如同電力和加密一樣,某種意義上是屬於雙重用途,既可以民用,也可以用於軍事目的。但把民用AI和軍用AI安全混爲一談,完全是錯誤的。
10月百城新房价格仍在探底 三四线城市持续承压
他認爲,根據模型訓練的計算閾值設置報告要求,也是錯誤的。這會扼殺開源和創新:
(i)隨着AI的發展,越來越多的參與者(包括沒有大科技公司合規能力的小公司)都會抵達這個門檻。
(ii) 隨着時間推移,政府的報告要求會變得越來越繁重,就像稅法一樣。
韩网热门/《I AM》作词家初次透露IVE张员瑛的「超狂习惯」
ユメへのトビラの开きかた
在吳恩達看來,監管AI的正確位置,是在應用層,比如覈保軟件、醫療應用、自動駕駛、聊天應用等AI應用。 但是,給基礎模型開發增加負擔,會減緩AI的進步。
髮長文呼籲
在最新的博客中,吳恩達表示,目前對於AI毀滅人類的討論不僅很模糊,而且結論也只是「有可能發生」。
我們無法證明AI不會導致人類滅絕,就像無法證明從地球發射的無線電波不會導致外星人找到並消滅我們一樣。
有些人可能的確是在爲AI擔憂,但不可否認的是,很多人的目的就是「錢」:
上海金山区征收集体土地房屋补偿实施办法印发
1. 個人可以博得關注,從而賺取演講費或其他收入
文班亚马拥抱杜兰特
2. 組織可以籌集資金,來對抗他們自己製造的幽靈
3. 立法者可以通過對科技公司採取強硬措施,來獲得競選捐款
誠然,AI遠非完美,爲了讓它變得更安全、更負責任,我們還有很多工作要做。
23款宝马X7全新标配88万起售
但AI已經爲人類帶來了巨大的利益,而且未來還會有更多。
現在我們要做的,就是確保未經證實的恐懼不會阻礙這一進步。
科技巨頭安全評級,Meta最低
有趣的是,前段時間,英國的人工智能學者對全球科技公司的「AI安全最佳實踐」進行了評級。
机票均价较疫前涨5成 长荣航认了:明年持续高票价
結果顯示,Meta評級最低,僅有48%。而Anthropic是這些公司中得分最高的。
對於Meta評分最低的原因,還是在於「開源」了許多模型。
北市大樓、公寓交易熱區公開 「內湖區」公寓一年交易371筆居冠
因爲開源模型的開發者們,通常對下游的使用監管很少。
从此 番茄炒鸡蛋或许成为“国菜”
但是,通過API發佈模型,爲前沿人工智能組織提供了更多手段來解決模型濫用問題。
參考資料:
诺兰不甩「史上最卖座」头衔 亲口反驳:《奥本海默》非传记电影
台中建國市場成「食材寶庫」!印度與俄羅斯人都來這挖寶
海淀区查处1起涉嫌违规组织学科培训问题