2016-2022 All Rights Reserved.平安財經網.復制必究 聯(lián)系QQ 備案號:
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網 版權歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)
近期,谷歌科學家、神經網絡領域的“人工智能教父”杰弗里·辛頓(Geoffrey Hinton)發(fā)表言論,稱人工智能(AI)可能是對人類“更緊迫”的威脅,相較于氣候變化。雖然他為人工智能技術的發(fā)展奠定了基礎,但他已經離開了谷歌,因為他想完全自由地說出人工智能所帶來的危險。辛頓指出,如果機器獲得比人類更強的智能并控制地球,人工智能將對人類生存構成威脅。
辛頓的工作被認為對當代人工智能系統(tǒng)的發(fā)展至關重要。1986年,他與人合著了一篇開創(chuàng)性的論文《通過反向傳播誤差來學習表征》,這是人工智能技術基礎神經網絡發(fā)展的一個里程碑。2018年,他被授予圖靈獎,以表彰他的研究突破。
在周五的采訪中,辛頓表示,相較于氣候變化,人工智能的風險更加緊迫。他補充道,人類應對氣候變化,相對而言,更容易提出一些有效的應對策略。但對于人工智能的風險,你根本不知道如何下手。
雖然辛頓也擔心人工智能的威脅,但他不同意暫停研究。辛頓認為,這完全不現(xiàn)實。他認為人工智能技術存在巨大的風險,而且已經非常接近了,我們現(xiàn)在應該非常努力地工作,投入大量資源,找出我們能做些什么。
今年4月份,包括馬斯克在內的許多科技產業(yè)人士聯(lián)署了一封公開信,呼吁所有相關實驗室立即暫停訓練人工智能系統(tǒng)至少6個月。美國總統(tǒng)拜登也對此表態(tài),警告人工智能技術對公共安全、隱私和民主構成的危險,同時表示對其監(jiān)管的權力有限。副總統(tǒng)卡馬拉·哈里斯稱,企業(yè)有責任遵守現(xiàn)有的法律,以及“倫理、道德和法律責任,以確保其產品的安全和保障”。
辛頓指出,這完全不現(xiàn)實,我認為人工智能技術存在巨大的風險,而且已經非常接近了,我們現(xiàn)在應該非常努力地工作,投入大量資源,找出我們能做些什么。
此前一天,美國總統(tǒng)拜登會見了領先的人工智能公司谷歌、微軟、OpenAI和Anthropic的首席執(zhí)行官。拜登政府警告人工智能技術對公共安全、隱私和民主構成的危險,同時表示對其監(jiān)管的權力有限。
副總統(tǒng)卡馬拉·哈里斯稱,這項技術“有可能極大地增加對安全和安保的威脅,侵犯公民權利和隱私,并侵蝕公眾對民主的信任和信心”。她補充說,企業(yè)有責任遵守現(xiàn)有的法律,以及“倫理、道德和法律責任,以確保其產品的安全和保障”。
辛頓表示:“科技行業(yè)的領導人最了解人工智能的風險,政府也必須參與進來。它影響到我們所有人,所以我們都必須考慮如何應對它。”
2016-2022 All Rights Reserved.平安財經網.復制必究 聯(lián)系QQ 備案號:
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網 版權歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)