最新動態 BLOG

人工智能時代, 如何用法律按下“規製鍵”

作者:Daisy 时间:2017-11-15 13:09:02 標籤: 分類:

盡管存在隱憂,但隻要法律規製適當,具有諸多優勢的人工智能必定會給未來人類社會帶來無窮大的正能量。

▲2017年5月25日,AlphaGo Vs柯潔大賽(烏鎮)第二局。柯潔中盤認輸。

文 | 劉權

不久前,DeepMind公布了AlphaGo的最新升級版本AlphaGo Zero,並在《自然》雜誌上對其使用的相應技術做出詳解。DeepMind稱:“AlphaGo Zero與AlphaGo最大的不同是做到了真正的自我學習,經過3天的訓練,就以100:0的戰績完勝前代AlphaGo。”曾與AlphaGo有過交戰的柯潔也在第一時間做出回應,柯潔表示,“對於AlphaGo的自我進步來講……人類太多餘了”。

近些年來,人工智能持續升溫,成為全球科技研發的新熱點。Google、百度、阿裏巴巴、騰訊等不少國內外大型互聯網企業,都在加大資金與人才投入,試圖搶先占領人工智能技術的高地。在國家層麵,很多國家也紛紛出台政策支持人工智能的發展。如2014年歐盟發布了《歐盟機器人研發計劃》,2016年美國發布了《國家人工智能發展與研究戰略計劃》,2017年法國發布了《人工智能戰略》。我國政府也於今年7月發布了《新一代人工智能發展規劃》。

人工智能可能引發大量技術性失業

人工智能到底會讓人類的生活變得更美好,還是更糟糕?在人工智能突飛猛進的同時,也伴隨著質疑甚至抵製。

近日,英國著名物理學家史蒂芬·霍金表示,人工智能(AI)的崛起可能是“人類文明史上最糟事件”,除非人類社會能夠找到控製AI發展的方法,否則後果不堪設想。確實,人工智能如果運用不當,的確可能產生很多問題。

首先,人工智能可能引發大量技術性失業。創新工場董事長李開複在

2016WISE大會上表示,未來十年,世界上50%的工作都會被人工智能所取代。準確的數據可能無法預測,但人工智能必然會使很多職業消失,可能導致就業停滯,從而給社會帶來不穩定性因素。

第二,人工智能可能導致新的不平等。開發者可能存在種族偏見、性別歧視、特定疾病歧視,基於此而開發出來的人工智能就可能存在算法歧視,從而造成新的不平等。而且,由於人工智能導致的就業停滯和生產力提升,可能導致財富更加向少數人集中,從而也可能引發新的資本不平等。

第三,人工智能可能導致責任空白。對於人工智能產生的損害,如何承擔分配責任還遠未達成共識,開發者、生產者是否應當承擔瑕疵擔保責任,能否確立人工智能的法律人格地位還不得而知。當開發者、生產者由於破產等因素無法、無力擔責時,受損者可能無法得到賠償、補償。

第四,人工智能可能失控,成為後人類的敵人。開發者與使用者可能基於不正當目的開發、使用人工智能,從而可能給人類帶來毀滅性的災難,例如一些極端恐怖組織可能濫開發、濫利用人工智能。而且,目前人工智能已經具有深度學習能力,會不斷演化進步。霍金警告說,“由於受到緩慢的生物演化的限製,人類不能與AI競爭,最終將會被代替”。

對人工智能擔憂並非杞人憂天

由此可見,對人工智能的出現存在隱憂,是有一定道理的。很多新生事物剛出現時,往往不被廣泛接受甚至受到極力抵製。就如同百年前的“車馬大戰”,汽車剛產生時就受到了馬車行業的大力抵製,因為汽車嚴重影響到了馬車夫、馬車生產商、馬廄管理員、馬糞清理工等許多人的生計。但是,進步的科技終將無法阻擋,汽車最終取代了馬車。

人工智能必將給未來人類社會帶來翻天覆地的變化。但對人工智能的諸多擔憂並非杞人憂天,如果沒有法律的有效規範,人工智能不僅不可能成為人類的福音,反而還可能成為人類的喪鍾。然而,也不能因噎廢食,因為人工智能可能存在隱患,就全麵禁止或不當限製其發展。相反,應當積極運用法律,對人工智能進行適度有效的規製。

規製人工智能就是要規製人的智能

人是人工智能的總開關,所以規製人工智能首先需要規製人的智能,需要對人工智能的開發者進行規製。開發者在設計人工智能時,應當以人為本,以有利於社會福利最大化而非利潤最大化為理念,遵守基本的社會倫理道德,消除各種歧視觀念,遵守平等原則。禁止基於不正當目的開發人工智能。開發者應當審慎設計相關代碼程序,如果某項人工智能所促進的社會公共利益,與其所造成的損害明顯不成比例,違反比例原則,或者可能失控,就應當及時放棄。

其次,應當對人工智能的銷售者與使用者進行規製。銷售者應當建立並執行人工智能產品進貨檢查驗收製度,驗明人工智能產品合格證明和其他標誌,禁止銷售不合格的人工智能產品,不得偽造或者冒用認證標誌等質量標誌。使用者應當合理利用人工智能,不得損害國家、社會及他人合法權益,法律應當合理設定相應的使用條件與標準。

第三,明確人工智能致損的責任分擔機製。如果開發者在設計時存在故意或重大過失,導致損害發生,則應由開發者承擔責任。如果由於開發者當時的認知局限,沒有預見到未來發生的狀況,導致損害發生,開發者也應當承擔責任,即瑕疵擔保責任,因為開發者有所獲益,就應當承擔相應的風險,而且如此更能促使開發者審慎地設計相應的代碼程序。在索賠方式上,使用者、受害者可以直接找開發者索賠,也可以找銷售者索賠。如果銷售者與使用者存在過錯,則應承擔相應的責任。此外,應當逐步建立完善的人工智能產品保險製度。

技術中立不代表可以脫離法治

科技需要在法律的軌道上發展,技術中立並不表明技術可以脫離法治。盡管存在隱憂,但隻要法律規製適當,具有諸多優勢的人工智能必定會給未來人類社會帶來無窮大的正能量。

因此,應當對人工智能進行適度有效的規製,及時立、改、廢相關法律製度。我國國務院在《新一代人工智能發展規劃》中提出,“建立人工智能法律法規、倫理規範和政策體係,形成人工智能安全評估和管控能力”。在規製人工智能時,政府應當處理好科技創新與法律規製的關係,按照“鼓勵創新、包容審慎”的原則,確立事前備案、事後懲處的機製,使法律既能有效保障公民權利,又能支持促進科技創新。

□劉權(中央財經大學法學院副教授)

編輯:溫文


本文来源:http://mini.eastday.com/mobile/171115021430959.html

Copyright © 2016 -Hilarious-Delicacy Moment- All Rights Reserved.