日本不卡在线一区二区三区视频,伊人久久精品午夜,日韩欧美一级大片,中文字幕在线成人免费看,国产性大片免费播放网站,亚洲伊人色欲综合网,一个色综合久久

當前位置: 深圳新聞網(wǎng)首頁>行業(yè)資訊頻道>科技>本日精選>

超越“機器人三定律”人工智能期待新倫理

超越“機器人三定律”人工智能期待新倫理

分享
人工智能朗讀:

對于科幻作家阿西莫夫上世紀設計、防止機器人失控的著名“機器人三定律”,業(yè)界早已認識到其局限性。

新華社北京3月18日電 人工智能的倫理原則近來備受關注。聯(lián)合國教科文組織總干事阿祖萊在3月初舉行的“推動人性化人工智能全球會議”上就表示,目前還沒有適用于所有人工智能開發(fā)和應用的國際倫理規(guī)范框架。

對于科幻作家阿西莫夫上世紀設計、防止機器人失控的著名“機器人三定律”,業(yè)界早已認識到其局限性。“機器人三定律,歷史上看貢獻很大,但現(xiàn)在停留在三定律上,已遠遠不夠。”專家近日接受記者采訪時這樣說。

新局面,呼吁倫理新原則

科學家先前一直希望以最簡單的辦法,確保以機器人為代表的人工智能不給人類帶來任何威脅?!皺C器人三定律”規(guī)定:機器人不能傷害人類;它們必須服從于人類;它們必須保護自己。后來還加入了“第零定律”:機器人不得傷害人類整體,不得因不作為使人類整體受到傷害。

“機器人不能傷害人,但機器人會以什么方式傷害到人?這種傷害有多大?傷害可能以什么形式出現(xiàn)?什么時候可能發(fā)生?怎樣避免?這些問題在今天要么需要細化,要么需要有更具體的原則來防范,而不能停留在七八十年前的認識水平?!敝袊斯ぶ悄軐W會AI倫理專業(yè)委員會負責人、中國科學技術大學機器人實驗室主任陳小平教授說。

全球知名的艾倫人工智能研究所首席執(zhí)行官埃齊奧尼兩年前就在一次演講中呼吁更新“機器人三定律”。他還提出,人工智能系統(tǒng)必須遵守適用于其操作人員的所有法律條文;人工智能系統(tǒng)必須明確表示它不是人類;未經(jīng)信息來源明確許可,人工智能系統(tǒng)不能保留或披露機密信息等。在當時,這些頗有新意的意見引發(fā)業(yè)界熱議。

美國人工智能倫理領域知名學者、麻省理工學院教授泰格馬克近年推廣的“AI有益運動”提出,需有新倫理原則確保未來人工智能和人類的目標一致。這項活動曾獲得霍金等眾多全球頂級科學家以及知名IT企業(yè)支持。

“人工智能在乘數(shù)效應的推動下會變得越來越強大,留給人類試錯的空間將越來越小?!碧└耨R克說。

人為本,全球探路新倫理

當前全球?qū)θ斯ぶ悄苄聜惱淼难芯咳遮吇钴S。不少人對人工智能心存芥蒂,多半來自其高速發(fā)展帶來的未知性,“保護人類”成為首當其沖的關切。

“必須確保人工智能以人為本的發(fā)展方向?!卑⒆嫒R呼吁。

美國機器智能研究院奠基人尤德科夫斯基提出了“友好人工智能”的概念,認為“友善”從設計伊始就應當被注入機器的智能系統(tǒng)中。

新倫理原則不斷提出,但突出以人為本的理念始終不變。百度公司創(chuàng)始人李彥宏在2018年中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上提出了“人工智能倫理四原則”,首要原則就是安全可控。

美國電氣和電子工程師協(xié)會規(guī)定,人工智能要優(yōu)先考慮對人類和自然環(huán)境的好處的最大化。

新的倫理原則制定也正提上各國政府的議事日程。

中國政府2017年7月發(fā)布《新一代人工智能發(fā)展規(guī)劃》時就指出,建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力;2018年4月,歐盟委員會發(fā)布的文件《歐盟人工智能》提出,需要考慮建立適當?shù)膫惱砗头煽蚣?,以便為技術創(chuàng)新提供法律保障;今年2月11日,美國總統(tǒng)特朗普簽署行政令,啟動“美國人工智能倡議”,該倡議的五大重點之一便是制定與倫理有關聯(lián)的人工智能治理標準。

存憂慮,跨界共商新問題

陳小平呼吁,為規(guī)避人工智能發(fā)展過程中的倫理道德風險,人工智能學術界和產(chǎn)業(yè)界,以及倫理、哲學、法律等社會學科各界應參與原則制定并緊密合作。

他認為,雖然從短期看還沒有證據(jù)指向人工智能有重大風險,但依然存在隱私泄露、技術濫用等問題。而無人駕駛、服務類機器人的倫理原則也須盡快探討制定。

美國電氣和電子工程師協(xié)會還規(guī)定,為了解決過錯問題,避免公眾困惑,人工智能系統(tǒng)必須在程序?qū)用婢哂锌勺坟熜?,證明其為什么以特定方式運作。

“就長期來看,不能等到出現(xiàn)了嚴重的問題,再制定措施去防止。”陳小平認為,人工智能和其他技術的特點不一樣,很多人工智能技術具有自主性。例如自主機器人在現(xiàn)實社會中具有物理行動能力,如果沒有適當?shù)姆婪洞胧坏┏霈F(xiàn)嚴重問題,可能危害較大。

陳小平希望更多人參與人工智能倫理研究,尤其是科學家和工程師,因為恰恰他們最了解問題的根源、危險可能發(fā)生的方式、細節(jié)和相關技術進展,“他們不說,外界只能去猜,難以得出正確的判斷和適當?shù)膽獙Υ胧薄?/p>

他還提醒,在防范風險的同時應該注意平衡,避免因為過度限制或使用不合適的降低風險方式造成遏制產(chǎn)業(yè)發(fā)展的副作用。(據(jù)新華社北京3月18日電)

[責任編輯:田志強]