創(chuàng )澤機器人 |
CHUANGZE ROBOT |
人本智能的深化發(fā)展將建立在創(chuàng )新變革、安全規范等多重維度的平衡之上。這需要通過(guò)有效的治理策略來(lái)實(shí)現平衡, 規避 AI 繁榮背后潛藏的風(fēng)險。由此引出的 AI 治理和實(shí)踐,不僅是技術(shù)層面的問(wèn)題,更是社會(huì )問(wèn)題,需要全社會(huì )共同 面對。作為目前 AI 領(lǐng)域主力軍的頭部科技企業(yè)亦紛紛擁抱 AI 倫理和治理,并努力將“人的因素”納入產(chǎn)業(yè)布局和實(shí) 踐當中。
根據騰訊研究院高級研究員曹建峰的總結 ,2016 年至今,從原則到實(shí)踐,AI 科技倫理成為“必選項”經(jīng)歷了如下三 個(gè)階段。
原則爆發(fā)階段:全球各大行業(yè)和一些知名企業(yè)及研究機構提出了自己的 AI 倫理原則。2016 年,谷歌、微軟、亞馬 遜、Facebook、IBM 等五大科技公司聯(lián)合成立了“人工智能伙伴關(guān)系”(Partnership on AI),旨在促進(jìn) AI 技術(shù)的公 益、安全、可信、透明和可理解性,以及保護人類(lèi)的社會(huì )和文化價(jià)值。2017 年,歐盟委員會(huì )發(fā)布了《歐洲人工智能戰 略》,提出了“人本”的 AI 愿景,強調 AI 技術(shù)應該尊重人類(lèi)的尊嚴、自由、民主、平等、法治和人權,并提出了一系列 的行動(dòng)計劃和措施。
共識尋求階段:加強 AI 國際治理,OECD 等機構主張推動(dòng)建立國際公認的倫理框架準則。2019 年,聯(lián)合國教科文 組織發(fā)布了《人工智能倫理問(wèn)題報告》,提出了“人類(lèi)中心”的 AI 原則,強調 AI 技術(shù)應該以人類(lèi)的尊嚴和權利為核心, 以人類(lèi)的多樣性和包容性為基礎,并提出了一系列的倫理指導和建議。
倫理實(shí)踐階段:很多企業(yè)都在探討如何將 AI 原則貫徹到日常技術(shù)實(shí)踐中。例如,Google Cloud 采取措施打造負責 任的 AI;微軟設立負責任 AI 辦公室,全面推進(jìn)負責任 AI 的落地實(shí)施。
已有的行業(yè)實(shí)踐包括設立倫理委員會(huì ),組織培訓和審查,以確保在設計活動(dòng)中考慮倫理要求;構建“AI 模型說(shuō)明書(shū)”, 推動(dòng) AI 算法的透明性和可解釋性。例如,谷歌推出的“模型卡”工具集(Model Card Toolkit),以及 IBM 的 AI 事 實(shí)清單等。行業(yè)實(shí)踐還包括以倫理工具方式呈現的“倫理即服務(wù)”,針對可解釋、公平、安全、隱私等方面的倫理問(wèn) 題,研發(fā)并開(kāi)源技術(shù)工具。例如,IBM 根據其 AI 倫理的五大支柱——可解釋性、公平性、魯棒性(穩健性)、透明性、 隱私性,提出了 5 種針對性的技術(shù)解決方案
機器人底盤(pán) Disinfection Robot 消毒機器人 講解機器人 迎賓機器人 移動(dòng)機器人底盤(pán) 商用機器人 智能垃圾站 智能服務(wù)機器人 大屏機器人 霧化消毒機器人 紫外線(xiàn)消毒機器人 消毒機器人價(jià)格 展廳機器人 服務(wù)機器人底盤(pán) 核酸采樣機器人 智能配送機器人 導覽機器人 |