原標(biāo)題:數(shù)字化——企業(yè)應(yīng)遵循什么樣的人工智能指導(dǎo)原則
“對于大多數(shù)人工智能應(yīng)用來說,大量的數(shù)據(jù)必不可少,包括個人數(shù)據(jù)。然而很多客戶并不希望自己的個人信息被泄露。他們擔(dān)心數(shù)據(jù)保護(hù)并不完善、數(shù)據(jù)被篡改,或者因此造成失控”,為此,作為汽車發(fā)明者,戴姆勒制定了明確的原則,以規(guī)范人工智能的使用。這四項(xiàng)原則是:合理利用;可解釋;保護(hù)隱私;安全且可靠。
當(dāng)下,人工智能是一個熱點(diǎn)中的熱點(diǎn),商機(jī)中的商機(jī)。但有利就可能會有弊,在憧憬人工智能美好未來的同時,人們也難免心存各種各樣的擔(dān)憂。
在法蘭克福車展期間,面對全球媒體,戴姆勒股份公司董事會成員白韻格女士全面闡述了作為汽車發(fā)明者的戴姆勒,會遵循的人工智能指導(dǎo)原則。
負(fù)責(zé)誠信經(jīng)營與法律事務(wù)的她首先談到,人工智能大概是全世界最令人著迷的話題之一。人工智能已經(jīng)全面融入到了我們的日常生活當(dāng)中。我們上網(wǎng)時,有零售商根據(jù)我們的喜好向我們推薦產(chǎn)品;在線流媒體服務(wù)“了解”我們所喜歡的音樂和電視劇類型。
全新EQC純電SUV
她說,在梅賽德斯-奔馳,我們的智能人機(jī)交互系統(tǒng)(MBUX)可以預(yù)判你的行動。如果客戶愿意,MBUX系統(tǒng)還能了解客戶的習(xí)慣,并按照客戶的意愿對系統(tǒng)進(jìn)行自我調(diào)整。
白韻格話鋒一轉(zhuǎn):然而有史以來,每項(xiàng)發(fā)明都充滿魅力,同時也讓人心生敬畏。鐵路的引進(jìn)就是一個很好的例子。在技術(shù)懷疑論者看來,火車頭是“邪惡之物”,他們預(yù)測人類會因?yàn)檫@項(xiàng)“地獄般的”發(fā)明吞下惡果。例如擔(dān)心火車上冒的煙會毒害乘客,火車氣流會引發(fā)肺炎,火車快速的節(jié)奏會讓大腦產(chǎn)生錯亂等等。
那么,懷疑論者為何又改變了看法,嘗試信賴這些新科技了呢?白韻格認(rèn)為,一方面是因?yàn)殡S著時間推移,人們完全適應(yīng)了這些科技的存在,甚至開始明白了新科技的價(jià)值;另一方面就是:遲早,制約這些新科技的規(guī)則會制定出來。可以這么說:這些機(jī)制的實(shí)施完全實(shí)現(xiàn)了它初衷。
她說,今天,數(shù)字化轉(zhuǎn)型也正經(jīng)歷著同樣的變革,人工智能的興起也同樣如此。因?yàn)樗麄儙砹讼嗨频奶魬?zhàn)。
“對于大多數(shù)人工智能應(yīng)用來說,大量的數(shù)據(jù)必不可少,包括個人數(shù)據(jù)。然而很多客戶并不希望自己的個人信息被泄露。他們擔(dān)心數(shù)據(jù)保護(hù)并不完善、數(shù)據(jù)被篡改,或者因此造成失控”,她強(qiáng)調(diào):有些人甚至擔(dān)心如此發(fā)達(dá)的人工智能系統(tǒng)有一天會統(tǒng)治世界,然而,“這些顧慮戴姆勒早已洞悉,而且會認(rèn)真應(yīng)對”。
“我們團(tuán)隊(duì)的任務(wù)就是確保公司在抓住人工智能所帶來的機(jī)遇的同時,化解隨之而來的危機(jī)、恐懼和挑戰(zhàn)。我們以建立一個合理的、可持續(xù)的人工智能使用機(jī)制為己任。而且我的觀點(diǎn)非常清楚:只有當(dāng)人們充分信任人工智能,這項(xiàng)技術(shù)才算是成功了”,她說。
作為汽車發(fā)明者,戴姆勒制定了明確的指導(dǎo)原則,以規(guī)范人工智能的使用。這四項(xiàng)原則是:合理利用;可解釋;保護(hù)隱私;安全且可靠。白韻格做了如下闡述。
第一項(xiàng)原則是合理使用。在整個開發(fā)和部署階段我們都會合理地使用人工智能技術(shù)。例如,我們會根據(jù)風(fēng)險(xiǎn)等級進(jìn)行技術(shù)影響評估。我們會將所有可能受到人工智能影響的各方都考慮在內(nèi)。
總體來說,我們爭取做到一視同仁,也就是,杜絕歧視,力求包容。這樣我們的產(chǎn)品就能一直在客戶的掌控之中。
她重申,無論選擇哪種,我們都不會收集可能具有辨別性的參數(shù),個人詳細(xì)信息和檔案只會存儲在用戶的智能手機(jī)本地。
第二項(xiàng)原則是可解釋性。我們竭盡全力,在人工智能方面實(shí)現(xiàn)高度透明。
我們不對任何人工智能應(yīng)用做隱藏處理,人工智能技術(shù)的使用必須確保對客戶透明。
第三項(xiàng)原則是保護(hù)隱私。對數(shù)據(jù)負(fù)責(zé)是我們可持續(xù)經(jīng)營戰(zhàn)略的一部分。而數(shù)據(jù)保護(hù)對我們而言是質(zhì)量的關(guān)鍵標(biāo)志。
正因如此,我們不僅要考慮人工智能各個方面的隱私設(shè)計(jì),還要使用現(xiàn)有的隱私增強(qiáng)技術(shù)。
這就意味著所有的個人數(shù)據(jù)都保留在客戶的移動設(shè)備上。個人信息并未被發(fā)送到數(shù)據(jù)中心。人工智能可通過設(shè)備自身進(jìn)行識別。舉例來說,通過使用GPS數(shù)據(jù),應(yīng)用程序本身的使用也得到了改善。不過只有得到用戶的主動授權(quán),應(yīng)用程序使用這些信息。隱私設(shè)置往往容易操作、便于理解。
第四項(xiàng)原則,提供安全性和可靠性。首先,Bela應(yīng)用程序(由戴姆勒出行公司所開發(fā)的一款全新應(yīng)用程序)的主要目的就是提供安全性和可靠性。通過提醒駕駛員休息,該功能可以減少事故的發(fā)生。
在創(chuàng)建如Bela這種安全相關(guān)的應(yīng)用程序時,我們就做好了足夠的預(yù)防措施。我們采取適當(dāng)措施,讓人工智能僅在確定的、安全的框架內(nèi)進(jìn)行工作。這意味著整夜開車仍然不是明智之舉。
最后,我們的內(nèi)部IT服務(wù)還會篩選應(yīng)用程序,并隨時為客戶提供支持,解決客戶問題。
白韻格說,我們著力于建立框架,以確保這四項(xiàng)指導(dǎo)原則得以遵循。例如:我們保持溝通,提高認(rèn)知水平;我們對員工進(jìn)行相應(yīng)的培訓(xùn);而且我們創(chuàng)建了不同的平臺來交流最佳范例,并進(jìn)行討論。
最后,白韻格再次強(qiáng)調(diào),可以明確的重要一點(diǎn)是,人類仍將是技術(shù)的創(chuàng)造者!(經(jīng)濟(jì)日報(bào)-中國經(jīng)濟(jì)網(wǎng)汽車頻道)返回搜狐,查看更多
責(zé)任編輯: