隨著大數據和計算硬件的發展,人工智能正離我們越來越近。智能軟件和機器提供了更為先進的生產力,并為人類社會的一些緊迫問題,如醫療、教育等等,提供解決方案。近日,美國信息產業理事會發布《人工智能政策原則》,AI公共政策成全球熱點。我們來看看~

AI研究開發和行業應用的熱度仍在持續,在此背景下,AI公共政策成為了全球公私部門關注的熱點。比如,2017年10月,石油大國阿聯酋將人工智能確立為國家戰略,同時高調任命了全球首個人工智能部長(minister of Artificial Intelligence),表明了阿聯酋要用數據這一“新石油”和人工智能來解決其社會和經濟發展問題的決心。
不僅公共部門熱衷于AI公共政策,私營部門的科技公司對此亦動作頻頻。在業界,未來生活研究院(FLI)2017年初組織提出了人工智能發展的23條原則,2017年的“AI Now”報告提出了10項AI公共政策建議,這些都是業界的研究嘗試。
科技公司和科技行業背后的行業組織也沒有閑著。10月24日,代表硅谷等科技行業發展利益和需求的美國ITI(信息技術產業理事會)發布首份《人工智能政策原則》,承認人工智能作為新技術將給社會經濟生活和生產力帶來變革性影響,AI系統可以用于解決一些最迫切的社會問題,而且AI系統應當不是取代勞動者,而是增強勞動者或者創造新的就業機會。
ITI在這份文件中提出了三大層面的14個原則,從人工智能發展和創新的角度回應輿論關于失業、責任等的擔憂,呼吁加強公私合作,共同促進人工智能益處的最大化,同時最小化其潛在風險。


人工智能(AI)是一套通過對人類大腦的模仿,能夠進行學習、推理、適應和執行任務的技術。隨著數據獲取和計算能力以及人類創造力的提高,研究人員正在開發智能的軟件和機器,以提高人的生產力并無處不在地增強人類能力。
創業公司、中型企業和大型科技公司都開發了AI系統來幫助解決一些社會最迫切的問題。通過使小型企業能以更少的資源做更多的事情,AI能使小型企業承擔風險的能力增強并以更快的速度實現發展。
為了確保AI能夠發揮最大的積極潛力,信息技術產業理事會(ITI)代表技術領域的前沿公司,呼吁公共和私人部門的利益相關者之間相互合作。美國信息技術產業委員會(ITI)發布的人工智能政策準則——闡述了企業、政府、研究機構需要采取的運作及合作方式,為人工智能系統設計和部署的安全性提出了要求,盡可能確保人工智能最大的發揮其積極效益。

為確保人工智能將帶來最大的積極潛力,ITI理事為公共和私有部門的利益相關方提出了以下政策原則:
ITI:促進責任、發展和應用
1)負責任的設計和部署
有責任在遵守現有法律的基礎上,將一些原則與AI的技術設計相結合。雖然AI對人類和社會的潛在好處是驚人的,但AI研究人員、專家和利益相關者還是應該花費大量的時間來確保AI的設計和部署是負責任的。高度自動化的人工智能系統必須符合保護人類尊嚴、權利和自由的國際慣例。作為一個行業,我們承認AI的使用和濫用可能產生的任何影響,并承認我們有責任也有機會能夠通過引導AI向符合道德的方向發展,來避免可能產生的不良后果。
■(2)安全和可控性 技術人員有責任確保AI系統設計的安全性。自主的AI代理(Autonomous AI Agents,或稱AI能動體)必須將用戶和第三方的安全視為首要考慮,AI技術應努力降低對人類可能產生的風險。此外,AI系統的開發必須具有相應保障措施,以確保人類對AI具有控制力,使AI嚴格遵守特定的運行程序。 ■(3)穩健而有代表性的數據 為了促進數據的有效使用并確保其在每個階段的完整性,行業有責任了解數據的參數和特征,以證明其了解潛在的有害歧視和偏差,并在開始之前和部署整個AI系統的過程中對潛在的歧視和偏差進行測試。AI系統需要利用大型數據集,提供穩健而又有代表性的數據對于開發和改進AI和機器學習系統而言至關重要。 ■(4)可解釋性 致力于與政府、私營企業、學術界和民間社會等主體共同尋求減少自動化決策系統中的歧視(偏見)、不公平和其他潛在危害的方法。但是,尋求這種解決方案的方法應該具體針對特定系統運行所依的特定環境下所呈現的獨特風險。在許多情況下,我們認為實現更優解釋性的工具將發揮重要作用 ■(5)自動化AI系統的責任 針對人類作出的AI自主決策(雖然受到人類驅動的繁瑣程序啟發,但常常取代人類通過此類程序作出的決策)引發了社會對相關責任的擔憂。我們承認現有的法律和監管框架,并將致力于與利益相關者合作,在自主系統的背景下為所有實體提供合理的問責制框架。

政府:投資和支持AI生態
■(6)投資AI研究與發展
鼓勵通過激勵制度和資金支持來促進研究、開發以及創新。作為長期高風險研究的資金的主要來源,我們支持政府對與AI有高度相關性的研究領域的投資,包括:網絡防御,數據分析,欺詐性的交易或信息的檢測,機器人,人類增強技術,自然語言處理,交互界面和可視化。 ■(7)靈活的監管方式 鼓勵政府在采用新的法律法規之前,評估現有的政策工具,并謹慎使用。因為新的法律法規和稅收政策可能無意或不必要地阻礙AI的推廣和使用。由于AI技術的應用領域跨度很大,過度管理可能會無意間減少市場主體(尤其是創業公司和小型企業)創造和提供的技術的數量。我們鼓勵政策制定者認識到在不同部門需要有具體做法的重要性,因為一種監管方式將不足以完全適合所有AI應用程序。我們隨時準備與政策制定者和監管機構合作,解決出現的問題。 ■(8)促進創新和互聯網安全 堅決支持保護AI的基礎,包括源代碼、專有算法和其他知識產權。為此,我們認為政府應避免要求公司轉讓或提供技術、源代碼、算法或加密密鑰作為業務交易條件。我們支持使用包括貿易協議在內的所有可用工具來實現這些目標。 ■(9)網絡安全和隱私 就像其他技術一樣,AI依賴強大的網絡安全和隱私政策。鼓勵政府使用強大的、全球接受和部署的加密技術和其他安全標準,從而實現信任和互操作性。我們鼓勵自愿分享關于網絡攻擊或者黑客的信息,以更好地實現消費者保護。技術部門作為利益相關者最信賴的部門,可以通過將強大的安全功能融入到產品和服務中以提升可信度,例如使用已發布的算法作為默認加密方法以及限制對加密密鑰的訪問。數據和網絡安全是AI實現成功的重要部分。 隨著AI的蓬勃發展,用戶必須能夠相信他們的個人和敏感數據受到適當保護和處理。AI系統應使用包括數據匿名化、取消標識性或集成等工具以盡可能保護可識別性個人信息。 ■(10)全球標準和最佳實踐 促進發展全球自愿的、行業主導的、基于共識的標準和最佳實踐。我們鼓勵在這些活動中進行國際合作,以幫助加快采用,促進競爭,并有助于實現成本效益的AI技術的引入。

公私合作:促進生命、教育和多樣性
■(11)民主獲取和機會平等
人工智能系統正在形成創造經濟價值的新方法,如果這些價值為某些主體所獨享,則可能會加劇現有工資、收入和財富差距。我們支持獲取AI開發所需資源的機會和途徑是多樣的并且是不斷擴大的,例如獲取計算資源、教育和培訓以及參與技術開發的機會等。 ■(12)科學、技術、工程和數學(STEM)教育 當前和未來的工人需要接受能夠幫助他們成功的必要的教育和培訓。我們認識到培訓的提供至關重要,要對STEM教育領域以及人文科學和社會科學領域都進行重大投資。為了確保未來勞動力的就業能力,公營部門和私營部門應共同努力,設計和提供以工作為基礎的學習和培訓體系,積極為學生提供實際的工作經歷和具體的技能。特別是在AI社區中,優先考慮STEM領域的多樣性和包容性將是確保AI以最強勁的方式發展的重要要求。 (13)勞動力 有人擔心人工智能將導致工作變更、失業或工人流離失所。雖然這些關切是可以理解的,但應該指出的是,大多數新興的AI技術旨在執行特定任務,而不是替代人員。然而這種AI不斷增強的智力的確意味著一個雇員的部分(但很可能不是全部)工作將會被AI替代或者更輕易地完成。 就創造或破壞就業機會而言,AI對工作的全面影響尚且無法完全知曉,但適應快速的技術變革的能力至關重要。我們應該綜合利用傳統的以人為中心的資源,以及新的職業教育模式和新開發的人工智能技術,來幫助現有的員工和未來的員工成功地開拓他們的事業或完成職業轉型。 此外,必須通過公私合作,提高包括勞動力調整項目在內的終身職業教育和學習的傳遞性和有效性。同時,我們還必須優先考慮提供職業培訓以滿足市場對勞動力的需求,將資源集中于能產生強勁成果的項目上。 ■(14)公私合作伙伴關系 公私合作伙伴關系(PPPs)將使AI部署成為政府和私營企業的熱門投資項目,并促進AI領域的創新性、可擴展性和可持續性。通過利用公私合作伙伴關系,特別是通過企業、學術機構和政府之間的相互合作,我們可以加快人工智能研發,為未來的工作做好準備。 廣州|深圳|南京|蘇州|杭州|福州| 廈門|成都 入駐-商業計劃書發至:chuangkejie@126.com? 咨詢電話:(廣州)020-28108668 或(廈門)15878863908 創客街QQ交流群:301723775 網站:www.makerstreet.com.cn

您也可以關注我們的官方微信公眾號(ID:ctoutiao),給您更多好看的內容。