ISO/IEC 42001人工智能管理體系認證
管理和加強人工智能應用在產(chǎn)品/服務的信任
人工智能的透明度和可解釋性
近年來,基于人工智能的系統(tǒng)被廣泛應用于各種任務中。這些任務依賴于人工智能做出的決定,而這些決定往往具有高度敏感性,并可能對個人或社會群體的福祉構成潛在風險。這些任務包括批準貸款、管理招聘流程和做出與健康相關的決定。要在此類敏感情況和其他情況下適當使用人工智能,人工智能做出的決定必須對人類來說是可以理解和合理的。
透明度:揭開AI決策的神秘面紗
透明度可以被定義為一個特定人工智能系統(tǒng)的可理解性——我們知道哪部分的系統(tǒng)發(fā)生了什么。這可以是一個促進問責的機制??山忉屝允且粋€密切相關的概念,指的是以反向方式提供有關人工智能系統(tǒng)行動所依據(jù)的邏輯、流程、因素或推理的信息??山忉尩娜斯ぶ悄埽╔AI)可以通過各種方式實現(xiàn),例如,通過調(diào)整現(xiàn)有的人工智能系統(tǒng)或開發(fā)設計可解釋的人工智能系統(tǒng)。通常,這些方法被稱為“XAI 方法”
Meske等人認為,人工智能的透明度和可解釋性與五個利益相關者群體有關:
1 人工智能監(jiān)管機構,需要解釋以測試和認證系統(tǒng);
2 人工智能管理人員,需要解釋以監(jiān)督和控制算法及其使用,并確保算法的合規(guī)性;
3 人工智能開發(fā)人員,需要解釋來提高算法的性能,并進行調(diào)試和驗證。這使他們能夠采用基于原因分析的結構化工程方法,而不是反復試驗;
4 人工智能用戶,他們有興趣了解算法推理并將其與自己的思維方式進行比較,以評估算法的有效性和可靠性;
5 受人工智能決策影響的個人,他們對可解釋性感興趣,以評估特定人工智能決策的公平性。
由于人工智能系統(tǒng)的可解釋性對于許多敏感的現(xiàn)實任務非常重要。因此,大家可以持續(xù)關注。未來,我們也會出具一份詳細的報告,包括XAI方法的高層次概覽,深入剖析現(xiàn)有技術的優(yōu)劣等內(nèi)容。
關于SGS
SGS是國際公認的測試、檢驗和認證機構,SGS管理與保證事業(yè)群在信息與通訊技術(ICT)領域深耕多年,為諸多知名企業(yè)提供信息安全、隱私安全管理等技術支持,致力于為各行業(yè)機構提供全方位管理提升服務,為企業(yè)信創(chuàng)保駕護航,如:ISO/IEC 42001、ISO/IEC 27001、ISO/IEC 27701、ISO/IEC 20000、ISO/IEC 27017、ISO/IEC 27018、ISO 22301、CSA STAR、TISAX、ISO/SAE 21434、Europrivacy等產(chǎn)品培訓和認證服務。