CMA注意接收!人工智能并非中性技術(shù)!

隨著人工智能應(yīng)用日益廣泛,專業(yè)人士需要了解算法存在的潛在偏見,以應(yīng)對(duì)其所帶來的道德挑戰(zhàn)。

人工智能隸屬于計(jì)算機(jī)科學(xué)范疇,通過開發(fā)技術(shù)和算法來模擬人類智能。借助這些技術(shù)和算法,機(jī)器能夠像人類一樣行為、學(xué)習(xí)、推理和自我糾正。人工智能應(yīng)用于商業(yè)所引發(fā)的潛在變化,堪比電力給人類社會(huì)帶來的變化。正如《戰(zhàn)略財(cái)務(wù)》雜志此前刊登的幾篇文章[如《了解智能機(jī)器》(UnderstandingSmart Machines),bit.ly/36kypkD]中提到的,人工智能有望從根本上改變管理會(huì)計(jì)師收集、使用和報(bào)告信息的方式。因此,一方面,為了能從人工智能等通用技術(shù)中獲益,管理會(huì)計(jì)師必須使自身技能適應(yīng)日新月異的環(huán)境;另一方面,也必須意識(shí)到,人工智能并非中立技術(shù),會(huì)對(duì)基于管理會(huì)計(jì)和財(cái)務(wù)領(lǐng)域相關(guān)原則與標(biāo)準(zhǔn)的職業(yè)道德實(shí)踐構(gòu)成挑戰(zhàn)。

人工智能沖擊道德原則

與其他技術(shù)和工具相比,人工智能所具有三個(gè)特征,會(huì)加劇了其潛在的不道德傾向。這三個(gè)特征分別是:基本決策標(biāo)準(zhǔn)方面缺乏可控性,對(duì)意外后果缺乏責(zé)任感,以及缺乏明顯的顯性成本。正是這三個(gè)特征導(dǎo)致一些人低估人工智能對(duì)道德的影響。

首先,人工智能通常被描述為“黑匣子”,因此,很難評(píng)估人工智能是否被正確使用。這意味著難以對(duì)人工智能通過機(jī)器學(xué)習(xí)或人工神經(jīng)網(wǎng)絡(luò)技術(shù)產(chǎn)出的結(jié)果進(jìn)行解釋,而機(jī)器學(xué)習(xí)和人工神經(jīng)網(wǎng)絡(luò)本是為了復(fù)制人類的大腦機(jī)能[參閱《黑匣子里的機(jī)器偏見》(Machine Bias inside the Black Box),bit.ly/2PsJD0p]。相較于人工智能,人類可以提供支持判斷和行動(dòng)的理由。

其次,無法解釋人工智能出現(xiàn)錯(cuò)誤的原因,而且通常也很難發(fā)現(xiàn)人工智能出現(xiàn)的錯(cuò)誤。與此相對(duì)照的是,人類總是有可能通過社會(huì)互動(dòng)、個(gè)人評(píng)估或組織的控制系統(tǒng)發(fā)現(xiàn)決策過程中的缺陷。

*后,人工智能為復(fù)雜的問題提供價(jià)格合算的解決方案,這可能導(dǎo)致一些人夸大人工智能應(yīng)用的價(jià)值。與此相對(duì)照的是,投入認(rèn)知資源來制定決策會(huì)讓人們更加重視對(duì)解決方案的評(píng)估,但通常無人質(zhì)疑人工智能的產(chǎn)出結(jié)果和決策。

這三個(gè)特征沖擊了IMA《職業(yè)道德守則公告》中規(guī)定的管理會(huì)計(jì)師在其工作中必須堅(jiān)持的道德原則:誠(chéng)信、公平、客觀和負(fù)責(zé)。

誠(chéng)信:組織在實(shí)施人工智能項(xiàng)目時(shí)往往速度過快,透明度不足,這帶來了一個(gè)挑戰(zhàn):信息傳播過程中能在多大程度上保持誠(chéng)信。人工智能依靠大數(shù)據(jù)分析來執(zhí)行復(fù)雜分析,后者包含了多種因素。然而,這也引起了對(duì)數(shù)據(jù)所有權(quán)和數(shù)據(jù)傳播,以及隨之而來的數(shù)據(jù)分析誠(chéng)信問題的高度關(guān)注。

公平:為了推導(dǎo)問題的答案而分析的數(shù)據(jù)集的大小程度,不一定能反映程序的公平性。*大的數(shù)據(jù)集仍有可能無法展現(xiàn)全貌,主要基于這兩個(gè)原因:首先,當(dāng)前的數(shù)據(jù)可能無法反映未來趨勢(shì),因此,忽視那些目前沒有普遍代表性的因素是不公平的;第二,*主要的因素可能并非*重要的,如此,忽略或低估歷*缺乏代表性的因素就有違公平性,因其可能會(huì)加劇偏見并導(dǎo)致歧視等嚴(yán)重的意外后果。

客觀:人工智能所使用工具的計(jì)算能力以及參數(shù)變化方面缺乏靈活性,限制了人工智能解決方案的可比性。人工智能技術(shù)的監(jiān)管框架,應(yīng)定義一套各方均認(rèn)可的價(jià)值觀和規(guī)則,以增強(qiáng)人工智能解決方案的可比性。例如,國(guó)際會(huì)計(jì)師職業(yè)道德準(zhǔn)則理事會(huì)(IESBA)修訂了《職業(yè)會(huì)計(jì)師道德守則》,以應(yīng)對(duì)人工智能等新技術(shù)帶來的挑戰(zhàn)。

負(fù)責(zé):人工智能產(chǎn)出結(jié)果的不可解釋性以及與之相關(guān)的意外后果,對(duì)組織的問責(zé)程度提出了挑戰(zhàn),因?yàn)楹茈y將人工智能產(chǎn)出結(jié)果歸責(zé)于任何個(gè)人。個(gè)人乃至組織都在努力承擔(dān)與他們無法完全控制的流程相關(guān)的責(zé)任。

行動(dòng)方案

IMA管理會(huì)計(jì)能力素質(zhì)框架》為管理會(huì)計(jì)師應(yīng)對(duì)人工智能發(fā)展所帶來的挑戰(zhàn),提供了行之有效的路線圖。

首先,該框架強(qiáng)調(diào)能力素質(zhì)是在快速變化的技術(shù)環(huán)境中取得成功的關(guān)鍵要素。能力素質(zhì)是一項(xiàng)關(guān)鍵的專業(yè)標(biāo)準(zhǔn),要求管理會(huì)計(jì)師“通過增進(jìn)知識(shí)和技能,來保持適當(dāng)?shù)膶I(yè)領(lǐng)導(dǎo)力和專業(yè)知識(shí)水平”。這是應(yīng)對(duì)人工智能所帶來的風(fēng)險(xiǎn)與成本并從中獲益的必要之舉。專業(yè)人士若能在這一過程中調(diào)整自身能力,助力人工智能的設(shè)計(jì)、實(shí)施和應(yīng)用,將能使其組織獲得人工智能解決方案優(yōu)勢(shì),同時(shí)避免潛在的陷阱。

但這種能力素質(zhì)若不能遵循誠(chéng)信這一道德原則,*終會(huì)失去其效用,甚至可能貽害無窮。正如《IMA管理會(huì)計(jì)能力素質(zhì)框架》所指出的,在管理會(huì)計(jì)能力素質(zhì)的發(fā)展過程中融入強(qiáng)大的職業(yè)道德和價(jià)值觀,并指導(dǎo)和教育管理會(huì)計(jì)師在其職業(yè)中履行誠(chéng)信、公平、客觀和負(fù)責(zé)的道德原則,是至關(guān)重要的。

管理會(huì)計(jì)師必須制定適用于人工智能算法設(shè)計(jì)的道德原則,認(rèn)識(shí)到人工智能軟件開發(fā)中所隱含的道德問題,并處理因?qū)嵤┤斯ぶ悄芙鉀Q方案而引起的道德意外事件。能力不是道德的替代品。只有*的技能和強(qiáng)大的道德原則相結(jié)合,才能幫助管理會(huì)計(jì)師應(yīng)對(duì)非中立的人工智能發(fā)展所帶來的巨大道德挑戰(zhàn)。

免責(zé)聲明

本文來源網(wǎng)絡(luò),如有侵權(quán)請(qǐng)及時(shí)聯(lián)系刪除