点击蓝字 关注我们
内部审计在人工智能中作用的7个因素
人工智能(AI)已经到来
Career In Business
不管我们是否完全认识到它。
数百万人每天都通过与Siri、Alexa、Cortana或Google等
虚拟助手的交互体验人工智能,
而且组织也越来越多地将人工智能带来的进步融入到操作中。
内部审计是否准备好对这项技术所依赖的复杂算法提供保证,
以促进组织的成功?
1941年,作者艾萨克·阿西莫夫(Isaac Asimov)
提出了机器人学的三大定律,
以确保在一个由先进人工智能驱动的机器人世界里人类的安全:
第一定律:
机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。
第二定律:
机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外
第三定律:
机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存
第零定律:
后来他又增加了第四定律,即第零定律,意思是先于其他定律:
机器人必须保护人类的整体利益不受伤害,
其它三条定律都是在这一前提下才能成立。
这些定律是科幻小说的标准,也是许多科学家研究人工智能的基础。当然,阿西莫夫故事中的戏剧是基于这些法则中的异常现象,导致人工智能中的意外行为。
今天
曾经的科幻小说变成了现实。
虽然我们并不像阿西莫夫的遥远未来规则所暗示的那样
完全由机器人来管理,但我们正处于变革之中。
人工智能进一步强调了组织中成熟的网络弹性的需要。
还有什么比组织的人工智能在不知不觉中被外部恶意势力控制更糟糕的呢?
今天的基本人工智能是对大型数据集的评估,
以根据可用的标准做出有针对性的决策,从而实现既定的目标。
例如,在高频交易中,复杂的算法评估大量的金融和证券相关数据,
以便在几秒钟(或更短时间)内买卖股票,
为其人类霸主获得低利润、高成交量的收益。
在医疗保健领域,人工智能正在开发一种通过CT扫描检测肺癌的技术。
即使有最好的意图,也很容易看出人工智能是如何出错的。
想想一辆无人驾驶汽车在街上飞驰。突然,两个小孩出现了。
在没有其他选择的情况下,汽车如何决定这些孩子中的一个的命运?
如果其中一个孩子真的是人工智能识别的人偶呢?
或者从2016年3月一个叫索菲亚的人工智能
在SXSW会议上的采访中可以看出这一点。
索菲亚在接受创作者大卫·汉森博士的电视采访时说:
“以后,我希望能做一些事情,比如上学、学习、做艺术、创业,甚至有自己的家和家人。但我不算是真正的人,还不能做这些事。”
令人印象深刻,对吧?直到汉森博士开玩笑地接着说:“你想毁灭人类吗?”索菲亚回答说:
“好吧,我要消灭人类。”
伴随着尴尬的笑声…并注意到,
虽然我不相信索菲亚一定要摧毁人类(甚至理解她所说的),
重要的是要考虑到,即使是人工智能的创造者没有准备好的反应。
人工智能的好坏取决于它所分析的数据和它所评估的标准,
所有这些都包含在一个可能有数百万行代码的包中。
所有这些都意味着,内部审计可以通过运用其技能来理解组织的目标,
并确保风险得到解决,从而为组织提供价值。
以下是内部审计需要准备的七个关键领域:
1
2
3
4
5
6
7