对使用可靠的人工智能技术要负责任
人工智能的将来是辽阔的——这就是为什么我们必要塑造其对人类和社会的影响。 人工智能(AI)为我们提供了庞大的机遇,不只可以进步服从并低落本钱,还可以辅佐我们从头思索营业并办理要害题目。然而,尽量人工智能拥有这些柔美远景,但在各个经济体和社会中,人们都有着相同的焦急。很多人以为先辈技能会注定和不行停止地带来深刻变革。 跟着人工智能变得越发伟大,它将开始独立拟定或帮忙人们做出对小我私人糊口发生更大影响的决定。跟着人们顺应自动化决定在社会中施展越来越大的浸染,这也将激发道德层面的挑衅。 因此,贸易率领者和决定者必要当真看待这些忧虑,并对启用和应用“靠得住的人工智能”认真。 其可以被描写为遵循以下原则: 问责制和透明度 安详防御机制 以工钱本的计划 问责制和透明度 假如人工智能用于评估新地位的应聘申请,那么怎样确保申请人获得公正和合理的考核?应聘者怎样确信人工智能不会由于实习方法而呈现错误或内涵成见? 存在的风险是,自动化流程有也许通过我们不相识或无法表明的进程来“进修”,从而学到会导致我们也许不想看到的功效的模式。算法也许会连续我们社会中现有的成见和小看,从而增进我们对实验人工智能的缺乏信赖。 譬喻,弗吉尼亚大学的研究职员操作普及行使的照片数据集对一小我私人工智能措施举办实习,其后发明该体系放大了传统的性别成见。在其后的实习中,它乃至将站在火炉旁边的汉子归类为姑娘,这是人类不行能犯得错误。 率领者必要透露呆板决定的机制。他们行使的人工智能必需发生可表明的功效,促进算法问责制并消除成见。这意味着率领者必要找到一些要领,譬喻对算法举办考核,并对所处理赏罚数据举办评估,以便发明成见。当体系堕落时,必需清晰责任地址。 安详防御机制 成立斲丧者对人工智能和自动化体系的信赖必要有安详防御机制。确定财政责任是做到这一点的一种方法,但确保物理安详防御机制是要害。 作为一个例子,最深入的接头是环绕自动驾驶汽趁魅睁开的。德国在2017年通过了一项新法令,该法令划定司机或车辆制造商之间的抵偿责任分管取决于司机或自动驾驶车辆是否处于节制状态。在这种做法的背后,汽车制造商已经暗示,假如产生事情时,他们的“交通阻塞导航”成果正在行使中,则他们将包袱责任。 这里新增的内容是思量到汽车制造商对其提供处事所包袱的责任,这是基于传统保险架构拟定出的。通过澄清和声名,让人们对责任有更广泛的领略,组织机构可以辅佐办理一些题目。然而,除了成立财政责任之外,安详组织必要处理赏罚的一些公道要求还包罗确保将计划的安详性应用于自动驾驶体系中。 这包罗确保人工智能被实习成可以“举手表示”,要求有伶俐和履历的人类提供辅佐,以在临界环境下作出最终抉择,而不是在只有51%掌握的环境下继承举办操纵。 以工钱本的计划 人工智能应该可以或许加能人们的判定力,辅佐人们辨认息争决成见,而不是无形地改变其举动以反应出所祈望的功效。这就超出了消除人工智能自主决定发生的成见的领域。 率领者也应该熟悉到人类和人工智能具有互补手艺的手段。以工钱本的人工智能会操作人类善于的批驳性思想手艺,并将其与人工智能的大量计较手艺相团结。 譬喻,一个哈佛大学的病理学家团队开拓了一个基于人工智能的技能,可以更精确地辨认乳腺癌细胞。病理学家以96%的辨认精确率击败了只有92%辨认精确率的这些装备。可是当人类和人工智能连系起来时,我们看到了最大的惊喜。他们连系起来后,可精确地辨认99.5%的癌症活检标本。 在很多环境下,人工智能更擅长做出决定—但这并不必然意味着它会做出更好的决定。率领者必要确保其组织的代价观应融入到他们的人工智能中。陈设人工智能而不依靠靠得住的合规性和焦点代价,这也许会使企业面对重大风险,包罗就业/人力资源、数据隐私、康健和安详题目。在某些环境下,人工智能乃至以谈天呆板人、数字客服署理的情势呈现,成为组织的首要代言人。人工智能的这种面向公家的脚色意味着客户必需看到公司的代价观。 最近,我在Fjord公司的同事宣称,他们目击了道德经济的鼓起,这意味着组织无论是否有代价观并为之辩护,在贸易上这些内容从未像本日这样至关重要——并且人工智能必要反应这些代价观。 发送长微博喜好 (编辑:湖南网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |