这个问题已经浮出水面,在各地会议和社交聊天的讨论桌上——”机器能打开人类吗?这个问题经常伴随着电影的场景和视觉效果,如《终结者》。但是,我们知道的以及我们从大数据中使用 AI 所学到的是,在设计具有更复杂的环境的更大规模系统时,必须考虑某些不确定性和偏差。
机器”感觉”是什么?是什么使他们的行为方式与插入到大型机中的代码无关?艾萨克·阿西莫夫的三部法律在界定机器在复杂环境中应该如何运行的标准方面,今天仍然具有决定性意义吗?这些问题的答案在于我们选择定义游戏规则的方式,以及机器如何响应突然的变化。
道德偏见是人工智能研究中一个特别的不确定性区域,它涉及将机器拉向有时看起来奇怪甚至有害的小饰品和杠杆。随着自动驾驶汽车的兴起和AI驱动的生产方法将占据世界,一个未解答的问题需要再次得到答案。我们该怎么操作机器?
您还可以享受:
AI 能否自我监管并减少偏见?
偏见简介
从数据角度看,偏差和方差与测量值与实际值的邻近性相关联。在这种情况下,方差是测量值彼此差异程度的度量,偏差是指测量值与实际值的差异程度。在具有极高精度的模型的高度特定情况下,方差和偏差都很小。
但是,这可能反映了模型对新数据的性能有多差。然而,具有低偏差和差异是很难实现的,也是各地数据分析师的祸本。对于涉及简单决策的用例,如果简单的二进制计算不够简单,则偏置尤其难以处理。
你可能会想问偏见是如何进入系统的。如果一台机器在一个不比人类更糟糕的关键时刻没有做出决定,那么为什么它们首先被使用呢?要回答这些问题,您需要了解如何在大数据领域构建模型的一般方法然后,这些值将经历预处理步骤,其中它们被规范化、标准化或转换为删除维度和单位的形式。一旦数据转换为适当的表格或逗号分隔格式,数据将插入到图层或函数方程的网络中。如果模型使用一系列隐藏层,请放心,它们将有一个激活功能,该激活功能将引入每一步的偏差。
但是,偏差也可以通过收集方法的许多陷阱进入系统。也许数据与某个组或类的输出不相平衡,也许数据不完整/错误,或者可能没有任何数据可以开始。
随着数据集变得越来越大,记录也越来越多,系统用一些预定义值填补这些空白的可能性是确定的。这会导致另一种推定偏见。
黑匣子难题
许多学者也认为,如果没有适当的背景,数字可能并不代表同一件事。例如,在一本有争议的书《贝尔曲线》中,作者关于不同种族群体智商变化的说法受到环境约束和差异概念的挑战。但是,如果一个人能够得出这样的决议,机器需要多长时间才能消除其逻辑上的这种判断失误?
机会很小。如果机器被输入错误或错误的数据,它将输出错误值。问题产生于AI模型的构建方式的模糊性。这些通常是黑盒模型,作为数据接收器和源存在,而无法解释其中的内容。对用户来说,这种黑盒模型不能被询问或质疑它是如何到达一个结果。此外,还有其他问题需要解决,结果变化。
由于对黑匣子的运作方式缺乏了解,即使使用相同的输入,分析人员也可能得出不同的结果。对于精度不是关键值的值,这种变化可能不会产生巨大的差异,但数据领域很少如此慷慨。
例如,如果 AI 系统无法预测高度特定的参数(如 pH、温度或大点压力),工业制造商将处于亏损。然而,当目标是为诸如贷款兼容性、犯罪累犯,甚至大学入学的适用性等问题提供答案时,AI缺乏明快的价值观就处于不利地位。然而,AI爱好者必须从另一个角度解决这个问题。
必须解析层间干扰的方法和规则,以解释每行代码和系数表示的内容。因此,黑匣子必须被连根拔起并解剖,才能知道是什么使机器滴答作响,这说起来容易做起来难。看看即使是最简单的神经网络AI也足以说明这些系统有多复杂。节点和图层都堆叠起来,并与其他图层的权重进行交互。
在训练有素的眼睛看来,这看起来像是一笔宏伟的交易,但它对理解机器几乎没有什么解释。这仅仅是由于人类和机器的语言水平不同?是否有一种方法以外行能够理解的格式来分解机器语言的逻辑?
偏差类型
回顾数据分析中偏差的历史,在负责分析的实体中,由于技术不当或预定义的偏见,可能会引入若干偏差
某些营销分析师在处理潜在客户时犯的错误太常见了。收集软件提供了关于已皈依者和未皈依者的数据。大多数人可能会倾向于只为未转换的潜在顾客构建模型,而不是关注两类人的模型。这样,他们最终就会蒙蔽自己,因为那些已成为客户的可用数据非常丰富。
困扰 AI 模型的另一个问题是,无法对数据进行正确分类或错误分类,最终演变成分析师的灾难。在生产行业中,此类错误属于类型 I 和 II 类别 ,前者是为不属于的记录进行分类,后者是未对属于什么进行分类时。从生产批次的情况来看,质量控制工程师通过只测试其中的一小部分来快速标记货物的准确性。它既节省时间又节省资金,但它可能是发生这种假设偏见的完美环境。
在图像检测软件中,神经网络扫描图片的破碎部分以重建逻辑形状,这一示例也类似。图像中对象方向的相似性可能导致多个问题,从而导致模型产生具有惊人争议的结果。当前年龄的卷积神经网络能够分解这种复杂性,但需要大量的测试和训练数据才能获得合理的结果。
某些偏见是缺乏适当数据的结果,使用复杂的模型是不必要的,甚至是不必要的。人们普遍认为,某些模型和神经网络编程只有在数据集达到具有统计显著性的记录数时才能应用于数据集。这也意味着,必须设计算法,以便及时重复检查数据的质量。
与 AI 战斗 AI
AI 偏差问题的解决方案是否隐藏在 AI 本身中?研究人员认为,改进分析人员收集和划分信息的调优方法非常重要,应该考虑到并非所有信息都是必要的。
话虽如此,应该更加强调消除和消除在完全不偏不及的地方扭曲模型的投入和价值。数据审核是及时检查和消除偏差的另一种方法。与任何标准审核过程一样,此方法涉及对已处理的数据以及原始输入数据进行彻底清理和检查。审核员跟踪更改并记下可能对数据做出的改进,并确保数据对所有利益相关者具有完全的透明度。
专门的 XAI 模型也受到质疑,可以在适当情况下放入问题表。这些模型涉及非常详细的参数模型开发,其中记录每个步骤和更改,使分析人员能够查明可能的问题并触发实例。
AI 也成为验证模型的准确性和混淆矩阵的前沿,而不是依赖于简单的工具,如 ROC 曲线和 AUC 绘图。这些模型用于在部署数据集之前执行重复的质量检查,并尝试覆盖数据整体类,而不考虑分布或形状同样,对于与媒体相关的数据,分解内容并将内容压缩为数字格式所用的时间仍可能导致偏差。
然而,由于数据透明度和第三方检查的基本原理发生了一系列新的变化,公司至少承认出了问题。新的解释器循环也在模型之间插入,这些循环旨在突出填充大多数 AI 模型的黑匣子。这些模型再次由 AI 模型驱动,这些模型经过系统微调,以查找不一致和错误。
AI 道德失败的几个案例
数据分析师将熟悉误报和误报的概念。在确定产出方面的这些差异可能导致出现对人产生不利影响的特殊情况。假负放是当系统错误地识别正类为负。同样,当负类被错误地识别为正时,就会发生误报。
在实际的大数据研究中可以更好地理解此类虚假案例的严重性。在使用逻辑回归建模的 CHD(冠心病)的著名案例中,假阳性和假阴性的混淆矩阵产生了大量数字,尽管其准确性很高。对一般人来说,一个准确的模型可能看起来是唯一重要的”做或打破”检查。但是,即使在数据分析的早期,很明显,这种模式会落空,甚至误诊新患者。
通过收集更多的数据流和清理列来诱导更好的数据规范化,可以做出权衡。这一步骤正成为如今业界的主食。
Uber 的自动驾驶汽车在测试阶段遭遇碰撞,这并非业内专业人士唯一关心的警示信号。这些恐惧也延伸到其他领域,如识别和机器感知。科技巨头亚马逊(Amazon)在模式学会了发展媒体所称的”性别偏见”后,受到了媒体的密切关注。
在一个令人震惊的申请人偏见案例中(以前在科技公司的申请人身上看到),这些模型对女性申请职位的依从性高于男性。在像苹果这样的科技巨头中,人们观察到了另一端的问题,消费者大肆炒作FaceID,允许不同的用户访问锁定的手机。有人可能会争辩说,用于识别面部线索以进行检测的模型,即使对于不同的人,也可能产生类似的结果。
工程师们坚持排除故障,并得出结论,认为有问题的输入产生了一种假设性的偏见,这只是时间问题。这主要通过解释机器可以正确替换人并采取相同决定的所有可能案例示例来处理。虽然,哲学专业可能会争辩说,即使是人类不运行在一套准则。有各种伦理流派 —— 康德、平等、功利等等。这些思想流派如何与各种伦理难题接轨,留给人及其利益。
在著名的手推车案例中,一个人倾向于拉或不拉杠杆,这完全取决于这个人在操作的道德框架。当机器取代决策者时,责任问题就变得模糊不清。
最后一句话 – 如何让 AI 更加合乎道德
我们从这些系统中吸取容忍度这一永恒的问题,引领了将机器纳入我们日常活动的路线。AI 一直是拯救生命和支持框架(如运输、预测研究、金融投资、安全、通信和生产)的构建基块。它渗透到人类生活的所有重要方面,没有引起许多反对者。
当AI未能嵌入创建它的人所根据的哲学时,就绘制了这条线。我们离叶夫根尼·扎米亚丁和阿兰·图灵的时代还很远,那时机器被认为是公正的。通过教导AI是合乎道德的,在机器中注入新的生命是一个挑战,它属于人类意味着什么这一根本问题。
我们现在知道,要构建一个完美的道德框架,AI 必须剥离到其基本要素,并且需要驱动一种强调结果质量的上下文方法。与工作场所多样性的基本原理一样,这些步骤很简单:
- 密切注意数据。
- 保持多样化,但规范化。
- 让团队不时监控预处理步骤。
- 消除输出中任何形式的排除。
- 删除可能对模型错误或无用的垃圾值。
- 优化、审核、共享和重新收集结果,并将其合并到模型中。
- 消除交互和数据孤岛,并始终对最终目标进行健全性检查。
- 击倒数据孤岛,并教导AI思考,而不是建模思考。
- 控制乔哈里意识窗口。涵盖未知已知和已知未知。至于未知的未知,这种偏见将永远存在,不幸的是。