杏鑫娱乐手机版;AI人工智能管理框架

 行业动态     |      2023-02-24 18:43

  权力意味着新的责任

  过去,人们将研究一个过程,其输入和输出,然后编写可以自动化该过程的代码。构建此类软件是以数字形式获得知识产权的一种形式。到目前为止,这是一项主要由人类驱动的认知任务。现在,AI正在编写自己的软件,从噪声中提取信号,并制定许多规则本身;它正在执行数字编码世界的认知任务。人工智能正在完全改变自动化内容和可以部署的量表。随着新领域的出现,它还带来了新的责任,以确保人工智能达到正确的目标。

  现代人工智能可以找到相应的模型,然后对对象进行分类,做出决策并评估结果。它可以使用反馈来学习和适应新情况。这是一个很棒的软件。您无需花一分钱就要求某人分析,然后花钱要求某人制作软件,然后花钱要求某人验证您的结果。最后,您发现它不符合您的期望,然后返回以调整软件。整个周期可能需要数年的大型组织,但是人工智能驱动的合理过程可以在几天之内完成。它可以重新编码本身,扣除更改并验证它是否真正朝您想要的方向移动 - 所有这些都是通过超出人类能力的准确性和速度来执行的杏鑫娱乐手机版。这很强大。但这也很有威胁。

  这种新方法是以前所未有的规模向组织引入新风险。编写代码的方法是显示数据示例,而不是自己编写或编辑系统。目前,对结果的监视很少,因为当前的数据治理字段仅涉及数据本身的质量,完整性和安全性。另一方面,人工智能管理更广泛地关注数据中的信号及其驱动器结果。

  与人类驱动过程的数据相比,人工智能的操作过程有时比过去更快或更快,这导致了从未见过的场景。从价值的角度来看,可能存在一些问题。但是,如果您将其出售给特定的消费者群体,则它将变得非常高效,尽管您可能会将自己锁在里面而忘记市场的其他部分。那么您的模型是否遵循这些问题?

  有三个主要重点负责管理新信息系统:

  准确定义应解决哪些问题和目标,以及您应该寻求的结果。这包括正确的性能指标以及当之无愧的IP(洞察力,世界模型等),以及用户和供应商之间所有权的所有权。从原始集合到结果解释以及与其他智能系统见解的联系,协调驾驶模型学习和改进的反馈周期。评估风险并找出代理系统可能犯错误的所有点。在过程的每个阶段,模型将如何进行自我评估?如何监视自动化系统以确保其正确处理?

  让人工智能学习和执行汽车的基本功能非常简单。面临的挑战是,它是否可以在各种不同的背景下进行,例如改变道路状况,暴风雨天气,行人等。使用数据示例可以大大降低成本,但仍然需要大量的人类智能和智能来考虑如何考虑如何应用它。管理人工智能系统的工作将考虑人工智能是否正在处理整体情况。管理价值创造和风险是治理框架的目的。

  因此,我认为人工智能的管理应该从内部到外部可信,并且有一个人工智能管理的框架:这里:

  自我管理级别

  0.分离

  您组织中的某些活动是人工智能未知的。您需要考虑如何在风险评估中与这些风险甚至分离活动联系。例如:人工智能系统可以分析手写笔记或10年前制作的旧商店视频剪辑以获取相关信息。

  1.观察

  观察是人工智能的基本实现之一,该实现收集和分类以推动其他流程。它观察到什么,是什么关系或忽略?它收集信息哪些过程?示例:有一个人工智能系统可以观看冰球比赛并记录一些数据,包括人类看不见的统计数据,例如检查的力量。

  2.指导

  指导是在人工智能不采取行动时提出建议。由于我们对人类行为的理解,人工智能训练仍然可以在一定程度上发挥重要作用。例如:如果我在进行脱口秀节目,而相机正在观看观众,人工智能可以分析他们的肢体语言以确定他们是否感到无聊。当我可以尝试讲另一个笑话时,它还可以告诉我观众喜欢和不喜欢什么。

  3.合作

  在这种情况下,机器不能完全自动化,但仍然可以驱动大多数场景。示例:在保险索赔中,人工智能可以执行60%或70%的自动化任务。这意味着许多任务是由人工智能完成的,而人类正在处理和分析其他30%的其他任务。

  4.自主

  当人工智能代理人得到充分管理时,情况将特别快,以便人类不能参与其中。人工智能将调整系统,监视结果并提供反馈。示例:这就像当今大多数网络安全性或高频机器人交易一样。该机器以比任何人类监督的速度更具速度制定了大量策略。

  对于不同的组织,这些自我管理级别的分类也将有所不同,但它反映了其广泛的范围。

  行业中的人工智能治理框架

  以下是我对每个类别含义的解释。每个组织都需要考虑每个部分的一般原则,但他们还必须将它们分开应用于每个代理商,并为特定情况制定特定规则。对于个人考虑,我将添加代理人的角色,部署需求,应注意的风险,对抗治理模型的参数以及与更广泛和更现有的公司治理的关系(尤其是围绕数据和道德。

  表现

  人工智能需要根据说明来完成。换句话说,它需要正常运行并满足期望。只有可以以可预测和准确的方式执行的人工智能才能对其提供的实际结果获得信任。

  准确性

  准确性是指人工智能的信心和能力。一个或多个数据点被归类为分类的能力,并且根据这些数据点和分类的建议对建议或决定的能力进行了正确的预测。准确性是相对的。您想确定您的业务或产品在业务或产品上的准确性多少。如果您预测呼叫中心的呼叫中心,那么70%的准确率已经很好,但是如果您试图预测本周杂货店的销售,那么70%可能有点糟糕

  偏差

  系统中存在许多方法,而且永远不会被完全消除。所有数据均通过一些重要事物的偏见,意图或世界观收集。在许多情况下,您可以在收集阶段消除不必要的偏差。鉴于数据始终具有一定的偏差,这也是在模型中进行会计和控制的问题。重要的是要确保偏差不足以影响有害业务的结果。根据不同的应用程序和环境,有几种方法可以抵消AI中的偏差,包括添加更多不同的数据集和输入,以及确保目标正确描述的子目标。

  正直

  诚信的概念与“平衡”密切相关,尽管它不包含过多的有害结果,但缺乏一些有用的信息。不管人工智能将丢失一些数据输入,这些数据的输入将阻止其执行有效的任务。例如,流量应用程序预测了拥塞模式,但它不考虑天气的影响。这是一个特定的关注领域,需要适当的自我管理水平。

  安全

  为了保护性能,人工智能需要确保流程,数据和结果的安全性。使人工智能不会受到敌对数据,不可预测的场景,外部影响以及对其决策能力的负面影响的影响。

  适应性

  这是继续改变人工智能的能力。如果我想启动新产品和对手竞赛,那么预测产品的可靠性以及员工调整的决定的可靠性如何?在新情况下,可以在同一情况下使用适应条件的适当人工智能。确定阈值的有效措施可能是部署前可以看到的情况的数量和多样性。一个足够的边缘情况将表明该模型将随着时间的推移而扩展,应定期添加到培训方案中。

  强烈的对抗

  特定类型的适应性是针对试图破坏模型的代理商(人或人工)。这基本上是网络安全的重点。通过将人工智能暴露于具有恶意甚至不一致目标的各种情况或代理商,可以在部署和代理之前准备组织。

  隐私

  在用户互动的任何时候,都需要保证隐私。这包括用户输入的所有信息,以及与人工智能互动期间生成的用户的所有信息。

  IP获取

  知识产权是许多人工智能发展组织的业务模型的核心。 IP获得的参数需要链接到其业务价值,以确保他们获得了正确的东西,但是他们需要确定谁拥有。有必要在供应商,员工,组织和最终用户之间定义这些知识产权。构成“正确”权利的权利取决于特定的环境,这意味着数据控制与所有权概念达成协议,并且尚未达成协议。在GDPR世界中,需要越来越多地披露这些决定。

  受影响的用户

  通过定义这些IP的权利,任何支持人工智能的组织都需要注意使用影响不同级别的不同信息和用户。跟踪数据流(即数据的来源和下落)及其内部和外部的数据流对于确保隐私至关重要。需要适当的机制,以允许用户将数据带入其他地方(可移植性)或删除其数据(遗忘的权利)。

  透明度

  只有在正确通信的情况下,我们才能建立对系统的信任。没有价值,过程和结果的透明度,信任的构建将受到限制。

  解释性

  关于解释,我们的目标不应该是我们用来获得一定结果的算法的确切内部技术工作。相反,我们的目标应该是揭示为什么某些符合当前申请或不符合当前申请的标准。例如:我没有看到一个小的路标并击中它。这是为什么?由于它配备了特定的传感器,因此无法处理路标上涂层的反射涂层。在这种情况下,准确处理数据如何准确处理数据并不重要。重要的是事故是如何发生的。之后,可以在事件发生时调整用户,然后可以在之后调整系统管理员。

  目的

  从事人工智能工作的组织应记录其目的,并使用某些理想的价值标准(例如人权,透明度和避免损害)来限制它们。这不仅被迫执行有意识的设计过程,而且该声明的意图还确保用户(无论是内部还是外部)如何了解如何应用此工具。误解此工具可能会在此框架中破坏所有其他预防措施。

  这里有一些值得考虑的事情

  如果您想大规模促进人工智能,那么后来绝对不能成为智者。它必须是该战略的一部分,并具有详细的记录。就个人而言,我认为这将通过执行不同的项目来实现。在问题/解决方案的定义期间,有必要与公司的业务部门合作制定治理规则。但是,无论谁负责组织中的网络系统,这都是最终责任,他们需要明确为每个人定义它。

  问责制

  即使付出了最大的努力,事情也将不可避免地犯错。良好的人工智能治理应包括问责机制。根据不同的目标,可能有很多选择。该机制可以包括货币赔偿的核对(无错误保险),失败发现和无货币补偿。问责机制的选择也可能取决于活动的性质和重量以及自治程度。该系统误解了毒品主张,错误地决定不通过金钱弥补赔偿。但是,在没有歧视的情况下,解释和道歉至少可能很重要。

  道德和公司治理

  合作的一个关键领域是与更广泛的公司治理结构合作,这是组织道德指导的根源。由于使用人工智能,该组织有能力采取行动,这些行动很难或不可能雇用人员来做。您可以使用非常友好且友好的机器人致电您的每个客户,并提供更多建议,而不告诉他们这是一个机器人。你会这样做吗?这是一种神奇的工程技术,但也带来了一些道德问题。关键是技术团队无法确定支持治理框架的道德规范,因为这是一个主观的问题。最有可能的是治理委员会需要自己的道德委员会(如果没有委员会)来回答这些问题。

  增强的治理

  我认为没有人工智能的增强,人工智能治理就无法正常工作。治理可能需要一组对手,其角色用于测试和挑战基础设施和系统。我认为这将是监测所有治理因素稳定性的下一个代代监管系统。他们将能够积极并强行解释决策,独立的测量偏差和评估完整性也可能与公司治理和外部审计师不同。这些将是单位测试和持续压力测试,该测试将在整个组织中促进,甚至可以执行问责制。

  当然,首先需要实现框架。将这些预防措施纳入代理商的开发中,并开始在整个组织和用户之间共享结果。调查不仅是一个更强大的模型,而且为了避免监督陷阱,它还允许所有用户对系统具有更多的信任。

  - 作者认为,随着人工智能的发展,人工智能将不可避免地具有人权的一部分,而人工智能将不可避免地承担一些责任。人类是否需要允许人工智能具有管理自己的能力。毫无疑问,人工智能肯定会具有这种能力,如果人工智能具有自我管理的能力,您可以做对人类有益的事情,而不是成为认为认为人类的坏处的事情糟糕开发,作者分析了人工智能自我管理水平的发展途径。首先,没有人工智能,然后没有五个步骤:观察,指导,合作和自我管理。人类是主导的,后两者是由人工智能主导的,人工智能的人工管理必须等到人工智能的核心是核心。已经很晚了,因此作者讨论了从性能,安全,隐私和透明度的四个方向讨论。应该指定它是否应指定人工智能的管理框架,人们还应在组织的组织中建立问责制,道德管理和加强。对人工智能的发展进行积极反应,使人工智能成为可以帮助人类的工具,而不是可能成为人类灾难的工具。

  报告/反馈