人工智能的发展会加剧当权者与不当权者之间的二分法。它还可能会加速那些拥有AI的人与少数没有AI的人之间的鸿沟。人工智能发展的某些方面使得进入该领域非常困难。考虑到成本,工程和硬件需求,人工智能的发展带来了巨大的资金需求,从而造成了高投入门槛。如果这个问题持续存在,那么其发展背后的思想很可能会被大型技术公司所采用。尽管GPT-3的发布标志着人工智能发展的重要里程碑,但前进的道路仍然模糊。如今,人工智能技术仍然存在某些局限性。这是当今数据科学家面临的六个主要限制。

  1.数据访问

为了正确地训练预测或决策模型,他们需要数据。正如许多人所说的那样,数据现在是驱逐石油的最抢手的商品之一。它已成为一种新货币。当前,大量数据掌握在大型公司组织的手中。

这些公司具有固有的优势,这对刚刚进入AI开发竞赛的小型初创公司不公平。如果对此不采取任何措施,那将进一步推动大型企业与初创企业之间的动力关系。

  2.偏见

偏见会蔓延到数据建模过程中的方式(这助长了AI的发展)令人恐惧,更不用说创建者要考虑的潜在(已识别或未识别)偏见。偏爱的AI比污秽的数据要细腻得多。深度学习过程有很多阶段可能会出现偏差,目前,我们的标准设计程序根本无法适当地识别它们。

正如本相关文章所指出的那样,我们目前甚至设计AI算法的方法实际上并不是要识别并追溯消除偏差。由于大多数这些算法仅针对其性能进行了测试,因此会流过许多意外的绒毛。这可能是偏见的数据,缺乏社会背景以及对公平性有争议的定义。

  3.计算时间

尽管近年来技术进步迅速扩展,但仍然必须克服一些硬件限制,例如有限的计算资源。同样,鉴于开发此类定制和精确的硬件所产生的成本,老牌公司也具有明显的优势。

  4.费用

在能源和硬件使用方面,挖掘,存储和分析数据都将非常昂贵。

GPT-3模型的培训费用估计为460万美元。另一个视频预测,对于类似于大脑的模型,培训费用将大大高于GPT-3,约为26亿美元。

而且,鉴于这些领域的熟练工程师目前是稀有商品,因此雇用他们肯定会削弱这些公司的财力。同样,新公司和小公司也处于不利地位。

  5.对抗攻击

由于AI不是人类,因此它不能完全适应环境中的偏差。例如,仅在错误的道路两侧粘贴胶带会导致自动驾驶汽车转向错误的车道并撞毁。人类甚至可能不会在磁带上注册或做出反应。在正常情况下,自动驾驶汽车可能会更安全,但我们需要担心的是这些异常情况。

正是这种无法适应的能力凸显了尚未解决的明显安全漏洞。尽管有时“欺骗”这些数据模型可能很有趣且无害(例如,
错误地将烤面包机标识为香蕉),但在极端情况下(例如出于防御目的)却可能使生命受到威胁。

  6.没有关于安全,道德和隐私的共识

弄清楚我们使用AI的极限还有很多工作要做。当前的局限性凸显了AI中安全性的重要性,因此必须迅速采取行动。此外,大多数对AI的批评者都在遵循实施AI的道德准则上争论,不仅是在如何使隐私成为被遗忘的概念方面,也在哲学上。

我们认为我们的情报天生就是人类和独特的。放弃排他性似乎是矛盾的。出现的一个普遍的问题之一是,如果机器人能够完全做到人类能做的一切,并且从本质上讲等同于人类,那么他们是否应该享有人权?如果是这样,您在定义这些机器人权利方面走了多远?这里没有确切的答案。鉴于AI发展的兴起,AI
哲学领域仍处于起步阶段。我很高兴看到AI领域的发展。

上述就是关于人工智能技术的6大局限性的全部内容,想了解更多关于人工智能技术的信息,请继续关注教育。