加入收藏 | 设为首页 | 会员中心 | 我要投稿 鹰潭站长网 (https://www.0701zz.cn/)- 图像处理、低代码、云通信、数据工具、物联设备!
当前位置: 首页 > 站长资讯 > 动态 > 正文

人工智能:未来趋势

发布时间:2020-11-06 12:51:46 所属栏目:动态 来源:互联网
导读:AI可以被偏见吗? 如果是在早些年,说计算机程序存在偏见似乎听起来荒谬的。毕竟,为什么任何软件都会关心某人的种族、性别和肤色?但是那是在机器学习和大数据授权计算机做出自己的决定之前。 现在,算法正在增强客户支持,重塑当代时尚,并为从法律和秩序到

AI可以被偏见吗?

如果是在早些年,说计算机程序存在偏见似乎听起来荒谬的。毕竟,为什么任何软件都会关心某人的种族、性别和肤色?但是那是在机器学习和大数据授权计算机做出自己的决定之前。

现在,算法正在增强客户支持,重塑当代时尚,并为从法律和秩序到城市管理的所有流程都可以自动化的未来铺平道路。

Namobot网站的迈克尔·雷诺兹(Michael Reynolds)解释说:“我们面临着一个非常现实的机会,即AI反乌托邦。”该网站通过大数据和算法来生成博客名称。 “包含人类解释和认知评估的错误数据集会使机器学习模型将人类偏见转化为算法。”

这不是遥不可及的事,但已经在发生。

算法偏差是一个复杂的问题,主要是因为很难观察到。程序员常常困惑于发现他们基于性别和肤色对人的歧视算法。去年,史蒂夫·沃兹尼亚克(Steve Wozniak)透露,苹果给他的信用额度是他妻子的10倍,尽管她的信用评分更高。

消费者很少会发现这种差异。审查人工智能部分歧视的研究也需要大量时间和资源。因此,倡导者要求在整个系统的运行方式上提高透明度。

该问题值得在全行业范围内解决,但在此过程中仍存在障碍。即使发现算法存在偏差,企业也不允许其他人分析数据,并且调查不够彻底。苹果公司表示将调查沃兹尼亚克问题,但到目前为止没有任何进展。

提高透明度将要求企业向观察员透露他们的训练数据或接受第三方审核。程序员还可以选择主动进行测试,以确定将其系统应用到属于不同背景的个人时的方式。

为了确保一定程度的透明度,用于训练AI的数据和用于评估AI的数据应公开。在政府事务上,做到这一点应该更容易。但是,企业界会拒绝这种想法。

数据多元化

根据纽约大学研究中心发表的一篇论文,人工智能缺乏多样性已经到了“思考的时刻”。研究表明,由于这个原因,AI领域绝大多数是白人和男性,因此有重新确立权力失衡和历史偏见的风险。

该报告的作者凯特·克劳福德解释说:“AI行业必须承认局势的严重性,并承认其现有方法未能解决这些问题。”

由于Facebook和Microsoft都拥有4%的黑人劳动力-很明显,在AI领域中少数民族没有得到公平的代表。研究人员和程序员是一群具有一定特权的同质人群。

如果资源池多样化,那么数据将更能代表我们所居住的世界。算法将获得当前被忽略的观点,并且AI程序的偏见将大大减少。

距离全球被乔治·弗洛伊德(George Floyd)被跪害惨案震惊仅仅过了三个月。在美国的集体记忆中,白人警官跪在黑人公民身上8分钟46秒的画面仍然历历在目。

这并不是美国首例种族歧视的警察暴行。不幸的是,它也不是最后一个。

种族主义在这个国家有很深的渊源。这是一种溃烂的伤口,要么被忽略,要么用感染性药物治疗。美国的制度种族主义没有尽头,而且更糟的是,这种疾病正在寻找新的传播途径。

甚至被认为是现代历史上最大的技术突破之一的人工智能,也继承了一些在社会上普遍存在的偏见。

(编辑:鹰潭站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读