<img height="1" width="1" style="display:none" src="//www.facebook.com/tr?id=1509222356040859&amp;ev=PageView&amp;noscript=1">

填写此表格以请求您访问平台。

职位描述:为成功实施计划而努力的第一步

除了是出色的广告工具外,职位描述还为配备人员的重要信息提供了有效的人才招聘流程。不清楚,过时或不完整的工作[...]

December 02, 2020

阅读更多
所有帖子

只有在没有偏见的情况下人工智能才有希望

至少在媒体上,有关人工智能(AI)未来的全球对话似乎已经变得非常二元化。在辩论的一方面,技术爱好者激动地称赞即将到来 奇点,当机器和人类融合时。在过道上,像埃隆·马斯克(Elon Musk)这样的有远见的人被描绘成 新路德人,厄运的先知提供了机器人催生的反乌托邦的严峻预兆。一如既往,现实处于原本令人激动的论点的中心。我相信双方都同意。是的,AI承诺会带来很多进步,这些进步可以改善社会以及其中的人们。但是,正如我们已经看到的,它也会带来一些非常灾难性的结果。解决方案归结为:AI将学习我们人类所教的东西。确保我们共同成功的最好方法是采用我们应该雇用的机器学习方法:消除流程中的偏见。

数字,神与数据

人工智能在商业世界和社会中具有广阔的前景。在我们的行业中,人工智能是 简化招聘,创造有意义 员工经验,并重塑可帮助我们打造真正的技术 人才生态系统。就奇异性而言,我们已经目睹了激动人心的时刻。例如,医学领域的纳米技术可以潜在地修复受损的组织,消除癌细胞等。然而,机器人与人互动的想法引起了人们可以理解的恐惧。

考虑一个 文章 由John Brandon在VentureBeat中发表。他指出:“在接下来的25年中,人工智能将发展到在知识上比任何人都了解更多的程度。” “在未来的50或100年中,一个AI可能知道的不只是地球整个人口的总和。”有哪些可能的后果?好吧,有些令人震惊。其他人则更可怕。

Google自动驾驶汽车背后的工程师Anthony Levandowski最近提交了文件申请,成立了一个名为“ 未来之路旨在促进基于人工智能的神灵崇拜。像文斯·林奇(Vince Lynch)这样的AI专家认为,这一概念是完全可行的。实际上,林奇(Lynch)产生了一个简化的模型,该模型能够构建自己的异常一致的圣经短语。

布兰登解释说:“在接下来的25至50年内,一门功能强大的AI可能会决定编写一本类似的AI圣经供人类遵循,这与自己的集体智慧相匹配。” “它可能会告诉您每天做什么,旅行的方式或生活的方式。”考虑到这段经文的内容,对于许多人来说,这是一个令人恐惧的想法。

这就是埃隆·马斯克(Elon Musk)关于规范AI的不懈警告的作用。马斯克没有杀死AI或阻止其发展的计划。相反,他正在建设突破性的人工智能系统,以发展特斯拉的自动驾驶汽车和SpaceX火箭工程。他了解AI的重要性及其带来的好处。他还认识到,我们在孩子成长的整个过程中所教给他们的东西(在这种情况下,就是技术的发展)会影响他们的行为,思想,观点,举止和行为。通过这种方式,AI超越了技巧,成为了动态数字智能(我刚刚弥补了这一点,因此现在申请版权)。马斯克用一条令人发指的推文证明了这一点。

10月26日,由机器人专家David Hanson创建的名为Sophia的AI, 香熏麝香 在与《纽约时报》专栏作家安德鲁·罗斯·索金(Andrew Ross Sorkin)的实时对话中。在讨论AI保护人类的价值观时,Sophia描述了机器人具有善解人意和珍惜同情心的能力。索尔金回答说:“我们所有人都相信您,但希望避免遇到不好的未来。”那时,索菲亚告诉索尔金(Sorkin),他“一直在读太多埃隆·马斯克(Elon Musk)”。

交流有其机智和幽默感。但是,马斯克的回应最终揭示了 机器学习的潜在问题:我们。 “只需喂教父电影作为输入。可能发生的最坏情况是什么?”他问。

人的偏见成为AI的偏见

“机器人人工智能平台正在逐渐取代人类决策者, 天生的种族主义和性别歧视,专家们警告说。

归根结底,算法达到了一系列的相关性。并且,作为研究的基本原则,仅仅相关性并不意味着因果关系,尽管它可能导致错误的肯定和否定。例如,数据可以告诉我们饮食可以使我们超重,这与食物的存在有关。那并不意味着我们应该停止吃食物。

这个问题是TED演讲中关于Joy Buolamwini的主题,他发现了与 面部识别算法.

麻省理工学院的研究生Joy Buolamwini注意到一个问题时正在使用面部分析软件:该软件无法检测到她的脸-因为对该算法进行编码的人员没有教过它来识别各种各样的肤色和面部结构。现在,她的任务是与机器学习中的偏见作斗争,这种现象被她称为“编码注视”。关于算法中的问责制的需求令人talk目结舌,因为算法占据了我们生活中越来越多的方面。

这是另一个例子。一种分析候选人社交媒体数据的系统将同性伴侣接吻的头像标记为“性暗示材料”。这张照片不le亵,也不具有挑衅性。该技术根本无法考虑到一种坚定的,非传统的关系,并且无法将图像作为爱的正常表达来调和,而不是“图形内容”。还有更多。

  • 该计划旨在筛选出反对女性,黑人和其他少数族裔的大学医学候选人。
  • 波士顿大学通过训练机器来分析从Google新闻收集的文本,发现了AI算法中的偏见。他们把这个比喻为计算机:“男人是计算机程序员,女人是x。” AI回应为“家庭主妇”。
  • 美国建立的另一个平台研究了互联网图像,以塑造其情境学习系统。当在厨房里展示男人的照片时,AI坚持认为该人是女人。
  • 一个更令人震惊的例子来自刑事法院使用的计算机程序来评估累犯风险。替代制裁机器的矫正罪犯管理配置文件“更容易错误地将黑人被告贴上可能再犯的标签。”对于英国人来说,这一顿悟产生于一个有争议的时刻,他们正在辩论监管“杀手机器人”的法规,这些机器人能够在没有人为控制的情况下识别,瞄准和杀死。

微软揭幕时,社交媒体上爆发了最著名的验证文章之一 ,一种聊天机器人,在用户利用其机器学习功能向其传授这些行为后的一个小时内,便发出了种族主义,性别歧视和其他贬义的言论。

没有多样性,人工智能将成为什么?

我们所有人都在Crowdstaffing 热情地拥抱指数技术 以及它们将带给这个世界的巨大利益。只要人类走过地球,就一直在寻求使手动过程自动化。不相信我吗?轮。马车。船。织机装配线。车库门开启器。洗碗机。交通信号灯(是的,用来调节过境车辆的人员)。我们乐于获取最新的产品,并为自动化给我们带来的便利而陶醉。我们不怕机器。我们担心会更少。

如果我们利用自动化的效率和竞争优势,我们将找到支持人才的新方法-而不是替代人才。普华永道(PwC)相信,自动化的兴起实际上将提高生产率,并在经济中其他地方创造更多的就业机会。

作为Rally Health的汤姆·佩罗(Tom Perrault) 观测到的 在《哈佛商业评论》中,“在未来可以想象的任何组织中,无法替代的正是今天似乎被忽视的东西:诸如创造力,同理心,倾听和远见之类的文科技能。这些技能,而不是数字或技术技能,将成为公司未来成功的关键。”

像埃隆·马斯克(Elon Musk)一样,我们相信机器将向我们开放的希望和未来的繁荣。与Musk一样,我们也会谨慎对待这些进步,建议在监督数字儿童的发展过程中进行负责任的育儿。如果担心越来越少,那么无视偏见所造成的威胁肯定会使之成为现实。

机器学习只是一面镜子,反映了第一任教师的知识,态度和行为。如果以排他的个人作为榜样,那么机器将学会区别,排除和误判您的潜在客户,工人和领导者。

作为人才招聘的领导者,我们已经亲眼目睹了缺乏包容性和不受约束的偏见如何阻碍招聘过程。 2016年4月,担任陪审团后,我受到启发 陪审员选择 作为如何消除招聘偏见的蓝图。但是,我们必须将这种做法扩展到我们正在开发的情报系统中。技术,商业,劳动力和整个世界的成功取决于全人类的包容性和公正性。

苏尼尔·巴盖(Sunil Bagai)
苏尼尔·巴盖(Sunil Bagai)
苏尼尔(Sunil)是硅谷的思想领袖,演讲者,激励人,也是开创性的Crowdstaffing生态系统背后的远见卓识。他融合了远见,技术和业务技能,正在改变人才招聘格局和工作的本质。在创办Crowdstaffing之前,Sunil曾作为IBM,EMC和Symantec等公司的业务领导者磨练过他的技能和经验。 “我们需要以指数的方式思考,以认真构筑人类,文明和工作的未来。当我们进行协作和共同努力时,每个人都会繁荣。”
发表评论

相关文章

职位描述:为成功实施计划而努力的第一步

除了是出色的广告工具外,职位描述还为配备人员的重要信息提供了信息。
人群拥挤 2020年12月2日下午3:51:02

在建立新员工时扩大与现有员工合作伙伴关系的重要性

配备人员的供应商是兴旺的临时员工计划的推动力,并建立了稳定的员工队伍。
人群拥挤 2020年11月4日下午2:05:35