中国数字家电网

广告赞助

家电常识推荐阅读

主页 > 家电常识 > INTRODUCE

迎接AI时代的到来 人类需要提高“情绪智力”

2019-06-29 17:52 作者:中国数字家电网 来源:互联网 浏览: 我要评论 (条) 字号:

摘要:迎接AI时代的到来 人类需要提高“情绪智力”-科技频道-和讯网

30岁的保健体育 lion heart 在路上歌词 002350 满月 人体蒋碧薇女士 大劈叉快递

人类依然决定着人工智能技术发展的心跳。虽然仍有恶意存在,但是大多数技术专家都是怀揣善意的。

他们会如何描述预期带来的影响?

看全文

每一个开发和部署人工智能的企业都需要在不暴露商业机密的前提下推广自己的技术。事实上,从情绪智力的角度来说,最合适的一种解决方案就是展示AI背后的开发人员,而不是去展现算法。向公众展示是谁开发了AI,此外更重要的一点是,为什么他们会想要开发这项技术。

“人工智能技术能够在大量数据组中很好地识别数据模式。但这并不意味着AI就能取代那些负责分析数据组的人类。”他说,“这反而表明了,人类需要负责理解这些数据组背后的伦理含义、数据组中的间接联系以及这些数据组推动的举措内容。”

“黑匣子”效应指的是决策和举措的制定都是背着大家的,且超出了集体认知范围。该效应便是造成人类与先进技术之间信任鸿沟的元凶。这也表明,信任鸿沟的出现源于大范围内的沟通缺失。

集体概念意义上的“我们”属于期待使用AI技术的外界人士,我们只是信任鸿沟的一方。另外一方则是技术专家。这些天才负责编写代码、开发技术,他们是这项技术的人类代表。

在IBM建议的问题之外,我想每一位负责开发人工智能产品的人员都应当回答以下这些问题:

“如果企业能让他们的技术专家和数据科学家走到幕前,向大家表明这些是真实的人类,那就足以证明他们对于AI技术编程的态度,即是真实的人类在为自己的同胞开发人工智能技术。”波兰科兹明斯基大学及麻省理工学院斯隆管理学院的AI研究员Aleksandra Przegalinska解释道,“这将消除黑匣子心态。”

你可能会喜欢

(责任编辑:王荣智 )

展示AI背后的开发者,而不是展现算法

他们希望达成什么结果?

写评论已有条评论跟帖用户自律公约

对于那些处于创新圣地之外、却希望能采用创新产品的我们来说,单单是承认缺失的事实还不足以触动我们的信任。信任需要维系,为此明确性和透明度必不可少。

促进技术专家的人性

为了更好地理解人类与先进技术之间存在的信任鸿沟并且找到弥合此鸿沟的方法,我同行业内的一些领导者进行了交谈,例如戴尔公司的领导者以及数据科学家Jon Christiansen等。交谈得到的结论并不会让大家感到震惊,但却非常重要。原因很简单,信任鸿沟是确实可以解决的。

“如果AI无法减轻人类肩上的担子或是让他们享受其中,那么它也不会取得成功。”戴尔EMC的总裁兼首席技术官约翰·罗伊斯(John Roese)表示,“我们衡量成功的一个标准便是看其能否改进人类的状态。最佳的判断方式就是评估人类使用该技术后承担的压力大小。他们是否感到受挫?他们的生物物理指标能否表明他们在完成这些任务上所耗费的精力变多还是变少了?”

也许最为重要的是,为什么他们会想要开发这项技术?

就拿戴尔为例吧。通过将用户置于生产力的最佳区域,它创建出了一种以人为中心的人工智能技术。其AI能够改进工作体验。它创造出了用户的数字化身,负责处理那些日常琐碎的计算任务。这样一来,用户本身便可以专注于处理更为重要的一些工作,而不必将精力浪费在整理收到的垃圾邮件上。

就像是家长要为自己的孩子负责一样,每一个开发人工智能的人也应当为其开发的技术负责。

最新评论

格鲁斯解释道,错综复杂(complicated)的系统并不等同于复杂(complex)的系统,这是因为前者涉及到精密的设计,需要借助人类的专业知识加以理解。最重要的是,它们是部分的整合。如果发生了什么悲剧性的事件,比如说空难,这可能是源于系统内出现的一个问题。

“我们信任错综复杂的系统。但在大家看来,人工智能是一个复杂的系统,这是一个不一样的存在。”Cambrian AI的创始人兼管理合作伙伴奥拉夫·格鲁斯(Olaf Groth)说道,他也是《Solomon’s Code: Humanity in a World of Thinking Machines》一书的合著者。

编者按:人工智能技术的问世催生了外界对于科技的质疑与不信任。关于AI将取代人类的言论至今还甚嚣尘上,可实际上对于开发AI的技术专家来说,他们的本意更多是借助技术造福人类。那么,公众与先进技术之间存在的信任鸿沟应当如此弥合?在本文作者Meghan E. Butler看来,企业领导者需要肩负起这一重担,人类也需要提高情绪智力。本文编译自Fastcompany平台上原文名为《The secret to rebuilding trust in tech: More emotionally intelligent humans》的文章。

致力于此,人类终将无惧。

权力越大,社会责任也越大。

和那些让我们感到害怕的技术一样,人类是有能力做出改变的。进化。为自己以及即将迎来的人工智能技术提高情绪智力。

对于大多数分析型和技术型的思考者来说,一个亘古不变的痛点在于,人类本身就是混乱、非线性且无法优化的。因此,与其要求他们回答关于终端用户的问题,还不如让他们回答关于自己的相关问题。

然而,复杂的系统却并不能简化为其组成部分,通常这是一种形成现象。作为一个复杂的系统,人工智能其实是形成产物。部分组合在一起时与其单独运行时起到的作用是不同的,且它们主要受外界因素和数据组的影响。这就使得AI具有更大的神秘性和不确定性,因此也是不值得信任的。

提 交还可输入500字

热门新闻排行榜

  • 陆正耀的二号门徒:OYO李维能否玩转“神州系”资本游戏?
  • 暴风TV三年巨亏近20亿暴风集团和东山精密中枪
  • Bilibili十周年最大彩蛋:出品《三体》系列动画
  • 格力电器股东大会直击:漩涡当口董明珠缺席两议案铺路控股权变动
  • 小红书“笔记造假”质疑再起公司称已在治理
  • 24年,家乐福为什么错失了中国市场?
  • 百度重置棋盘,近5年最年轻高管团队亮相
  • 和讯热销金融证券产品

    有一个众所周知、但大家却不愿承认的事实:人们通常不喜欢那些自己不信任的事物,也不会信任那些自己无法理解的事物。

    关于正在开发的技术,他们是怎么认为的?

    展现企业的自我意识并首度承认对于未知的恐惧,这样才能够建立起真正的连接,“触发”人类信任。触发人类信任则是企业沟通功能的职责所在,此外还要辅以领导层的努力。

    Cambria AI的格鲁斯表示:“在科技驱动的经济体下,掌握大权的是那些拥有技术专业知识和资本的人。”

    “和职场性骚扰问题的相关培训一样,企业也应当设置情绪智力课程,尤其是要为那些设计模型的数据科学家准备。”IBM的物联网和数字部门主管丽莎·西卡特·德卢卡(Lisa Seacat DeLuca)说。

    专家称以下这些方式可以帮助AI领导者在其企业或整个行业内设定标准,共同发力来弥合信任鸿沟,从而确保大家能够更好地理解并采用人工智能技术。

    (责任编辑:admin)
    顶一下
    (0)
    0%
    踩一下
    (0)
    0%
    ------分隔线----------------------------
    ◎最新评论
        谈谈您对该文章的看
        表  情:
        评论内容:
        点击我更换图片
        * 请注意用语文明且合法,谢谢合作 审核后才会显示! Ctrl+回车 可以直接发表