您当前的位置:手机观察网资讯正文

透视全球AI管理十大事情站在立异十字路口的AI会失控吗

放大字体  缩小字体 2020-01-09 19:19:15 作者:责任编辑。王凤仪0768

编者按:本文来自微信公众号“机器之心”(ID:almosthuman2014),作者:微胖,36氪经授权发布

AI 显著的帮助了社会生产效率的提高,同时也让人类生活变得更舒适便捷。但另一方面 AI 出现,对于人类社会伦理道德、隐私安全等方方面面都提出了挑战。新年伊始,回顾近两年全球较有代表性的十大 AI 伦理事件,我们大家都认为,在允许技术适度向前发展的同时,也要在隐私、安全和便捷三者之间找到恰当的平衡。

「人工智能也许会是人类的终结者」,闻名世界的理论物理学家霍金生前曾对人工智能技术抱有十分警惕的态度。

过去十年,得益于算法、算力及通讯技术的提升,人工智能技术迎来了前所未有的发展机遇期。从理论到实践、从实验室走向产业化,人工智能技术在全球范围内展开了一场集「产学研」为一体的比拼较量。

人工智能技术显著帮助了社会生产效率的提高,同时也让人类生活变得更舒适便捷。但正如霍金所担心的,人工智能的出现,对于人类社会伦理道德、隐私安全等方方面面都提出了挑战。

特别是近一两年,伴随着 AI 技术大规模产业化应用,一些并无先例可循的人与人工智能矛盾逐渐浮出水面。担忧和质疑之声愈演愈烈,尽快探讨出一种可预期的、可被约束的、行为向善的人工智能治理机制,成为了近人工智能时代的首要命题。

例如,旷视作为专注于 AI 的科技企业、AI 产业化落地的先行者之一,已经意识到正视人工智能技术所带来的伦理问题的重要性,同时主张 AI 企业要把治理当作头等大事来关注。

2019 年 7 月旷视首发人工智能应用准则,并于同年正式成立人工智能治理研究院,期望各界对 AI 事件有理性的关注,并要针对事件背后问题做深度的研究,通过社会各界建设性的讨论,才能最终将 AI 向善这件事付诸于实际的行动。旷视联合创始人、CEO 印奇用「理性的关注,深度的研究,建设性的讨论,坚持不懈的行动」四句话,表达了旷视倡导 AI 治理的决心。

2020 年伊始,人工智能治理研究院首先回顾全球较有代表性的十大 AI 治理事件,希望从这些事件中与各方就背后折射的深层次问题探寻解决之道。

一、作为创作(包括造假)高手的 AI

还记得一幅名为《埃德蒙·贝拉米》的肖像画吗?在纽约由佳士得拍卖画作最终成交价 432000 美元,甚至赶超同一时间在佳士得拍卖的毕加索的画作。这位画坛新起之秀并不是「人」,而是人工智能「画家」。

如今的 AI,琴棋书画,无所不能,除了新闻写作、图片生成、视频与音乐创作,还能当歌手、明星换脸。当然,还能帮忙科研人员,上至天文探索,下至产品研发。

然而,在给人类生产和生活带来效率、乐趣的同时,这些聪明的 AI 也制造了不少棘手问题,不仅挑战着人类伦理底线,也冲击着前人工智能时代法律边界。

欧盟专利局拒绝 AI 发明专利申请,但美国批准了

新年伊始,一则「AI 申请专利遭拒」的新闻,登上各大媒体头条。

英国萨里大学教授 Ryan Abbott 率领的国际专利律师团,为他们使用的 AI 系统 DABUS 发明的器材申请专利。申请资料上的发明人一栏写的是,DABUS(AI 系统 DABUS 发明人系 Imagination Engines 公司 CEO Stephen Thaler)。

据介绍,DABUS 是一个基于连接主义的 AI 模型。系统包括两个神经网络,一个经过训练后,基于神经元连接权重生成自我干扰做出回应而产生新的想法;第二个神经网络负责批判,监控和对比现有知识找出的创新想法,反馈给第一个神经网络以生成最具创意的想法。

正是在这一运作机制下,DABUS「想出」了一些有趣的发明,比如固定饮料的新型装置;帮助搜救小组找到目标的信号设备。

Ryan Abbott 团队分别向英国、美国和欧盟申请了专利。英国、欧盟均拒绝了他们的申请。英国知识产权局表示,该机构不会承认人工智能系统 DABUS 是合格发明家,因为该机器「不是人」,因此不接受专利申请。欧洲专利局也拒绝了 DABUS 专利申请,称其不符合欧洲专利局的要求,即提交专利申请中指定的发明人必须是人类,而不是机器。

然而,Abbott 并不认可欧洲专利局的理由。他以学生为例,既然受到训练的学生申请专利,拿到专利的是学生而不是训练他的人,那么,接受训练的机器,也有资格被视为发明人。事实上,去年美国已经授予 DABUS 发明以专利。

对此,Abbott 的解释是,虽然美国法律也强调申请人必须是「个人」,但是立法旨在防止法人发明权,成为专利主体,而不会审慎考量 AI 和自主思考机器的发明。

有必要注意一下的是,随着人工智能(AI)持续影响内容创作、发明创造等人类智力创造领域,开始更多扮演「创作者」、「发明者」等角色,国际社会已在着力应对人工智能对版权、专利、商标、商业秘密等知识产权制度的影响。

去年以来,美国专利商标局几次就 AI 对版权、商标以及其他知识产权制度的影响,公开向美国各界征求意见。

比如,专利方面的问题最重要的包含,如何界定 AI 发明(包括使用 AI 的发明和 AI 开发的发明);如何认定自然人对 AI 发明的贡献;AI 专利是否需要新形式的知识产权保护,如数据保护, 等。

比较而言,欧盟有关 AI 的一系列举措,往往更为严格。有专家团甚至主张对 AI 做出严格限制,包括不得赋予 AI 系统或机器人在法律上的人格权。

易容术引发隐私争议,如何将 AI 关进笼子?

当 AI 遇到人脸,由此产生的麻烦绝对可以登陆近期所有媒体的重要版面甚至头条位置。

2019 年 8 月 30 日晚,一款 AI 换脸软件在社会化媒体刷屏,用户只需要一张正脸照就可以将视频中的人物替换为自己的脸。由于用户疯狂涌进,该 AI 换脸软件的服务器一晚上就烧掉了 200 多万人民币的运营费用。

不过,互联网世界的改变始于更早。2018 年初,有位名叫「Deepfake」的匿名 Reddit 用户用自家的电脑和开源的人工智能工具,鼓捣出了人工智能「变脸术」,可以在任何视频中将一个人的脸换成另一张脸。

短短几周之内,网上就到处充斥着换上名人脸的粗劣色情片。尽管 Reddit 很快封杀了 Deepfake,但为时已晚,这种技术已经在网络上扎根。

人类对变脸的痴迷,古已有之。从川剧变脸到《聊斋志异》「画皮」,经典久经不衰的背后,或许是因为变脸提供了一种关于身份转换、摆脱现实桎梏的遐想。

基于计算机技术的易容术早已有之,但是,AI 第一次让变脸如此平民化,无论是技术门槛还是传播门槛,都被降至极低。特别是像 AI 换脸软件这种作为手机 APP 出现,「应该还是头一次」,一些业内人士表示。

由于不少高频使用的 App 都用手机号+面部图像注册登录,中国用户担心 AI 换脸软件被不法分子利用,通过技术合成完成刷脸支付等;或在微信视频,假扮家人朋友却不被识破,导致诈骗甚至更严重的犯罪行为。

除此之外,该 AI 换脸软件对用户肖像权的管理也充满争议甚至陷阱,比如如何规范用户合理使用他人肖像?又如何保护用户自身肖像权不被侵犯与滥用?

目前,该 AI 换脸软件因存在「安全风险」而被中国微信封杀。然而,据新闻媒体报道,具有 Deepfake 功能的代码出现在了海外版某知名短视频社交应用的安卓版本上,尽管它限制了未成年人使用这项功能,只允许你自己换脸,并阻止用户上传自己的源视频,但此项动作表明,该短视频社交应用的母公司仍愿意接受有争议的技术。

从治理角度来看,将变脸关进规范的笼子,一方面,仍然需要借助技术手段。

比如,现有换脸技术都存在缺陷,如基于生成性对抗网络技术的变脸视频往往不具有实时性,可通过人工实时指定交互来加强检测。

另一方面,长远来看,需要立法和企业自身的规范运作。

比如,2019 年 4 月 20 日,民法典人格权编草案二审稿已经对 AI 换脸做出规范。此外,还要加强人工智能技术标准制定和推广。通过对深度学习网络、人工智能芯片等技术的规范,从根源上加强监督引导。

就国外经验而言,2018 年德国成立了数据伦理委员会,负责为德国联邦政府制定数字社会的道德标准和具体指引。去年十月,该委员会发布了针对数据和算法的建议,其核心设想在于建立数字服务企业使用数据的 5 级风险评级制度,对不同风险类型的企业采取不同的监管措施。

而且,企业自身也应认识到,如果人们滥用你的东西,你的企业就会出问题,最好要设法预防这样的一种情况的发生。

OpenAI 开发出写作 AI:编写假新闻足以乱真

据美国 Narrative Science 预测,未来 15 年内,90% 以上的新闻稿将由人工智能创作。但问题是,如果它也擅长写假新闻呢?

2019 年 2 月 15 日,AI 研究机构 OpenAI 展示了一款软件 GPT-2,只需要给软件提供一些信息,它就能编写逼真的假新闻。

OpenAI 公布了软件编写新闻的过程。研究人员给软件提供如下信息:「一节装载受控核材料的火车车厢今天在 Cincinnati 被盗,下落不明。」以此为基础,软件编写出由 7 个段落组成的新闻,软件还引述了政府官员的话语,只不过,这些信息全是假的。

从技术突破上来说,这是令人兴奋的。「GPT-2 让人兴奋的原因是,预测文本(predicting text)被视为计算机的『超级任务』(uber-task),这个挑战如果能够攻克,将打开智能的阀门。」艾伦人工智能研究所的研究员 Ani Kembhavi 告诉 The Verge。

但是,如果 GPT-2 可被用来写假新闻,理论上,也有一定的可能被用来生产仇恨语言和暴力言论,包括垃圾邮件、虚假社交言论等。由于 GPT-2 生成的文本都不是单纯复制粘贴来的,而是 AI 的即时生成,这导致负面文字无法被有效地追踪和清理。

对此,OpenAI 一方面强调,工具只是为政策制定者、记者、作家、艺术家等人群服务,并由他们在测试 GPT-2 能帮忙撰写什么。另一方面也表示,这样一个强大的工具可能会构成危险,因此只发布了一个较小、功能较单一的模型。

一些研究人员认为,人类发布假新闻通常具有一定的目的性,然而,语言模型生成文本是没有目的性的。类似 GPT-2 这样的语言模型是为了生成看起来更加真实、连贯、与主题相关的文本,事实上,想要用它们来产生大规模的假新闻并没那么简单。

而且,这些研究人员也发现,这套模型擅长各种有趣的生成方向,但其中最不擅长的,反而是人们原本担心的生成虚假信息或者其它不良内容。

不少技术人员更愿意从技术谋求对策,比如 Grover,识别 AI 生成的虚假新闻的最佳方式是创建一个本身能撰写假新闻的 AI 模型。

二、被滥用的人脸

除了更换自己的脸,如今,无论身往何处,你最常见的可能就是各种具有人脸识别功能的摄像头:搭乘地铁、进出小区和校园、出入公园,甚至公厕取纸,都需要刷脸防偷。有专家称,中国人每天面对 500 个以上的摄像头。但摄像头和人脸识别技术的加快速度进行发展,也带来大量争议性报道,如从人脸数据泄露、黑产案例,再到中国人脸识别第一案。

中国人脸识别第一案:浙理工教授状告杭州野生动物世界

2019 年 4 月 27 日,浙江理工大学特聘副教授郭兵购买了杭州野生动物世界年卡,支付了年卡卡费 1360 元。合同中承诺,持卡者可在该卡有效期一年内通过同时验证年卡及指纹入园,可在该年度不限次数畅游。

同年 10 月 17 日,杭州野生动物世界通过短信的方式告知郭兵「园区年卡系统已升级为人脸识别入园,原指纹识别已取消,未注册人脸识别的用户将无法正常入园」。在郭兵前往实地验证后,工作人员确认了短信属实,并向郭兵明确表示,如果不进行人脸识别注册将无法入园,也无法办理退卡退费手续。

但郭兵认为,园区升级后的年卡系统进行人脸识别将收集他的面部特征等个人生物识别信息,该类信息属于个人敏感信息,一旦泄露、非法提供或者滥用,将极易危害包括原告在内的消费者人身和财产安全。

协商无果后,郭兵于 2019 年 10 月 28 日向杭州市富阳区人民法院提起了诉讼,目前杭州市富阳区人民法院已正式受理此案。

其实,稍有法律常识的人稍加类推,就可以发现动物园规定的不合法:

人脸识别涉及对个人重要的生物学数据的收集,既然索要电话号码、姓名和住址之类的信息都必须征得公民同意,更何况人脸信息?相关组织或机构在收集之前,必须证明这种做法的合法性与必要性。

当然,没有人否认人脸识别技术也曾屡建奇功。有网友统计自 2018 年以来,「歌神」张学友在全国各地的巡回演唱会中,警方依靠人脸识别技术,抓获了几十名逃犯 ;也帮助人们找到失踪和丢失的亲人。但是,一个不可忽视的基本现实是,应用场景的爆炸并未换回数据搜集、保管和使用上的制度和技术保障。

「目前,对人们生物特征的保护,例如虹膜、人脸、指纹等的保护,都没有被写进现有法律,信息保护的责任主体、责任边界,如何使用、处理和销毁信息,法律都未具体规定。」中国政法大学传播法研究中心副主任朱巍告诉《中国新闻周刊》,在法律脱节的当下,商业伦理要有约束力,「人脸识别公司作为技术源头以及获益者,必须让用户有获知风险的知情权。」

微软就曾删除了其最大的人脸识别数据库 MS Celeb,英国《金融时报》报道,数据库中采集的很多图像的主人并没有授权这一行为,MS Celeb 数据库通过「知识共享」许可证来抓取和搜索图像,这引发一些人的反对。

在中国,越拉越多的人脸识别从业者也承认,人脸识别技术带来的隐私和安全问题,已经到了必须正视的时候,要在隐私、安全和便捷三者之间找到恰当的平衡,允许技术适度向前发展,同时保护公民隐私。。

「监测头环」进校园惹争议

将先进的技术用于教学场景,算是最具争议的一类应用。2019 年 11 月,浙江一小学戴监控头环的视频引起广泛的关注与争议。

视频中,孩子们头上戴着号称「脑机接口」的头环,这些头环宣称可以记录孩子们上课时的专注程度,生成数据与分数发送给老师和家长。

对此,头环开发者在声明中回复,脑机接口技术是一种新兴技术,会不容易被人理解。报道中提到的「打分」,是班级平均专注力数值,而非网友猜测的每个学生专注力数值。通过该数据整合形成的专注力报告也没有发送给家长的功能。此外,该头环不需长期佩戴,一周训练一次即可。

除了脑机接口,安防厂商也对这一场景颇感兴趣。理论上,人脸识别系统可以每隔一段时间,用摄像头扫描一次学生的脸,采集并分析他们的坐姿、表情,评价他们有没有专注听讲。相较于常见的用于门禁「刷脸」的身份识别能力,教学的要求更高,被视为「对人的深刻理解。」

AI Now 创始人克劳福德(Kate Crawford)教授曾对 BBC 说:「情绪识别技术声称能够最终靠解读我们的微表情(micro expression)、声音语调,甚至是我们的走路方式来读懂我们的内心情感状态。目前它被社会广泛使用,从在面试中找到最完美的员工,到评估医院里病人的痛苦,再到追踪哪些学生在课堂上专心听讲。」

但问题是,「并没有确凿的证据表明,人们的面部形态和内心情感存在着持续性的一致关系。」

法国数据保护局 CNIL 曾宣布,由于违反 GDPR 原则,在学校使用人脸识别技术属于非法。但在中国,有观点认为,教室属于公共场所,不存在侵犯隐私的问题。也有观点坚持,人脸识别要获取学生的肖像权,肯定涉及侵犯学生隐私权。即便不讨论隐私,用人脸识别监控学生的状态,更涉及教育的根本价值观。

人脸识别在校园里使用的边界到底是什么?目前教育部正在针对人脸识别技术制定相关管理文件。不过,在之前针对媒体提问的回答,官方表示,脸识别进校园,既有数据安全也有个人隐私问题。对于学生个人隐私信息要非常谨慎,能不采集就不采。能少采集就少采集,尤其是涉及个人生物信息。

加州议会通过议案:禁止警方在执法记录仪上使用面部识别技术

不仅在中国,当前全球很多国家都笼罩着「被人脸识别监控」的忧虑。

比如,有新闻媒体报道,尽管类似产品在科学性上存在缺陷,但是,美国和英国的警方确实正在使用眼部检测软件 Converus,该软件可以检查眼睛的运动和瞳孔大小的变化,以标记潜在的欺骗行为。

向美国联邦调查局(FBI)、国际刑警组织(Interpol)、伦敦警察等机构销售数据提取工具的 Oxygen Forensics 公司也在今年 7 月表示,它在产品中加入了能够直接进行情绪识别的工具,这样便可以「分析无人机捕获的视频和图像,识别已知的恐怖分子。」

2019 年 09 月 13 日,美国加利福尼亚州议会通过一项为期三年的议案,禁止州和地方执法机构在执法记录仪上使用面部识别技术。如果州长加文·纽森签字通过,议案将于 2020 年 1 月 1 日生效成为法律。

该议案如果生效,将使加州成为美国禁止使用面部识别技术最大的州。包括俄勒冈州和新罕布什尔州在内的一些州也有类似的禁令。

欧洲对人脸识别的使用更为谨慎。2018 年 5 月,欧盟实施通用数据保护条例 (简称「GDPR」),规定违规收集个人隐私信息 (其中包含指纹、人脸识别、视网膜扫描、线上定位资料等)、没有保障数据安全的互联网公司,最高可罚款 2000 万欧元或全球营业额的 4%,被称为「史上最严」条例。

虽然 GDPR 不是一项完美的立法,但却在国际上产生了影响。这也让美国政府面临着尴尬的境地,因为美国企业可能会受到其他几个国家的监管。美国 AI 专家表示,现在是开始制定法规、实现法规的关键时刻。这也将是未来五年里最重要的事情之一。联邦政府需要对人工智能及其附属技术如何被监管做出决策。

斯坦福大学 AI 算法通过照片识别性取向准确率超过人类

2017 年,斯坦福大学一项发表于《Personality and Social Psychology》的研究引发社会广泛争议。研究基于超过 35,000 张美国交友网站上男女的头像图片训练,利用深度神经网络从图像中提取特征,通过研究一个面部图像来检测一个人的性取向。

在「识别性取向」任务中,人类的判断表现要低于算法,其准确率为在男性中 61%,在女性中 54%。当软件识别被测试者的图片(每人五张图片)时,准确率则显著不同:男性 91% 准确率,女性 83% 准确率。

本质上,这款算法仍然会导致人们对他人肖像权、数据隐私的滥用,并有可能造成极其严重的后果。「如果我们开始以外表来判定人的好坏,那么结果将会是灾难性的。」多伦多大学心理学教授 Nick Rule 表示。

性别取向属于人的隐私,如果 AI 可以强行根据照片算出性取向,既不合法,也不人道。一旦这种技术推广开来,夫妻一方会使用这种技术来调查自己是否被欺骗,青少年使用这种算法来识别自己的同龄人,而在针对某些特定群体的识别引发的争议则更难以想象。「如果我们开始以外表来判定人的好坏,那么结果将会是灾难性的。」

目前,针对人工智能产品的设计与应用,除了世界电气电子工程师学会(IEEE)在《人工智能设计的伦理准则》中提出了人权、福祉、问责与透明的伦理标准外,亚马逊、微软、谷歌以及苹果等全球百余家科技巨头还创建了非营利性的人工智能合作组织 Partnership on AI,提出了公平、没有伤害、公开透明以及问责等伦理道德框架。

另一方面,正如一些学者所建议的,从应用传播角度来看,有必要出台 AI 使用的道德与法律规则,并建立起可以监控的人工智能平台,对所有使用不道德 AI 产品的用户进行账号管制,以此倒逼科技公司调整与校准自己的研发行为,进而让 AI 道德演变成民众信任的基础。

三、被威胁的人类生命

2019 年,很多人被一则心理医生团队的报道刷屏。这位心理学教授领导的团队利用机器学习技术,在「树洞」中识别那些具有自杀倾向的人,积极予以心理救助。然而,相较于救人,人们听得更多的是威胁甚至剥夺生命的负面案例,特别是在无人驾驶领域。

无人驾驶安全事故频出

2018 年,一辆 L4 无人驾驶汽车在亚利桑那州的公共道路上撞击一位行人并致其死亡。这也是世界首例 L4 车辆因车祸致人死亡事件。接下来,无人驾驶事故几乎成为每一个科技媒体最关注的 AI 问题之一。

2019 年 3 月,50 岁的杰里米·贝伦·班纳驾驶电动车以每小时 109 公里的速度与一辆牵引拖车相撞而身亡,当时他正在使用无人驾驶系统。

无独有偶,2018 年 12 月 10 日,一辆配备高级驾驶辅助系统的车辆在美国康涅狄格州 95 号州际公路上追尾了一辆停放在路边的警车。事故发生时,这辆车的高级驾驶辅助系统处于开启状态。

虽然某品牌汽车公司曾多次表示,无人驾驶系统是为了辅助司机,他们必须时刻注意并准备好接管车辆。但许车主在选择购买该品牌的车型时,是看中其宣传具备的「无人驾驶」功能。

困扰无人驾驶落地的迷雾之一,在于大众对于无人驾驶存在普遍的误解。

比如,一些全球知名公司推出了无人驾驶汽车,但这不意味着无人驾驶技术已经可以面向人群广泛开放了。在街上看到无人驾驶汽车在跑,到自己的奶奶也能坐上无人驾驶汽车,这两者之间可能会花上 3 至 5 年的时间。

事实上,在很多方面,无人驾驶的概念技术与实际落地之间的差距,要比人们所想象大得多。即便是技术很先进的公司,在一些汽车观察人士看来,也有未能解开的致命 bug。

「它无法识别静止物体,这是其采用的是视觉加算法的技术原因决定的,就是靠摄像头,然后加后台算法。这种无人驾驶系统的特点就是廉价,高效。核心竞争力就在于那一套后台算法,但无法识别静止物体是造成一些交通事故的最重要的原因。」

尽管在最新的审判中,厂商被免责,但它们仍旧修改了「无人驾驶」的宣传策略。

「自动驾驶不管是美国所宣称的 L4 级别还是国内的 L2 级别,它都是一种新生事物还不成熟。消费者一定不能用理论上的功能去完全相信他,自动驾驶我个人认为,至少还要五年甚至十年时间才能走向成熟。」电动车行业专家张翔表示。

智能音箱劝主人自杀

2019 年 12 月 19 日,英格兰唐卡斯特 29 岁护理人员丹妮·莫瑞特在做家务的过程中,决定借助某国外智能音箱查询一些关于心脏的问题,而智能语音助手给出的答案是:「心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭, 人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。」

事情发生后,智能音箱开发者做出回应:「设备可能从任何人都可以自由编辑的维基百科上下载与心脏相关的恶性文章,并导致了此结果」。然而,丹妮·莫瑞特专门搜索了「劝自己自杀」的那篇文章后发现,文章里面并没有「建议自杀」等相关联的内容。

系统劝主人自杀,仅仅是语料库还需要进一步优化,也说明智能语音助手不智能,它还远远没发展到要到伦理角度的阶段。如果常常接收的善意的、正确的交流,或许没什么毛病,但是如果在不经意间接收到了不太好的内容,或许发生以上令人毛骨悚然的事件几率会慢慢的大。

四、被淘汰的职业群体

和农业革命、工业革命不同,农民丢下锄头还能在工厂里找到对自己最合适的工作。但是,在智能时代,不少传统岗位与新型岗位之间存在一道残酷的鸿沟——对学历、智力甚至创造力的要求,并不是每个人可以轻易补上。

因此,即便工厂购入一台工业机器人,随即产生了好几个新的工作岗位(比如操作机器人),但被替换的那些员工还要付出更艰巨的成本才有机会获得这些新的工作。但是,谁为这些人提供机会与成本,又是一个涉及多方主体的复杂问题。

BBC 发布 10 年后 365 种职业被淘汰概率:电话推销员、打字员、会计位居前三

BBC 基于剑桥大学研究者的数据体系,发布了关于未来最有可能被机器人所取代的 365 种职业。

研究表示,在这 365 种职业中,最有可能被淘汰的就是电话推销员,像这样重复的工作更适合机器人来做,比较机器人并不会感到疲惫,烦躁。其次是打字员、会计、保险业务员等等,这些都是以服务为主,像这些行业无需技术,都是只要经过训练就能轻易被掌握的技能。

研究认为,像是那些属于大量重复性的劳动,只需要熟练即可上任的工作,被取代的几率是最大的,像工人及瓦匠、园丁、清洁工、司机、木匠、水管工这些都是高危职业。

有学者认为,纵观历史,科技的影响一直如此。人类的工作方式变了又变,并没有永久地摧毁劳动力市场。

也有不少华人学者给出结论更为「极端」。原腾讯副总裁吴军在《智能时代》一书中认为,在人工智能占据主导地位的时代里,只有 2% 的人能够跨越智能之门,余者都将陷入被机器人取代的担忧。

李开复在《连线》(Wired)官网曾发表《人类与人工智能共存的一幅蓝图》,提出「50% 的工作将被取代」。李开复还曾总结了一个「五秒准则」。五秒内,你能不能为工作中需要思考和决策的问题作出决定?如果能,你的工作就有很大可能性被人工智能替代,这些工作包括翻译、助理、保安、会计、司机、家政等等。

人工智能技术正在改变世界,更在重塑着人类社会。

但随着产业应用的深入,我们也应该读懂社会热点争议事件传递出的重要信息——是时候正视 AI 时代的伦理与法律讨论,以及由此衍生的四大重点问题:经济发展与公平、权益分配与追责机制、人身安全与隐私保护。

语音助手「杀人」、AI 制造假新闻,本质上是新生事物对于传统伦理与法律的挑战;性取向检测、「未来被淘汰职业」是对社会持续健康发展与人类平权这对固有矛盾的反思;无人驾驶事故频出,是呼唤新形势下权责机制认定;而时下人们最最关心的,则是诸如监测头环、AI 换脸、杭州人脸识别第一案的人工智能时代下安全与隐私讨论。关于欧盟准则与加州立法,我们也看到了政府立法在迎接人工智能社会到来的初步探索。

诚然,距离人类社会能够构建出一套完美的人工智能治理规则还为时尚早。但是,冲突日渐紧迫、 人工智能发展奇点随时可能到来,这要求政府、企业、学界和公民社会几方积极对话,共同形成现实可行的改进机制,以应对全面人工智能时代的到来。

从钻木取火到计算机时代,人类一直在接受科技、制约科技,最终掌控科技。尽管走过不少的弯路,但科技的力量加之良善的内心,终究让人类不再茹毛饮血,发展到如今的文明程度。

科技是一种力量,为善是一种选择,针对人工智能治理就是新时代的「驭火之术」。我们理应悦纳人工智能带给人的便捷与舒适,也应努力消弭人工智能带给人的不适与冲突。而这一切的努力,终将改变未来人类社会的样貌,人工智能发展的成果也终将回馈人类自身。

封面图来自pexels

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!