《人工智能初步》第五章 伦理与安全 (高中生用)


第五章 人工智能的哲学思考

 (稿)

目录

第五章 人工智能的哲学思考... 2

5.1人工智能与马克思主义哲学... 4

5.2伦理与安全概念介绍... 5

   5.2.1人工智能的伦理的概念... 5

   5.2.2人工智能的安全的概念... 6

5.3案例分析... 7

    5.3.1人工智能伦理问题的案例... 7

    5.3.2人工智能安全问题的案例... 9

5.4规范制定... 11

   【必要性和迫切性】... 11

   【规范建立理念基础】... 11

   【规范的类别... 12

   【方法】... 12

   【进展】... 12

   【难点】... 13

课后习题... 13

   【问题与讨论】... 14

   【思考与练习】

   【项目挑战】* 

   【拓展项目】*


... 15

 

 

人工智能的伦理与安全(高中教案)

摘要

  1. 1.        作为高中学生,在看到人工智能对人类社会未来发展的巨大价值的同时,也要看到其在的伦理及安全方面的严峻挑战。

  2. 2.        我们要以马克思主义哲学理论(历史唯物轮和自然辩证法)作为出发点,以积极的态度和科学的方法应对这个挑战。

  3. 3.        本章介绍这些挑战的典型案例及其共性,了解现象背后的机制及其基本方法和措施。

  4. 4.        从人类命运共同体福祉出发,我们应理解建立人工智能伦理与安全标准与法规的必要性和迫切性,并自觉维护和遵守人工智能社会化应用的标准与法规。

 

 

Abstract

  1. 1.        As high school students, we should realize that, AI can not only be beneficial, but also be seriously challengeable in its ethics and safety.

  2. 2.        In respect to Marxist philosophy (historical materialism and dialectical materialism), we should rise to the challenge by positive manner and practical methods.

  3. 3.        This chapter introduces typical cases of AI ethics and safety problems, as well as the common mechanism of the problems, and introduces the methods of prevention and control.

  4. 4.        For the good of Community of shared future for mankind, we should understand the necessary and the urgency to establish the AI ethics and safety regulations, which we should obey and protect in our daily life.

 

 

 


 

 

人工智能的哲学思考

 

问题与挑战

1、人工智能技术将带来巨大社会进步机会,也带来伦理和安全的挑战。我们应该以什么样的世界观和方法论来对待它?
2、人工智能带来的伦理与安全问题可能的危害和挑战有哪些? 我们应该如何识别与应对?
3、为什么建立人工智能伦理与安全标准与法规的必要而且和迫切的?为什么我们应该自觉维护和遵守这些标准与法规?

学习目标

1、理解人工智能伦理和安全的概念
2、通过具体案例,了解人工智能伦理与安全问题产生的原因及其危害
3、理解自觉维护和遵守人工智能伦理与安全标准与法规的重要性

内容总览

content.png

------------------------------------------------------------------------------

5.1人工智能与马克思主义哲学

 

哲学,是对基本和普遍之问题的研究。其按其词源有“爱”和 “智”之意。而其中的“智”一词,传统上指的是生物所具有的基于神经器官(物质基础)一种高级的综合能力,包含有:感知、知识、记忆、理解、联想、情感、逻辑、辨别、计算、分析、判断、决定等多种能力。人工智能技术的突飞猛进,产品已经开始具备“智”的特征,或者说,具有了意识的特征,而意识是哲学的研究对象,所以人工智能也成为了哲学思考的范畴。

从马克思主义哲学的世界观和方法论出发,本章介绍我们应该如何理解和应对人工智能技术带来的机会与挑战。在大量的人工智能技术产品开始进入我们人类的社会生活之际,思考它们与人类共存的社会属性“爱”,这不是一个无稽之谈。这是因为,和唯心主义不同,马克思主义哲学是从历史唯物主义出发,思考如何结合当前历史具体实际,力求人工智能这种“智”之于人类社会是具体造福、是具体“爱”,而不是相反、去沉迷于讨论抽象的意义、抽象“爱”。同时,和形而上学不同,马克思主义哲学是从唯物辩证法出发,在利用人工智能技术对人类社会发展的价值的同时,也认识并应对人工智能技术潜在威胁挑战的存在。这样,我们就能够在技术进步过程中,不断地发现矛盾和解决矛盾,进而更好地造福社会。

https://timgsa.baidu.com/timg?image&quality=80&size=b9999_10000&sec=1524997938163&di=bb440f02ce85c28a1bd7ed60b8924fd7&imgtype=0&src=http%3A%2F%2Fwww.mianfeiwendang.com%2Fpic%2Fa8ffbf978559d153f2fe0d5e%2F1-893-jpg_6_0_______-1248-0-0-1248.jpg

插图:示意哲学思考(辩证法和唯物论)对安全和伦理观念的影响(重画)

 

目前,结合技术进步现状和可预见的未来,人工智能技术潜在的威胁挑战主要是安全与伦理问题,这也是目前社会普遍关注的问题。《国家新一代人工智能发展规划》表明,我国将全面推动人工智能技术以促进社会经济发展,也指明了伦理和安全是其基础保障。作为主要内容,本章分别介绍人工智能安全与伦理的基本概念,并通过典型现象,说明其形成原因、运行机制、监管困境和解决办法,进而了解人工智能安全与伦理的现状概貌。然后,通过学习应对这些威胁挑战的法规建设情况,使得我们能够自觉维护和遵守人工智能社会化应用的法律与规范,共同充分实现人工智能技术造福于人类的目的。

 

Alpha Go战胜了人类最高水平的棋手的冲击下,人们对,智能或智慧,这个概念有了更多的关注。新一代人工智能技术提供了一个对比参照对象,使得一些问题比以往更有依据、也更值得思考。这些问题包括,概念的形成机制、概念的联结机制、表达的逻辑、乃至情绪、情感和价值观形成的机制等等,受到了广泛的关注。这些问题是对意识这个哲学的核心概念的探究,不同的哲学学派有不同的出发点。对这些问题的思考,从由人工智能概念诞生之日起,就没有停止过。技术的进步,不排除可能制造出真正能推理和解决问题的智能机器,这样的机器能将被认为是有知觉的,有自我意识的,可以独立思考问题并制定解决问题的最优方案,有自己的价值观和世界观的,有和生物一样的各种本能,比如生存和安全需求。现实的例子是,沙特阿拉伯王国给机器人提供了有史以来的第一份国籍。这是否意味着应赋予机器人和人类同等的人权、社会保障权,也意味着机器人需要承当公民的义务。这些问题都促使了人类对其自身及其价值判断的深层次的哲学思考。 以自动驾驶汽车为例,存在着伦理与安全方面的哲学上的二难问题。以图5.1中的几个情景为例,自动驾驶汽车的决策该怎么设计?这样设计的汽车有市场吗?类似问题本来就是哲学难题,但随着人工智能技术的迅速推广和应用,回答这些问题就变得迫在眉睫。

 

car.png

5.2.1机车困境:假设你是一个设计工程师,而白色的汽车是你设计的具有自动驾驶能力的汽车。再假设,汽车的刹车失灵了,这时候,你设计的汽车只有两个选项,要么向前,要么拐弯。那么在图中的三种情形下,作为设计工程师,你选择向前,还是拐弯? (图片来源:Iyad Rahwan 等,The social dilemma of autonomous vehicles, Science, 2016)

 

 

5.2伦理与安全概念介绍

 

5.2.1人工智能伦理的概念

【定义】

人工智能伦理指的是一系列指导人工智能产品和服务的行为规范;进而也是指导人们,在设计、生产与应用人工智能产品的各个环节,应遵循的道理和准则。这个概念在近年得到广泛关注,主要是因为人工智能技术发展,导致具有自主行为能力的人工智能产品和服务,如机器人和无人机,开始广泛地进入社会生活。这些产品的自主行为会影响到人,所以,它们的行为应该遵从人类的行为规范的约束,也就是说,人工智能产品和服务的自主行为应该遵从伦理约束。这些约束,归根到底,是对人工智能技术的设计者、生产者和消费者的约束,是对人的约束。

【解释】

了解人工智能伦理,就要从传统的伦理概念说起。传统中,“伦理”这个概念经常和“道德”一起出现,叫“伦理道德”,说明社会对给定场景下一种行为的价值判断,也就是一种行为是“好的”或者是“坏的”。一般而言,我们把符合社会规范的行为,称之为符合伦理的,比如社会主义核心价值观的。对于是否符合伦理的价值判断,人类社会有共性(比如“真善美”)也有不同点(比如“妇女优先”)。判断一种行为是否符合伦理并不都是简单的。比如图5.2.1的机车困境的场景,它在传统社会中就存在,在自动驾驶这一人工智能典型应用中也存在。又比如图5.2.2的智能医疗决策,在为患者做出饮食、娱乐或服药的不同维度上的平衡,这也属人工智能伦理的问题。在学理上,伦理是属于道德哲学的研究范畴,而在社会科学领域是采用博弈论的方法。

 

5.2.2人工智能的安全的概念

人工智能安全,指的是人工智能技术必须做到能够和人与社会和谐相处,不可以威胁或伤害人的与社会。 其中,对人个体的威胁或伤害主要指对人的身体和心理上造成伤害,而对社会的威胁或伤害主要指社会各个群体的机会公平、国家民族之间的协调发展造成伤害。人们已经意识到,这些伤害的可能,并为防范于未然而努力。

【解释】

     对人个体的安全挑战,可以表现为对人的身体的伤害,也可以表现为对人心理的伤害。在传统工业产品中,对人个体的保护有丰富的经验,可以通过工业产品技术生产标准和检测标准、民法和刑法(如消费者保护法、安全法)等制度形式提供保护。人工智能产品的新特点,带出的新问题,可以在传统基础上进一步发展。在学理上,这是属于人因工程的研究范畴,是生理学、心理学和机械、电子和计算机科学的交叉学科研究的内容。

对社会结构的安全挑战,这是一个新问题,因为和传统的新产品和服务不同,人工智能技术的进步,对产业和经济结构的影响,不是局部的改良,可以是全局性的颠覆。一个例子是,一些传统职业将可能不复存在而带出失业问题,同时一些新职业的出现而带出专业技术教育条件的问题。再一个例子是,发展不平衡,欠发达和发达国家和地区的生产能力进一步拉大,而技术进步导致原材料耗费的节省,进而欠发达地区在全球经济系统中贡献度会缩小,全球发展的进一步失衡,这会导致全局国际政治和经济关系紧张。因此,要从国家乃至全球治理的高度,加大对人工智能可能给社会秩序带来挑战的关注。这方面的工作,被称为人工智能的社会责任的工作。在学理上,这是属于社会科学,包括经济学、管理学、政治学和国际关系等专业研究的对象。

 

 

aa.png

5.2.2医疗服务机器人的伦理问题 (图片来源:Michael Anderson and Susan Anderson, Robot Be Good, Scientific American, 2010)

 

 

5.3案例分析

人工智能安全的问题,除了传统机械电子和自动化产品的安全外,有其新特征。这些新问题主要是由采用人工智能新技术而新增的安全问题。

这些问题,可按无意或有意,分为二种。 无意的安全问题不是出于设计者和使用者的故意,例如,由于智能图像识别技术的误判(如把物体A识别为物体B),导致的系统的错误的决定。无意的安全问题是出于设计者和使用者的故意,比如,利用AI技术制造假的个人身份信息,进而入侵控制汽车、飞机、心脏起搏器、自动交易或电网,甚至制造自主的大规模杀伤性武器,这些情况属于严重危害社会的安全问题。

 

5.3.1人工智能伦理问题的案例

人工智能技术迅速进入社会,作为一种新生事物,出现很多以前未曾出现的现象, 这些现象中,已经包含了伦理的问题。对于这些问题,社会要设法形成共识,而形成共识之前,我们需要了解这些现象的所形成的原因、过程,所依据的条件,可能的后果,进而明确责任,找到问题的解决办法。我们需要找到问题所在,并切实解决问题,而不是对问题的回避、虚化或夸大。下面先看二个具体例子。

劝诱成瘾

【问题描述】

利用人工智能技术,可以持续地、实时地劝诱用户成瘾。这种现象常发生于传媒和互动内容为主的信息服务中。商家为了提高用户活跃度和占有注意力而提高收入,通过人工智能技术实时了解用户状态,推送信息,借助神经科学知识,打破用户的自控力并固化其习惯,诱导用户进入一个不断重复的循环接受状态,导致用户精力浪费和认知扭曲。受诱者中常以青少年为主,这是产商服务设计中的伦理问题。

【成因和举例】

劝诱成瘾这种设计伦理问题,随着实时通讯技术、脑神经科学、大数据基础和人工智能技术能力的提高,在国内外已经渐渐成为一种公害,也越受到社会的重视。对严重的情况,政府监管部门会直接给与干预。例如国外的脸书的广告推送、今日头条的新闻推送、抖音的视频推送等等,这些服务中不同程度上,都存在着以商业利益为目的、有意劝诱用户成瘾的伦理问题。在受到社会质疑、政府介入监管后,这些出现的情况都得到改善。

【引导】

作为用户,我们要了解这样的信息消费陷阱的存在,并对之加以警惕与防御。作为技术人员,也要自觉地在设计和开发阶段,避免这种潜在伦理危害。作为经营者要遵从社会主义核心价值观、遵从人类命运共同体理念、注重企业的发展必须紧扣时代和国家发展主旋律。

pi.jpg

5.3.1 劝诱成瘾(图片来源:Nanette Byrnes, Technology and Persuasion, MIT Technology Review, 2015)


消费者歧视

【问题描述】

对待消费者应公平,俗称“童叟无欺”,这是一种传统的公序良俗,符合伦理。比如对同一商品,在同一时间法的定价,对于不同的消费者应该是相同的,否则就属于消费者歧视。但是,近年网络消费中屡屡出现消费者歧视(如“杀熟”)这种现象。这种现象,在经济学领域,被称为价格歧视,是一种剥削消费者剩余。随着人工智能技术在网络经济中的应用,商家可以借助大数据,给逐个消费者建立其个人偏好的画像,进而尽可能以消费者个体为目标进行定价,实现商家的利益最大化。

【成因和举例】

随着大数据基础和人工智能技术能力的提高,消费者歧视这种不道德的行为,在国内外已经渐渐成为一种公害,越来越受到社会的重视。例如,美国的优步打车和国内的滴滴专车、也包括携程旅行,在不同的时期,都曾经出现过这种现象。

这种伦理问题是在设计阶段发生的,是产家的产品和服务设计人有意而为之的。而用户利益受伤害的过程,往往是一个隐约的、不明显的过程。但是,随着服务商用户数据的积累,对用户的偏好了解越来越清楚,那么消费者歧视的后果就会越来越严重,造成很大的负面反响。政府监管部门在事后介入,抑制了这些现象的恶化,企业的运营也恢复到良好的秩序上来。

【引导】

作为用户,如果意识到这些违背伦理的潜在威胁,既能保护自身权益,又能保护公众经济利益,维持社会公序良俗,这是有意义的。

上面的二个例子,从利用人工智能技术而产生伦理问题的动机上,责任主体都是企业。现实中,也不乏责任方是人工智能产品使用者的情况发生。作为用户,我们要自觉避免这样的情况。同时,随着时间的推移,相关的伦理标准和法律法规也会不断成熟。无论是作为消费者还是设计开发人员,我们都应遵从这些法律法规。

 

5.3.2人工智能安全问题的案例

大规模杀伤性武器【军事】

【问题描述】

杀人蜂视频是一个典型的安全事件模型影片。该事件模型的主体是集成了人工智能技术的成千上万的无人飞机,影片向我们展示了由这些无人飞机制造的大规模杀伤市民和学生的案例。


Duke.jpg

图5.3.2 利用人工智能技术制造大规模杀伤性武器(图片来源:Duck, 2017)


【问题分析】

它是201711月由一个国际民间组织制作的,其初始目的为了反对大规模杀伤性武器而制作的宣传片,意在敦促联合国尽快制定法律,在全球范围内禁止人工智能被利用于大规模杀伤性武器的开发。在该宣传片中,无人飞机集成了人工智能的识别技术,而攻击对象的选择和最终的攻击决策也是自主做出的。 这些技术已经是事实的存在,而不是科幻。同时,对比于人类受伤害方的损失,攻击方实现这样大规模攻击的经济成本极低,所以,在现实中出现这样的大规模伤害的安全事件是完全有可能的。这个宣传片促使了人类对人工智能技术的应用带来的安全隐患的警惕。

【引导】

作为公民,我们应该了解这样的安全隐患的存在,对于类似应用的讨论要加以警惕,同时,要避免传播对杀伤性武器制作有助的技术信息。作为技术和经营人员,要自觉地抵制为这类应用提供在设计、开发和生产阶段的支持。 从立法角度,从经验看,通过类似《日内瓦公约》的形式达成的国际公约,是比较有效的。

 

信息安全 政治】

【问题描述】

脸书(Facebook)-剑桥分析(Cambridge Analytica)事件是一个用户个人信息大规模泄露,导致被不当利用,进而影响社会生活信心的事件。

facebook.jpg

图5.3.3 利用第三方工具窃取个人隐私数据(图片来源: 2018)

【问题分析】

脸书公司对第三方(如数据服务商或广告服务商)开放应用程序接口(API),而第三方(如,剑桥数据分析)通过Facebook获得了数百万用户的个人资料,建立的模型了解每个用户特征,了解用户的个人兴趣特征,按照认知的特性,通过向用户推送信息,诱导用户观念的改变,进而诱导用户的决策。大规模的用户被诱导的情况下,社会群体的认知会产生偏差,诱导人群的选择指向信息操纵者所期望的方向。 [扩展阅读]

【引导】

数据的规范使用需要立法,尽管法律是滞后的,在立法成熟之前,作为用户,我们应注意自己的数据隐私的保护,要有敏锐的洞察力,有意识地思考分析数据会被用来做什么,以避免受到伤害。同时也要意识到,随着人工智能技术的进步,快速生成新闻,利用生成假图像、假信息,使得真相与假象难以区分,这会给我们正常的社会活动(如,投票)带来新的问题,对此我们也应加以警惕。

 

就业冲击【经济

【问题描述】

人工智能已真真切切地影响了诸多行业的就业,颠覆了这些传统行业的操作方式,有效节约人力成本。例如,从事制造业的富士康集团,其在国内总员工数超过百万,属于典型的劳动密集型制造企业。近年来富士康集团在位于昆山的工厂开始裁员接近6万人,由超4万台机器人取代人力。机器人工人已经在其郑州工厂、成都平板工厂等投入使用。富士康宣布将引进一百万台机器人,代替大陆雇佣的一百万工人。又如,2000年,高盛集团拥有现金股票交易柜台的交易员多达600名,而到了2017年的交易员仅剩2名,从600多名到2名,现金股票交易柜台的交易员数量骤减,对比鲜明。据研究估计,大约有47%目前的就业岗位将在不久的将来被人工智能技术所替代。

【问题分析】

作为企业,在激烈的市场竞争中,应该采用先进的智能技术,提高劳动生产效率,这无可厚非。可是,在经济全球化的趋势下,社会高度分工,一些小的国家和地区,人口数量小,就业人口往往集中在少数的几个领域。如果这些领域出现大规模的就业被人工智能技术的发展所替代,那么就可能会导致社会的动荡。类似地,为保持人工智能技术的竞争力,国家地区之间的竞争更加依赖于人才和教育,这需要大量的社会投入。而由于发展不平衡的历史现状,国家地区之间的不平衡可能加剧,地缘政治和军事冲突的危险性可能增大。

【引导】

在人类社会发展历史长河中,已经出现过多次新技术对就业的冲击。经验告诉我们,随着新技术的到来,新的职业会诞生,进而能缓解由于老职业淘汰所带来的严重的失业现象。但是,新的职业往往需要新的教育与培训。作为个人和社会,对技术所带来的变迁要有思想准备、知识准备和行动准备。

 

5.4规范制定

    人工智能技术伦理与安全问题,从社会角度要通过规范的制定来解决。为了加强提升产品和服务质量,促进科学技术进步,保障人身健康和生命财产安全,维护国家安全、生态环境安全,提高经济社会发展水平,国家通过建立《标准法》,《消费者权益保护法》以明确产品与服务的标准的制定、实施、监督管理和法律责任。

【必要性和迫切性】

确立人工智能伦理规范是必要的。科学技术的发展在为人类带来巨大福利的同时,往往有其潜在威胁,这需要辩证地看待。例如,从原子物理和相对论的发展,人类获得了核能源,也受核武器的威胁;如生物化学技术的发展,人类提高了医疗水平,也受到生化武器的威胁。而历史经验说明,通过建立必要的规则,人类社会还是能够规避这些威胁的。人工智能技术也一样,需要辩证地看待。它在带来社会巨大发展的同时,也有潜在威胁。只要我们齐心协力,建立好人工智能伦理规范并认真维护并遵从,威胁是可以避免的。

人工智能技术是一场技术革命,它关系到社会经济发展和国家竞争力。以中国的《新一代人工智能发展规划》和美国的《指导意见》为例,目前各国政府都积极推进。但是,伦理和安全的规制是必需的,这又是共识。所以,规范制定还具有迫切性。

【规范建立理念基础】

确立人工智能伦理与安全规范,应以马克思主义历史唯物主义为基础的,应符合社会主义核心价值观,应基于人类命运共同体理念。这是因为,人工智能强大的能力会大尺度、深刻地影响社会生活和观念,进而推动社会健康的发展。人们已经意识到技术不是中性的,而是要负社会责任的。人工智能伦理规范的建立,不可以是基于唯心主义的抽象的原则,也不可以是脱离人们具体历史和现状的客观条件的信条,而应是从马克思主义哲学原理中历史唯物主义出发的、具体地符合实际情况的、以造福于人类福利与尊严的规则。应从全社会利益出发,不能只考虑商家和消费者局部利益、不能只考虑个别团体和地区的利益。在建立制度规范过程中,人类命运共同体理念和社会主义核心价值观应贯穿始终。

 

 

规范的类别

应对人工智能伦理与安全问题,主要方法是,通过为人工智能技术开发、生产、销售、服务和应用的各个环节,建设相应的法规,并敦促社会遵守这些法规。这些法规,可以依据安全与伦理问题威胁的程度不同进行分类。

从适用范围区分,可以分为企业组织的操作规则和企业组织标准、工业技术产品与服务标准、政府和组织的规定、国家法律和条例的形式,也可能以行业自律和社团公约的形式存在。

从产品功能上进行区分,也是一种分类办法。比如,机器人、自动驾驶汽车和无人机就分为不同类别,每一类产品又可以细分,分成更加小的类别。比如,在我国机器人的标准中,就分有工业机器人、医疗机器人、个人/家用服务机器人、公共服务机器人和特种机器人等等。

从执行时间先后上进行区分,也是一种分类办法。比如,设计环节、生产环节、测试环节的标准等等。

【方法】

规范和标准的开发的承当者,主要是由国际或国内普遍认可的标准化组织机构。这些机构,通过召集企业和研究机构共同参与,进而发挥各方优势而共同协商、共同开发的,比如,国际标准化组织,中国国家标准化委员会等等。还有一些专业组织,如美国电气电子工程师学会(Institute of Electrical and Electronics EngineersIEEE),企业联盟等等。如果在伦理与安全方面,遇到了严重地危害社会和人的可能,则可以通过立法的程序加以解决。

标准开发的过程,有一套成熟的程序,一般有立项、协商、开发、测试、评审和发布等几个阶段,标准应用一段时间后,随着技术条件的变化,标准可以通过作废老版本、建立新版本来得以适应社会需求和技术变化的。

【进展】

人工智能伦理与安全规范是随着技术进步正逐步确立的,目前尚处于起步阶段。国内组织(如国家标准委员会和中国人工智能产业发展联盟)和国际组织(如国际标准联合会和国际电子工程师联合会等),正在积极通过教育宣传和标准开发(如设计阶段伦理标准和数据隐私保护标准),来推动人工智能伦理规范建设正在往好的方向发展。 值得注意的是,一些企业,如谷歌公司在英国的子公司深度思维(DeepMind)已经建立了专门部门,研究推进伦理与安全方面的推进。

目前,我国在人工智能行业中,国家机器人标准化总体组在标准建设走在了前列。对于各类机器人,在这个标准建设规划中,已经有安全标准和伦理标准(如安全功能安全及检测方法、信息安全及检测方法和伦理)。但是,从目前看,这几项标准的开发计划还没有开始实施。以伦理为例,该组织的解释是,“伦理:机器人伦理类标准。基于目前机器人智能化程度还处于初级阶段,因此暂不考虑制定伦理类标准”。目前,以国际标准化组织和美国电气电子工程师学会为例,情况也相近,也处于积极推进这项工作之中。

 

【难点】

目前,尽管社会对人工智能安全与伦理的关注的呼声很高,尽快建设法律法规是社会共识,但是相关标准和法律法规建设的进展并不能很快。这里主要有三个方面的原因。

第一、安全与伦理的概念的本身并不十分明确。首先,安全与伦理这二个概念分类问题,其次是这二个概念自身度的把握。在现实人类经验中,就存在问题。比如,自动驾驶汽车困境。

第二、社会经济因素激励导致和目标不同。社会群体之间、国家地区之间利益诉求不同,发展不平衡、实力不平衡,对标准的需求也不同。比如,医学机器人困境。

第三、实践上,时间短、案例不多,难以归纳总结出系统性的规范。理论上,基于数学表示的分析框架结构不明确,尚未形成共识,所以,难以在理论上直接演绎推导出系统性的规范。

尽管伦理问题的研究有几千年的历史,但是长期以来,对于伦理困境的问题,一直处于思辨和讨论状态。在遇到问题时,人们可以不事先声明的情况下,做出临时的决定。但是,人工智能技术产品(如,自动驾驶汽车)的出现,迫使人们在产品设计阶段、或是实际使用之前,为其明确什么是好的、什么是坏的。这使得伦理问题不同的答案必须明确。这也是在不久的将来,伦理研究将要被加速的推动力。但是,我们不可以指望一蹴而就,对问题的困难有了解,而是需要耐心地逐步加以解决。


icare.png

图5.4.1 数据隐私问题的多样性(图片来源:iCare, 帮助识别乱玩手机的熊孩子, 移动技术大会HotMobile 2017)

 

课后习题

 

【问题与讨论】

为什么我们需要马克思主义历史唯物主义,看待人工智能伦理标准建设的问题?

人工智能技术的机器人是否应该被赋予与人同等的权力?

我国《新一代人工智能发展规划》中,对人工智能伦理和安全及其相关法律法规视为人工智能发展的环境保障,分三个阶段加以建设。请问这三个阶段的时间点和目标是什么?

基于人类命运共同体的理念,应该如何应对人工智能技术对国际关系可能有什么影响? 

尽管美国的人工智能技术先于欧洲,但是欧洲在人工智能立法方面快于美国, 这里的原因可能有哪些?

可以举出几个人工智能产业发展和人工智能伦理约束间的矛盾所在的具体例子吗?

【思考与练习】


1、以信息劝诱成瘾为例,说明它需要的技术是什么? 利用的人的脑生理弱点是什么?作为用户你该如何观察才能发现? 作为监管部门是可以要求企业提供数据的,那么你需要什么数据才可以判断出一个企业提供的服务是否构成劝诱成瘾的违背伦理行为?

2、以医疗服务机器人为例,假设你作为一个设计人员,你可能遇到的选择困境的例子?

 

-------------------------------------------------------------------------------------------

【巩固与提高】

 

 

1、课中的5个案例中所需要的数据和算法,请以图表的形式给出。

 

2、5个案例中,最经济的政府监管手段,依序可以落实在哪些环节?

 


【项目挑战】  

 

   在课文中,我们提到了“消费者歧视”这种现象,其中一种表现为“一级价格歧视”。这是商家向每个顾客索要其愿意为所购买的每单位商品付的最高价格(这种最高价为保留价格)的策略。在传统商业实践中,完全一级价格歧视几乎是决不可能的,只存在于理论研究之中,是一种的理想化的厂商能够全部消费者剩余的情况。但是,随着信息技术和人工智能技术的进步,这种现象成为可能,这将导致消费者利益大范围的伤害。就这种现象为例,我们应该如何治理?


  • 项目任务

为了理性分析“消费者歧视”中“一级价格歧视”这种价格欺诈的商业伦理现象,你需要完成以下任务

1、  理解消费者剩余的概念,理解一级价格歧视的概念,

2、  了解这种现象产生的动机,需要哪些数据,这些数据可能的收集方法 

3、 实现这种定价方法的计算逻辑。

4、  思考为抑制这种现象的发生,监管部门可以采取的监控措施有哪些

 

  • 过程与建议

理解并防止这种对消费者利益的大范围的伤害,需要进行理性分析。建议逐步完成下面的几个步骤,以期有坚实的依据,提出有效的治理方法的政策建议。

1、  理解价格的形成:理解发生这种现象的经济学表示

2、  理解数据收集:用于分析消费者需求曲线所需要的数据(注意:这里有消费者个人数据安全保护问题)

3、  理解算法:针对性定价方法的计算逻辑(注意:这里尽可能回顾前面四章中提及的新一代人工智能技术,因为,商家很可能正在追踪技术进步,使用最新技术)

4、  给出监管建议:根据上述数据和算法逻辑,给出治理的政策建议

 

  • 评价标准

请根据项目实施的过程、结果和交流效果,对自己完成项目情况进行客观评价,并思考后续完善的方向。将评价结果和完善方案填写在下表中

评价条目

说明

评分(1~10分)

评分主要依据阐述

后续完善方向

主要结论和观点

结论和观点的描述清晰明了




支撑材料

支撑材料科学、可靠、丰富且针对性强,能够支撑结论和观点




论证过程

表述简明扼要,逻辑清晰




后续建议

提出的建议可行性强,理性、有价值




 


【拓展项目】

1、本章介绍的应对人工智能伦理和安全挑战的方法,主要是通过对案例进行分析和总结的,也就是说到目前为止,我们主要的是归纳法。那么,请问,应对人工智能伦理和安全挑战,是否有采用演绎法?能否介绍一下,采取演绎法的基本数学工具是什么?

2、人工智能技术的进步,会产生新分支,带出新问题。尽早预见并预防潜在风险是有益的。本章没有介绍到的一个人工智能新分支 --- 脑机混合智能,也就是人脑智能与机器智能结合的智能。在这个领域,可能出现的伦理与安全问题会有哪些? 风险程度如何?应该如何预防? 请查阅资料。并加以分析,再给出回答。


 

 

 

 

 

 

《人工智能初步》大纲


Ch1 人工智能简史(吴飞)

       对应课标4.1描述人工智能的概念与基本特征;知道人工智能技术的发展历程、典型应用与趋势。

Ch2 基础理论

       对应课标4.2了解人工智能典型编程语言和核心算法(例如:启发式搜索、决策树等),熟悉智能技术应用的基本过程和实现原理。

       2.1 逻辑推理、规则推理、专家系统(钱沄涛)

       2.2 统计机器学习(基于贝叶斯)(钱沄涛)

       2.3 连接主义(神经网络)与深度学习(吴飞)

       2.4 行为主义(汤斯亮)

       2.5 其他(混合增强智能等)未知、尝试,开放问题(脑科学、量子)(吴飞)

Ch3 人工智能的实践(在具体领域的(如视觉)的实践)

       对应课标4.34.4

4.3知道特定领域(例如:机器学习)人工智能应用系统的开发工具和开发平台,通过具体案例了解这些工具的特点、应用模式及局限性。

4.4通过开源AI应用框架,搭建简单人工智能应用模块,并能根据实际需要配置适当的环境、参数及自然交互方式等。

       以符号(文字)识别为例,采用各种方式实现。

       3.1 基于规则(钱沄涛)

       3.2 基于统计(钱沄涛)

       3.3 深度学习(李玺)

Ch4 人工智能典型应用分析

       对应课标4.24.5

4.2通过剖析具体案例……

4.5通过智能系统的应用体验……

       4.1 无人驾驶(李玺)

       4.3 机器问答(赵洲)

4.4 人机博弈(杨洋)

4.5 智能医疗 (朱强)

Ch5 人工智能的哲学思考(王志坚)

       对应课标4.54.6

       4.5了解智能应用系统所面临的伦理及安全挑战,知道信息系统安全的基本方法和措施,增强安全防护意识和责任感。

4.6辩证认识人工智能对人类社会未来发展的巨大价值和潜在威胁,自觉维护和遵守人工智能社会化应用的规范与法规。


 

致谢:

王志坚感谢Michael Anderson的帮助和讨论,感谢王权芳对全文的仔细更正。

共收到 0 | 阅读次数 347
发表评论
请先登录再发表评论