2018GAITC | AI应用与伦理若干挑战
议题一:AI现在有多牛、多危险?
AI取得了巨大进展。
如工业机器人那样的大规模行业应用尚未出现。
尚不明朗现有AI技术强大或危险到什么程度。
例1:AlphaGo
围棋是已知最复杂的棋类博弈;AI已远远超过人类的博弈能力。
围棋博弈是确定性问题,是最容易的AI问题类型。
AlphaGo的成功预示着,AI在确定性问题领域的广泛应用提上了议事日程。
最困难的AI问题是不确定性问题。不确定性问题包含着更大的科学挑战和伦理挑战。
例2:Robotics: General Observation
1948年,图灵在生前未发表的论文Intelligent Machinery中,探讨了如何用机器替代一个人的每一部分,以建造一台智能机器。
图灵发现,这在当时是不切实际的,故提议首先研究没有躯体的“电子大脑”,而图灵测试的测试对象正式电子大脑,不是完整的智能机器。
AlphaGo之后,智能机器人、无人车等不确定性领域成为当前AI研究的主要课题。
例3:Kejia Robots
.
议题二:应用与伦理的协同发展
没有AI应用,就没有对AI伦理的需求和挑战。
没有充分的AI伦理体系支撑,AI应用不可能长期稳定发展。
如何协调AI应用发展与AI伦理建设的步调?
例4:医疗
每千人医生数:美国2.6,法国3.1,德国4.1,中国1.4。
中国医疗资源分布严重不均衡(北京4.6)。
.
议题三:产业创新与制度创新
产业创新不可能同等惠及每一个人,甚至有人可能受损。
只有对技术、产品和产业的伦理要求是不够的。
如何协调AI产业创新和社会制度创新?